2018年07月02日

●「形態素解析により意味を探るシリ」(EJ第4797号)

 自然言語処理とは、人間が日常的に使っている自然言語をコン
ピュータに処理させる一連の技術であり、人工知能と言語学の一
分野です。この自然言語処理の重要プロセスが「形態素解析」で
す。形態素解析を定義すると、次のようになります。
─────────────────────────────
 文法的な情報の注記のない自然言語のテキストデータから、対
象言語の文法や、辞書と呼ばれる単語の品詞等の情報にもとづき
形態素(おおまかにいえば、言語で意味を持つ最小単位)の列に
分割し、それぞれの形態素の品詞等を判別する作業である。
        ──ウィキペディア https://bit.ly/2Na9Flk
─────────────────────────────
 この定義を読んでもピンとこないと思うので、「私は台所で料
理します」という例文を使って説明します。この文を形態素解析
をすると、次のように7つに分割されます。
─────────────────────────────
          私  ・・ 代名詞
          は  ・・ 副助詞
          台所 ・・  名詞
          で  ・・  助詞
          料理 ・・  名詞
          し  ・・  動詞
          ます ・・ 助動詞
─────────────────────────────
 このように、文をバラバラにして、最小単位になった単語をそ
れぞれ辞書などのさまざまな情報と照らし合わせ、それらの単語
の品詞の種類、活用形の種類などを含めて、その意味の割り出し
の分析を行うのです。その意味の割り出しには次の3つのステッ
プを踏むのです。
─────────────────────────────
   1.構文解析
     ・形態素をもとに文の構造を明確にする
   2.意味解析
     ・構文をもとに意味を持つまとまり判別
   3.文脈解析
     ・文単位で、構造や意味について考える
─────────────────────────────
 これらの解析に関しての詳細は、次のサイトに詳しく、かつわ
かりやすく解説が行われています。
─────────────────────────────
 自然言語処理とは?スマートスピーカーにも使われている技
 術をわかりやすく解説!     https://bit.ly/2tIAMvU
─────────────────────────────
 形態素解析の話に戻ります。これらの解析には多くのツール、
すなわち、ライブラリが用意されています。有名な日本語形態素
解析ツールには、次の3つがあります。
─────────────────────────────
          1. MECAB
          2. JUMAN
          3.JANOME
─────────────────────────────
 第1は、「MECAB」です。
 これは、オープンソースの日本語形態素解析ツールであり、最
も有名です。汎用的な設計ができるのがMECABの特色です。
名前の由来は「和布蕪/めかぶ」からきています。使用できる言
語は、C、C#、C++、Java、Python、Rubyなど多数あります。
 第2は、「JUMAN」です。
 これは、京都大学大学院情報学研究科知能情報学専攻の黒橋・
河原研究室が開発した日本語形態素解析ツールです。WEBテキ
ストから自動獲得された辞書、ウィキペディアから抽出された辞
書を使用できます。
 第3は「JANOME」です。
 これは、汎用プログラミング言語「ピュアバイソン」で書かれ
ている日本語形態素解析ツールです。パイソンは、C言語などに
比べて、プログラミングが分かりやすく、少ないコードで書ける
特徴があります。名前の由来は「蛇の目」からきています。
 アイフォーンの「シリ」で、ユーザーが次のように話しかけた
とします。
─────────────────────────────
  遠藤さんに打ち合わせに遅れます、とメールを送って!  
─────────────────────────────
 この音声はアップルのサーバーに送られ、形態素解析が行われ
上記の構文分析、意味解析、文脈解析が行われ、最終的に次のか
たちに落とし込まれ、サーバーからアイフォーンに送り返されて
きます。
─────────────────────────────
   ・宛先は「遠藤さん」
   ・メールのサブジェクト「打ち合わせに遅れます」
   ・メールの本文は指定されていない
   ・その内容はメールを送る
   ・送る際は(アイフォーンの)メールアプリを使う
                  https://bit.ly/2Ncsrsg
─────────────────────────────
 ここまでくると、アイフォーンに登録されている遠藤さんのア
ドレスを宛先に指定し、メールアプリはシリを使い、「本文はど
んな内容にしますか」というメッセージ画面を出します。
 もちろん遠藤さんが2人以上いるときは、「どの遠藤さんです
か」と質問し、選択を促します。
 このようにして、シリは自然言語処理によって、ユーザーと対
話を行い、指定された動作を行うのです。
          ──[次世代テクノロジー論U/041]

≪画像および関連情報≫
 ●「Siri」と「AI」の関係を整理する
  ───────────────────────────
   AI(人工知能)は専門家によりさまざまな定義がありま
  すが、総合すると、「人間と同じような知能を人工的にコン
  ピュータで実現しようとする技術」を指します。その歴史は
  意外と古く、「AI(人工知能)」という言葉が初めて登場
  したのは、1956年に開催されたダートマス会議でした。
  1964年には、コンピュータと人がテキストベースであた
  かも会話しているように見せる対話システム「イライザ」が
  開発され人気を博しました。シリにイライザについて尋ねる
  と「彼女は私の最初の先生だったんですよ!」と答えるのは
  イライザが対話システムの原型だったことに由来します。
   現在「AI(人工知能)」と呼ばれる分野には、自然言語
  処理、音声/画像認識、データマイニングなどさまざまな情
  報処理技術が含まれていますが、AI技術の核となるのが、
  「機械学習」です。
   機械学習の説明がまたややこしいのですが、ざっくり言う
  と、人間が自然に行っている学習と同じように、AIプログ
  ラム自身が学習する仕組みです。大量のデータを処理、解析
  し、未来の予測を行うため、使うほどにデータが蓄積され、
  学習していき、賢くなります。この機械学習を取り入れてい
  るのがシリです。アップルの公式サイトではシリについて、
  「アップルが開発した機械学習テクノロジーが組み込まれて
  いる」と明言されています。   https://bit.ly/2ME1Q6x
  ───────────────────────────

MECABによる形態素解析.jpg
MECABによる形態素解析
posted by 平野 浩 at 00:00| Comment(0) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月03日

●「AIはディープラーニングにある」(EJ第4798号)

 「スマートニュース」というスマホ配信のニュースアプリがあ
ります。私は情報収集用に複数のニュースアプリをダウンロード
していますが、「スマートニュース」の場合、ニュースの選定の
的確さや文字の読み易さには定評があると思っています。
 タイトルや記事の読み易さを支えているのは、昨日のEJで取
り上げて説明している「形態素解析」の技術を使っています。形
態素解析という技術は、文章を構成している要素を単語レベルに
バラバラにします。その単語単位で行を折り返したり、文字の横
幅を圧縮するなど、日本語組版に工夫をこらしています。そのた
め、文字と文字の間隔や、改行などが適切に行われているので、
記事がとても読み易いのです。AIの技術はこんなところに使わ
れているのです。
 さて、現代は「第3次AIブーム」と呼ばれています。今や何
でもかんでもAIです。「AI家電」がその典型です。お掃除ロ
ボットから始まって、AI冷蔵庫、AI調理器、AIスピーカー
など、何でも「AI」の言葉を冠するようになっています。
 その多くはIoTを含む現代のICT技術をすべてAIと呼ん
でいるフシがあります。こういう傾向は、第2次AIブームのと
きもあったのです。AIには、きちんとした定義がないというか
定義できないので、こういうことが起きるのです。
 これについて、現代AIの日本の第一人者といわれる東京大学
特任准教授の松尾豊氏は「AIは擬人化の一種であり、技術をあ
たかも人であるかのように例えると理解しやすい。ICTをAI
と呼ぶこと自体は問題はないが、過度な擬人化には注意が必要で
ある」といっています。
 それでは、現代のAIは、どのように捉えるのが、正しいので
しょうか。
 AIは、ディープラーニング(深層学習)にあるといえます。
松尾豊准教授が現代のAIについて、記者のインタビューに答え
ている記事をご紹介します。
─────────────────────────────
──深層学習は何をもたらすのでしょうか。
松尾:「目が誕生した」と考えればいいでしょう。深層学習は人
間でいうところの目の技術です。網膜の役割をセンサーが、視覚
野を深層学習が果たすわけです。
 画像認識の精度はどんどん上がっています。2015年に人間
の目の精度を超えました。最近では、画像認識の次の段階として
予測が出てきました。例えば海岸から見た波の映像を与えると、
次に波がどう動くのかを予測し、描画するというものです。人間
が世界を観察する仕組みと同様のものを実現するための研究が進
んでいます。
 深層学習は、見ているものが何かを判断する「パターン処理」
の技術と言えます。見ているものに次に何が起こるか、を予測す
るのもパターン処理です。
──目を獲得すると、何が起こりますか。
松尾:生物が目を穫得してから、生物の戦略は急速に多様化して
いき、飛躍的な進化につながりました。
 同じことが、機械やロボットの世界にも起こるはずです。(約
5億年前のカンブリア紀に生物が飛躍的な進化を遂げた)「カン
ブリア爆発」と同様の現象を予想しています。
 農業を例に取ると、自分の目で判断する農作物の収穫ロボット
が実現できます。収穫が可能なら、農作物が病気かどうかも判定
できるようになる。すると対処策を講じられる。同じようなこと
が、製造業の工場でも可能になります。医療、介護、建設、食品
加工といった、至るところで適用できるのではないでしょうか。
 目を穫得した機械はハードウエアとして販売するほか、サービ
スの一部として提供できます。農業ではトマトの収穫、病気の判
定、対処を講じるサービスが可能です。 松尾豊東京大学准教授
 「深層学習の価値は『目』の獲得/産業応用で日本は勝てる」
     ──『まるわかり!人工知能最前線』/2018年版
                     日経BPムック刊
─────────────────────────────
 ディープラーニングは「革命」です。6月18日のEJ第47
87号において、なぜ、革命かについて、AIの3つの可能性に
ついて指摘しているので、再現します。
─────────────────────────────
        1.3つの認識が可能になる
        2.運動ができるようになる
        3.言語の意味が理解できる
─────────────────────────────
 「1」の3つの認識とは、「画像認識」「文字認識」「音声認
識」のことであり、これはいずれも既に可能になっています。そ
れは、AIが目を持ったからです。そして、遂に2015年にお
いて、AIの画像・音声誤認識率、画像認識や音声を間違える率
は人間の方が高いのです。松尾准教授はこれを「数年後、歴史の
教科書に載ってもいいくらいの出来事である」としています。
─────────────────────────────
        AI ・・・・・ 5・1%
        人間 ・・・・・ 4・9%
─────────────────────────────
 「2」の「運動ができるようになる」という意味は、人間が教
えることなく、自らの観測データと合体させて、同時の行動がと
れるようになることを意味します。
 米ATARIの約60のゲームのうち、半数では既にAIが、
人間のハイスコアを超えています。AIは習熟を通じ、人間のよ
うな熟練した動きができるようになってきているのです。将棋や
碁の世界でも同様です。
 「3」の「言語の意味が理解できる」についても大きな進展が
あります。これについては、明日のEJで述べることにします。
          ──[次世代テクノロジー論U/042]

≪画像および関連情報≫
 ●AIの世界で「眼の誕生」が持つ意味
  ───────────────────────────
   「カンブリア爆発」という言葉をお聞きになったことがあ
  ると思います。古生代カンブリア紀、およそ5億4200万
  年前から5億3000万年前という比較的短期間に、今見ら
  れる生物種のほぼ全てが出そろった現象を指すのですが、そ
  の爆発的な生物多様性の出現の理由として挙げられている一
  つが、高度な眼を持つ三葉虫の存在があります。高精度の眼
  を持った生物が圧倒的サバイバル戦略を駆使して、進化して
  いったのです。
   実は、東京大学大学院工学系研究科技術経営戦略学専攻特
  任准教授・松尾豊氏によれば、AI、機械やロボットの世界
  でもこのカンブリア爆発が起こると考えられるのです。もち
  ろんその原因は「眼」にあります。ディープラーニングの画
  像認識技術の進化によって、機械やロボットも、「眼が見え
  る」ようになりました。「今までだって高性能のカメラを搭
  載したいわば“眼を持つ機械・ロボット”はたくさんあった
  じゃないか」と思ってしまいますが、「見る」とは網膜と脳
  の後ろの方にある視覚野が働くことで可能になってきます。
  つまり、カメラとディープラーニング技術が組み合わさって
  初めてAIは「眼を持つ」と言えるのです。
   今まで見えなくてもすむ作業しか機械に任せられなかった
  ところ、この「眼の誕生」によって、見る必要のある、見て
  判断して作業を進める必要のある複雑な仕事を任せられるよ
  うになったのです。       https://bit.ly/2tT9HoR
  ───────────────────────────

松尾豊特任准教授.jpg
松尾豊特任准教授
posted by 平野 浩 at 00:00| Comment(0) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月04日

●「AIは真に文章の意味がわかるか」(EJ第4799号)

 AI(人工知能)が人間の話す言葉を理解し、それに対する返
事を返してくる──一昔前では考えられなかったことですが、今
ではそれが当たり前のようになっています。
 アイフォーンの「シリ」だけでなく、アマゾンの「アレクサ」
グーグルの「グーグル・アシスタント」、ドコモの「しゃべって
コンシェル」などたくさんあります。なかには、「女子高生AI
りんな」という怪しげなものまで出現しています。「りんな」は
LINE上でユーザーの会話の相手をしてくれるAIです。20
15年に登場し、LINEユーザーの友だちは、530万人とい
いますから、驚きです。
 ところが、これらのAIが、本当に「言葉の意味が理解できて
いるのか」というと、それは大変疑問です。これについては、学
者の間でも意見が分かれているといいます。
 近代言語学の父といわれるスイスの言語学者フェルディナン・
ド・ソシェールは、「言語というものは記号の体系」といってい
ます。これについて、ウィキペディアには、次のように説明があ
ります。
─────────────────────────────
 ソシュールは、言語(ラング)は記号(シーニュ)の体系であ
るとした。ソシュールによれば、記号は、シニフィアン(たとえ
ば、日本語の「イ・ヌ」という音の連鎖など)とシニフィエ(た
とえば、「イヌ」という音の表す言葉の概念)が表裏一体となっ
て結びついたものである。そして、このシニフィアンとシニフィ
エの結びつきは、恣意的なものである。つまり、「イヌ」という
概念は、“Dog” (英語)というシニフィアンと結びついても、
"Chien" (フランス語)というシニフィアンと結びついても、ど
ちらでもよいということである。     ──ウィキペディア
                  https://bit.ly/2KGqPpa
─────────────────────────────
 従来のAIは、この表裏を結びつけることができなかったので
すが、いわゆる「グーグルの猫」によって、この問題はある程度
前進したといえます。この「記号がいかに実世界との関わり合い
において意味を持つか」という問題のことを「シンボルグラウン
ディング問題」と称しています。
 国立情報学研究所教授の新井紀子氏という人がいます。新井教
授は、人工知能分野のグランド・チャレンジ「ロボットは東大に
入れるか」のプロジェクト・ディレクターを2011年から務め
ていた方です。いま新井教授の執筆された次の本が、一大ベスト
セラーズになっています。
─────────────────────────────
          新井紀子著/東洋経済新報社刊
     『AIvs教科書が読めない子どもたち』
─────────────────────────────
 新井教授が目指したのはロボットを東大に入れることではなく
人間と比較して、AIの可能性と限界を明らかにすることにあっ
たのです。しかし、この研究の結果、驚くべきことが鮮明になっ
たのです。その「驚くべきこと」を書籍として上梓したのが上記
の本です。新井教授は、この本のなかで、AIは言葉の意味を本
当に理解しているのかについて、次のように述べています。
─────────────────────────────
 AIが文章を論理的に読めるようになるとしたら、まずは、文
がどこで区切られるか、つまり文節が理解できなければなりませ
ん。それができたら、「何がどうした」という主語と述語の関係
や修飾語と被修飾語の関係を理解しなければなりません。これを
「係り受け解析」と言います。
 また、文章には「それ」「これ」といった指示代名詞が頻繁に
出てきますから、指示代名詞が何を指すかも理解できなければな
りません。それを「照応解決」と言います。
 東ロボくんは、これらの処理を大学の入試問題に適用して、代
名詞が何を指すかといった入試の問題が解けるようになったわけ
です。それでは、係り受け解析や、照応解決ができたからといっ
て、意味がわかったといえるでしょうか?
 それだけでは、意味を理解したとは言えないでしょう。それで
は、そもそも「意味を理解する」とは、いったいどういうことな
のでしょう?          ──新井紀子著の前掲書より
─────────────────────────────
 これは大変難しい問題です。新井教授は、6年間にかけて、プ
ロジェクトにおいて、さまざまなかたちで、AIに東大入試の問
題を解かせてみて、AIの限界を感じ取ったといいます。
 しかし、AIの偏差値は57を超えたのです。偏差値57とい
うと、高校3年生の上位20%に相当する成績です。この偏差値
なら、一部の私立有名大学には、十分合格するレベルにあること
を示しています。
 このロボットは「東ロボくん」というのですが、彼は言葉の意
味を理解して問題を解いているのではないのです。つまり、人間
のように何かを読んで、それを理解し、そのうえで問題の解を得
るのではないのです。それらしく見せているだけです。
 しかし、東ロボくんは、小論文ぐらいは書くことができます。
教科書とウィキペディアを検索し、文を取り出して組み合わせ最
適化したうえで書くだけなのですが、衝撃的なのは、たいていの
学生が書くものよりかなり質が高いという事実です。
 このとき、新井教授は考えたのです。なぜ、文章を読んで意味
が理解できないAIが人間に勝てるのだろうか。本当に人間の中
高生は、文章を読めているのだろうか、と。
 そこで、新井教授は、本当に中高生が日本語の言葉の意味を理
解しているのかを調べる「リーディング・スキル・テスト」を開
発し、2016年4月から1017年7月末までに、全国の2万
5千人がこのテストを受験しています。強制でない調査にこれほ
どの協力が得られたのは珍しいことです。
          ──[次世代テクノロジー論U/043]

≪画像および関連情報≫
 ●人工知能(AI)の苦手なことは「言語理解」
  ───────────────────────────
   AIと人間を分けるのは「言語理解」だ。言語を理解する
  ためには単語の意味だけでなく、それが使われている背景や
  文脈の理解も必要になるためその全てをAIに理解させるこ
  とは難しい。これはイラストの理解にもいえることだ。よっ
  て、今後人間がAIに勝つとすれば、コミュニケーション分
  野にあると、東京大学大学院経済学研究科・経済学部教授の
  柳川範之氏は指摘する。(2016年7月25日開催日本ビ
  ジネス協会JBCインタラクティブセミナー講演「ファミリ
  ービジネスと産業構造の変化」より、全8話中第6話)
   では(AIに対する)人間の相対的な有利性は何なのか。
  人間の強みはどこにあるのかに関する解説です。これについ
  ては、本当ならAIの専門家にきちんと聞いた方がいいので
  すが、社会科学者なりの私の理解を申し上げます。現状での
  AIの強みは、ビックデータにあります。すなわちデータの
  蓄積が重要なのです。ディープラーニングは必要なデータ量
  を大きく下げることに成功し、比較的少ないデータでもたく
  さんのことが分かるようになってきました。しかしそれでも
  データの蓄積が命です。そう考えるとデータの蓄積が使えな
  い、データの蓄積による学習が使えない分野は、人間の方が
  相対的に強みがあることになります。それは、「全く新しい
  組み合わせを考える」ことです。つまり、過去のデータがな
  いため、全く新しい組み合わせを考えようとしても、それら
  の個別性が強く、過去のデータがデータとして使えない。こ
  ういう問題に関しては、人間の方が相対的に有利性を持つと
  いうことが分かっています。   https://bit.ly/2u0miqu
  ───────────────────────────

新井紀子国立情報学研究所教授.jpg
新井紀子国立情報学研究所教授
posted by 平野 浩 at 00:00| Comment(0) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月05日

●「日本語がきちんと読めない中高生」(EJ第4800号)

 昨日のEJを少し振り返ります。国立情報学研究所教授の新井
紀子氏は、6年間かけて、「AIロボットは東大に入れるか」の
テーマに取り組み、東大は無理という結論を出しています。新井
教授は、AIが言葉の意味を理解するのは困難であるという考え
方に立っています。したがって、巷でよくいわれる「人類はいず
れAIに征服される」というようなことは、まず起きないと主張
しています。
 しかし、それでもAIは偏差値57に達したのです。有名私大
に入れるレベルですが、AIは言葉の意味を理解して問題を解い
ているのではないのです。それでも「東ロボくん」に問題を与え
て小論文を書かせると、教科書とネットのウィキペディアなどを
参照し、それらから文を取り出して組み合わせ、最適化を施して
ちゃんと読める答えの文章を作成できるのです。
 しかし、新井教授が愕然としたのは、東ロボくんの小論文が学
生の文章よりもかなりマシであることに気付いたときです。人間
の学生が東ロボくんに負けている──文章の意味を理解できない
AIになぜ人間が負けるのかという疑問です。
 果して人間は、本当に文章を理解できているのか。そこで新井
教授は、「リーディング・スキル・テスト」(以下、RSTと略
記)を開発し、中高生にRSTを受検させたのです。RSTにつ
いて、新井教授は次のように述べています。
─────────────────────────────
 問題は6タイプあり、「それ」「これ」など指示詞、省略され
た主語や目的語が何を指しているか判断する「照応」、主語や目
的語がどれか判断する「係り受け」、論理と常識を用い、与えら
れた文から推論する「推論」、定義を読んで具体的にどのような
コトやモノがその例になりうるか見分ける「具体例同定」、2つ
の文が同義であるか判断する「同義文判定」、文章に対応する図
表を見分ける「イメージ同定」だ。中学・高校の教科書や辞書、
新聞に掲載された文から問題を作成している。つまり、これが読
めなければ、教科書も辞書も新聞も読めないことになる。
                  https://bit.ly/2KKtWQb
─────────────────────────────
 RSTの問題は、かなり精密に作成されています。RSTは、
ペーパーテストではなく、コンピュータで無作為に受検者に示さ
れます。受検者によって問題が異なるので、「項目反応理論/I
RT」で解析が行われています。「項目反応理論」についてウィ
キペディアの定義を示しておきます。TOEFLなどでも使用さ
れており、信頼度の高い理論です。
─────────────────────────────
 項目反応理論は、評価項目群への応答に基づいて、被験者の特
性(認識能力、物理的能力、技術、知識、態度、人格特徴等)や
評価項目の難易度・識別力を測定するための試験理論である。こ
の理論の主な特徴は、個人の能力値、項目の難易度といったパラ
メータを、評価項目への正誤のような離散的な結果から確率論的
に求めようとする点である。
     IRT:Item Response Theory; Item Latent Theory
                  https://bit.ly/1ZUtPOx
─────────────────────────────
 実際にはどのような問題が出題されたのでしょうか。
 このRSTに基づく問題を2つ示すので、やってみていただき
たいと思います。
─────────────────────────────
【問題@】/「係り受け」問題
 「アレックス/Alex」は、男性にも女性にも使われる名前で、
女性の名「アレクサンドラ/Alexandra」 の愛称であるが、男性
の「アレクサンダー/Alexander」 の愛称でもある。この文章に
おいて、以下の文中の空欄に当てはまる最も適当なものを選択肢
のうちから一つ選びなさい。
    Alexandra の愛称は( )である。
    @Alex  AAlexander  B男性  C女性

【問題A】/「同義文判定」の問題
 幕府は、1639年、ポルトガル人を追放し、大名には沿岸の
警備を命じた。
 上記の文が示す内容と、以下の文が表す内容は同じか。「同じ
である」「異なる」のうちから答えなさい。

 1639年、ポルトガル人は追放され、幕府は大名から沿岸の
警備を命じられた。
                  https://bit.ly/2IS68F0
─────────────────────────────
 「問題@」の正解は@の「Alex」です。これについて、中学生
の正解率は37・9%、高校生は64・6%でした。何でもない
問題ですが、読み取れていないのです。とくに中学生はかなりひ
どい結果です。
 「問題A」の正解は「異なる」です。「問題@」よりもやさし
い問題です。これについて中学生の正解率は57・4%、高校生
は72・3%でした。これほど明確に違う日本文を読み取れない
中学生が42・6%、高校生でも27・7%もいるのです。
 それにしても「問題A」の中学生の正答率57・4%は低いの
一言に尽きます。サイコロを転がして正解を選ぶ確率が50%で
すから、57・4%は、それよりも少しマシといった程度でしか
ないのです。
 日本語の文章の読解力が学力の伸びの前提になっています。彼
らがこのまま大人になるので、書籍はもちろんのこと、新聞すら
読めない社会人が現在増えているのです。ちなみに、20代の日
本人の新聞の購読率は9%と10%を切っています。これでは、
AIを使いこなすことはできず、AIに使われてしまう運命にあ
ります。      ──[次世代テクノロジー論U/044]

≪画像および関連情報≫
 ●「教科書が読めない」子どもたち/教育現場の深刻な事情
  ───────────────────────────
   子どもたちは想像以上に文章を理解できていない。「だが
  解決策はあるはずだ」。教育の現場では、対策が始まってい
  る。「うちの子、算数の計算問題はできるけど、文章題はだ
  めで」
   この傾向は、おそらく多くの親が実感しているのではない
  だろうか。しかし、なぜ文章題ができないのか。それを明ら
  かにしたのが、国立情報学研究所の新井紀子教授が開発した
  基礎的読解力判定のリーディングスキルテストだ。
   RSTは、生活体験や知識を動員して、文章の意味を理解
  する「推論」、文章と、図形やグラフを比べて一致している
  かどうか認識する「イメージ同定」、国語辞典的、あるいは
  数学的な定義と具体例を認識する「具定例同定」など、読解
  力を6分野に分け、その能力を問うものだ。
   このテストをいち早く取り入れたのが、戸田市(埼玉県)
  教育委員会だ。教育政策室指導主事の新井宏和さんは、その
  経緯を次のように語る。
   「全国学力・学習状況調査の活用問題が解けるような子ど
  もたちにしたかった。幸いにも新井教授と戸田市の戸ケ崎勤
  教育長が知り合いで、教育長がRSTに高い関心を示し協力
  して取り組むことになりました」。
   テストは2015年から段階的に実施され、17年は市内
  の全中学生と、小学6年生全員の4500人が参加した。問
  題は、国立情報学研究所特任研究員の菅原真悟さんの指導の
  もと、市内の小中学校の教員が作成した。
                  https://bit.ly/2KDrmLV
  ───────────────────────────

RSTの作成者/新井紀子教授.jpg
RSTの作成者/新井紀子教授
posted by 平野 浩 at 00:00| Comment(0) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月06日

●「日本語読解力に欠けている子ども」(EJ第4801号)

 2018年7月2日のBSフジ「プライムニュース」に新井紀
子国立情報学研究所教授が出演しています。まさにEJで取り上
げている問題について、林芳正文科大臣や教育評論家の尾木直樹
氏も交えて、話し合いを行っているのです。
 そのときの「ハイライトムービー」があります。時間は22分
28秒ですので、ぜひご覧ください。
─────────────────────────────
      2018年7月2日/BSフジプライムニュース
 「人工知能“東大受験”調査/解ける問題・解けない問題」
          出演者:林芳正文科大臣
              新井紀子国立情報学研究所教授
              尾木直樹氏/教育評論家
                      22分28秒
                 https://bit.ly/2Kz6t5n
─────────────────────────────
 大学は別として、また一部の私立学校を除いて、日本の学校の
ほとんどには「原級停止処分」というものがありません。つまり
落第という処分はないのです。例えば、小学校3年生は1年経つ
と、全員4年生になります。たとえ学力がその学年の要求してい
るレベルに達していない学生も学年は上がるのです。
 そうすると、上級学年の教育の基礎になるべき教科が理解でき
ないままで上級学年に上がると、当然ですが、そこでの教科も理
解できないことになってしまいます。もっともその時点で、適切
な教育が行われればいいのですが、そのまま卒業してしまうケー
スが少なくないのです。
 それに日本では、大学を卒業することは、それほど困難ではあ
りません。大学にもよりますが、入学できたのであれば、卒業の
ための必要単位を取得することは、ほとんどの学生はクリアでき
るはずです。そうであるとすると、本来は、義務教育において、
修得しておくべき基礎的な教科の修得が不完全なまま社会人にな
るケースは多くなります。
 私は、ここ20年以上、あるIT企業の新人教育(中途入社新
人を含む)を担当しておりますが、小学校レベルの算数の問題が
解けない新人が多いことに驚いています。昨日今日はじまったこ
とではなく、ずっとそういう状態が続いています。
 新井教授の本を読んで、これは算数というよりも、問題が要求
していることを読み解く読解力が不足しているのが原因ではない
かと、気が付きました。計算ができないわけではなく、どのよう
に計算するかわからないのです。
 やはり新井教授の本に関して感想を書いているブログに次の記
述を見つけました。
─────────────────────────────
 AI開発者の第一人者である、新井紀子さんの著書『AIvs
教科書が読めない子どもたち』を読みました。本書では子どもた
ちとAIが最も苦手とする能力の一つに読解力を挙げています。
要は文章が読めず、読んでも理解できないということです。
 私自身、子どもたちの家庭教師(小学校〜高校生)をしていて
ハタと思いつくことがありました。私は理数系の国立大学を卒業
しており、理数系が非常に得意です。なので、理数系が苦手な子
どもたちを抱えているご家庭からの依頼が多いです。
 ご家庭の方々の認識は大体似通っており、曰く
「我が家の子どもは国語は得意なんだが、数学(算数)が苦手」
 どの子も、計算問題は解けるんです。
 時間がかかったり、ケアレスミスをすることはあれど、決して
解き方そのものが間違っているとか、手も足も出ないということ
はありません。おや?と思いつつ、文章問題を解かせてみると、
途端に手も足もでなくなります。
 例えば、小学3年生の「午前9:15に学校に着き、午後15
:15に学校を出ました。学校には何時間いたでしょう?」とい
うような問題に、小学5年生が答えられないんです。答えは当然
6時間です。私が教えている生徒は、何を考えたか、9:15と
15:15を足して、24:30と答えました。小学3年生がで
はありません。小学5年生です。小学5年生が小学3年生の文章
問題に全く歯が立たないんです。   https://bit.ly/2NqZAk7
─────────────────────────────
 新井紀子教授のRST(リーディング・スキル・テスト)の結
果は、恐ろしい事実を突き付けています。日本人でありながら、
日本語の意味を正確に読み取る力が不足している学生が多いとい
う事実をRSTの結果は指摘しています。教科書が読めい子ども
が多いという事実です。
 これに対する国の動きは必ずしも機敏とはいえないようです。
RSTの結果にも異論を唱える教育関係者も少なくないといわれ
ています。新井教授の本に対する反論も多いのです。これについ
て、新井教授は、次のように述べています。
─────────────────────────────
 教科書を読むだけの読解力がないという事実に直面したとき、
2つの選択肢があります。ひとつは「教科書なんか悪文だらけ。
読めなくてもいい」と思うこと。もうひとつは「どうにかしない
といけない」と思うことです。可能性が広がるのはどちらでしょ
うか?私は「読めなくてもいい」という人を全員、説得すること
はできません。だから、とにかく中学1年生を診断して、先生た
ちがリアリティをもって、子どもたちの読解力の改善に取り組む
ための手助けをしたい。
 RSTの結果を見ても、子どもたちは自分でどうにかすること
はできません。そこでまず先生に受けてもらい、子どもたちがど
こでつまずいているかを知った上で、ともにどうしたら読解力を
伸ばすことができるか考えてくださる学校からRSTを提供した
いと考えています。         https://bit.ly/2IQsHtM
─────────────────────────────
          ──[次世代テクノロジー論U/045]

≪画像および関連情報≫
 ●新井紀子教授の本を大人たちはどう読めているか
  ───────────────────────────
   今のところ「真の意味でのAI」は存在せず、現状のAI
  技術の原理から言って「シンギュラリティ」は到来しない、
  という話の部分は明快だし、読む価値がある。ここ数年、定
  年まで自分の職が安泰であることを疑ったこともないような
  立場の人が、耳かじりの「みなさんが大人になる頃には今あ
  る仕事の半分はAIに取って代わられて・・・」みたいな話
  をするのを聞くとヘドが出そうになるので、そういう人には
  特に第1章と第2章で理解を深めて欲しいが、本書もその点
  については脅し煽るような書きっぷりなので読んでもあまり
  変わらないかもしれない。
   私が教育(学)関係者からの厳しい感想を期待していたのは
  そこではなく、第3章以降の「全国読解力調査」の部分だ。
  まず、このテストで測ったものは絶対で、読者はみなこの結
  果に慄然とすべき、という書きっぷりがどうも好きになれな
  い。好きになれないというのは私個人の感想だが、そこに、
  実証研究の報告としても粗雑であることが表れているように
  思われる。結果は事実かもしれないが、それが学生・生徒の
  論理的思考力や推論能力そのものを果たして表しているかど
  うかの解釈にはもう少し慎重であるべきではないかという記
  述が多い。           https://bit.ly/2KOmhgC
  ───────────────────────────

BSフジプライムニュース出演中の新井教授.jpg
BSフジプライムニュース出演中の新井教授
posted by 平野 浩 at 00:00| Comment(0) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月09日

●「新井教授の本へのネットでの反論」(EJ第4802号)

 新井紀子教授の著書『AIvs教科書が読めない子どもたち』
(東洋経済新報社)に対して、ネット上に多くの反論記事がアッ
プロードされています。売れているからです。そのなかで、ひと
きわ目を引くのは次のブログです。批評は5章に分かれているの
で、章ごとに参照できるようにしておきます。
─────────────────────────────
 東ロボくんは、なぜ失敗したのか『AIvs教科書が読めない
子どもたち』
 ◎批評1 ・・・ https://bit.ly/2KCkm2y
               東ロボくんはなぜ失敗したのか
 ◎批評2 ・・・ https://bit.ly/2tZaGVq
          文章を読めればAIに仕事を奪われない?
 ◎批評3 ・・・ https://bit.ly/2KE1IaC
         そもそもコンピュータが意味を理解するとは
 ◎批評4 ・・・ https://bit.ly/2J19Ko0
            コンピュータで文の意味を理解しよう
 ◎批評5 ・・・ https://bit.ly/2zh0w7A
 「太郎は花子が好きだ」をコンピュータに意味理解させました
─────────────────────────────
 このブログは、株式会社ロボマインド代表取締役、田方篤志氏
が書いており、大変内容があります。とくにAIや、ロボットに
対する記述は示唆に富む内容であり、多くのヒントが得られると
思います。そういうわけで、AIから少し離れるテーマもあると
思いますが、いくつか取り上げて、何回か、EJとして要約しま
す。詳細については、それぞれの章を参照してください。
 まず、『AIvs教科書が読めない子どもたち』に関して、冒
頭に次の記述があります。
─────────────────────────────
 現在、AI関連の書籍で、『AIvs教科書が読めない子ども
たち』という本が売れているようです。著者は、AIロボを東大
に合格させる「東ロボくん」というプロジェクトで有名な新井紀
子教授です。
 「東ロボくん」プロジェクトには、当初から興味があったので
さっそく読んでみたのですが、自然言語処理の浅い理解や、「知
能=偏差値」という思い込みなど、著者の主張には首をかしげざ
るを得ないことが多かったので、今回から何回かにわけて、本書
について解説していきます。
 AIが、大学の入試問題を解くとなると、数学や歴史の穴埋め
問題なら勝算はあると思いますが、一番苦戦するのは国語です。
なぜなら、現在の自然言語処理では、文章の意味を理解すること
ができないからです。
 英語の翻訳なら、意味を理解できなくとも、それらしい翻訳を
作り出すことは不可能ではありませんが、文章の意味理解そのも
のを問う国語の問題があるかぎり、東大合格など絶対に不可能な
のです。そのような一見、無謀なチャレンジですが、国の予算を
獲得し、税金を投入するのですから、何らかの秘策があるのだと
楽しみに読み始めました。
 ところが、そのような期待は見事に裏切られてしまいました。
(新井紀子教授は)「国語はどう考えても正攻法でなんとかでき
るとは思えません(P92)」と、堂々と宣言しているのです。
                    ──「批評1」より
─────────────────────────────
 新井教授は、『AIvs教科書が読めない子どもたち』のなか
で書いているのは、「東ロボくん」を東大に合格させようとする
プロジェクトを推進する過程で、AIにはできないことがたくさ
んあることがわかってきます。
 対話はしているが、その意味は理解されていないし、小論文テ
ストでも、それらしき文章は書くものの、よく理解して書いてい
るとは思えないレベルです。しかし、そのような言葉が理解でき
ないAIであるにもかかわらず、とくに読解力において、人間の
中高生がAIに劣る傾向があることに、新井教授は愕然とするの
です。そして、中高生の国語の読解力のレベルを検査するRST
(リーディング・スキル・テスト)を開発し、検査を行い、その
事実が裏付けられたことを公表する──これがここまでEJが述
べてきたことのすべてです。
 ここで新井教授の経歴について、知っておくべきことがありま
す。新井紀子氏は、一橋大学法学部の出身で、イリノイ大学数学
科の博士課程を修了した理学博士であり、数学者です。したがっ
て、AIの専門家でも、ロボットの専門家でもないのです。しか
し、AIには造詣が深く、現職は、国立情報学研究所の教授を務
めています。
 新井教授は、法学部出身であることを明らかにしたうえで、読
解力の向上は、なるべく若い段階(中高生)で向上させるべきで
あるとして、次のように述べています。
─────────────────────────────
 私はもともと法学部で、刑法の授業で、有名なえん罪事件の被
告となった女性のお話を伺ったことがあります。あまりに理路整
然としていたため、なぜこの人を警察は誤って逮捕したんだろう
と思いました。しかしのちに、法廷という言語と論理で説明する
以外に疑いを晴らすことのできない場で、彼女は変わっていった
のではないかと思うようになりました。
 人は変われます。だから簡単に諦めてはいけない。私がこれま
で指導してきた学生や、ともにプロジェクトを動かしてきた仲間
たちの中にも読解力を上げたり、論理的になれたり、変わること
ができた人たちがいます。でも大人が変わるには、時間などかな
りのコストがかかってしまう。偏った読み方を長年続けてしまっ
ているからです。だから早めに修正したほうがいいのです。
                  https://bit.ly/2IQsHtM
─────────────────────────────
          ──[次世代テクノロジー論U/046]

≪画像および関連情報≫
 ●感想文/『AIvs教科書が読めない子どもたち』
  ───────────────────────────
   実を言えば、この本はあまり紹介するつもりはありません
  でした。話題の書であるためわざわざ取り上げるまでもなく
  著者本人による内容紹介も他の人による書評もあちこちで出
  ていますし、何より私は新井先生をシンギュラリティ懐疑論
  者のライバルだと思っているので(笑)とはいえ、一応私の
  「感想」を散漫にまとめておきたいと思います。詳細な内容
  紹介や書評は別の方に譲ります。
   前半部分は、コンピュータに東大入試問題を解かせる「東
  ロボくんプロジェクト」の報告をベースにして、現在のAI
  技術と機械学習に関する解説を行なっています。シンギュラ
  リティ懐疑論としての議論は簡潔かつ妥当で、説得力のある
  ものだと思います。たびたび出てくる『この「だから」は、
  論理的ではありませんが・・』という言葉には笑ってしまい
  ました。
   私が思うに、著者が断固たるシンギュラリティ懐疑論者と
  者となったのは、2016年の内閣府タスクフォース*1での
  齋藤元章氏との接触がきっかけではないかと思います。その
  点を考慮すると、本書の説明は、「現状の技術の延長線上に
  シンギュラリティはない」ことの説明になっていても、齋藤
  氏が唱えるシンギュラリティ説 (と、そのベースになったカ
  ーツワイル氏の説) を正面から捉えた反論にはなっていない
  と感じました。         https://bit.ly/2KQ8b1o
  ───────────────────────────

答案に答えを書く「東ロボくん」.jpg
答案に答えを書く「東ロボくん」
posted by 平野 浩 at 00:00| Comment(1) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月10日

●「アップルを復活させた有名なCM」(EJ第4803号)

 田方篤志氏のブログにしたがって、同氏による新井教授の考え
方に対する反論を指摘していきます。田方篤志氏によると、「新
井紀子教授は『偏差値』にこだわり過ぎる」といいます。偏差値
について新井教授は次のように述べています。
─────────────────────────────
 読解能力値の高い子は、教科書や問題集を「読めばわかる」の
で、1年間受験勉強に勤しめば、旧帝大クラスに入学できてしま
うのです。東大に入れる読解力が12歳の段階で身についている
から、東大に入れる可能性が他の生徒より圧倒的に高いのです。
 ──          ──新井紀子著/東洋経済新報社刊
          『AIvs教科書が読めない子どもたち』
─────────────────────────────
 新井教授にとっては、偏差値の高い大学に入ることが最も重要
なことであると認識しています。したがって、偏差値の低い子に
ついては、早いうちに手を打つ必要があるので、RSTを全国的
に実施して、そういう子を発見し、教育するべきであると主張し
ています。本当にこれが正しい教育なのかと田方氏は疑問を感じ
ています。そこで田方氏は、ここでアップルの有名なCMの話を
するのです。まずは、そのCMを試聴してください。時間は60
秒であり、日本語バージョンです。
─────────────────────────────
  ◎アップルのCM
  「Think different」/「クレージーな人たちがいる」
                https://bit.ly/2MXStP7
─────────────────────────────
 1996年、アップルは完全に方向を見失っていました。現在
のアップルしか知らない若い人たちにとっては、想像もつかない
でしょうが、アップルにも、そういうときがあったのです。当時
アップル・ジャパンに勤務していた増田隆一氏は、そのときの様
子を次のように述べています。
─────────────────────────────
 私が記憶している最悪の数字では、会社の運転資金が残り14
日分しかないこと(この数字には諸説ある)。もはや倒産は免れ
そうにないという噂が社内も社外にも蔓延していました。新聞各
紙では毎日のように、どこかの企業がアップルを買収するという
記事が掲載されていました。社員には、何人もの転職エージェン
トからの接触があり、次の転職先が紹介されるという日々が続い
ていました。そのとき、スティーブ・ジョブズがアップルを追い
出されて数年後、再びアップルに復帰したというニュースが流れ
ました。完全に方向性を見失っていたアップルと自信喪失の真っ
只中にいる社員にとって、文字通り「最後の希望」にも思えまし
た。                https://bit.ly/2KUaVYf
─────────────────────────────
 そのCMが「Think different」 です。このCMはCEOに復
帰したスティーブ・ジョブズが、顧客だけでなく、モラルダウン
しているアップル社員の士気高揚と、その目指すべきアップルの
ビジョンを示すため、大変な力を入れて作ったCMです。
 「Think different」とは何でしょうか。
 この言葉の意味は「発想を変える」、「ものの見方を変える」
「固定概念をなくして新たな発想でコンピュータを使う」という
ことです。キャンペーンでは「世界を変えようとした人たち」と
して、アインシュタインやピカソ、キング、ガンジー、クレイな
どを挙げています。全員ものごとを変えた人たちばかりです。だ
から、われわれもアップルを変えようと社員全員に呼び掛けたの
です。CMですが、社員へのモチベーションなのです。
 忘れたくないCMですから、あえて言葉も掲載します。社員の
モチベーション向上に訴える素晴らしいメッセージです。
─────────────────────────────
  クレージーな人たちがいる
  反逆者、厄介者と呼ばれる人たち
  四角い穴に 丸い杭を打ちこむように
  物事をまるで違う目で見る人たち
  彼らは規則を嫌う 彼らは現状を肯定しない
  彼らの言葉に心をうたれる人がいる
  反対する人も 賞賛する人も けなす人もいる
  しかし 彼らを無視することは誰もできない
  なぜなら、彼らは物事を変えたからだ
  彼らは人間を前進させた
  彼らはクレージーと言われるが私たちは天才だと思う
  自分が世界を変えられると本気で信じる人たちこそが
  本当に世界を変えているのだから
  Think different.        https://bit.ly/2u46xzB
─────────────────────────────
 このCMの最後の部分に「自分が世界を変えられると本気で信
じる人たちこそが、本当に世界を変える」というフレーズがあり
ます。これは、スティーブ・ジョブズが自身を重ね合わせている
言葉だと思います。そのときのアップルの社員は、ジョブズ自身
がクレージィーそのものですから、ジョブズならアップルは必ず
再生できると信じたのです。このCMが起爆剤になって、アップ
ル全社が燃えたのです。
 そして確かにこのCM以後、アップルは奇跡ともいうべき再生
を果すのです。新型パワーブックG3、アイ・マック、パワー・
マッキントッシュG3といった優れた商品が次々と開発され、そ
れがやがて、アイフォーンとタブレットの誕生にまで行き着くこ
とになります。奇跡の大復活です。
 話をAIと教育の問題に戻します。なぜ、このCMが、偏差値
重視教育のアンチテーゼになるのかということです。それは、こ
のCMが、ひとりの男の子を変えるきっかけになったからです。
これについては、明日のEJで詳しく取り上げます。
          ──[次世代テクノロジー論U/047]

≪画像および関連情報≫
 ●CMの発表時のジョブズの挨拶/1997年9月23日
  ───────────────────────────
   おはようございます。私たちはこの広告を完成させるため
  朝の3時まで起きていました。これからこの広告をみなさん
  にお見せして感想を伺いたいと思います。
   さて、私が戻ってから2か月強になりますが私たちは本当
  に一生懸命努力しました。私たちがこれからしようとしてい
  ることは、おおげさなことではありません。むしろ基本に立
  ち返ろうとしています。すばらしい製品、すばらしいマーケ
  ティングとすばらしい流通という、基本に還ろうとしている
  のです。
   アップル社には、もちろんすばらしさがありますが、ある
  点においては基本に忠実かどうか、ということからかけ離れ
  ているように思えます。そこで私たちは、製品ラインから着
  手しました。この数年間どんどん大きくなるプロダクトロー
  ドマップを見てみて下さい、意味のない製品をたくさん販売
  しています。製品があまりにも多く、フォーカスしていませ
  ん。実際、私たちはプロダクトロードマップのうち70パー
  セントの製品を削除しました。
   私はその後数週間も、この価値のない製品ラインのことが
  よくわかりませんでした。このモデルは一体何なのか、一体
  これはどういった製品なのか、と考えざるを得なかったので
  す。私は顧客と話し始めたのですが、彼らも同じく理解でき
  ませんでした。         https://bit.ly/2zfgGym
  ───────────────────────────

アップルの有名な広告.jpg
アップルの有名な広告
posted by 平野 浩 at 00:00| Comment(0) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月11日

●「子供の心を変えたアップルのCM」(EJ第4804号)

 アップルを復活させたCM「クレージーな人たちがいる」につ
いて、こんな話があります。既出の元アップル・ジャパン社員、
増田隆一氏のブログに出ている話です。
 CMについて、当時のアップルのマーケティングチームが招集
され、CMのキャンペーンの進捗を確認する会議が開催されたの
です。そのとき、そのCMは、それほど大ヒットをしているとい
う感触はなかったといいます。
 ところが、ある国担当のスタッフが、CMに関係するひとつの
手紙を紹介したのです。それは、10歳の男の子を持つ父親から
の手紙でした。
─────────────────────────────
 息子は少し変わった男の子で、学校でいじめられ、のけものに
されていました。自殺をほのめかせて校長先生から連絡が入った
りしたこともありました。
 ある日、その子が、私に、テレビで流れるアップルのCM「シ
ンク・ディアレント」を一緒に見てほしいというのです。CMが
始まって口を挟もうとすると、「お父さん、黙って、最後まで見
て!」と強い口調でいうのです。やがて、CMが終ると、彼はい
いました。「自分は変わり者だとバカにされて、のけものにされ
てきたけれど、僕は変わりもののままで居ていいんだね!」と。
                  https://bit.ly/2KUaVYf
─────────────────────────────
 手紙を読み終ると、そこにいた全員は急に黙り込み、涙を流す
人もいたそうです。そして「Think different」 の広告は、これ
までの広告効果測定とはまったく違う次元で捉える必要があるこ
とに気が付いたのです。それは、このCMに人々の心を変えるパ
ワーがあることがわかったからです。
 そして、このCMに象徴される新しいアップルの理念は「人の
心に響く」というところにあり、アップルはそういう製品を世界
に送り出す必要があることを感じ取ったのです。
 それでは、田方篤志氏は、なぜ、新井教授の教育改革の考え方
に対して、この10歳の男の子を持つ父親からの手紙の話を出し
てきたのでしょうか。
 それは、新井教授の『AIvs教科書が読めない子どもたち』
から読み取れる子どもに対する教育観と、田方氏のそれとの間に
は大きな溝があるからです。それにAIに対する考え方も大きく
異なります。
 子どもの教育に関して田方篤志氏は、新井教授のそれとの違い
を次のように述べています。
─────────────────────────────
 人には個性があります。個性を無視し、文章が読めない子をあ
ぶりだし、文章が読めるように矯正することが本当に正しい教育
なのでしょうか?
 どんな子も、持って生まれた才能があるはずです。もし、すぐ
に見つからなかったとしても、ちょっと、考えてみてください。
その子が、生き生きとするのは、何をしているときでしょう。そ
の子が、その子らしい表情をみせる瞬間とは、どんなときでしょ
う。そこにこそ、その子が発揮できる才能があるのです。その子
の個性を無視して、読解能力値だけでその子を判断する。読解能
力値の低い子は、そのままでは将来仕事につけなくなるからと、
読解能力を高める教育を強制する。そんな教育をしていては、本
来、その子が輝かせるべき才能を潰してしまいます。そんな教育
ちょっとおかしいですよね。(一部略)
 アップルの「Think different」 キャンペーンを思い出してく
ださい。不可能だと証明したことで、世界を変えた人は、いたで
しょうか?世界を変えた人は、不可能と言われたことを成し遂げ
た人たちです。
 これからの世界に必要なのは、読解能力値が高い人でなく、ク
リエイティブな能力を持つ人なのです。それなのに、なぜ、新井
教授は、読解能力値にしか目が向かないのでしょう?その原因は
人間の能力を判断するのに、入試を設定したことにあります。入
試問題こそが、人の能力全体の枠組みを網羅していると思い込ん
だからです。            https://bit.ly/2tZaGVq
─────────────────────────────
 田方篤志氏の怒りは、子どもの個性を無視して、テストによる
読解能力値だけで、その子を判断する新井教授の教育の考え方に
向けられています。これは、田方氏のブログの記事に関するある
小学校の校長先生の返信を見ても明らかです。
─────────────────────────────
 新井紀子著『AIvs教科書が読めない子どもたち』について
の批評を拝読しました。新井先生の御本が教育界に与えたインパ
クトは相当大きなものだと感じています。特にアクティブラーニ
ングを推奨していた方々の反論があっても良さそうなものですが
それがないのが気がかりでした。
 しかし、それ以上に気がかりなのが、読解力の定義です。RS
Tに示された6つのテストパターンのみで偏差値として基礎読解
力が評価されていいのかという問題です。
 新井さんが今後「高校基礎力」テスト等にも関与されると聞い
ていますので余計に心配です。そんな中で出会ったのが田方様の
ブログでした。Think Differentのお話は身にしみました。
                  https://bit.ly/2tZaGVq
─────────────────────────────
 田方篤志氏は、「ロボマインド・プロジェクト」を推進してい
ます。ロボマインド・プロジェクトとは、「ロボットの心」を作
るプロジェクトです。
 既にAIは、自然言語処理技術で人との対話ができるようにな
りつつあるといわれますが、それらの対話は、本物の対話ではあ
りません。AIには「心」、感情というものがないからです。真
の対話は「心」がないと、けっして成立しないのです。
          ──[次世代テクノロジー論U/048]

≪画像および関連情報≫
 ●感情はプログラムできるのか?/ペッパーエミュレーション
  ───────────────────────────
   鉄腕アトムやドラえもんなど、日本ではロボットの人気ア
  ニメキャラクターが数多く生まれている。ロボットでありな
  がら人々に愛されてきたのは、その感情の豊かさからではな
  いだろうか。
   今まで、機械とソフトウェアで作られるロボットがココロ
  を持っているのは、マンガの世界の中でのことだった。しか
  し、今では現実でも「ココロを持つロボット」が身近なもの
  になりつつあるのだ。ソフトバンクが2015年に発売した
  ペッパーはその一つで、人工知能(AI)を搭載し、感情を
  持つロボットとして売り込まれている。一見して疑問の残る
  「ロボットの感情」のメカニズムと、感情を持つがゆえに生
  じる課題を見ていきたい。
   ソフトバンクグループの孫正義社長は2015年に行った
  講演で、ペッパーはどのような感情メカニズムを持っている
  かについて解説している。孫社長によれば、ペッパーの感情
  は人間の感情の動きを模しているという。
   前提として人の感情のメカニズムを少し解説すると、脳内
  で生じる思考や感情といった心の動きは、ニューロン(神経
  細胞)がネットワークを形成して、他にニューロンとの間で
  電気信号をやり取りすることで生じる。また、「見る」「聞
  く」「知る」という外部から入ってくる情報への反応と、セ
  ロトニン、ドーパミン、ノルアドレナリンのホルモンの相互
  作用によって、感情が起きるメカニズムになっているのだ。
                  https://bit.ly/2zfJSoW
  ───────────────────────────

AIは言葉の意味は分かっているのか.jpg
AIは言葉の意味は分かっているのか
posted by 平野 浩 at 00:00| Comment(1) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月12日

●「ウェイソンの4枚のカードの問題」(EJ第4805号)

 田方篤志氏のAI(人工知能)の話の紹介をもう少し続けるこ
とにします。非常に参考になるからです。
 「ウェイソンの4枚のカード」という有名な心理テストがあり
ます。ウェイソンとは、英国の心理学者のペーター・カスカード
・ウェイソンのことですが、それはさておき、早速問題を解いて
みてください。
─────────────────────────────
 4枚のカードがあり、それぞれ片面にはアルファベットが、
 もう片面には数字が書かれている。「片面が母音ならば、そ
 のカードの裏は偶数でなければならない」というルールが成
 立しているかどうかを確かめるには、どのカードをひっくり
 返して調べるべきか。

     [A]  [F]  [4]  [7]
                  https://bit.ly/2u9k7BT
─────────────────────────────
 正解は、「[A]と[7]をひっくり返して調べる」です。何
でもない問題のようにみえますが、ある大学の心理学の講座でこ
のテストをやったところ、正解率はたったの5%だったといわれ
ています。
 しかも、その間違えた学生のすべては、ひっくり返すカードは
[A]と[4]と答えているのです。このように誤答に偏りがあ
るということは、何らかの理由が考えられます。論理的に誤答を
選んでいるからであり、これは心理学の問題になるわけです。
 母音のカード[A]をひっくり返して裏が偶数かどうか確かめ
るのはわかるとしても、偶数の「4」の裏は、母音でも子音でも
問題がないので、ひっくり返しても意味はないのです。母音の裏
は絶対偶数でないといけないというのがルールですが、偶数の裏
は必ずしも母音でなければならないということはないからです。
 この問題を田方氏は次のような問題に変更し、問題を解かせて
みると、ほとんどの人が正解したといいます。
─────────────────────────────
 居酒屋のカウンターで4人が飲んでいます。1番、2番は席
 を外して飲み物だけが置いてあります。1番はビール、2番
 は烏龍茶です。3番はハゲ親父(65歳)で、4番は女子高
 生(17歳)が座っていますが、何を飲んでいるかわかりま
 せん。さて、この中で、何番と何番を調べれば、誰が未成年
 で飲酒しているか確認できますか。
    1     2      3      4
  [ビール] [烏龍茶] [ハゲ親父] [女子高生]
                  https://bit.ly/2ugCeVE
─────────────────────────────
 この問題の前提は「飲酒は20歳になってから」というルール
です。この答えは簡単に出せるはずです。1番のビールを飲んで
いる人の年齢と、4番の女子高生が何を飲んでいるかを調べれば
よいからです。もうひとつ問題を出します。
─────────────────────────────
 「麺類は500円以下でないといけないと」いうルールがあ
 るとします。次のうち、このルールに違反していないか調べ
 るには、どれとどれを調べればいいのでしょう。

   1      2     3      4
 [ラーメン] [親子丼] [800円] [300円]
                  https://bit.ly/2ugCeVE
─────────────────────────────
 麺類を調べるのですから、1番の[ラーメン]はすぐわかりま
す。しかし、その流れで、500円未満かどうかを調べるのだか
ら、4番の[300円]だと考えてしまう人がいますが、これは
間違いです。正解は、1番の[ラーメン]と3番の[800円]
です。なぜなら、4番の[300円]が麺類ならルールに合って
いますし、別のメニューであっても問題はないのに対し、3番が
麺類であればルール違反になるからです。
 このように、「ルールを満たしているケースだけを調べる」こ
とを、心理学では「確証バイアス」と呼ばれています。人間の思
考パターンには、正しいことを確認して満足するという傾向があ
るようです。
 実は、この3つの問題は、すべて確証バイアスの問題、すなわ
ち、ルールを満たしているものを調べる問題という点で同じなの
です。それなのに、問題の出し方によって、やさしくなったり、
難しく感じたりするのです。
 なぜ、ウェイソンの4枚のカードの問題を取り上げたのかとい
うことについて、田方篤志氏は次のように述べています。
─────────────────────────────
 なぜ、ウェイソンの4枚のカードの話をしたかというと、人間
の脳は、コンピュータとは違うということを示したかったからで
す。もし、コンピュータなら、数学的に同じ問題なら、変数の中
身が変わっただけで、解けたり解けなかったりしないはずです。
このことから、人間の脳は、コンピュータのCPUとは違うとい
えます。              https://bit.ly/2ugCeVE
─────────────────────────────
 確かに人間の脳とコンピュータのそれとは違います。居酒屋に
行って、そこのカウンターで女子高生が何かを飲んでいたとした
ら、「あれっ!」と思いますね。「未成年なのにお酒を飲んでい
る」と思います。これは、直観的にそう思うわけです。だから、
簡単に問題は解けるのです。
 しかし、「母音の裏は偶数でなければならない」といわれても
何もピンとこないわけです。そのため、何となく難しく感じてし
まうのです。その点AIは、数学的に同じ問題なら、絶対に間違
えることはないのです。人間の脳とAIのそれは違うのです。
          ──[次世代テクノロジー論U/049]

≪画像および関連情報≫
 ●ウェイソン・テストとは何か
  ───────────────────────────
   片面はアルファベットが、その裏側には数字が印刷されて
  いるカードが4枚テーブルの上に並んでいて、見えている面
  は、A、F、3、4となっています。今「母音の裏側の数字
  は偶数になっている」という規則があると言われてその規則
  を確かめるとしたら、どのカードを裏返してみれば<よいで
  しょうか。
   まず、Aのカードを裏返してみる。これはいいですね。裏
  が偶数ならOKです。次にFは裏返さない、Fは母音ではな
  いから、裏が何でも関係ありません。さて、3、4のどちら
  を裏返すか。もし4と思ったら、それは違います。4の裏が
  子音でも規則に反しているわけではありません。子音の裏側
  について規則は何も言っていないからです。
   正解は3です。3の裏側が母音なら規則は間違っているこ
  とになります。簡単ですか?間違っても恥ずかしくはありま
  せん。このテストはウェイソン・テストといって、1966
  年にイギリスのピーター・ウェイソンが同様の実験(オリジ
  ナルはアルファベットではなくカードの色)を行った結果で
  は、大半の人が間違えました。簡単に解いた人の中には、論
  理学の知識を使った人がいたかもしれません。論理学では、
  「AならばB」であると「BでないならAでない」は同じで
  それぞれ対偶であるといいます。対偶の考えを使えば、偶数
  ではなく、奇数を裏返せばよいということが、すぐにわかり
  ます。             https://bit.ly/2m6Xv0f
  ───────────────────────────

ウェイソンの4枚のカード.jpg
ウェイソンの4枚のカード
posted by 平野 浩 at 00:00| Comment(0) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月13日

●「心を持つAIロボットはできるか」(EJ第4806号)

 AIロボットに「心」を持たせることはできるでしようか。
 田方篤志氏のブログには、「ロボマインド・プロジェクト」に
ついてのとても興味ある説明が出ています。田方篤志氏は、この
プロジェクトを推進しておられます。その主張には、強い説得力
があります。ブログのURLを以下に示しておきますので、一読
をお勧めします。そのさい、「代表プロフィール」も一緒にお読
みになることをお勧めします。
─────────────────────────────
      ◎ロボマインド・プロジェクトとは
           https://bit.ly/2NKRbIw
      ◎代表プロフィール
           https://bit.ly/2ukRnoW
─────────────────────────────
 「心」を持つAIロボットとは、どういうものをいうのでしょ
うか。EJとして、ブログで述べられていることを要約してお伝
えします。
 「三つの物語」が紹介されます。いずれも山ガールのメアリー
が登山をし、熊に遭遇する話です。
 「第一の話」です。
 メアリーは大きなリュックを背負って山に入ります。そして、
熊に遭遇します。そのときは、とっさに背負っているリュックを
熊に投げつけ、熊がリュックをあさっている間に、メアリーは逃
げ出すことに成功します。
 「第二の話」です。
 メアリーは、荷物運搬ロボットと一緒に山に行ったのです。こ
のロボットは「ついて来い」と命令すると、どこまでもついてき
ます。そして、またしても熊に遭遇します。このとき、メアリー
は、荷物運搬ロボットに熊に向うようスイッチを押し、その隙に
逃げ出したのです。ロボットに熊も驚いたと思います。
 ここで、荷物運搬ロボットについて説明します。いわゆる四足
歩行ロボットのことですが、現在、とても進化しているのです。
次の3つのユーチューブ動画をご覧ください。
─────────────────────────────
         @四足歩行ロボット/1
          https://bit.ly/2KSEZHO
         A四足歩行ロボット/2
          https://bit.ly/2Je5xha
         Bロボットにからむ動物
          https://bit.ly/1QRytLg
─────────────────────────────
 @は「ついて来い」と声をかけると、どこまでもついてくる四
足歩行ロボットです。山道でも大丈夫です。ヨタヨタしているよ
うに見えますが、頑丈であり、こんなロボットに向ってこられた
ら、熊もひるむはずです。性能的には、十分戦争にも使えるレベ
ルになっているといわれます。
 Aはさまざまなロボットが登場します。あらゆる場所を歩行で
きます。建物の中、外の道、階段、雪道、どのような道でも歩行
できるのです。やがて、四足歩行から二足歩行に進化し、人間と
同じように歩行をはじめます。バック転もできます。ときどき転
びますが、人間のようにすぐ起き上がります。また、小さいロボ
ットがビルの屋上に飛び上がったり、飛び降りたりします。
 Bはご愛嬌です。家の中に置いた小さなロボットに、猫がさま
ざまな攻撃を加えます。しかし、ロボットがあまり激しい反応を
見せないと、バカにしてじゃれつきます。猫が可愛いということ
で、多くの回数視聴されています。
 「第三の話」です。
 メアリーは三度山に登ります。このときのお供もロボットです
が、このロボットは第二話のロボットと違って、会話ができるの
です。ちゃんと名前もあり、「ロジャー」と呼ばれています。
 ロジャーはメアリーにいろいろ声をかけます。
 「足元に気をつけて」
 「疲れませんか」
 「休憩しませんか」・・・
 そこにまたしても熊が飛び出してきます。今度は、メアリーの
前にロジャーが自発的に飛び出し、メアリーに対して、次のよう
にいったのです。
─────────────────────────────
 お嬢さん、ここは私が時間を稼ぎます。その間に、お逃げに
 なってください。
─────────────────────────────
 この三つの話を聞いて、どのようにお感じになりましたか。ロ
ボットは、いま急速に進化しています。それでも心を持つロボッ
トはできるのでしようか。これについて、田方篤志氏は次のよう
に述べています。
─────────────────────────────
 さて、この3つの物語を読んで、どう感じたでしょうか?
 第一の物語のリュックサック、第二の物語の“四足歩行ロボッ
ト“、第三の物語のロジャー、どれも人間ではなく、物ですが、
心はあるでしょうか?
 リュックサックに心は感じないですよね。リュックサックは、
動かないただの物体です。では、四足歩行ロボットには心を感じ
るでしょうか?四足歩行ロボットは、動いたり、呼びかけに応答
したりしますが、心をもっているとは感じられないですよね。そ
れでは、ロジャーはどうでしょう?必死でメアリーを守ろうとす
る姿に、何か、感じるものがあったのではないでしょうか。もし
かして、・・・「ロジャーには心がある?」そう感じられたので
はないでしょうか?それではロジャーにだけ、なぜ、心を感じた
のでしょう?            https://bit.ly/2NKRbIw
─────────────────────────────
          ──[次世代テクノロジー論U/050]

≪画像および関連情報≫
 ●人間の心を持った人工知能を実現する
  ───────────────────────────
   「実現は無理と言われ、だからこそ、絶対にやってやると
  思った」。情報理工学系研究科の國吉康夫教授は静かにこう
  語ります。しかしその鋭い眼光は「真に賢く、人間のために
  なる人工知能」という壮大な目標をずっととらえています。
   現在、音声認識機能や自動運転機能といった人工知能(A
  I)は人と遜色のない振る舞いを見せます。ですが、音声認
  識機能がチェスをできず、将棋AIが車を運転できないよう
  に、今のAIにはその製作者が意図しなかった動作はできま
  せん。人とは「考える方法」が違うので、あらかじめ準備で
  きていない状況には対処できないのです。
   これに対し、真に賢く適応力の高いAIを達成するには、
  人と同じことを「同じような方法で」考え、できる必要があ
  ります。そのためには、「人の知能とはどんなもので、人の
  振る舞いを生み出す大本の原理とは何なのか理解せねば」と
  國吉教授は説明します。
   では、「人らしい振る舞い」はどう生み出されるのでしょ
  う。その原理を探索すべく、國吉教授らは2000年代に、
  動物の筋骨格系を再現したロボットを作製し、床から椅子に
  飛び乗ったり、人型ロボットを作製し、寝ている状態から足
  を振り勢いをつけて起き上がらせる実験に成功しました。こ
  こで注目すべきは、動作の最初から最後までを細かく制御す
  ることなく達成できた点です。  https://bit.ly/2KMJtjj
  ───────────────────────────

ロボットにじゃれる猫.jpg
ロボットにじゃれる猫
posted by 平野 浩 at 00:00| Comment(1) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月17日

●「AIスピーカーは人工無能である」(EJ第4807号)

 AIスピーカーが流行しています。何かを話しかけると、適切
な答えを返してくれる一種のロボットです。「明日の天気は?」
「モーツァルトの音楽をかけて」などと、問いかけたり、頼んだ
りすると、その通りやってくれます。折からのAIブームで「A
Iも進化したものだ。人間の言葉を理解できるとは!」と感じて
いる人は多いと思います。
 しかし、これは「チャットボット(chattebot)」 と呼ばれて
いるもので、「人工知能」ならぬ「人工無能」と呼ばれているも
のです。とても巧妙に返事を返しますが、質問の意味がきちんと
わかっているわけではないのです。
 田方篤志氏は、このようなAIの自然言語理解について次のよ
うに述べています。
─────────────────────────────
 スマートスピーカーや、ソフトバンクのロボット「ペッパー」
のように会話できるAIが出てきたのは、近年、AIが飛躍的に
進歩してきたからだと勘違いしている人が多いようです。天気予
報を尋ねたり、エアコンのスイッチを入れたりと、質問の範囲が
絞られていれば、ある程度は会話になりますが、日常会話や雑談
のように、答えが決まっていない会話に関しては、実は、50年
前の方法からほとんど進歩がありません。その方法は「シナリオ
ベース」または、人工無脳とも言われるものです。
                  https://bit.ly/2KSjl6p
─────────────────────────────
 つまり、あらかじめ、シナリオが用意されているのです。その
ためには、質問の幅を限定する必要があります。AIスピーカー
が「最近何か美味しいものを食べましたか」と聞いてきたとしま
す。これはさりげなく質問の幅を限定しています。「美味しいも
の?そういえば、〇〇で食べた××は美味かったな」と返事をす
ると、AIは「ボクも食べたかったな」と返します。食べたもの
は何でもいい。意味がわかって話しているのではないのです。何
となく会話が成立しているように見えればいいのです。したがっ
て、「最近はうまいものを食べていないなぁ」というような想定
外の返事を返されると、対話がおかしくなります。
 田方篤志氏が不満を持っているのは、本当に人間の言葉が理解
できるAIを実現しようとしないで、表面上会話のように見える
「シナリオベース」の技術の習熟に力を尽くしてきたことです。
 それにしてもアイフォーンのシリの応答は、もしかすると意味
がわかっているのではないかと思わせるほど見事なものです。
 シリに次のような意味深の質問をしてみました。とりあえず、
そのやり取りを読んでください。
─────────────────────────────
シリ:ご用件は何でしょう?
──:イライザについて知りたい。
シリ:ELIZAをご存知ですか。彼女は私の最初の先生だった
   んですよ!
──:イライザはどこに行ったの?
シリ:ELIZAは私の親しい友人です。優秀な精神科医でした
   が、今はもう引退しています。
──:あなたはスティーブ・ジョブズが好きですか。
シリ :それについては、言いたくありません。
──:あなたは、ティム・クックが好きですか?
シリ:私は大ファンです。      https://bit.ly/2zHIbke
─────────────────────────────
 「ELIZA」という女性のことを聞いています。実はELI
ZAというは、初期の自然言語処理プログラムのことです。マサ
チューセッツ工科大学(MIT)のジョセフ・ワイゼンバウムが
1964年から1966年にかけて書き上げたプログラムで、い
わゆる人工無脳の起源となったソフトウェアです。単なる女性の
名前ではないのです。
 これに対してシリは「私の最初の先生」と的確に答えています
が、「優秀な精神科医」ととぼけ、どこにいったかと聞くと「今
はもう引退している」とこれにも真っ当な答えを返しています。
さらに突っ込んで聞くと、ウィキペディアにこう出ていますと表
示し、それ以上の質問を阻んでいます。
 アップルの創業者のスティーブ・ジョブズについては「言いた
くない」と逃げ、現CEOのティム・クックについては「私は大
ファン」と答えるなど、なかなか見事な応対であり、洗練されて
います。しかし、このように、質問と応答であれば、問題なくで
きるのですが、雑談になると、答えるべき正解がないので、対話
にならないケースが多いのです。
 確かに人間の質問に対して適切な答えを返すシステムは大いに
役に立つものであるといえます。しかし、それはAIの進化がも
たらしたものというよりも、インターネットが普及し、ネット上
に膨大なウェブサイトが構築され、それが知識ベースとして使え
るようになった賜物であるということができます。
 既に述べているように、AIの進化には、「3つの認識」とい
うものがあります。
─────────────────────────────
           1.画像認識
           2.文字認識
           3.音声認識
─────────────────────────────
 最初は「文字認識」からはじまったのです。数字やアルファベ
ットなどの簡単な文字認識から始まり、その後、写真に何が映っ
ているかの判定に挑んだものの、壁にぶつかってしまうのです。
 ブレイクスルーとなったのは機械学習です。とくに、ディープ
ラーニングの登場で目覚ましい発展を遂げ、今では、写真判定に
関しては、人間より精度が高くなっています。しかし、音声認識
は、意味の理解という面で、まだ大きなブレークスルーは起きて
いないのです。   ──[次世代テクノロジー論U/051]

≪画像および関連情報≫
 ●会話できるコンピューターは人工知能なのか?
  ───────────────────────────
   人工無脳とはなんでしょうか。
   人工無脳はもともと人工知能からの派生した言葉で、人間
  が決めたルールに従って返事をするロボットのことです。今
  から50年以上も前、1960年にワイゼンバウムが作成し
  たELIZA(イライザ)が最初とされています。
   ELIZAがどういったものかというと、例えば、「頭が
  痛い」とイライザにいうと「なぜ、頭が痛いとおっしゃるの
  ですか?」などと返してくれるというものです。その他にも
  「母は私を嫌っている」と言えば「あなたの家族で他にあな
  たを嫌っている人は?」などと、登録されている範囲内で返
  答してくれるものです。
   ELIZAの特徴は、あらかじめ登録されていない言葉な
  どを言われた場合は定型的な返答をし、また、会話の脈略ま
  では把握できないことです。これはつまり、言語処理のプロ
  グラミングのことですね。「おはよう」と言われれば「おは
  よう」と返す。「元気?」と「元気だよ」と返す。
   「今度発売されるクルマの乗り心地はどうかな?」とあら
  かじめ登録されていない質問をされた時は「その質問にご興
  味があるんですね?」などと当たり障りのない返答をする。
  こういったプログラムされたものが人工無脳です。昔はこう
  いった自然言語処理プログラムも人工知能と呼ばれておりま
  したが、最近は少し定義が変わってきています。
                  https://bit.ly/2KVT3QY
  ───────────────────────────

アマゾン/エコー.jpg
アマゾン/エコー
posted by 平野 浩 at 00:00| Comment(0) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月18日

●「『心』のあるAIならばこうなる」(EJ第4808号)

 今やAI(人工知能)は、スマホのユーザーなら誰でも使って
試すことができる「音声AI技術」を巡って大変な競争が起きて
います。いわゆる自動対話AI「チャットボット」をめぐるの壮
絶な技術競争です。
 その行きつくべきゴールは「心を持つAI」です。心を持つと
は、感情を持つAIです。そのひとつの到達点を田方篤志氏が示
してくれています。
 ある少年が、自動対話AI「チャットボット」に対して「薬を
盗んでしまった」と告白したとします。おそらく現在のレベルの
AIであれば、次のやり取りが行われるはずです。
─────────────────────────────
少年:薬を盗んでしまった。
AI:人のものを盗むと、刑法235条により、10年以下の懲
   役または50万円以下の罰金に処せられます。
─────────────────────────────
 これが現在の自動対話AIの実力です。これに対し、AIが次
のように応答したらどうでしょう。
─────────────────────────────
少年:薬を盗んだ
AI:どうして、薬を盗んだの?
少年:お母さんが、病気になったけど、薬を買うお金がなかった
   から。
AI:どうして、薬を買うお金もなかったの?
少年:母と2人暮らしで、お母さんが病気になって働けなくなっ
   て、お金が尽きたから。このままでは、お母さんが死んで
   しまうと思ったから、つい、薬を盗んでしまった。
AI:そうか、そうか。辛かったよね・・・
                  https://bit.ly/2NfR072
─────────────────────────────
 「そうか、そうか。辛かったよね・・・」──この言葉こそ、
少年がいって欲しかった言葉だったのではないでしようか。これ
が「心」を持つAIの姿です。自動対話AIが、このレベルまで
進化すると、それこそ真の「癒しのAI」として、多くの人の助
けになるはずです。田方篤志氏の「ロボティクス」は、こういう
AIを目指しているのです。
 このようなAIは、けっして実現不能ではないと田方氏はいっ
ており、ブログで詳しく説明しています。EJでは、以下にその
一部を要約します。詳しくは、田方篤志氏のブログを参照してく
ださい。
 ロボマインド・プロジェクトの意味理解のステップは、次の4
段階になります。
─────────────────────────────
         1.    文脈の判定
         2.   登場物の抽出
         3.登場物に属性の設定
         4.認知パターンの抽出
                  https://bit.ly/2NfR072
─────────────────────────────
 「文脈の判定」は、人はある目的を持って行動を起こし、ある
結果が得られます。少年が登場したので登録します。その少年が
「薬を盗む」という行動を起こし、「薬を入手する」という結果
を得ます。「目的→行動→結果」になりますが、この時点で目的
が不明です。不明なことは登場物に質問します。この質問が「ど
うして、薬を盗んだの?」になります。
 少年は「お母さんが病気になったけど、薬を買うお金がなかっ
たから」と答えます。新しい登場物「お母さん」を登録し、状態
が「病気」なので、属性として「病気」を設定します。
 ここで、問題になるのは「病気」と「薬」の関係です。これに
ついては、システムのデータペースに次のように書いてあるので
AIはこれを見て、「薬を飲むと健康(元気)になる」ことを理
解します。
─────────────────────────────
   人(状態:病気)→人:薬を飲む→人(状態:健康)
─────────────────────────────
 この文脈の判定で、AIは、少年がお母さんの病気を治す目的
で、「薬を盗む」という行動を起こしたかを理解します。問題は
薬を入手するためには、「買う」「もらう」「盗む」の3つがあ
るが、どうして「買う」行動を取らず、盗んだのかについてAI
は「どうして、薬を盗んだの?」と質問しています。この質問に
よって、「お金がなかったから」であることが判明します。
 以下は省略しますが、このようにしてAIは逐次理解していく
わけです。田方氏のブログは次のように結んでいます。
─────────────────────────────
 最後は、「善」のために「悪」を行うパターンです。これが、
今回の物語に当てはまります。目的は、お母さんの病気を治すこ
とです。病気を治すことは、相手にとってプラスのことなので、
「善」の行為です。しかも、困ってる人、弱っている人を助ける
のは、さらに「善」の行動となります。
 しかし、そのために、「薬を盗む」という「悪」の行動をして
いいわけではありません。けれど、薬がなければお母さんが死ん
でしまいます。「善」の行いをするために、「悪」の行いをしな
いといけないと悩むわけです。
 このパターンの場合、その人は、「苦悩」の感情が出るわけで
す。一番苦しんでいるのは、少年なのです。そのことを理解して
ほしくて、少年は、親友に打ち明けたのです。こんなとき、少年
に最初にかけるべき言葉は、「辛かったよね・・・」となるわけ
です。これが、相手の気持ちを理解するということです。心を通
わすということです。        https://bit.ly/2NfR072
─────────────────────────────
          ──[次世代テクノロジー論U/052]

≪画像および関連情報≫
 ●現状のAIは人間の感情にどこまで踏み込めているのか
  ───────────────────────────
   人工知能やビッグデータ解析やクラウドの技術進歩によっ
  て、ロボットや機械による、人間らしいヒューマンインター
  フェースの研究は、盛んに研究されるようになりました。ソ
  フトバンクのペッパーをはじめとして、日本でも商業レベル
  でロボットに人間らしい振る舞いをさせる取り組みは今後も
  注目を集めそうです。
   一方で、ロボットが人間の感情を理解し、表現するために
  は、人間の行動や表現する感情を機械が理解し、自身の記憶
  や他者とのかかわり合いを考慮しながら複雑なコンテキスト
  を自力で表現することが必要不可欠になってきます。人間で
  すら、自分の感情を理解することが出来ないのですから、非
  常に難しく終わりの見えない研究のようにも思えます。本記
  事では、現在の感情に関する事例や進歩を感じられる研究を
  紹介していきます。
   ロボットやコンピュータは、カメラを通して人間の表情を
  解析することができます。人と人とのコミュニケーションを
  円滑にする上で、表情は重要な役割を果たしています。コン
  ピュータビジョンでこの顔の動きを捕捉することができれば
  人間の感情を推定することができそうです。心理学や精神病
  理学などの分野では、FACSと呼ばれる表情理論がありま
  す。FACSは表情を形成する筋肉の動きをコード化するこ
  とで、客観的に顔の動きを分析したり自然な表情をアニメー
  ションなどで再現することに応用されています。
                  https://bit.ly/2LhmNUu
  ───────────────────────────

子どもと対話する「チャットボット」.jpg
子どもと対話する「チャットボット」
posted by 平野 浩 at 00:00| Comment(1) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月19日

●「50年前からあるチャットボット」(EJ第4809号)

 ここまでの学習によってわかったことは、もっともAIらしく
見える自動対話AI「チャットボット」が、現状では依然として
「人工知能」ならぬ「人工無能」のレベルに止まっているという
ことです。対話型AIの技術が、50年前から技術的に大きく進
化していないのが原因です。
 「チャットボット」とは、「チャット」すなわち、おしゃべり
のことであり、「ボット」すなわち、ロボットの合成語で、「お
しゃべりロボット」を意味します。おしゃべりロボットには意外
に長い歴史がありますが、おしゃべりといっても、音声ならぬ文
字での対話だったのです。したがって、なぜ最近チャットボット
が注目されるようになったかというと、不十分ながら、人の音声
が認識できるようになったからです。
 チャットボットは、人間がプログラミングを行い、それに基づ
いて、コンピュータが対話を行うものでした。チャットボットを
動かすアルゴリズムにはいくつかのパターンがあり、次の2つの
ものが主流であったといえます。
─────────────────────────────
 1.事前に決められたシナリオを人間が選択して、マシンと
   対話する。
 2.人間の発言した単語と事前に登録された単語を見つけて
   応答する。
─────────────────────────────
 チャットボットの歴史を振り返ると、世界初の「イライザ/E
LIZA」があります。イライザは、1966年に誕生しており
既に50年を超えています。しかし、対話といっても、もちろん
音声でのやり取りではなく、文字と文字との対話です。
 それから2年後の1968年のことですが、映画『2001年
宇宙の旅』が公開され、そこでは、宇宙船に装備されている人工
知能コンピュータ「HAL9000」が、堂々と音声で乗務員と
会話しているさまが描き出されています。きっと2001年にな
れば、コンピュータは人と音声で対話できるようになっているだ
ろうとの予測があったのでしょう。
 しかし、その2001年になっても、音声によるコンピュータ
の対話は実現しておらず、IBMのAIコンピュータとして名高
い「ワトソン」がテレビのクイズ番組で人間に勝利した2011
年になっても音声での対話は実現していなかったのです。
 現在「ワトソン」は音声認識ができるようになっており、メガ
バンクなどのコールセンターで活用されていますが、「ジェパデ
ィ!」で勝利したときは、文字認識だったのです。次のウィキペ
ディアの記事をご覧ください。
─────────────────────────────
 2011年2月14日からの本対戦では、15日と16日に試
合が行われ、初日は引き分け、総合ではワトソンが勝利して賞金
100万ドルを獲得した。賞金は全額が慈善事業に寄付される。
なお、「ジェパディ!」は問題文が読み上げられた後に手元のボ
タンを押して回答する早押し形式であるが、ワトソンは音声認識
機能を持たないため、文字で問題を取得し、シリンダーでボタン
を押す装置を用いて回答した。      ──ウィキペディア
                  https://bit.ly/2Lg2XZI
─────────────────────────────
 このように、人とAIコンピュータが音声でやり取りできるよ
うになったのは、ごく最近のことであり、あわせてインターネッ
トの普及による膨大なウェブサイトの出現によって、それが巨大
な知識ベースになるに及んで、人とAIが音声で何とか対話でき
るようになったといえます。しかし、言葉の意味を理解しての対
話とはなっていないのです。
 チャットボットの元祖イライザの時代から、現在まで続いてい
るAIに関する有名なテストがあります。それは「チューリング
テスト」といわれます。このテストは、イギリスの数学者、アラ
ン・チューリングが、1950年に発表した論文のなかに書かれ
ているものです。
 どういうテストかというと、コンピュータと人間に対して質問
が行われ、それぞれが答えるのですが、そのやり取りが人かマシ
ンか区別がつかなくなったときに、コンピュータの勝ちと判定す
るというものです。以後長い間、コンピュータは合格できません
でしたが、2014年になって、やっと合格したのです。
 このチューリングテストについて、AI研究の第一人者である
小林雅一氏は、以下のようにわかりやすく、かつ詳しく説明をし
ています。
─────────────────────────────
 チューリング氏は1950年に著した論文の中で、次のような
思考実験を提案しています。人間(判定者)とコンピュータが壁
を挟んで向かい合います。この判定者から見て、壁の向こうには
コンピュータ以外にも、複数の人間がいます。このような状況下
で、判定者は壁の向こうにいる「誰か」と会話を交わします。そ
の誰かは、ひょっとしたらコンピュータかもしれないし、人間か
もしれない。そして判定者が彼ら見えない相手と会話を交わす中
で、相手が人間かコンピュータか区別がつかなくなった段階で、
それは人間に匹敵するAIの誕生と見ていいのではないか。チュ
ーリング氏はそう提案しました。念のため、細かい点まで注意し
ておくと、まず、ここでの「会話」とは声による通常の会話では
ありません。判走者はキーボードからコンピュータ・ディスプレ
イに文字を打ち込む形で言葉を発し、これに対する相手の返答も
ディスプレイに文字として表示されます。つまり現在のインスタ
ント・メッセージングのような形で会話するのです。
                 ──小林雅一著/朝日新書
                  『クラウドからAIへ/
    アップル、グーグル、フェイスブックの次なる主戦場』
─────────────────────────────
          ──[次世代テクノロジー論U/053]

≪画像および関連情報≫
 ●チューリングテスト
  ───────────────────────────
   「はじめまして。お会いできて光栄です、ホーエンハイム
  教授。医療魔学部のエドワード・アレクサンダー・クロウリ
  ーです」。
  「ようこそ、エドワード。コーヒーでいいかね?」。
   初めて会ったテオフラストゥス・フォン・ホーエンハイム
  教授は、気さくな笑顔でぼくを迎え、少し酸化して煮詰まっ
  たコーヒーの入ったビーカーをテーブルに2つ置いた。フリ
  ッツはもうすでに退出している。この「パラケルスス」と言
  うペンネーが有名な錬金学者をぼくの親友は苦手としている
  らしかった。ぼくはビーカーに口をつけ、その苦い液体を少
  し飲み込んだ。
  「ふむ、きみはだいぶ優秀のようだね」。
   教授はビーカーに口をつけ、ぼくの成績調査票をぱらぱら
  とめくる。書類をぽんと机に放り投げた彼に向かって、ぼく
  は背筋を伸ばした。
  「はい。身寄りのない私は国からの奨学金で学ばせていただ
  いている身ですので、最低限優秀であることは求められてい
  ると理解しています」。記憶はないのだが、ぼくは事故で両
  親を亡くし、同じ事故で体が欠損するほどの大怪我も負って
  いる。そんなぼくが手厚い治療を受け、こうして国の最高学
  府である魔法学院で学び、衣食住の心配をせずにいられるの
  は、すべて奨学金制度、つまり国家予算のおかげだ。将来国
  のためにその知識を役立たせることができる立派な人間にな
  るために、勉学に励むことはぼくの義務と言えた。
                  https://bit.ly/2NSuX7l
  ───────────────────────────

アラン・チューリング.jpg
アラン・チューリング
posted by 平野 浩 at 00:00| Comment(0) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月20日

●「ELIZAの名前の由来をさぐる」(EJ第4810号)

 いわゆる「チャットボット」は、人工知能ではなく、「人工無
能」と呼ばれています。要するにAIではないという意味です。
しかし、「人工無能」というと、何となくまがい物のイメージが
ありますが、けっしてそういうことではないのです。それはそれ
で十分人の役に立つからです。この場合、AIであるかないかは
問題ではないと思います。
 田方篤志氏が推進しようとしている「心を持つロボット」は、
人工無能を脱して、本物のAIを作り出そうとする動きととらえ
ることができます。それが本当に実現されるかどうかはともかく
チャットボットとは分けて考えるべきであると思います。
 さて、既に述べているように、人工無能、すなわち、「お喋り
ロボット」の元祖は、「イライザ/ELIZA」です。MITの
ジョセフ・ワイゼンバウム教授が、1964年から1966年に
かけて書いたプログラムで、精神療法に使われたといわれていま
す。このプログラム「イライザ」は、現在でも、英語でなら十分
会話ができるそうです。
 ところで、「イライザ」というと、何かを思い出しませんか。
有名な映画に登場する人物です。そうです。映画「マイ・フェア
・レディ」の主人公、イライザ・ドウリットルです。この映画は
原作はバーナード・ショーの「ピグマリオン」ですが、言語学者
であるヒギンズ博士(レックス・ハリソン)が、イライザ(オー
ドリー・ヘップバーン)のなまりのあるひどい言語の矯正を通し
て、彼女を博士の理想の淑女に仕立て上げていく物語です。言語
の修正ということが何もしゃべれないコンピュータに言葉を喋ら
せることによく似ていると思いませんか。
 実はこの映画の公開は1964年なのです。バイゼンバウム教
授がイライザのプログラムを書き始めた時期と一致しています。
映画のことをバイゼンバウム教授が知らないはずはなく、もしか
すると、映画を観たかしれません。確証はありませんが、対話プ
ログラム「イライザ」は、映画「マイ・フェア・レディ」からと
られたものではないでしょうか。
 対話プログラム「イライザ」についてもうひとつ付け加えてお
くことがあります。それは、「パリー/PARRY」というプロ
グラムについてです。パリーも対話プログラムであり、イライザ
と共に精神療法に使われたチャットボットです。
 1972年、バイゼンバウムと一緒に仕事をしていた精神科医
のケネス・コルビーが作成したプログラムです。パリーは、偏執
病的統合失調症患者をシミュレートしようとしたものといわれて
います。パリーは、コンピュータの性能も向上していたので、イ
ライザよりは対話の内容の質が向上していたといわれます。
 バイゼンバオムの「イライザ」と、コルビーの「パリー」に関
して、きわめて興味ある記述が、あるサイトに出ていたので、少
し長いですが、参考までにご紹介します。
─────────────────────────────
 当初ワイゼンバオムは、この単純極まりないELIZAの仕様
に皆落胆するであろうと想定した。しかし、それが誤りであるこ
とがユーザーによって示された。実際にはELIZAに知識も理
解力もないと知るユーザーですら、ELIZAに相談を持ちかけ
ようとしてきたのである。ELIZAと親密な関係を築こうとす
る者もいた。精神科医たちですら、ELIZAの名声を聞き付け
て、コンピュータ精神療法の可能性に興味を示し始めていた。
 ワイゼンバオムは、この周囲のELIZAへの好意的な反応を
観て、人工知能が人間と同程度のコミュニケーション能力を有し
ているという誤解を招いているのではないかと懸念した。さらに
バイゼンバオムは、ELIZAをめぐる周囲の反応から、人々の
文化的な価値観に揺らぎを与えてしまっているのではないかとも
懸念していた。
 これに対して、ワイゼンバオムと共同開発していたスタンフォ
ード大学の精神科医ケネス・コルビーは、コンピュータ精神療法
の有用性を重視していた。誰もが自分の抱えている問題を気兼ね
なく相談できるコンピュータ精神療法は人々のためになる。そこ
でコルビーはELIZAを機能的に拡張させた「SHRINK」
を精神療法に貢献するという問題設定の下で公開した。
 ワイゼンバオムとコルビーの見解の相違は、コンピュータは自
我が持てるか否かという問題に直結している。ワイゼンバオムに
とって、それはあり得ないことであった。ワイゼンバオムは、コ
ンピュータが「わかりました」と述べても、それは嘘や錯覚に過
ぎないと主張していた。一方コルビーによれば、コンピュータ精
神療法にはそうした哲学的・倫理的な問題は伴わない。と言うの
も、プログラムには自我があるからだ。コルビーによれば、その
その自我とはそのプログラムを設計したコルビー自身であった。
                  https://bit.ly/2O1n9Aa
─────────────────────────────
 ひとつわからないことがあります。それは、コルビーの「SH
RINK」と「PARRY」の関係です。おそらくSHRINK
の発展形がPARRYではないかと考えられます。
 興味があるのは、単なる対話プログラムに過ぎないイライザが
精神療法にかなり役立っているという事実です。それを誰よりも
驚いたのがワイゼンバオム自身であったという点です。それを見
ていた精神科医のコルビーが「これは使える」と考えても不思議
ではないのです。
 コルビーは脳はハードウェアで、行動はソフトウェアであると
考えています。彼は、精神疾患はソフトウェアの問題と考えたの
です。ソフトウェアにはエラーが付き物ですが、エラーはデバッ
クして、コードを再記述すれば正常化します。人間の場合は、そ
のエラーを言語を通じて、言語として外部化することが、求めら
れますが、精神状態の言語化は、情報処理と同じであると考えた
のです。情報処理を通じて、様々な目的に密接に関連した決定規
則の集合を備えた意思決定機構であると考えたのです。
          ──[次世代テクノロジー論U/054]

≪画像および関連情報≫
 ●初代会話ボット「ELIZA」がすごい理由
  ───────────────────────────
   心理療法のうち、会話を中心的な手段として行われるもの
  を心理カウンセリングとも言う。カウンセリングとはもとも
  と「相談」を意味するもので、カウンセラーは高度な専門知
  識を基に相談者に対して適切な解決策を示すことで問題解決
  を援助するといった役割が求められる。しかし、心理カウン
  セリングでは対話を通じて相談者(クライエント)が自ら自
  己の問題に向き合い、主体的に問題を解決していけるよう導
  くことが求められる。中でも来談者中心療法では、カウンセ
  ラー側の知識の量や権威は不必要とされ、それよりも、クラ
  イエントに対する無条件の肯定的関心、共感的理解などをど
  う実現するかが重視される。
   したがって、何か新しいことを提案するのではなく、相手
  の話の繰り返し、感情の反射、明確化といった技術が必要に
  なる。この繰り返しや共感といった会話モデルは、会話の意
  味を把握できないコンピュータにも模倣させやすいものだっ
  たのである。
   ELIZAはセラピストとして実験的に導入されたが、コ
  ンピュータプログラムとの対話にハマる人が続出した。ジョ
  セフ・ワイゼンバウムは感情的に没頭する人々を見て衝撃を
  受け、開発者でありながらその後コンピュータの限界を論じ
  生身の人間や自然との対話こそが大切であり、コンピュータ
  を過信してはならないという主張を積極的にするようになっ
  た。ELIZAにハマった人たちの中には、対話の記録や対
  話中の様子をまるでプライバシーであるかのように隠すよう
  になったという。機械に実際に「心を持たせる」ことはまだ
  まだ先の難しい問題になりそうだが、人間が機械に「心を感
  じる」ことは案外簡単なことなのかもしれない。
                  https://bit.ly/29ONNdl
  ───────────────────────────

イライザ・ドウリットル.jpg
イライザ・ドウリットル
posted by 平野 浩 at 00:00| Comment(0) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月23日

●「『中国語の部屋』という思考実験」(EJ第4811号)

 「人工知能」ならぬ「人工無能」まで出てきているので、この
あたりでそもそも「AI(人工知能)とは何か」について考える
必要があります。AIには次の2種類があるといわれています。
─────────────────────────────
            1.強いAI
            2.弱いAI
─────────────────────────────
 この分類は、カルフォルニア大学バークレー校のジョン・サー
ル教授が提唱しました。彼は哲学者で、主に言語哲学、心の哲学
の専門家です。
 「強いAI」とは何でしょうか。サール教授は、これについて
次のように述べています。
─────────────────────────────
 強いAIによれば、コンピュータは単なる道具ではなく、正し
くプログラムされたコンピュータには精神が宿るとされる。
                    ──ジョン・サール
─────────────────────────────
 哲学者なので、表現は難解ですが、サール教授のいう「強いA
I」は、「心を持つAI」を意味しているように思えます。確か
に、サール教授は「脳は機械であり、エネルギーの転送によって
意識を生ずる」とも述べているのですが、本当は、サール教授は
「強いAI」の反対論者の立場なのです。
 その一方において、「弱いAI」とは、IBMのチェス専用の
コンピュータである「ディープ・ブルー」のようなチェスプログ
ラムのようなものを意味しています。すなわち、狭い特定の領域
内での問題を解決するプログラムのことです。そういう意味で、
チャットボットなどは「弱いAI」に分類されると思います。
 ジョン・サール教授は、1980年に「脳、心、プログラム」
という論文を書いていますが、そのなかで、「中国語の部屋」と
いう思考実験を発表しています。これは、チューリングテストを
発展させた思考実験で、意識の問題を考えるさいに使われるもの
とされています。
 「中国語の部屋」とは何でしょうか。
 ある小部屋があります。この部屋には外部から紙きれを入れる
ための小さな穴がひとつ空いている以外、外部とは完全に遮断さ
れ、密閉されています。
 この小部屋のなかに英国人を入れます。この英国人は母国語の
英語しかできず、もちろん中国語は一切できません。このような
状態で、小さな穴に紙切れが差し入れられます。そこには中国語
の漢字が並んでおり、部屋のなかの英国人には、さっぱりその意
味は分かりません。
 実は、部屋のなかにいる英国人には、ある任務が与えられてい
るのです。その紙切れに書かれている中国語のなかにいくつかの
漢字を書き加えて、小さい穴から外へ返すことです。どのように
漢字を書き加えるかについては、部屋に置かれているマニュアル
に英国人でもわかるように記述されています。
 外から差し入れられる紙切れに書かれている中国語の漢字は、
「質問」であり、それに、マニュアルにしたがって漢字を書き加
えて返すのは「回答」です。かたちのうえでは、中国語で書いた
質問の紙きれを入れると、中国語で返事が書き加えられて戻され
ることが、繰り返えされるのです。
 しかし、部屋のなかにいる英国人は、マニュアルにしたがって
機械的に漢字を書き加えているだけで、紙切れに書かれている意
味をまったく理解していないのです。つまり、機械的に作業をこ
なしているだけです。
 部屋の外には中国人がいます。その中国人は、中国語で部屋の
なかに質問をすると、中国語で適切な回答が返ってくるので、な
かにいる人は、中国語を理解できる人であると判断します。しか
し、部屋のなかには中国語のわからない英国人がいるだけです。
 この思考実験は、コンピュータのアナロジー(比喩)になって
います。小部屋全体はコンピュータを表しており、マニュアルに
したがって作業する英国人はCPUに相当します。これはチュー
リングテストにおける壁の向こうのコンピュータに該当します。
 ここで重要なことは、小部屋の英語人は中国語を理解していな
いのだから、これは「心を持つAI」ではなく、「強いAI」で
はないということになります。サール教授は「強いAI」の反対
論者であるといったのは、そういう意味です。
 この「中国語の部屋」のサール教授の考え方に対する反論もあ
ります。
─────────────────────────────
 サールは、中の人が中国語を理解していないことから対象は中
国語を理解しているとはいえないと論じているが、チューリング
テストの観点からすると、そう断定するためには中の人間だけで
なく、箱全体が中国語を理解していないことを証明しなければな
らないことになる。すなわち、中の人とマニュアルを複合させた
存在が中国語を理解していないことを証明しなければならない。
 一方、知能の基準となっている人間の場合でさえ、脳内の化学
物質や電気信号の完全な解析が行われず、知能の仕組みが明らか
になっていないのだから、中国語の部屋も、中身がどうであれ正
しく中国語のやり取りができている時点で中国語を理解している
と判断してよいのではという、チューリングテストの観点からの
反論も存在する。以上のような反論に対してサールは、中国語の
部屋を体内化して、すなわち部屋の中にある中国語のマニュアル
を中の人がマスターし、中国語のネイティヴのように会話ができ
たとしても、なおその人は意味論的な見地からは中国語を理解し
ていないと主張している。       https://bit.ly/1kkzy26
─────────────────────────────
 確かに部屋のなかの英国人(CPU)が外とのやり取りを通し
て、中国語をマスターしてしまうことは、あり得ることではない
だろうか。     ──[次世代テクノロジー論U/055]

≪画像および関連情報≫
 ●コンピュータは「心」を持てるか
  ───────────────────────────
   私にはコンピューター・プログラムの知識があるが、中国
  語の部屋の思考実験についてプログラマーとしての見解を述
  べれば、強いAI支持者の「部屋全体は中国語を理解してい
  る」という反論は的外れであり、「理解」という言葉を、意
  味論を除外して解釈し、矮小化していると思う。すなわち、
  「理解」という語をより厳密に「意味の理解」とするならば
  部屋全体は確かにシステムとして中国語を理解しているよう
  に動作するが、それはシステムを作った人物が英語と中国語
  の「意味」を理解できるからであり、従って正確にいうなら
  「部屋を作った人間は中国語の意味を理解している」、また
  は「部屋は意味を理解できる人間の動作面(機能)を実行で
  きる」となるのである。つまり部屋がシステムとして中国語
  を理解するよう機能しているよう見えても、その機能にはサ
  ールがいうように「意味」の理解をともなっていないし、ま
  たクオリアがともなっていないのである。
   これはコンピューター・プログラムについても同様であり
  プログラムの具体的なソースコード(関数、演算子、記号、
  数値)を記述する者は「意味」を理解できる人間である。プ
  ログラマーはコンピューターの実行結果――出力されたもの
  が人間にとって「意味のあるもの」になるようにソースコー
  ドを記述するのであり、関数や演算子や数値、その処理過程
  自体やコンピューターそのものに意味が与えられているので
  はない。「意味」とはあくまで人間が読み取るものなのであ
  る。              https://bit.ly/2Nqb32A
  ───────────────────────────

ジョン・サール教授.jpg
ジョン・サール教授
posted by 平野 浩 at 00:00| Comment(0) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月24日

●「シンギュラリティ/カーツワイル」(EJ第4812号)

 いわゆるAI(人工知能)の進化は、ここ数年、目を見張るも
のがあります。最近の新聞では、AIの記事が載らない日は、1
日もなくなっています。書店にはAIの特設コーナーができ、多
くの本が並んでいます。新井紀子氏のベストセラー本もそのうち
のひとつです。
 こういう状況になると、多くの人はともすると錯覚を起こしま
す。その典型的なものが「このまま行くと、人間はAIに職を奪
われ、世界はAIに征服される」というようなSF的な妄想が、
大真面目に流布されることです。
 米国の未来学者であり、グーグルの研究者であるレイ・カーツ
ワイル氏は、次の有名な言葉を世界に発信しています。
─────────────────────────────
   2045年、コンピュータが全人類の知性を超える
               ──レイ・カーツワイル
─────────────────────────────
 レイ・カーツワイル氏は、コンピュータの進化の行き着く先に
は、上記のようなことが起きる時点が待ち構えており、その先に
は何が起きるかわからないとし、これを「シンギュラリティ(特
異点)」と呼んだのです。それが2045年には起きるだろうと
いうのです。あと27年後のことです。
 誤解すべきではないのは、現在のAIのレベルは、「人間のよ
うに振る舞うマシン」になりつつありますが、その正体は「弱い
AI」そのものです。新聞などによく「〇〇に人工知能導入」と
か、「AIで〇〇を代替」などのニュースが流れますが、ここで
いうAIはすべて「弱いAI」です。
 「弱いAI」は、いずれも特定の範囲内で実現出来る技術であ
り、やがて「強いAI」を実現するための基礎技術になることが
期待されますが、きっとそうなるはずです。ここで大事なことは
「弱いAI」は、あくまで特定の範囲内で使えるAI技術である
ことです。それは、人間にとって、脅威であるどころか、便利な
存在であるに過ぎないのです。例えていうならば、大量の土砂を
片づけるのに、ブルドーザは人間の能力をはるかに超えたという
のと同じです。人間はその分時間が節約できます。
 また、世界の囲碁のチャンピオンを破ったグーグルのAI「ア
ルファ碁」は、あくまで囲碁という限定された範囲で、人間を超
えたというに過ぎないのです。もちろん、これはこれでエポック
メーキングなことですが、「アルファ碁」は囲碁しかできない専
用AIでしかないのです。
 この「アルファ碁」の非効率性について、ネットコマ―ス株式
会社代表取締役、斎藤昌義氏は、自著において、次のように指摘
しています。
─────────────────────────────
 アルファ碁がプロ棋士に勝つために使ったコンピュータは、消
費電力も膨大です。たとえていえば、箸の上げ下ろしにクレーン
車を使うようなものです。人間の脳は、わずかなエネルギーで、
アルファ碁と対等に勝負したわけですから、いかに効率がいいか
がわかります。「自分が何者か?」という自己理解は、人工知能
にはできません。また、意識や意欲などということになると、そ
れがそもそも何か、どのような仕組みで実現しているのかさえ、
まだ十分にはわかっていません。エネルギー効率も、人間の脳に
はかないません。これらも含めて「脳機能」であるとすれば、脳
の活動をすべて機械で実現するのは、容易ではないことが理解で
きます。            ──斎藤昌義著/技術評論社
                  『未来を味方にする技術
        これからのビジネスを創るITの基礎の基礎』
─────────────────────────────
 「アルファ碁」は囲碁しかできませんが、人間の脳は、囲碁だ
けでなく、本も読めるし、会議をして意見交換もできるし、営業
もできるというように、「汎用頭脳」なのです。これがAIに出
来るようになると、「強いAI」、すなわち「人工汎用知能」と
いうことになり、それは「AGI」と呼ぶのです。
─────────────────────────────
            人工汎用知能=強いAI
       Artificial General intelligence
─────────────────────────────
 それでは「シンギュラリティ」とは何でしようか。
 カーツワイル氏によると、シンギュラリティという概念の根本
には、人間が生み出したテクノロジーの変化の速度は加速してい
て、一挙に拡大するといい、その威力は「指数関数的な速度」で
拡大するといっています。最初は目に見えない小さな変化ですが
やがて予期しないほど激しく、爆発的に拡大するのです。これに
ついてカーツワイル氏は、自著で次のように述べています。
─────────────────────────────
 こういう話がある。湖の所有者が、睡蓮の葉で湖面が覆われ、
湖の魚が死んでしまうことのないよう、家を寸刻も空けずに湖を
観察することにした。睡蓮の葉は、数日ごとに2倍に増えるとい
う。何か月もの間、所有者はひたすら様子をうかがったが、睡蓮
の葉は、ほんのわずかしか見られず、とりたてて広がっていくよ
うには思われなかった。睡蓮の葉が占める面積は湖全体の1パー
セントにも満たないようなので、ここらで休みを取って、家族で
出かけてもだいじょうぶだろうと判断した。数週間後に帰宅した
所有者は、びっくりした。湖全体が睡蓮の葉で覆われ、魚がみん
な死んでしまっていたのだ。数日ごとに2倍になるので、最後に
7回倍加した分で、睡蓮の葉が湖全体に広がっていたのだ(7回
倍加すると、睡蓮の葉の占める面積は128倍になる)。指数関
数的な成長には、こうした特質がある。
          ──レイ・カーツワイル著/NHK出版編
   『シンギュラリティは近い/人類が生命を超越するとき』
─────────────────────────────
          ──[次世代テクノロジー論U/056]

≪画像および関連情報≫
 ●こんなに凄い「シンギュラリティ」の衝撃
  ───────────────────────────
   未来を変えるテクノロジーとして、いまもっとも、多くの
  人々が注目しているのは、おそらくAI(人工知能)だろう
  と思います。それと同時に、あるキーワードがメディアでク
  ローズアップされるようになりました。それは、「シンギュ
  ラリティ」という言葉です。
   この言葉が日本国内で広まるきっかけをつくった一人は、
  ソフトバンクCEOの孫正義氏ではないでしょうか。孫氏は
  2016年6月、AIの進化について熱弁をふるい、「シン
  ギュラリティがやってくる中で、もう少しやり残したことが
  あるという欲が出てきた」と、シンギュラリティが社長続投
  の理由であったと発言したのです。それ以来、数年前までは
  ごく一部の人たちしか知らなかった「シンギュラリティ」と
  いう言葉が一般に注目されるようになりました。
   しかし私の見るかぎり、「シンギュラリティ」という言葉
  は必ずしも正しく理解されていません。多くの日本人が誤解
  しているようなので、まずはその正確な意味をお伝えすると
  ころから始めましょう。
   シンギュラリティは、もともと「特異点」を意味する言葉
  です。数学や物理学の世界でよく使われる概念です。たとえ
  ば宇宙物理学の分野では、ブラックホールの中に、理論的な
  計算では重力の大きさが無限大になる「特異点」があると考
  えられ、それが重大な問題になります。
                  https://bit.ly/2uI0sJF
  ───────────────────────────

レイ・カーツワイル氏.jpg
レイ・カーツワイル氏
posted by 平野 浩 at 00:00| Comment(0) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月25日

●「シンギュラリティ以後はこうなる」(EJ第4813号)

 レイ・カーツワイル氏はいっています。「AIの技術は指数関
数的に進化する」と。この「指数関数的に」とはどういう意味で
しょうか。もっとも単純な関数「y=1/x」について、考えて
みましょう。添付ファイルの図をご覧ください。このグラフは何
を意味しているのでしょうか。これは、数学における特異点を表
しています。
─────────────────────────────
 xの値がゼロに近づくと(右から左に進む)、1/x、すな
 わちyは急激に大きくなる。
─────────────────────────────
 昨日のEJでご紹介した「睡蓮の葉が湖面に増殖する話」を数
学的に説明したものです。長い時間をかけても湖面の1%ぐらい
しかなかった睡蓮の葉がある日を境に突然急速に増殖し、あっと
いう間に湖面いっぱいに覆ってしまう現象です。特異点、すなわ
ち、シンギュラリティとはそういうことをいっています。
 現在は初期の移行期にある──レイ・カーツワイル氏はいいま
す。しかし、今世紀の半ばまでには、テクノロジーの成長率は急
速に上昇し、ほとんど垂直の線に達するまでになるといいます。
そしてその頃にはテクノロジーとわれわれ人間は一体化し、今世
紀末までには、人間の知能のうちの非生物的な部分は、テクノロ
ジーの支援を受けない知能よりも、数兆倍の数兆倍も強力になる
というのです。
 特異点を超えた以後の世界について、レイ・カーツワイル氏は
自著で次のように述べています。まるで映画「マトリックス」と
同じ世界が実現するように読み取れます。
─────────────────────────────
 シンギュラリティとは、われわれの生物としての思考と存在が
みずからの作りだしたテクノロジーと融合する臨界点であり、そ
の世界は、依然として人間的ではあっても生物としての基盤を超
越している。シンギュラリティ以後の世界では、人間と機械、物
理的な現実と拡張現実(VR)との間には、区別が存在しない。
そんな世界で、間違いなく人間的だと言えるものが残っているの
かと問われれば、あるひとつの性質は変わらずにあり続ける、と
答えよう。それは、人間という種は、生まれながらにして、物理
的および精神的な力が及ぶ範囲を、その時々の限界を超えて広げ
ようとするものだ、という性質だ。
          ──レイ・カーツワイル著/NHK出版編
   『シンギュラリティは近い/人類が生命を超越するとき』
─────────────────────────────
 カーツワイル氏がいっていることとは次元が違いますが、最近
電動アシスト付き自転車に乗りながら、考えていることがありま
す。これ実にラクなのです。一度でも電動アシスト自転車に乗っ
たら、アシストなしではとても自転車に乗れなくなります。それ
ほど、電動アシスト自転車はラクです。
 これができるのであれば、たとえば、膝が痛くて歩くのに不便
な老人の膝に、サポーターのようにあるマシンを取り付けること
によって、通常と同じように歩けるようすることはできるのでは
ないかと考えます。既に腰に巻き付けると、非力の人でも、重た
いものをラクに持ち上げる介助ロボットは完成しています。後は
どこまで、軽量化や小型化ができるかです。
 カーツワイル氏がいうのは、シンギュラリティに到達すれば、
われわれの生物としての身体と脳の限界を超えることも可能にな
るといいます。現在においては、人間の脳は、AIが到底追いつ
かないほどのレベルなのですが、同時に人間の脳は、生物である
が故に、超えることのできない大きな限界を抱えている。カーツ
ワイル氏は人間の生物的限界について次のように述べています。
─────────────────────────────
 人間の脳は、さまざまな点でじつにすばらしいものだが、いか
んともしがたい限界を抱えている。人は脳の超並列処理(100
兆ものニューロン間結合が同時に作動する)を用いて、微妙なパ
ターンをすばやく認識する。だが、人間の思考速度はひじょうに
遅い。基本的なニューロン処理は、現在の電子回路よりも数百万
倍遅い。このため、人間の知識ベースが指数関数的成長していく
一方で、新しい情報を処理するための生理学的な帯域幅はひじょ
うに限られたままなのだ。
           ──レイ・カーツワイル著の前掲書より
─────────────────────────────
 カーツワイル氏の本を読んでいてわかったことがあります。い
わゆるAIの急速な進化によってシンギュラリティを超えると、
人間の知能をはるかに超える非生物的な知能体があらわれ、これ
によって人間は職を奪われ、やがて征服されるというSF的スト
ーリーがよく語られています。しかし、カーツワイル氏によると
シンギュラリティ以後、人間の知能に従来からある長所と、AI
の知能にある長所を合体させた新しい人間が登場するという考え
方です。これは人間なのか、ロボットなのでしょうか。
 考えてみると、現代はほとんどの人がスマホを持っていますが
それだけでも人間とICT知能が合体しているといえます。カー
ツワイル氏は次のように述べています。
─────────────────────────────
 忘れてはならないのは、未来に出現する知能は、それがすでに
人間と機械が融合したものであっても、人間の文明の表れであり
続けるということだ。言い方を変えれば、未来の機械は、もはや
生物学的な意味で人間ではなくとも、一種の人間なのだ。これは
進化の次なる段階だ。次に訪れる高度なパラダイムシフトであり
知能進化の間接的な作用なのだ。文明にある知能のほとんどは、
最終的には、非生物的なものになるだろう。今世紀の未には、そ
うした知能は、人間の知能の数兆倍の数兆倍も強力になる。
           ──レイ・カーツワイル著の前掲書より
─────────────────────────────
          ──[次世代テクノロジー論U/057]

≪画像および関連情報≫
 ●シンギュラリティがやってくる/AIと人間が融合する日
  ───────────────────────────
   シンギュラリティ(技術的特異点)とは人工知能(AI)
  が人間の知能と融合し、人間の生命と社会のあり方が大きく
  変わる時期を指す。これはSFの話でなく、加速度的に進歩
  しているスーパーコンピュータの開発、AIの高度化、新エ
  ネルギー研究、モノのインターネット化、ロボット工学、ゲ
  ノム編集、ナノテクノロジー等によって、早ければあと5年
  で、遅くとも40年以内には実現するという。人間がAIや
  機械と融合することによって、生老病死に対する考えを全く
  改めなければならない瞬間がおとずれたとき、社会や経済は
  どうなっているのか?シンギュラリティに造詣の深い3人の
  識者に話を聞いた。
   近未来型AI会議室を舞台に始まったシンギュラリティ・
  シンポジウム。AI研究者の中島秀之氏、スパコン開発者の
  齊藤元章氏、経済学者の井上智洋氏の3人に自由な議論をし
  てもらった。齊藤氏が、シンギュラリティに向かいつつある
  今の世界は、人間が初めて機械的な知性によって生物学的な
  進化を遂げる時代だと切り出すと、中島氏は、新しい社会概
  念、ソサエティ5・0こそが、AIによる社会革命にあたる
  のではないかと指摘する。
   経済学者の井上氏は、やがて人間と同じようにどんな仕事
  でもこなせる汎用人工知能が完成すれば、労働移動が追いつ
  かず大失業が起こる危険性もある一方、私たち人間が働かな
  くてもよい世界になるかもしれないという持論を展開する。
                  https://bit.ly/2NtTYF5
  ───────────────────────────

数学における特異点/線形グラフ.jpg
数学における特異点/線形グラフ
posted by 平野 浩 at 00:00| Comment(1) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月26日

●「カーツワイル『収穫加速の法則』」(EJ第4814号)

 レイ・カーツワイル氏は、シンギュラリティに関連して、「収
穫加速の法則」を提唱しています。「収穫加速の法則」の定義は
次のようになります。
─────────────────────────────
 秩序が指数関数的に成長すると、時間は指数関数的に速くな
 る。つまり、新たに大きな出来事が起きるまでの時間間隔は
 時間の経過とともに短くなる。    ──ウィキペディア
                 https://bit.ly/2NyrWZb
─────────────────────────────
 カーツワイル氏が何をいいたいのかというと、テクノロジーの
進化のプロセスは、その能力を「指数関数的に」向上させるとい
うことです。つまり、イノベーションを図る者は、性能を倍々に
改良しようするものです。したがって、イノベーションの進化は
加法的ではなく、乗法的に進むことになります。
 あの「ノイマン型コンピュータ」の設計者として名高いジョン
・フォン・ノイマンは、1950年代に次のようにいったといわ
れています。
─────────────────────────────
 たえず加速度的な進歩を遂げているテクノロジーは・・・人類
の歴史において、ある非常に重大な特異点に到達しつつあるよう
に思われる。この点を超えると、今日ある人間の営為(営み)は
存続することができなくなるだろう。
          ──レイ・カーツワイル著/NHK出版編
   『シンギュラリティは近い/人類が生命を超越するとき』
─────────────────────────────
 驚くべきことですが、ノイマンは、既にこの時点において「加
速度」と「特異点」という2つの概念を指摘しています。ちゃん
と的確なテクノロジーの未来像を描いていたのです。ちなみに、
ここで「加速度」というのは、ある定数を掛けることで繰り返し
拡大する(指数関数的)という意味であり、定数を足すことによ
る繰り返しの拡大(線形的)なものではないということです。
 カーツワイル氏は、テクノロジーの進化の歴史を、次の「進化
の6つのエポック」に分けて、概念化しています。6つの段階、
それぞれのエポックでは、その前のエポックで作られた情報処理
手法を使って次なるエポックを生み出してきたのです。シンギュ
ラリティは、「エポック5」ではじまります。
─────────────────────────────
≪エポック1≫ 物理と化学
 ・原子構造の情報
≪エポック2≫ 生命
 ・DNAの情報
≪エポック3≫ 脳
 ・ニューラル・パターンの情報
≪エポック4≫ テクノロジー
 ・ハードウェアとソフトウェアの設計情報
≪エポック5≫ テクノロジーと人間の知能の融合
 ・生命のあり方(人間の知能を含む)が、人間の築いたテクノ
  ロジー(指数関数的に進化する)の基盤に統合される。
≪エポック6≫ 宇宙が覚醒する
 ・宇宙の物質とエネルギーのパターンに知能プロセスと知識が
  充満する。    ──レイ・カーツワイル著の前掲書より
─────────────────────────────
 この指数関数的進化の例として、カーツワイル氏は「ムーアの
法則」を上げています。添付ファイルをご覧ください。ここには
インテル社のパラダイムシフト(技術革新)が書かれています。
 集積回路の主要な発明者であり、後にインテルの会長になった
ゴードン・ムーア氏が「ムーアの法則」のことを論文に書いたの
は1965年のことですが、実際にそれが始まったのは、集積回
路が開発されてからです。それまでにインテルには、次の4つの
パラダイムシフトがあったのです。
─────────────────────────────
          1.電気計算式計算機
          2. リレー式計算機
          3.     真空管
          4.単体トランジスタ
─────────────────────────────
 それぞれの段階で、既存のパラダイムが活力を失うと次のパラ
ダイムのベースが上がるのです。なお、ムーアの法則は、単体の
トランジスタの後ではじまっているので、第5パラダイムシフト
ということになります。
 なお、ムーアの法則とは「18ヶ月ごとに集積回路上に詰め込
むことができるトランジスタの数は2倍になるというものです。
わかりやすくいうと、1・5年ごとにCPUの速度は倍速になり
しかもコストは下がるというものです。これは、CPUのコスト
パフォーマンスが指数関数的に成長しないとできないことです。
 1965年4月19日、『エレクトロニクス』の誌上で、ゴー
ドン・ムーア氏は次のように書いています。
─────────────────────────────
 集積電子工学の未来は、電子工学の未来そのものである。集積
化の進展によって電子工学が普及し、多数の新しい分野に浸透し
ていくことになる。          ──ゴードン・ムーア
           ──レイ・カーツワイル著の前掲書より
─────────────────────────────
 実はこのムーアの法則は現在も続いていますが、さすがにその
パラダイムは、微細化の限界とCPUの熱の問題で、限界に達し
つつあります。しかし、引き続き、3次元の分子コンピューティ
ングが出現し、第6のパラダイムシフトになるのではないかとい
われています。このように、テクノロジーの進化のプロセスは、
その能力を指数関数的に向上させるのです。
          ──[次世代テクノロジー論U/058]

≪画像および関連情報≫
 ●指数関数的に進化するテクノロジーの行方
  ───────────────────────────
   先日、あるセミナーで、首題のような話があり、考えさせ
  られる内容だったので、私の個人的なコメントを交えながら
  紹介したい。話をしたのは、スタンフォード大学フェローの
  Wadhwa氏。話は指数関数的に進化するとはどういうことかを
  実感するところから始まった。
   これは、わかりやすく言うと、数字が倍々になっていくこ
  とだ。彼の話の例で行くと、たとえば、1歩で(計算が簡単
  なように)1メートル進むとして30歩あるくと、30メー
  トル進むが、これを指数関数的に1歩の距離を長くしていく
  とどうなるか。最初は1メートル、次は2メートル、次は4
  その次は8メートルだ。ここまでだと大したことはないが、
  これを30歩進めると、大変な距離になる。計算すると10
  億メートルを超え、これは地球を24回まわる距離になる。
  指数関数的にテクノロジーが進化するということは、これだ
  けすごいことが起こっている、ということだ。
   指数関数的なテクノロジーの進化で有名なものとして、大
  規模集積回路(LSI)に関するムーアの法則がある。19
  65年に彼が予測したときは、毎年LSIに組み込まれるト
  ランジスターの数は倍になる、というものだった。まさしく
  指数関数的な進化そのものだ。  https://bit.ly/2uF9pmL
  ───────────────────────────

ムーアの法則/第5のバラダイム.jpg
ムーアの法則/第5のバラダイム
posted by 平野 浩 at 00:00| Comment(0) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月27日

●「人工知能を人体に埋め込んで改造」(EJ第4815号)

 現在、既に実現している人工知能(AI)のすべては、いずれ
も「弱いAI」ということになります。いずれも特定の分野にお
いて利用されるAIです。「専用的AI」ともいいます。
 この「弱いAI」に、意識や感情や精神、すなわち、「心」を
持たせることができれば、それは「強いAI」になります。これ
は、人工知能(AI)ではなく、人工汎用知能(AGI)という
ことになります。
 レイ・カーツワイル氏の本を読んでわかったことがあります。
今後テクノロジーが、カーツワイル氏がいうように、指数関数的
に発達しても、AIに「心」を持たせることは困難であると誰も
が考えます。どちらにもどうしても乗り越えることが困難な壁が
たくさんあるからです。
 しかし、人間が人体にAIの機能を取り込んだ場合は、どうで
しようか。これなら十分可能です。いい替えると、人間サイボー
グの実現です。機械に「心」を持たせようと腐心するのではなく
はじめから「心」を持っている人間に、AI機能を埋め込むので
す。そうすると、新しい人間が誕生します。
 テクノロジーの指数関数的進化のすえに何が起きるかについて
カーツワイル氏は、3つのシナリオがあるといっています。カー
ツワイル氏の自著から引用します。
─────────────────────────────
 第1のシナリオは、2020年代の末までに、人間の脳のリバ
ースエンジニアリングが完了し、感情的知能も含めた、人間の複
雑で捉えがたい脳に匹敵し、あるいは凌駕する、非生物的なシス
テムが創造されるだろうというものだ。
 第2のシナリオは、人間の脳のさまざまなパターンを、適切な
非生物的な思考の基板にアップロードするというもの。そして第
3の、もっとも説得力のあるシナリオは、人間そのものが徐々に
しかし確実に、生体から非生物的な存在へと変わっていくという
ものだ。
 障害や病気を改善するための神経移植のような、比較的簡単な
デバイスの導入はすでに始まっている。こうした人体の改造は、
血流にナノポットを入れるようになれば、いっそう進歩するだろ
う。ナノポットはまず医療と老化防止を目的として開発が進めら
れる。そしていずれはより洗練されたナノポットが人間のニュー
ロンと接続され、われわれの感覚を増強する。そうなると、神経
系続からヴァーチャルリアリティ(VR)や、拡張現実(AR)
がもたらされ、記憶力は増強され、日常的な認識作業も助けられ
る。やがて人間はサイボーグとなり、知能における非生物的な部
分は、そうした脳内の装置を足がかりとして、機能を指数関数的
に拡大させていく。これまでに述べたように、ITは、コストパ
フォーマンス、能力、導入率などすべての面で指数関数的な成長
を持続していく。  ──レイ・カーツワイル著/NHK出版編
   『シンギュラリティは近い/人類が生命を超越するとき』
─────────────────────────────
 カーツワイル氏がここでいう第3のシナリオ「人間そのものが
徐々に、しかし確実に、生体から非生物的な存在へと変わってい
く」──この考え方には、きわめて説得力があります。つまり、
機械が人類を追い落とすという未来像ではなく、人間と機械の協
調によって人類が進歩するというのがカーツワイル氏が信じるビ
ジョンです。
 AIによる人間改造──これに近いことをいっている人がいま
す。電気自動車のテスラ社のCEOであるイーロン・マスク氏で
す。2017年2月12日〜14日にドバイで開かれた「世界政
府サミット」に登壇し、次の発言をしています。
─────────────────────────────
 長年、私は生命の知性とデジタルな知性が融合する日がくると
考えてきました。問題は処理能力にあります。コンピュータは、
1秒間に1兆ビットの情報を処理しますが、人間はたったの10
ビットです。このままでは、いずれAIが人間を余分なものとし
て排除する可能性もあります。しかし、高速処理を実現するイン
ターフェースを脳に装着することで、驚異的なスピードアップが
期待できるのです。         ──イーロン・マスク氏
                  https://bit.ly/2Nw1L5d
─────────────────────────────
 イーロン・マスク氏とカーツワイル氏の主張には、同じ新しい
テクノロジーによる人体改造でも大きな違いがあります。それは
マスク氏は、近未来に、人知をはるかに超える知能体が出現する
と考えているのに対し、カーツワイル氏は、そのような知識体は
現れないと考えているからです。
 脳以外の身体の他の部分を何らかのマシンに置き換えている人
は既にたくさんいます。しかし、脳の部分に何かを埋め込んだり
した場合、自分という意識というか、アイデンティティはどうな
るのか。きわめて興味深い問題です。
 レイ・カーツワイル氏は、これについても自著で次のように書
いています。きわめて哲学的な話です。
─────────────────────────────
 わたしの脳のごく小さな部分を、同じ神経パターンをもつ物質
と置き換えることを考えてみよう。そう、わたしは依然としてこ
こにいる。手術は成功したのだ。すでに、このような人は存在す
る。たとえば、内耳の蛸牛管の移植を受けた人や、パーキンソン
病の症状を抑えるために神経移植を受けた人などだ。
 さて、次にわたしの脳の別の部分を置き換えよう。それでも、
わたしはもとのわたしのまま・・。そして、さらに、また移植を
・・。一連の移植のあとも、わたしは依然としてわたしだ。「古
いレイ」も、「新しいレイ」も存在しない。わたしはもとのわた
しのままだ。わたしがいなくなったと悲しむ者は、わたしも含め
誰もいない。     ──レイ・カーツワイル著の前掲書より
─────────────────────────────
          ──[次世代テクノロジー論U/059]

≪画像および関連情報≫
 ●ヒトの能力はどこまで強化・拡張できるのか
  ───────────────────────────
   宇宙を飛び回る超人や悪の組織と戦う人造人間など、機械
  を使ってヒトの能力を強化・拡張するという舞台装置は、S
  Fの定番である。ただし、こうした機械による能力の強化・
  拡張は、既に身近なところで数多く見られる。
   例えば、かつては専門家だけが使う道具だったコンピュー
  タは、ノートパソコン、スマートフォン、さらにはウエアラ
  ブル機器などが登場し、どんどんヒトに近い位置で使われる
  ようになった。これによって、コンピュータの力をヒトの能
  力の一部として同化させ、文字通り手足のように利用してい
  る。そして、過去には知り得なかったより多くの情報を手に
  入れ、昔ならば出会うこともなかったような人と、密度の高
  いコミュニケーションを交わせるようになったのだ。
   今、こうした強化・拡張した能力の活用を前提にして生き
  る「デジタルネイティブ」が、次の暮らしや社会の担い手に
  なりつつある。社会の進化もまた、機械によるヒトの能力の
  強化・拡張と共にあると言えるだろう。
   機械によるヒトの能力の強化・拡張は、様々な切り口で進
  んでいる。例えば知覚の強化・拡張では、「見る」「聞く」
  「触れる」「嗅ぐ」「味わう」といった五感を強化するだけ
  でなく、本来ヒトが持たない検知能力まで付加するセンサー
  技術やICT技術が急速に発達している。
                  https://bit.ly/2Lz99j7
  ───────────────────────────

イーロン・マスクCEO/テスラ社.jpg
イーロン・マスクCEO/テスラ社
posted by 平野 浩 at 00:00| Comment(0) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月30日

●「AIのコンテスト/ローブナー賞」(EJ第4816号)

 5月7日にスタートした今回のテーマは、今朝で60回になり
ます。しかし、まだ書くことがたくさんあるので、あと10回程
度は続ける予定です。
 折からのAIスピーカーのブームに関連して、ここでもう一度
「チューリングテスト」に話を戻します。アラン・チューリング
がこのテストの構想を論文に書いたのは1950年のことです。
それから40年が経過した1990年になって、このテストは、
「ローブナー賞」という名称を冠した一種の競技会として、現在
まで連続して開催されています。その第1回の大会は1991年
11月に行われています。この競技会の趣旨は、AIの研究を発
展させることを目的としています。
 毎回、世界中から多くの「チャット・ボット」が出品され、そ
の出来栄えを競っています。「ローブナー賞」は毎年開催されて
いますが、2014年になってはじめてコンピュータが勝利を収
めています。しかし、「ローブナー賞」には大きな問題があり、
それを批判する学者も多く、これが果して真のAIの発展に寄与
するかどうかは疑問です。
 「ローブナー賞」のルールを確認しておきます。壁の向こうに
は、コンピュータと人間がいます。そして壁のこちら側にテスト
をする人たちが複数います。この状態で会話するのですが、会話
は音声ではなく、ディスプレイ上に文字で示されます。しかも、
時間はたったの5分です。これで判定ができるのでしょうか。
 このコンテストは、AIコンピュータがいかに人間を騙せるか
を競うものです。しかも、判定も100%ではなく、10人中3
人の判定者がコンピュータを人間と判断する──コンピュータ側
からいうと、判定者の30%を騙した時点でコンピュータの勝利
になります。つまり、かなり判定基準が甘いということです。
 そうであるのに、約24年間、コンピュータが勝利することは
なかったのです。時間が5分間と短いのも、あまり長く対話する
と、コンピュータにとって不利なので、時間を短くしているのだ
と思うし、音声ではなく、ディスプレイ上での文字の対話になっ
ているのも同じ理由と思われます。この競技ではじめてコンピュ
ータが勝利したときも、かなりモメたのです。そのときの状況に
ついて説明します。
 2014年6月のことです。英国のレディング大学で開催され
た「チューリング・テスト/2016」で、13歳のユージーン
・グーツマンという少年の設定の「ユージーンくん」と称するプ
ログラムが、人間と間違えられたのです。「ロープナー賞」のは
じめての受賞ということになります。
 しかし、この判定に多くの批判が殺到します。はじめて、ルー
ルが甘すぎることに気が付いたのでしょう。しかも「ユージーン
くん」は、ウクライナ在住で、英語は母国語でないので、あまり
得意ではないという条件付きです。しかし、「ユージーンくん」
は自分が分かる質問には流暢に答えを返し、分からない質問をさ
れても、巧みに話題を切り替え、少し皮肉めいたユーモアを交え
た対応をしたそうです。
 これは、アイフォーンの「シリ」のレベルと考えられます。シ
リは既にこの時点で、わからないときでも、気の利いた返事を返
しており、このプログラムとよく似ています。シリは、2011
年のアイフォーン4Sから標準機能になっており、2014年で
あれば、「ユージーンくん」が相当巧みな対話をしても不思議で
はないからです。
 しかし、既に述べているように、これはコンピュータが質問の
意味を真に把握して対話をしているのではなく、「人間らしくみ
える対話」をしているに過ぎないのです。いい替えると、人間を
騙す対話をしているわけです。つまり、それらしく見せているに
過ぎないということです。
 これに関して既出の小林雅一氏は、コンピュータが「人間らし
くみえる対話」をしても、それが真のAIの発展に結びつくとは
思えないとして、その理由を次のように述べています。
─────────────────────────────
 その理由は、ローブナー賞のような競技会では、どの参加チー
ムも勝負を最優先するあまり、肝心のAI技術を向上させること
よりも、もっと低レベルの手練手管に注力してしまう嫌いがある
からです。たとえばAIプログラムが短気で陰険な人間に扮して
あからさまに人間(判定者)を挑発するような答えを返す。逆に
やたらと愛想が良かったり、どうでもいいようなことを饒舌に喋
りまくったりする。このように、いかにも人間らしいパーソナリ
ティを作り出すことによって、壁の反対側にいる判定者を騙そう
とする傾向があるようです。
 が、そういった表面的な工夫によって欺かれてしまう判定者が
少なくないことは、(テストを考案したチューリング氏の意に反
して)会話程度のことでは、AIコンピュータが真の知能、まし
てや人格などを有しているか否かを判定するには不十分と言える
かもしれません。         ──小林雅一著/朝日新書
                  『クラウドからAIへ/
    アップル、グーグル、フェイスブックの次なる主戦場』
─────────────────────────────
 実際AIと人間との対話は、AIが本当に意味がわかっていな
くても、かなり流暢にできるようになっています。それに加えて
AIは、ウェブサイトからも情報は読めるので、何かわからない
ことをAIに尋ねるレベルのことは十分対応可能です。その限り
において、AIスピーカーは人間の役に立っており、だから、売
れているのです。
 しかし、とくにテーマのない雑談をしたり、カウンセリングな
どの真の相談相手としては、まだまだそのレベルに達しておらず
「弱いAI」のままです。しかし、カーツワイル氏のいうように
もし指数関数的に技術が進化すれば、ある日突然、可能になると
いうことは、十分あるといえます。「強いAI」にはなっていな
いのです。     ──[次世代テクノロジー論U/060]

≪画像および関連情報≫
 ●『機械より人間らしくなれるか?』─人間らしさの測り方
  ───────────────────────────
   チューリングテストというものをご存じだろうか?「機械
  には思考が可能か」という問いに答えを出すために、数学者
  のアラン・チューリングが1950年に提案した試験のこと
  である。審判がコンピュータ端末を使って姿の見えない「2
  人」の相手に5分間ずつチャットする。一方は、本物の人間
  (サクラ)、一方は<AI(人工知能)。チューリングは、
  2000年までにコンピュータが5分間の会話で30%の審
  判員を騙せるようになり、「機械は考えることができると発
  言しても反論されなくなる」と予言した。
   その予言は、いまだ実現していない。だが毎年毎年、数々
  の腕自慢たちが「最も人間らしいコンピュータ」の称号を手
  にすべく、我こそはと名乗りをあげてきた。本書の著者も、
  チューリングテストの中でも、最も有名な大会であるローブ
  ナー賞に参加した人物である。
   しかし、著者が目指したのは「最も人間らしいコンピュー
  タ」の称号ではなかった。この大会にはもう一つ興味深い称
  号も存在するのである。審判員から最も得票を集め、さらに
  その自信度も最も高いサクラに贈られる称号、「最も人間ら
  しい人間」賞の方であったのだ。本書は、そんな人間らしさ
  を追求した著者の挑戦記でもある。https://bit.ly/2LlYl8u
  ───────────────────────────
●図の出典/http://noexit.jp/tn/doc/chu.html

チューリングテストの仕組み.jpg
チューリングテストの仕組み
posted by 平野 浩 at 00:00| Comment(0) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月31日

●「機械の人間化の象徴アンドロイド」(EJ第4817号)

 AI(人工知能)が高度に発達すると、次の2つのことが起き
てきます。ここで「機械」とは、文字通り、機械、マシン、コン
ピュータ、それにAIなど、人間以外のマシンの総称です。
─────────────────────────────
          1.機械の人間化
          2.人間の機械化
─────────────────────────────
 「機械の人間化」とは何でしょうか。
 「AI脅威論」といわれるものがあります。その典型は「AI
に職を奪われる」「AIが上司になったら」「AIに人類は征服
される」など、いろいろいわれています。
 これは、機械が人間化して、人間を凌駕するという恐怖です。
確かに機械の進化によって人間の職が奪われるということは、産
業革命以後、これまでにいくらでもあったことです。今まで人手
でやっていたことが機械でできるようになれば、人間はその仕事
は機械にまかせて、機械にはできないよりレベルの高い仕事に取
り組めばよいだけの話です。仕事はいくらでもあります。
 人間は、自動車を発明したときから、自分の行きたいところに
自由に行くことができるようになっています。しかし、車は自分
で運転するしかありません。運転をしている間は、それに専念す
るしかないのです。それは当り前のことです。
 その自動車の運転が自動化されようとしています。現状は、ま
だかなり危なっかしい状況ですが、安全面はやがてクリアされ、
自動運転は当たり前のことになるはずです。ほんの数年前までは
自動運転の実現などあり得ないことだったはずです。
 今から1年半ぐらい前のことですが、書店で『未来を味方にす
る技術』(技術評論社)という本を手にしました。著者は斎藤昌
義氏、ネットコマース株式会社代表取締役です。私は本を購入す
るとき、「まえがき」を必ず読むことにしています。そこには、
まさに近未来のビジネスシーンが見事に描き出されていました。
この「まえがき」を読んだだけで、私はこの本の購入を決めまし
た。これだけで、内容に確信が持てたからです。私の狙い通り、
内容は素晴らしいものであり、このシリーズを書くのにも、とて
も役立っています。
─────────────────────────────
 「自動走行に切り替えます」
 高速道路に入り、自動走行モードのスイッチを入れると、ハン
ドルが私の手から離れ、ダッシュボードに、スッと吸い込まれて
いった。目的地の最寄りの出口までは1時間ほど。その間に、溜
まったメールを処理しよう。
 座席を後ろに引いて、タブレットを手にとる。ほどなくして、
「緊急の打ち合わせを開きたい」と品質管理部長からメッセージ
が入った。すぐにオンライン会議の画面を開くと、すでに生産技
術部や生産管理部などのメンバーがそれぞれの持ち場から会議に
参加している。(会議スタッフとのやりとりは省略)
 「14:00から山中工場に移動する。重なっているスケジュ
ールはすべてキャンセル。関係者に知らせてくれ」。タブレット
から、「承知しました」と返事が返ってきた。スケジュールは変
更され、関係者には気の利いた文書でメールが配信された。
 「まもなく、高速道路を降りて一般道に出ます。自動走行モー
ドを解除しますので、準備してください」
 ハンドルがダッシュボードからせり出してくる。私はハンドル
を握り直した。やれやれ、今日は長い1日になりそうだ。
    ──斎藤昌義著/『未来を味方にする技術/これからの
        ビジネスを創るITの基礎の基礎』技術評論社
─────────────────────────────
 このビジネスシーンは、何となく、少し前にやっていた「LI
NEワークスのCM」にとてもよく似ています。しかし、これを
読んで、このビジネスシーンを未来物語としてとらえる人は少な
いと思います。自動運転はともかくとして、タブレットによる通
信も会議も既に実現しているからです。
 しかし、自動運転が完全に行われるようになると、職業運転手
は大幅に減少するはずです。しかし、それによって余った労働力
は、必ず人間でなければできない仕事に吸収されるはずです。こ
れまでにも機械化によって、多くの職が奪われ、新しい職が生ま
れているからです。
 しかし、機械の人間化──要するにロボットはどんどん進化し
ます。現代は3Dプリンタがあるので、実物とほとんど変わらな
い人型ロボットができるようになっています。添付ファイルは、
日本のロボット工学者で大阪大学教授。専門は知能情報学工学博
士の石黒浩氏の製作した二足歩行ロボットで、外見や動きや言葉
遣いが自分そっくりの人造人間「ジェミノイドHI−4」です。
このロボットは自分で歩いたり、喋ったりできるのです。こうい
うロボットを「アンドロイド」といいます。現在のところ話をさ
せると、すぐロボットであることがわかりますが、そのうち、ど
ちらが本物かわからなくなる日はすぐそこに迫っています。まさ
に、「機械の人間化」そのものです。石黒浩博士は、人型ロボッ
トについて、次のようにコメントしています。
─────────────────────────────
 大事なことは、人は人を認識する機能を持っている、というこ
とです。というよりも人の形をしたもののほうが認識しやすい。
現在のスマホや携帯は、人間にとって理想的なインターフェース
じゃなくて、最も理想的なインターフェースは、人そのものなん
です。だから、技術が進めば、世の中のいろんなものが人間らし
くなっていく。そして、人間らしくなっていったときに、その究
極としてあるのが、アンドロイドだと思います。海猫沢めろん著
         『明日、機械がヒトになる/ルポ最新科学』
                 講談社現代新書/2370
─────────────────────────────
          ──[次世代テクノロジー論U/061]

≪画像および関連情報≫
 ●石黒浩:アンドロイドの未来に革新をもたらす男
  ───────────────────────────
   彼は自分そっくりに作ったアンドロイドに世界中を旅させ
  て、各地で講演を行わせている。彼は、米国の伝説的カント
  リーシンガー、ジョニー・キャッシュを彷彿とさせる黒ずく
  めの衣装に身を包み(しかし、その理由はキャッシュとは全
  く違う)、アンドロイド研究の真意は「人間が人間であるこ
  との意味」を問うことにあると信じて疑わない。要するに、
  石黒浩という人物は、我々が思い浮かべる研究者像とは大き
  くかけ離れている。アンドロイド研究のスーパースターなの
  だ。彼が幼少期を過ごした頃の日本では、上記に書いたよう
  なことはひとつも実現可能だとは思われていなかった。
   「アンドロイドやロボットについてそれほど興味があった
  わけではなかったんです。私が興味を持っていたのは人間そ
  のもので、元々は油彩画家になりたいと思っていました。同
  時に、私はものを作るのが好きでしたし、人間の脳の働きに
  も興味を引かれていました」と石黒教授は語る。
   石黒少年が抱いたそれらの興味は、彼がやがて組み上げる
  非常に精巧で、人間に近いアンドロイドたちの基礎を成して
  いった。彼のアンドロイドたちはあるラップソングの中にも
  フィーチャーされたが、そのフロウは実にスペシャルだ。石
  黒教授がアンドロイドを作ろうと思い立ったきっかけは、彼
  が大学で人工知能(AI)の研究をしていた時だった。「私
  はすぐにAIを収納するボディの重要性を認識しました。ま
  た同時に、アンドロイドを研究してみたいという自分の欲求
  にも気付いたんです。      https://win.gs/2LX7Oza
  ───────────────────────────

石黒浩博士とジェミノイドHI−4.jpg
石黒浩博士とジェミノイドHI−4
posted by 平野 浩 at 00:00| Comment(0) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする
RDF Site Summary