2018年07月02日

●「形態素解析により意味を探るシリ」(EJ第4797号)

 自然言語処理とは、人間が日常的に使っている自然言語をコン
ピュータに処理させる一連の技術であり、人工知能と言語学の一
分野です。この自然言語処理の重要プロセスが「形態素解析」で
す。形態素解析を定義すると、次のようになります。
─────────────────────────────
 文法的な情報の注記のない自然言語のテキストデータから、対
象言語の文法や、辞書と呼ばれる単語の品詞等の情報にもとづき
形態素(おおまかにいえば、言語で意味を持つ最小単位)の列に
分割し、それぞれの形態素の品詞等を判別する作業である。
        ──ウィキペディア https://bit.ly/2Na9Flk
─────────────────────────────
 この定義を読んでもピンとこないと思うので、「私は台所で料
理します」という例文を使って説明します。この文を形態素解析
をすると、次のように7つに分割されます。
─────────────────────────────
          私  ・・ 代名詞
          は  ・・ 副助詞
          台所 ・・  名詞
          で  ・・  助詞
          料理 ・・  名詞
          し  ・・  動詞
          ます ・・ 助動詞
─────────────────────────────
 このように、文をバラバラにして、最小単位になった単語をそ
れぞれ辞書などのさまざまな情報と照らし合わせ、それらの単語
の品詞の種類、活用形の種類などを含めて、その意味の割り出し
の分析を行うのです。その意味の割り出しには次の3つのステッ
プを踏むのです。
─────────────────────────────
   1.構文解析
     ・形態素をもとに文の構造を明確にする
   2.意味解析
     ・構文をもとに意味を持つまとまり判別
   3.文脈解析
     ・文単位で、構造や意味について考える
─────────────────────────────
 これらの解析に関しての詳細は、次のサイトに詳しく、かつわ
かりやすく解説が行われています。
─────────────────────────────
 自然言語処理とは?スマートスピーカーにも使われている技
 術をわかりやすく解説!     https://bit.ly/2tIAMvU
─────────────────────────────
 形態素解析の話に戻ります。これらの解析には多くのツール、
すなわち、ライブラリが用意されています。有名な日本語形態素
解析ツールには、次の3つがあります。
─────────────────────────────
          1. MECAB
          2. JUMAN
          3.JANOME
─────────────────────────────
 第1は、「MECAB」です。
 これは、オープンソースの日本語形態素解析ツールであり、最
も有名です。汎用的な設計ができるのがMECABの特色です。
名前の由来は「和布蕪/めかぶ」からきています。使用できる言
語は、C、C#、C++、Java、Python、Rubyなど多数あります。
 第2は、「JUMAN」です。
 これは、京都大学大学院情報学研究科知能情報学専攻の黒橋・
河原研究室が開発した日本語形態素解析ツールです。WEBテキ
ストから自動獲得された辞書、ウィキペディアから抽出された辞
書を使用できます。
 第3は「JANOME」です。
 これは、汎用プログラミング言語「ピュアバイソン」で書かれ
ている日本語形態素解析ツールです。パイソンは、C言語などに
比べて、プログラミングが分かりやすく、少ないコードで書ける
特徴があります。名前の由来は「蛇の目」からきています。
 アイフォーンの「シリ」で、ユーザーが次のように話しかけた
とします。
─────────────────────────────
  遠藤さんに打ち合わせに遅れます、とメールを送って!  
─────────────────────────────
 この音声はアップルのサーバーに送られ、形態素解析が行われ
上記の構文分析、意味解析、文脈解析が行われ、最終的に次のか
たちに落とし込まれ、サーバーからアイフォーンに送り返されて
きます。
─────────────────────────────
   ・宛先は「遠藤さん」
   ・メールのサブジェクト「打ち合わせに遅れます」
   ・メールの本文は指定されていない
   ・その内容はメールを送る
   ・送る際は(アイフォーンの)メールアプリを使う
                  https://bit.ly/2Ncsrsg
─────────────────────────────
 ここまでくると、アイフォーンに登録されている遠藤さんのア
ドレスを宛先に指定し、メールアプリはシリを使い、「本文はど
んな内容にしますか」というメッセージ画面を出します。
 もちろん遠藤さんが2人以上いるときは、「どの遠藤さんです
か」と質問し、選択を促します。
 このようにして、シリは自然言語処理によって、ユーザーと対
話を行い、指定された動作を行うのです。
          ──[次世代テクノロジー論U/041]

≪画像および関連情報≫
 ●「Siri」と「AI」の関係を整理する
  ───────────────────────────
   AI(人工知能)は専門家によりさまざまな定義がありま
  すが、総合すると、「人間と同じような知能を人工的にコン
  ピュータで実現しようとする技術」を指します。その歴史は
  意外と古く、「AI(人工知能)」という言葉が初めて登場
  したのは、1956年に開催されたダートマス会議でした。
  1964年には、コンピュータと人がテキストベースであた
  かも会話しているように見せる対話システム「イライザ」が
  開発され人気を博しました。シリにイライザについて尋ねる
  と「彼女は私の最初の先生だったんですよ!」と答えるのは
  イライザが対話システムの原型だったことに由来します。
   現在「AI(人工知能)」と呼ばれる分野には、自然言語
  処理、音声/画像認識、データマイニングなどさまざまな情
  報処理技術が含まれていますが、AI技術の核となるのが、
  「機械学習」です。
   機械学習の説明がまたややこしいのですが、ざっくり言う
  と、人間が自然に行っている学習と同じように、AIプログ
  ラム自身が学習する仕組みです。大量のデータを処理、解析
  し、未来の予測を行うため、使うほどにデータが蓄積され、
  学習していき、賢くなります。この機械学習を取り入れてい
  るのがシリです。アップルの公式サイトではシリについて、
  「アップルが開発した機械学習テクノロジーが組み込まれて
  いる」と明言されています。   https://bit.ly/2ME1Q6x
  ───────────────────────────

MECABによる形態素解析.jpg
MECABによる形態素解析
posted by 平野 浩 at 00:00| Comment(0) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月03日

●「AIはディープラーニングにある」(EJ第4798号)

 「スマートニュース」というスマホ配信のニュースアプリがあ
ります。私は情報収集用に複数のニュースアプリをダウンロード
していますが、「スマートニュース」の場合、ニュースの選定の
的確さや文字の読み易さには定評があると思っています。
 タイトルや記事の読み易さを支えているのは、昨日のEJで取
り上げて説明している「形態素解析」の技術を使っています。形
態素解析という技術は、文章を構成している要素を単語レベルに
バラバラにします。その単語単位で行を折り返したり、文字の横
幅を圧縮するなど、日本語組版に工夫をこらしています。そのた
め、文字と文字の間隔や、改行などが適切に行われているので、
記事がとても読み易いのです。AIの技術はこんなところに使わ
れているのです。
 さて、現代は「第3次AIブーム」と呼ばれています。今や何
でもかんでもAIです。「AI家電」がその典型です。お掃除ロ
ボットから始まって、AI冷蔵庫、AI調理器、AIスピーカー
など、何でも「AI」の言葉を冠するようになっています。
 その多くはIoTを含む現代のICT技術をすべてAIと呼ん
でいるフシがあります。こういう傾向は、第2次AIブームのと
きもあったのです。AIには、きちんとした定義がないというか
定義できないので、こういうことが起きるのです。
 これについて、現代AIの日本の第一人者といわれる東京大学
特任准教授の松尾豊氏は「AIは擬人化の一種であり、技術をあ
たかも人であるかのように例えると理解しやすい。ICTをAI
と呼ぶこと自体は問題はないが、過度な擬人化には注意が必要で
ある」といっています。
 それでは、現代のAIは、どのように捉えるのが、正しいので
しょうか。
 AIは、ディープラーニング(深層学習)にあるといえます。
松尾豊准教授が現代のAIについて、記者のインタビューに答え
ている記事をご紹介します。
─────────────────────────────
──深層学習は何をもたらすのでしょうか。
松尾:「目が誕生した」と考えればいいでしょう。深層学習は人
間でいうところの目の技術です。網膜の役割をセンサーが、視覚
野を深層学習が果たすわけです。
 画像認識の精度はどんどん上がっています。2015年に人間
の目の精度を超えました。最近では、画像認識の次の段階として
予測が出てきました。例えば海岸から見た波の映像を与えると、
次に波がどう動くのかを予測し、描画するというものです。人間
が世界を観察する仕組みと同様のものを実現するための研究が進
んでいます。
 深層学習は、見ているものが何かを判断する「パターン処理」
の技術と言えます。見ているものに次に何が起こるか、を予測す
るのもパターン処理です。
──目を獲得すると、何が起こりますか。
松尾:生物が目を穫得してから、生物の戦略は急速に多様化して
いき、飛躍的な進化につながりました。
 同じことが、機械やロボットの世界にも起こるはずです。(約
5億年前のカンブリア紀に生物が飛躍的な進化を遂げた)「カン
ブリア爆発」と同様の現象を予想しています。
 農業を例に取ると、自分の目で判断する農作物の収穫ロボット
が実現できます。収穫が可能なら、農作物が病気かどうかも判定
できるようになる。すると対処策を講じられる。同じようなこと
が、製造業の工場でも可能になります。医療、介護、建設、食品
加工といった、至るところで適用できるのではないでしょうか。
 目を穫得した機械はハードウエアとして販売するほか、サービ
スの一部として提供できます。農業ではトマトの収穫、病気の判
定、対処を講じるサービスが可能です。 松尾豊東京大学准教授
 「深層学習の価値は『目』の獲得/産業応用で日本は勝てる」
     ──『まるわかり!人工知能最前線』/2018年版
                     日経BPムック刊
─────────────────────────────
 ディープラーニングは「革命」です。6月18日のEJ第47
87号において、なぜ、革命かについて、AIの3つの可能性に
ついて指摘しているので、再現します。
─────────────────────────────
        1.3つの認識が可能になる
        2.運動ができるようになる
        3.言語の意味が理解できる
─────────────────────────────
 「1」の3つの認識とは、「画像認識」「文字認識」「音声認
識」のことであり、これはいずれも既に可能になっています。そ
れは、AIが目を持ったからです。そして、遂に2015年にお
いて、AIの画像・音声誤認識率、画像認識や音声を間違える率
は人間の方が高いのです。松尾准教授はこれを「数年後、歴史の
教科書に載ってもいいくらいの出来事である」としています。
─────────────────────────────
        AI ・・・・・ 5・1%
        人間 ・・・・・ 4・9%
─────────────────────────────
 「2」の「運動ができるようになる」という意味は、人間が教
えることなく、自らの観測データと合体させて、同時の行動がと
れるようになることを意味します。
 米ATARIの約60のゲームのうち、半数では既にAIが、
人間のハイスコアを超えています。AIは習熟を通じ、人間のよ
うな熟練した動きができるようになってきているのです。将棋や
碁の世界でも同様です。
 「3」の「言語の意味が理解できる」についても大きな進展が
あります。これについては、明日のEJで述べることにします。
          ──[次世代テクノロジー論U/042]

≪画像および関連情報≫
 ●AIの世界で「眼の誕生」が持つ意味
  ───────────────────────────
   「カンブリア爆発」という言葉をお聞きになったことがあ
  ると思います。古生代カンブリア紀、およそ5億4200万
  年前から5億3000万年前という比較的短期間に、今見ら
  れる生物種のほぼ全てが出そろった現象を指すのですが、そ
  の爆発的な生物多様性の出現の理由として挙げられている一
  つが、高度な眼を持つ三葉虫の存在があります。高精度の眼
  を持った生物が圧倒的サバイバル戦略を駆使して、進化して
  いったのです。
   実は、東京大学大学院工学系研究科技術経営戦略学専攻特
  任准教授・松尾豊氏によれば、AI、機械やロボットの世界
  でもこのカンブリア爆発が起こると考えられるのです。もち
  ろんその原因は「眼」にあります。ディープラーニングの画
  像認識技術の進化によって、機械やロボットも、「眼が見え
  る」ようになりました。「今までだって高性能のカメラを搭
  載したいわば“眼を持つ機械・ロボット”はたくさんあった
  じゃないか」と思ってしまいますが、「見る」とは網膜と脳
  の後ろの方にある視覚野が働くことで可能になってきます。
  つまり、カメラとディープラーニング技術が組み合わさって
  初めてAIは「眼を持つ」と言えるのです。
   今まで見えなくてもすむ作業しか機械に任せられなかった
  ところ、この「眼の誕生」によって、見る必要のある、見て
  判断して作業を進める必要のある複雑な仕事を任せられるよ
  うになったのです。       https://bit.ly/2tT9HoR
  ───────────────────────────

松尾豊特任准教授.jpg
松尾豊特任准教授
posted by 平野 浩 at 00:00| Comment(0) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月04日

●「AIは真に文章の意味がわかるか」(EJ第4799号)

 AI(人工知能)が人間の話す言葉を理解し、それに対する返
事を返してくる──一昔前では考えられなかったことですが、今
ではそれが当たり前のようになっています。
 アイフォーンの「シリ」だけでなく、アマゾンの「アレクサ」
グーグルの「グーグル・アシスタント」、ドコモの「しゃべって
コンシェル」などたくさんあります。なかには、「女子高生AI
りんな」という怪しげなものまで出現しています。「りんな」は
LINE上でユーザーの会話の相手をしてくれるAIです。20
15年に登場し、LINEユーザーの友だちは、530万人とい
いますから、驚きです。
 ところが、これらのAIが、本当に「言葉の意味が理解できて
いるのか」というと、それは大変疑問です。これについては、学
者の間でも意見が分かれているといいます。
 近代言語学の父といわれるスイスの言語学者フェルディナン・
ド・ソシェールは、「言語というものは記号の体系」といってい
ます。これについて、ウィキペディアには、次のように説明があ
ります。
─────────────────────────────
 ソシュールは、言語(ラング)は記号(シーニュ)の体系であ
るとした。ソシュールによれば、記号は、シニフィアン(たとえ
ば、日本語の「イ・ヌ」という音の連鎖など)とシニフィエ(た
とえば、「イヌ」という音の表す言葉の概念)が表裏一体となっ
て結びついたものである。そして、このシニフィアンとシニフィ
エの結びつきは、恣意的なものである。つまり、「イヌ」という
概念は、“Dog” (英語)というシニフィアンと結びついても、
"Chien" (フランス語)というシニフィアンと結びついても、ど
ちらでもよいということである。     ──ウィキペディア
                  https://bit.ly/2KGqPpa
─────────────────────────────
 従来のAIは、この表裏を結びつけることができなかったので
すが、いわゆる「グーグルの猫」によって、この問題はある程度
前進したといえます。この「記号がいかに実世界との関わり合い
において意味を持つか」という問題のことを「シンボルグラウン
ディング問題」と称しています。
 国立情報学研究所教授の新井紀子氏という人がいます。新井教
授は、人工知能分野のグランド・チャレンジ「ロボットは東大に
入れるか」のプロジェクト・ディレクターを2011年から務め
ていた方です。いま新井教授の執筆された次の本が、一大ベスト
セラーズになっています。
─────────────────────────────
          新井紀子著/東洋経済新報社刊
     『AIvs教科書が読めない子どもたち』
─────────────────────────────
 新井教授が目指したのはロボットを東大に入れることではなく
人間と比較して、AIの可能性と限界を明らかにすることにあっ
たのです。しかし、この研究の結果、驚くべきことが鮮明になっ
たのです。その「驚くべきこと」を書籍として上梓したのが上記
の本です。新井教授は、この本のなかで、AIは言葉の意味を本
当に理解しているのかについて、次のように述べています。
─────────────────────────────
 AIが文章を論理的に読めるようになるとしたら、まずは、文
がどこで区切られるか、つまり文節が理解できなければなりませ
ん。それができたら、「何がどうした」という主語と述語の関係
や修飾語と被修飾語の関係を理解しなければなりません。これを
「係り受け解析」と言います。
 また、文章には「それ」「これ」といった指示代名詞が頻繁に
出てきますから、指示代名詞が何を指すかも理解できなければな
りません。それを「照応解決」と言います。
 東ロボくんは、これらの処理を大学の入試問題に適用して、代
名詞が何を指すかといった入試の問題が解けるようになったわけ
です。それでは、係り受け解析や、照応解決ができたからといっ
て、意味がわかったといえるでしょうか?
 それだけでは、意味を理解したとは言えないでしょう。それで
は、そもそも「意味を理解する」とは、いったいどういうことな
のでしょう?          ──新井紀子著の前掲書より
─────────────────────────────
 これは大変難しい問題です。新井教授は、6年間にかけて、プ
ロジェクトにおいて、さまざまなかたちで、AIに東大入試の問
題を解かせてみて、AIの限界を感じ取ったといいます。
 しかし、AIの偏差値は57を超えたのです。偏差値57とい
うと、高校3年生の上位20%に相当する成績です。この偏差値
なら、一部の私立有名大学には、十分合格するレベルにあること
を示しています。
 このロボットは「東ロボくん」というのですが、彼は言葉の意
味を理解して問題を解いているのではないのです。つまり、人間
のように何かを読んで、それを理解し、そのうえで問題の解を得
るのではないのです。それらしく見せているだけです。
 しかし、東ロボくんは、小論文ぐらいは書くことができます。
教科書とウィキペディアを検索し、文を取り出して組み合わせ最
適化したうえで書くだけなのですが、衝撃的なのは、たいていの
学生が書くものよりかなり質が高いという事実です。
 このとき、新井教授は考えたのです。なぜ、文章を読んで意味
が理解できないAIが人間に勝てるのだろうか。本当に人間の中
高生は、文章を読めているのだろうか、と。
 そこで、新井教授は、本当に中高生が日本語の言葉の意味を理
解しているのかを調べる「リーディング・スキル・テスト」を開
発し、2016年4月から1017年7月末までに、全国の2万
5千人がこのテストを受験しています。強制でない調査にこれほ
どの協力が得られたのは珍しいことです。
          ──[次世代テクノロジー論U/043]

≪画像および関連情報≫
 ●人工知能(AI)の苦手なことは「言語理解」
  ───────────────────────────
   AIと人間を分けるのは「言語理解」だ。言語を理解する
  ためには単語の意味だけでなく、それが使われている背景や
  文脈の理解も必要になるためその全てをAIに理解させるこ
  とは難しい。これはイラストの理解にもいえることだ。よっ
  て、今後人間がAIに勝つとすれば、コミュニケーション分
  野にあると、東京大学大学院経済学研究科・経済学部教授の
  柳川範之氏は指摘する。(2016年7月25日開催日本ビ
  ジネス協会JBCインタラクティブセミナー講演「ファミリ
  ービジネスと産業構造の変化」より、全8話中第6話)
   では(AIに対する)人間の相対的な有利性は何なのか。
  人間の強みはどこにあるのかに関する解説です。これについ
  ては、本当ならAIの専門家にきちんと聞いた方がいいので
  すが、社会科学者なりの私の理解を申し上げます。現状での
  AIの強みは、ビックデータにあります。すなわちデータの
  蓄積が重要なのです。ディープラーニングは必要なデータ量
  を大きく下げることに成功し、比較的少ないデータでもたく
  さんのことが分かるようになってきました。しかしそれでも
  データの蓄積が命です。そう考えるとデータの蓄積が使えな
  い、データの蓄積による学習が使えない分野は、人間の方が
  相対的に強みがあることになります。それは、「全く新しい
  組み合わせを考える」ことです。つまり、過去のデータがな
  いため、全く新しい組み合わせを考えようとしても、それら
  の個別性が強く、過去のデータがデータとして使えない。こ
  ういう問題に関しては、人間の方が相対的に有利性を持つと
  いうことが分かっています。   https://bit.ly/2u0miqu
  ───────────────────────────

新井紀子国立情報学研究所教授.jpg
新井紀子国立情報学研究所教授
posted by 平野 浩 at 00:00| Comment(0) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月05日

●「日本語がきちんと読めない中高生」(EJ第4800号)

 昨日のEJを少し振り返ります。国立情報学研究所教授の新井
紀子氏は、6年間かけて、「AIロボットは東大に入れるか」の
テーマに取り組み、東大は無理という結論を出しています。新井
教授は、AIが言葉の意味を理解するのは困難であるという考え
方に立っています。したがって、巷でよくいわれる「人類はいず
れAIに征服される」というようなことは、まず起きないと主張
しています。
 しかし、それでもAIは偏差値57に達したのです。有名私大
に入れるレベルですが、AIは言葉の意味を理解して問題を解い
ているのではないのです。それでも「東ロボくん」に問題を与え
て小論文を書かせると、教科書とネットのウィキペディアなどを
参照し、それらから文を取り出して組み合わせ、最適化を施して
ちゃんと読める答えの文章を作成できるのです。
 しかし、新井教授が愕然としたのは、東ロボくんの小論文が学
生の文章よりもかなりマシであることに気付いたときです。人間
の学生が東ロボくんに負けている──文章の意味を理解できない
AIになぜ人間が負けるのかという疑問です。
 果して人間は、本当に文章を理解できているのか。そこで新井
教授は、「リーディング・スキル・テスト」(以下、RSTと略
記)を開発し、中高生にRSTを受検させたのです。RSTにつ
いて、新井教授は次のように述べています。
─────────────────────────────
 問題は6タイプあり、「それ」「これ」など指示詞、省略され
た主語や目的語が何を指しているか判断する「照応」、主語や目
的語がどれか判断する「係り受け」、論理と常識を用い、与えら
れた文から推論する「推論」、定義を読んで具体的にどのような
コトやモノがその例になりうるか見分ける「具体例同定」、2つ
の文が同義であるか判断する「同義文判定」、文章に対応する図
表を見分ける「イメージ同定」だ。中学・高校の教科書や辞書、
新聞に掲載された文から問題を作成している。つまり、これが読
めなければ、教科書も辞書も新聞も読めないことになる。
                  https://bit.ly/2KKtWQb
─────────────────────────────
 RSTの問題は、かなり精密に作成されています。RSTは、
ペーパーテストではなく、コンピュータで無作為に受検者に示さ
れます。受検者によって問題が異なるので、「項目反応理論/I
RT」で解析が行われています。「項目反応理論」についてウィ
キペディアの定義を示しておきます。TOEFLなどでも使用さ
れており、信頼度の高い理論です。
─────────────────────────────
 項目反応理論は、評価項目群への応答に基づいて、被験者の特
性(認識能力、物理的能力、技術、知識、態度、人格特徴等)や
評価項目の難易度・識別力を測定するための試験理論である。こ
の理論の主な特徴は、個人の能力値、項目の難易度といったパラ
メータを、評価項目への正誤のような離散的な結果から確率論的
に求めようとする点である。
     IRT:Item Response Theory; Item Latent Theory
                  https://bit.ly/1ZUtPOx
─────────────────────────────
 実際にはどのような問題が出題されたのでしょうか。
 このRSTに基づく問題を2つ示すので、やってみていただき
たいと思います。
─────────────────────────────
【問題@】/「係り受け」問題
 「アレックス/Alex」は、男性にも女性にも使われる名前で、
女性の名「アレクサンドラ/Alexandra」 の愛称であるが、男性
の「アレクサンダー/Alexander」 の愛称でもある。この文章に
おいて、以下の文中の空欄に当てはまる最も適当なものを選択肢
のうちから一つ選びなさい。
    Alexandra の愛称は( )である。
    @Alex  AAlexander  B男性  C女性

【問題A】/「同義文判定」の問題
 幕府は、1639年、ポルトガル人を追放し、大名には沿岸の
警備を命じた。
 上記の文が示す内容と、以下の文が表す内容は同じか。「同じ
である」「異なる」のうちから答えなさい。

 1639年、ポルトガル人は追放され、幕府は大名から沿岸の
警備を命じられた。
                  https://bit.ly/2IS68F0
─────────────────────────────
 「問題@」の正解は@の「Alex」です。これについて、中学生
の正解率は37・9%、高校生は64・6%でした。何でもない
問題ですが、読み取れていないのです。とくに中学生はかなりひ
どい結果です。
 「問題A」の正解は「異なる」です。「問題@」よりもやさし
い問題です。これについて中学生の正解率は57・4%、高校生
は72・3%でした。これほど明確に違う日本文を読み取れない
中学生が42・6%、高校生でも27・7%もいるのです。
 それにしても「問題A」の中学生の正答率57・4%は低いの
一言に尽きます。サイコロを転がして正解を選ぶ確率が50%で
すから、57・4%は、それよりも少しマシといった程度でしか
ないのです。
 日本語の文章の読解力が学力の伸びの前提になっています。彼
らがこのまま大人になるので、書籍はもちろんのこと、新聞すら
読めない社会人が現在増えているのです。ちなみに、20代の日
本人の新聞の購読率は9%と10%を切っています。これでは、
AIを使いこなすことはできず、AIに使われてしまう運命にあ
ります。      ──[次世代テクノロジー論U/044]

≪画像および関連情報≫
 ●「教科書が読めない」子どもたち/教育現場の深刻な事情
  ───────────────────────────
   子どもたちは想像以上に文章を理解できていない。「だが
  解決策はあるはずだ」。教育の現場では、対策が始まってい
  る。「うちの子、算数の計算問題はできるけど、文章題はだ
  めで」
   この傾向は、おそらく多くの親が実感しているのではない
  だろうか。しかし、なぜ文章題ができないのか。それを明ら
  かにしたのが、国立情報学研究所の新井紀子教授が開発した
  基礎的読解力判定のリーディングスキルテストだ。
   RSTは、生活体験や知識を動員して、文章の意味を理解
  する「推論」、文章と、図形やグラフを比べて一致している
  かどうか認識する「イメージ同定」、国語辞典的、あるいは
  数学的な定義と具体例を認識する「具定例同定」など、読解
  力を6分野に分け、その能力を問うものだ。
   このテストをいち早く取り入れたのが、戸田市(埼玉県)
  教育委員会だ。教育政策室指導主事の新井宏和さんは、その
  経緯を次のように語る。
   「全国学力・学習状況調査の活用問題が解けるような子ど
  もたちにしたかった。幸いにも新井教授と戸田市の戸ケ崎勤
  教育長が知り合いで、教育長がRSTに高い関心を示し協力
  して取り組むことになりました」。
   テストは2015年から段階的に実施され、17年は市内
  の全中学生と、小学6年生全員の4500人が参加した。問
  題は、国立情報学研究所特任研究員の菅原真悟さんの指導の
  もと、市内の小中学校の教員が作成した。
                  https://bit.ly/2KDrmLV
  ───────────────────────────

RSTの作成者/新井紀子教授.jpg
RSTの作成者/新井紀子教授
posted by 平野 浩 at 00:00| Comment(0) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月06日

●「日本語読解力に欠けている子ども」(EJ第4801号)

 2018年7月2日のBSフジ「プライムニュース」に新井紀
子国立情報学研究所教授が出演しています。まさにEJで取り上
げている問題について、林芳正文科大臣や教育評論家の尾木直樹
氏も交えて、話し合いを行っているのです。
 そのときの「ハイライトムービー」があります。時間は22分
28秒ですので、ぜひご覧ください。
─────────────────────────────
      2018年7月2日/BSフジプライムニュース
 「人工知能“東大受験”調査/解ける問題・解けない問題」
          出演者:林芳正文科大臣
              新井紀子国立情報学研究所教授
              尾木直樹氏/教育評論家
                      22分28秒
                 https://bit.ly/2Kz6t5n
─────────────────────────────
 大学は別として、また一部の私立学校を除いて、日本の学校の
ほとんどには「原級停止処分」というものがありません。つまり
落第という処分はないのです。例えば、小学校3年生は1年経つ
と、全員4年生になります。たとえ学力がその学年の要求してい
るレベルに達していない学生も学年は上がるのです。
 そうすると、上級学年の教育の基礎になるべき教科が理解でき
ないままで上級学年に上がると、当然ですが、そこでの教科も理
解できないことになってしまいます。もっともその時点で、適切
な教育が行われればいいのですが、そのまま卒業してしまうケー
スが少なくないのです。
 それに日本では、大学を卒業することは、それほど困難ではあ
りません。大学にもよりますが、入学できたのであれば、卒業の
ための必要単位を取得することは、ほとんどの学生はクリアでき
るはずです。そうであるとすると、本来は、義務教育において、
修得しておくべき基礎的な教科の修得が不完全なまま社会人にな
るケースは多くなります。
 私は、ここ20年以上、あるIT企業の新人教育(中途入社新
人を含む)を担当しておりますが、小学校レベルの算数の問題が
解けない新人が多いことに驚いています。昨日今日はじまったこ
とではなく、ずっとそういう状態が続いています。
 新井教授の本を読んで、これは算数というよりも、問題が要求
していることを読み解く読解力が不足しているのが原因ではない
かと、気が付きました。計算ができないわけではなく、どのよう
に計算するかわからないのです。
 やはり新井教授の本に関して感想を書いているブログに次の記
述を見つけました。
─────────────────────────────
 AI開発者の第一人者である、新井紀子さんの著書『AIvs
教科書が読めない子どもたち』を読みました。本書では子どもた
ちとAIが最も苦手とする能力の一つに読解力を挙げています。
要は文章が読めず、読んでも理解できないということです。
 私自身、子どもたちの家庭教師(小学校〜高校生)をしていて
ハタと思いつくことがありました。私は理数系の国立大学を卒業
しており、理数系が非常に得意です。なので、理数系が苦手な子
どもたちを抱えているご家庭からの依頼が多いです。
 ご家庭の方々の認識は大体似通っており、曰く
「我が家の子どもは国語は得意なんだが、数学(算数)が苦手」
 どの子も、計算問題は解けるんです。
 時間がかかったり、ケアレスミスをすることはあれど、決して
解き方そのものが間違っているとか、手も足も出ないということ
はありません。おや?と思いつつ、文章問題を解かせてみると、
途端に手も足もでなくなります。
 例えば、小学3年生の「午前9:15に学校に着き、午後15
:15に学校を出ました。学校には何時間いたでしょう?」とい
うような問題に、小学5年生が答えられないんです。答えは当然
6時間です。私が教えている生徒は、何を考えたか、9:15と
15:15を足して、24:30と答えました。小学3年生がで
はありません。小学5年生です。小学5年生が小学3年生の文章
問題に全く歯が立たないんです。   https://bit.ly/2NqZAk7
─────────────────────────────
 新井紀子教授のRST(リーディング・スキル・テスト)の結
果は、恐ろしい事実を突き付けています。日本人でありながら、
日本語の意味を正確に読み取る力が不足している学生が多いとい
う事実をRSTの結果は指摘しています。教科書が読めい子ども
が多いという事実です。
 これに対する国の動きは必ずしも機敏とはいえないようです。
RSTの結果にも異論を唱える教育関係者も少なくないといわれ
ています。新井教授の本に対する反論も多いのです。これについ
て、新井教授は、次のように述べています。
─────────────────────────────
 教科書を読むだけの読解力がないという事実に直面したとき、
2つの選択肢があります。ひとつは「教科書なんか悪文だらけ。
読めなくてもいい」と思うこと。もうひとつは「どうにかしない
といけない」と思うことです。可能性が広がるのはどちらでしょ
うか?私は「読めなくてもいい」という人を全員、説得すること
はできません。だから、とにかく中学1年生を診断して、先生た
ちがリアリティをもって、子どもたちの読解力の改善に取り組む
ための手助けをしたい。
 RSTの結果を見ても、子どもたちは自分でどうにかすること
はできません。そこでまず先生に受けてもらい、子どもたちがど
こでつまずいているかを知った上で、ともにどうしたら読解力を
伸ばすことができるか考えてくださる学校からRSTを提供した
いと考えています。         https://bit.ly/2IQsHtM
─────────────────────────────
          ──[次世代テクノロジー論U/045]

≪画像および関連情報≫
 ●新井紀子教授の本を大人たちはどう読めているか
  ───────────────────────────
   今のところ「真の意味でのAI」は存在せず、現状のAI
  技術の原理から言って「シンギュラリティ」は到来しない、
  という話の部分は明快だし、読む価値がある。ここ数年、定
  年まで自分の職が安泰であることを疑ったこともないような
  立場の人が、耳かじりの「みなさんが大人になる頃には今あ
  る仕事の半分はAIに取って代わられて・・・」みたいな話
  をするのを聞くとヘドが出そうになるので、そういう人には
  特に第1章と第2章で理解を深めて欲しいが、本書もその点
  については脅し煽るような書きっぷりなので読んでもあまり
  変わらないかもしれない。
   私が教育(学)関係者からの厳しい感想を期待していたのは
  そこではなく、第3章以降の「全国読解力調査」の部分だ。
  まず、このテストで測ったものは絶対で、読者はみなこの結
  果に慄然とすべき、という書きっぷりがどうも好きになれな
  い。好きになれないというのは私個人の感想だが、そこに、
  実証研究の報告としても粗雑であることが表れているように
  思われる。結果は事実かもしれないが、それが学生・生徒の
  論理的思考力や推論能力そのものを果たして表しているかど
  うかの解釈にはもう少し慎重であるべきではないかという記
  述が多い。           https://bit.ly/2KOmhgC
  ───────────────────────────

BSフジプライムニュース出演中の新井教授.jpg
BSフジプライムニュース出演中の新井教授
posted by 平野 浩 at 00:00| Comment(0) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月09日

●「新井教授の本へのネットでの反論」(EJ第4802号)

 新井紀子教授の著書『AIvs教科書が読めない子どもたち』
(東洋経済新報社)に対して、ネット上に多くの反論記事がアッ
プロードされています。売れているからです。そのなかで、ひと
きわ目を引くのは次のブログです。批評は5章に分かれているの
で、章ごとに参照できるようにしておきます。
─────────────────────────────
 東ロボくんは、なぜ失敗したのか『AIvs教科書が読めない
子どもたち』
 ◎批評1 ・・・ https://bit.ly/2KCkm2y
               東ロボくんはなぜ失敗したのか
 ◎批評2 ・・・ https://bit.ly/2tZaGVq
          文章を読めればAIに仕事を奪われない?
 ◎批評3 ・・・ https://bit.ly/2KE1IaC
         そもそもコンピュータが意味を理解するとは
 ◎批評4 ・・・ https://bit.ly/2J19Ko0
            コンピュータで文の意味を理解しよう
 ◎批評5 ・・・ https://bit.ly/2zh0w7A
 「太郎は花子が好きだ」をコンピュータに意味理解させました
─────────────────────────────
 このブログは、株式会社ロボマインド代表取締役、田方篤志氏
が書いており、大変内容があります。とくにAIや、ロボットに
対する記述は示唆に富む内容であり、多くのヒントが得られると
思います。そういうわけで、AIから少し離れるテーマもあると
思いますが、いくつか取り上げて、何回か、EJとして要約しま
す。詳細については、それぞれの章を参照してください。
 まず、『AIvs教科書が読めない子どもたち』に関して、冒
頭に次の記述があります。
─────────────────────────────
 現在、AI関連の書籍で、『AIvs教科書が読めない子ども
たち』という本が売れているようです。著者は、AIロボを東大
に合格させる「東ロボくん」というプロジェクトで有名な新井紀
子教授です。
 「東ロボくん」プロジェクトには、当初から興味があったので
さっそく読んでみたのですが、自然言語処理の浅い理解や、「知
能=偏差値」という思い込みなど、著者の主張には首をかしげざ
るを得ないことが多かったので、今回から何回かにわけて、本書
について解説していきます。
 AIが、大学の入試問題を解くとなると、数学や歴史の穴埋め
問題なら勝算はあると思いますが、一番苦戦するのは国語です。
なぜなら、現在の自然言語処理では、文章の意味を理解すること
ができないからです。
 英語の翻訳なら、意味を理解できなくとも、それらしい翻訳を
作り出すことは不可能ではありませんが、文章の意味理解そのも
のを問う国語の問題があるかぎり、東大合格など絶対に不可能な
のです。そのような一見、無謀なチャレンジですが、国の予算を
獲得し、税金を投入するのですから、何らかの秘策があるのだと
楽しみに読み始めました。
 ところが、そのような期待は見事に裏切られてしまいました。
(新井紀子教授は)「国語はどう考えても正攻法でなんとかでき
るとは思えません(P92)」と、堂々と宣言しているのです。
                    ──「批評1」より
─────────────────────────────
 新井教授は、『AIvs教科書が読めない子どもたち』のなか
で書いているのは、「東ロボくん」を東大に合格させようとする
プロジェクトを推進する過程で、AIにはできないことがたくさ
んあることがわかってきます。
 対話はしているが、その意味は理解されていないし、小論文テ
ストでも、それらしき文章は書くものの、よく理解して書いてい
るとは思えないレベルです。しかし、そのような言葉が理解でき
ないAIであるにもかかわらず、とくに読解力において、人間の
中高生がAIに劣る傾向があることに、新井教授は愕然とするの
です。そして、中高生の国語の読解力のレベルを検査するRST
(リーディング・スキル・テスト)を開発し、検査を行い、その
事実が裏付けられたことを公表する──これがここまでEJが述
べてきたことのすべてです。
 ここで新井教授の経歴について、知っておくべきことがありま
す。新井紀子氏は、一橋大学法学部の出身で、イリノイ大学数学
科の博士課程を修了した理学博士であり、数学者です。したがっ
て、AIの専門家でも、ロボットの専門家でもないのです。しか
し、AIには造詣が深く、現職は、国立情報学研究所の教授を務
めています。
 新井教授は、法学部出身であることを明らかにしたうえで、読
解力の向上は、なるべく若い段階(中高生)で向上させるべきで
あるとして、次のように述べています。
─────────────────────────────
 私はもともと法学部で、刑法の授業で、有名なえん罪事件の被
告となった女性のお話を伺ったことがあります。あまりに理路整
然としていたため、なぜこの人を警察は誤って逮捕したんだろう
と思いました。しかしのちに、法廷という言語と論理で説明する
以外に疑いを晴らすことのできない場で、彼女は変わっていった
のではないかと思うようになりました。
 人は変われます。だから簡単に諦めてはいけない。私がこれま
で指導してきた学生や、ともにプロジェクトを動かしてきた仲間
たちの中にも読解力を上げたり、論理的になれたり、変わること
ができた人たちがいます。でも大人が変わるには、時間などかな
りのコストがかかってしまう。偏った読み方を長年続けてしまっ
ているからです。だから早めに修正したほうがいいのです。
                  https://bit.ly/2IQsHtM
─────────────────────────────
          ──[次世代テクノロジー論U/046]

≪画像および関連情報≫
 ●感想文/『AIvs教科書が読めない子どもたち』
  ───────────────────────────
   実を言えば、この本はあまり紹介するつもりはありません
  でした。話題の書であるためわざわざ取り上げるまでもなく
  著者本人による内容紹介も他の人による書評もあちこちで出
  ていますし、何より私は新井先生をシンギュラリティ懐疑論
  者のライバルだと思っているので(笑)とはいえ、一応私の
  「感想」を散漫にまとめておきたいと思います。詳細な内容
  紹介や書評は別の方に譲ります。
   前半部分は、コンピュータに東大入試問題を解かせる「東
  ロボくんプロジェクト」の報告をベースにして、現在のAI
  技術と機械学習に関する解説を行なっています。シンギュラ
  リティ懐疑論としての議論は簡潔かつ妥当で、説得力のある
  ものだと思います。たびたび出てくる『この「だから」は、
  論理的ではありませんが・・』という言葉には笑ってしまい
  ました。
   私が思うに、著者が断固たるシンギュラリティ懐疑論者と
  者となったのは、2016年の内閣府タスクフォース*1での
  齋藤元章氏との接触がきっかけではないかと思います。その
  点を考慮すると、本書の説明は、「現状の技術の延長線上に
  シンギュラリティはない」ことの説明になっていても、齋藤
  氏が唱えるシンギュラリティ説 (と、そのベースになったカ
  ーツワイル氏の説) を正面から捉えた反論にはなっていない
  と感じました。         https://bit.ly/2KQ8b1o
  ───────────────────────────

答案に答えを書く「東ロボくん」.jpg
答案に答えを書く「東ロボくん」
posted by 平野 浩 at 00:00| Comment(1) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月10日

●「アップルを復活させた有名なCM」(EJ第4803号)

 田方篤志氏のブログにしたがって、同氏による新井教授の考え
方に対する反論を指摘していきます。田方篤志氏によると、「新
井紀子教授は『偏差値』にこだわり過ぎる」といいます。偏差値
について新井教授は次のように述べています。
─────────────────────────────
 読解能力値の高い子は、教科書や問題集を「読めばわかる」の
で、1年間受験勉強に勤しめば、旧帝大クラスに入学できてしま
うのです。東大に入れる読解力が12歳の段階で身についている
から、東大に入れる可能性が他の生徒より圧倒的に高いのです。
 ──          ──新井紀子著/東洋経済新報社刊
          『AIvs教科書が読めない子どもたち』
─────────────────────────────
 新井教授にとっては、偏差値の高い大学に入ることが最も重要
なことであると認識しています。したがって、偏差値の低い子に
ついては、早いうちに手を打つ必要があるので、RSTを全国的
に実施して、そういう子を発見し、教育するべきであると主張し
ています。本当にこれが正しい教育なのかと田方氏は疑問を感じ
ています。そこで田方氏は、ここでアップルの有名なCMの話を
するのです。まずは、そのCMを試聴してください。時間は60
秒であり、日本語バージョンです。
─────────────────────────────
  ◎アップルのCM
  「Think different」/「クレージーな人たちがいる」
                https://bit.ly/2MXStP7
─────────────────────────────
 1996年、アップルは完全に方向を見失っていました。現在
のアップルしか知らない若い人たちにとっては、想像もつかない
でしょうが、アップルにも、そういうときがあったのです。当時
アップル・ジャパンに勤務していた増田隆一氏は、そのときの様
子を次のように述べています。
─────────────────────────────
 私が記憶している最悪の数字では、会社の運転資金が残り14
日分しかないこと(この数字には諸説ある)。もはや倒産は免れ
そうにないという噂が社内も社外にも蔓延していました。新聞各
紙では毎日のように、どこかの企業がアップルを買収するという
記事が掲載されていました。社員には、何人もの転職エージェン
トからの接触があり、次の転職先が紹介されるという日々が続い
ていました。そのとき、スティーブ・ジョブズがアップルを追い
出されて数年後、再びアップルに復帰したというニュースが流れ
ました。完全に方向性を見失っていたアップルと自信喪失の真っ
只中にいる社員にとって、文字通り「最後の希望」にも思えまし
た。                https://bit.ly/2KUaVYf
─────────────────────────────
 そのCMが「Think different」 です。このCMはCEOに復
帰したスティーブ・ジョブズが、顧客だけでなく、モラルダウン
しているアップル社員の士気高揚と、その目指すべきアップルの
ビジョンを示すため、大変な力を入れて作ったCMです。
 「Think different」とは何でしょうか。
 この言葉の意味は「発想を変える」、「ものの見方を変える」
「固定概念をなくして新たな発想でコンピュータを使う」という
ことです。キャンペーンでは「世界を変えようとした人たち」と
して、アインシュタインやピカソ、キング、ガンジー、クレイな
どを挙げています。全員ものごとを変えた人たちばかりです。だ
から、われわれもアップルを変えようと社員全員に呼び掛けたの
です。CMですが、社員へのモチベーションなのです。
 忘れたくないCMですから、あえて言葉も掲載します。社員の
モチベーション向上に訴える素晴らしいメッセージです。
─────────────────────────────
  クレージーな人たちがいる
  反逆者、厄介者と呼ばれる人たち
  四角い穴に 丸い杭を打ちこむように
  物事をまるで違う目で見る人たち
  彼らは規則を嫌う 彼らは現状を肯定しない
  彼らの言葉に心をうたれる人がいる
  反対する人も 賞賛する人も けなす人もいる
  しかし 彼らを無視することは誰もできない
  なぜなら、彼らは物事を変えたからだ
  彼らは人間を前進させた
  彼らはクレージーと言われるが私たちは天才だと思う
  自分が世界を変えられると本気で信じる人たちこそが
  本当に世界を変えているのだから
  Think different.        https://bit.ly/2u46xzB
─────────────────────────────
 このCMの最後の部分に「自分が世界を変えられると本気で信
じる人たちこそが、本当に世界を変える」というフレーズがあり
ます。これは、スティーブ・ジョブズが自身を重ね合わせている
言葉だと思います。そのときのアップルの社員は、ジョブズ自身
がクレージィーそのものですから、ジョブズならアップルは必ず
再生できると信じたのです。このCMが起爆剤になって、アップ
ル全社が燃えたのです。
 そして確かにこのCM以後、アップルは奇跡ともいうべき再生
を果すのです。新型パワーブックG3、アイ・マック、パワー・
マッキントッシュG3といった優れた商品が次々と開発され、そ
れがやがて、アイフォーンとタブレットの誕生にまで行き着くこ
とになります。奇跡の大復活です。
 話をAIと教育の問題に戻します。なぜ、このCMが、偏差値
重視教育のアンチテーゼになるのかということです。それは、こ
のCMが、ひとりの男の子を変えるきっかけになったからです。
これについては、明日のEJで詳しく取り上げます。
          ──[次世代テクノロジー論U/047]

≪画像および関連情報≫
 ●CMの発表時のジョブズの挨拶/1997年9月23日
  ───────────────────────────
   おはようございます。私たちはこの広告を完成させるため
  朝の3時まで起きていました。これからこの広告をみなさん
  にお見せして感想を伺いたいと思います。
   さて、私が戻ってから2か月強になりますが私たちは本当
  に一生懸命努力しました。私たちがこれからしようとしてい
  ることは、おおげさなことではありません。むしろ基本に立
  ち返ろうとしています。すばらしい製品、すばらしいマーケ
  ティングとすばらしい流通という、基本に還ろうとしている
  のです。
   アップル社には、もちろんすばらしさがありますが、ある
  点においては基本に忠実かどうか、ということからかけ離れ
  ているように思えます。そこで私たちは、製品ラインから着
  手しました。この数年間どんどん大きくなるプロダクトロー
  ドマップを見てみて下さい、意味のない製品をたくさん販売
  しています。製品があまりにも多く、フォーカスしていませ
  ん。実際、私たちはプロダクトロードマップのうち70パー
  セントの製品を削除しました。
   私はその後数週間も、この価値のない製品ラインのことが
  よくわかりませんでした。このモデルは一体何なのか、一体
  これはどういった製品なのか、と考えざるを得なかったので
  す。私は顧客と話し始めたのですが、彼らも同じく理解でき
  ませんでした。         https://bit.ly/2zfgGym
  ───────────────────────────

アップルの有名な広告.jpg
アップルの有名な広告
posted by 平野 浩 at 00:00| Comment(0) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月11日

●「子供の心を変えたアップルのCM」(EJ第4804号)

 アップルを復活させたCM「クレージーな人たちがいる」につ
いて、こんな話があります。既出の元アップル・ジャパン社員、
増田隆一氏のブログに出ている話です。
 CMについて、当時のアップルのマーケティングチームが招集
され、CMのキャンペーンの進捗を確認する会議が開催されたの
です。そのとき、そのCMは、それほど大ヒットをしているとい
う感触はなかったといいます。
 ところが、ある国担当のスタッフが、CMに関係するひとつの
手紙を紹介したのです。それは、10歳の男の子を持つ父親から
の手紙でした。
─────────────────────────────
 息子は少し変わった男の子で、学校でいじめられ、のけものに
されていました。自殺をほのめかせて校長先生から連絡が入った
りしたこともありました。
 ある日、その子が、私に、テレビで流れるアップルのCM「シ
ンク・ディアレント」を一緒に見てほしいというのです。CMが
始まって口を挟もうとすると、「お父さん、黙って、最後まで見
て!」と強い口調でいうのです。やがて、CMが終ると、彼はい
いました。「自分は変わり者だとバカにされて、のけものにされ
てきたけれど、僕は変わりもののままで居ていいんだね!」と。
                  https://bit.ly/2KUaVYf
─────────────────────────────
 手紙を読み終ると、そこにいた全員は急に黙り込み、涙を流す
人もいたそうです。そして「Think different」 の広告は、これ
までの広告効果測定とはまったく違う次元で捉える必要があるこ
とに気が付いたのです。それは、このCMに人々の心を変えるパ
ワーがあることがわかったからです。
 そして、このCMに象徴される新しいアップルの理念は「人の
心に響く」というところにあり、アップルはそういう製品を世界
に送り出す必要があることを感じ取ったのです。
 それでは、田方篤志氏は、なぜ、新井教授の教育改革の考え方
に対して、この10歳の男の子を持つ父親からの手紙の話を出し
てきたのでしょうか。
 それは、新井教授の『AIvs教科書が読めない子どもたち』
から読み取れる子どもに対する教育観と、田方氏のそれとの間に
は大きな溝があるからです。それにAIに対する考え方も大きく
異なります。
 子どもの教育に関して田方篤志氏は、新井教授のそれとの違い
を次のように述べています。
─────────────────────────────
 人には個性があります。個性を無視し、文章が読めない子をあ
ぶりだし、文章が読めるように矯正することが本当に正しい教育
なのでしょうか?
 どんな子も、持って生まれた才能があるはずです。もし、すぐ
に見つからなかったとしても、ちょっと、考えてみてください。
その子が、生き生きとするのは、何をしているときでしょう。そ
の子が、その子らしい表情をみせる瞬間とは、どんなときでしょ
う。そこにこそ、その子が発揮できる才能があるのです。その子
の個性を無視して、読解能力値だけでその子を判断する。読解能
力値の低い子は、そのままでは将来仕事につけなくなるからと、
読解能力を高める教育を強制する。そんな教育をしていては、本
来、その子が輝かせるべき才能を潰してしまいます。そんな教育
ちょっとおかしいですよね。(一部略)
 アップルの「Think different」 キャンペーンを思い出してく
ださい。不可能だと証明したことで、世界を変えた人は、いたで
しょうか?世界を変えた人は、不可能と言われたことを成し遂げ
た人たちです。
 これからの世界に必要なのは、読解能力値が高い人でなく、ク
リエイティブな能力を持つ人なのです。それなのに、なぜ、新井
教授は、読解能力値にしか目が向かないのでしょう?その原因は
人間の能力を判断するのに、入試を設定したことにあります。入
試問題こそが、人の能力全体の枠組みを網羅していると思い込ん
だからです。            https://bit.ly/2tZaGVq
─────────────────────────────
 田方篤志氏の怒りは、子どもの個性を無視して、テストによる
読解能力値だけで、その子を判断する新井教授の教育の考え方に
向けられています。これは、田方氏のブログの記事に関するある
小学校の校長先生の返信を見ても明らかです。
─────────────────────────────
 新井紀子著『AIvs教科書が読めない子どもたち』について
の批評を拝読しました。新井先生の御本が教育界に与えたインパ
クトは相当大きなものだと感じています。特にアクティブラーニ
ングを推奨していた方々の反論があっても良さそうなものですが
それがないのが気がかりでした。
 しかし、それ以上に気がかりなのが、読解力の定義です。RS
Tに示された6つのテストパターンのみで偏差値として基礎読解
力が評価されていいのかという問題です。
 新井さんが今後「高校基礎力」テスト等にも関与されると聞い
ていますので余計に心配です。そんな中で出会ったのが田方様の
ブログでした。Think Differentのお話は身にしみました。
                  https://bit.ly/2tZaGVq
─────────────────────────────
 田方篤志氏は、「ロボマインド・プロジェクト」を推進してい
ます。ロボマインド・プロジェクトとは、「ロボットの心」を作
るプロジェクトです。
 既にAIは、自然言語処理技術で人との対話ができるようにな
りつつあるといわれますが、それらの対話は、本物の対話ではあ
りません。AIには「心」、感情というものがないからです。真
の対話は「心」がないと、けっして成立しないのです。
          ──[次世代テクノロジー論U/048]

≪画像および関連情報≫
 ●感情はプログラムできるのか?/ペッパーエミュレーション
  ───────────────────────────
   鉄腕アトムやドラえもんなど、日本ではロボットの人気ア
  ニメキャラクターが数多く生まれている。ロボットでありな
  がら人々に愛されてきたのは、その感情の豊かさからではな
  いだろうか。
   今まで、機械とソフトウェアで作られるロボットがココロ
  を持っているのは、マンガの世界の中でのことだった。しか
  し、今では現実でも「ココロを持つロボット」が身近なもの
  になりつつあるのだ。ソフトバンクが2015年に発売した
  ペッパーはその一つで、人工知能(AI)を搭載し、感情を
  持つロボットとして売り込まれている。一見して疑問の残る
  「ロボットの感情」のメカニズムと、感情を持つがゆえに生
  じる課題を見ていきたい。
   ソフトバンクグループの孫正義社長は2015年に行った
  講演で、ペッパーはどのような感情メカニズムを持っている
  かについて解説している。孫社長によれば、ペッパーの感情
  は人間の感情の動きを模しているという。
   前提として人の感情のメカニズムを少し解説すると、脳内
  で生じる思考や感情といった心の動きは、ニューロン(神経
  細胞)がネットワークを形成して、他にニューロンとの間で
  電気信号をやり取りすることで生じる。また、「見る」「聞
  く」「知る」という外部から入ってくる情報への反応と、セ
  ロトニン、ドーパミン、ノルアドレナリンのホルモンの相互
  作用によって、感情が起きるメカニズムになっているのだ。
                  https://bit.ly/2zfJSoW
  ───────────────────────────

AIは言葉の意味は分かっているのか.jpg
AIは言葉の意味は分かっているのか
posted by 平野 浩 at 00:00| Comment(1) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月12日

●「ウェイソンの4枚のカードの問題」(EJ第4805号)

 田方篤志氏のAI(人工知能)の話の紹介をもう少し続けるこ
とにします。非常に参考になるからです。
 「ウェイソンの4枚のカード」という有名な心理テストがあり
ます。ウェイソンとは、英国の心理学者のペーター・カスカード
・ウェイソンのことですが、それはさておき、早速問題を解いて
みてください。
─────────────────────────────
 4枚のカードがあり、それぞれ片面にはアルファベットが、
 もう片面には数字が書かれている。「片面が母音ならば、そ
 のカードの裏は偶数でなければならない」というルールが成
 立しているかどうかを確かめるには、どのカードをひっくり
 返して調べるべきか。

     [A]  [F]  [4]  [7]
                  https://bit.ly/2u9k7BT
─────────────────────────────
 正解は、「[A]と[7]をひっくり返して調べる」です。何
でもない問題のようにみえますが、ある大学の心理学の講座でこ
のテストをやったところ、正解率はたったの5%だったといわれ
ています。
 しかも、その間違えた学生のすべては、ひっくり返すカードは
[A]と[4]と答えているのです。このように誤答に偏りがあ
るということは、何らかの理由が考えられます。論理的に誤答を
選んでいるからであり、これは心理学の問題になるわけです。
 母音のカード[A]をひっくり返して裏が偶数かどうか確かめ
るのはわかるとしても、偶数の「4」の裏は、母音でも子音でも
問題がないので、ひっくり返しても意味はないのです。母音の裏
は絶対偶数でないといけないというのがルールですが、偶数の裏
は必ずしも母音でなければならないということはないからです。
 この問題を田方氏は次のような問題に変更し、問題を解かせて
みると、ほとんどの人が正解したといいます。
─────────────────────────────
 居酒屋のカウンターで4人が飲んでいます。1番、2番は席
 を外して飲み物だけが置いてあります。1番はビール、2番
 は烏龍茶です。3番はハゲ親父(65歳)で、4番は女子高
 生(17歳)が座っていますが、何を飲んでいるかわかりま
 せん。さて、この中で、何番と何番を調べれば、誰が未成年
 で飲酒しているか確認できますか。
    1     2      3      4
  [ビール] [烏龍茶] [ハゲ親父] [女子高生]
                  https://bit.ly/2ugCeVE
─────────────────────────────
 この問題の前提は「飲酒は20歳になってから」というルール
です。この答えは簡単に出せるはずです。1番のビールを飲んで
いる人の年齢と、4番の女子高生が何を飲んでいるかを調べれば
よいからです。もうひとつ問題を出します。
─────────────────────────────
 「麺類は500円以下でないといけないと」いうルールがあ
 るとします。次のうち、このルールに違反していないか調べ
 るには、どれとどれを調べればいいのでしょう。

   1      2     3      4
 [ラーメン] [親子丼] [800円] [300円]
                  https://bit.ly/2ugCeVE
─────────────────────────────
 麺類を調べるのですから、1番の[ラーメン]はすぐわかりま
す。しかし、その流れで、500円未満かどうかを調べるのだか
ら、4番の[300円]だと考えてしまう人がいますが、これは
間違いです。正解は、1番の[ラーメン]と3番の[800円]
です。なぜなら、4番の[300円]が麺類ならルールに合って
いますし、別のメニューであっても問題はないのに対し、3番が
麺類であればルール違反になるからです。
 このように、「ルールを満たしているケースだけを調べる」こ
とを、心理学では「確証バイアス」と呼ばれています。人間の思
考パターンには、正しいことを確認して満足するという傾向があ
るようです。
 実は、この3つの問題は、すべて確証バイアスの問題、すなわ
ち、ルールを満たしているものを調べる問題という点で同じなの
です。それなのに、問題の出し方によって、やさしくなったり、
難しく感じたりするのです。
 なぜ、ウェイソンの4枚のカードの問題を取り上げたのかとい
うことについて、田方篤志氏は次のように述べています。
─────────────────────────────
 なぜ、ウェイソンの4枚のカードの話をしたかというと、人間
の脳は、コンピュータとは違うということを示したかったからで
す。もし、コンピュータなら、数学的に同じ問題なら、変数の中
身が変わっただけで、解けたり解けなかったりしないはずです。
このことから、人間の脳は、コンピュータのCPUとは違うとい
えます。              https://bit.ly/2ugCeVE
─────────────────────────────
 確かに人間の脳とコンピュータのそれとは違います。居酒屋に
行って、そこのカウンターで女子高生が何かを飲んでいたとした
ら、「あれっ!」と思いますね。「未成年なのにお酒を飲んでい
る」と思います。これは、直観的にそう思うわけです。だから、
簡単に問題は解けるのです。
 しかし、「母音の裏は偶数でなければならない」といわれても
何もピンとこないわけです。そのため、何となく難しく感じてし
まうのです。その点AIは、数学的に同じ問題なら、絶対に間違
えることはないのです。人間の脳とAIのそれは違うのです。
          ──[次世代テクノロジー論U/049]

≪画像および関連情報≫
 ●ウェイソン・テストとは何か
  ───────────────────────────
   片面はアルファベットが、その裏側には数字が印刷されて
  いるカードが4枚テーブルの上に並んでいて、見えている面
  は、A、F、3、4となっています。今「母音の裏側の数字
  は偶数になっている」という規則があると言われてその規則
  を確かめるとしたら、どのカードを裏返してみれば<よいで
  しょうか。
   まず、Aのカードを裏返してみる。これはいいですね。裏
  が偶数ならOKです。次にFは裏返さない、Fは母音ではな
  いから、裏が何でも関係ありません。さて、3、4のどちら
  を裏返すか。もし4と思ったら、それは違います。4の裏が
  子音でも規則に反しているわけではありません。子音の裏側
  について規則は何も言っていないからです。
   正解は3です。3の裏側が母音なら規則は間違っているこ
  とになります。簡単ですか?間違っても恥ずかしくはありま
  せん。このテストはウェイソン・テストといって、1966
  年にイギリスのピーター・ウェイソンが同様の実験(オリジ
  ナルはアルファベットではなくカードの色)を行った結果で
  は、大半の人が間違えました。簡単に解いた人の中には、論
  理学の知識を使った人がいたかもしれません。論理学では、
  「AならばB」であると「BでないならAでない」は同じで
  それぞれ対偶であるといいます。対偶の考えを使えば、偶数
  ではなく、奇数を裏返せばよいということが、すぐにわかり
  ます。             https://bit.ly/2m6Xv0f
  ───────────────────────────

ウェイソンの4枚のカード.jpg
ウェイソンの4枚のカード
posted by 平野 浩 at 00:00| Comment(0) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月13日

●「心を持つAIロボットはできるか」(EJ第4806号)

 AIロボットに「心」を持たせることはできるでしようか。
 田方篤志氏のブログには、「ロボマインド・プロジェクト」に
ついてのとても興味ある説明が出ています。田方篤志氏は、この
プロジェクトを推進しておられます。その主張には、強い説得力
があります。ブログのURLを以下に示しておきますので、一読
をお勧めします。そのさい、「代表プロフィール」も一緒にお読
みになることをお勧めします。
─────────────────────────────
      ◎ロボマインド・プロジェクトとは
           https://bit.ly/2NKRbIw
      ◎代表プロフィール
           https://bit.ly/2ukRnoW
─────────────────────────────
 「心」を持つAIロボットとは、どういうものをいうのでしょ
うか。EJとして、ブログで述べられていることを要約してお伝
えします。
 「三つの物語」が紹介されます。いずれも山ガールのメアリー
が登山をし、熊に遭遇する話です。
 「第一の話」です。
 メアリーは大きなリュックを背負って山に入ります。そして、
熊に遭遇します。そのときは、とっさに背負っているリュックを
熊に投げつけ、熊がリュックをあさっている間に、メアリーは逃
げ出すことに成功します。
 「第二の話」です。
 メアリーは、荷物運搬ロボットと一緒に山に行ったのです。こ
のロボットは「ついて来い」と命令すると、どこまでもついてき
ます。そして、またしても熊に遭遇します。このとき、メアリー
は、荷物運搬ロボットに熊に向うようスイッチを押し、その隙に
逃げ出したのです。ロボットに熊も驚いたと思います。
 ここで、荷物運搬ロボットについて説明します。いわゆる四足
歩行ロボットのことですが、現在、とても進化しているのです。
次の3つのユーチューブ動画をご覧ください。
─────────────────────────────
         @四足歩行ロボット/1
          https://bit.ly/2KSEZHO
         A四足歩行ロボット/2
          https://bit.ly/2Je5xha
         Bロボットにからむ動物
          https://bit.ly/1QRytLg
─────────────────────────────
 @は「ついて来い」と声をかけると、どこまでもついてくる四
足歩行ロボットです。山道でも大丈夫です。ヨタヨタしているよ
うに見えますが、頑丈であり、こんなロボットに向ってこられた
ら、熊もひるむはずです。性能的には、十分戦争にも使えるレベ
ルになっているといわれます。
 Aはさまざまなロボットが登場します。あらゆる場所を歩行で
きます。建物の中、外の道、階段、雪道、どのような道でも歩行
できるのです。やがて、四足歩行から二足歩行に進化し、人間と
同じように歩行をはじめます。バック転もできます。ときどき転
びますが、人間のようにすぐ起き上がります。また、小さいロボ
ットがビルの屋上に飛び上がったり、飛び降りたりします。
 Bはご愛嬌です。家の中に置いた小さなロボットに、猫がさま
ざまな攻撃を加えます。しかし、ロボットがあまり激しい反応を
見せないと、バカにしてじゃれつきます。猫が可愛いということ
で、多くの回数視聴されています。
 「第三の話」です。
 メアリーは三度山に登ります。このときのお供もロボットです
が、このロボットは第二話のロボットと違って、会話ができるの
です。ちゃんと名前もあり、「ロジャー」と呼ばれています。
 ロジャーはメアリーにいろいろ声をかけます。
 「足元に気をつけて」
 「疲れませんか」
 「休憩しませんか」・・・
 そこにまたしても熊が飛び出してきます。今度は、メアリーの
前にロジャーが自発的に飛び出し、メアリーに対して、次のよう
にいったのです。
─────────────────────────────
 お嬢さん、ここは私が時間を稼ぎます。その間に、お逃げに
 なってください。
─────────────────────────────
 この三つの話を聞いて、どのようにお感じになりましたか。ロ
ボットは、いま急速に進化しています。それでも心を持つロボッ
トはできるのでしようか。これについて、田方篤志氏は次のよう
に述べています。
─────────────────────────────
 さて、この3つの物語を読んで、どう感じたでしょうか?
 第一の物語のリュックサック、第二の物語の“四足歩行ロボッ
ト“、第三の物語のロジャー、どれも人間ではなく、物ですが、
心はあるでしょうか?
 リュックサックに心は感じないですよね。リュックサックは、
動かないただの物体です。では、四足歩行ロボットには心を感じ
るでしょうか?四足歩行ロボットは、動いたり、呼びかけに応答
したりしますが、心をもっているとは感じられないですよね。そ
れでは、ロジャーはどうでしょう?必死でメアリーを守ろうとす
る姿に、何か、感じるものがあったのではないでしょうか。もし
かして、・・・「ロジャーには心がある?」そう感じられたので
はないでしょうか?それではロジャーにだけ、なぜ、心を感じた
のでしょう?            https://bit.ly/2NKRbIw
─────────────────────────────
          ──[次世代テクノロジー論U/050]

≪画像および関連情報≫
 ●人間の心を持った人工知能を実現する
  ───────────────────────────
   「実現は無理と言われ、だからこそ、絶対にやってやると
  思った」。情報理工学系研究科の國吉康夫教授は静かにこう
  語ります。しかしその鋭い眼光は「真に賢く、人間のために
  なる人工知能」という壮大な目標をずっととらえています。
   現在、音声認識機能や自動運転機能といった人工知能(A
  I)は人と遜色のない振る舞いを見せます。ですが、音声認
  識機能がチェスをできず、将棋AIが車を運転できないよう
  に、今のAIにはその製作者が意図しなかった動作はできま
  せん。人とは「考える方法」が違うので、あらかじめ準備で
  きていない状況には対処できないのです。
   これに対し、真に賢く適応力の高いAIを達成するには、
  人と同じことを「同じような方法で」考え、できる必要があ
  ります。そのためには、「人の知能とはどんなもので、人の
  振る舞いを生み出す大本の原理とは何なのか理解せねば」と
  國吉教授は説明します。
   では、「人らしい振る舞い」はどう生み出されるのでしょ
  う。その原理を探索すべく、國吉教授らは2000年代に、
  動物の筋骨格系を再現したロボットを作製し、床から椅子に
  飛び乗ったり、人型ロボットを作製し、寝ている状態から足
  を振り勢いをつけて起き上がらせる実験に成功しました。こ
  こで注目すべきは、動作の最初から最後までを細かく制御す
  ることなく達成できた点です。  https://bit.ly/2KMJtjj
  ───────────────────────────

ロボットにじゃれる猫.jpg
ロボットにじゃれる猫
posted by 平野 浩 at 00:00| Comment(1) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月17日

●「AIスピーカーは人工無能である」(EJ第4807号)

 AIスピーカーが流行しています。何かを話しかけると、適切
な答えを返してくれる一種のロボットです。「明日の天気は?」
「モーツァルトの音楽をかけて」などと、問いかけたり、頼んだ
りすると、その通りやってくれます。折からのAIブームで「A
Iも進化したものだ。人間の言葉を理解できるとは!」と感じて
いる人は多いと思います。
 しかし、これは「チャットボット(chattebot)」 と呼ばれて
いるもので、「人工知能」ならぬ「人工無能」と呼ばれているも
のです。とても巧妙に返事を返しますが、質問の意味がきちんと
わかっているわけではないのです。
 田方篤志氏は、このようなAIの自然言語理解について次のよ
うに述べています。
─────────────────────────────
 スマートスピーカーや、ソフトバンクのロボット「ペッパー」
のように会話できるAIが出てきたのは、近年、AIが飛躍的に
進歩してきたからだと勘違いしている人が多いようです。天気予
報を尋ねたり、エアコンのスイッチを入れたりと、質問の範囲が
絞られていれば、ある程度は会話になりますが、日常会話や雑談
のように、答えが決まっていない会話に関しては、実は、50年
前の方法からほとんど進歩がありません。その方法は「シナリオ
ベース」または、人工無脳とも言われるものです。
                  https://bit.ly/2KSjl6p
─────────────────────────────
 つまり、あらかじめ、シナリオが用意されているのです。その
ためには、質問の幅を限定する必要があります。AIスピーカー
が「最近何か美味しいものを食べましたか」と聞いてきたとしま
す。これはさりげなく質問の幅を限定しています。「美味しいも
の?そういえば、〇〇で食べた××は美味かったな」と返事をす
ると、AIは「ボクも食べたかったな」と返します。食べたもの
は何でもいい。意味がわかって話しているのではないのです。何
となく会話が成立しているように見えればいいのです。したがっ
て、「最近はうまいものを食べていないなぁ」というような想定
外の返事を返されると、対話がおかしくなります。
 田方篤志氏が不満を持っているのは、本当に人間の言葉が理解
できるAIを実現しようとしないで、表面上会話のように見える
「シナリオベース」の技術の習熟に力を尽くしてきたことです。
 それにしてもアイフォーンのシリの応答は、もしかすると意味
がわかっているのではないかと思わせるほど見事なものです。
 シリに次のような意味深の質問をしてみました。とりあえず、
そのやり取りを読んでください。
─────────────────────────────
シリ:ご用件は何でしょう?
──:イライザについて知りたい。
シリ:ELIZAをご存知ですか。彼女は私の最初の先生だった
   んですよ!
──:イライザはどこに行ったの?
シリ:ELIZAは私の親しい友人です。優秀な精神科医でした
   が、今はもう引退しています。
──:あなたはスティーブ・ジョブズが好きですか。
シリ :それについては、言いたくありません。
──:あなたは、ティム・クックが好きですか?
シリ:私は大ファンです。      https://bit.ly/2zHIbke
─────────────────────────────
 「ELIZA」という女性のことを聞いています。実はELI
ZAというは、初期の自然言語処理プログラムのことです。マサ
チューセッツ工科大学(MIT)のジョセフ・ワイゼンバウムが
1964年から1966年にかけて書き上げたプログラムで、い
わゆる人工無脳の起源となったソフトウェアです。単なる女性の
名前ではないのです。
 これに対してシリは「私の最初の先生」と的確に答えています
が、「優秀な精神科医」ととぼけ、どこにいったかと聞くと「今
はもう引退している」とこれにも真っ当な答えを返しています。
さらに突っ込んで聞くと、ウィキペディアにこう出ていますと表
示し、それ以上の質問を阻んでいます。
 アップルの創業者のスティーブ・ジョブズについては「言いた
くない」と逃げ、現CEOのティム・クックについては「私は大
ファン」と答えるなど、なかなか見事な応対であり、洗練されて
います。しかし、このように、質問と応答であれば、問題なくで
きるのですが、雑談になると、答えるべき正解がないので、対話
にならないケースが多いのです。
 確かに人間の質問に対して適切な答えを返すシステムは大いに
役に立つものであるといえます。しかし、それはAIの進化がも
たらしたものというよりも、インターネットが普及し、ネット上
に膨大なウェブサイトが構築され、それが知識ベースとして使え
るようになった賜物であるということができます。
 既に述べているように、AIの進化には、「3つの認識」とい
うものがあります。
─────────────────────────────
           1.画像認識
           2.文字認識
           3.音声認識
─────────────────────────────
 最初は「文字認識」からはじまったのです。数字やアルファベ
ットなどの簡単な文字認識から始まり、その後、写真に何が映っ
ているかの判定に挑んだものの、壁にぶつかってしまうのです。
 ブレイクスルーとなったのは機械学習です。とくに、ディープ
ラーニングの登場で目覚ましい発展を遂げ、今では、写真判定に
関しては、人間より精度が高くなっています。しかし、音声認識
は、意味の理解という面で、まだ大きなブレークスルーは起きて
いないのです。   ──[次世代テクノロジー論U/051]

≪画像および関連情報≫
 ●会話できるコンピューターは人工知能なのか?
  ───────────────────────────
   人工無脳とはなんでしょうか。
   人工無脳はもともと人工知能からの派生した言葉で、人間
  が決めたルールに従って返事をするロボットのことです。今
  から50年以上も前、1960年にワイゼンバウムが作成し
  たELIZA(イライザ)が最初とされています。
   ELIZAがどういったものかというと、例えば、「頭が
  痛い」とイライザにいうと「なぜ、頭が痛いとおっしゃるの
  ですか?」などと返してくれるというものです。その他にも
  「母は私を嫌っている」と言えば「あなたの家族で他にあな
  たを嫌っている人は?」などと、登録されている範囲内で返
  答してくれるものです。
   ELIZAの特徴は、あらかじめ登録されていない言葉な
  どを言われた場合は定型的な返答をし、また、会話の脈略ま
  では把握できないことです。これはつまり、言語処理のプロ
  グラミングのことですね。「おはよう」と言われれば「おは
  よう」と返す。「元気?」と「元気だよ」と返す。
   「今度発売されるクルマの乗り心地はどうかな?」とあら
  かじめ登録されていない質問をされた時は「その質問にご興
  味があるんですね?」などと当たり障りのない返答をする。
  こういったプログラムされたものが人工無脳です。昔はこう
  いった自然言語処理プログラムも人工知能と呼ばれておりま
  したが、最近は少し定義が変わってきています。
                  https://bit.ly/2KVT3QY
  ───────────────────────────

アマゾン/エコー.jpg
アマゾン/エコー
posted by 平野 浩 at 00:00| Comment(0) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月18日

●「『心』のあるAIならばこうなる」(EJ第4808号)

 今やAI(人工知能)は、スマホのユーザーなら誰でも使って
試すことができる「音声AI技術」を巡って大変な競争が起きて
います。いわゆる自動対話AI「チャットボット」をめぐるの壮
絶な技術競争です。
 その行きつくべきゴールは「心を持つAI」です。心を持つと
は、感情を持つAIです。そのひとつの到達点を田方篤志氏が示
してくれています。
 ある少年が、自動対話AI「チャットボット」に対して「薬を
盗んでしまった」と告白したとします。おそらく現在のレベルの
AIであれば、次のやり取りが行われるはずです。
─────────────────────────────
少年:薬を盗んでしまった。
AI:人のものを盗むと、刑法235条により、10年以下の懲
   役または50万円以下の罰金に処せられます。
─────────────────────────────
 これが現在の自動対話AIの実力です。これに対し、AIが次
のように応答したらどうでしょう。
─────────────────────────────
少年:薬を盗んだ
AI:どうして、薬を盗んだの?
少年:お母さんが、病気になったけど、薬を買うお金がなかった
   から。
AI:どうして、薬を買うお金もなかったの?
少年:母と2人暮らしで、お母さんが病気になって働けなくなっ
   て、お金が尽きたから。このままでは、お母さんが死んで
   しまうと思ったから、つい、薬を盗んでしまった。
AI:そうか、そうか。辛かったよね・・・
                  https://bit.ly/2NfR072
─────────────────────────────
 「そうか、そうか。辛かったよね・・・」──この言葉こそ、
少年がいって欲しかった言葉だったのではないでしようか。これ
が「心」を持つAIの姿です。自動対話AIが、このレベルまで
進化すると、それこそ真の「癒しのAI」として、多くの人の助
けになるはずです。田方篤志氏の「ロボティクス」は、こういう
AIを目指しているのです。
 このようなAIは、けっして実現不能ではないと田方氏はいっ
ており、ブログで詳しく説明しています。EJでは、以下にその
一部を要約します。詳しくは、田方篤志氏のブログを参照してく
ださい。
 ロボマインド・プロジェクトの意味理解のステップは、次の4
段階になります。
─────────────────────────────
         1.    文脈の判定
         2.   登場物の抽出
         3.登場物に属性の設定
         4.認知パターンの抽出
                  https://bit.ly/2NfR072
─────────────────────────────
 「文脈の判定」は、人はある目的を持って行動を起こし、ある
結果が得られます。少年が登場したので登録します。その少年が
「薬を盗む」という行動を起こし、「薬を入手する」という結果
を得ます。「目的→行動→結果」になりますが、この時点で目的
が不明です。不明なことは登場物に質問します。この質問が「ど
うして、薬を盗んだの?」になります。
 少年は「お母さんが病気になったけど、薬を買うお金がなかっ
たから」と答えます。新しい登場物「お母さん」を登録し、状態
が「病気」なので、属性として「病気」を設定します。
 ここで、問題になるのは「病気」と「薬」の関係です。これに
ついては、システムのデータペースに次のように書いてあるので
AIはこれを見て、「薬を飲むと健康(元気)になる」ことを理
解します。
─────────────────────────────
   人(状態:病気)→人:薬を飲む→人(状態:健康)
─────────────────────────────
 この文脈の判定で、AIは、少年がお母さんの病気を治す目的
で、「薬を盗む」という行動を起こしたかを理解します。問題は
薬を入手するためには、「買う」「もらう」「盗む」の3つがあ
るが、どうして「買う」行動を取らず、盗んだのかについてAI
は「どうして、薬を盗んだの?」と質問しています。この質問に
よって、「お金がなかったから」であることが判明します。
 以下は省略しますが、このようにしてAIは逐次理解していく
わけです。田方氏のブログは次のように結んでいます。
─────────────────────────────
 最後は、「善」のために「悪」を行うパターンです。これが、
今回の物語に当てはまります。目的は、お母さんの病気を治すこ
とです。病気を治すことは、相手にとってプラスのことなので、
「善」の行為です。しかも、困ってる人、弱っている人を助ける
のは、さらに「善」の行動となります。
 しかし、そのために、「薬を盗む」という「悪」の行動をして
いいわけではありません。けれど、薬がなければお母さんが死ん
でしまいます。「善」の行いをするために、「悪」の行いをしな
いといけないと悩むわけです。
 このパターンの場合、その人は、「苦悩」の感情が出るわけで
す。一番苦しんでいるのは、少年なのです。そのことを理解して
ほしくて、少年は、親友に打ち明けたのです。こんなとき、少年
に最初にかけるべき言葉は、「辛かったよね・・・」となるわけ
です。これが、相手の気持ちを理解するということです。心を通
わすということです。        https://bit.ly/2NfR072
─────────────────────────────
          ──[次世代テクノロジー論U/052]

≪画像および関連情報≫
 ●現状のAIは人間の感情にどこまで踏み込めているのか
  ───────────────────────────
   人工知能やビッグデータ解析やクラウドの技術進歩によっ
  て、ロボットや機械による、人間らしいヒューマンインター
  フェースの研究は、盛んに研究されるようになりました。ソ
  フトバンクのペッパーをはじめとして、日本でも商業レベル
  でロボットに人間らしい振る舞いをさせる取り組みは今後も
  注目を集めそうです。
   一方で、ロボットが人間の感情を理解し、表現するために
  は、人間の行動や表現する感情を機械が理解し、自身の記憶
  や他者とのかかわり合いを考慮しながら複雑なコンテキスト
  を自力で表現することが必要不可欠になってきます。人間で
  すら、自分の感情を理解することが出来ないのですから、非
  常に難しく終わりの見えない研究のようにも思えます。本記
  事では、現在の感情に関する事例や進歩を感じられる研究を
  紹介していきます。
   ロボットやコンピュータは、カメラを通して人間の表情を
  解析することができます。人と人とのコミュニケーションを
  円滑にする上で、表情は重要な役割を果たしています。コン
  ピュータビジョンでこの顔の動きを捕捉することができれば
  人間の感情を推定することができそうです。心理学や精神病
  理学などの分野では、FACSと呼ばれる表情理論がありま
  す。FACSは表情を形成する筋肉の動きをコード化するこ
  とで、客観的に顔の動きを分析したり自然な表情をアニメー
  ションなどで再現することに応用されています。
                  https://bit.ly/2LhmNUu
  ───────────────────────────

子どもと対話する「チャットボット」.jpg
子どもと対話する「チャットボット」
posted by 平野 浩 at 00:00| Comment(0) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月19日

●「50年前からあるチャットボット」(EJ第4809号)

 ここまでの学習によってわかったことは、もっともAIらしく
見える自動対話AI「チャットボット」が、現状では依然として
「人工知能」ならぬ「人工無能」のレベルに止まっているという
ことです。対話型AIの技術が、50年前から技術的に大きく進
化していないのが原因です。
 「チャットボット」とは、「チャット」すなわち、おしゃべり
のことであり、「ボット」すなわち、ロボットの合成語で、「お
しゃべりロボット」を意味します。おしゃべりロボットには意外
に長い歴史がありますが、おしゃべりといっても、音声ならぬ文
字での対話だったのです。したがって、なぜ最近チャットボット
が注目されるようになったかというと、不十分ながら、人の音声
が認識できるようになったからです。
 チャットボットは、人間がプログラミングを行い、それに基づ
いて、コンピュータが対話を行うものでした。チャットボットを
動かすアルゴリズムにはいくつかのパターンがあり、次の2つの
ものが主流であったといえます。
─────────────────────────────
 1.事前に決められたシナリオを人間が選択して、マシンと
   対話する。
 2.人間の発言した単語と事前に登録された単語を見つけて
   応答する。
─────────────────────────────
 チャットボットの歴史を振り返ると、世界初の「イライザ/E
LIZA」があります。イライザは、1966年に誕生しており
既に50年を超えています。しかし、対話といっても、もちろん
音声でのやり取りではなく、文字と文字との対話です。
 それから2年後の1968年のことですが、映画『2001年
宇宙の旅』が公開され、そこでは、宇宙船に装備されている人工
知能コンピュータ「HAL9000」が、堂々と音声で乗務員と
会話しているさまが描き出されています。きっと2001年にな
れば、コンピュータは人と音声で対話できるようになっているだ
ろうとの予測があったのでしょう。
 しかし、その2001年になっても、音声によるコンピュータ
の対話は実現しておらず、IBMのAIコンピュータとして名高
い「ワトソン」がテレビのクイズ番組で人間に勝利した2011
年になっても音声での対話は実現していなかったのです。
 現在「ワトソン」は音声認識ができるようになっており、メガ
バンクなどのコールセンターで活用されていますが、「ジェパデ
ィ!」で勝利したときは、文字認識だったのです。次のウィキペ
ディアの記事をご覧ください。
─────────────────────────────
 2011年2月14日からの本対戦では、15日と16日に試
合が行われ、初日は引き分け、総合ではワトソンが勝利して賞金
100万ドルを獲得した。賞金は全額が慈善事業に寄付される。
なお、「ジェパディ!」は問題文が読み上げられた後に手元のボ
タンを押して回答する早押し形式であるが、ワトソンは音声認識
機能を持たないため、文字で問題を取得し、シリンダーでボタン
を押す装置を用いて回答した。      ──ウィキペディア
                  https://bit.ly/2Lg2XZI
─────────────────────────────
 このように、人とAIコンピュータが音声でやり取りできるよ
うになったのは、ごく最近のことであり、あわせてインターネッ
トの普及による膨大なウェブサイトの出現によって、それが巨大
な知識ベースになるに及んで、人とAIが音声で何とか対話でき
るようになったといえます。しかし、言葉の意味を理解しての対
話とはなっていないのです。
 チャットボットの元祖イライザの時代から、現在まで続いてい
るAIに関する有名なテストがあります。それは「チューリング
テスト」といわれます。このテストは、イギリスの数学者、アラ
ン・チューリングが、1950年に発表した論文のなかに書かれ
ているものです。
 どういうテストかというと、コンピュータと人間に対して質問
が行われ、それぞれが答えるのですが、そのやり取りが人かマシ
ンか区別がつかなくなったときに、コンピュータの勝ちと判定す
るというものです。以後長い間、コンピュータは合格できません
でしたが、2014年になって、やっと合格したのです。
 このチューリングテストについて、AI研究の第一人者である
小林雅一氏は、以下のようにわかりやすく、かつ詳しく説明をし
ています。
─────────────────────────────
 チューリング氏は1950年に著した論文の中で、次のような
思考実験を提案しています。人間(判定者)とコンピュータが壁
を挟んで向かい合います。この判定者から見て、壁の向こうには
コンピュータ以外にも、複数の人間がいます。このような状況下
で、判定者は壁の向こうにいる「誰か」と会話を交わします。そ
の誰かは、ひょっとしたらコンピュータかもしれないし、人間か
もしれない。そして判定者が彼ら見えない相手と会話を交わす中
で、相手が人間かコンピュータか区別がつかなくなった段階で、
それは人間に匹敵するAIの誕生と見ていいのではないか。チュ
ーリング氏はそう提案しました。念のため、細かい点まで注意し
ておくと、まず、ここでの「会話」とは声による通常の会話では
ありません。判走者はキーボードからコンピュータ・ディスプレ
イに文字を打ち込む形で言葉を発し、これに対する相手の返答も
ディスプレイに文字として表示されます。つまり現在のインスタ
ント・メッセージングのような形で会話するのです。
                 ──小林雅一著/朝日新書
                  『クラウドからAIへ/
    アップル、グーグル、フェイスブックの次なる主戦場』
─────────────────────────────
          ──[次世代テクノロジー論U/053]

≪画像および関連情報≫
 ●チューリングテスト
  ───────────────────────────
   「はじめまして。お会いできて光栄です、ホーエンハイム
  教授。医療魔学部のエドワード・アレクサンダー・クロウリ
  ーです」。
  「ようこそ、エドワード。コーヒーでいいかね?」。
   初めて会ったテオフラストゥス・フォン・ホーエンハイム
  教授は、気さくな笑顔でぼくを迎え、少し酸化して煮詰まっ
  たコーヒーの入ったビーカーをテーブルに2つ置いた。フリ
  ッツはもうすでに退出している。この「パラケルスス」と言
  うペンネーが有名な錬金学者をぼくの親友は苦手としている
  らしかった。ぼくはビーカーに口をつけ、その苦い液体を少
  し飲み込んだ。
  「ふむ、きみはだいぶ優秀のようだね」。
   教授はビーカーに口をつけ、ぼくの成績調査票をぱらぱら
  とめくる。書類をぽんと机に放り投げた彼に向かって、ぼく
  は背筋を伸ばした。
  「はい。身寄りのない私は国からの奨学金で学ばせていただ
  いている身ですので、最低限優秀であることは求められてい
  ると理解しています」。記憶はないのだが、ぼくは事故で両
  親を亡くし、同じ事故で体が欠損するほどの大怪我も負って
  いる。そんなぼくが手厚い治療を受け、こうして国の最高学
  府である魔法学院で学び、衣食住の心配をせずにいられるの
  は、すべて奨学金制度、つまり国家予算のおかげだ。将来国
  のためにその知識を役立たせることができる立派な人間にな
  るために、勉学に励むことはぼくの義務と言えた。
                  https://bit.ly/2NSuX7l
  ───────────────────────────

アラン・チューリング.jpg
アラン・チューリング
posted by 平野 浩 at 00:00| Comment(0) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする

2018年07月20日

●「ELIZAの名前の由来をさぐる」(EJ第4810号)

 いわゆる「チャットボット」は、人工知能ではなく、「人工無
能」と呼ばれています。要するにAIではないという意味です。
しかし、「人工無能」というと、何となくまがい物のイメージが
ありますが、けっしてそういうことではないのです。それはそれ
で十分人の役に立つからです。この場合、AIであるかないかは
問題ではないと思います。
 田方篤志氏が推進しようとしている「心を持つロボット」は、
人工無能を脱して、本物のAIを作り出そうとする動きととらえ
ることができます。それが本当に実現されるかどうかはともかく
チャットボットとは分けて考えるべきであると思います。
 さて、既に述べているように、人工無能、すなわち、「お喋り
ロボット」の元祖は、「イライザ/ELIZA」です。MITの
ジョセフ・ワイゼンバウム教授が、1964年から1966年に
かけて書いたプログラムで、精神療法に使われたといわれていま
す。このプログラム「イライザ」は、現在でも、英語でなら十分
会話ができるそうです。
 ところで、「イライザ」というと、何かを思い出しませんか。
有名な映画に登場する人物です。そうです。映画「マイ・フェア
・レディ」の主人公、イライザ・ドウリットルです。この映画は
原作はバーナード・ショーの「ピグマリオン」ですが、言語学者
であるヒギンズ博士(レックス・ハリソン)が、イライザ(オー
ドリー・ヘップバーン)のなまりのあるひどい言語の矯正を通し
て、彼女を博士の理想の淑女に仕立て上げていく物語です。言語
の修正ということが何もしゃべれないコンピュータに言葉を喋ら
せることによく似ていると思いませんか。
 実はこの映画の公開は1964年なのです。バイゼンバウム教
授がイライザのプログラムを書き始めた時期と一致しています。
映画のことをバイゼンバウム教授が知らないはずはなく、もしか
すると、映画を観たかしれません。確証はありませんが、対話プ
ログラム「イライザ」は、映画「マイ・フェア・レディ」からと
られたものではないでしょうか。
 対話プログラム「イライザ」についてもうひとつ付け加えてお
くことがあります。それは、「パリー/PARRY」というプロ
グラムについてです。パリーも対話プログラムであり、イライザ
と共に精神療法に使われたチャットボットです。
 1972年、バイゼンバウムと一緒に仕事をしていた精神科医
のケネス・コルビーが作成したプログラムです。パリーは、偏執
病的統合失調症患者をシミュレートしようとしたものといわれて
います。パリーは、コンピュータの性能も向上していたので、イ
ライザよりは対話の内容の質が向上していたといわれます。
 バイゼンバオムの「イライザ」と、コルビーの「パリー」に関
して、きわめて興味ある記述が、あるサイトに出ていたので、少
し長いですが、参考までにご紹介します。
─────────────────────────────
 当初ワイゼンバオムは、この単純極まりないELIZAの仕様
に皆落胆するであろうと想定した。しかし、それが誤りであるこ
とがユーザーによって示された。実際にはELIZAに知識も理
解力もないと知るユーザーですら、ELIZAに相談を持ちかけ
ようとしてきたのである。ELIZAと親密な関係を築こうとす
る者もいた。精神科医たちですら、ELIZAの名声を聞き付け
て、コンピュータ精神療法の可能性に興味を示し始めていた。
 ワイゼンバオムは、この周囲のELIZAへの好意的な反応を
観て、人工知能が人間と同程度のコミュニケーション能力を有し
ているという誤解を招いているのではないかと懸念した。さらに
バイゼンバオムは、ELIZAをめぐる周囲の反応から、人々の
文化的な価値観に揺らぎを与えてしまっているのではないかとも
懸念していた。
 これに対して、ワイゼンバオムと共同開発していたスタンフォ
ード大学の精神科医ケネス・コルビーは、コンピュータ精神療法
の有用性を重視していた。誰もが自分の抱えている問題を気兼ね
なく相談できるコンピュータ精神療法は人々のためになる。そこ
でコルビーはELIZAを機能的に拡張させた「SHRINK」
を精神療法に貢献するという問題設定の下で公開した。
 ワイゼンバオムとコルビーの見解の相違は、コンピュータは自
我が持てるか否かという問題に直結している。ワイゼンバオムに
とって、それはあり得ないことであった。ワイゼンバオムは、コ
ンピュータが「わかりました」と述べても、それは嘘や錯覚に過
ぎないと主張していた。一方コルビーによれば、コンピュータ精
神療法にはそうした哲学的・倫理的な問題は伴わない。と言うの
も、プログラムには自我があるからだ。コルビーによれば、その
その自我とはそのプログラムを設計したコルビー自身であった。
                  https://bit.ly/2O1n9Aa
─────────────────────────────
 ひとつわからないことがあります。それは、コルビーの「SH
RINK」と「PARRY」の関係です。おそらくSHRINK
の発展形がPARRYではないかと考えられます。
 興味があるのは、単なる対話プログラムに過ぎないイライザが
精神療法にかなり役立っているという事実です。それを誰よりも
驚いたのがワイゼンバオム自身であったという点です。それを見
ていた精神科医のコルビーが「これは使える」と考えても不思議
ではないのです。
 コルビーは脳はハードウェアで、行動はソフトウェアであると
考えています。彼は、精神疾患はソフトウェアの問題と考えたの
です。ソフトウェアにはエラーが付き物ですが、エラーはデバッ
クして、コードを再記述すれば正常化します。人間の場合は、そ
のエラーを言語を通じて、言語として外部化することが、求めら
れますが、精神状態の言語化は、情報処理と同じであると考えた
のです。情報処理を通じて、様々な目的に密接に関連した決定規
則の集合を備えた意思決定機構であると考えたのです。
          ──[次世代テクノロジー論U/054]

≪画像および関連情報≫
 ●初代会話ボット「ELIZA」がすごい理由
  ───────────────────────────
   心理療法のうち、会話を中心的な手段として行われるもの
  を心理カウンセリングとも言う。カウンセリングとはもとも
  と「相談」を意味するもので、カウンセラーは高度な専門知
  識を基に相談者に対して適切な解決策を示すことで問題解決
  を援助するといった役割が求められる。しかし、心理カウン
  セリングでは対話を通じて相談者(クライエント)が自ら自
  己の問題に向き合い、主体的に問題を解決していけるよう導
  くことが求められる。中でも来談者中心療法では、カウンセ
  ラー側の知識の量や権威は不必要とされ、それよりも、クラ
  イエントに対する無条件の肯定的関心、共感的理解などをど
  う実現するかが重視される。
   したがって、何か新しいことを提案するのではなく、相手
  の話の繰り返し、感情の反射、明確化といった技術が必要に
  なる。この繰り返しや共感といった会話モデルは、会話の意
  味を把握できないコンピュータにも模倣させやすいものだっ
  たのである。
   ELIZAはセラピストとして実験的に導入されたが、コ
  ンピュータプログラムとの対話にハマる人が続出した。ジョ
  セフ・ワイゼンバウムは感情的に没頭する人々を見て衝撃を
  受け、開発者でありながらその後コンピュータの限界を論じ
  生身の人間や自然との対話こそが大切であり、コンピュータ
  を過信してはならないという主張を積極的にするようになっ
  た。ELIZAにハマった人たちの中には、対話の記録や対
  話中の様子をまるでプライバシーであるかのように隠すよう
  になったという。機械に実際に「心を持たせる」ことはまだ
  まだ先の難しい問題になりそうだが、人間が機械に「心を感
  じる」ことは案外簡単なことなのかもしれない。
                  https://bit.ly/29ONNdl
  ───────────────────────────

イライザ・ドウリットル.jpg
イライザ・ドウリットル
posted by 平野 浩 at 00:00| Comment(0) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする
RDF Site Summary