2018年08月07日

●「最新の人工知能を医療に応用する」(EJ第4822号)

 AI(人工知能)の活用というと、新聞などに載るのはほとん
ど医療以外のビジネスへの応用です。7月31日付けの日本経済
新聞でひろってみると、次の2つがあります。こういう「AI」
の記事が毎日のように新聞に掲載されています。
─────────────────────────────
       ◎公的年金の運用/AIで安全管理
       ◎     AIでブランド品鑑定
            ──2018年7月31日本経済新聞
─────────────────────────────
 しかし、AIを医療に応用するということがもう少しあっても
いいのではないかと思います。現代のAIなら、世界中で日々発
表され、蓄積されている医学論文を物凄いスピートで読破し、そ
れを前提として医師が知らなかった病名やその治療法を情報とし
て提示できるはずだからです。
 その先駆けになっているのが米IBMの「ワトソン」です。I
BMは、2014年にワトソン事業部を発足させ、当初10億ド
ル(約1000億円)の予算と1万人のスタッフを配置し、ワト
ソンの利用拡大に本格的に取り組んでいます。
 そのなかで、最も力を入れているのが「ワトソンヘルス」と呼
ばれる医療ビジネスです。これには、全スタッフの3分の2の人
材を当てていますが、次の3つのことに重点を絞っています。
─────────────────────────────
        1.      新薬の開発
        2.    がんの診断支援
        3.ゲノム解析アドバイザー
─────────────────────────────
 3の「ゲノム解析アドバイザー」というのは、患者のDNAな
どの遺伝情報を解析して、個々の患者に最適な治療法を提供する
新型医療のことです。
 2の「がんの診断支援」については、既に注目すべき成果が上
がっています。東京大学医科学研究所が2015年7月に、国内
の先陣を切ってワトソンを導入し、急性骨髄性白血病を患ってい
る60代女性の診断にワトソンを使っています。
 その結果について、2016年8月4日付、日本経済新聞は、
次のように報道しています。これは、国内初の成功例であり、注
目すべき事例です。
─────────────────────────────
 膨大な医学論文を学習した人工知能(AI)が、診断が難しい
60代の女性患者の白血病を10分ほどで見抜いて、東京大医科
学研究所に適切な治療法を助言、女性の回復に貢献していたこと
が、2016年8月4日、分かった。
 使われたのは米国のクイズ番組で人間のチャンピオンを破った
米IBMの「ワトソン」。東大は昨年からワトソンを使ったがん
診断の研究を始めており、東條有伸教授は「AIが患者の救命に
役立ったのは国内初ではないか」と話している。(中略)
 女性患者は昨年、血液がんの一種である「急性骨髄性白血病」
と診断されて医科研に入院。2種類の抗がん剤治療を半年続けた
が回復が遅く、敗血症などの危険も出た。そこでがんに関係する
女性の遺伝子情報をワトソンに入力すると、急性骨髄性白血病の
うち「二次性白血病」というタイプであるとの分析結果が出た。
 ワトソンは抗がん剤を別のものに変えるよう提案。女性は数ヶ
月で回復して退院し、現在は通院治療を続けているという。東大
とIBMは昨年から、がん研究に関連する約2千万件の論文をワ
トソンに学習させ、診断に役立てる臨床研究を行っている。
          ──2016年8月4日付、日本経済新聞
               https://s.nikkei.com/2M1rRg2
─────────────────────────────
 ここで、ワトソンに関して知っておくべきことがあります。そ
れは、ワトソンが現在AIの主流になりつつあるディープラーニ
ングによる診断システムではなく、高度に発達したルールベース
のAIであるということです。つまり、ワトソンは、医療エキス
パートシステムなのです。
 仮にあるがん患者に対する治療法に関して、医師の判断とワト
ソンの間で意見が割れたとします。具体的にいうと、ステージ2
の大腸がん患者に対し、医師は「化学療法が必要である」と判断
したが、ワトソンは「化学療法は効果がなく、様子をみるべき」
というように意見が割れたとしてます。
 この場合、ワトソンには「ワトソン・パス」と呼ばれる医師支
援機能が用意されています。ワトソン・パスとは、ワトソンがど
のようなエビデンス(科学的根拠)や推論に基づいて、結論を出
したかのプロセスを示す機能です。
 医師としては、ワトソンの推論プロセスが分かると、その結論
に従うか、やめるかの判断ができるので便利です。しかし、その
思考過程をディープラーニングで行うと、AIシステムがどのよ
うなプロセスを経て、その結論に至ったかを示すことが困難にな
ります。判断プロセスが高度化すればするほど、思考プロセスが
複雑過ぎて、ブラックボックス化してしまうのからです。
 この問題に関連して、小林雅一氏は、最近の米国のDARPA
の動きを次のように伝えています。
─────────────────────────────
 米国のDARPAでも「理由を説明できる人工知能」という研
究テーマを設けて、その開発に着手した。このプロジェクトでは
ディープラーニングによる機械学習の性能を最大限に高めると同
時に、その思考プロセスを(医師のような)人間が理解し、信頼
することができる「次世代のAI」開発を目指している。
          ──小林雅一著/『AIが人間を殺す日/
          車、医療、兵器に組み込まれる人工知能』
                   集英社新書/0890
─────────────────────────────
          ──[次世代テクノロジー論U/066]

≪画像および関連情報≫
 ●バイアスのないアルゴリズムはつくれるか?
  ───────────────────────────
   人工知能(AI)は病院やヘルスケア団体に活用され始め
  ている。CTスキャンの解析から、どの患者が治療中に最も
  衰弱しやすいかを予測することまで、AI技術はあらゆるこ
  とに使われているのだ。
   アルゴリズムを走らせるための情報源は電子カルテだ。こ
  れらのアルゴリズムは、医師が腫瘍の変異具合をもとに最適
  ながん治療を選んだり、過去の患者のデータをもとに治療計
  画を立てたりするのを助けるために設計されている。
   しかし、アルゴリズムやロボットは、ヘルスケア領域にお
  ける倫理を学ぶことができるのだろうか?
   スタンフォード大学の医師グループは、AIを医療に使う
  ためには倫理面での課題があり、ヘルスケア分野のリーダー
  たちはAIを実装する前にそのことについてよく考えなけれ
  ばならないと主張する。
   「機械学習システムのメカニズムを理解しないままでいる
  こと、それをブラックボックスのままにしておくことで、倫
  理的な問題が発生することになるでしょう」。2018年3
  月中旬に発刊された 「New England Journal of Medicine」
  で、そう綴っている。彼らの懸念は、タイムリーなものだっ
  た。同じく3月中旬、こんなヘッドラインが飛び込んできた
  からだ。「医者と同じように前立腺がんの診断を行うスマー
  トソフトウェア」。       https://bit.ly/2AtZ7ve
  ───────────────────────────

IBM/ワトソン.jpg
IBM/ワトソン
posted by 平野 浩 at 00:00| Comment(0) | 次世代テクノロージ論U | このブログの読者になる | 更新情報をチェックする
この記事へのコメント
コメントを書く
お名前: [必須入力]

メールアドレス: [必須入力]

ホームページアドレス:

コメント: [必須入力]

RDF Site Summary