著者:小林 雅一…
サブタイトルに、「車、医療、兵器に組み込まれる人工知能」とあり、扱っているのも命に関わる分野に導入される人工知能の話のようです。(Inobe.Shion) |
内容紹介 「AIに仕事を奪われる」よりも 身近に迫る深刻な危機とは――? 人工知能(AI)が脅威として語られるとき、主な論点は次の2つに集約される。それは、我々の仕事が奪われるという「雇用崩壊」の問題と、人間の知能を超えるという「シンギュラリティ」の問題である。しかしそれ以前に、もっと深刻で危機的な状況が身近に迫っている。それが本書で取り上げる「自動運転」「医療」「兵器」の3分野だ。これらは、産業的インパクトが計り知れないだけに、公然と批判することはタブー視されてきた。本書はこれらの「闇」に深く斬り込み、AI開発を取り巻く現状に警鐘を鳴らす!【主な内容】 ●ドライバーは事実上のモルモット? 「自動運転車」の闇 ●テスラの自動運転車の死亡事故、真の原因は? ●AIによる医療診断で誤診が起きたときの責任は誰にあるか? ●膨大な医療データの収集で懸念されるプライバシー侵害 ●世界各国で導入が進む標的を勝手に判断して攻撃する「自律的兵器」 ●米国が開発を進める「スマート核兵器」とは? 【目次より】 内容(「BOOK」データベースより) |
私もなんとなくぼんやりと思っていたことを明確に書いてくれいたのと、知らなかった情報をいくつか知ることができました。
その一つが、ブラックボックスのディープラーニングの結果をなぜそういう答えが出たかを説明できるようにするという動きがあるということです。
例えば、医療の診断のAIが出した結果をその判断を支持するかしないかは人間で、その判断をするための根拠がブラックボックスでは支持しきれない、腹落ちができないと踏み切れないし、責任もとれないということなのです。
また、将棋とか囲碁においても、結局は「勝つ」か「負けるか」という2値の分類問題であり、どのように勝つかなどということは今のところできないのです。例えば、孫と将棋を指すおじいちゃん。おじいちゃんは孫の実力に応じて、またその時の孫のモチベーションに応じて力の調整や勝ちへのもって行き方を調整して、孫に気持ち良い思いをさせることができます。でもアルファ碁だと、孫をコテンパンにやっつけてしまうのではないでしょうか。そういうことなんです。そういう2値では割り切れない問題が世の中にはほとんでですので、まぁ、AIも限られたところでしかまだまだ無理なのだと思うわけです。
さて、本文から気になったところをいくつかピックアップしておきましょう。
今現在、進みつつある第四次産業革命では、人間にとって最後の砦として残されてきた「制御系システム」、つまり「マシンをコントロール(制御)する権利」が、ついに私達人類からマシン自体へ委譲されようとしている。これこそ「スーパー・オートメーション」あるいは「Human out of the Loop(制御からの環から人間が外される)」と呼ばれる事態、つまり近代科学文明の発達史における「自動化の最終プロセス」である。この点が、従来との決定的な違いとして特筆されるべき現象なのだ。(p.25) |
ワトソンが提供する診断や治療法は、実は絶対的な正解ではなく、あくまでも「正解である確率が高い医療情報」に過ぎない。これを参考に最終的な決定を下すのは医師だが、患者の病気に関する自らの見立てとワトソンの助言が食い違った場合、かなり難しい判断を迫られるだろう。(p.50) |
まさにここですね。非常に重要な部分です。特に今後発展していくであろう生命にかかわる部分のAIにおいては。
ブラックボックス化とは文字通り、ディープラーニングという「箱」の内部で何が起きているのか、その外側からはうかがい知ることができないという問題だ。これはIBM「ワトソン」とは対照的である。そこでは「ワトソン・パス」という支援ツールを使うことで、医師はワトソンがどのようにして何らかの病名や治療法を提示するに至ったか、その思考経路を後から追跡できる。これに対し内部がブラックボックス化されているディープラーニングの場合、それがどのようにして何らかの結論に至ったかを医師は知ることができない。たとえば「この患者なこれこれこういう希少疾患に侵されています。この病気には、最近開発された、これこれこういう新薬が効果的です」という助言を提示したとしても、なぜそのように考えたのか、その理由をディープラーニングは医師に教えてくれないのだ。これは医師にとって非常に悩ましい決断を迫っている。なぜなら、ディープラーニングはいつも非常に高い確率で正解を返してくるからだ。つまり医師はその助言は従ったほうが患者を救える可能性が高い。(p.55) |
驚くべきことに、実際の先端医療は今、まさにこの方向へと進みつつある。そこではディープラーニングのブラックボックス問題を解決するため、「理由を説明できる人工知能(Explainable AI)」の研究開発も始まっているが、それはまだ緒に就いたばかりだ。こうした危ない展開に対する社会的議論すら為されないまま、医療現場へのAI導入は前のめりに進んでいる。(p.56) |
一般に「コグニティブ(cognitive)」という形容詞は、英和辞典では「認知の」あるいは「認識の」などと訳されているが、英語圏の人々はこの単語をもっと広義に「何かを知ったり、理解したり、学んだりするプロセス」という意味で使用している。つまり「コグニティブ・コンピューティング」とは「何かを学んで理解し、知識を広げる情報処理」である。(p.116) |
米国のDARPAでも、「理由を説明できる人工知能(Explainable Artificial Intelligence:XAI)」という研究テーマを設けて、その開発に着手した。このプロジェクトでは、ディープラーニングによる機械学習の性能を最大限に高めると同時に、その思考プロセスを(医師のような)人間が理解し、信頼することのできる「次世代のAI」開発を目指している。(p.158) |
ロボット兵器の「自律性」と「予測可能性」は二律背反の関係にあり、現時点でこの難問を解決する目途は立っていない。こうした深刻な課題を置き去りにしたまま、自律兵器の開発は急ピッチで進んでいるのだ。(p.185) |
結局、社会の様々な領域において、これまで人間がこなしてきた何らかの作業をAIで代替することはできても、全人格的な「人間」という存在を丸ごとAIに置き換えることはできない。そして社会のどんな領域における、どのような作業をAIに任せるべきか、その妥当性をチェックしていくのは、(総合的な見識と常識を備えた)私たち人間に課せられた、これからの使命だ。(p.230) |
車、医療、兵器・・・これらに対するAIの導入は人命にかかわることで失敗は許されない。ですが、めったに起こらないことに対して、時間をかかていては結局進歩はない・・・このジレンマですね。