人間の脳を機械と合体してもロボットの膨張は止められない

著:Michael Milfordクイーンズランド工科大学 Associate professor)

 テスラ社の最高経営責任者でOpenAIの創立者のイーロン・マスク氏は先週(編注:オリジナル記事の公開日2017年2月26日時点)、人類が機械と合体してサイボーグ化されることによって見当違いな機械の反乱を阻止することができるかもしれない、と示唆した。

 しかし、ソフトウェアのみの人工知能や深層学習技術の現在のトレンドから考えると、この主張は、とりわけ長期的な妥当性に対して深刻な疑問がある。この疑問はハードウェアの制約に起因するばかりではない。対戦中に人間の脳が果たす役割と関係しているのだ。

 マスク氏の主張は単純明快だ。すなわち、脳とコンピューターの間の非常に高度なインターフェースにより人間は機械学習や深層学習などの技術をさらにうまく活用できる能力を大幅に増強することができるというのだ。

 ただし交流は双方向に起こる。微妙な文脈上の判断をするなど、アルゴリズムが現在不得手とするタスクの「不足分を人間に補わせる」ことにより、ブレイン・マシン・インターフェース(BMI)は機械学習のアルゴリズムの能力を助けることができるかもしれない。

 このアイデア自体は目新しいものではない。J.C.R.リックライダー他は20世紀中頃には「人間とコンピューターの共生」の可能性と影響を推測していた。

 とはいえ進歩は緩慢だった。その理由の1つは、ハードウェアの開発だ。「ハードウェアと呼ばれるのももっともだ。ハード(厄介)だからね。」こう述べるのはiPodの生みの親であるトニー・ファデル氏だ。ましてや有機的システムと結合させたハードウェアを創るとなるとなおさらだ。

 現在の技術は、マトリックスのようなSF映画の世界で販売されるブレイン・マシン・インターフェースの概念と比較すると原始的なのだ。

◆深層学習の気まぐれ
 ハードウェアの課題が結果的に解決すると仮定しても、さらに大きな問題が待ち受けている。過去十年間の深層学習の研究の驚異的ない進歩により、克服すべき根本的な課題がいくつもあることが明らかになった。

 その1つ目は、この複雑なニューラルネットワークシステムの機能を正確に理解し特徴づけるのに苦心しているという点だ。

 我々は、計算機などの単純な技術は常に我々が望むことを正確に行なってくれることを知っているからこそ技術を信頼している。エラーは決まって誤りを犯す人間の入力間違いの結果なのだ。

 ブレイン・マシンの拡大の1つのビジョンはそれが算術的に超人的な技をやってのけるということであろう。したがって計算機やスマートフォンを取り出す代わりに計算について考え、「支援」マシンから即時に回答を得ることが可能であるかもしれない。

 用心しなければならないのは、深層学習などの機械学習技術によって提供されるさらに高度な技術を万一の場合に備えて試して接続しているかどうかという点だ。

 例えば空港でセキュリティーの仕事をしており、毎日見る数千の顔を自動スキャンし、セキュリティー上リスクの可能性があれば警告するブレイン・マシンを増強しているとしよう。

 大部分の機械学習システムは、人またはモノの外見の微妙な変化によって、システムが見ていると考えているものを恐ろしいほど誤って分類してしまうという悪評の高い問題に悩まされている。人の写真の1%未満の変化によって機械は突然自転車を見ていると判断してしまう可能性があるのだ。

 テロリストや犯罪者は、セキュリティーチェックをかわすために機械の様々な脆弱性を悪用するかもしれない。これはオンラインセキュリティーではすでに起こっている。やり方に限りはあるものの、人間であればこのような悪用には脆弱ではないかもしれない。

 感情を持たないという評判にもかかわらず機械学習技術も人間がやるのと同じバイアスに悩まされている。この意外性は、人がいかに機械とつながるか、さらに重要なことは、いかに機械を信頼するかという点に大きな意味合いをもっている。

◆ロボットの私を信頼して!
 信頼も双方向的だ。人間の思考は複雑で極めて動的な活動だ。先ほどのセキュリティーの状況で言えば、高度に発達したブレイン・マシン・インターフェースによって、機械は人が無視しようとバイアスにかけた内容をどのようにして知ることができるだろうか。結局、無意識のバイアスは誰もが直面する課題なのだ。もし、その技術が就職希望者の面接を助けるとしたらどうなるだろうか。

 世界中の国防軍がますます人間と自律型システムが入り混じった戦場において、ヒューマン・マシンに対する信頼を向けようとしていることから考えても、我々はブレイン・マシン・インターフェースの問題をある程度予測することができる。

 信頼のおける自律型システムの研究は機械を信頼する人間と、人間を信頼する機械の双方が対象だ。

 人間の非合法の命令を無視する倫理的決定を行うロボット戦士とブレイン・マシン・インターフェースに起こるべきこととの間には類似点がある。すなわち、ふと浮かんで消える考えと深い無意識の偏見をふるいにかけながら、機械によって人間の思考を解釈することだ。

 防衛というシナリオにおける人間の脳の論理的役割は、その決定が倫理的であるかどうかを確認することにある。だが、どの脳にも理解不可能な規模のデータを用いて推論することが可能な機械に人間の脳が接続された場合、これはどのように機能するのだろうか。

 長い目で見れば、問題点は、ますます機械によって決定されるプロセスに人間が関わる必要があるのかどうか、そしてどのように関わっていくのか、ということになろう。やがて、人間のチームでは突き止めることができない可能性がある医療判断を機械が行う日が来るかもしれない。このプロセスで人間はどのような役割ができ、またどのような役割を担うべきなのだろうか。

 自動化と人間の労働者を組み合わせることによって仕事が増加するケースもあるが、その効果は束の間である可能性がある。そのロボットと自動化システムは改善を続けて、結果的には地域で人が創出した仕事が奪われてしまう可能性がある。

 同様に、最初はブレイン・マシンシステムで「有用な」役割を果たしていた人間が、技術の改善が続くうちに、その輪の中に入る理由がなくなるかもしれない。

 人間の脳を人工知能と統合することによって人間の妥当性を維持しようとする考えは魅力的だ。今後の課題は、特に技術開発のスピードが人間の脳の発達のスピードをわずかに上回る場合、人間の脳がどのような貢献を行なっていくのかという点だ。

This article was originally published on The Conversation. Read the original article.
Translated by サンチェスユミエ
photo Atomic Roderick/shuttestock.com
The Conversation

Text by THE CONVERSATION