AIの軍事利用に新倫理原則 米国防総省

AP Photo / Susan Walsh

 アメリカ国防総省は、戦場における人工知能(AI)技術の適用の加速に向けて新しい倫理原則を導入しようとしている。新しい倫理原則は、航空画像をスキャンして標的を探索するなどのAIを用いたシステムを導入・使用する場合に適切なレベルの判断と配慮を行うよう、人々に求めている。

 この倫理原則では、自動化されたシステムが下す決定は「追跡可能」かつ「制御可能」であるべきだと定められている。つまりこれは、「システムが下した決定が意図しないような挙動を引き起こしている場合に、これを『解除または無効化するしくみが不可欠』であることを意味する」と、アメリカ国防総省のジョイントAIセンターのディレクターを務めるアメリカ空軍のジャック・シャナハン中将は述べている。

 アメリカ国防総省はAI機能の高速化を強く推し進めており、「JEDI(ジェダイ:Joint Enterprise Defense Infrastructure)」という名で知られる100億ドル(約1.1兆円)規模のクラウドコンピューティング契約をめぐり、ハイテク企業間の落札争いが激化した。昨年10月にマイクロソフトがこの契約を勝ち取ったが、アマゾンがアメリカ国防総省を提訴したため、10年という長期間にわたるプロジェクトを開始することができなかった。アマゾンは、ドナルド・トランプ大統領が同社とCEOのジェフ・ベゾス氏に対して反感を抱いているため、入札を勝ち取る機会が損なわれたと主張している。

 2012年に発令された既存の軍事司令は、人間が自動化された兵器の主導権を握る必要があると定めているものの、より広範なAIの使用に関しては言及していない。新しくアメリカが発令した倫理原則は、機密情報の収集、監視行動から航空機・船舶の保守上の問題予測にいたるまで、戦闘用であるか否かを問わず適用の指針となることを目的としている。

 2月24日に概要が明らかになった倫理原則の手法は、グーグルの元CEO、エリック・シュミット氏が率いるグループ「ディフェンス・イノベーション・ボード」が昨年発表した勧告に従っている。

 アメリカ国防総省は、「AIは、新たに倫理的な曖昧さとリスクを高める」と認めた。しかし、武器の統制に賛成する人々が支持するさらに強力な規制に比べれば、この新しい倫理原則は十分とはいえない。

 戦時下のAIの役割を研究している人類学者、ルーシー・サッチマン氏は、「私は、この原則がなんらかの倫理操作につながるプロジェクトとなることを懸念している。『適切な』という語は広義であり、さまざまな解釈が可能だ」と語る。

 シャナハン中将によると、将来的に時代遅れとなりかねない特定の規制がアメリカ軍の足かせとなることを防止するため、意図的にこの倫理原則は広義の解釈ができるようにしてあるという。

「テクノロジーは順化する。テクノロジーは発展する」とシャナハン中将は言う。

 2018年にグーグルは、紛争地域で撮影した航空画像の解析アルゴリズムにAIを取り入れようとしたアメリカ軍の「プロジェクト・メイヴン」への参加を画策していたが、社内の反発によってプロジェクトからの撤退を余儀なくされた。その後アメリカ国防総省は、AIに対する取り組みで暗礁に乗り上げた。それ以来、ほかのハイテク企業がグーグルの抜けた穴を埋めている。シャナハン中将は、新たな倫理原則は「この手の議論を強く求めていた」ハイテク業界からの支持を取り戻すのに一役買っていると語る。

「ときに、漠然とした不安がやや誇張されているとも感じるが、国防総省と協力関係を結ぶことに深刻な懸念を抱く人々は確かに存在する」とシャナハン中将は言う。中国やロシアは、倫理的な懸念にほとんど注意を払うことなくAIの軍事利用に突き進もうとしているため、この指針がアメリカの技術的な優位性を保つのにも役立つという。

 リッチモンド大学の法律学教授、レベッカ・クロートフ氏は、「倫理原則を導入するのは優れた第一歩ではあるが、アメリカ軍はサイバーセキュリティ上のリスクに加えてAIシステムが収集・利用する膨大なデータを徹底的に評価できることを示す必要があるだろう」と語る。

 クロートフ氏によると、アメリカの起こす行動が、AIの軍事利用に関して国際的な規範を確立する一助になることを願っているという。「もし、アメリカがAIの倫理的な規範を正面から受け止めるようであれば、おのずとその規範はより真剣な議論の対象になる」と同氏は述べている。

By MATT O’BRIEN AP Technology Writer
Translated by ka28310 via Conyac

Text by AP

Recommends