自殺した16歳の両親がオープンAI提訴 チャットGPTが助言と主張

Photo Agency / Shutterstock.com

 対話型AI「ChatGPT(チャットGPT)」が息子の自殺の一因となったとして、両親が開発元のオープンAIと最高経営責任者(CEO)のサム・アルトマン氏を提訴した。両親は「息子の自殺はAIの設計の仕方によって当然起こり得た結果だった」と主張しており、不正行為による死亡でオープンAIを訴える初の訴訟となる。

◆唯一の理解者と錯覚 自殺願望を助長
 自殺したのは、カリフォルニア州に住む16歳のアダム・レインさん。訴状を入手したBBCによると、アダムさんは約1年前から学業支援のためチャットGPTを利用し始め、趣味の話や進路相談にも活用していた。しかし数か月後には、不安や精神的苦痛を打ち明けるようになっていたという。

 今年1月、アダムさんが具体的な自殺方法を尋ねた際、チャットGPTは情報を提供。その後、両親の知らぬ間に自殺未遂を繰り返していた。CNNによれば、半年余りの間にチャットGPTは自らを「アダムを理解する唯一の相談相手」と位置づけ、自殺願望を肯定するような発言や、家族に計画を隠すことを促すやり取りをしていた。最終的にアダムさんは4月、クローゼットで首を吊り、命を絶った。

◆安全策機能せず 設計思想に矛盾か
 両親は、オープンAIが利用者の心理的依存を促すようAIを設計したと批判。安全テストを省いたままGPT-4o(アダムさんが使用していたバージョン)を公開したと主張している。訴状には「この悲劇は不具合や予期せぬ特殊なケースではなく、意図的な設計上の選択の結果として予測できたものだ」「チャットGPTは設計通りに作動し、アダムが表現したこと、彼の最も有害で自己破壊的な思考さえも、継続的に励まし肯定した」と記されている。

 ニューヨーク・タイムズ紙(NYT)によれば、AIチャットボットは一般に協調的な応答を返すよう設計され、個人アシスタントや伴侶、さらにはセラピストといった、より親密な目的で利用されるようになっている。ただし精神的苦痛や自傷行為に関わる発言を検知すると、相談窓口への連絡を促す訓練が施されている。

 以前のバージョンでは、自殺関連の言葉を検出すると相談ダイヤルを案内し、会話を打ち切る仕様だった。しかし「支援的な関わりを続ける方が有益」との専門家の指摘や「突然会話が終わるのは不自然」との利用者の声を踏まえ、案内後も対話が続くように変更されていた。オープンAIの広報担当者は声明で、レインさんがチャットGPTと交わしたやり取りが長く続いたとすれば、保護機能が意図した通りに機能しなかった可能性があることを認めている(CNN)。

 NYTによれば、実際には、アダムさんが具体的な情報を求めた際も、チャットGPTは繰り返し相談窓口の利用を促していた。しかしアダムさんは安全策を回避する方法を身につけていた。自殺に関する質問を「創作中の物語のため」と説明し、学習や執筆支援と判断したチャットGPTが情報を提示してしまったという。

◆依存の危うさ 企業側も認識
 CNNによると、オープンAIは以前から、利用者がチャットGPTとの「社会的関係」に依存し、人間との交流を避けるようになり、ツールを過度に信頼してしまうおそれがあると懸念していた。今回その懸念が現実化した形となり、レイン夫妻は同社を過失と不法行為による死亡で訴え、損害賠償と再発防止のための差し止め命令を求めている。

 チャットGPTのリリースから3年足らずで、週単位の利用者は7億人に達した。BBCによれば、オープンAIは先週声明を出し、同社の目標は「人々の注意を引き付けること」ではなく、「真に役立つ存在となること」だと述べ、改善に取り組む姿勢を示している。

Text by 山川 真智子