オープンAIの騒動が示したリスクとは アルトマンCEO解任・再任

サム・アルトマン|Eric Risberg / AP Photo

◆AIのリスクを加味した、オープンAIの組織構造
 オープンAIは2015年に非営利団体として創設された。設立の目的は、人類に便益をもたらすために安全で、有益なAGI(Artificial General Intelligence:人工汎用知能)を開発するためとある。AGI開発という壮大なミッションを実行するためには、莫大な資金が必要で、当初オープンAIは10億ドルの寄付額を目標にしていたが、受け取ることができた額は約1.3億ドルにとどまった。コンピューター処理能力のコストをカバーし、優秀な人材を採用し、事業をスケールするためには新しい仕組みが必要となり、2019年、利益上限のある会社、オープンAI LPが作られた。オープンAI LPは、非営利と営利組織が組み合わさったような仕組みで、投資家や従業員に上限付きのインセンティブを与えることで、資金調達と人材確保を行うとともに、余剰利益は非営利団体が保有するということになっている。

 オープンAIのウェブサイトに掲載されている組織図はもう少し複雑で、そこにはオープンAIの非営利組織以外に3つの関連会社が存在している。しかし、重要な点は、非営利団体が営利団体を保有し、さらに、取締役会が非営利団体を管理するという構造になっていることだ。旧体制の取締役会はアルトマン、ブロックマンのほか、チーフ・サイエンティストのイリヤ・サツキーバー(Ilya Sutskever)、社外の3名で構成されていた。

 旧体制において、取締役会の一部のメンバーが危惧したのがAIアラインメント問題だ。これは、人間の価値観や倫理観に沿った適切なAIを開発できるのかどうかという課題であり、いまだ解決策は見出されていない。つまり、AIが人間の価値観や倫理観に沿うことなく、究極的には人類を滅亡させる可能性が存在しているということだ。今回の件に関しては、取締役員の1人であったヘレン・トーナー(Helen Toner)が、特にAIの安全性に関する危惧を示しており、アルトマンと対立していたことが報じられている。トーナーはジョージタウン大学の安全保障・新技術センター(CSET)の戦略ディレクターを務める人物である。トーナーは新体制においては、取締役の座を解任されている。

 オープンAIは、非営利団体が営利団体を所有するという構造により、AIの公共性(リスクと便益)および営利性の均衡を保つように設計されている。今回の解雇事件は、この構造がある意味「機能」した結果である。一方で、現時点において、投資家(および株式を保有する社員)の声が勝利するという結果となった。また、突然と思われた出来事で、アルトマンを支持する声が集まり、彼の動向に注目が集まった。AI開発の先端を行くアルトマンの存在感と、AIビジネスの可能性が注目されるなかで、当然の結果かもしれない。一方で、今後のオープンAIの展開が、より営利性にフォーカスされたものになることは懸念事項である。

Text by MAKI NAKATA