グーグル解雇のAI研究者 ティムニット・ゲブルの挑戦 研究所設立の意図とは

TechCrunch / flickr

 約1年前、グーグルに解雇された米国のAI倫理研究者ティムニット・ゲブル(Timnit Gebru)が、AIに関する調査研究所、Distributed Artificial Intelligence Research Institute(分散型人工知能研究所:DAIR)を立ちあげた。DAIRはAI研究・開発・展開におけるビッグテックの広範囲にわたる影響力に抗うための、独立的かつコミュニティに根ざした研究所だ。ゲブルの新たな挑戦の意図とは。

◆グーグル解雇の経緯
 2020年12月3日、ゲブルは倫理AIチームの共同リーダーとして勤務していたグーグルに解雇されたことを自身のツイッターに投稿した。投稿には、社内のメーリングリストに送信したEメールが直接のきっかけとなり、同社のAI部門を率いるジェフ・ディーン(Jeff Dean)に解雇されたとある。その投稿の約40分前の別の投稿では、自分は退職したわけではないのに、上司が私の退職願を受理したようであると説明。解雇されたという投稿には7500以上の「いいね」がついており、彼女を擁護する多くのコメントが寄せられた。

 ことの発端は、ゲブルが、ワシントン大学の計算言語学の教授であるエミリー・ベンダー(Emily Bender)とグーグルの同僚4名とともに共同執筆した研究論文がグーグルの内部審査を通過せず、議論の余地なく一方的に、論文の出版を撤回するようにグーグルから指示された出来事。「確率変数のオウムの危険性について:言語モデルは大きくなり過ぎる可能性があるのか?(On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?)」と題された論文では、大規模な言語モデル、つまり、大量のテキストデータを用いて訓練されたAIに伴うリスクが指摘されている。論文は、先行研究をもとに、自然言語処理の歴史、大規模な言語モデルが抱える4つの主なリスクの概要、今後の研究についての提案という内容で構成されている。言語モデルのリスクとは、環境負荷と計算コスト、人工知能の学習に使われる大量のデータに含まれる可能性がある人種差別、性差別などの罵倒的表現(abusive language)の問題などだ。

 論文の撤回の判断を下し、ゲブルを解雇した(辞職を受理した)ディーンは、グーグルのリサーチ・チームに送ったメールとともに、論文の公表に関しての説明文を一般公開した。論文は、関連した多くの先行研究を無視し、環境負荷が少ないより効率的なモデルや、言語におけるバイアス問題の是正に関する言及が欠けていることなどから、グーグルの公開の基準を満たさなかったとの説明がなされている。

 論文撤回の判断に対して、ゲブルはグーグルにいくつかの条件を要求し、それが満たされない場合は、グーグルを退職する意図があると伝えた。この退職の意図が即刻受理され、事実上、ゲブルは解雇された。退職の受理を確認するメールには、「解雇」の直接原因として、ゲブルが社内のメーリングリストに送付したEメールに、グーグルの管理職としての期待に沿わない言動が反映されている部分があるとの指摘が含まれた。

 ゲブルは一方的な論文撤回の判断などを受け、Google Brain Women and Allies(直訳:グーグルの知能派女性同盟)と名付けられたメーリングリストに、苛立ちのメッセージを送っていた。メールには、ダイバーシティー(多様性)への取り組みは無責任なもので、対話やフィードバックは存在せず、周縁化されたマイノリティの声は沈黙させられるといったような内容が含まれていた。

Text by MAKI NAKATA