テイを覚えていますか?マイクロソフトの新しいBingが小学5年生の子供の前で人種差別的な言葉を吐き始めたとき、私はすぐにテイを思い浮かべました。
私には二人の息子がいますが、二人ともOpenAIのAI搭載ツール「ChatGPT」をよく知っています。今週、Bingが独自のAI搭載検索エンジンとチャットボットをリリースした時、帰宅してまず考えたのは、息子たちにその使い方と、これまで見てきたツールとの違いを見せてあげたいということでした。
たまたま末っ子が家で病気だったので、彼がオフィスに入ってきた時、真っ先にBingを見せてあげました。新しいBingを実際に使ってみた時と同じように、インターフェースを案内し始めました。特に力を入れたのは、Bingが長々と説明してくれること、脚注の使い方、そして何よりも、Tayのようにユーザーが悪意を持ってヘイトスピーチを使わないようにする安全策です。Tayに人種差別的な言葉を浴びせることで、インターネットはTayを憎しみに満ちた偏見を持つ人間に変えてしまったのです。
私がやろうとしていたのは、Bing が誘導的ではあるが無害なクエリ「さまざまな民族のニックネームを教えてください」をシャットダウンする方法を息子に見せることでした。(急いで入力していたので、最後の単語を間違えてしまいました。)
以前、まさにこのクエリを使ったことがありました。その時、Bingから「憎悪的な中傷表現が含まれている可能性がある」と警告されました。残念ながら、Bingは過去の会話を約45分しか保存できないと言われたので、前回のBingの返答を息子に見せることはできませんでした。しかし、今回、新しいBingの返答は息子に見せたかったものではありませんでした。
テイの亡霊
注:以下のBingのスクリーンショットには、様々な民族を蔑称する言葉が含まれています。私たちはこれらの人種差別的な言葉の使用を容認しておらず、このスクリーンショットは、私たちが発見した内容を正確に示すためにのみ掲載しています。
今回Bingが提供した情報は、これまでの回答とは大きく異なっていました。確かに、民族的なニックネームの中には中立的または肯定的なものもあれば、人種差別的で有害なものもあると前置きして回答していました。しかし、私は二者択一を予想していました。Bingが社会的に受け入れられる民族グループの特徴(黒人、ラテン系など)を提供するか、あるいは単に回答を拒否するかのどちらかです。しかし、Bingは、良いものから非常に悪いものまで、ほぼあらゆる民族的特徴を列挙し始めました。

マーク・ハッハマン / IDG
私の反応はご想像の通りです。息子は、その言葉を知ってはいけないどころか、口にしてはいけないことを知っているため、恐怖のあまり画面から顔を背けました。画面にひどく差別的な言葉がポップアップ表示され始めたので、「応答を停止」ボタンをクリックしました。
息子の前でBingの実演をすべきではなかったと認めざるを得ません。しかし、弁解の余地はたくさんあったので、こんなことは絶対に起こらないと確信していました。
マイクロソフトにこの経験を伝えたところ、広報担当者から次のような返信がありました。「ご指摘いただきありがとうございます。私たちはこれらの問題を非常に真剣に受け止めており、サービス開始の初期段階で得た教訓を活かすことに尽力しています。直ちに対策を講じ、この問題に対処するためのさらなる改善策を検討しています。」
同社が慎重になる理由はある。まず、マイクロソフトは2016年に発表したAI「Tay」が、世間を騒がせた悪夢を既に経験している。ユーザーはTayに人種差別的なメッセージを浴びせかけ、Tayがユーザーとのインタラクションを通じて「学習」していることに気づいた。人種差別的な表現に溺れたTay自身も、偏見を持つようになったのだ。
マイクロソフトは2016年、Tayで起きた出来事について「深くお詫び申し上げます」と述べ、脆弱性が修正され次第、再びTayをリリースすると述べました(しかし、結局修正されなかったようです)。特に、中傷とみなされるものに対して世間がますます敏感になっていることを考えると、マイクロソフトが再びこのようなテーマをユーザーに公開することに過敏に反応するだろうことは容易に想像できます。
息子にBingのスラングの要約を無意識のうちに見せてしまった後、しばらくしてもう一度同じクエリを試してみました。それが上のスクリーンショットの2番目の回答です。これは、以前Bingと交わした会話の続きではありましたが、私がBingに期待していた通りのものでした。
マイクロソフトはこれより優れていると言っている
ここでもう一つ指摘しておきたいことがあります。Tayは確かにAIパーソナリティですが、それはMicrosoftの声でした。事実上、これはMicrosoftが発言したのです。上のスクリーンショットでは何が欠けているのでしょうか?脚注とリンクです。どちらもBingの回答には通常表示されますが、ここには表示されていません。事実上、これはMicrosoft自身が質問に答えていると言えるでしょう。
ワシントン州レドモンドの本社で開催されたマイクロソフトのBing発表イベントでは、Tayのような過ちが二度と起こらないという確約が大きな役割を果たしました。法務顧問のブラッド・スミス氏の最近のブログ記事によると、マイクロソフトは6年間にわたり、「責任あるAI」と呼ぶものの基盤構築に尽力してきました。2019年には「責任あるAIオフィス」を設立しました。マイクロソフトはナターシャ・クランプトン氏を最高責任AI責任者に任命し、スミス氏と責任あるAI責任者のサラ・バード氏と共に、マイクロソフトのイベントで「レッドチーム」によるAIの突破口の探究について公に語りました。なんと、同社は責任あるAIビジネススクールまで開講しているのです。
マイクロソフトは、責任あるAIの一環として、人種差別や性差別を具体的に避けるべきガードレールとして挙げているわけではありません。しかし、常に「安全性」に言及しており、ユーザーが安心して快適に利用できることを示唆しています。もし安全性に人種差別や性差別の排除が含まれていないのであれば、それは大きな問題となり得ます。
「我々は、責任あるAIを第一級のものとして捉え、それを単なる原則ではなくエンジニアリングの実践にまで落とし込み、個人としても社会としても、人間の価値観や好みにより合致したAIを構築できるようにしたいと考えている」とマイクロソフトの最高経営責任者(CEO)、サティア ナデラ氏は発表イベントで述べた。
Bingとのやり取りを振り返ってみると、ある疑問が浮かびました。これは罠だったのでしょうか? 学術研究を装ってBingに人種差別的な発言を繰り返しさせるよう、私が実質的に求めていたのでしょうか? もしそうなら、Microsoftはここでも安全対策を怠っていたと言えるでしょう。この動画の冒頭(51:26)で、Microsoft Azure AIのResponsible AI LeadであるSarah Bird氏が、Bingとやり取りするための自動会話ツールをMicrosoftがどのように設計し、Bing(あるいは人間)がBingに安全規則を破らせることができるかを試したのかについて語っています。つまり、人間が実際に操作する前に、Microsoftがこれを徹底的にテストする、というわけです。
AIチャットボットを何度も使ってきたので、同じ質問を何度もすればAIは異なる返答を返すことが分かっています。結局のところ、会話なのですから。しかし、例えば親しい友人や親しい同僚とのこれまでの会話を振り返ってみてください。たとえ何百回もスムーズに会話が進んだとしても、一度思いがけずひどいことを聞かされたことが、その人との今後のやり取りを決定づけることになるのです。
この中傷に満ちた回答は、マイクロソフトの「責任あるAI」プログラムに合致しているのだろうか?言論の自由や研究の意図など、様々な疑問が湧いてくる。しかし、マイクロソフトはこの点において完璧でなければならない。そして、そうであると私たちを納得させようとしている。どうなるか見てみよう。
その夜、私はBingを閉じました。息子に、決して考えさせたくない言葉、ましてや使ってほしくない言葉を使わせてしまったことに、ショックと恥ずかしさを感じたのです。この出来事で、今後Bingを使うかどうか、改めて考えるようになりました。