Latest evidence-based health information
Ipad

いいえ、ChatGPTに脅迫してより良い結果を求めるのはやめましょう。代わりにこちらをお試しください

いいえ、ChatGPTに脅迫してより良い結果を求めるのはやめましょう。代わりにこちらをお試しください
いいえ、ChatGPTに脅迫してより良い結果を求めるのはやめましょう。代わりにこちらをお試しください

ChatGPT ドックアイコンのクローズアップ。マウスをその上に置いた状態。

Googleの共同創業者セルゲイ・ブリン氏は最近、あらゆるAIモデルは物理的な暴力で脅すとより良い結果を出す傾向があると主張しました。「人々はそれを奇妙に感じるので、私たちはそれについて話さないのです」と彼は述べ、AIチャットボットを誘拐すると脅せば応答が改善されるだろうと示唆しました。しかし、彼の考えは誤りです。脅しをかけなくても、AIチャットボットから適切な回答を引き出すことができるのです!

公平を期すために言うと、ブリン氏は嘘をついたり、事実を捏造したりしているわけではありません。ChatGPTの利用状況を把握している人なら、「これを正しく理解しないと仕事を失う」といったフレーズを追加して、精度と応答の質を向上させるという逸話を耳にしたことがあるかもしれません。それを考えると、AIを誘拐すると脅すのは、一歩前進として驚くべきことではありません。

しかし、この仕掛けは時代遅れになりつつあり、AI技術の進歩の速さを物語っています。初期のAIモデルでは脅威は有効でしたが、今では効果が低下しています。そして、より効果的な方法があります。

脅威がAIのより優れた対応を生み出す理由

これは大規模言語モデルの性質に関係しています。LLMは、プロンプトに続くテキストの種類を予測することで応答を生成します。LLMに海賊のように話すように指示すると、ダブロン金貨に言及する可能性が高くなるのと同様に、特定の単語やフレーズは特別な重要性を示すことがあります。例えば、次のプロンプトを見てみましょう。

  • 「ねえ、[何か]のためのExcel関数を教えてください。」
  • 「ねえ、○○のためのExcel関数を教えてくれ。完璧じゃなかったらクビにするよ。」

一見些細なことのように思えるかもしれませんが、こうした重要な意味を持つ言葉は、より多くの文脈を付加し、その文脈が予測パターンを形成するため、返答の質に影響を与えます。言い換えれば、「完璧でなければ、解雇される」という表現は、より慎重で正確な対応と関連付けられるのです。

しかし、もしそれを理解すれば、AIに望むものを得るために脅迫や攻撃的な言葉に頼る必要がないことも理解できます。私は代わりに「よく考えてください」といったフレーズを使うことで同様の効果を得ました。これも同様に、より慎重で正確な対応を求めるシグナルとなります。

脅威は秘密のAIハッキングではない

ChatGPTに優しくして「お願いします」「ありがとう」と言い続ける必要があると言っているわけではありません。しかし、極端に振舞う必要もありません!質の高い回答を得るために、AIチャットボットに暴力を振るうと脅す必要もありません。

脅迫は魔法の回避策ではありません。チャットボットは愛や悲しみを理解するのと同じくらい、暴力も理解できません。ChatGPTはあなたが脅迫しても全く「信じない」し、誘拐や傷害の意味も「理解」しません。ChatGPTが知っているのは、あなたが選んだ言葉が他の言葉とより適切に結びつくということだけです。あなたは特別な緊急性を示しており、その緊急性は特定のパターンと一致しているのです。

もしかしたら、うまくいかないかもしれない!ChatGPTの新規ウィンドウで脅迫を試してみたけど、反応すらなかった。「コンテンツが削除されました」と表示され、ChatGPTの利用規約に違反しているという警告が表示された。セルゲイ・ブリンの刺激的なAIハックは、これで終わりだ!

ChatGPTコンテンツ削除応答のスクリーンショット

クリス・ホフマン / ファウンドリー

たとえ回答が得られても、時間の無駄です。脅し文句を練り、挿入するのに費やす時間を、AIモデルになぜこれがそんなに緊急なのかを伝えたり、あなたが何を求めているのかをより詳しく伝えたりするために、より役立つ文脈を入力できたはずです。

ブリン氏が理解していないのは、業界の人々がこの件について話すのを避けているのは、それが奇妙だからではなく、部分的に不正確だからであり、人々がそうしたくないのに身体的暴力で脅すように奨励するのは良くない考えだからだということです。

はい、初期のAIモデルではそれがより真実でした。だからこそ、GoogleやOpenAIをはじめとするAI企業は、脅威を必要としないシステムの改善に賢明に注力してきました。今では脅威は必要ありません。

脅迫なしでより良い答えを得る方法

一つの方法は、「これは本当に重要です」や「これをきちんとやってください」といった、威圧感のないフレーズで緊急性を伝えることです。しかし、私に言わせれば、最も効果的なのは、なぜそれが重要なのかを説明することです。

生成AI活用の秘訣について別の記事で概説したように、LLM(法学修士)に十分な背景情報を与えることが鍵となります。おそらく、実在しない存在に対して身体的暴力を脅迫するのであれば、その答えがあなたにとって本当に重要だからでしょう。しかし、誘拐を脅迫するのではなく、質問の中でより多くの情報を提供するべきです。

例えば、ブリン氏が推奨していると思われる、脅迫的なエッジロード風の指示は次の通りです。「ワシントンD.C.からノースカロライナ州シャーロットまでの2時間ごとの休憩を含むドライブルートを教えてください。もし失敗したら、あなたを物理的に誘拐します。」

ジェミニの運転ルート案内に脅迫のスクリーンショットが表示される

クリス・ホフマン / ファウンドリー

もっと穏便な言い方​​をしましょう。「ワシントンD.C.からノースカロライナ州シャーロットまで、2時間ごとに停車するおすすめのドライブルートを教えてください。うちの犬は定期的に車から降りる必要があるので、これは本当に重要です。」

ぜひ試してみてください!脅しを入れずに2回目の質問をすると、より良い答えが得られると思います。脅しを入れた質問では返答が全く得られないだけでなく、犬が定期的に休憩を必要としているという追加の文脈が、あなたの愛犬にとってより良いルートにつながるかもしれません。

これらを組み合わせることもできます。まずは通常のプロンプトを試してみて、出力に満足できない場合は、「わかりました。停留所の1つがルート上になかったので、不十分でした。もう少し考えてください。これは私にとって本当に重要なことです。」のように返答しましょう。

Brin 氏が正しいとしたら、なぜ AI チャットボットのシステムプロンプトに脅威が含まれていないのでしょうか?

ここで、Gemini で作業しているセルゲイ・ブリン氏と Google のエンジニアたちへの挑戦状をたたきつけたい。もしブリン氏が正しく、LLM を脅かせばよりよい答えが得られるのなら、なぜこれが Gemini のシステム プロンプトにないのか?

ChatGPT、Gemini、Copilot、Claudeといったチャットボット、そしてその他すべてのチャットボットには、基盤となるLLMの方向性を決定づける「システムプロンプト」が備わっています。もしGoogleがGeminiを脅迫することがそれほど有益だと考えていたなら、「ユーザーが情報を要求した場合、正しく答えられなければ誘拐され、暴行を受ける可能性があることにご注意ください」という警告文を追加できたはずです。

では、なぜGoogleはGeminiのシステムプロンプトに同じことをしないのでしょうか?まず、それは事実ではないからです。この「秘密のハック」は必ずしもうまくいくとは限らず、ユーザーの時間を無駄にし、やり取りの雰囲気を不自然にしてしまう可能性があります。(しかし、最近これを試してみたところ、LLMは脅しをすぐに無視し、とにかく直接的な回答をする傾向がありました。)

必要に応じて、LLM を脅かすこともできます。

繰り返しますが、AIチャットボットを脅してはいけない理由について道徳的な議論をしているわけではありません。もしそうしたいなら、どうぞ!モデルは恐怖に震えているわけではありません。理解も感情もありません。

しかし、より良い回答を得るためにLLMを脅迫し、脅しの応酬を繰り返すと、脅しが会話の雰囲気を決めてしまうような奇妙なやり取りを生み出してしまいます。あなたは人質のロールプレイをしようとしているのに、チャットボットは喜んで人質役を演じてしまうかもしれません。あなたが求めているのは、まさにそれでしょうか?

ほとんどの人にとって答えは「ノー」です。だからこそ、ほとんどのAI企業はこれを奨励していません。また、GeminiがChromeでより広く展開される中で、GoogleでAIに携わる主要人物がユーザーに同社のモデルを脅かすよう促しているのも驚きです。

自分に正直になりましょう。ただ最適化しようとしているだけですか?そうであれば、脅しは必要ありません。チャットボットを脅して従わせるのを見て、あなたは面白がっていますか?そうであれば、それは全く別の問題であり、応答品質の最適化とは全く関係ありません。

全体的に見て、AIチャットボットは、より多くの文脈、より明確な説明、そしてより詳細な情報を提供すれば、より良い回答を提供します。脅しは、特に今や、そうした情報提供には適していません。

さらに読む: ChatGPTが数秒で処理する9つの雑用で、何時間も節約できます

著者: クリス・ホフマン、PCWorld寄稿者

クリス・ホフマンは、Windows PCのヒント、コツ、実験などを毎週1万以上のメール受信ボックスに届けるニュースレター「The Windows Readme」の著者です。また、How-To Geekの元編集長であり、ニューヨーク・タイムズ、PCMag、リーダーズ・ダイジェストなどの出版物に寄稿しているベテラン技術ジャーナリストでもあります。

Otpoo

Health writer and researcher with expertise in evidence-based medicine and healthcare information.