Latest evidence-based health information
Airpods

ChatGPTには決してこんなことは言わないで。後で痛い目に遭うかもしれない

ChatGPTには決してこんなことは言わないで。後で痛い目に遭うかもしれない
ChatGPTには決してこんなことは言わないで。後で痛い目に遭うかもしれない

ChatGPT やその他の AI チャットボットが、あらゆることについてあなたと会話できる素晴らしいチャット仲間になることは否定できません。

彼らの会話力は非常に説得力があり、個人情報を安心して共有できると感じたことがあるなら、それはあなただけではありません。しかし、朗報です!トースターに話しかけているわけではありません。AIチャットボットに話した内容はすべてサーバーに保存され、後で再び表示される可能性があります。そのため、AIチャットボットは本質的にリスクを伴います。

チャットボットはなぜそれほど危険なのでしょうか?

問題は、大規模言語モデル (LLM) とそれに関連するチャットボットを運営する企業が、本質的にはより優れたボットをトレーニングするために、ユーザーの個人データをどのように使用しているかに起因しています。

映画『ターミネーター2』を例に、法学修士課程の学習方法を見てみましょう。この映画では、スカイネットに対抗する人類の未来のリーダーとなる少年ジョン・コナーが、アーノルド・シュワルツェネッガー演じるターミネーターに「さようなら、ベイビー」といった個人的なスローガンを教え、より人間らしくしようとします。

簡単に言えば、これらのフレーズを学習し、最も不適切なタイミングでそれらを使用するので、ちょっと面白いです。

あまり面白くないのは、あなたのデータが収集され、企業が自社の AI モデルを更新してより人間らしく教えるために利用される方法です。

ターミネーター2

『ターミネーター2』では、ジョン・コナーがアーノルド・シュワルツェネッガー演じるターミネーターに指導を行っている。

ドミニク・ベイリー / IDG

OpenAIの利用規約には、プラットフォームの利用時にこれを行う権利が明記されています。「当社は、モデルの改善のために、利用者から提供されたデータを使用する場合があります。」ChatGPTが利用者の発言のすべて(そう、すべてです)を記録するのはそのためです。ただし、チャットボットの新しいプライバシー機能(設定を切り替えることでチャット履歴の保存を禁止できる機能)を利用している場合は除きます。

そうしないと、金融情報、パスワード、自宅住所、電話番号、朝食に何を食べたかといった情報が、共有すれば当然のように盗まれてしまいます。また、アップロードしたファイルやフィードバックもすべて保存されます。

ChatGPTの利用規約には、チャットボットが「個人情報を集約または匿名化し、集約された情報を使用して当社のサービスの有効性を分析する」可能性があると記載されています。これは小さな追加事項ですが、チャットボットが学習した情報が後日一般公開される可能性が生じており、これは実に憂慮すべき事態です。

なぜ気にする必要があるのでしょうか?

公平に言えば、AIチャットボットを運営する企業が、保管している個人情報を悪用する意図を持っている可能性は極めて低いでしょう。近年、OpenAIはChatGPTユーザーに対し、個人データの収集と利用について安心感を与えるための声明を発表しました。

例えば、今年2月にイタリアのデータ保護当局(DPA)から欧州連合の一般データ保護規則(GDPR)に含まれる規定に違反していると非難されたとき、OpenAIはBBCに対してこう語った。「私たちはAIに、個人についてではなく、世界について学んでほしいと思っています。」

そしてこう述べています。「当社は、ChatGPT などのシステムをトレーニングする際に個人データの削減に積極的に取り組んでおり、ChatGPT では個人に関する個人情報や機密情報の要求も拒否しています。」

確かにその通りかもしれませんが、ユーザーデータが侵害から安全であることを保証するものではありません。2023年5月には、ハッカーがChatGPTのRedisライブラリの脆弱性を悪用し、チャット履歴に保存されている個人データにアクセスしたという事例が発生しました。

漏洩した個人情報には、氏名、社会保障番号、役職、メールアドレス、電話番号、さらにはソーシャルメディアのプロフィールまで含まれていました。OpenAIは脆弱性を修正することで対応しましたが、すでにデータが盗まれた約10万1000人のユーザーにとっては、ほとんど慰めにはなりませんでした。

AIチャットボットによるプライバシー問題を抱えているのは、個人だけではありません。企業もまた、注目を集めるデータ漏洩事件が相次ぐ中、機密性の高い社内データの管理に奔走しています。そのような漏洩の一つとして、サムスンが自社のエンジニアが機密性の高いソースコードを誤ってChatGPTにアップロードしていたことが発覚しました。

これを受けて、同社は2023年5月にChatGPTをはじめとするAI生成チャットボットの業務利用を禁止しました。その後、バンク・オブ・アメリカ、シティグループ、JPモルガンなどの企業もこれに追随しました。

認識は高まっているが、まだ初期段階である

最近、政府や業界のレベルで AI チャットボットの危険性についての認識が高まっており、これはデータ セキュリティの強化に向けた明るい兆候です。

昨年10月30日、ジョー・バイデン米大統領が、米国におけるAIの利用を規定する主要原則を概説した「人工知能の安全で安心、かつ信頼できる開発と利用に関する大統領令」に署名したことで、大きな前進が起こりました。

優先課題の一つに、「AIシステムはプライバシーを尊重し、個人データを保護しなければならない」と規定されている。しかし、それが具体的にどのように実施されるかはまだ明らかにされておらず、AI企業による解釈に委ねられる可能性がある。

もっと確固たる根拠が見つかるまでは、私たち個人にとっての最善の防御策は、やはり情報を過剰に共有しないことです。AIチャットボットを信頼できる友人ではなく、アルゴリズムとして扱うことで、どれだけ髪型や服装を褒められても、少なくともあなた側からあなたについて知っている情報を隠しておくことができます。

Otpoo

Health writer and researcher with expertise in evidence-based medicine and healthcare information.