人間の声を複製することが、かつてないほど容易になりました。新しいAIツールは、音声サンプルを取得し、処理・複製し、元の声で何でも話すことができます。これは2018年から既に実現されていましたが、最新のツールはより速く、より正確に、そしてより簡単に行うことができます。
信じられない?ChatGPTを開発した人工知能企業OpenAIは今年、わずか15秒の録音だけで音声を複製できることを示すプロジェクトを発表しました。
OpenAIのツールはまだ一般公開されておらず、悪用を防ぐためのセキュリティ対策が講じられていると言われています。しかし、Eleven Labsも同様のサービスを提供しており、わずか6ドルで1分間の音声サンプルから音声を複製することができ、こちらは誰でも利用可能です。
これがどのように悪用されるかは容易に想像できます。詐欺師や詐欺師は、通話内容やソーシャルメディアにアップロードされた動画を利用して、ほぼ誰からでも音声サンプルを入手し、それを複製して詐欺に利用することができます。

IDG
蔓延している例の 1 つは、祖父母詐欺です。詐欺師は高齢者に電話をかけ、音声クローンを使用して孫のふりをし、重要な理由で緊急に金銭を要求します。
もしかしたら「事故に遭った」とか「逮捕された」とか、そういう話もあるかもしれません。たいていの場合、この電話のことは誰にも、特に両親には言わないようにと、口をつぐんでいてくれるでしょう。だって、本当の孫が無事だと分かった時に、詐欺電話だとバレてしまう可能性があるのですから。
音声クローンの存在を知らない人は、簡単にこのような詐欺に引っかかる可能性があります。たとえ知っていたとしても、注意深く見ていないと騙される可能性があります。たとえ何かがおかしいと感じたとしても、自分の孫が偽者だと非難する立場になりたいでしょうか?いずれにせよ、孫は否定するでしょう。
これがこの詐欺の問題点であり、毎日多くの人が騙されています。AIを活用した音声複製が普及するにつれて、この詐欺も爆発的に増加することが予想されます。
身を守る方法は次のとおりです。家族会議を開き、緊急時に使用する合言葉を決めておきましょう。そして、もしお金に困っている家族から電話がかかってきたら、合言葉を確認させましょう。もし確認できない場合は、詐欺師である可能性が高いです。
さらに読む:ハッカーが使用する新しい手口に注意
この記事はもともと当社の姉妹誌 PC-WELT に掲載され、ドイツ語から翻訳およびローカライズされました。
著者: Arne Arnold、PCWorld 寄稿者
アーネ・アーノルドは30年以上にわたりIT業界で活躍し、その大半をITセキュリティ分野に注力してきました。ウイルス対策ソフトウェアのテスト、Windowsのセキュリティ強化に関するヒントの提供に加え、Windowsに最適なセキュリティツールを常に模索しています。現在は新たなAIツールを試用し、それらが私たちの未来にどのような影響を与えるのかを探っています。