オンラインゲームを経験したことがある人なら誰でも、テキストチャットが核廃棄物レベルの毒性を持つことを知っているでしょう。しかし、将来、すべてが音声チャットに移行したらどうなるでしょうか?Intelは、それが役に立つと述べています。少なくとも、そう願っています。
インテルは水曜日の夜、Spirit AIと提携し、機械学習と人工知能を活用し、激しいゲームプレイ中にゲーマーがしばしば口にする辛辣な発言を抑制する方法について共同研究していると発表した。Spirit AIは既に、開発者がフォーラムやオンラインチャットの監視に利用できる機械学習ベースのツールを提供している。インテルは、ゲーム業界でますます利用が拡大している音声ベースのチャットにもこのツールを拡張したいと考えている。
どちらの会社も、導入時期について具体的な計画を発表していません。PCWorldで行われたプレゼンテーションを見る限り、導入には数年かかると思われます。
インテルは、アルゴリズムの学習が完了すれば、将来的にはクラウドだけでなく、クライアントPC、スマートフォン、コンソールプラットフォームにもこの技術を実装できると考えている。この技術の活用は、最終的には各ゲーム開発者に委ねられることになるだろう。

インテルは、AIと機械学習を活用して、ゲーム内の辛辣な発言を減らしたいと考えている。
インテルの関係者は、この高尚な目標の実現が極めて困難であることを認めている。ゲーム内のボイスチャットは、効果音、音楽、そして複数の人が同時に話す音声など、複雑な音響の一部である。そこに音質の悪さが加われば、不可能に思えるかもしれない。
これには、一部の人々が抱くであろう、より大きな懸念、つまり「会話」に憎悪や虐待の言語が含まれていると判断される方法や、そうしたツールが一部の人々にオーウェル風に感じられるのではないか、あるいは言論の自由の境界を越えているのではないかといった懸念は考慮されていない。
インテルの関係者は、これらの決定は開発者次第だと指摘した。多くの人が、あまりに厳しく取り締まると反発を招く可能性があることを認識している。しかし、ほとんどのゲームは公開フォーラムではなくプライベートなプラットフォームでプレイされるため、プライバシーや言論の自由は期待できないだろう。
この技術は将来、他のプレイヤーを攻撃したりセールストークを行ったりする人物をミュートする必要があるかどうかをリアルタイムで判断できるレベルに到達するかもしれないが、まずは人間によるやりとりが必要になるとインテルは予想している。
例えば、ビープ音を出しすぎたプレイヤーをリアルタイムでビープ音で警告するのではなく、チャットでの会話を記録してフラグを付け、最終的に禁止措置を取るかどうかを決定する人が確認できるようにすることができます。
プレイヤーのほとんどが子供であるゲームプラットフォームも同様に監視される可能性があります。
いずれにせよ、これはゲームやチャットの脅威を軽減したり、楽しさを軽減したりする興味深いアイデアです。
