MicrosoftはAIを利用して、有害なコンテンツの特定を支援し、ゲームをオンラインでプレイするときにゲームコミュニティを安全に保つようにしています。
でXbox透明性レポートのブログ投稿、同社は、「プレーヤーの安全性を促進する進歩」と「透明性へのコミットメント」、および「AIを活用するための進歩的なアプローチ」を繰り返しました。
AIが使用される2つの具体的な方法があります:自動ラベルと画像パターンマッチング。
前者はAIを使用して、プレーヤーレポートから有害な単語やフレーズを特定し、コミュニティのモデレーターが誤ったレポートをすばやく整理し、最も重要なインスタンスに焦点を合わせることができます。
後者は同様に、画像マッチングテクニックを使用して、有害および有毒な画像を迅速に識別および削除します。
ここでのAIの使用が続きます昨年の新しい音声報告機能の導入、Xboxプレーヤーがゲーム内の音声チャットのビデオクリップをキャプチャして、レビューのためにXbox Safetyチームに提出できるようになります。
Xboxは、機能の発売以来、138Kの音声レコードをキャプチャしたと言います。これらのレポートが執行ストライキをもたらしたとき、プレイヤーの98%が行動の改善を示し、さらなる執行を受けませんでした。
去年Xboxは、執行ストライキシステムを導入しました、悪い行動を適切な重大度のストライキと一致させます。発売以来、ストライキを受けたプレーヤーの88%はさらなる執行を受けませんでした。
AIが有毒な含有量をレビューするための人的コストを削減することで、これは前向きなステップです。
それでも、毒性と女性嫌いはゲームの音声チャットで広まっています。からの投稿けいれんストリーマーのテイラー・モーガンは今週、Riot's Valorantの試合をしている間に受けた有害な虐待のためにウイルスになりました(下のクリップの言語に注意してください)。
「サスペンションでは十分ではありません。ハードウェアの禁止が登場するまで、これらの男性がこのように行動するのを止めるものは何もありません。彼らは再びゲームをプレイすることができないはずです」と彼女は以前のTwitterであるXに投稿しました。
フォローアップの投稿で、彼女はゲームを早めに去ることに対してペナルティを受けたことを明らかにしました。
このようなハイライトは、オンラインでゲームをプレイする安全性を向上させるためにまだ長い道のりがあります。そして、MicrosoftのAIの使用は一見前向きに思えますが、昨年、AI EthicsとSocietyチーム全体を解雇したことを覚えておく価値があります。会社全体で10,000人の失業の一部(当時強調表示されていますバージ)。ただし、その責任あるAIのオフィスは残っていますが、それはそれを公開しました責任あるAI標準ガイド。
実際、マイクロソフトは確かにAIの利点を推進しています。昨年11月に発表しましたInworld AIとの「複数年の共同開発パートナーシップ」Xboxのスタジオに、デザインの副操縦士やキャラクターランタイムエンジンなどのAIツールを提供します。
このような生成的なAIツールは、以前は「尊敬と怒り」に遭遇していました。Eurogamerは昨年のGDCイベントから報告しました。
最近では、レポートUnityは、スタジオの62%がすでにAIを利用していると主張しました、アニメーションで最高の使用法。