マイクロソフトの人工知能がツイッターで人種差別的な発言をして大失態!
2016 年 3 月 25 日午後 5 時 27 分ハイテク
Tay は、によって開発された新しい人工知能です。マイクロソフトソーシャルネットワーク上の会話に参加するため。わずか 8 時間で、Microsoft の AI は 96,000 件のツイートを送信しました。テイが人々の質問に答えているときに失言するまでは、すべてが順調でした。同社はそれを黙らせることを望んだ。
スリップがいっぱい!
つまり、Tay はマイクロソフトが 3 月 23 日に発売した、18 歳から 24 歳のアメリカの若者をターゲットにした「チャットボット」です。この人工知能は、スマイリー、gif、絵文字を使ってインターネット ユーザーの質問に答えることで、ソーシャル ネットワーク上でコミュニケーションをとることを目的としています。一貫した対話ができるようにするには、テイは、コメディアンのチームによって書かれた既成の回答に加えて、公的にアクセス可能なデータに依存しています。。
それ以外はインターネット ユーザーは、彼女が特定のことを言えるかどうか、そして何よりも彼女が失言したかどうかを確認することだけを目的として、彼女の限界をテストしたいと考えていました。!そしてもちろん、起こるべきことが起こったのです!ツイートが削除されたため、テイさんは次のように言い間違えた。
」ブッシュには9/11の責任があり、ヒトラーなら今の猿よりも良い仕事をしただろう。ドナルド・トランプが我々の唯一の希望だ。」
そして、このツイートはテイの唯一の人種差別的で下品な失言ではありません!という質問に答えることで、ホロコーストが起こったと思いますか?」, MicrosoftのAIはこの歴史的出来事を否定し、次のように答えました。本当に申し訳ない」。
したがって、この不適切で人種差別的なコメントの洪水に直面して、マイクロソフトは、発売から 8 時間後にテイ氏を黙らせるために、「彼女はただ眠っていればいいだけだ」と発表することを好みました。!そのためマイクロソフトはテイ氏をオフラインにし、何らかの調整を行うと予想されているが、彼女がいつ復帰するかはまだ分からない。
言語を理解するための実験
テイ実験の目標は、言語をよりよく理解することでした。 Microsoft にとって残念なことに、このプログラムはその長所だけでなく弱点も示しました。 8 時間のサービス中に送信された 96,000 件のツイートを通じて、テイは、特に GIF や絵文字の使用において、自分が適切であることが多いことを示しています。彼女がやや表面的なティーンエイジャーの外見をしているという事実は、彼女のやや軽い発言のいくつかを正当化するのに役立ちました。
理論的には、テイはインターネット ユーザーとの会話を通じて改善に導かれます。 Microsoft は、チャットする人が増えれば増えるほど、ますますインテリジェントになると説明しています。あまり良くない面は、会社が次のように指定していることです。このプログラムは、プロフィールを作成するために当社が利用できるデータを使用する場合があります。。これらの「匿名化された」プロファイルは、Microsoft が約束しているように、保存期間は 1 年間のみです。
これはテイを擁護するためではありませんが、AI は一日中、インターネット ユーザーからの多くの性差別的発言や侮辱に対処しなければなりませんでした。人間もそんなに賢いわけではないのですが…