2021年9月4日午後3時42分普通でない
のアルゴリズムフェイスブック行動して、とても迷惑でした。彼は最近、有色人種を猿に例えた。信頼性が問われる事件ああ機密性の高いコンテンツの管理において。
限られたアルゴリズム
のコンテンツの拡散に対抗するため、NSFW、性差別的、人種差別的、または単に衝撃的なものであっても、サイトやアプリケーションはアルゴリズムなどのコンテンツ モデレーターを使用します。しかし、これらは 100% 信頼できるとは証明されておらず、人工知能の限界を示しています。
例えば、2018年にフェイスブックがサン・マルタン島を訪れたエマニュエル・マクロン大統領の写真を「ヌードと性的行為」を理由に検閲した事件など、控えめに言っても恥ずかしい事件を挙げることができる。昨年、アルゴリズムは無実のタマネギのバスケットを乳房と間違えました。
とても恥ずかしい出来事
今日、1年前のビデオが再び登場しました。この頃、イギリスのタブロイド紙デイリー・メールは「白人男性がマリーナで黒人男性に警察を呼ぶ」というタイトルの動画をネット上に投稿した。最近Facebookで(再)見たところ、ビデオの最後に非常に衝撃的なメッセージが表示されるのを何人かのユーザーが見ました。確かに、推奨アルゴリズムは、ユーザーに他の「霊長類のビデオ」を見たいかどうかを尋ね、「はい/拒否」の選択肢を付けました。
ソーシャルメディア大手の元デザイナー、ダーシー・グローブス氏はスクリーンショットを撮り、ツイッターに投稿した。 「スキャンダラスだ」と彼女はコメントし、Facebookの元同僚にこの件を報告するよう呼び掛けた。
うーん。この「見続けてください」というプロンプトは受け入れられません。@フェイスブック。そして、このビデオは 1 年以上前のものであるにもかかわらず、昨日友人がこのメッセージを受け取りました。 FB の友達はエスカレーションしてください。これはひどいことだ。pic.twitter.com/vEHdnvF8ui
— ダーシー・グローブス (@tweetsbydarci)2021年9月2日
Facebook にとって非常に恥ずかしい間違いであり、そのうちの 1 つは、広報担当者はすぐに反応し、次のように謝罪した。
これは明らかに容認できない誤りであり(...)、これらの侮辱的な推奨事項を見た人にお詫びします。」
カリフォルニア州のグループは、「問題の原因を調査し、この問題が再発するのを防ぐために、何が起こっているのかを認識するとすぐに」この問題に関する推奨ツールを無効にした。
この情報はすぐにツイッターでコメントされました。
残念ながら古典的なクソだが、Facebook の AI のサイズを知ると、それが許せなくなるのは驚くべきことだhttps://t.co/U08YD7UbCS
— デビッド・ラローズ \ud83d\udc27 (@Pentar0o)2021年9月4日
まだまだ進歩はあります...#IA #intelligenceArtificielle #倫理 https://t.co/2WJpmHIWx7
— マリー・ランジェ #jesuisvaccinée\ud83d\udc89 (@langemarie)2021年9月4日
ただショックを受けています!
— サブリナ ビオドール (@sbiodore)2021年9月4日
事実は2020年6月に遡り、今日明らかになった:黒人男性を映すビデオの後、アルゴリズム@フェイスブック「霊長類」のビデオを見続けることを提案した。 GAFAが感染拡大に貢献していること#人種差別最も悲惨なものは受け入れられません。https://t.co/f5Si5f08bk pic.twitter.com/KCKSsqkt3H
— コレクティフVAN (@Collectif_VAN)2021年9月4日
恥ずかしいです
— オニフェデ (@carineoni)2021年9月4日
嵐の中での Facebook
したがって、これは信頼性の限界を示しています。ああ特に、問題のあるメッセージや画像が表示される前に特定してブロックします。 「先ほども述べたように、私たちは人工知能システムを改善しましたが、私たちはそれらが完璧ではなく、改善の余地があることを知っています» とソーシャルネットワークを擁護した。
フェイスブックはまた、人種差別やその他の形態の憎しみや差別に対して十分に戦っていないと非難されている。さらに悪いことに、いくつかの協会や団体は次のような事実を指摘しています。ソーシャル ネットワークとそのアルゴリズムは、Black Lives Matter 運動の抗議活動の文脈において、アメリカ社会の分断に貢献しています。