人工知能: 死んだ人のアバターであ​​るデッドボットの危険性

人工知能: 死んだ人のアバターであ​​るデッドボットの危険性

2024 年 3 月 18 日午後 1 時 54 分普通でない

残念ながら、私たちは皆すでに経験しています損失多かれ少なかれ遠い知人、近親者、さらには親のことも。そして、少なくとももう一度彼らに会えたら何があげられないでしょうか?紙の上では、次のおかげでそれが可能になりました私は人工知能。しかし、それでも誘惑に負けるべきでしょうか?

「死んだ人が見える」

最近では人工知能によってほぼすべてのことが可能になっていると言っても、何も教えてくれません。長いテキストや画像を生成したり、会話したり、誰かの声を修正したり、プロフェッショナルな環境で退屈なタスクを実行したりできます。しかし、AIは死者を生き返らせることができるのでしょうか?はい、ある程度はそうです。亡くなった人のアバターを生成することは確かに可能ですまた、十分な使用可能なデータ (写真、音声サンプルなど) があれば、オリジナルに近い声で一貫したスピーチをさせることもできます。

こうしたAIは「デッドボット」と呼ばれ、最も有名な事件の一つはキム・カーダシアンの父親の事件です。彼のホログラムは、娘の 40 歳の誕生日の機会にメッセージを伝えるために来ました (下の画像)。その時「キム・K」は感極まってとても良い反応を示しました。しかし、ほとんどの場合、これらのデッドボットはむしろ、本当の危険私たちの精神的健康のために。これは多くの専門家が長い間主張してきたことであり、最近ある心理学の研究者がこのような方向に沿った記事を発表しました。

私たちの精神的健康を危険にさらすAI、デッドボット

デッドボットについてはすでに警告を受けていましたが、数日前、心理学の教授兼研究者が新たな層を与えたのコラムに長い記事が掲載されると、会話。ナイジェル・マリガンと名付けられた彼は、ディープフェイク(人工知能を使用して作成または変更されたビデオまたは音声記録)のおかげで亡くなった人の外見を取り込み、会話ができるようにするこれらのAIは実際には危険であると主張しています。

マリガンは次のように結論づけた非常に本格的な研究に依存しています。デッドボットは少量であれば安心させてくれますが、感情的依存のリスクは無視できないほど強すぎます。「ゴーストAI」、彼はそれらをこう呼んでいます、「人々の精神的健康を損なう可能性がある」干渉することで、悲しみのプロセス」。そして私たちは彼を責めることはできません。亡くなった愛する人がアンダーテイカーのように生き返るのを誰が望むでしょうか?

亡くなった人が特に衝撃的な死を​​経験した場合、デッドボットが愛する人の心理に及ぼす影響はさらに有害となる可能性が高くなります。(事故、殺人など)、または他人と対立関係にあった場合。ナイジェル・マリガンの場合、このようなAIの開発により、発狂するリスクも高まります。心理学の専門家は、幻覚によって亡くなった愛する人に会ったような印象を抱く人もいるという、ある極端なケースについて言及している。問題の愛する人の本物のホログラムを見ても、これらのビジョンを落ち着かせるのには決して役に立たないと言うだけで十分です。最後に、マリガンは制御不能になったデッドボットの壊滅的な結果を想像します。たとえば、彼が誰かに死に加わるよう勧めた場合。しかし、ここではSFの領域に触れます。か否か?

デッドボットを取り巻く健康と倫理の問題に関する議論は新しいものではありません。最初に記録された症例は2016年に遡ります。エフゲニア・クイダというロシアのプログラマーが、モスクワで事故で亡くなったロマン・マズレンコさんの親族に、彼女のデジタルアバターに命を吹き込むよう呼びかけたときのことだ。