シプリアン氏: YouTuber が詐欺被害​​に遭い、動画で復讐する

2024 年 4 月 13 日午後 3 時 59 分普通でない

を利用した詐欺が増えていますリアそしてディープフェイク技術で循環するソーシャルネットワーク今すぐ。これら虚偽の広告使用YouTuber シプリアンのようなスターやインフルエンサーの声と顔生成する渋滞そして招待します被害者騙されること。

ディープフェイク: ますます現実的になる AI と詐欺

人工知能はここ数年、激しい批判にさらされてきましたが、それは当然のことです。彼らの進化は本当に巨大で、どのピークに達するかを予測するのは困難です。数年以内にどれくらいの精度を達成できるだろうか。法律上の複数の曖昧さと世間の無知により、詐欺師やその他の詐欺師が、敏感な人々を罠にはめるためにそれらの使用を増加させています。Elise Lucet、Nota Bene、Feldup、Squeezie、Cyprien などのスターの声と顔を生成して使用する AI 生成画像は、心を痛めるビデオを作成することでこの慣行を強調することにしました。このビデオでは、彼と彼のクリエイティブチームが、彼に何でも言わせることができるAI生成ビデオの出現に苦しんでいる様子が示されています。

AIで落ち着くんですよね?もうこれらの広告には耐えられません...この詐欺に騙されないでくださいpic.twitter.com/a5JKAyrqfD

— シプリアン (@MonsieurDream)2024 年 4 月 12 日

このユーモラスなビデオでは、シプリアンは、テレビニュースを模倣して少なくとも5か月間放映されていた広告の外観に戻り、彼自身が作成したいわゆる革命的なお金を稼ぐためのアプリケーションを紹介しました。もちろん、これはどれも真実ではなく、シプリアンはこのアプリケーションを作成したことも、この広告を宣伝したこともありません(しかし、彼はニースカーニバルのフロートを作りました)。さらに悪いことに、使用されるフォーマットは、人工知能のおかげで自由に交換できるため、インターネット上で見られる多数の詐欺とほぼ同じです。これらの画像をすでにご覧になっているかもしれませんが、シプリアンの代わりに他の人格が話しています。欺瞞を見破るのは簡単に思えるかもしれませんが、インターネット上では一瞬の弱みから身を守ることはできません。。このような種類の画像から身を守る方法を学ぶには、人工知能によって生成されたビデオを特定できる証拠を見つける練習をするのが最善です。今のところ、生成されたビデオの動きや背景を生成するのはまだ困難です。。再びだまされないように、Youtuber Defakator は、AI が生成する詐欺の危険性と、その詐欺から身を守る方法を明確に示した長いビデオを作成しました。