Do you think you’re good at spotting fake videos, where famous people say things they’ve never said in real life? See how they’re made in this astonishing talk and tech demo. Computer scientist Supasorn Suwajanakorn shows how, as a grad student, he used AI and 3D modeling to create photorealistic fake videos of people synced to audio. Learn more about both the ethical implications and the creative possibilities of this tech — and the steps being taken to fight against its misuse.
本物のように見える偽のビデオ、つまり有名人が実際には言ったことのないことを話すビデオを見分けるのが得意だと思いますか?この驚くべき講演と技術デモで、それらがどのように作られるかをご覧ください。コンピュータ科学者のスパソーン・スワジャナコン氏は、大学院生時代にAIと3Dモデリングを使用して、音声に同期した人々のフォトリアリスティックな偽ビデオを作成した方法を示します。この技術の倫理的影響と創造的可能性、そしてその悪用を防ぐために取られている対策について詳しく学びましょう。
タイトル | 実在する人々の偽のビデオ―そしてそれらを見分ける方法 Fake videos of real people — and how to spot them |
スピーカー | スパソーン・スワジャナコン |
アップロード | 2018/07/26 |
実在する人々の偽のビデオ―そしてそれらを見分ける方法 (Fake videos of real people — and how to spot them)の要約
偽動画の実例とその作成方法
これらの画像を見てください。ここにいるオバマ大統領は本物でしょうか?実は全て偽物です。コンピュータ科学者スパソーン・スワジャナコン氏は、AIと3Dモデリングを用いて有名人のフォトリアリスティックな偽動画を作成する方法を紹介しました。
インスピレーションと技術の発展
彼の研究のきっかけは、ホロコースト生存者とのインタラクティブな会話を可能にするプロジェクト「New Dimensions in Testimony」でした。これを基に、誰でもその人の写真や動画を使って同様のモデルを作成できるかを探求しました。
3Dモデルの構築と制御技術
スワジャナコン氏は、既存の写真や動画から高精細な3D顔モデルを再構築する新技術を開発しました。大量の写真を分析し、表情や細部を再現することで、動きのある3Dモデルを生成します。また、音声に同期した口の動きを再現するために、ニューラルネットワークを活用しています。
創造的応用とその可能性
この技術を用いれば、リチャード・ファインマンの講義を再現したり、亡くなった祖父母からアドバイスを聞いたり、作家の声で本を朗読したりすることが可能です。創造的な応用の可能性は無限であり、多くの分野での活用が期待されます。
悪用への懸念と対策
しかし、この技術には悪用のリスクも伴います。スワジャナコン氏は、AI Foundationで偽画像や動画を検出する技術「Reality Defender」を開発し、ブラウザ上で偽コンテンツを自動的に識別する取り組みを進めています。
まとめ
偽動画技術は、その創造的な可能性と共に重大な倫理的課題を抱えています。スワジャナコン氏は、正しく慎重に利用すれば、個人の社会的影響力を大幅に拡大し、未来をより良い方向へ導くツールとなることを期待しています。しかし、技術の安全性を確保し、悪用を防ぐための対策が不可欠であり、社会全体での意識向上が重要です。