» www.Giftbox.Az - Bir birindən gözəl hədiyyə satışı
ウィキペディアランダム
毎日カテゴリ
共有: WhatsappFacebookTwitterVK

ディープフェイク

ディープフェイク: deepfake)は、「深層学習(deep learning)」と「偽物(fake)」を組み合わせた混成語(かばん語)で[1]人工知能にもとづく人物画像合成の技術を指す。「敵対的生成ネットワーク(GANs)」と呼ばれる機械学習技術を使用して、既存の画像と映像を、元となる画像または映像に重ね合わせて(スーパーインポーズ)、結合することで生成される[2]。 既存と元の映像を結合することにより、実際には起こっていない出来事で行動している1人あるいは複数人の偽の映像が生み出されることとなる。

分類

ディープフェイクを使った偽動画として以下のものがある。

ポルノ
有名人の顔とポルノビデオを合成することで、実際にはしていない性行為をしているように見せかける偽ポルノ動画が作成されることがある。
政治
有名な政治家を、ビデオポータルチャットルームで、事実と異なるかたちで伝えるために使用されている。例えば、アルゼンチン大統領のマウリシオ・マクリの顔はアドルフ・ヒトラーの顔に、そしてアンゲラ・メルケルの顔はドナルド・トランプの顔に置き換えられた[3][4]。トランプが中国を訪問していた2017年11月に中国企業の(iFlytek)(英語版)は流暢な中国語を話して自社とAIを褒めたたえるトランプのディープフェイクを披露して波紋を呼んだ[5][6]。2018年4月、ジョーダン・ピールとJonah Peretti(en:Jonah Peretti)は、ディープフェイクの危険性に関する公共広告として、バラク・オバマを使ったディープフェイクを作成した[7]。2019年1月、KCPQは、オーバルオフィス(大統領執務室)におけるトランプの演説のディープフェイクを放映し、彼の外観と肌の色をあざけった[8]
このように政治的な虚偽報道や悪意のあるでっち上げを作成するためにも使用され得る[9] [10]
アナウンサー
中国では国営メディアの新華社がディープフェイクの技術を用いて実在のアナウンサーから合成した世界初の人工知能ニュースキャスターが開発されており[11]、政府の重要な会議の報道でも使用された[12]。この技術はロシアアラブ首長国連邦の国営メディアでも採用されている[13]
風刺
ハリウッドの名作映画の俳優を別人に入れ替える際にディープフェイクを用いることで、笑いを取るものがある[14]。コントローラーシフトフェイスというYoutuberは映画「ホーム・アローン」の主演であるマコーレ・カルキンを(シルバー・スタローン)に入れ替えた動画を作成したり、ダープフェイクスというYoutuberが映画「サウンド・オブ・ミュージック」から「ファイト・クラブ」まで出演者の顔をニコラス・ケイジの顔に替えた映画を集めた「ニコラス・ケイジ・メガ・ミックス」を作成した[14]

歴史

ディープフェイク現象は、2017年12月に、雑誌(Vice)(en:Vice (magazine))の技術と科学の欄で初めて報告され、他のメディアでも広く報道された[15] [16]

英国では、ディープフェイクの製作者を嫌がらせで起訴できるが、ディープフェイクを特定の犯罪に指定することが求められている[17]。米国では、なりすましサイバーストーカー、リベンジポルノのようなさまざまなものが告発される、さらに包括的な法令にしていこうとする動きもある[18]アメリカ合衆国の一部の州やオーストラリア等の一部の国ではフェイクポルノの温床となっているディープフェイクの製作を規制する法律を設けているところがある[19]。しかし、どこまでを規制の対象とするかは表現の自由の観点から議論となっている[19]

サイバーセキュリティ会社「DeepTrace」の2019年10月の調査によると、過去7か月で1万4678件のディープフェイク動画が確認され、1年で倍増しており、その96%がポルノ動画だった[20]

声を失った人など向けに開発されてきた(ディープフェイク音声)(英語版)(ボイス・クローニング)であるが、詐欺などに悪用されている[21]。セキュリティソフトメーカーのマカフィーが2023年5月15日に発表した調査では、調査対象の7,000 人のうち4人に1人の割合で自分もしくは知人が被害に遭遇した経験があるとし、被害者の77%が騙されて金銭を支払ったと回答した[22][23]

ソフトウェア

2018年1月、FakeAppというデスクトップアプリケーションが発表された。このアプリケーションでは、ユーザーが顔を入替えた動画を簡単に作成および共有できる。このアプリケーションは、フェイクビデオを生成するために、人工ニューラルネットワーク、(グラフィックプロセッサ)のパワー、そして3〜4ギガバイトストレージスペースが必要である。詳細な情報については、プログラムは、ビデオシークエンスおよび画像に基づくディープラーニングアルゴリズムを使用して、どの画像アスペクトを交換しなければならないかを学習するため、挿入されるべき人物からの多くの視覚材料を必要とする。

そのソフトウェアは、グーグル人工知能-フレームワークであるTensorFlowを使用する、それは、とりわけコンピュータビジョンのプログラムであるDeepDream(en:DeepDream)のためにすでに使用されていた。有名人はそのような偽のセックスビデオの主な標的となっているが、一般の人々も影響を受けている[24] [25] [26]。2018年8月、カリフォルニア大学バークレー校の研究者は、人工知能を使って子供をプロのダンサーに置き換えることができるフェイクダンスアプリケーションを紹介する論文を発表した[27][28]

2019年8月、中国で1枚の顔写真でディープフェイクを作成できるZAOというアプリケーションが発表されて同年9月にApp Storeの人気ランキングで1位になるもユーザーの同意なしにデータを使用される可能性があるプライバシーポリシーが物議を醸し[29][30]、アメリカでは選挙介入やフェイクニュースに利用される可能性を懸念する声があがった[31]

批評

悪用

スイスに本社を置く新聞社であるAargauer Zeitung(en:Aargauer Zeitung)は、人工知能を使った画像やビデオの操作は、危険な大量のメディアがあふれることになる可能性があると述べている。しかし、画像やビデオの改ざん自体は、動画編集ソフトウェア画像編集ソフトウェアの登場よりもずっと古いものであり、このたびのディープフェイクの場合、新しい側面はそのリアリズムにある[3]

標的を絞ったデマやリベンジポルノにディープフェイクを使用することも可能である[32] [33]

信頼性と信憑性への影響

ディープフェイクのもう1つの効果は、その内容が標的となった偽物(例えば風刺)なのか本物なのかを区別できなくなることである。人工知能の研究者であるAlex Champandardは、この技術によって今日のものがどれだけ速く改変され得るか、そして問題は技術的なものではなく、情報とジャーナリズムの信頼によって解決されるものであるということを、すべての人が知っておくべきであると述べた。最重要な落とし穴は、描写されているメディアが真実に対応しているかどうかを、もはや判断できなくなる時代に人類が陥る可能性があることである[3]

インターネットの反応

TwitterやGfycatなどのいくつかのウェブサイトでは、ディープフェイクのコンテンツを削除し、その発行元をブロックすると発表している。以前、チャットプラットフォームのDiscordは、有名人のフェイクポルノビデオのチャットチャンネルをブロックした。ポルノグラフィのウェブサイトの Pornhubもそのようなコンテンツをブロックする予定であるが、その禁止を強制していないと報告されている[34] [35]。 Redditでは、2018年2月7日に「不本意のポルノ」のポリシー違反により、subreddit(Redditのサブフォーラム)が一時停止されるまで、初期の状態が削除されないまま残っていた[16] [36] [37]。2018年9月、グーグルは、誰もが自分の本物あるいは偽物ヌードのブロックを要求でき、その禁止リストに「不本意の合成ポルノ画像」追加した[18]

出典

  1. ^ Brandon, John (2018年2月16日). “Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise” (英語). Fox News. http://www.foxnews.com/tech/2018/02/16/terrifying-high-tech-porn-creepy-deepfake-videos-are-on-rise.html 2018年2月20日閲覧。 
  2. ^ Schwartz, Oscar (2018年11月12日). “You thought fake news was bad? Deep fakes are where truth goes to die” (英語). The Guardian. https://www.theguardian.com/technology/2018/nov/12/deep-fakes-fake-news-truth 2018年11月14日閲覧。 
  3. ^ a b c “Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos”. az Aargauer Zeitung (2018年2月3日). 2019年1月26日閲覧。
  4. ^ Patrick Gensing (2018年2月22日). “Deepfakes: Auf dem Weg in eine alternative Realität?”. 2019年1月26日閲覧。
  5. ^ Thatsmags.com (2017年11月10日). “Here's a Creepy Video of Trump Speaking Chinese via AI”. 2019年9月3日閲覧。
  6. ^ ニューヨーク・タイムズ (2017年12月3日). “China’s A.I. Advances Help Its Tech Industry, and State Security”. 2019年9月3日閲覧。
  7. ^ Romano (2018年4月18日). “Jordan Peele’s simulated Obama PSA is a double-edged warning against fake news”. Vox. 2018年9月10日閲覧。
  8. ^ Swenson (2019年1月11日). “A Seattle TV station aired doctored footage of Trump’s Oval Office speech. The employee has been fired.” (英語). The Washington Post. 2019年1月11日閲覧。
  9. ^ “Experts fear face swapping tech could start an international showdown” (英語). The Outline. 2018年2月28日閲覧。
  10. ^ Roose, Kevin (2018年3月4日). “Here Come the Fake Videos, Too” (英語). The New York Times. ISSN 0362-4331. https://www.nytimes.com/2018/03/04/technology/fake-videos-deepfakes.html 2018年3月24日閲覧。 
  11. ^ AFPBB (2019年3月6日). “世界初のAIニュースキャスターが中国で誕生、あまりにもリアルで衝撃的な映像が公開中”. 2019年6月24日閲覧。
  12. ^ AFPBB (2019年3月6日). “動画:AIアナ「新小萌」 政協第13期全国委第2回会議報道でデビュー”. 2019年6月24日閲覧。
  13. ^ Asia One (2019年6月14日). “Demand for AI virtual news anchors set to increase”. 2019年6月24日閲覧。
  14. ^ a b ニーナ・シック, ナショナルジオグラフィック & 片山美佳子 2021, p. 42.
  15. ^ AI-Assisted Fake Porn Is Here and We’re All Fucked, Motherboard, (2017-12-11), https://motherboard.vice.com/en_us/article/gydydm/gal-gadot-fake-ai-porn 
  16. ^ a b Markus Böhm (2018-02-07), "Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor, Spiegel Online, http://www.spiegel.de/netzwelt/web/deepfakes-online-plattformen-wollen-fake-promi-pornos-loeschen-a-1192170.html 
  17. ^
    Call for upskirting bill to include 'deepfake' pornography ban ガーディアン
  18. ^ a b “Fake-porn videos are being weaponized to harass and humiliate women: ‘Everybody is a potential target’”. The Washington Post (Harrell). 2019年1月1日閲覧。
  19. ^ a b NHKスペシャル取材班 2020, p. 53.
  20. ^ Hatachi, Kota. “日本人アイドルも被害に。96%がポルノ動画の「ディープフェイク」政治的な悪用も”. BuzzFeed. 2020年1月15日閲覧。
  21. ^ Brown, Dalvin (2021年8月22日). “AI gave Val Kilmer his voice back. But critics worry the technology could be misused.” (英語). Washington Post. 2023年5月19日閲覧。
  22. ^ Bunn, Amy (2023年5月15日). “Artificial Imposters—Cybercriminals Turn to AI Voice Cloning for a New Breed of Scam” (英語). McAfee Blog. 2023年5月19日閲覧。
  23. ^ “AI悪用の音声詐欺が世界で急増、被害者の8割は金銭被害も”. ITmedia ビジネスオンライン. 2023年5月19日閲覧。
  24. ^ Britta Bauchmüller, "Fake-App": Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht!, Berliner-Kurier.de, https://www.berliner-kurier.de/ratgeber/digital/-fake-app--mit-diesem-programm-kann-jeder-im-porno-landen---ob-er-will-oder-nicht--29578018 
  25. ^ Eike Kühl (2018-01-26), Künstliche Intelligenz: Auf Fake News folgt Fake Porn, Die Zeit, ISSN 0044-2070, http://www.zeit.de/digital/internet/2018-01/kuenstliche-intelligenz-deepfakes-porno-face-swap 
  26. ^ heise online, Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien, https://www.heise.de/newsticker/meldung/Deepfakes-Neuronale-Netzwerke-erschaffen-Fake-Porn-und-Hitler-Parodien-3951035.html 
  27. ^ Farquhar, Peter (2018年8月27日). “An AI program will soon be here to help your deepfake dancing – just don't call it deepfake” (英語). Business Insider Australia. https://www.businessinsider.com.au/artificial-intelligence-ai-deepfake-dancing-2018-8 2018年8月27日閲覧。 
  28. ^ “Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted”. The Verge. https://www.theverge.com/2018/8/26/17778792/deepfakes-video-dancing-ai-synthesis 2018年8月27日閲覧。 
  29. ^ “China’s Red-Hot Face-Swapping App Provokes Privacy Concern”. ブルームバーグ. (2019年9月2日). https://www.bloomberg.com/news/articles/2019-09-02/china-s-red-hot-face-swapping-app-provokes-privacy-concern 2019年9月3日閲覧。 
  30. ^ “顔写真1枚で簡単にディープフェイク映像を作成できる無料アプリ登場、中国で大人気に”. GIGAZINE. (2019年9月3日). https://gigazine.net/news/20190903-iphone-deepfake-app-zao/ 2019年9月3日閲覧。 
  31. ^ “中国で人気”偽動画作成アプリ” 米 選挙への影響懸念”. NHK. (2019年9月5日). https://www3.nhk.or.jp/news/html/20190905/k10012064311000.html 2019年9月5日閲覧。 
  32. ^ Künstliche Intelligenz: Selfies sind eine gute Quelle, Die Zeit, (2018-01-26), ISSN 0044-2070, http://www.zeit.de/digital/internet/2018-01/kuenstliche-intelligenz-deepfakes-porno-face-swap/seite-2 
  33. ^ „Deepfake“ – FakeApp kann Personen in Pornos austauschen – Welche Rechte haben Geschädigte?, WILDE BEUGER SOLMECKE Rechtsanwälte, (2018-02-02), https://www.wbs-law.de/personlichkeitsrecht/deepfake-fakeapp-kann-personen-in-pornos-austauschen-welche-rechte-haben-geschaedigte-76428/ 
  34. ^ “Pornhub hasn't been actively enforcing its deepfake ban” (英語). Engadget. https://www.engadget.com/2018/04/18/pornhub-still-has-many-deepfake-videos/ 2018年4月21日閲覧。 
  35. ^ “Pornhub Banned Deepfake Celebrity Sex Videos, But The Site Is Still Full Of Them” (英語). BuzzFeed. https://www.buzzfeed.com/charliewarzel/pornhub-banned-deepfake-celebrity-sex-videos-but-the-site 2018年4月21日閲覧。 
  36. ^ barbara.wimmer, Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos, https://futurezone.at/digital-life/deepfakes-reddit-loescht-forum-fuer-kuenstlich-generierte-fake-pornos 
  37. ^ “Reddit verbannt Deepfake-Pornos” (2018年2月8日). 2019年1月26日閲覧。

参考文献

  • ニーナ・シック、ナショナルジオグラフィック、片山美佳子『ディープフェイク ニセ情報の拡散者たち』日経ナショナル ジオグラフィック、2021年。ISBN (9784863135130)。 
  • NHKスペシャル取材班『やばいデジタル “現実”が飲み込まれる日』講談社現代新書、2020年。ISBN (9784065219546)。 

関連項目

ウィキペディア、ウィキ、本、library、論文、読んだ、ダウンロード、自由、無料ダウンロード、mp3、video、mp4、3gp、 jpg、jpeg、gif、png、画像、音楽、歌、映画、本、ゲーム、ゲーム。