近年、「ディープフェイク」と呼ばれる新しいCG合成技術が普及していることをご存じでしょうか。
AI(人工知能)による編集が加わることで、従来のCGよりも高い品質で合成が可能となっています。
新しい映像表現が可能になった反面、合成と見分けが付きにくくなったことで嫌がらせに利用されることも増加中。
特に人物の合成はまるで本当に本人が話す・動くかのように見えるため、偽の映像だと気付かれずに虚偽の事実を広められてしまう被害が生まれています。
ディープフェイクを見破り、被害を訴えるためにはどうすればいいのでしょうか。
この記事では、ディープフェイクの仕組みと悪用被害の内容、見破る方法について解説します。
目次 [ 閉じる ]
最近名前を聞くようになったディープフェイクですが、まだ一般的に浸透した言葉とは言えません。
一体どのようなものなのか、確認しておきましょう。
ディープフェイクとは、生成AIを活用して画像・動画・音声を結合し、元とは異なるデータを作成する技術です。
この言葉は、AIの深層学習である「ディープラーニング」と偽物の意味の言葉「フェイク」を組み合わせた造語になります。
これまでも画像・動画・音声の合成技術は存在していましたが、どれも素人目で見ても合成とわかるほどの低いクオリティでした。
しかし、ディープフェイクの生成物は合成と見破れる人が少なく、実際に撮影・収録したものだと本当に思ってしまうほどです。
また、ディープフェイクによって、これまで存在しなかったり現実ではあり得ないものまで表現することができます。
ディープフェイクによって、従来よりクオリティの高い合成に加え、これまでの合成ではできなかった表現までもが可能になります。
ディープフェイクがどこまで生成できるのか把握しておきましょう。
従来のCG合成は画像だと高いクオリティが出せましたが、動画の合成はどうしても合成したとすぐに看破できるものばかりでした。
そのため、動画は決定的な証拠として扱われてきました。
しかし、ディープフェイクにより人物の顔・動きまで高いクオリティでの合成が可能となったのです。
まるで本当に起きたことのように自然な動きも、CG合成で再現可能となりました。
その結果、動画の証拠としての信頼性を揺るがさんとしている現状です。
しかし、逆にディープフェイク対策の技術も進歩しているため、見破ることも容易になっていくでしょう。
音声の合成技術もこれまで存在していましたが、音声の切り貼りはどうしても編集の切れ目が生まれてしまうため、編集したと見破るのも簡単でした。
しかし、ディープフェイクによって切れ目のない自然な音声が作れるため、既存の音声を切り貼りしただけでも本当にあった会話・発言のように工作できます。
それだけでなく、元となる音声データさえあれば特定の人物の発言を創作することも可能です。
例えば、2019年の紅白歌合戦では美空ひばりさんの歌声を再現した「AI美空ひばり」が話題になりました。
このような高品質の再現技術も、ディープフェイクとして悪用できてしまいます。
これまで現実の風景、いわゆる三次元の世界を一から作り出し、違和感なく表現することは難しいとされてきました。
しかし、合成技術の発達により三次元の画像を一般人でも手軽に作り出せるようになったのです。
最近は生成AIを一般人でも手軽に使えるサービスが普及しつつあり、実在しない人物を誰もが気軽に作成可能になりました。
また、独自に作った人物像なので著作権・肖像権の問題も発生しないメリットがあります。
まだまだ合成で作成したと感じられる違和感はあるものの、それも今後の技術の進歩で解消されていくでしょう。
今後オリジナル人物モデルの作成がさらに普及していけば、写真モデルという職業にも影響が出るかもしれません。
ディープフェイクによってオリジナル人物モデルの作成だけでなく、実在する人物と瓜二つのモデルも作成が可能です。
人物の顔の特徴だけでなく表情の変化も記録しておけば、その人物のあらゆる表情が表現できます。
既に株式会社サイバーエージェントが、モデルの冨永愛さんと瓜二つのデジタルモデルを作成し、広告に起用する取り組みを進行中です。
さらに技術が進めば、一般人でも実在人物のモデルは気軽に作成できるようになるでしょう。
しかし、著作権・肖像権の問題がクリアできていないため、むやみやたらな作成はリスクが高いといえます。
ディープフェイクによる高品質の合成は、悪用されるリスクを秘めています。
既にディープフェイクの悪用による被害も生まれているため、対策は急ぐ必要があります。
リベンジポルノは、元恋人や元配偶者が公開する性的な画像・動画です。
別れた相手につのらせた恨みを晴らすため、関係があった際に撮影した性的な画像・動画を公開する狙いがあります。
しかし、対象人物の顔写真さえあれば、既存のアダルトコンテンツに顔を合成することでリベンジポルノが作成できてしまいます。
もちろんちゃんと解析すれば偽物の画像・動画とわかるのですが、事実解明までの精神的苦痛は計り知れません。
ディープフェイクによって作られたアダルトコンテンツは「フェイクポルノ」と呼ばれ、芸能人も被害の対象になっています。
ディープフェイクによって、特定人物の社会的信用を毀損させようとする人も現れるでしょう。
精細な合成技術によって、対象の人物を本当はいなかった場所にいたかのようにすることができます。
これにより、ある人物を反社会的勢力と関わりがあるように工作したり、浮気・不倫関係にあると勘違いさせることも可能です。
合成であることを明らかにするまで風評被害に悩まされるため、深刻な問題になり得ます。
ディープフェイクによって虚偽の情報を作られても、本人にはその事実がないことを当然知っています。
しかし、情報に触れる人は必ずしもそうではありません。
例えディープフェイクによって作られた嘘であっても、巧妙に作られると信じてしまう人も現れます。
そしてSNSなどで興味本位で情報を拡散してしまい、虚偽の事実が広まることになるのです。
その結果、世間からやってもないことを事実とされて責められる場合も。
バッシングによる精神的苦痛は計り知れず、追い詰められて命を断とうとする人も現れかねません。
ディープフェイクによる精神的苦痛に対するケアは急務です。
世界では、既にディープフェイクが詐欺などの犯罪で使われる事例が発生しています。
中国では、友人をかたる人物からのビデオ電話を受けて8500万円を送金するも、送金先は別の人物だったという詐欺事件が起きました。
この時ビデオ通話で使われた顔は、ディープフェイク技術を使って巧妙に偽装されたものでした。
また、アメリカでは音声のディープフェイクによるオレオレ詐欺事件が増加し、総被害額も約15億円にのぼると言われています。
また、ディープフェイクを利用して個人情報を引き出そうとするソーシャルエンジニアリングの被害も懸念されます。
こうした手口は今後日本国内にも持ち込まれる可能性が高いため、例え気心知れた相手からの連絡でもお金絡みの話には慎重に対応しましょう。
ディープフェイク被害が公になったのは、芸能人や政治家のディープフェイクが横行し始めたためです。
特に政治家に偽装した動画は世間に誤ったメッセージを広めることが懸念されます。
例えば、ウクライナのゼレンスキー大統領がウクライナの軍隊に投降を呼びかけるディープフェイク動画があります。
一見本当に本人が話しているような自然な顔の動きですが、ところどころ不自然な部分も見られます。
また、こちらのアメリカ元大統領のオバマ氏の動画もディープフェイクです。
これほどに高精度な動画を作られると、一見して偽物と見破ることは困難に思えるでしょう。
また、芸能人のフェイクポルノ問題もディープフェイクによって深刻化しています。
このような高いクオリティのディープフェイクによる被害は、有名人が受けるもので自分には関係ないと思う方もいるでしょう。
しかし、実はもうディープフェイクは一般人にも作れるようになっています。
最近では、ディープフェイクを作れるスマートフォンのアプリも公開されています。
元となる素材を取り込めば、顔の合成画像だけでなく動画も作成可能です。
こうしたディープフェイクアプリの普及はエンターテインメント的側面もあるでしょう。
しかし、犯罪に悪用される可能性が高い現状だと、悪質なCG合成を蔓延させることになりかねません。
また、一般人のディープフェイク被害を増加させる可能性も懸念されます。
ディープフェイクの作成には、もはや特別な技術や大がかりな機材などは必要ありません。
その脅威はすぐそばにまで迫っていると捉えていいでしょう。
精度の高いディープフェイクですが、見破る方法はあるのでしょうか。
現状の技術では、まだ人の目でも見破ることが可能な範囲内です。
もし目で見て見破れない場合は、AIを駆使しての判別もできます。
上記したゼレンスキー大統領のディープフェイク動画をもう一度見てみましょう。
こちらの動画では、顔の動きに対して不自然なほど体が動いていないことがわかります。
演説では身振り手振りがある程度混ざるものですが、これほど微動だにしないのは違和感を覚えます。
また、顔も同じ動きを繰り返しているように見える上に、頭部が背景から浮いているような印象も。
こういった不自然で違和感のある箇所を見分けることで、ディープフェイクかどうか見分けることが可能です。
ディープフェイクを見破るためのAI技術は、現在開発が進行中です。
東京大学の研究チームは、元素材との合成時に発生する不整合な部分を解析することで、ディープフェイクかどうか判別する技術を開発しています。
この東京大学の解析技術は、世界最高水準を獲得するほどに高精度です。
(参考:東京大学がディープフェイクの検出で世界最高性能を達成 AIでわずかな不整合を高精度に判定 | Ledge.ai)
また、ニューヨーク州立大学バッファロー校の研究チームも、瞳の光の反射からディープフェイクか見分ける方法を研究中です。
(参考:[2009.11924] Exposing GAN-generated Faces Using Inconsistent Corneal Specular Highlights)
ディープフェイクに対抗する技術も、日進月歩で発展しています。
しかし、こうした解析をかいくぐるためにディープフェイクも進化しており、いたちごっこの様相を呈しています。
もしディープフェイクによる被害を受けた場合は、当探偵事務所にまでご相談ください。
ネットリサーチ調査を行ない、ディープフェイクの発信元および作成者の特定を行ないます。
また、提携弁護士とも連携を取り、裁判になった際にも充実したバックアップを提供します。
ディープフェイクの作成は、名誉毀損の意図がある場合は名誉毀損罪に該当する立派な犯罪行為です。
せっかくの先進技術を犯罪に使用するのは、もったいないと言わざるを得ません。
ましてや、それで被害者が出ているのなら尚更素早い対処が必要だと言えます。
当探偵事務所は、先進的なサイバー犯罪にも積極的に対応いたします。
ご相談は24時間365日受け付けていますので、お気軽にご連絡ください。
近年、ディープフェイク技術を悪用した被害が急増しています。
特に、アダルトサイトでの偽動画の拡散による風評被害や、グループラインでの偽造動画を使ったいじめ、さらには変質者に仕立て上げられる偽造映像の拡散など、深刻な問題が後を絶ちません。
当相談窓口では、OSCP(Offensive Security Certified Professional)技術者を含む専門家チームが、ディープフェイクによる被害の調査から解決まで、徹底的にサポートいたします。
偽造された映像や音声の解析、拡散されたコンテンツの削除依頼、さらには法的対応まで、被害者の方が安心して日常を取り戻せるよう全力でお手伝いします。
まず、現状について相談することから始めましょう。
現在お持ちのお悩み事、被害の状況、対策依頼に関する質問や要望などのご相談が可能です。
※docomo・au・softbankなどの携帯電話アドレスはドメイン指定設定により毎月10件以上の「送信エラー」が起こっているため、フリーメール(GmailやYahoo!mail)の利用をおすすめします。しばらく経っても返信が来ない方はお電話にてご確認くださいませ。
監修者・執筆者 / 山内
1977年生まれ。趣味は筋トレで現在でも現場に出るほど負けん気が強いタイプ。得意なジャンルは、嫌がらせやストーカーの撃退や対人トラブル。監修者・執筆者一覧へ
Ranking
Copyright(C) ストーカー・嫌がらせ対策専門窓口. All Rights Reserved.
(C) ストーカー・嫌がらせ対策専門窓口