女子大学生の顔写真を無断でヌード写真と合成し、チャットルームで共有するという性犯罪事件が韓国で話題になっています。
この事件で作成されたヌード写真は、単なる合成写真ではなく、AI(人工知能)を悪用した、所謂ディープフェイクによるものでした。
AI技術が進化している今、自分の知らないところで勝手に自分の偽写真や偽動画を作られてしまうリスクが高まっています。
ディープフェイク被害から身を守るにはどうすれば良いのか?探偵の視点から解説します。
事件の概要、そしてディープフェイクの恐ろしさについて。探偵で犯人を突きとめることは可能か?
韓国では、女子大学生の顔をヌード写真に合成した「ディープフェイク」画像が学生のグループチャットで共有されているとの報告を受け、警察が仁荷大学での事件の捜査を開始した。2020年から運営されているこのチャットルームには1,200人が参加しており、被害者の多くは仁荷大学の学生と見られている。
20日、MBCなどのメディアは、仁川警察庁サイバー犯罪捜査隊がテレグラムのグループチャット運営者であるAなどを性暴力犯罪処罰特別法違反の疑いで捜査中であると報道した。
2020年初め、彼らはテレグラムのグループチャットで、女性被害者の顔をヌード写真に合成させたディープフェイク画像を共有していたとされている。
報道によると、チャットルームでは被害者の連絡先や学生証番号などの個人情報が本人の同意なく流布されていたという。さらに、被害者の声を操作して「奴隷」や「主人」などの不適切な言葉を発するディープフェイク音声ファイルも共有されていた。これまでに30人以上の女性被害者が特定されており、その大部分は仁荷大学の在校生か卒業生である。
引用:悪質なディープフェイク犯罪…1200人が女子大学生の顔をヌード写真に合成し共有した驚愕の事件|江南タイムズ|https://www.kangnamtimes.com/ja/report/article/456043/
ディープフェイク(Deepfake)とは、AI技術を使用して作成された偽の映像や音声、画像のことを指します。
特にディープラーニングという機械学習技術を用いて、人の顔や声をリアルに再現し、実際には言ったり行ったりしていないことを、あたかも本当にその人がしているかのように見せかけるものです。
ディープフェイク技術は、エンターテインメントなどで有益に使われることもありますが、誤情報の拡散や詐欺、名誉毀損など、悪意ある目的に利用されるケースも多発しています。
女子大学生の顔をヌード写真に合成したディープフェイク被害は、被害者にとって極めて深刻な問題です。
精神的なダメージだけでなく、社会的信用やプライバシーの侵害、将来的な影響も考慮する必要があります。
探偵としては、以下の点に重点を置いて対応します。
ディープフェイク画像がインターネット上に拡散されると、被害が急速に拡大する可能性があります。
そのため、被害の早期発見と、拡散元を特定するための証拠収集が最優先です。
ディープフェイクを作成・拡散した人物を特定することが重要です。
探偵は、SNSやインターネット上の動きを追跡し、拡散元や関与した人物を突き止めるための調査を行います。
場合によっては、サイバーセキュリティの専門家と連携し、IPアドレスの追跡や匿名アカウントの身元特定に取り組みます。
ディープフェイクは非常に精巧な場合が多いため、専門的なフォレンジックソフトウェアを使用して、画像や動画の不自然な編集痕を検出します。
例えば、顔の不自然な動きや照明の不一致、圧縮アーティファクトなどの異常を分析します。
画像や動画ファイルには、作成日時や使用されたカメラの情報などが含まれるメタデータが付与されています。
このメタデータを解析することで、画像が編集されたかどうかを確認する手がかりになります。
「ディープフェイク被害に遇った」「自分の写真や動画が悪用されているかもしれない」など、ご不安がある方は当事務所の無料相談窓口までお問い合わせください。
監修者・執筆者 / 山内
1977年生まれ。趣味は筋トレで現在でも現場に出るほど負けん気が強いタイプ。得意なジャンルは、嫌がらせやストーカーの撃退や対人トラブル。監修者・執筆者一覧へ
Ranking
Copyright(C) ストーカー・嫌がらせ対策専門窓口. All Rights Reserved.
(C) ストーカー・嫌がらせ対策専門窓口