Maat ScanMaat Scan

解説

ディープフェイクとは何か:その仕組みと重要性

Maat Scan · 2026年4月7日

2024年初頭、香港の多国籍企業に勤める経理担当者が、 CFOや同僚らしき人物が映るビデオ通話を受けた後、 2500万ドルを送金させられました。1画面に映っていた全員が、リアルタイムで生成されたディープフェイクでした。 この事件は世界のセキュリティ担当者の間で語り継がれる事例となりましたが、 終わりではありませんでした。2025年第2四半期だけで、 ディープフェイク詐欺の被害総額は世界全体で3億4700万ドルに達しています。2

ディープフェイクとは

「ディープラーニング」と「フェイク(偽物)」を組み合わせた造語です。 ディープフェイクとは、動画・音声・静止画を問わず、 AIを使って実在する人物の顔、声、または体を作り変えたり置き換えたりしたメディアを指します。 動画内のフェイスチェンジ、合成音声によるボイスクローニング、 MidjourneyやStable Diffusionなどのモデルがテキストプロンプトだけから生成した画像も含まれます。

すべてのディープフェイクが欺くために作られているわけではありません。 映画での俳優の若返り表現、発話障がいを持つ人の声の復元、 コメディアプリなど、同じ技術が有益な目的にも使われています。 問題となるのは、本人の同意がなく、かつ誤認させるほどリアルなケースに限られます。

どのように作られるのか

2017年頃に登場した初期のシステムは、 フェイスチェンジモデルを訓練するために数百枚の元画像と数日分の計算処理が必要でした。 現代のシステムは仕組みが変わっています。 拡散モデルや大規模基盤モデルを使えば、参照写真1枚から コンシューマー向けのクラウドサービスで数秒以内に顔を生成・置換できます。

静止画の場合、主に3つの手法があります。 1つ目はテキストプロンプトから顔を生成して体に合成する方法。 2つ目はインペインティングを使い、本物の写真の顔部分だけをAIで置き換えながら 背景はそのまま残す方法。 3つ目はある人物の顔の形状を別の人物にマッピングするフェイスチェンジアルゴリズムです。 手法ごとに残るアーティファクトの特徴が異なるため、 検出システムは単一の分類器ではなく複数のシグナルを独立して評価します。

被害の実態

最も多い悪用は、もっとも語られにくいものです。 非同意性的画像(NCII)の作成がそれです。 研究によると、オンラインに流通するディープフェイクコンテンツの96〜98%がNCIIであり、 被害者の約99%が女性とされています。32022年のUNICEF・ECPAT・インターポールの共同報告書では、 東南アジアだけで120万人の子どもが同意なく画像を加工・拡散されたと推計されています。4被害者への心理的影響は深刻で、多数の事例が記録されています。

政治的な偽情報はメディアでより多く取り上げられます。 政治家のフェイク動画が拡散し、デマと判明した後も不信感の残滓が残り続けます。 研究者はこれを「嘘つきの配当」と呼んでいます。 どんな映像も偽物かもしれないという認識が広まると、 本物の証拠まで否定しやすくなるのです。

金融詐欺の被害は最も速いペースで拡大しています。 Fortuneは2025年12月、ボイスクローニング技術が 制御された試験条件で本物の声と区別できなくなったと報告しました。52025年上半期には、ディープフェイク詐欺による企業被害が6ヶ月で5億ドルを超えています。2

法的な対応

米国では2025年5月に「TAKE IT DOWN Act」が署名され、 プラットフォームは被害者の申告から48時間以内に 非同意のディープフェイク性的画像を削除する義務を負うことになりました。6選挙干渉目的のディープフェイクを規制する州法もいくつか成立しています。 EU AI法は、実在の人物を描写するAI生成コンテンツに開示義務を定めています。

日本では肖像権が民事上の救済手段となり得ます。 ストーカー行為等規制法の改正も、一部の非同意ディープフェイク配布に 適用されると解釈されています。 専用のディープフェイク規制法については、2026年時点でも議論が続いています。

私たちにできること

個人として:公人が驚くような状況で映っている画像や動画を見たら、 拡散する前に一度立ち止まりましょう。 怪しいと感じたら検出ツールで最初のフィルタリングをかけてください。 逆画像検索で他のコンテキストに出ていないか調べ、 信頼できるメディアが報じているかどうかも確認するといいでしょう。

組織として:メディアファイルに暗号化された証明を埋め込むC2PA仕様などの コンテンツ来歴標準を導入してください。 ユーザーがアップロードするコンテンツの検出パイプラインも構築すべきです。 非同意ディープフェイクの被害者向けに明確な通報窓口を設けることも大切です。

出典

  1. CNN, "Hong Kong employee tricked into paying out $25M in deepfake video call," CNN, 2024年2月4日。
  2. Deepstrike, "Deepfake Fraud Statistics 2025," Deepstrike.io, 2025年。
  3. Keepnetlabs, "Deepfake Statistics: The Numbers Behind a Growing Threat," Keepnetlabs.com, 2025年。
  4. UNICEF / ECPAT / Interpol, "Disrupting Harm in Southeast Asia," UNICEF, 2022年。
  5. Fortune, "Voice cloning has crossed an unsettling new threshold," Fortune, 2025年12月。
  6. Bright Defense, "What the TAKE IT DOWN Act Means for Online Platforms," Brightdefense.com, 2025年5月。