エプスタイン文書が公開されるたびに、SNSのタイムラインが「衝撃画像」で埋め尽くされる光景、もう見慣れてしまった方も多いかもしれません。

「あの有名人がエプスタインと一緒に写ってる!」という投稿を目にして、思わずリポストしたくなる気持ち、正直わかります。

ただ、ここで一つ立ち止まってほしいのです。

その画像、本当に本物ですか?

2026年に入ってから、エプスタイン関連のAI生成偽画像が爆発的に増えています。

しかも、もはや素人目には本物と見分けがつかないレベルのものがゴロゴロ転がっている。

たとえば、ニューヨーク市議のゾラン・マムダニ氏の幼少期写真がエプスタインと合成され、2100万回以上閲覧されるという騒動まで起きました。

つまり、AIの爆発的な進化が事件の真相を追う人々にとって厄介な「ノイズ」を生み出しているわけです。

この記事では、なぜ偽画像がここまで急増したのか、どうやって見分ければいいのか、そしてうっかり拡散してしまった場合にどんなリスクがあるのかについて、できるだけわかりやすく解説していきたいと思います。

エプスタイン文書の公開でAI偽画像が急増した背景

2026年1月30日、アメリカ司法省が「エプスタイン・ファイル透明性法」に基づいて、300万ページ以上の文書を追加公開しました。

メール、写真、動画を含む膨大な資料で、世界中のメディアが一斉に報じたのは記憶に新しいところです。

ところが、この公開と同時に、まったく別の問題が浮上してきました。

SNS上にエプスタインと著名人が一緒に写った「衝撃画像」が次から次へと投稿され始めたのです。

トランプ大統領、ネタニヤフ首相、マクロン大統領――名前を挙げればキリがないほど、世界のトップリーダーたちとエプスタインの「ツーショット」が出回りました。

しかし、その中にはAIによって生成された偽物も少なからず含まれていたのです。

なぜこれほど偽画像が急増したのか、理由はシンプルです。

公開文書の中には本物の著名人写真が大量に含まれていて、それが「素材」として悪用されたから。

本物の写真をベースにAIで加工すれば、説得力のある偽画像は驚くほど簡単に作れてしまいます。

とりわけ注目を集めたのが、イーロン・マスク率いるxAI社が開発した「Grok」の画像生成機能の存在です。

ニュースの信頼性を調査するNewsGuardの2026年2月の報告によると、このツールを使えば数秒でエプスタインと著名人の「本物っぽい」合成写真が生成できてしまう。

特別な技術も知識も不要で、誰でもスマホ一つで作れてしまうという現実は、正直、恐ろしいの一言ではないでしょうか。

象徴的だったのが、冒頭でもお伝えしたニューヨーク市議のゾラン・マムダニ氏の事例でしょう。

幼少期のマムダニ氏が、母親で映画監督のミラ・ナイールとともにエプスタインと並んでいる写真がSNSで拡散され、2100万回以上も閲覧されました。

ところがGoogleが独自に開発したAI検出技術「SynthID」で調べたところ、AI生成であることが確認されたのです。

つまり、最初から存在しない「記憶」が、AIによって作り出されていた。

これは本当にゾッとする話です。

 

この手の偽画像は、右翼系アカウントやQAnon系の陰謀論コミュニティを中心に拡散されるパターンが目立ちます。

エプスタイン事件という「本物の闇」があるからこそ、偽物が紛れ込んでも「ありそうだな」と思わせてしまう。

本物の事件の持つ重みに、偽情報が便乗している形です。

アメリカ司法省自身も公開文書について「偽の画像や一般からの投稿が混在している可能性がある」と警告を出しています。

つまり、公式に公開された資料の中にすら、真偽の怪しいものが含まれている可能性があるということ。

BBCやEuronews(ユーロニュース)といった海外メディアも、この状況を「偽情報の波」と表現し、強い危機感を示しています。

QAnonは2017年に匿名掲示板4chanから始まったアメリカの極右陰謀論運動で、匿名投稿者「Q」がトランプ大統領が悪◯崇拝者・小◯◯愛者・人身◯買を行う秘密結社(ディープステート)と戦っていると主張。

信者はこれを信じ、トランプを救世主のように崇拝しますが、事実無根でFBIがテロ脅威とみなしています。日本ではJアノンと呼ばれる派生も存在。

 

ちなみに、このAI偽画像の問題はエプスタイン事件に限った話ではありません。

2026年1月以降、AIで生成されたいじめ動画も急増しており(Xでも非常に多いので要注意!)、イギリスでは同意のないディープフェイク画像の作成・拡散が違法化されました。

学校やSNSで、実在の人物の顔を勝手に合成した動画が出回り、精神的な被害が深刻化しているのです。

エプスタイン関連の偽画像と根っこは同じで、AIが生み出す「嘘の映像」が社会全体を蝕み始めている。

便利な技術が、使い方次第でここまで凶器になるのかと、改めて思い知らされます。

エプスタイン偽画像の裏にいる「インプ稼ぎ」アカウントの存在

ここまで読んで「でも、わざわざ偽画像を作って何の得があるの?」と思った方もいるかもしれません。

実は、エプスタイン関連の偽画像を大量にばらまいている人たちの多くには、はっきりとした「金銭的な動機」がある可能性が指摘されています。

その正体が、いわゆる「インプ稼ぎ」と呼ばれるアカウント群です。

X(旧Twitter)には2023年から導入された収益化の仕組みがあり、プレミアム会員の投稿は表示回数(インプレッション)に応じて広告収益の一部が分配されます。

要するに、バズればバズるほどお金が入ってくるシステム。

そうなると当然、人の注目を集めやすい「センセーショナルなネタ」を投稿するインセンティブが生まれます。

エプスタイン事件の偽画像は、まさにその格好の餌食になっているわけです。

「トランプとエプスタインの未公開ツーショット!」「あの大物セレブが島にいた証拠写真!」――こんなキャプションがつけば、真偽を確かめる前に思わずタップしてしまう人は少なくないでしょう。

クリックした時点で投稿者のインプレッションはカウントされ、それが収益につながる。

つまり、あなたが偽画像を見た瞬間に、作った側の「お小遣い」が発生している可能性があるのです。

正直、なんとも言えない気持ちになるんですが、すべてがフェイクというわけではないのがもどかしいところです。

 

実際、2025年8月の調査会社Aletheaの報告では、数百ものアカウントがAIを使ってエプスタイン関連の偽画像を自動投稿し、組織的にインプレッションを稼いでいた実態も明らかになりました。

いわゆる「ボットネットワーク」と呼ばれるもので、人間ではなくプログラムが自動的に投稿・リポストを繰り返す仕組みです。

厄介なのは、こうしたアカウントが「真実を暴く」「メディアが報じない事実」といった正義感をまとった言葉で投稿していること。

本当に真相を追いたい人たちの気持ちを利用して、お金を稼いでいるわけです。

陰謀論コミュニティが盛り上がれば盛り上がるほど、いじめやバイトテロの炎上が盛り上がれば盛り上がるほど、刺激的な画像のインプレッションは跳ね上がり、投稿者の懐が潤うという構造が生まれてしまっているのです。

もちろん、すべてのアカウントがインプ稼ぎ目的だと断定するつもりはありません。

純粋に情報共有を目的としている人もいるでしょう。

ただ、フォロワーが少ないのに妙にバズっている投稿や、同じアカウントが短時間に大量のエプスタイン関連画像を連投しているような場合は、一歩引いて見た方がいいかもしれません。

「この投稿、誰が何の目的で流しているんだろう」という視点を持つだけで、偽情報に巻き込まれるリスクはグッと下がるはずです。

エプスタイン文書のAI偽画像を見分けるポイント

「じゃあ、どうやって見分ければいいの?」と思った方も多いでしょう。

実は、AI画像にはまだ人間の目で見抜ける「クセ」がいくつか残っています。

完璧に見分けるのは専門家でも難しくなりつつありますが、以下の5つのチェックポイントを知っておくだけで、かなりの確率で怪しい画像を見抜けるようになるはずです。

BBCやイギリスのファクトチェック機関「Full Fact」も、複数の方法を組み合わせることを推奨しています。

①指の数や手足の関節の不自然な形

AIが最も苦手としているのが「手」の描写です。

指が6本あったり、関節がありえない方向に曲がっていたり、隣の人の手と溶け合うように融合していたりする。

人間の手は非常に複雑な構造をしていて、AIにとってはまだ完全に再現しきれない領域なのです(とはいえ、最近のAIはこの苦手分野も克服しつつあるので要注意)。

実際にマムダニ氏の偽画像でも、腕の位置や手の形に不自然な点が確認されました。

パッと見では気づきにくいかもしれませんが、指の本数を一本一本数えてみるだけで「あれ、おかしいぞ」と気づけるケースは意外と多い。

スマホの画面をピンチアウト(指で広げて拡大)して、手元をじっくり観察する習慣をつけておくといいかもしれません。

 

②背景のぼやけや影の方向の矛盾

AIは人物の描写にリソースを集中させるため、背景の処理が雑になる傾向があります。

建物の線がぐにゃっと歪んでいたり、背景の一部だけ異常にぼやけていたりする。

特に注意したいのが「影の方向」で、光源と影の位置が物理的に矛盾しているケースが頻繁に見られます。

エプスタイン島関連の偽画像では、海や建物の影の向きがバラバラになっている例がいくつも報告されています。

たとえば、人物の影が右に伸びているのに、背景の木の影が左を向いている、なんていう状態。

現実世界では太陽は一つしかないので、影の方向が統一されていなければ、それは限りなく怪しいと判断できるでしょう。

③AI特有のツルツルした肌の質感

AI生成画像の人物は、肌がまるでプラスチックのようにツルツルしていることが多い。

毛穴もシワもなく、フィルターをかけまくった加工写真のような「完璧すぎる」仕上がりになるのです。

人間の顔は本来、左右非対称で、小さなシミやホクロ、産毛があるのが自然な姿。

エプスタイン関連の偽画像でも、著名人の顔が妙に若々しく、ツヤツヤに加工されている例が多く見られました。

70代の政治家の肌がモデルのように滑らかだったら、それはちょっと立ち止まって考えるべきサインです。

髪の毛の生え際や耳の形など、細部に目を向けると違和感に気づきやすくなります。

 

④Google Gemini等の検出ツールの活用

目視だけでは不安という場合は、AI検出ツールの力を借りるのも一つの手です。

Googleの対話型AI「Gemini(ジェミニ)」のアプリに画像をアップロードして「これはAI生成ですか?」と聞くだけで判定してくれる機能があります。

Googleが開発した「SynthID」という目に見えない電子透かし技術を検出できるため、GoogleのAIで生成された画像であれば高い精度で見抜けるのです。

マムダニ氏の偽画像も、このSynthIDによってAI生成であることが特定されました。

他にも「Hive Moderation」やフランスの通信社AFPが開発した「InVID-WeVerify」といった無料ツールがあり、これらを組み合わせて使うことで精度がさらに上がります。

ただし、すべてのAIツールで生成された画像を検出できるわけではないので、過信は禁物。

あくまで「判断材料の一つ」として活用するのが賢い使い方でしょう。

 

⑤リバース画像検索による元ネタ確認

最後に紹介するのが、リバース画像検索という方法です。

これはGoogle画像検索やTinEye(ティンアイ)というサービスに画像をアップロードすると、同じ画像や似た画像がネット上のどこに存在するかを調べてくれる仕組みのこと。

AI生成画像の場合、元になった画像が見つからない、つまり「出どころ不明」になるケースが非常に多いのです。

エプスタイン関連の偽画像でも、リバース検索をかけた結果、アメリカ司法省の公式文書に該当する画像が存在しないことが判明した事例がいくつもあります。

逆に言えば、公式の文書アーカイブと照合して一致しない画像は、かなりの確率で加工か生成かのどちらかだと考えてよいでしょう。

X上で疑わしい画像や動画があったら、Grokに直接尋ねてみるのも有効です)

気になる画像を見つけたら、拡散する前にこの一手間をかけておくと安心です。

偽のエプスタイン画像を拡散した際のリスク

「別に自分が作ったわけじゃないし、リポストしただけだから大丈夫でしょ」。

そう思っている方がいたら、少し考え直した方がいいかもしれません。

偽画像の拡散には、想像以上に重い代償がついてくる可能性があります。

まず、名誉毀損のリスクです。

AIで生成された偽画像をシェアして、それが特定の人物の名誉を傷つけた場合、「知らなかった」では法的に免責されないケースが出てきています。

セキュリティ企業や法律専門メディアの分析によると、悪意がなくても、被害者の権利を侵害したとして損害賠償を請求される可能性があるとのこと。

イギリスでは同意のないディープフェイク画像の作成・拡散がすでに違法化されており、罰金や実刑のリスクも現実のものとなっています。

 

先ほど触れたマムダニ氏の件は、まさにその典型例と言えるでしょう。

幼少期のマムダニ氏がエプスタインと一緒に写っている偽画像が右翼系アカウントから拡散され、2100万回以上閲覧される事態に発展しました。

マムダニ氏は記者会見で「信じられないほどつらい」と訴え、AI規制の強化を求めています。

陰謀論者として知られるアレックス・ジョーンズのようなインフルエンサーがこれを広め、政治的な攻撃ツールとして利用された構図です。

 

同様の被害はイギリスのナイジェル・ファラージ氏にも及んでおり、エプスタインとの偽合成画像が出回って政治的な混乱を招きました。

NewsGuardやForbes(フォーブス)の調査では、こうした偽画像が選挙や社会全体の信頼に直接ダメージを与える可能性が高いと指摘されています。

QAnon系のコミュニティがこれを燃料にして陰謀論を加速させるパターンも確認されており、一枚の偽画像がドミノ倒しのように社会全体の不信感を広げていく。

これは決して大げさな話ではありません。

アメリカ司法省も偽画像に対して正式に警告を発しており、拡散行為が犯罪捜査の妨害に当たる可能性にも言及しています。

エプスタイン事件の真相解明を求める声は当然のものですが、偽情報を広めることは、むしろ真実を遠ざける行為になりかねません。

被害者の声を覆い隠し、本来追及すべき問題から世間の目をそらしてしまうリスクもあるのです。

では、私たちは何を信じればいいのか。

基本的なルールは一つで、アメリカ司法省の公式サイトや信頼できるメディア以外の画像は、まず疑ってかかるということに尽きます。

Snopes(スノープス)やPolitiFact(ポリティファクト)といった海外のファクトチェックサイトを活用するのも有効な手段です。

SNSで流れてくる「衝撃画像」に飛びつきたくなる気持ちはわかりますが、リポストボタンを押す前に3秒だけ立ち止まる。

その3秒が、誰かの名誉を守り、自分自身の法的リスクを回避する時間になるかもしれません。

 

AIの進化は止まりませんし、偽画像の精度は今後さらに上がっていくでしょう。

だからこそ、「見た目がリアル=本物」という思い込みを捨てることが、これからの情報社会を生きるうえで欠かせないスキルになっていくのだと感じます。

エプスタイン事件の真実を追い求めること自体は大切なことですが、その過程で偽情報に踊らされてしまっては元も子もありません。

冷静な目と、ほんの少しの手間が、情報の海で溺れないための浮き輪になってくれるはずです。

エプスタイン事件の内容を超わかりやすく解説
【闇深】エプスタイン事件の内容を超簡単にわかりやすく解説!2026年に入り、世界中のニュースを騒がせている「エプスタイン事件」。 名前は聞いたことがあるけど、正直よくわからない、そんな方も多い...