
●この記事のポイント
・生成AIを悪用した「AI着せ替え」が社会問題化。芸能人に限らず、SNSに写真を投稿するすべての人が被害者になり得る時代が到来している。法と技術の限界が露呈した。
・削除要請や法規制が追いつかない中、画像にノイズを加えてAIの学習を妨害する「技術的自衛策」が注目される。被害時の即応行動と専門窓口の活用が重要だ。
・AIの利便性の裏で、個人の尊厳が無償で消費されている現実。問題は個人防衛にとどまらず、AI企業と社会全体が「信頼のコスト」をどう負担するかにある。
2025年末以降、SNSを覗くと、ある種の「異様な光景」が日常化しつつある。X(旧Twitter)に実装された生成AI「Grok」などを悪用し、実在する女性や著名人の写真を、本人の同意なく性的に加工・拡散する行為――いわゆる「AI着せ替え」だ。
一見すると、匿名アカウントによる悪質なネットいじめ、あるいは低俗な悪ふざけに見えるかもしれない。しかし、この現象の本質は、はるかに深刻だ。たった一枚のSNS写真から、誰もが「テクノロジーによる暴力」の被害者になり得る。その現実を、私たちは突きつけられている。
しかも、被害者は芸能人やインフルエンサーに限られない。一般企業の会社員、学生、あるいは子どもを持つ親――SNS上に「顔のわかる写真」を一度でも投稿した経験がある人は、すべて潜在的な当事者だ。
この問題に、私たちはどう向き合うべきなのか。
●目次
現在、日本ではAIによる性的画像加工について、名誉毀損罪、侮辱罪、わいせつ物頒布等罪など、既存の刑法を適用した摘発が進みつつある。さらに2025年に施行された「情報流通プラットフォーム対処法」により、SNS事業者には、違法・有害情報に対する迅速な削除対応が義務づけられた。
制度上は、一歩前進したようにも見える。だが、現場では「追いついていない」という声が圧倒的に多い。
サイバーセキュリティコンサルタントの新實傑氏は、次のように指摘する。
「AI生成画像の厄介な点は、『実在の人物を基にしているが、画像自体は“創作物”だ』というグレーゾーンにあります。削除要請は通っても、加害者の特定や刑事責任の追及には高いハードルが残るケースが少なくありません」
最大の問題は、一度ネットに流出した素材は、完全には消せないという点だ。削除された画像をもとに、別のAIが新たな偽画像を生成する。コピーは無限に増殖し、被害は長期化する。
プラットフォーム側も、「表現の自由」と「利用者保護」の間で判断を迫られ、対応はどうしても後追いになりがちだ。法も、運営ルールも、生成AIの進化速度に追いつけていない――これが現実である。
では、私たちはただ被害を待つしかないのか。近年、注目を集めているのが、技術を技術で防ぐ「デジタル自衛」という考え方だ。
代表例が、画像保護ツールとして知られる「Glaze」や「Nightshade」である。
これらは、画像に人間の目ではほとんど認識できない微細なノイズを加えることで、AIの画像認識を意図的に誤作動させる技術だ。人が見ると普通の写真でも、AIには「肌と服の境界がわからない」「人体構造が破綻している」と認識され、生成結果が崩れる。