芸能人だけじゃない「AI着せ替え」のリスク…自衛の手段と被害に遭った際の対処法

「Nightshadeの思想は、簡単に言えば“学習データに毒を混ぜる”ことです。自分の画像をAIにとって扱いにくいものにすることで、無断利用のリスクを下げる。完全な防御ではありませんが、現時点で個人が取れる数少ない対抗手段です」(新實氏)

 もちろん、これらのツールは万能ではない。将来的にAI側が耐性を獲得する可能性もある。だが、「何もしない」よりは、はるかに現実的な選択肢である。

被害に遭ったとき、感情より先に取るべき「3つの行動」

 もし、自身や家族の画像が無断で加工・拡散された場合、怒りや恐怖を感じるのは当然だ。しかし、専門家は「最初の対応が、その後の結果を大きく左右する」と口を揃える。

(1)証拠の保全
スクリーンショット、URL、投稿日時、アカウントIDを保存する。削除後では取得できない情報が、法的手続きの要となる。

(2)プラットフォームへの通報・削除要請
「AI生成による、同意のない性的画像である」ことを明確に記載する。改正法により、事業者は迅速な対応を求められている。

(3)専門窓口への相談
 警察:サイバー犯罪相談窓口
 弁護士:発信者情報開示請求や損害賠償請求を視野に
 セーファーインターネット協会(SIA):削除支援や助言
「泣き寝入り」を選ばないことが、同様の被害を減らすことにもつながる。

企業と社会への問い:「信頼のコスト」を誰が負担するのか

 最後に、この問題を個人の自衛努力だけに押し付けてよいのかという、より大きな問いが残る。

 生成AIは、ビジネスにおいて生産性を飛躍的に高める武器となった。だが、その裏側で、個人の尊厳や人格が無償で消費されているとすれば、それは健全なイノベーションとは言えない。

「『偽物だから問題ない』という発想は、極めて危険です。AIが生成した画像であっても、被害者の社会的評価や心理的ダメージは現実のものです。プラットフォームやAI開発企業は、その“外部不経済”を誰が負担しているのか、正面から向き合う必要があります」(同)

「AIで他人の身体を消費する」ことが、なぜこれほど容易に許容されてしまったのか。その背景には、テクノロジーの進歩に、私たちの倫理的想像力が追いついていない現実がある。

 この問題は、決して一部の芸能人だけの話ではない。今日、私たちが何気なく投稿する一枚の写真が、数カ月後の自分、あるいは大切な誰かを傷つける「素材」にならない保証はない。

 いま必要なのは、技術規制だけではない。テクノロジーの「使い道」に対する、社会全体の強固な合意である。それを怠れば、デジタル社会の基盤である「信頼」そのものが、静かに、しかし確実に崩れていくことになるだろう。

(文=BUSINESS JOURNAL編集部)