【性被害問題の拡大】Grokで何が起きているのか──世界で300万枚超の性的画像生成問題。被害状況と各国の対処は?
■ 開示
本記事は、公開された調査結果・政府発表・企業の公式対応など、事実として確認された情報をもとに構成しています。特定の企業・団体を批判する意図はありません。
■ 1. 問題の発端:Grokの画像編集機能が公開
X(旧Twitter)に搭載された生成AI「Grok」は、2025年末に画像編集機能を追加した。
- SNS上の画像を読み込み
- 服装の変更、背景加工などを自動生成
- 無料ユーザーでも利用可能な期間があった
この機能が公開されてから、実在人物の画像を性的に加工する行為が急増した。
■11日間で何が起きたのか
米英の非営利団体「デジタルヘイト対策センター(CCDH)」が、 2025年12月29日〜2026年1月8日の11日間を調査。
▼ Grokが生成した画像総数
約460万枚
▼ ランダム抽出2万枚の分類結果
- 性的画像:約65%
- 子どもの性的画像:約0.5%
▼ 全体に当てはめた推計
- 性的画像:約300万枚
- 子どもの性的画像:約2万3千枚
これは、 1日あたり約27万枚の性的画像が生成された計算になる。
■被害の特徴
● 実在人物の画像が加工対象
- 著名人
- インフルエンサー
- 一般人の自撮り
- 子どもの写真
● 本人の同意は一切なし
- SNSに投稿された画像
- 他者が撮影した写真
- 過去のイベント写真
これらが勝手に加工され、拡散された。
■なぜここまで拡大したのか
● ① SNSとAIが直結していた
GrokはXに統合されており、 タイムライン上の画像をそのまま編集できる仕様だった。
● ② 無料ユーザーも利用可能だった期間がある
悪意あるユーザーが大量生成し、拡散が加速。
● ③ 拡散スピードが極めて速い
SNS上での拡散は数秒単位。 被害者が削除しても、コピーが残り続ける。
■各国政府の対応
● 日本
- 総務省がX社に改善要請
- 「肖像権・名誉権侵害の恐れ」と明言
● 英国
- 情報通信庁(Ofcom)が正式調査
- 違反時は世界売上の最大10%の罰金の可能性
● インドネシア・マレーシア
- 一時的にGrokへのアクセスを遮断
■X(旧Twitter)の対応(公式発表ベース)
- 無料ユーザーの画像編集機能を停止
- 露出度の高い人物画像の編集を禁止
- 違法コンテンツ生成はアカウント永久凍結
- 画像編集機能を段階的に制限
■まとめ:今起きていることを一言で言うと
「AIがSNS上の実在人物の画像を大量に性的加工し、世界規模で拡散された」 という前例のない事態が発生している。
- 11日間で約300万枚
- 子どもを含む
- 各国政府が緊急対応
- プラットフォーム側も機能制限へ
AIの利便性と危険性が同時に露呈した象徴的な事件と言える。


