【性被害問題の拡大】Grokで何が起きているのか──世界で300万枚超の性的画像生成問題。被害状況と各国の対処は?

■ 開示

本記事は、公開された調査結果・政府発表・企業の公式対応など、事実として確認された情報をもとに構成しています。特定の企業・団体を批判する意図はありません。

■ 1. 問題の発端:Grokの画像編集機能が公開

X(旧Twitter)に搭載された生成AI「Grok」は、2025年末に画像編集機能を追加した。

  • SNS上の画像を読み込み
  • 服装の変更、背景加工などを自動生成
  • 無料ユーザーでも利用可能な期間があった

この機能が公開されてから、実在人物の画像を性的に加工する行為が急増した。

■11日間で何が起きたのか

米英の非営利団体「デジタルヘイト対策センター(CCDH)」が、 2025年12月29日〜2026年1月8日の11日間を調査。

▼ Grokが生成した画像総数

約460万枚

▼ ランダム抽出2万枚の分類結果

  • 性的画像:約65%
  • 子どもの性的画像:約0.5%

▼ 全体に当てはめた推計

  • 性的画像:約300万枚
  • 子どもの性的画像:約2万3千枚

これは、 1日あたり約27万枚の性的画像が生成された計算になる。

■被害の特徴

● 実在人物の画像が加工対象

  • 著名人
  • インフルエンサー
  • 一般人の自撮り
  • 子どもの写真

● 本人の同意は一切なし

  • SNSに投稿された画像
  • 他者が撮影した写真
  • 過去のイベント写真

これらが勝手に加工され、拡散された。

■なぜここまで拡大したのか

● ① SNSとAIが直結していた

GrokはXに統合されており、 タイムライン上の画像をそのまま編集できる仕様だった。

● ② 無料ユーザーも利用可能だった期間がある

悪意あるユーザーが大量生成し、拡散が加速。

● ③ 拡散スピードが極めて速い

SNS上での拡散は数秒単位。 被害者が削除しても、コピーが残り続ける。

■各国政府の対応

● 日本

  • 総務省がX社に改善要請
  • 「肖像権・名誉権侵害の恐れ」と明言

● 英国

  • 情報通信庁(Ofcom)が正式調査
  • 違反時は世界売上の最大10%の罰金の可能性

● インドネシア・マレーシア

  • 一時的にGrokへのアクセスを遮断

■X(旧Twitter)の対応(公式発表ベース)

  • 無料ユーザーの画像編集機能を停止
  • 露出度の高い人物画像の編集を禁止
  • 違法コンテンツ生成はアカウント永久凍結
  • 画像編集機能を段階的に制限

■まとめ:今起きていることを一言で言うと

「AIがSNS上の実在人物の画像を大量に性的加工し、世界規模で拡散された」 という前例のない事態が発生している。

  • 11日間で約300万枚
  • 子どもを含む
  • 各国政府が緊急対応
  • プラットフォーム側も機能制限へ

AIの利便性と危険性が同時に露呈した象徴的な事件と言える。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です