【警告】ChatGPTに入力NGな情報

■ ESETがガイドを公開した理由
生成AIが急速に普及し、仕事でもプライベートでも「とりあえずAIに聞く」が当たり前になりました。
しかしその便利さゆえに、ユーザーが重要情報を無意識に入力してしまうケースが増えています。
ESETはこの状況を危険視し、ChatGPT利用に伴うセキュリティとプライバシーのリスクを体系的に整理したガイドを公開しました。
AIそのものよりも、使う側の油断が最大のリスクという視点が特徴です。
■ ChatGPT利用における7つの主なリスク
1. 個人情報の漏洩
住所・氏名・電話番号などをそのまま入力してしまうケース。
2. 財務情報の流出
クレジットカード番号や口座情報を貼り付ける危険。
3. 認証情報の誤入力
パスワード、2FAコード、APIキーなど。
4. 企業機密の漏洩
顧客データ、仕様書、ソースコード、内部文書など。
5. センシティブ情報の共有
病歴、思想、家族情報など、深い個人情報。
6. 断片情報の積み重ねによる特定リスク
一つ一つは軽い情報でも、履歴に残ると特定される可能性。
7. 親しみやすさによる警戒心の低下
チャット形式ゆえに「つい何でも話してしまう」心理的な罠。
■ 絶対に入力してはいけない「レッドリスト」
● 個人を特定できる情報
氏名、住所、電話番号、メールアドレス、勤務先など。
● 金融・決済情報
クレジットカード番号、銀行口座、暗号資産の秘密鍵。
● 認証情報
パスワード、2FAコード、APIキー、VPN情報。
● 企業・組織の機密
顧客リスト、売上データ、未公開プロジェクト、契約書全文、ソースコード。
● 高度にセンシティブな個人情報
病歴、宗教、政治的信条、性的指向など。
「社外の人にそのまま送れるか?」
NOならAIにも入力しない。
■ 安全に使うための10の習慣
- 正規サイト・公式アプリのみ利用
- 強力なパスワード設定
- 多要素認証(MFA)の有効化
- 「学習に使わない」設定の確認
- 履歴を前提にしない使い方
- 入力前に匿名化・抽象化する
- チャット履歴の定期削除
- 生成内容を必ず検証する
- 社内ルールの整備
- 「AIは金庫ではない」と理解する
■ 企業・組織での注意点
企業では、個人利用と違い一人のミスが全体のリスクになるのが本質です。
- 入力禁止情報の明文化
- 社内教育の徹底
- 権限管理とログ管理
- 外部公開前のレビュー体制
- 外部パートナーにも同じ基準を適用
■ まとめ:AIは金庫ではない
ESETが伝えたい核心はこれです。
「ChatGPTは便利な相談相手だが、秘密を預ける場所ではない。」
入力する情報を選び、匿名化を徹底し、アカウントを守り、組織としてルールを持つ。
この4つを押さえるだけで、AI利用の安全性は大きく向上します。


