著者: 野原琉海(株式会社ラズリ代表)
AIを業務に使う会社が増えている。ChatGPTにメールの下書きを作らせたり、議事録をまとめさせたり。便利だ。
でも、1つだけ知っておいてほしいことがある。
AIに入力した情報は、場合によってはAIの学習データに使われる。
つまり、社内の機密情報をAIに貼り付けると、その情報がAIの学習に取り込まれる可能性がある。
実際に起きた事故
2023年、韓国のSamsung(サムスン)で事件が起きた。
エンジニアがChatGPTにソースコードを貼り付けてレビューを頼んだ。別の社員が社内会議の録音データを貼り付けて議事録を作らせた。
これらの情報がChatGPTの学習データに取り込まれた可能性があるとして、Samsungは全社的にChatGPTの使用を禁止した。
AmazonやJPモルガンなどの大企業も、同様のリスクから社内でのChatGPT利用を制限している。イタリアでは個人データ保護の観点から、ChatGPTの国内利用を一時的に禁止したこともある。
これは大企業だけの話ではない。中小企業でも同じリスクがある。
何が危ないのか、具体的に
AIに入力してはいけない情報
- 顧客の個人情報: 名前、住所、電話番号、メールアドレス
- 取引先の機密情報: 契約内容、価格、取引条件
- 社内の財務情報: 売上、利益、給与データ
- ソースコード: 自社システムのプログラム
- 未公開の事業計画: 新製品、M&A、人事情報
「ちょっとメールの文章を直してもらおう」と思って、取引先の名前や金額が入ったメールをそのままAIに貼り付ける。これだけで情報漏洩のリスクになる。
なぜ危ないのか
無料版のChatGPTやGeminiは、デフォルトでユーザーの入力をAIの学習に使う設定になっている。つまり、入力した情報がAIのモデルに取り込まれ、他のユーザーへの回答に影響する可能性がある。
直接的に「あなたが入力した文章がそのまま他の人に表示される」わけではないが、学習データに含まれること自体がリスクだ。
サービスごとのデータの扱い
全てのAIサービスが同じではない。データの扱いはサービスやプランによって違う。
| サービス | 学習に使われるか |
|---|---|
| ChatGPT 無料版・Plus | デフォルトで使われる(設定でオフにできる) |
| ChatGPT API・Enterprise | 使われない |
| Claude API | 使われない |
| Google Gemini 無料版 | 使われる場合がある |
| Google Workspace版 Gemini | 使われない |
つまり、業務で使うなら「学習に使われないプラン」を選ぶか、設定でオフにする必要がある。
中小企業が最低限やるべきこと
大企業のように専門のセキュリティチームを持つ必要はない。でも、最低限これだけはやっておいた方がいい。
1. 「AIに入れてはいけない情報」を決める
社員に「AIは使っていいけど、こういう情報は入力しないでね」と伝える。
- 顧客の個人情報は入れない
- 取引先の名前や金額は伏せる
- 社内の財務データは入れない
ルールはシンプルでいい。「固有名詞と数字は入れない」くらいでも、かなりのリスクを減らせる。
2. 学習に使われない設定にする
ChatGPTなら、設定画面から「チャット履歴とトレーニング」をオフにできる。これだけで入力データが学習に使われなくなる。
業務で日常的に使うなら、API版やEnterprise版を検討する方が安全だ。
3. 社員に教育する
「AIは便利だけど、入力した情報は外部に出る可能性がある」ということを社員に伝える。
難しい研修は要らない。「AIに会社の秘密を教えちゃダメだよ」。これだけ伝えるだけでも全然違う。
AIを使うなとは言わない
誤解しないでほしいのは、「だからAIを使うな」という話ではないことだ。
AIは便利だ。業務を効率化できる。使わない方がもったいない。
ただ、便利だからといって何でもかんでも入力していいわけではない。「何を入れていいか、何を入れてはいけないか」を知った上で使う。それだけの話だ。
まとめ
- AIに入力した情報は、サービスによっては学習データに使われる
- Samsungでは社員がソースコードを貼り付けて全社利用禁止になった
- 顧客情報、取引先の機密、財務データはAIに入力しない
- 業務で使うなら学習に使われないプラン・設定を選ぶ
- 社員に「AIに会社の秘密を教えちゃダメ」と伝えるだけでも効果がある