本音コラム

AIを業務で使う前に知っておくべきセキュリティの話

著者: 野原琉海(株式会社ラズリ代表)

AIを業務に使う会社が増えている。ChatGPTにメールの下書きを作らせたり、議事録をまとめさせたり。便利だ。

でも、1つだけ知っておいてほしいことがある。

AIに入力した情報は、場合によってはAIの学習データに使われる。

つまり、社内の機密情報をAIに貼り付けると、その情報がAIの学習に取り込まれる可能性がある。

実際に起きた事故

2023年、韓国のSamsung(サムスン)で事件が起きた。

エンジニアがChatGPTにソースコードを貼り付けてレビューを頼んだ。別の社員が社内会議の録音データを貼り付けて議事録を作らせた。

これらの情報がChatGPTの学習データに取り込まれた可能性があるとして、Samsungは全社的にChatGPTの使用を禁止した。

AmazonやJPモルガンなどの大企業も、同様のリスクから社内でのChatGPT利用を制限している。イタリアでは個人データ保護の観点から、ChatGPTの国内利用を一時的に禁止したこともある。

これは大企業だけの話ではない。中小企業でも同じリスクがある。

何が危ないのか、具体的に

AIに入力してはいけない情報

  • 顧客の個人情報: 名前、住所、電話番号、メールアドレス
  • 取引先の機密情報: 契約内容、価格、取引条件
  • 社内の財務情報: 売上、利益、給与データ
  • ソースコード: 自社システムのプログラム
  • 未公開の事業計画: 新製品、M&A、人事情報

「ちょっとメールの文章を直してもらおう」と思って、取引先の名前や金額が入ったメールをそのままAIに貼り付ける。これだけで情報漏洩のリスクになる。

なぜ危ないのか

無料版のChatGPTやGeminiは、デフォルトでユーザーの入力をAIの学習に使う設定になっている。つまり、入力した情報がAIのモデルに取り込まれ、他のユーザーへの回答に影響する可能性がある。

直接的に「あなたが入力した文章がそのまま他の人に表示される」わけではないが、学習データに含まれること自体がリスクだ。

サービスごとのデータの扱い

全てのAIサービスが同じではない。データの扱いはサービスやプランによって違う。

サービス 学習に使われるか
ChatGPT 無料版・Plus デフォルトで使われる(設定でオフにできる)
ChatGPT API・Enterprise 使われない
Claude API 使われない
Google Gemini 無料版 使われる場合がある
Google Workspace版 Gemini 使われない

つまり、業務で使うなら「学習に使われないプラン」を選ぶか、設定でオフにする必要がある。

中小企業が最低限やるべきこと

大企業のように専門のセキュリティチームを持つ必要はない。でも、最低限これだけはやっておいた方がいい。

1. 「AIに入れてはいけない情報」を決める

社員に「AIは使っていいけど、こういう情報は入力しないでね」と伝える。

  • 顧客の個人情報は入れない
  • 取引先の名前や金額は伏せる
  • 社内の財務データは入れない

ルールはシンプルでいい。「固有名詞と数字は入れない」くらいでも、かなりのリスクを減らせる。

2. 学習に使われない設定にする

ChatGPTなら、設定画面から「チャット履歴とトレーニング」をオフにできる。これだけで入力データが学習に使われなくなる。

業務で日常的に使うなら、API版やEnterprise版を検討する方が安全だ。

3. 社員に教育する

「AIは便利だけど、入力した情報は外部に出る可能性がある」ということを社員に伝える。

難しい研修は要らない。「AIに会社の秘密を教えちゃダメだよ」。これだけ伝えるだけでも全然違う。

AIを使うなとは言わない

誤解しないでほしいのは、「だからAIを使うな」という話ではないことだ。

AIは便利だ。業務を効率化できる。使わない方がもったいない。

ただ、便利だからといって何でもかんでも入力していいわけではない。「何を入れていいか、何を入れてはいけないか」を知った上で使う。それだけの話だ。

まとめ

  • AIに入力した情報は、サービスによっては学習データに使われる
  • Samsungでは社員がソースコードを貼り付けて全社利用禁止になった
  • 顧客情報、取引先の機密、財務データはAIに入力しない
  • 業務で使うなら学習に使われないプラン・設定を選ぶ
  • 社員に「AIに会社の秘密を教えちゃダメ」と伝えるだけでも効果がある

-本音コラム