ジャンクワードドットコム・歴史と暮らしのポータルサイト

2025.09.03

ChatGPTを会社で使うリスク―約半数が社内規定を知らずに利用していた!企業と従業員が直面するAI活用の危険性

職場でChatGPTを使用する労働者の44%が社内規定に違反し、56%がそのルールを把握していないまま利用しているという調査結果が報告されました。KPMGとオーストラリア・メルボルン大学が実施した最新調査では、AI利用者の半数近くが機密性の高い企業データや顧客データを公開AIツールにアップロードし、AIの利用を明かさずに成果物として提出したり、AI生成物を自作と偽って提出するなど、キャリアを終わらせかねない行為を無自覚に行っていることが判明しています。生産性向上の期待が高まる一方で、企業と従業員が直面するAI利用のリスクは想像以上に深刻な状況にあります。

目次
  • 社内データの学習による情報漏洩の仕組み
  • 承認されていないAIツール使用がもたらす懲戒リスク
  • 企業が設けるべきAI利用ルールの要点
  • 仕事に使うChatGPTプロンプトの安全な書き方
  • IT部門が監視する利用ログ
  • 業界別のコンプライアンス要件
  • よくある質問

ChatGPTを会社で使うリスク―約半数が社内規定を知らずに利用していた!企業と従業員が直面するAI活用の危険性【AIニュース】イメージ画像 作成:junk-word.com
ChatGPTを会社で使うリスク AIによるイメージ画像 作成:junk-word.com

会社でChatGPTを使う前に知っておくべきリスク

社内データの学習による情報漏洩の仕組み

ChatGPTなどのAIツールに社内情報を入力すると、その内容は外部サーバーに送信され、将来的にAIの精度向上のための学習に使われることがあります。技術的にはよくある仕組みですが、ここに思わぬ落とし穴があります。

顧客リストや売上データ、人事情報といった機密データをうっかり入力してしまうと、その情報が学習に利用され、のちに似たような内容が再び出力されるリスクがあるのです。完全に一致するわけではないにせよ、「どこかで見たような文章」が別の場面で出てくる可能性は否定できません。

実際、こうしたケースによる情報漏洩は、国内外でいくつも報告されています。入力した本人に悪意がなくても、AIの仕組みや利用規約への理解が不十分なまま使えば、意図せず機密が外部に出てしまうこともあるのです。

さらに厄介なのは、その影響がすぐには表面化しない点です。AIが学習した内容は、数ヶ月後、あるいは数年後にまったく別の文脈で再登場することがあります。そのときになって初めて「あのとき入力した情報が...」と気づくのでは、対処のしようがありません。

だからこそ、AIを業務で使う際には、「何を入力していいか」「何は絶対に避けるべきか」の線引きを明確にしておく必要があります。便利だからこそ、慎重さが求められる時代になっているのです。

承認されていないAIツール使用がもたらす懲戒リスク

企業における「シャドーIT」問題は、AI時代において新たな局面を迎えています。

実際、BlackBerryが2023年に世界のIT意思決定者を対象に実施した調査では、75%(日本は72%)が職場でのChatGPTをはじめとした生成AIアプリの利用を「すでに禁止した、または禁止を検討している」と回答しており、多くの組織が慎重な姿勢を取っています。しかし、従業員の実際の利用状況は企業の方針と大きくかけ離れているのが現実です。

承認されていないAIツールの使用は、規則違反にとどまらず、企業の法的責任を問われる事態につながる可能性があります。金融業界では顧客データの取り扱いに関する厳格な規制があり、医療分野では患者情報の保護に関する法的要件への準拠が求められています。

こうした業界で従業員が無許可でAIツールを使用し、規制違反が発覚した場合、企業は重大な制裁措置を受けるリスクに直面します。その結果、当該従業員に対しても懲戒処分や解雇といった厳しい処分が下されることになります。

ここがポイント!

AI利用に関する企業方針が不明確な場合、従業員は自己判断で行動せず、必ず上司や法務部門に確認を取ることが重要です。「知らなかった」では済まされないのが現代の職場環境です。

ChatGPT社内利用のセキュリティ対策

企業が設けるべきAI利用ルールの要点

経済産業省と総務省が2024年4月19日に発表した「AI事業者ガイドライン(第1.0版)」は、企業のAI活用における統一的な指針を示しています。

ここで述べているのは「AIはあくまで道具であり、使うのは人間である」という大原則です。企業が作るルールも、この「人間中心」の考え方を土台に据える必要があります。これはつまり、「AIがやったことだから」という言い訳を許さず、AIを利用した業務の最終的な判断と責任は必ず人が負う、ということをルールで明確に定めるべきだ、と示唆しています。

企業がルールを作る上で、注意すべきなのは「情報漏洩」と「誤った情報」の二大リスクです。ガイドラインの安全確保やプライバシー保護に関する指針は、そのまま企業のルールに反映できます。

例えば、「会社の機密情報やお客様の個人情報を、絶対に外部の生成AIサービスに入力してはならない」というルールは、このガイドラインの考え方に沿った、最も重要で具体的なルールの一つと言えるでしょう。

さらに、AIの回答はもっともらしくても間違っていることがあるため、ガイドラインは「透明性」や「公平性」を重視しています。

これを企業のルールに落とし込むと、「AIが生成した情報は鵜呑みにせず、必ず内容の真偽を自分で確認(ファクトチェック)すること」や、「AIの出力に差別的・偏見的な内容が含まれていないか注意を払うこと」といった項目が必要になります。社員がAIの特性を正しく理解し、批判的な視点を持って利用することを促すルールが求められるのです。

また、このガイドラインは「一度ルールを作って終わり」ではない、という点も示しています。

AI技術は急速に変化するため、世の中の状況に合わせてルールを常に見直し、改善していく「柔軟な姿勢」が重要です。企業は、AIの利用状況を定期的にチェックし、問題があれば速やかにルールを改訂するような仕組みも一緒に作っておくべきでしょう。

このように、「AI事業者ガイドライン」は、企業に対して、AIという便利な道具と上手く付き合っていくために、「人間が責任を持つ」という基本姿勢を貫きつつ、情報漏洩や不正確な情報といった具体的な危険から会社と顧客を守り、社会的な信頼を損なわないためのルールを、状況に応じて柔軟に整備していくことを求めている、と解釈することができます。

仕事に使うChatGPTプロンプトの安全な書き方

安全なプロンプト作成の基本原則は、具体的なデータを除去し、一般的な概念や手法について問い合わせることです。

例えば、「田中様からの苦情メールにどう返信すべきか」ではなく、「顧客からの苦情に対する適切な対応方法」として質問を構成します。これにより、個人情報や機密情報を漏洩させることなく、必要な知識やアドバイスを得ることができます。

プロンプト作成時に避けるべき情報には、顧客の実名や連絡先、具体的な売上数字、社内の人事情報、技術仕様書の詳細、契約条件などがあります。

代わりに、「顧客A」「商品X」「プロジェクトY」といった匿名化した表現を使用し、問題の本質的な部分のみを抽出して質問します。また、AI生成の回答をそのまま使用するのではなく、必ず人間による検証と修正を経てから業務に活用することが欠かせません。

ここがポイント!

ChatGPTには入力内容を学習から除外する設定や、「一時チャット」機能があります。「一時チャット」で送信した会話は履歴に残らず、AIの学習にも使用されません。ただし、不正利用の監視等を目的として、会話内容は最大30日間保存された後に完全に削除される仕組みです(2025年9月時点の仕様)。機能の仕様は変更される可能性があるため、重要な情報を扱う際は常に公式情報を確認し、機密情報の入力は原則として避けるべきです。

会社のパソコンでChatGPTを使う際の注意点

IT部門が監視する利用ログ

多くの企業のIT部門では、従業員のインターネット利用状況を把握でき、ChatGPTなどのAIサービスへのアクセスも例外ではありません。ウェブフィルタリングやプロキシサーバーのログにより、どの従業員がいつ、どのAIサービスにアクセスしたかが記録される運用が一般的です。

さらに、データ損失防止ツールを導入している企業では、機密情報が外部サービスに送信された場合にリアルタイムでアラートが発生する仕組みが構築されています。

最近では、AI利用の検出精度が向上しており、ブラウザの履歴を削除したり、プライベートモードを使用したりしても、ネットワークレベルでの通信は捕捉されます。

また、企業によっては定期的にパソコンの使用状況を監査し、承認されていないソフトウェアやWebサービスの利用を発見した場合、従業員に対して説明を求めることがあります。

こうした監視体制の存在を認識し、会社の方針に沿った適切な利用を心がけることが、職場でのトラブルを避ける最良の方法です。

業界別のコンプライアンス要件

ChatGPTのような生成AIの利用には、業界ごとに特有の、そして非常に厳しい規制や職業倫理が存在します。自社の業界ルールを理解しないまま安易に利用すると、法的な責任を問われたり、企業の信用を根底から揺るがす事態に発展したりする可能性があります。

金融業界では、顧客の資産状況や取引履歴といった機密情報の管理が極めて厳格です。金融庁が定める「金融分野における個人情報保護に関するガイドライン」などに基づき、厳重な情報管理体制が求められています。そのため、多くの企業では情報漏洩リスクを未然に防ぐ目的で、外部AIサービスの業務利用を制限し、承認制や審査を設けています。

例えば、顧客向けの市場分析レポートを作成する際に、非公開の経済指標や顧客のポートフォリオ情報をChatGPTに入力する行為は、重大なコンプライアンス違反となります。また、AIによる分析結果がインサイダー取引規制などに抵触する可能性もゼロではなく、その利用には細心の注意が求められます。

医療分野においても、患者情報は法律で手厚く保護されています。日本では「個人情報保護法」において、病歴や心身の障害に関する情報は「要配慮個人情報」と定義され、その取得や取り扱いには本人の同意が原則として必要です。

厚生労働省のガイドラインでも、医療機関における情報管理の徹底が求められています。したがって、患者のカルテ情報や相談内容を要約させたり、診断の補助としてChatGPTに入力したりする行為は、これらの法令に違反する可能性が非常に高いです。また、グローバルな視点で見れば、米国のHIPAA法(医療保険の相互運用性と説明責任に関する法律)のように、海外の厳格な規制も無関係とは言えません。

日本の研究機関が海外の機関と共同研究を行う場合や、外資系の医療関連企業と取引する際には、こうした海外の法令に準拠した情報管理を求められるケースがあり、注意が必要です。

法律業務の世界では、弁護士法に定められた「守秘義務」が絶対的な原則です。弁護士と依頼者との間で交わされる相談内容や、訴訟に関する機密文書は、まさに秘匿特権の塊です。これらの情報をAIサービスに入力することは、守秘義務違反に直結し、弁護士としての信頼を失う行為とみなされます。

過去の判例リサーチや契約書のドラフト作成にAIを利用するケースも考えられますが、AIが学習したデータが最新でなかったり、誤った情報を生成(ハルシネーション)したりするリスクも存在します。誤った法的見解に基づき依頼者に不利益を与えれば、深刻な問題に発展しかねません。

これらの業界で働く専門職の方々は、ChatGPTなどのAIツールを業務で利用する前に、自社の利用ガイドラインを確認することはもちろん、所属する業界団体の指針や関連法規を深く理解し、定められた承認プロセスを経ることが不可欠です。

ここがポイント!

規制の厳しい業界では、AI利用に関する社内研修の受講や、専門家による法的レビューを経ることが求められる場合があります。不明な点があれば、業界の専門団体に問い合わせることをお勧めします。

よくある質問

Q

ChatGPTの有料版を使えば機密情報を入力しても安全ですか?

A

ChatGPT Plusでも、デフォルト設定では入力データが学習に使用される可能性があります。安全性を高めるには、設定からオプトアウト機能を有効にするか、ChatGPT EnterpriseやTeamといった法人向けプランの利用をお勧めします。これらのプランではデフォルトで学習に使用されない設計になっていますが、それでも重要な機密情報の入力は避けるべきです。

Q

上司に無断でChatGPTを使って作業効率を上げるのも問題になりますか?

A

たとえ業務効率化が目的でも、会社の許可なくAIツールを使用することは規則違反になる可能性があります。顧客情報や社内データを含む作業では、知らないうちに機密情報を漏洩させるリスクがあります。まずは上司や情報システム部門に相談し、適切な利用ガイドラインを確認することが重要です。「結果が良ければ問題ない」という考えは危険です。

Q

個人のスマホで会社のメールアドレスを使ってChatGPTを利用するのは大丈夫ですか?

A

個人デバイスでも会社のメールアドレスを使用する場合、企業の管理下にある情報として扱われる可能性があります。また、業務に関連する内容をChatGPTに入力した時点で、会社の情報セキュリティポリシーの対象となります。デバイスの所有者に関係なく、業務関連のAI利用については事前に会社の方針を確認し、承認を得ることをお勧めします。

Q

他の従業員がChatGPTを無断使用しているのを見かけた場合、どうすべきですか?

A

直接指摘するよりも、まずは上司や情報システム部門に相談することをお勧めします。無断使用が企業全体のセキュリティリスクにつながる可能性があるためです。同僚に対しては「会社のAI利用ポリシーについて確認した方が良いのでは」と軽く提案する程度に留め、告発的な態度は避けましょう。組織全体での適切な利用環境を整備することが最も重要です。

Q

ChatGPTで作成した資料に著作権の問題が発覚した場合、個人の責任になりますか?

A

AI生成コンテンツの著作権問題については、利用者個人と企業の両方が責任を負う可能性があります。会社の承認なくAIを使用していた場合、個人の責任がより重くなるリスクがあります。本文の「セキュリティ対策」部分で詳しく説明していますが、AI生成物は必ず人間による検証と修正を経てから使用し、疑問がある場合は法務部門に相談することが賢明です。

ChatGPTを会社で使うリスクと注意点のまとめ

  • 職場でのChatGPT利用者の44%が社内規定に違反している
  • 56%がルールを把握せずにAIツールを使用している現状
  • 機密情報の入力により情報漏洩のリスクが発生
  • 日本企業の72%がChatGPT利用を禁止または検討中(2023年調査)
  • 承認されていないAI利用は懲戒処分や解雇の対象となる
  • AI入力データは学習に使用され類似内容が再生成される可能性
  • 金融・医療・法律業界では特に厳格な規制が適用される
  • IT部門による利用ログの監視体制が強化されている
  • オプトアウト設定で学習データ利用を回避できる
  • 安全なプロンプト作成には匿名化と一般化が重要
  • AI生成物の検証と修正が業務利用の必須条件
  • 企業ごとの部門別ガイドライン策定が推奨される
  • 経産省のAI事業者ガイドラインが統一指針を提供
  • 規制業界では専門家による法的レビューが必要
  • 会社方針の確認が職場トラブル回避の最良策