ChatGPTを使うと個人情報や機密情報が流出する恐れがあると聞いて、二の足を踏んでいる方は多いのではないでしょうか。
しかし、ChatGPTの利便性を諦めてしまっては、業務効率化の大きなチャンスを逃してしまいます。また、情報漏えいのリスクを放置したままChatGPTを使うと、重大な事故につながる可能性があります。
本記事では、ChatGPTで起こりうる情報漏えいのケースを具体的に解説し、実際に情報流出が発生した事例も紹介します。さらに、情報漏えいリスクを抑えるための効果的な対策を複数提示します。
記事を読み終えた頃には、ChatGPTを安全に活用するためのポイントが理解でき、自社に合った対策を講じられるようになるでしょう。ChatGPTの力を借りて、業務の効率化と情報セキュリティの両立を実現しましょう。
|監修者
(株)SHIFT AI 代表取締役 / GMO他複数社AI顧問 / 生成AI活用普及協会理事 / Microsoft Copilot+ PCのCMに出演 / 国内最大級AI活用コミュニティ(会員5,000人超)を運営。
『日本をAI先進国に』実現の為に活動中。Xアカウントのフォロワー数は9万人超え(2024年9月現在)
なお、ChatGPTの情報漏えいリスクについて社員全員が理解していなければ、導入後に思わぬ損害を産んでしまう可能性があります。
ChatGPTを企業に導入する上で、社員教育はもっとも重要といってよいでしょう。
生成AIの導入を成功に導くために、まずは先進企業の「生の声」を聞いてみませんか?
弊社SHIFT AIでは、さまざまな業界でAIを効果的に活用し、成果を上げている企業30社の事例を一冊にまとめました。各社の具体的な取り組みや、導入時の工夫、得られた効果まで、詳しく解説しています。
この事例集は現在、無料でダウンロードいただけます。御社のAI戦略立案にぜひお役立てください。
\ 無料で資料請求 /
ChatGPTで情報漏えいが起こる5つのケース
ChatGPTで情報が漏えいする場合、以下のケースが考えられます。
- 入力したデータは学習されるから
- バグによってチャット履歴が流出する恐れがあるから
- OpenAIのミスによって情報が漏えいする可能性があるから
- マルウェアに感染して情報を抜き取られる可能性があるから
- 外部からの攻撃でGPTsの内容が流出してしまう可能性があるから
それぞれの原因について詳しくみてみましょう。
入力したデータは学習されるから
ChatGPTは、ユーザーが入力した情報を学習データとして活用するため、指示文であるプロンプトに記載した内容が外部に漏れる可能性が考えられます。
たとえば、企業の機密情報をChatGPTに入力した場合、その情報が学習され、他のユーザーとの対話において意図せず漏えいしてしまうリスクがあります。
とくに機密性の高い情報を扱う企業にとっては、このリスクは無視できません。
ChatGPTの利便性を最大限に活用しつつ、情報漏えいのリスクを最小限に抑えるためには、入力内容を慎重に検討し、個人・機密情報の入力は避けるべきです。
なお、個人・機密情報の部分を伏字・記号などに置き換えることで、リスクを低減できます。
バグによってチャット履歴が流出する恐れがあるから
ChatGPTのシステムにバグが発生した場合、ユーザーとのチャット履歴が外部に流出してしまう可能性があります。
実際に、2023年3月にはChatGPTのバグによって、ユーザーのチャット履歴、メールアドレス、電話番号が流出しています。OpenAIはこのインシデントにより、ChatGPTの利用を一時停止する措置をとりました。
チャット履歴には個人・機密情報が含まれている場合があるため、流出してはいけない情報はプロンプトに含めない方がよいでしょう。
OpenAIのミスによって情報が漏えいする可能性があるから
OpenAI社のミスによる情報流出も発生しています。2023年3月25日、OpenAIはChatGPTにおいて個人情報漏えいが発生したと公表しました。
有料版のChatGPT Plusに加入しているユーザーの氏名、住所、クレジットカード番号などの情報が漏えいしたのです。
この事例では、ChatGPT Plusユーザーの約1.2%の情報が約10時間にわたり流出したとされています。
OpenAIのサービスであるChatGPTを使う上で、このようなリスクも考慮しておくべきでしょう。
マルウェアに感染して情報を抜き取られる可能性があるから
ChatGPTのユーザー情報は、マルウェア(ウイルス)の感染によって漏えいするリスクがあります。
Kaspersky(カペルスキー)の調査によると、ダークウェブ上でChatGPTから抜き取られたアカウント情報が掲載されており、これらの情報はサイバー犯罪者に売買されています。とくに、メールアドレスやパスワードが漏えいsしたとされています。
原因は、ChatGPT使用者がマルウェアに感染していたためです。
ChatGPTを企業で使う場合は、AIの使い方だけでなく、PCのセキュリティに関する知識も社員に求められることがわかる事例です。
外部からの攻撃でGPTsの内容が流出してしまう可能性があるから
ChatGPTを搭載したチャットボットは、外部からの悪意ある攻撃に対して完全に安全とは言えません。とくに注意が必要なのが、プロンプトインジェクション攻撃です。
プロンプトインジェクションとは、ChatGPTに巧妙に細工されたプロンプトを入力し、意図しない動作を引き起こすサイバー攻撃の一種です。
たとえば、事前にプロンプトを入力しておき、特定のタスクに特化させたチャットボットを開発できるGPTsという機能に対し、以下のようにプロンプトインジェクションが可能です。
このような攻撃から企業の情報資産を守るには、ChatGPTを運用するスタッフに対して、プロンプトインジェクションのリスクを周知し、適切な対処方法をトレーニングすることが重要です。
その他のChatGPTのセキュリティリスクについては、以下の記事も参考にしてみてください。
関連記事:ChatGPTのセキュリティリスクを徹底解剖!安全に自社へ導入する方法も紹介
ChatGPTは無料・有料(Plus)問わず情報漏えいリスクがある
ChatGPTは無料でも有料でも、プロンプトに入力した情報は学習される上、OpenAI側のミスによって情報漏えいが発生するリスクもあります。
また、有料プラン(ChatGPT Plus)に課金するためにクレジットカードを登録する必要があるため、有料ユーザーの方が少しリスクが高いといえるでしょう。
できるだけセキュリティを高めた利用をしたい方は、後半に解説する情報漏えいリスクを抑える方法を実践しましょう。
ChatGPTで情報流出したSamsungの事例
韓国の大手電機メーカーSamsung(サムスン)は、2023年3月に社内でChatGPTの利用を許可しましたが、その後わずか20日間で少なくとも3件の機密情報流出事案が発生しました。
確認された3件は、以下のとおりです。
事例 | 内容 | 問題点 |
---|---|---|
1 | 半導体設備のソースコードをChatGPTに入力してエラー解消策を問い合わせた | 設備情報の流出 |
2 | 歩留まりや不良設備を把握するプログラムのソースコードを入力し、最適化を図った | 機密情報の流出 |
3 | 社内会議の録音データを文書化してChatGPTに入力し、議事録を作成しようとした | 会議内容の流出 |
このインシデントを受けて、サムスンはChatGPTの利用を禁止しました。
同様のインシデントが起きないよう、自社に導入する際はこの事例を参考に対策を立てるとよいでしょう。その他の禁止事例を確認したい方は、以下の記事も参考にしてみてください。
関連記事:ChatGPTを禁止している大学・企業・国はある?理由やリスク回避の方法を解説
ChatGPTの情報漏えいリスクを抑える7の対策
ChatGPTの情報漏えいリスクを抑える方法は、以下の7個です。
- 個人情報や機密情報を入力しない
- 社内ガイドラインを作成する
- OpenAI APIを利用する
- Microsoft Azureで自社専用のチャットボットを開発する
- 入力データを学習させない設定にする
- チームプラン・エンタープライズプランを利用する
- 社員の教育に力をいれる
それぞれの対策について、詳しくみてみましょう。
個人情報や機密情報を入力しない
ChatGPTを安全に活用するためには、個人情報や機密情報をChatGPTに入力しないことが重要です。
ChatGPTに入力されたデータは、将来的にモデルの一部となる可能性があります。つまり、ChatGPTに企業の機密情報を入力すると、その情報がモデルに取り込まれ、他のユーザーとの対話で意図せず漏えいするリスクがあるのです。
したがって、ChatGPTを利用する際は、入力内容を慎重に吟味し、個人情報や機密情報の共有は控える必要があります。機密性の高いデータを扱う企業にとって、この点はとくに重要な留意事項です。
社内ガイドラインを作成する
ChatGPTの利用に伴う情報漏えいリスクを抑えるためには、社内でのChatGPT利用に関するガイドラインを作成し、従業員に周知することが効果的です。
ガイドラインには、ChatGPTの利用目的や利用範囲、禁止事項などを明記し、情報漏えいにつながる行為を防止します。
以下は、社内ガイドラインに含めるべき主な項目です。
項目 | 説明 |
---|---|
利用目的 | 業務上のどのような目的でChatGPTを利用するかを明確にし、業務に直接関係のない利用は制限する |
利用範囲 | ChatGPTを利用できる従業員の範囲を限定し、必要最小限の情報にアクセスできるよう設定する |
禁止事項 | 個人情報や機密情報をChatGPTに入力することを禁止し、違反した場合の罰則を設ける |
セキュリティ設定 | ChatGPTのアカウント管理やアクセス制御に関する規定を設け、不正アクセスを防止する |
モニタリング | ChatGPTの利用状況を定期的にモニタリングし、不適切な利用がないか確認する |
教育・研修 | 従業員にガイドラインの内容を周知し、情報セキュリティに関する教育・研修を実施する |
社内ガイドラインを作成し、正しく運用することで、従業員のChatGPT利用に関する意識を高め、情報漏えいのリスクを減らせるでしょう。
OpenAI APIを利用する
OpenAI API※を利用することで、自社のシステムにChatGPTの機能を組み込み、より安全に活用できるようになります。
※:互換性のないソフト同士で機能を利用できるようにする仕組み
APIを介してChatGPTにアクセスすることで、以下のようなメリットがあります。
- 自社のセキュリティポリシーに沿ったアクセス制御が可能
- 入力データや出力結果を自社のサーバーで管理できる
- 利用状況のログを取得し、監査やモニタリングに活用できる
OpenAI APIを利用することで、ChatGPTの利便性を享受しつつ、情報漏えいのリスクを抑えられます。
ただし、APIの利用には一定のコストがかかるため、予算や人的リソースを考慮した上で導入を検討する必要があります。
Microsoft Azureで自社専用のチャットボットを開発する
Microsoft AzureのCognitive Servicesを活用し、自社専用のチャットボットを開発することで、ChatGPTの情報漏えいリスクを大幅に軽減できます。
Azureのチャットボットは、自社環境で運用するため、機密情報が外部に送信される心配がありません。
また、Azure Bot Serviceを利用すれば、プログラミングの知識がなくても、簡単に高機能なチャットボットを構築できます。
Azureのセキュリティ機能と連携することで、チャットボットへの不正アクセスやデータ漏えいを防止できます。
入力データを学習させない設定にする
ChatGPTには、入力したデータを学習させないようにできるオプトアウト機能があります。
この機能を利用する方法は主に2つあり、1つ目は設定画面からチャット履歴をOFFにする方法、2つ目はオプトアウト申請フォームから申請する方法です。
方法 | 内容 |
1 | 「設定」→「データコントロール」→「すべての人のためにモデルを改善する」をオフにする |
2 | OpenAI Privacy Request Portalで「Make a Privacy Request」をクリックし、必要情報を入力して申請する |
企業がChatGPTを業務で利用する際は、機密情報の漏えいを防ぐために、このオプトアウト機能を活用することが重要です。
チームプラン・エンタープライズプランを利用する
ChatGPTには、セキュリティが強化された「ChatGPT Team Plan」と「ChatGPT Enterprise」という2つのプランが用意されています。
Team Planは、中小企業やプロジェクトチームなど、比較的小規模な組織での利用に適したプランです。一方、Enterpriseは大企業向けのプランで、より大規模な組織での利用に適しています。
それぞれのプランの特徴を表にまとめます。
比較項目 | ChatGPT Team Plan | ChatGPT Enterprise |
料金体系 | 月額25ドル/ユーザー(年払い)月額30ドル/ユーザー(月払い) | 企業規模に応じて変動 |
言語モデル | GPT-4 | GPT-4 |
メッセージ数 | 100メッセージ/3時間 | 無制限 |
生成速度 | 個人プランと同じ | GPT-4の速度が通常の2倍 |
入力トークン数 | 個人プランと同じ | 最大32,000トークン(日本語で約2万〜3万文字)まで入力可能 |
セキュリティ | 高い | 非常に高い |
管理機能 | あり | あり |
上記のプランでは、入力された情報がChatGPTの学習に使用されることはありません。
企業がChatGPTを業務に活用する場合、2つのプランを状況に応じて使い分けることが重要です。たとえば、社内の特定部署や少人数のプロジェクトチームでの利用であればTeam Planで十分でしょう。
一方、全社的な導入を検討している大企業の場合は、大規模な利用に最適化されたEnterpriseが適しています。
詳しくは、OpenAI公式サイトから確認してみてください。
社員の教育に力をいれる
ChatGPTなどのAIツールを適切かつ効果的に活用するためには、社員のAIリテラシーを高めることが重要です。
AIリテラシーとは、AIの基本的な仕組みや特性を理解し、AIを適材適所で活用しながら、その限界も踏まえて適切に付き合っていく力のことを指します。
たとえば、以下のような知識・スキルが求められます。
- 生成AIの基礎知識
- 生成AIが得意なこと・苦手なこと
- 情報漏えいや著作権のリスク
- プロンプトの作るスキル
社内でのAI教育プログラムの実施や、業務の中で実践的にAIツールに触れる機会を増やすことが効果的です。外部の専門家を招いての研修や、AIツールを活用した業務のロールプレイングなども有効な施策と言えるでしょう。
生成AIを活用した業務効率化やビジネス展開をお考えの方は、弊社SHIFT AIが開発した「6ステップアプローチ」をご活用ください。以下のボタンから無料でダウンロードできます。
\ 無料で資料請求 /
ChatGPTの情報漏えいリスクに備えた各国の動き
ChatGPTのリスクに対して、世界各国では生成AIの学習データに関する規制や、生成AIそのものの利用に関する規制が進められています。
たとえば、EUでは個人のプライバシー保護と個人データの不適切な利用防止を目的とした「EU一般データ保護規則(GDPR)」が存在します。2023年3月、イタリアではChatGPTがGDPRに違反しているとして一時的に利用を禁止しましたが、OpenAIが改善策を導入したことで現在は利用が許可されています。
一方、安全保障や社会の安定への影響を懸念し、中国ではChatGPTの利用が現在も禁止されています。
このように、各国における生成AIに対する規制や対応はさまざまです。
地域・国 | 規則・法律・取組 | 概要 |
---|---|---|
EU | AI規則案 | EUにおけるAIの活用・開発やAIへの投資を強化するとともに、人々と企業の安全と基本的権利を保護することが目的 |
EU | AI法 | AIの開発・運用に関する包括的な規則を定めた規則 |
米国 | AI権利章典のための青写真 | AI開発にあたって考慮すべき原則をまとめた白書 |
米国 | 人工知能リスク管理フレームワーク | AIの開発・販売に関するフレームワーク |
中国 | 生成人工知能サービス管理弁 | 生成AIを使用した製品・サービスに関する法律 |
日本 | 各種ガイドラインの作成 | AI開発ガイドライン、人間中心のAI社会原則、生成AIと著作権の考え方などのガイドラインを作成 |
日本 | 広島AIプロセス | G7サミットで行われた、生成AIの利活用に関する議論をするための国際プロジェクト |
生成AIに関する国際的な議論やルール作りは、今後も活発に行われると予想されます。
特に、生成AIをビジネスで利用している、または利用を検討している場合は、生成AIに関する法規制や動向に注意を払うことが重要です。
無料でも利用可能なChatGPTの特徴や使い方に関してもっと知りたい方は、以下の記事を参考にしてみてください。
ChatGPTの情報漏えいリスクを考慮した運用を検討しよう
ChatGPTを使う上で、情報漏えいリスクは避けて通れません。
しかし、本記事で紹介した対策を行えば、リスクは低減できます。
企業の場合、リスク対策の中でもっとも重要なのが「社員教育」です。企業側がセキュリティ対策を万全に行っても、使用する社員がリスクを理解していなければリスクは高いままです。
弊社SHIFT AIでは、生成AIの導入を成功に導く5ステップのロードマップをご用意しました。業務時間を半減させるためのヒントが詰まった資料を、無料でダウンロードいただけます。ぜひご活用ください。
\ 無料で資料請求 /