share

  • ChatGPT

ChatGPTを禁止している大学・企業・国はある?理由やリスク回避の方法を解説

ChatGPT活用による業務効率化に魅力を感じつつも、セキュリティ面での懸念からためらいを感じている方は多いでしょう。

ChatGPTの導入可否について明確な方針を定めないまま放置すれば、社員による無秩序な利用を招き、かえって大きなリスクを抱えることになりかねません。意思決定の先送りは、将来の問題を増幅させてしまいます。

本記事では、ChatGPTの使用を禁止している主要企業や国の事例を詳しく解説します。また、禁止することなく安全にChatGPTを使用する方法も解説しているため、導入時の参考にもなるでしょう。

記事を読み終えた頃には、ChatGPTのメリットを活かしつつ、デメリットを最小化する導入方法が見えてきます。

監修者

SHIFT AI代表 木内翔大

(株)SHIFT AI 代表取締役 / GMO他複数社AI顧問 / 生成AI活用普及協会理事 / Microsoft Copilot+ PCのCMに出演 / 国内最大級AI活用コミュニティ(会員5,000人超)を運営。
『日本をAI先進国に』実現の為に活動中。Xアカウントのフォロワー数は9万人超え(2024年9月現在)

生成AIの活用事例は多岐にわたります。弊社SHIFT AIでは、先進企業の取り組みを貴社で参考にしていただけるように、実践的な事例集を無料でご用意いたしました。

以下のリンクより、ぜひご活用ください。

無料で資料請求

ChatGPTを禁止・使用していない割合は約30%

企業IT利活用動向調査2024によると、約30%の企業は、ChatGPTをはじめとする生成AIの利用を禁止しているか、利用していないという結果が報告されています。

ChatGPTを積極的に活用する企業が増える中、利用に慎重な企業も一定数存在しています。ChatGPTの利用における課題や懸念点を考慮し、企業の方針や業務内容に応じて判断が分かれているのが現状です。

一方で、約70%の企業が業務で生成AIを使用しているか、今後使用する予定であるということがわかりました。積極的に生成AIを導入している企業と、慎重な企業の二極化が進んでいます。

日本の大学ではChatGPTが禁止されているのか

現在、日本の大学でChatGPTの利用を明確に禁止しているところは少数です。ただし、生成AIの出力をそのまま論文やレポートに使用することは、以下のようなリスクがあるため推奨されていません。

リスク説明
剽窃他者の著作物を無断で利用することになる
事実誤認ハルシネーションにより誤った情報が含まれる恐れ
学習効果の低下自分で考え表現する機会が失われる

したがって、多くの大学では生成AIを適切に活用するためのガイドラインの策定や、教育での活用方法の検討が進められています。

単に禁止するのではなく、リスクを理解したうえで生成AIを有効活用し、論理的思考力や表現力を養う教育が求められるでしょう。

ChatGPTの利用を禁止している海外企業・国

次に、ChatGPTの利用を禁止している企業・国を紹介します。日本企業でChatGPT禁止を公開している企業は極めて少ないため、本記事では海外企業・国を紹介します。

  • 中国
  • Amazon
  • Samsung
  • ゴールドマン・サックス・グループ
  • Bank of America
  • JPモルガン・チェース
  • Spotify
  • アクセンチュア

それぞれの禁止理由について詳しくみてみましょう。

中国

中国政府は、ChatGPTのようなAIチャットボットサービスの利用を国全体で禁止しています。政府は、これらのサービスが社会に悪影響を与える可能性があるとして、提供企業に対して厳しい規制を課すと述べました。

この方針は、AIによって生成された虚偽情報の拡散や、個人情報の漏洩などの懸念に基づいています。中国政府は、AIサービスの健全な発展を促進しつつ、国民の権利を保護するためにこのような措置を講じていると説明しています。

Amazon

Amazonは、ChatGPTが生成するレスポンスの中に、Amazonの機密情報に類似したものが含まれている事例を発見し、従業員にChatGPTの利用を控えるよう通達しています。

Samsung(サムスン)

Samsungは、社員によって機密性の高いコードがChatGPTにアップロードされたことを受け、社内でこのAIツールの使用を禁止しました。

同社は、機密情報の漏洩を防ぐため、迅速に全社的な利用禁止措置を講じたと説明しています。一方で、Samsungは倫理的なAIの活用に前向きな姿勢を示しており、AIの社会実装においては企業の社会的責任を果たす方針を掲げています。

ゴールドマン・サックス・グループ

ゴールドマン・サックスは、サードパーティ製のジェネレーティブAIツールの業務利用を禁止しています。

同社は、ChatGPTを含むこれらのツールが情報漏洩などのリスクをはらんでいると判断し、社員に対して利用を控えるよう通達しました。

ただし、ゴールドマン・サックスは社内でAI研究プログラムを立ち上げており、独自のAIシステム開発には積極的に取り組んでいます。

Bank of America

バンク・オブ・アメリカは、ChatGPTを承認済みアプリケーションのリストから外し、業務目的での利用を禁止しました。

また、社内コミュニケーションにおいてこのアプリを使用する前に、社内での承認プロセスを経る必要があると述べています。

同社は世界最大の金融機関であるため、顧客情報や社員情報の漏洩リスクをとくに懸念しているようです。

JPモルガン・チェース

JPモルガン・チェースは、サードパーティ製ソフトウェアに関する社内ポリシーに従うため、ChatGPTへのアクセスを一時的に制限しました。

同社は、ChatGPT利用の安全性と有効性を評価している段階だと説明しています。JPモルガンは独自のAIチャットボットを開発中ですが、完全な無欠性は保証できないとの立場をとっています。

Spotify

Spotifyは、従業員によるChatGPTの使用を制限したと報じられています。

同社は、AI音楽生成ツールによって作成された楽曲を大量に削除した後、この措置を講じたとみられます。

Spotifyは、ChatGPT禁止について公式な見解を示していませんが、開発者向けポリシーでは、機械学習やAIモデルでのSpotifyの利用を禁じています。

アクセンチュア

アクセンチュアは、ChatGPTの使用を全面的に禁止してはいませんが、コーディングの際にこのツールを用いることは認めていません。

また、社内データや顧客データをChatGPTにアップロードする場合は、事前の許可が必要だと述べています。

同社は、AIの責任ある利用を推進する姿勢を示しつつ、情報管理には細心の注意を払っているようです。

ChatGPTが各国・企業で禁止されている理由

男性がprohibitedという看板を持っている様子

国や企業がChatGPTの利用を禁止している理由は、主に以下の4つです。

  • 情報漏洩のリスクがあるから
  • 嘘の情報を出力するから
  • 道徳・倫理観に欠いた出力の恐れがあるから
  • 生成物が著作権を侵害するリスクがあるから

これらは、企業IT利活用動向調査2024によって判明した、企業が生成AIを利用する際に懸念しているポイントの上位4位の理由です。

情報漏洩のリスクがあるから

ChatGPTに企業の機密情報や個人情報を入力すると、情報がAIモデルに記憶され、他のユーザーに漏洩する危険性があります。

特に、ChatGPTのようなクラウドベースのサービスでは、企業がデータの管理を完全にコントロールできないため、情報漏洩のリスクが高まります。

実際に、SamsungではChatGPTにセンシティブなコードがアップロードされたことが発覚し、社内での使用が禁止される事態となりました。情報漏洩は企業にとって重大な脅威であり、厳格な管理体制が求められます。

情報漏洩のリスクは、生成AIの利用に対して企業が最も懸念しています。生成AIを導入する際は、情報漏洩リスクを低減するために、社員教育を行ったり、セキュリティが強固なサービスを利用したりする対策を行いましょう。

ChatGPTの情報漏えいリスクや対策について知りたい方は、以下の記事を参考にしてみてください。

ChatGPTの情報漏えいリスクに関する記事
ChatGPTには情報漏えいリスクがある|個人・機密情報はどうやって守る?

ChatGPTには情報漏えいリスクがある|個人・機密情報はどうやって守る?

ChatGPTには情報漏えいリスクがあり、それが原因で利用を禁止している企業も多く存在します。本記事では、ChatGPTの情報漏えいリスクと、その対策方法について詳しく解説しています。

嘘の情報を出力するから

ChatGPTは常に正確な情報を出力するとは限らず、質問の内容によっては事実と異なる回答を生成することがあります。この現象は、専門用語で「ハルシネーション」と呼ばれます。

このような嘘の情報を鵜呑みにして業務に活用してしまうと、重大な判断ミスにつながりかねません。

特に、金融や医療、法律といった専門分野では、正確性が何よりも重視されます。嘘の情報に基づいて意思決定を行えば、取り返しのつかない結果を招く恐れがあるためです。

道徳・倫理観に欠いた出力の恐れがあるから

ChatGPTは、学習データに含まれる偏見や差別的な表現を反映して、道徳・倫理観に反する内容を出力してしまう可能性があります。

たとえば、特定の人種や性別、宗教などについて不適切な発言をすることがあります。

生成物が著作権を侵害するリスクがあるから

ChatGPTは、学習データに含まれる著作物の表現をそのまま模倣して、新たなコンテンツを生成することがあります。このような生成物は、元の著作物の著作権を侵害している可能性があります。

企業が知らずに侵害コンテンツを利用してしまえば、法的な問題に発展するリスクがあります。著作権侵害は重大な法的責任を伴うため、ChatGPTの利用には細心の注意が必要です。

ChatGPTを開発したOpenAIが禁止している使い方

ChatGPTを開発したOpenAIが禁止している使い方も存在します。

  • 自己や他者への危害を加える目的での使用
  • 専門家が介入しない金融・医療・法律分野での使用

自社で使用する際には、OpenAIの規約も遵守するようにしましょう。

自己や他者への危害を加える目的での使用

OpenAIは、ChatGPTを自傷行為や自殺、犯罪行為などに関連する内容の生成に使用することを明確に禁止しています。

また、差別的、誹謗中傷的、わいせつな内容の生成も認められていません。ChatGPTは、人々に有益な情報を提供するためのツールであり、危害を及ぼす目的で使用してはならないとしています。

2024年1月には、ポリシーに明記した「軍事・戦争目的への使用禁止」の文章を削除し、「自分や他人に危害を加えるために当社のサービスを使用しないこと」に変更されました。

より広範な意味で、人に危害を加える使い方を禁止したとみられています。

自社でChatGPTを使用する際は、OpenAIのポリシーもよく確認するようにしましょう。

参考:Usage policies(OpenAI)

専門家が介入しない金融・医療・法律分野での使用

OpenAIは、金融、医療、法律といった専門的な分野でChatGPTを使用する際は、必ず専門家の監修や助言を得るよう推奨しています。

専門家による確認や人工知能の使用に関する開示なしに、個別の法律、医療・健康、金融に関するアドバイスを提供すること。(和訳)

引用:Usage policies(OpenAI)

これらの分野では、不適切な情報が重大な影響をもたらす可能性があるため、ChatGPTの出力をそのまま利用することは避けるべきだとしています。

OpenAIは、ChatGPTの能力と限界を認識し、責任ある利用を促しています。利用者は、ChatGPTの出力を鵜呑みにせず、常に批判的に吟味する必要があるでしょう。

ChatGPTを禁止せず企業で使用できるようにするためのポイント

ChatGPTのリスクを抑えつつ、使用を禁止せずに安心して使用する方法は以下のとおりです。

  • ChatGPTのチーム・エンタープライズプランを使用する
  • セキュアなサービスを経由して利用する
  • 社員教育を行う

それぞれのポイントを確認し、自社導入の参考にしてみてください。

ChatGPTのチーム・エンタープライズプランを使用する

ChatGPTには、セキュリティが強化された「ChatGPT Team Plan」と「ChatGPT Enterprise」という2つのプランが用意されています。

Team Planは、中小企業やプロジェクトチームなど、比較的小規模な組織での利用に適したプランです。一方、Enterpriseは大企業向けのプランで、より大規模な組織での利用に適しています。

それぞれのプランの特徴を表にまとめます。

比較項目ChatGPT Team PlanChatGPT Enterprise
料金体系月額25ドル/ユーザー(年払い)月額30ドル/ユーザー(月払い)企業規模に応じて変動
言語モデルGPT-4GPT-4
メッセージ数100メッセージ/3時間無制限
生成速度個人プランと同じGPT-4の速度が通常の2倍
入力トークン数個人プランと同じ最大32,000トークン(日本語で約2万〜3万文字)まで入力可能
セキュリティ高い非常に高い
管理機能ありあり

上記のプランでは、入力された情報がChatGPTの学習に使用されることはありません。

企業がChatGPTを業務に活用する場合、2つのプランを状況に応じて使い分けることが重要です。たとえば、社内の特定部署や少人数のプロジェクトチームでの利用であればTeam Planで十分でしょう。

一方、全社的な導入を検討している大企業の場合は、大規模な利用に最適化されたEnterpriseが適しています。

詳しくは、OpenAI公式サイトから確認してみてください。

セキュアなサービスを経由して利用する

ChatGPTを直接利用するのではなく、セキュリティ対策が施された専用のサービスを経由することで、情報漏洩のリスクを抑えられます

たとえば、Microsoft Azure、AWSのBedrockなどのAI開発プラットフォームを利用することで、セキュリティを担保した自社専用のチャットボットを開発できます。情報漏洩やハルシネーションのリスクを抑えられるため、有効な手段です。

また、他社が提供する企業向けのチャットボットサービスを利用する方法もおすすめです。

このようなサービスでは、アクセス制御や暗号化、監査ログの収集など、高度なセキュリティ機能が提供されています。専門家によるサポートも受けられるため、安心して利用できるでしょう。

社員教育を行う

ChatGPTのリスクを抑えるためには、使用者である社員一人ひとりがChatGPTの特性や限界を正しく理解し、適切な利用方法を身につける必要があります。

たとえば、ChatGPTの出力をそのまま鵜呑みにせず、必ず人間が確認・編集するようルール化することが重要です。また、機密情報を入力しない、著作権に配慮するなど、利用上の注意点を徹底的に周知する必要があります。

定期的な研修や、ガイドラインの整備などを通じて、社員のリテラシー向上を図ることも求められます。ChatGPTを適切に利用できる人材を育成することが、企業にとって重要な課題となるでしょう。

【禁止はもったいない】ChatGPTを適切に利用して生産性を上げよう

ChatGPTを利用する際に少なからずリスクはあるものの、適切に使うことで生産性を大幅に向上させられます。

そのため「危なそうだから禁止にする」のは簡単ですが、リスクを理解した上で対策を行い、正しい使い方ができれば、他社(者)と差をつけられるでしょう。

今後も、大学や企業などの最新情報や傾向を注視しつつ、責任ある活用を心がけていきたいものです。

生成AIに関するノウハウを効率的に導入したい企業様向けに、弊社SHIFT AIでは実践的な導入ガイドを無料でご提供しております。詳細は以下のリンクよりご確認ください。