生成AIのハルシネーションとは?発生する原因と3つの対策をわかりやすく解説

生成AIが出力する文章や画像を正しいと信じた結果、上司やクライアントから叱られた経験はないでしょうか。
間違った内容を出力する「ハルシネーション」は、どのような生成AIでも起こりうる現象です。ハルシネーションを正しく理解すれば、間違った成果物の作成は軽減できます。
この記事では、ハルシネーションの原因や対策、事例などについてまとめます。
業務や副業でハルシネーションに悩んでいる方は最後までご覧ください。

監修者
SHIFT AI代表 木内翔大
もし生成AIを副業で活用したいけれど、ハルシネーションが心配であれば、弊社SHIFT AIの無料セミナーがおすすめです。
セミナーでは生成AIの安全な活用方法を学びながら、副業に役立つ具体的なマニュアルやツールも提供しています。
安全な活用方法を学びつつ収入アップを目指したい方は、ぜひ以下のリンクから詳細をご確認ください。
目次
ハルシネーションとは
日本語で「幻覚」を意味するハルシネーションは生成AIが抱える問題の一つです。
ハルシネーションは、AIが実在しない情報や誤った内容を事実であるかのように出力してしまう現象です。
現実とは異なる幻覚を見ているかのようにAIが不正確な情報を出力するため、ハルシネーションと呼ばれています。
ユーザーはハルシネーションの存在を意識しなければなりません。AIが提供する情報や生成物を無条件に受け入れるのではなく、常に疑問を持ち検証する姿勢が求められます。
ハルシネーション以外にも生成AIが抱える問題はあります。詳しく知りたい方は以下の記事もご覧ください。
ハルシネーションの2つの種類

ハルシネーションには、内在的ハルシネーションと外在的ハルシネーションの2種類があります。
双方について詳しく解説するので、ハルシネーションが発生した際の問題の切り分けにご活用ください。
内在的ハルシネーションとは
内在的ハルシネーション(Intrinsic Hallucinations)とは、生成AIが学習データの内容を誤って解釈し、事実と異なる情報を出力してしまう現象です。
「東京スカイツリーの高さは634メートルである」との正しい情報を誤って解釈し、「横浜ランドマークタワーの高さは634メートルである」と回答する場合が該当します。
AIが学習データの一部を正確に記憶できていないか、情報を不適切に組み合わせてしまった結果発生する現象です。
外在的ハルシネーションとは
外在的ハルシネーション(Extrinsic Hallucinations)は、生成AIが学習データに存在しない新しい情報を創作し、事実であるかのように出力してしまう現象です。
実際に開催されていないにも関わらず、「東京スカイツリーにて、バンジージャンプのイベントが開催されています」という情報をAIが出力した場合、外在的ハルシネーションに該当します。
AIの創造性が意図せず働いた結果、深刻な誤情報が生み出されてしまうのです。
ハルシネーションの3つの原因

主に以下の3つが原因でハルシネーションは生じます。
- プロンプトの問題
- 学習データの問題
- 生成AIの問題
原因を理解しておけば、ハルシネーションが生じた場合の問題の切り分けに役立ちます。
順番に詳しく解説するので、ひとつずつ理解しましょう。
プロンプトの問題
ハルシネーションを引き起こす原因として、プロンプトの問題があげられます。
適切でないプロンプトは、AIに誤った指示を与え、不正確な情報を生成させる原因となるのです。
ハルシネーションが生じやすいプロンプトには曖昧なプロンプトと誘導的なプロンプトの2種類があります。
曖昧なプロンプトは「最新の技術について教えて」のように、具体性に欠ける内容です。
誘導的なプロンプトの例としては、「AIは人間よりも優れていることを証明して」のように、特定の結論に導くような質問が該当します。
ハルシネーションが生じた際は、プロンプトの内容も見直しましょう。具体的で偏りのない質問を心がけると、正確な情報を引き出せる可能性が高まります。
学習データの問題
学習データの問題は、ハルシネーションが生じる原因のひとつです。
生成AIの使用する学習データが不十分であったり、偏りがあったりするとAIは正確な理解ができず、誤った回答を形成してしまいます。
たとえば、特定のジャンルに関するデータが少ない場合、AIはそのジャンルについて不正確な情報を生成しやすくなるのです。
データに地域的な偏りがある場合、特定の地域の情報を過度に一般化してしまう可能性もあります。
ハルシネーションを発見した場合には、学習データを確認し不足や偏りがないか確認しましょう。
生成AIの問題
使用している生成AI自体の問題も、ハルシネーションに大きく関係します。
最新の技術を駆使した生成AIであっても、完全にハルシネーションを排除することは困難です。
各AIプロバイダーは、ハルシネーション対策に取り組んでいるものの、十分でないものも存在します。
ユーザーは使用するAIのハルシネーション対策レベルを事前に調査し、理解しておきましょう。
生成AI自体の限界を認識し、人間の判断力と組み合わせて活用すれば、ハルシネーションのリスクは最小限に抑えられます。
ハルシネーションを軽減する3つの対策

ここからはハルシネーションを軽減する3つの対策について詳しく解説します。
- プロンプトの改善
- 学習データの向上
- RAGの活用
前述の3つの原因と照らし合わせて、適切な対策を行いましょう。
プロンプトの改善
プロンプトの改善はAIの回答精度を大幅に向上させ、ハルシネーション軽減に役立ちます。プロンプトを改善する際には、以下の3つを心がけましょう。
- 具体的
- 存在が不確かな情報をもとにしない
- 答えがない場合の回答を指定する
具体的なプロンプトは、「最近の技術トレンド」ではなく、「2025年のAI技術トレンドを3つあげて」のように、明確な期間や数を指定します。
また「火星に住む宇宙人について」といった不確かな情報に基づく質問は避け、「火星の生命探査の最新研究」のように事実に基づいた問いかけが重要です。
さらに、答えがない場合の対応も指定しておくと良いでしょう。
「情報がない場合は『わかりません』と答えてください」と付け加えることで、AIが不確かな情報の生成リスクを減らせます。
3つの点を考慮したプロンプトが作成できれば、ハルシネーションは軽減できます。
学習データの向上
学習データの向上は、ハルシネーション対策の有効なアプローチです。
AIの知識基盤が不十分な場合、ファインチューニングという手法で追加学習を行います。
ファインチューニングとは、既存のモデルに新たなデータを学習させ、特定の分野や最新の情報に対応したモデルを作成する手法です。
自社の製品情報や業界固有の専門知識など、一般的には広く知られていない情報をAIに学習させれば、正確で信頼性の高い回答が得られます。
少量でも高品質なデータを用意し、モデルの特性に合わせた適切な学習が成功の鍵です。常に学習データの品質向上を意識し、定期的な更新を行えばハルシネーションの軽減につながります。
RAGの活用
RAG(Retrieval-Augmented Generation)は、大規模言語モデル(LLM)に外部知識を組み込む技術です。
RAGを活用すれば質問に応じた関連情報を動的に検索して、回答が生成されます。最新かつ正確な情報を回答に反映させられるため、ハルシネーションの軽減につながります。
たとえば、企業の公式文書や学術論文などの検証済みの情報源を指定すれば、AIによる誤った情報生成の軽減が可能です。
正確な一次情報を持っているのであれば、RAGを活用してハルシネーションを軽減しましょう。
ハルシネーションによるトラブル対策3選

ハルシネーション対策を重ねても、完全に無くすのは困難です。ハルシネーションによるトラブルを防ぐために、以下の3つの対策も実施しましょう。
- ファクトチェックの徹底
- ダブルチェックの実施
- 規定やマニュアルの作成
詳しく解説するので、最後までご覧ください。
ファクトチェックの徹底
ハルシネーションによるトラブルを避けるには、ファクトチェックの徹底が不可欠です。
ファクトチェックは、AIの生成した情報が信頼できる情報源と一致しているかを確認する作業です。
政府機関や学術機関が公表している公式データや業界で認められた専門家の見解、信頼性の高い報道機関の記事などで確認します。
クライアントへの提出時には、確認に使用した情報源を明示しましょう。提供する情報の信頼性向上につながります。
ファクトチェックを実施すれば、ハルシネーションのリスクを大幅に軽減し、質の高い成果物を提供できます。
ダブルチェックの実施
ファクトチェックに続いて、異なる視点からのダブルチェックを実施すれば、ハルシネーションの見落としを軽減できます。
先入観や慣れによってチェックが甘くなる可能性もあるため、複数の目での確認が重要です。
別の担当者に再確認を依頼したり、使用した生成AIとは異なるAIツールを活用して内容を比較検証したりする方法があります。
複数の確認プロセスを用いればハルシネーションの発見率を高め、より信頼性の高い情報を提供が可能となるのです。
規定やマニュアルの作成
明確な規定やマニュアルの整備は、ハルシネーションのリスク軽減につながります。
ファクトチェックの具体的な手順やダブルチェックの実施方法、使用可能なAIツールのリストなどを詳細に記載しましょう。
チェックリストを作成し、確認すべき項目を漏れなく網羅すれば高品質な成果物を生み出せます。
ハルシネーションが発生した場合の対応手順や、定期的な規定の見直しプロセスも重要です。
問題が発生した際にスムーズに対応できるだけでなく、継続的な改善により精度の高い仕組みが実現できます。
個人でも組織でも規定やマニュアルを整備しておけば、再現性の高いリスク軽減につながるのです。
ハルシネーションによるトラブル事例
ハルシネーションによるトラブルの代表例を見ていきます。
最も注目を集めた事例の一つは、Googleの「Bard」のデモンストレーションです。ジェームズ・ウェッブ宇宙望遠鏡に関する質問に対し、Bardは誤った情報を示してしまいGoogleの株価に影響を与えました。
地方自治体のウェブサイトでは、AIが生成した架空の観光名所や郷土料理が掲載されるトラブルも生じています。
ある有名ラジオパーソナリティは、AIが生成した虚偽の横領疑惑に関する情報の拡散により、法的措置を講じる事態にまで発展しました。
これらの事例は、ハルシネーションの危険性を浮き彫りにし、情報の検証の重要性を訴えています。
ハルシネーション対策を行い安全に生成AIを活用しよう
ハルシネーションは生成AIが不正確な情報を出力する現象です。不正確なまま情報が世に出てしまうと、大きなトラブルになりかねません。
現状の生成AIを使用している限りハルシネーションをゼロにするのは困難であるものの、この記事で紹介した対策を行えばかなり軽減できます。
正しく安全な活用方法で生成AIを使用してトラブルを回避し、業務改善や副業での成果獲得につなげましょう。
ハルシネーションを避けて生成AIを安全に活用し、副業の成果をあげたい方には弊社SHIFT AIの無料セミナーがおすすめです。
生成AIの活用方法だけでなく「AI副業診断」や「副業案件集」といった資料もプレゼントしています。
ぜひ以下のリンクから詳細をご確認ください。
記事を書いた人

中島正雄
Webライター、ITコンサルタント、パーソナルトレーナーとして大阪を拠点に活動中。
自身はAIを活用して執筆時間をおよそ半分に削減。またコンサル先からもAIで業務改善につながったと喜ばれている。
SHIFT AIではSEOメディアにライターとして関わる。趣味はプロレス観戦
【無料】30,000人以上が受講!