生成AIは画像生成文章作成など、業務効率化に大きく貢献しますが、一方で「AIハルシネーション」と呼ばれる事実に基づかない情報を生成してしまうリスクがあります。
本記事では、ハルシネーションの種類や原因、実際の事故事例を紹介するとともに、プロンプトの工夫やファクトチェック、RAGの活用など、実務で役立つ6つの対策法を徹底解説します。
言及率だけじゃダメ?本当に重要なLLMOの指標とは?
「言及率を調査したが次の施策がわからない…」「何を指標にすればいいかわからない」
LLMO対策で次の一手を考える時に本当に重要な指標は「言及率」ではありません。
「言及率」という結果ではなく、なぜその結果が生まれたかという「要因」を分析しなければ、戦略に活かすことができません。
デジタルアイデンティティでは約1万のプロンプトを調査し、LLMがブランドを推奨するプロセスを解析!
「結果」ではなく「要因」を分析することで本質的な施策を見える化します!
目次
AIのハルシネーションとは
ハルシネーションとは、AIが事実に基づかないもっともらしい情報を生成する現象で、日本語では「幻覚」を意味します。
例えば、AIが実際には存在しない情報や人物、法律などをあたかも事実であるかのように答える場合に使われます。
この現象は、業務や意思決定に大きな影響を及ぼすため、ハルシーネーションを見極める方法を知っておく必要があります。
ハルシネーションの種類
生成AIのハルシネーションは、発生要因によって大きく2種類に分類されます。具体例を用いて解説します。
内在的ハルシネーション
内在的ハルシネーションは、AI内部の知識や推論の誤りが原因で発生します。
例えば、日本は過去に成人が20歳以上でしたが、現在は18歳まで引き下げられました。しかし、生成AIが過去の知識をもとに「日本では成人年齢は20歳である」と出力してしまう場合がこれに当たります。
これは、AIの学習データが最新化されていない(学習データのカットオフ日が古い)場合や、推論過程での誤りによって生じます。
外在的ハルシネーション
外在的ハルシネーションは、参照した外部情報の誤りや学習不足により発生します。
先ほどの日本の成人年齢を例に挙げると、「日本には『デジタル成年法』という法律が存在し、オンライン契約に特化した年齢制限が設けられている」といった、完全に事実と異なる情報を生成してしまう場合です。
これは、学習データに存在しない、または関連性の薄い情報をもとに不正確な内容を補おうとすることで起こります。
ハルシネーションが起こる原因
生成AIは大量のデータをもとに回答を生成しますが、その仕組み上、誤った情報を含むことがあります。
このような特性を背景として、以下のような要因でハルシネーションが発生します。
AIの学習不足
生成AIが学習するデータの量や質は、回答の精度に大きく影響します。
特定の分野や意見に偏ったデータしか学習していない場合や、学習データそのものが不足している場合、AIは知識の不足を補おうとして不正確な推測を行うことがあり、ハルシネーションが発生しやすくなります。
さらに、学習データの「鮮度」も重要です。AIは学習時点(データのカットオフ日)までの情報しか持たないため、古いデータしか学習していない場合には、最新の出来事や新しい概念に対応できず、現状とは異なる内容を出力してしまうことがあります。
指示(プロンプト)が適切ではない
生成AIへの指示(プロンプト)の仕方が不適切である場合も、ハルシネーションの原因となります。
曖昧な質問や複雑すぎる指示、誤った前提を含む問いかけをすると、AIは推測に基づいて情報を強引に生成しようとするため、誤った回答が出やすくなります。
例えば「徳川家康が持っていたスマートフォンは?」のように、現実にはあり得ない前提を含む質問では、AIはその前提に沿って架空の情報を生成してしまう可能性があります。
AIの生成アルゴリズム特性
生成AIによる文章作成は、次に続く確率分布に基づいて行われます。
そのため、事実関係の正確さよりも文章の流れや文脈の整合性が優先されがちです。
例えば、AIに「世界で一番高い山は?」と入力すると「エベレスト」と回答します。
これは、過去に学習した大量の文章のなかで、この文脈に続く単語として「エベレスト」が最も確率が高いと判断されたためです。
このように、生成AIは自然で読みやすい回答を目指して情報を生成しますが、その一方で、事実に基づかない誤った情報(ハルシネーション)が生まれやすくなる側面もあります。
よく起こるハルシネーションの例
ハルシネーションは抽象的な問題に思われがちですが、実際には具体的で見分けにくい形で発生します。ここでは、生成AIで特によく見られる代表的なハルシネーションの例を紹介します。
架空の人物・データの生成
生成AIは、実在しない人や統計データを、あたかも事実であるかのように作り出してしまうことがあります。
例えば、次の説明は一見すると信頼できそうですが、内容はすべて架空です。
※以下はハルシネーションの例として作成した架空の人物像・データです。実在の人物・団体・研究とは一切関係ありません。
この調査は全国5,000社を対象に実施され、AI導入によって生産性が平均18%向上したとされています。
このように、生成AIは根拠のない数値や実在しそうな肩書・調査設定を組み合わせることで、あたかも事実のように見える情報を作り出してしまう場合があります。
出典や一次情報を確認せずに利用すると、誤情報を拡散したり、判断を誤るリスクがあります。
引用における誤り
生成AIに対してデータの出力とあわせて引用元の提示を指示した場合でも、その引用元が正確であるとは限りません。
実際に確認すると、存在しないURLが提示されたり、リンク切れのページが引用先として示されたりするケースがあります。
また、引用元とされている資料の内容と、AIの回答内容が一致していないパターンも、見受けられます。
実際に、GPT-4oを用いた学術研究では、生成された引用の正確性が検証されています。
その研究では、176件の引用のうち35件は捏造であり、実在する141件の引用のうち64件には書誌情報の誤りが含まれていました。
(参照:JMIR Mental Health、Influence of Topic Familiarity and Prompt Specificity on Citation Fabrication in Mental Health Research Using Large Language Models: Experimental Study)
ハルシネーションが問題となる理由
生成AIは業務効率化に大きく貢献する一方で、ハルシネーションによる誤情報の生成というリスクも抱えています。ここでは、ハルシネーションが起こす具体的な問題と、その影響について解説します。
誤情報・フェイクニュースの拡散
生成AIによるハルシネーションを疑わずに情報を発信してしまうと、SNSなどを通じて誤情報やフェイクニュースとして拡散される恐れがあります。
特に、その内容が個人や企業の評価を損なうものであった場合、名誉棄損などの法的リスクに発展する可能性も否定できません。情報の生成主体がAIであっても発信した責任は利用者である人間にあります。
信頼性の失墜
誤情報を発信・利用することで、発信した個人や企業の社会的信頼が大きく損なわれる可能性があります。
例えば、企業が生成AIの出力した市場データを十分に検証せず意思決定に活用すると、重大なトラブルやビジネスチャンスの損失、経済的なダメージに発展する可能性があります。
実際にオーストラリアでは、弁護士が裁判準備の過程で生成AIを利用し、存在しない過去の判例を事実確認しないまま裁判所に提出してしまった事例が報告されています。
(参照:AP通信、Australian lawyer apologizes for AI-generated errors in murder case)
脆弱性などのセキュリティリスク
生成AIを利用してコードを作成した際、ハルシネーションによって誤ったコードや不完全な実装が行われると、脆弱性が生じ、サイバー攻撃や情報漏洩などのセキュリティ事故につながる可能性があります。
特に、AIが存在しないソフトウェアパッケージ名を生成する「AI Package Hallucination」の場合、攻撃者がこの架空パッケージ名を使って悪性コード入りの偽パッケージを公開する可能性があります。セキュリティ専門家からも注意喚起が出ています。
(参照:Gigazine、生成AIの幻覚で指定される「架空のパッケージ」に悪用の危険性があるとセキュリティ研究者が警告)
法的責任・コンプライアンスの問題
AIのハルシネーションによって生じた問題については、AIの利用者が責任を問われることもあります。
差別的表現や虚偽の情報の生成・拡散は、論理的問題にとどまらず、社会的信用の失墜や法的トラブルに発展するおそれがあります。
そのため、AIの利用にあたっては、生成内容を人間が確認し、誤情報を前提にしない運用体制を整えることが重要です。
ハルシネーションを防ぐ対策法
生成AIのハルシネーションは、使い方を工夫することで一定程度防ぐことができます。
ここでは、実務で意識したい代表的な対策法を紹介します。
プロンプトを明確に指示する
生成AIにプロンプトを指示する際は、曖昧な表現を避け、主語や条件、前提をできるだけ具体的に伝えることが重要です。
また、誤った前提を含む指示は避け、事実確認が可能な条件で問いかけることで、ハルシネーションの発生を抑制しやすくなります。
回答範囲を制限する
回答の範囲や条件をあらかじめ明確に制限することで、生成AIが根拠のない推測を広げることを防ぎ、回答精度を高めることができます。
また、生成AIは原則として何らかの回答を返そうとする特性があるため、情報が不十分な場合には「わからない」「情報が不足している」と回答するよう明示的に指示することも、ハルシネーション対策として有効です。
テンプレートを作る
AIの利用範囲や確認ルールを定めたテンプレートを整備することで、生成AIのハルシネーションにおけるリスクを抑えることができます。
例えば、どの内容をAIに任せるのか、どの段階で人が確認するのか、引用や数値の扱いをルール化するなど、テンプレート化しておくと判断のばらつきを防ぎやすくなります。
ファクトチェックを行う
生成AIは便利ですが、出力内容をそのまま活用するのは危険です。必ずファクトチェックを行い、正確性を確認したうえで活用することが求められます。
具体的には、以下のポイントに注意してファクトチェックを行います。
- 最新の情報に基づいているか?
- 事実誤認はないか?
- 引用元は存在しているか?
- 引用元の内容と乖離していないか?
- 引用元の情報は正しいか?
特に最後の「引用元の情報が正しいか?」については、専門知識がないと判断できない場合があるため、企業での利用では、一次チェックに加えて専門部署による二重確認を行うとさらに安全です。複数の目で確認することで、ハルシネーションによる誤情報の発信リスクを低減できます。
AIとの役割分担をする
ハルシネーションを防ぐ方法の一つとして、AIを情報整理や文章整形など補助的な作業に限定して活用する方法があります。
情報のリサーチや重要な判断は人間が行い、その情報をもとにAIにデータ整理や要約をさせることで、ハルシネーションが発生しても気付きやすくなります。
また、アイデア出しなどの補助作業としてAIを活用し、重要な部分の意思決定や検証は人間が担当することで、より安全に運用できます。
RAGを活用する
RAG(Retrieval-Augmented Generation:検索拡張生成)は、AIが外部の信頼できるデータを参照しながら回答を作成する仕組みです。
通常のAIでは、与えられたプロンプトだけをもとに回答するため、学習データに含まれていない情報や最新の情報を反映できない場合があります。
一方、RAGでは、外部情報をリアルタイムで検索・取得する処理をシステム側で行い、その情報をAIに渡したうえで回答を生成します。
具体的には、社内文書や製品マニュアル、論文、Webサイトなどの検索データベースを事前に用意し、ユーザーの質問に応じて関連情報を取得します。
取得した情報をAIに渡すことで、AIは外部情報を根拠にした、より正確で信頼性の高い回答を生成できるのです。
まとめ
AIハルシネーションは、生成AIがもっともらしい誤情報を作り出してしまう現象で、誤情報の拡散や信頼性低下といったリスクに繋がります。。
主な原因は、AIの学習不足やプロンプトの不適切さ、生成アルゴリズムの特性にあります。
対策としては、プロンプトの明確化、回答範囲の制限、テンプレート化、ファクトチェック、AIとの役割分担、そしてRAGの活用などが効果的です。
これらの対策を組み合わせることで、AIの強みを最大限に活かしつつ、ハルシネーションによるリスクを最小限に抑えることができます。
LLMO対策のお悩み、デジタルアイデンティティにお任せください!
近年、生成AIによってユーザー行動が大きく変化しており、生成AIの言及率調査サービスなども非常に注目を集めています。
ただ、いくら言及率を調査しても、次の施策につなげることは難しいのが現状です。
何故なら、言及率はあくまで「結果」でしかなく、その結果を生み出す「要因」を解析してこそ、次のアクションに繋がるからです。
貴社も、以下のような状況に心当たりはありませんか?
- 言及率調査をしたが、次の施策が出てこない…
- LLMO対策で具体的に何をすればいいのかわからない…
- SEOはしているが、このままでいいか不安…
- 流入やCVが減少しているが次の打ち手が見えない…
デジタルアイデンティティでは、約1万のプロンプトを調査し、AIの回答プロセスを解析。
AIから推奨されるために、重要な「本質的指標」を導き出しました。
お客様のWebサイトを調査し、「本質的指標」に基づいて具体的なタスクに落とし込むことで、有効な施策をご提案いたします。
デジタルアイデンティティは生成AIマーケティングのリーディングカンパニーを目指しています。
LLMO対策にお悩みなら、資料請求からお気軽にご相談ください!





