Hallucination

AI 幻覚

Hallucination を分かりやすく

Hallucination(ハルシネーション、幻覚)は、AI が事実ではない情報を、まるで真実であるかのように生成してしまう現象です。

例え話をしましょう。あなたが友人に「去年のノーベル賞受賞者は誰?」と聞いたとします:

正直な友人: 「ごめん、知らない。調べてみるね」

  • 分からないことは分からないと言う
  • 確実な情報源を確認する

Hallucination する友人: 「確か、田中太郎さんだったと思うよ」

  • 実は知らないのに、適当な名前を答える
  • しかも自信満々に答える
  • 聞いている人は信じてしまう

AI のHallucination も同じです。訓練データにない情報や、知らない事実について質問されたとき、AI は「分かりません」と答える代わりに、もっともらしいウソを作り出してしまうことがあります。

なぜ Hallucination が起きるのか

AI(特に大規模言語モデル)は、「次に来る単語を予測する」ように訓練されています。事実を覚えているわけではなく、パターンを学習しているだけです。

// AI の内部処理(概念的)
function predictNextWord(context: string): string {
  // 「ノーベル賞受賞者は」の後に来そうな単語のパターンを予測
  // 「田中」「山田」「佐藤」などの日本人名が文脈的に合いそう
  // → 適当な名前を生成してしまう(Hallucination!)
  return '田中太郎' // ← 事実ではない
}

Hallucination の種類

Hallucination にはいくつかの典型的なパターンがあります:

1. 事実の誤り(Factual Hallucination)

質問: 「東京タワーの高さは?」 Hallucination: 「500メートルです」 実際: 333メートル

知識の誤りや混同により、事実と異なる情報を生成します。

2. 論理の誤り(Reasoning Hallucination)

質問: 「5 × 3 + 10 ÷ 2 は?」 Hallucination: 「25です」 実際: 20((5 × 3) + (10 ÷ 2) = 15 + 5 = 20)

計算や論理的推論を間違えます。

3. 時間的な誤り(Temporal Hallucination)

質問: 「2024年の日本の首相は?」 Hallucination: 「安倍晋三さんです」 実際: 訓練データの時点では分からない

訓練データの時点以降の情報を、古い情報で答えてしまいます。

4. 情報源の捏造(Source Hallucination)

質問: 「この情報のソースは?」 Hallucination: 「〇〇大学の2023年の研究論文によると...」 実際: そのような論文は存在しない

存在しない論文、記事、統計データなどを作り出します。

Hallucination を軽減する方法

Hallucination を完全に防ぐことはできませんが、大幅に軽減する方法があります:

方法 1: 確信度スコアを使う

AI に「確信度」を示させることで、信頼性を評価できます。

プロンプト例:

あなたは正確な情報を提供するアシスタントです。
回答する際は、必ず以下の形式で答えてください:

回答: [ここに回答]
確信度: [0-100の数値]
理由: [確信度の根拠]

確信度が70未満の場合は、「分かりません」と答えてください。

このプロンプトを使うと、AI は自分の答えに対する確信度を示すようになります。確信度が低い場合は、その回答を信用しないことで Hallucination を回避できます。

方法 2: RAG(検索拡張生成)を使う

最も効果的な対策は、RAG(Retrieval Augmented Generation)を使用することです。

RAG の仕組み:

  1. ユーザーの質問に関連する文書をデータベースから検索
  2. 検索した文書を AI に提供
  3. AI は提供された文書のみを参照して回答を生成

これにより、AI は「知らないこと」を推測する必要がなくなり、Hallucination が大幅に減少します。

RAG 用のプロンプト例:

あなたは正確な情報を提供するアシスタントです。

【重要な指示】
1. 提供された文脈情報のみを基に回答してください
2. 文脈にない情報は推測しないでください
3. 文脈から答えられない場合は、正直に「提供された情報からは分かりません」と答えてください
4. 回答の根拠となる部分を引用してください

【文脈情報】
[ここに検索した関連文書を挿入]

この方法により、AI は自分の「想像」ではなく、実際の文書に基づいて回答するため、Hallucination が劇的に減少します。

方法 3: マルチパス検証(複数回実行)

同じ質問を複数回実行して、答えの一貫性を確認します。

仕組み:

  1. 同じ質問を AI に 3〜5 回実行
  2. すべての回答を比較
  3. 一致する回答が多ければ信頼性が高い
  4. 回答がバラバラなら Hallucination の可能性が高い

例:

  • 質問: 「東京タワーの高さは?」
  • 1回目: 「333メートルです」
  • 2回目: 「333メートルです」
  • 3回目: 「333メートルです」
  • → 一貫性が高い(信頼できる)

vs

  • 質問: 「〇〇の人口は?」(曖昧な情報)
  • 1回目: 「約50万人です」
  • 2回目: 「約80万人です」
  • 3回目: 「約65万人です」
  • → 一貫性が低い(Hallucination の可能性)

方法 4: 外部ソースで検証

AI の回答を、信頼できる外部ソースで確認します。

検証手順:

  1. AI が回答を生成
  2. 回答の内容を検索エンジンで検索
  3. 信頼できるソース(Wikipedia、政府サイト、学術サイトなど)で確認
  4. 一致すれば信頼性が高い

信頼できるソースの例:

  • Wikipedia
  • 政府機関のサイト(.gov)
  • 教育機関のサイト(.edu)
  • 学術論文データベース
  • 大手メディアの記事

この方法は手間がかかりますが、最も確実に Hallucination を検出できます。

方法 5: Temperature の調整

AI の「創造性」を制御するパラメータ「temperature」を調整します。

  • temperature = 0.0〜0.3: 安定した、決定的な出力(Hallucination が少ない)
  • temperature = 0.7〜1.0: 創造的な出力(Hallucination が増える可能性)

推奨設定:

  • 事実確認が必要なタスク: temperature = 0.2
  • クリエイティブな文章生成: temperature = 0.7〜0.9

Hallucination 対策のまとめ

対策方法 効果 難易度 説明
RAG(検索拡張生成) ⭐⭐⭐⭐⭐ 実際の文書を参照して回答を生成
確信度スコア ⭐⭐⭐ AI に確信度を示させる
マルチパス検証 ⭐⭐⭐⭐ 複数回実行して一貫性を確認
外部ソース検証 ⭐⭐⭐⭐⭐ 検索エンジンで事実確認
低い temperature ⭐⭐⭐ temperature を 0.2〜0.3 に設定
システムプロンプト ⭐⭐ 「分からない場合は正直に答える」よう指示

推奨される組み合わせ:

  • 重要な情報: RAG + 外部ソース検証
  • 一般的な用途: RAG + 低い temperature
  • 簡易的な対策: 確信度スコア + システムプロンプト

まとめ

Hallucination は AI の避けられない問題ですが、適切な対策により大幅に軽減できます。

Hallucination を理解する上で重要なポイント:

  1. 原因を理解する: AI は「知識」ではなく「パターン」を学習しているため、知らないことを推測してしまう
  2. 完全には防げない: Hallucination をゼロにすることは不可能だが、大幅に軽減できる
  3. RAG が最も効果的: 実際の文書を参照させることで、推測を減らせる
  4. 複数の対策を組み合わせる: 1つの方法だけでなく、複数の対策を併用する
  5. 透明性が重要: ユーザーに確信度やソースを提示することで、信頼性を高める

特に重要な分野での対策:

  • 医療: RAG + 外部ソース検証 + 専門家のレビュー
  • 法律: RAG + 判例データベース + 弁護士の確認
  • 金融: RAG + 公式データ + リアルタイム API
  • 教育: RAG + 複数ソース検証 + 教師の監修

Hallucination は AI の「弱点」ですが、適切に理解し対策することで、信頼性の高い AI システムを構築できます。AI を盲信せず、常に検証する姿勢が重要です。