- HOME >
- Jamstack用語集 >
- Hallucination
Hallucination
AI 幻覚
Hallucination を分かりやすく
Hallucination(ハルシネーション、幻覚)は、AI が事実ではない情報を、まるで真実であるかのように生成してしまう現象です。
例え話をしましょう。あなたが友人に「去年のノーベル賞受賞者は誰?」と聞いたとします:
正直な友人: 「ごめん、知らない。調べてみるね」
- 分からないことは分からないと言う
- 確実な情報源を確認する
Hallucination する友人: 「確か、田中太郎さんだったと思うよ」
- 実は知らないのに、適当な名前を答える
- しかも自信満々に答える
- 聞いている人は信じてしまう
AI のHallucination も同じです。訓練データにない情報や、知らない事実について質問されたとき、AI は「分かりません」と答える代わりに、もっともらしいウソを作り出してしまうことがあります。
なぜ Hallucination が起きるのか
AI(特に大規模言語モデル)は、「次に来る単語を予測する」ように訓練されています。事実を覚えているわけではなく、パターンを学習しているだけです。
// AI の内部処理(概念的)
function predictNextWord(context: string): string {
// 「ノーベル賞受賞者は」の後に来そうな単語のパターンを予測
// 「田中」「山田」「佐藤」などの日本人名が文脈的に合いそう
// → 適当な名前を生成してしまう(Hallucination!)
return '田中太郎' // ← 事実ではない
}
Hallucination の種類
Hallucination にはいくつかの典型的なパターンがあります:
1. 事実の誤り(Factual Hallucination)
質問: 「東京タワーの高さは?」 Hallucination: 「500メートルです」 実際: 333メートル
知識の誤りや混同により、事実と異なる情報を生成します。
2. 論理の誤り(Reasoning Hallucination)
質問: 「5 × 3 + 10 ÷ 2 は?」 Hallucination: 「25です」 実際: 20((5 × 3) + (10 ÷ 2) = 15 + 5 = 20)
計算や論理的推論を間違えます。
3. 時間的な誤り(Temporal Hallucination)
質問: 「2024年の日本の首相は?」 Hallucination: 「安倍晋三さんです」 実際: 訓練データの時点では分からない
訓練データの時点以降の情報を、古い情報で答えてしまいます。
4. 情報源の捏造(Source Hallucination)
質問: 「この情報のソースは?」 Hallucination: 「〇〇大学の2023年の研究論文によると...」 実際: そのような論文は存在しない
存在しない論文、記事、統計データなどを作り出します。
Hallucination を軽減する方法
Hallucination を完全に防ぐことはできませんが、大幅に軽減する方法があります:
方法 1: 確信度スコアを使う
AI に「確信度」を示させることで、信頼性を評価できます。
プロンプト例:
あなたは正確な情報を提供するアシスタントです。
回答する際は、必ず以下の形式で答えてください:
回答: [ここに回答]
確信度: [0-100の数値]
理由: [確信度の根拠]
確信度が70未満の場合は、「分かりません」と答えてください。このプロンプトを使うと、AI は自分の答えに対する確信度を示すようになります。確信度が低い場合は、その回答を信用しないことで Hallucination を回避できます。
方法 2: RAG(検索拡張生成)を使う
最も効果的な対策は、RAG(Retrieval Augmented Generation)を使用することです。
RAG の仕組み:
- ユーザーの質問に関連する文書をデータベースから検索
- 検索した文書を AI に提供
- AI は提供された文書のみを参照して回答を生成
これにより、AI は「知らないこと」を推測する必要がなくなり、Hallucination が大幅に減少します。
RAG 用のプロンプト例:
あなたは正確な情報を提供するアシスタントです。
【重要な指示】
1. 提供された文脈情報のみを基に回答してください
2. 文脈にない情報は推測しないでください
3. 文脈から答えられない場合は、正直に「提供された情報からは分かりません」と答えてください
4. 回答の根拠となる部分を引用してください
【文脈情報】
[ここに検索した関連文書を挿入]この方法により、AI は自分の「想像」ではなく、実際の文書に基づいて回答するため、Hallucination が劇的に減少します。
方法 3: マルチパス検証(複数回実行)
同じ質問を複数回実行して、答えの一貫性を確認します。
仕組み:
- 同じ質問を AI に 3〜5 回実行
- すべての回答を比較
- 一致する回答が多ければ信頼性が高い
- 回答がバラバラなら Hallucination の可能性が高い
例:
- 質問: 「東京タワーの高さは?」
- 1回目: 「333メートルです」
- 2回目: 「333メートルです」
- 3回目: 「333メートルです」
- → 一貫性が高い(信頼できる)
vs
- 質問: 「〇〇の人口は?」(曖昧な情報)
- 1回目: 「約50万人です」
- 2回目: 「約80万人です」
- 3回目: 「約65万人です」
- → 一貫性が低い(Hallucination の可能性)
方法 4: 外部ソースで検証
AI の回答を、信頼できる外部ソースで確認します。
検証手順:
- AI が回答を生成
- 回答の内容を検索エンジンで検索
- 信頼できるソース(Wikipedia、政府サイト、学術サイトなど)で確認
- 一致すれば信頼性が高い
信頼できるソースの例:
- Wikipedia
- 政府機関のサイト(.gov)
- 教育機関のサイト(.edu)
- 学術論文データベース
- 大手メディアの記事
この方法は手間がかかりますが、最も確実に Hallucination を検出できます。
方法 5: Temperature の調整
AI の「創造性」を制御するパラメータ「temperature」を調整します。
- temperature = 0.0〜0.3: 安定した、決定的な出力(Hallucination が少ない)
- temperature = 0.7〜1.0: 創造的な出力(Hallucination が増える可能性)
推奨設定:
- 事実確認が必要なタスク: temperature = 0.2
- クリエイティブな文章生成: temperature = 0.7〜0.9
Hallucination 対策のまとめ
| 対策方法 | 効果 | 難易度 | 説明 |
|---|---|---|---|
| RAG(検索拡張生成) | ⭐⭐⭐⭐⭐ | 中 | 実際の文書を参照して回答を生成 |
| 確信度スコア | ⭐⭐⭐ | 低 | AI に確信度を示させる |
| マルチパス検証 | ⭐⭐⭐⭐ | 低 | 複数回実行して一貫性を確認 |
| 外部ソース検証 | ⭐⭐⭐⭐⭐ | 高 | 検索エンジンで事実確認 |
| 低い temperature | ⭐⭐⭐ | 低 | temperature を 0.2〜0.3 に設定 |
| システムプロンプト | ⭐⭐ | 低 | 「分からない場合は正直に答える」よう指示 |
推奨される組み合わせ:
- 重要な情報: RAG + 外部ソース検証
- 一般的な用途: RAG + 低い temperature
- 簡易的な対策: 確信度スコア + システムプロンプト
まとめ
Hallucination は AI の避けられない問題ですが、適切な対策により大幅に軽減できます。
Hallucination を理解する上で重要なポイント:
- 原因を理解する: AI は「知識」ではなく「パターン」を学習しているため、知らないことを推測してしまう
- 完全には防げない: Hallucination をゼロにすることは不可能だが、大幅に軽減できる
- RAG が最も効果的: 実際の文書を参照させることで、推測を減らせる
- 複数の対策を組み合わせる: 1つの方法だけでなく、複数の対策を併用する
- 透明性が重要: ユーザーに確信度やソースを提示することで、信頼性を高める
特に重要な分野での対策:
- 医療: RAG + 外部ソース検証 + 専門家のレビュー
- 法律: RAG + 判例データベース + 弁護士の確認
- 金融: RAG + 公式データ + リアルタイム API
- 教育: RAG + 複数ソース検証 + 教師の監修
Hallucination は AI の「弱点」ですが、適切に理解し対策することで、信頼性の高い AI システムを構築できます。AI を盲信せず、常に検証する姿勢が重要です。