
2025/08/03(日)
ChatGPTやGeminiなどの大規模言語モデル(LLM)を使っていて、こんな経験はありませんか?
❓「○○さんの誕生日はいつですか?」
🤖「1985年3月15日です」
実際には全く違う日付なのに、AIは確信に満ちた口調で間違った答えを返してくる…。
これがAI業界で「ハルシネーション」と呼ばれる現象です。AIが「分からない」と正直に答える代わりに、もっともらしい嘘をついてしまう問題です。
この記事はこんな方におすすめです
OpenAIの最新研究論文「Why Language Models Hallucinate(言語モデルはなぜ幻覚を起こすのか)」が、この根深い問題の本質を明らかにしました。結論から言うと、ハルシネーションは単純なバグではなく、AIの学習方法と評価方法に構造的に組み込まれた「避けられない問題」だったのです。
目次
大規模言語モデルの学習(事前学習/プレトレーニング)は、数十億個のテキスト例から「次の単語を予測する」訓練を繰り返します。
🔍 ポイント
たとえ学習データが完璧で、誤字脱字や偽情報が一切なくても、学習プロセスの数学的性質上、間違いは必ず発生します。
研究チームは、ハルシネーションを「分類エラーの一種」として捉えました。
Is-It-Valid?(IIV)テストを想像してください
論文では以下の数式で下限を示しています:
(generative error rate) ≳ 2 · (IIV misclassification rate)
(生成エラー率 ≳ 2 × IIV誤分類率)
実際のケースで考えてみましょう
学習データに100万人の誕生日が含まれているとします。しかし、そのうち20%は一度しか言及されていません(シングルトン)。
⚠️ 何が起こるか?
AIが後でこれらの誕生日について質問されると、少なくとも20%のケースで間違った答えを返します。
これは「シングルトン率」と呼ばれ、ハルシネーションと直接的に関連しています。
💡 なぜこうなるのか?
稀な事実が一度しか登場しない場合、AIは一般化できるパターンを学習できません。結果として、推測に頼らざるを得なくなります。
これは統計的な必然であり、AIの「怠惰」ではありません。過去のn-gramモデル(2つ前の単語しか見ない古いモデル)が複雑なパターンを捉えられないのと同じ原理が、より高度なレベルで現代のAIでも起きています。
「シングルトン問題」って聞くと、とても専門的で難しそうに感じるんですが、実際にはどういうことが起こっているんですか?
簡単に言うと「一度しか見たことがない情報は、AIが覚えきれない」という問題です。例えば、あなたが学校で「田中さんの誕生日は3月15日」という情報を教科書で一度だけ見たとして、1年後のテストで聞かれたらどうでしょうか?正確に覚えている確率は低いですよね。AIも同じで、学習データに一度しか登場しない情報(誕生日、電話番号、住所など)は、パターンとして学習できないため、後で質問されると推測で答えてしまうんです。これが「シングルトン問題」の本質で、統計的に避けられない現象なんです。
事前学習でエラーが生じても、その後の調整(RLHF:人間のフィードバックからの強化学習など)で修正できるはず…と思いきや、実はそうではありません。
学校のテストに例えてみましょう
📝 選択式テストの採点ルール
分からない問題があったらどうしますか?多くの人は推測で答えを埋めるはずです。
🤖 AIも全く同じ状況です
主要なAIベンチマーク(MMLU、GPQA、SWE-bench、BBH、MATHなど)は厳格な二択評価を採用:
その結果、常に推測するAIが、慎重に「分からない」と答えるAIより高いスコアを獲得します。
🏆 リーダーボードの影響
研究者や企業は、ベンチマークでの高スコアを目指すため、「推測する」AIを作ることが最適解になってしまいます。
論文では、これを「不確実性を罰する流行病」と表現しています。
なんでAIって「分からない」って素直に言わずに、間違った答えでも堂々と答えてしまうんでしょうか?
これは実は、AIの性格の問題ではなく「テストの採点方法」に原因があります。学校のテストを思い出してください。正解したら1点、間違いや空欄は0点。この場合、分からない問題があっても「とりあえず何か書いておこう」となりますよね。AIの評価システムも全く同じで、「正解か不正解か」の二択しかないんです。「分からない」と正直に答えても評価されないため、AIは推測でも何かしら答える方が高得点を取れる構造になっています。つまり、AIが嘘をつくのは「正直者が損をする」評価システムが原因なんです。
研究チームは「新しいハルシネーション測定ベンチマーク」を作るのではなく、既存の主要ベンチマークの採点方法を変更することを提案しています。
改善案:正直さを報酬する採点システム
回答パターン | 従来の採点 | 提案される採点 |
---|---|---|
正解 | +1点 | +1点 |
不正解 | 0点 | -1点 |
「分からない」 | 0点 | 0点 |
✅ この変更で何が起こるか?
推測より正直さが報われるようになり、AIは「分からない」と答える戦略を学習します。
これは技術的な修正ではなく、社会技術的な修正(評価方法の改善)です。
「社会技術的な修正」って何ですか?新しいAIを作るのとは違うんでしょうか?
まさにその通りです!「社会技術的な修正」というのは、AIのプログラム自体を変えるのではなく、「AIを評価する仕組みや社会のルール」を変えることです。例えば、今まで学校のテストが「正解1点、不正解0点」だったのを「正解1点、不正解マイナス1点、分からないは0点」に変更するイメージです。こうすると、適当に答えるより「分からない」と言った方が安全になりますよね。OpenAIは新しいAIを開発するのではなく、既存のAI評価テスト(ベンチマーク)の採点ルールを変更することで、AIが正直になるよう促そうとしているんです。技術の進歩より、評価の仕組みを変える方が効果的だということですね。
ハルシネーションは単なる学術的興味の対象ではありません。医療、法律、金融などの重要分野でAIへの信頼を阻害する深刻な問題です。
🏥 医療現場 「珍しい薬の投与量は?」→ AIが勝手に数値を作り上げる
⚖️ 法務分野 「この判例を教えて」→ 存在しない裁判事例を詳細に説明
💰 金融業界 「この企業の業績データは?」→ 不正確な情報や数値を生成する可能性
⚠️ 現在の問題
推測を報酬するシステムが続く限り、この問題は解決しません。しかし、ベンチマークが不確実性に価値を与え始めれば、AIは「分からない」と言うことを学習します。
💡 これは非常に人間的な行動であり、AIが信頼できると感じられるために欠けている重要な要素かもしれません。
この論文は、ハルシネーションを「新しいアーキテクチャ」や「検索機能の追加」といった技術的解決策で片付けようとはしていません。
代わりに、問題の根源を以下の2点に整理しています。
🎯 AIユーザーとして
🏢 AI開発者・研究者として
信頼できるAIシステムを実現するためには、より賢いモデルを作ることよりも、より良い質問をし、より適切な評価をすることが重要かもしれません。
AIが「分からない」と正直に答えられる世界。それは技術の限界を認めることではなく、より成熟したAI活用の第一歩なのです。
📚 関連情報をもっと知りたい方は
🚀 まずは実践してみよう
次回ChatGPTを使う時は、曖昧な回答に対して「確実ですか?」「根拠はありますか?」と追加で質問してみてください。きっと新たな発見があるはずです!
DBS銀行のデータサイエンティスト。生成AIの実務活用や教育に精通し、情報発信も積極的に行う。
Mehul Gupta(メフル・グプタ)は、DBS銀行のデータサイエンティストであり、 著書『LangChain in Your Pocket』の著者としても知られています。 AIや機械学習の知見を発信するプラットフォーム「Data Science In Your Pocket」を主宰し、 Mediumでは350本以上の技術記事を執筆するトップライターとして活躍中です。 過去にはTata 1mgにて医療データのデジタル化にも取り組みました。 趣味はギター演奏とAI教育への貢献です。
この記事は著者の許可を得て公開しています。
元記事:OpenAI answers Why ChatGPT Hallucinates
Workstyle Evolution代表。18万人超YouTuber&著書『ChatGPT最強の仕事術』は4万部突破。
株式会社Workstyle Evolution代表取締役。YouTubeチャンネル「いけともch(チャンネル)」では、 AIエージェント時代の必須ノウハウ・スキルや、最新AIツールの活用法を独自のビジネス視点から解説し、 チャンネル登録数は18万人超(2025年7月時点)。