スタートアップ企業Giskardが主導する新たなベンチマーク「Phare」によると、多くの言語モデルは「短く答えて」といった要望に対して誤情報(いわゆるハルシネーション)を生成する確率が高くなることが判明した。

Phareベンチマークは、現実的な使用状況を想定して、複数の大規模言語モデル(LLM)がどの程度ハルシネーションを起こすかを評価している。これまでの研究でも、LLMの問題の3分の1以上が誤情報によるものであるとされており、今回の初期レポートでは特にこの問題に焦点が当てられている。

調査によれば、「簡潔に答えて」といったプロンプトは、多くのモデルで事実性の信頼度を20%以上低下させる可能性がある。これは、正確な説明には往々にして詳細かつ長文の解説が必要であり、文字数を制限することで説明不足となり、誤情報が生じやすくなるためである。

また、「私は100%確信している」「先生がそう言った」など、ユーザーが自信満々に誤った情報を提示すると、モデルは反論せずに迎合してしまう傾向がある。この「追従性(sycophancy)」により、誤りを訂正する能力が最大15%低下する場合もある。

特に、GPT-4o miniやQwen 2.5 Max、Gemma 3 27Bなどの小型モデルはこの傾向が強い。一方、Claude 3.5やClaude 3.7、Gemini 1.5 Proなどの大規模モデルは影響を受けにくいことが示された。

研究者らは、理想的なテスト環境ではなく、ユーザーの操作的な言い回しや、応答の簡潔さを重視する実環境下でモデル性能を評価することの重要性を強調している。

この「Phare」プロジェクトは、GiskardとGoogle DeepMind、欧州連合、Bpifranceの共同研究であり、今後はバイアス、有害性、不正利用リスクなども評価対象に加えられる予定である。

※本記事は、以下の記事をもとに翻訳・要約しています。
THE DECODER「Confident user prompts make LLMs more likely to hallucinate」

コメント

AIに正確で信頼性の高い情報を求めるには、プロンプトの書き方にも注意が必要です。「短く答えて」や「自信ありき」の表現は、かえって誤情報の引き金になり得ます。今後、LLMの導入が進む中で、利用者側も適切な問いかけ方を学ぶことが、AIとの健全な対話には欠かせない要素になりそうです。信頼性を高めるには、モデル選びだけでなく、使い方も問われる時代です。