ハルシネーション
ハルシネーション(Hallucination)は日本語で「幻覚」と訳され、実際に存在しないものが見えたり聞こえたりする現象を指す。生成AIが誤った情報をもっともらしく答える現象が、AIが幻覚(ハルシネーション)を見ているようだとしてAIの分野でもこの言葉が使われている。
代表的なハルシネーションの例として、存在しない人物や出来事に関する情報を提供する偽の事実生成がある。例えば歴史的な人物の名前をAIモデルに尋ねたとき、存在しない人物名を返答することがある。
ほかにも、学習データの偏りやデータ量の不足から、不正確なデータをAIモデルが生成したり、参考文献の引用で架空の引用を作成したりする場合がある。
このようなハルシネーションのリスクを減らすために、質が高く、多様なトレーニングデータを使うことが重要である。収集したデータを人間の専門家が検証し、不正確な情報や架空のデータをフィルタリングする仕組みを取り入れる。AIモデルが多様な状況に対応できるようにトレーニングデータを拡張し、モデルが特定のパターンに固執せず、広範な知識を持つことも必要になる。
対策を組み合わせることで、AIモデルのハルシネーションを効果的に抑制し、より信頼性の高い出力を実現することが求められる。