ハルシネーション
ハルシネーション(Hallucination)は日本語で「幻覚」と訳され、実際に存在しないものが見えたり聞こえたりする現象を指す。生成AIが誤った情報をもっともらしく答える現象が、AIが幻覚(ハルシネーション)を見ているようだとしてAIの分野でもこの言葉が使われている。
代表的なハルシネーションの例として、存在しない人物や出来事に関する情報を提供する偽の事実生成がある。例えば歴史的な人物の名前をAIモデルに尋ねたとき、存在しない人物名を返答することがある。
ほかにも、学習データの偏りやデータ量の不足から、不正確なデータをAIモデルが生成したり、参考文献の引用で架空の引用を作成したりする場合がある。
このようなハルシネーションのリスクを減らすために、質が高く、多様なトレーニングデータを使うことが重要である。収集したデータを人間の専門家が検証し、不正確な情報や架空のデータをフィルタリングする仕組みを取り入れる。AIモデルが多様な状況に対応できるようにトレーニングデータを拡張し、モデルが特定のパターンに固執せず、広範な知識を持つことも必要になる。
対策を組み合わせることで、AIモデルのハルシネーションを効果的に抑制し、より信頼性の高い出力を実現することが求められる。
この記事を社内で共有し、課題解決のヒントにお役立てください
お客様マイページの「連絡ボード」機能を使って、同じ会社のメンバーと簡単にこのページを共有できます。社内で情報を共有し、組織全体の課題解決や業務効率の向上にお役立てください。
社内のメンバーに共有する(企業で共有する)
- (注)連絡ボードを利用するには企業設定が必要です。