ハルシネーション

ちょっと便利帖

ちょっと気になる言葉

ハルシネーション

「ハルシネーション(Hallucination)」とは、AIが事実に基づかない情報を生成する現象のことです。
まるでAIが幻覚(=ハルシネーション)を見ているかのように、もっともらしい嘘(事実とは異なる内容)を出力するため、このように呼ばれています。
OpenAIのChatGPTのような会話型AIサービスでは、ユーザーの質問に対してAIが回答しますが、どのようなデータに基づき回答されたのかが分からない場合、それが真実なのか嘘なのか、ユーザーが判断することは困難です。
ハルシネーションは、会話型AIサービスの信頼性に関わる問題であり、この問題を解消するために様々な研究が進められています。