AI 术语词典

幻觉

当 AI 自信地说出错误的内容

定义

幻觉是指语言模型生成听起来合理但实际上错误的信息的现象。模型无法访问外部真相,它们根据训练数据中的模式预测文本,这可能导致捏造的引用、错误的日期或虚构的事实。RAG 和接地技术有助于减少事实性任务中的幻觉。

相关术语

返回术语词典