05月

11日

  • 研究显示:要求聊天机器人简短回答会加剧"幻觉"现象

    牛透社 2025 年 5 月 8 日消息,巴黎人工智能测试公司 Giskard 发布最新研究成果,揭示要求聊天机器人简短回答会加剧“幻觉”现象。该研究基于其正在开发的人工智能模型基准测试体系,聚焦于评估模型事实准确性。

    Giskard 核心业务为构建人工智能模型评估框架,其研究发现当用户要求模糊性话题保持简洁时,主流模型事实准确性显著下降,OpenAI 最新 o3 等推理模型更易产生幻觉。研究表明,“保持简洁”类提示会削弱模型纠错能力,技术细节显示用户偏好与事实准确性存在冲突。

意见反馈
返回顶部