整理后文章
近年来,人工智能(AI)技术迅猛发展,其在医疗、创作和自动驾驶等领域的应用逐渐增多。然而,麻省理工学院(MIT)的一项最新研究揭示了 AI 在处理否定词时的显著缺陷,这可能对关键领域造成严重风险。
研究团队由博士生 Kumail Alhamoud 领导,联合 OpenAI 和牛津大学共同展开调查。他们发现,包括 ChatGPT、Gemini 和 Llama 等主流模型,在面对“no”或“not”等否定词时,往往倾向于默认为肯定含义,忽略了语句中的否定意义。例如,在医疗场景中,AI 可能误解“无骨折”或“未扩大”等表述,从而导致错误诊断或其他严重后果。
斯坦福大学深度学习兼职教授 Kian Katanforoosh 表示,这种问题并非源于数据量不足,而是由于大多数语言模型依赖模式预测,而非逻辑推理。这意味着,当 AI 遇到类似“不好”这样的否定表达时,仍可能因其中的“好”字而误判为正面情绪。
专家们一致认为,若不赋予模型更强的逻辑推理能力,类似的细微但致命错误将持续发生。Lagrange Labs 的首席研究工程师 Franklin Delehelle 进一步指出,AI 虽然擅长模仿训练数据中的模式,但在面对超出训练范围的情境时却显得无力。
为解决这一问题,研究团队尝试通过合成否定数据(synthetic negation data)来改进模型,并取得了一定成效。不过,如何更精确地捕捉否定语义的细微差异仍然是一个巨大的挑战。
Katanforoosh 强调,AI 对否定词的误解不仅是一个技术缺陷,还可能在法律、医疗和人力资源等领域引发重大错误。他呼吁,未来的解决方案不应仅仅依赖于增加数据量,而是需要结合统计学习与结构化思维,以提升模型的逻辑推理能力。
本文来源:
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...