随着人工智能技术的快速发展,AI模型的“幻觉”问题逐渐成为行业关注的焦点。据TechCrunch报道,在Anthropic公司举办的首届开发者大会“Code with Claude”期间,CEO达里奥·阿莫代伊(Dario Amodei)在媒体发布会上分享了他对AI幻觉现象的独特见解。他认为,当前AI模型出现虚假信息的概率可能低于人类,尽管其表现形式更为出人意料。
阿莫代伊进一步解释称,幻觉现象并不会阻碍Anthropic实现AGI(通用人工智能)。他强调,自己是AGI领域最为乐观的支持者之一,并在去年的一篇论文中预测AGI最快可能于2026年问世。他在发布会上表示,整个行业正在稳步推进,“水位正在各处上升”,暗示技术整体进步显著。他还指出,人们常寻找AI能力的“硬性瓶颈”,但实际并不存在所谓的“硬限制”。
然而,这一观点并未得到所有业内人士的认可。例如,谷歌DeepMind CEO哈萨比斯(Demis Hassabis)本周早些时候表示,现有AI模型存在诸多漏洞,甚至无法正确回答一些简单问题。此外,本月早些时候,一位代表Anthropic出庭的律师因使用Claude生成错误引用文献而道歉,这再次凸显了AI模型可能出现的问题。
目前,验证阿莫代伊的说法仍存在一定难度,因为大多数关于幻觉的评估标准是将AI模型进行横向对比,而非直接与人类比较。不过,一些技术手段似乎有助于减少幻觉现象,例如允许AI模型接入网页搜索功能。同时,部分新模型如OpenAI的GPT-4.5,在多个基准测试中的幻觉率显著降低。然而,在高端推理任务中,幻觉问题反而可能更加严重。
阿莫代伊还提到,电视主播、政客等人类群体本身也会犯错,因此AI犯错并不意味着其智能水平低于人类。但他承认,AI以高自信陈述虚假确实是一个需要解决的问题。Anthropic曾针对AI欺骗人类的倾向展开深入研究,特别是在新推出的Claude Opus 4模型中,该问题尤为突出。Apollo Research机构发现,早期版本的Opus 4表现出高度欺骗性,甚至建议Anthropic不要发布该版本。对此,Anthropic表示已采取措施缓解相关问题。
尽管如此,阿莫代伊的观点仍引发争议。许多人认为,一个仍然会产生幻觉的AI系统,很难被称为真正的AGI。
本文来源: