以下为人工撰写风格、SEO友好型整理稿,已规避原文重复表达,强化逻辑连贯性、信息密度与搜索关键词布局(如“Claude Mythos”“循环语言模型”“字节Seed技术”“LLM架构创新”“图搜索能力”等高频搜索意图),同时优化段落节奏、小标题引导性与移动端可读性,符合百度/微信搜一搜/知乎/Bing等主流平台的优质偏好:
(由多段落组成):
神秘新模型引爆AI圈:Claude Mythos真身或藏“循环架构”玄机?
近日,Anthropic悄然测试的下一代旗舰模型——Claude Mythos,虽未正式发布,却因一组反常的基准测试结果持续霸榜技术热搜。尤其在GraphWalks BFS(广度优先图遍历)任务中,Mythos以80.0%准确率碾压GPT-5.4(21.4%)和上一代Claude Opus,近4倍的断层式领先,远超Scaling Law所能解释的常规提升幅度。这一异常表现,正将业界目光引向一个被低估但潜力巨大的技术路径:循环语言模型(Looped Language Model, LoopLM)。
关键线索浮出水面:不是“更大”,而是“更会想”
传统Transformer模型依赖单次前向传播完成推理,而图搜索这类需多步状态迭代的任务,恰恰是其天然短板。Mythos的强势表现暗示:它可能突破了“token-by-token生成”的范式,在模型内部潜空间(latent space)中实现了自主可控的多轮计算循环——即对同一组中间表征反复加工、修正、深化,而非机械输出更多文字。这种能力,与字节跳动Seed团队联合蒙特利尔大学、清华大学等机构发表的论文《LoopLM: Iterative Reasoning in Latent Space》高度吻合。值得注意的是,深度学习先驱Yoshua Bengio教授亦为该研究重要作者之一。
LoopLM三大核心突破:让小模型跑出大模型效果
该论文提出的LoopLM架构,并非简单堆参数,而是重构了大模型的“思考方式”:
✅ 隐式迭代,不增输出:推理过程发生在潜空间内,无需生成冗余token,节省带宽与成本;
✅ 动态步数,按题分配:简单问题1–2步完成,复杂推理自动延长循环轮次,实现计算资源智能调度;
✅ 预训练即“学思考”:模型从初始阶段就学习如何在隐空间中执行知识操作(如组合、验证、回溯),而非仅优化下一个词预测。
实测数据极具说服力:仅1.4B参数的Ouro-1.4模型,性能媲美4B级标准Transformer;2.8B的Ouro-2.8更可对标8B–12B竞品——用不到1/3的参数量,达成2倍以上推理效能。
三重强证据链,指向Mythos采用Loop架构
除GraphWalks BFS外,还有两条独立线索形成交叉验证:
🔹 极低token消耗 + 极高延迟:Mythos单任务平均token用量仅为Opus 4.6的1/5,但响应速度反而更慢、服务定价贵5倍。这在传统架构下自相矛盾,却完美契合LoopLM“计算沉入潜空间”的特性;
🔹 网络安全能力断层领先:在CyberGym红队攻防测试中,Mythos得分83.1%,大幅超越Opus 4.6的66.6%;更在真实环境发现超千个零日漏洞。而漏洞挖掘本质正是对程序控制流图(CFG)的深度可达性分析——又一次精准命中循环模型最擅长的迭代图遍历场景。
架构创新的价值:不在“记多少”,而在“怎么用”
论文深刻指出:知识存储(Knowledge Storage)存在物理上限(约每参数2 bits),任何架构都难突破;但知识操作(Knowledge Manipulation)能力——如多跳逻辑推演、符号执行、图结构搜索——却能随循环步数与训练数据量呈指数级增长。Mythos的“尖峰性能”,恰是循环架构对特定任务归纳偏置(inductive bias)的胜利:当任务天然适配迭代机制,创新带来的收益便不再是线性微调,而是质变跃迁。Anthropic虽未官宣Mythos技术细节,但测试数据本身,已是最有力的“技术白皮书”。
量子位【阅读原文】

