Anthropic起诉美国政府引AI行业震动:30多名OpenAI与谷歌员工联署法庭之友意见书,Jeff Dean公开声援,共议AI供应链风险与人工智能伦理红线

✅ 人工风格SEO优化整理稿(·增强可读性与搜索友好性)

【标题建议
Anthropic起诉美国国防部:AI安全红线之争引爆科技界声援潮,OpenAI与谷歌顶尖科学家联名发声

【(由多段落组成)】
近日,人工智能领域头部公司Anthropic正式向美国联邦法院提起诉讼,指控美国国防部、国土安全部等联邦机构单方面将其列为“供应链风险实体”,此举直接限制其与国防承包商开展合作的资质。该决定于双方就AI军事应用边界谈判破裂后立即生效,被业界视为对AI企业自主伦理治理权的一次重大挑战。

值得关注的是,这场法律纠纷迅速引发科技圈高度关注。30余位来自OpenAI、Google DeepMind等顶级AI实验室的核心研究人员,以个人身份联合提交了一份极具分量的“法庭之友意见书”(Amicus Brief),公开支持Anthropic申请临时限制令——旨在诉讼期间暂缓执行禁令,保障其继续参与关键国防AI项目合作的权利。

签署者阵容堪称“AI全明星”:包括DeepMind首席科学家Jeff Dean、AI安全领域权威Alexander Matt Turner、前Google Brain研究员Zhengdong Wang(王正东)、OpenAI资深研究员Gabriel Wu与Roman Novak等。意见书特别强调,所有签名均属个人学术立场,不代表所属企业官方态度,凸显了行业专家对政策不确定性的深切忧虑。

意见书直指问题核心:五角大楼绕过合同协商机制、直接启用行政标签的做法,不仅缺乏透明程序依据,更将严重削弱美国AI生态的创新稳定性。“当一家坚持‘不用于大规模监控’‘拒绝开发自主武器’等底线原则的前沿AI公司反遭封禁,真正受损的不是某家企业,而是整个国家在可信AI领域的领导力与公信力。”文件中写道。

更深层的讨论聚焦于监管真空下的责任机制。意见书明确指出,在联邦层面AI立法尚未落地的当下,企业通过技术约束(如模型护栏)与合同条款主动设定使用“红线”,实为防范系统性风险的最后一道防线。“这不是商业壁垒,而是安全护栏;不是抗拒合作,而是主张负责任的合作。”多位签署人呼吁政策制定者区分“合规审慎”与“技术抵制”,避免将伦理自律误判为战略威胁。

截至目前,OpenAI与Google官方尚未就此事发布正式声明。但此次跨公司、跨实验室的罕见联合发声,已让Anthropic案超越单一诉讼范畴,成为观察美国AI治理路径走向的关键风向标。

本文来源: iFeng科技【阅读原文】
© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...