
编者按:近日,一则关于AI巨头与五角大楼“分手”的猛料引爆全球科技圈。Anthropic,这家被视为AI安全旗手的公司,竟被美国防部贴上“供应链风险”标签,理由是其拒绝为军用AI系统提供“后门控制权”。一场关于技术伦理与国家安全的博弈就此拉开帷幕。本文将独家揭秘这场争议的核心——当AI失去“开关”,究竟是保护人类还是暴露漏洞?从“杀手机器人”禁令到企业被禁合作,每个细节都暗藏玄机。值得关注的是,法院的“分裂判决”更让这场风波扑朔迷离。现在,让我们深入这场改变AI格局的权力博弈。
人工智能开发商Anthropic近日在向联邦法院提交的文件中坚称,其Claude人工智能系统一经部署到五角大楼机密军事网络后,便不存在任何“后门”或“紧急关闭开关”。
今年早些时候,美国军方与这家科技公司陷入政策纠纷。五角大楼坚持要求将该系统用于“所有合法军事目的”,而Anthropic则坚守其关于大规模监控和全自主武器使用相关的AI安全准则。
最终,五角大楼终止了与Anthropic的合作关系,将其标记为“供应链风险”——这一罕见标签通常用于华盛顿方面指定的外国敌对实体。该标签不仅禁止该公司直接与美国政府合作,还禁止任何承包商使用其产品。
在提交给华盛顿特区联邦上诉法院的最新文件中,Anthropic驳斥了美国政府的关键指控——即该公司在将Claude AI部署到机密系统后仍保留一定程度控制权,并实质上赋予自身“运营否决权”。该公司声明自己“没有后门或远程紧急关闭开关”,其“人员无法登录国防部系统来修改或禁用运行中的模型”。
该公司辩称,提供给五角大楼的AI系统属于“静态”模型。一旦部署,该系统“不会自行退化或改变,且在国防部部署后,Anthropic无法向模型推送未公开或未经授权的更改”。
2月27日,Anthropic被正式认定为“国家安全供应链风险”,与此同时,美国总统特朗普指责该公司由“左翼疯子”运营。该公司在法庭上对该标签提出质疑,至今法律战结果不一。
本月早些时候,华盛顿特区法院驳回了Anthropic暂停供应链风险标记的请求。然而,在加利福尼亚州的平行案件中,法院支持该公司立场,暂时阻止了政府的决定。由于判决出现分歧,Anthropic仍被禁止与五角大楼合作,但在法律战持续期间,其与其他机构的合作关系得以保持。