【华盛顿讯】 科技伦理与国家权力的博弈已进入白热化阶段。据知情人士透露,人工智能巨头 Anthropic 近日正式回绝了美国国防部的一项最新和解协议。这一决定意味着,这家以“AI 安全”为标签的企业,正面临被踢出美国国防供应链的极端风险。
这场纠纷的核心在于 Anthropic 对其核心模型 Claude 施加的军事禁令。国防部长皮特·海格塞斯(Pete Hegseth)此前向该公司发出了明确通牒:要么在周五前撤销所有针对军事用途的技术限制,要么被正式标记为“供应链风险”。
一旦该标签生效,Anthropic 不仅将失去价值数亿美元的现有合同,还将被禁止参与未来任何涉及国家安全的项目。然而,Anthropic 首席执行官达里奥·阿莫代伊(Dario Amodei)在内部声明中直言,公司“在良知上无法接受”军方提出的不受限访问要求。
Anthropic 自成立以来便坚持其“宪法 AI”(Constitutional AI)框架,并针对军事应用划定了两条不可动摇的界限:
1. 禁止直接参与开发或驱动自主杀伤性武器系统;
2. 禁止将技术用于针对美国境内的大规模数字监视。
但在五角大楼看来,这些限制是“不切实际的束缚”。军方官员认为,在人工智能成为核心军备的今天,国防部必须拥有对所购技术的完整解释权与操作权,而不应受到私人公司意识形态的干扰。
随着 Anthropic 与军方的关系濒临破裂,行业格局正发生剧变。此前,Anthropic 曾通过与 Palantir 的合作在机密网络中占据一席之地。但现在,五角大楼已迅速向其他厂商伸出橄榄枝。
据悉,埃隆·马斯克旗下的 xAI 已获准进入相关机密网络,表现出了极高的配合度。与此同时,OpenAI 和 Google 也在积极游说,试图证明其产品在满足国家安全需求方面更具“灵活性”。
法律专家指出,此案将成为 AI 发展史上的分水岭。它迫使整个硅谷直面一个残酷的问题:在国家利益面前,开发者是否还有权保留对算法的伦理控制?
如果 Anthropic 最终被封杀,这不仅是一家公司的商业挫败,更预示着一个新时代的到来——在这个时代,人工智能不再仅仅是生产力工具,而是必须绝对服从于国家战略的铁血军备。随着截止日期的临近,全球科技界正屏息关注 Anthropic 是否会成为首个因坚守安全伦理而牺牲政府市场的 AI 巨头。