2026年3月18日,美国国防部在加州联邦法院提交40页文件,称Anthropic的“红线”政策构成“不可接受的国家安全风险”,理由是其可能在战事中擅自关闭或修改AI系统。此前,Anthropic因拒绝接受“所有合法用途”条款、坚持限制技术用于监控及致命武器决策,与五角大楼就2亿美元合同产生争议;后者则强调军方有权决定技术使用方式。律师克里斯·马蒂指出,国防部缺乏证据支持其担忧,仅依赖推测性假设,
简讯 发布时间: 2026年3月18日,太平洋时间上午6:40
图片版权: Getty Images / Rebecca Bellan
美国国防部称Anthropic的“红线”政策使其构成“对国家安全不可接受的风险”
美国国防部于周二晚间表示,Anthropic公司对美国国家安全构成了“不可接受的风险”,这是该部门首次就人工智能实验室针对国防部长皮特·赫格塞斯(Pete Hegseth)上月将其列为“供应链风险”的决定所提起的诉讼作出回应。在相关诉讼中,Anthropic曾请求法院暂时禁止国防部执行其“供应链风险”标签。
美国国防部在加州联邦法院提交的一份长达40页的文件中指出,其核心关切在于:若Anthropic认为其企业“红线”(red lines)正被逾越,该公司可能在战事行动开始前或期间,“试图关闭其技术系统,或提前修改其模型行为”。
去年夏天,Anthropic与五角大楼签署了一份价值2亿美元的合同,用于将其技术部署于机密系统中。在后续关于合同条款的谈判过程中,Anthropic曾明确表示,其AI系统不应被用于对美国民众的大规模监控;同时强调,该技术尚不具备用于致命武器的瞄准与开火决策的能力。对此,五角大楼反驳称,私营企业无权决定军方如何使用技术。
专注于第一修正案问题的律师、前司法部官员克里斯·马蒂(Chris Mattei)向TechCrunch表示,目前并无任何调查证据支持国防部对Anthropic可能在战事期间禁用或篡改其AI模型的担忧。他认为,若缺乏此类证据,国防部的论点便无法充分解释为何Anthropic的谈判立场使其成为“敌对方”。
“政府完全依赖于推测性、想象性的假设,来为他们对Anthropic采取的这一极为严重的法律举措提供正当性依据。”马蒂指出,“此外,政府部门未能阐明一个可信甚至可理解的理由——即为何Anthropic拒绝接受‘所有合法用途’条款,就足以使其成为供应链风险,而非仅仅是国防部不愿与其合作的供应商。”
众多组织已对国防部对待Anthropic的方式提出批评,认为五角大楼本可直接终止其合同。包括OpenAI、谷歌、微软在内的多家科技公司及员工,以及多个公民权利组织均已提交“法庭之友”(amicus curiae)意见书,支持Anthropic。
在诉讼中,Anthropic指控国防部侵犯了其第一修正案权利,并以意识形态为由对其实施惩罚。
TechCrunch活动预告 Disrupt 2026:科技生态系统的全景汇聚
您的下一轮融资、下一位人才、下一个突破性机遇——尽在TechCrunch Disrupt 2026!届时将有超过1万名创始人、投资者及科技领袖齐聚一堂,为期三天的活动中将举办250余场实战型研讨会与高效对接环节,助您把握关键发展契机。
来源:Rebecca Bellan
