如果要给2026年科技圈选一个最讽刺的故事,Anthropic被五角大楼列为“供应链风险”这件事大概稳进前三。一家成立时就把“AI安全”刻进基因、连公司使命都是“为了人类长期利益负责任地开发AI”的公司,结果被美国国防部认定为对国家安全有潜在威胁。这剧情,比任何赛博朋克小说都魔幻。

事情是怎么发生的
先说清楚来龙去脉。五角大楼近期将Anthropic列入所谓“供应链风险”名单——这个名单通常是给那些被认为可能对军事或国家安全基础设施构成威胁的供应商准备的。被列入意味着政府合同可能会优先绕开你,各种合作大门也会慢慢关上。
Anthropic的反应是直接起诉。他们声称,这一认定毫无依据,可能让公司损失数十亿美元的潜在政府合同和商业合作机会。特朗普政府方面则放出话来,不排除对Anthropic采取进一步行动。
有意思的地方来了:这家公司到底“危险”在哪里?Anthropic的背景是:前OpenAI核心团队出走创立,核心研究方向就是AI安全与对齐。他们搞出了“宪法AI(Constitutional AI)”方法论,写了大量关于如何让AI不作恶的论文。Claude系列模型在行业里以“相对保守、拒绝有害请求”出名——以至于有人抱怨它太爱说“我无法帮助完成这个请求”。
微软站队,谷歌反手扩张
这件事真正有看头的,是科技巨头们的反应。
微软选择公开声援Anthropic,成为第一家在这场争端中明确表态支持Anthropic起诉五角大楼的科技巨头。原因不难理解:微软重金投了OpenAI,在AI军事化问题上本来就立场微妙,此时支持Anthropic,可以顺势把自己包装成“负责任AI”一派。
谷歌则反手扩大了对五角大楼的渗透。就在Anthropic和国防部闹翻的档口,谷歌悄悄加深了和军方的合作。这不是什么阴谋论,这是商业逻辑:你不做,别人做。五角大楼的AI合同是一块肥肉,Anthropic一闹,谷歌的报价就更好看了。

AI安全这张牌,是真信仰还是商业外衣
对Anthropic一直有些矛盾的看法。他们在AI安全上做的研究确实扎实,团队里不乏真正在乎这件事的研究员。但公司要活下去,就得融资,就得找客户,就得增长。Anthropic这几年拿了亚马逊、谷歌超过70亿美元的投资,本身已经是商业利益的产物。
五角大楼的这次认定,某种程度上是一个信号:AI安全这张牌,在地缘政治博弈面前,随时可以被重新解读。今天美国国防部说Anthropic是“风险”,明天可能换个理由说OpenAI是“风险”。游戏规则掌握在有枪的人手里,AI公司再怎么强调自己的价值观,也逃不过这套逻辑。
更深的问题是:Anthropic的AI安全研究,是为了让AI对全人类更安全,还是只是为了让AI对“美国利益”更安全?这两者在和平时期看起来差不多,但在军事化趋势下,差距会越来越明显。
这件事对整个AI行业的影响
别以为这只是Anthropic一家公司的麻烦。这件事传递的信号很清楚:
- AI公司必须站队。五角大楼的“供应链风险”名单不是技术评估,是政治评估。你跟谁合作、你的投资方是谁、你拒绝了哪些政府合同——这些都会变成政治筹码。
- AI安全叙事正在被武器化。Anthropic用AI安全作为品牌定位,但这个定位现在也成了攻击点——“你们说的AI安全,是不是和美国国防利益不一致?”
- 中国AI公司的启示:看看美国这边发生了什么,再想想那些担心中国AI公司“数据安全”的声音——这套政治博弈逻辑,是通用的。
最后说句实话
不知道Anthropic这场官司能不能赢。法律层面,他们可能有站得住脚的地方——毕竟“供应链风险”认定应该有具体依据,不能随便贴标签。但在政治层面,当特朗普政府明确表示“不排除进一步行动”,这就不只是法律问题了。
Anthropic的处境说明了一件事:AI公司想要在商业上成功,同时又想在价值观上保持独立,这条路比任何人预想的都难走。所谓的“负责任AI”,在现实的商业和地缘政治压力下,往往只能是一个不断被压缩的理想。
当然,也有可能想多了。也许这只是特朗普政府的一次商业谈判策略,施压之后双方达成某种协议,Anthropic拿到若干国防合同,故事就结束了。毕竟在华盛顿,大多数“原则”都有个价格标签。
本网站的文章部分内容来源于网络,仅供大家学习与参考,如有侵权,请联系站长 QQ:24844 进行删除处理。本站一切资源不代表本站立场,不代表本站赞同其观点和对其真实性负责。本站一律禁止以任何方式发布或转载任何违法的相关信息,访客发现请向站长举报。本站资源大多存储在云盘,如发现链接失效,请联系我们我们会第一时间更新。














![修愚分享推广计划正式上线,推广可获高额奖励[限时推广]-修愚](https://xiuyu.com/wp-content/uploads/2025/05/愚你同乐-1024x410.jpg)


暂无评论内容