繁体中文  
 
版主:黑木崖
 · 九阳全新免清洗型豆浆机 全美最低
 
3800亿的“良心”,五角大楼为何不买账?
送交者:  2026年03月03日09:45:02 于 [世界军事论坛] 发送悄悄话

第一军情军事评论员 鲁源

这几天,人们的目光被德黑兰上空的爆炸声所吸引,却似乎忽视了来自AI界的一条重大新闻。

2月27日下午,华盛顿时间5时01分,硅谷的一家AI公司,被自己的政府“封杀”了。

罪名?拒绝杀人。

这家公司叫Anthropic,估值3800亿美元,旗下大模型Claude,原本是唯一被允许接入五角大楼机密系统的商业AI。就在24小时前,它的CEO阿莫迪还在说:“我们在良心上无法同意他们的要求。”

24小时后,美国总统特朗普亲自下场,宣布所有联邦机构立即停用Anthropic技术。国防部长皮特·赫格塞思紧接着又宣布,将Anthropic列为“供应链风险企业”——这个标签,以前只给外国对手。

而就在第二天,2月28日,德黑兰的爆炸声中,美军用Claude完成了包括最高领袖在内的40位伊朗高官的精准清除。

这24小时,是一家硅谷公司与华盛顿的决裂,也是AI战争史上一道分水岭。

一、红线之争:“安全优先”撞上“所有合法用途”

故事,要从一个月前说起。

2026年1月初,美军在突袭抓捕委内瑞拉总统马杜罗的行动中,使用了Claude。Anthropic公司事后从媒体上得知此事,向五角大楼求证,并表达了“深度关切”。

关切的不是“用没用”,而是“怎么用”。

Anthropic给Claude设了两条红线:不得用于完全自主武器系统,不得用于对美国公民的大规模监控。这是它从创立之初就标榜的“安全优先”品牌——这家由OpenAI前核心成员创办的公司,一直以“最负责任的AI”自居。

但五角大楼要的是“所有合法用途”无限制使用。

2月24日,美国防长赫格塞思亲自约谈阿莫迪,要求对方撤掉所有限制。阿莫迪拒绝了。五角大楼随即发出最后通牒:2月27日下午5点01分前,要么配合,要么出局。

同一天,马斯克的xAI与五角大楼签约,接受了“所有合法用途”条款。一个标杆,已经摆在那里。

二、特朗普开炮:“觉醒主义”vs“伟大军队”

2月27日下午4时,距离截止时间还剩一小时。

特朗普在社交媒体上亲自下场:“美国绝不允许极端左翼、觉醒主义企业干涉伟大军队如何作战并赢得战争!Anthropic的那些左翼疯子企图胁迫‘战争部’遵从该公司的服务条款而不是我们的宪法,这是一个灾难性错误。”

特朗普命令所有联邦机构“立即停止”使用Anthropic技术,设6个月过渡期。赫格塞思随即宣布,将Anthropic列为“国家安全供应链风险企业”。

五角大楼官员甚至对阿莫迪本人发起攻击,称这位CEO“一心只想试图亲自掌控美国军队,并甘愿将国家安全置于危险之中”。

三、OpenAI的“光速滑跪”:声援归声援,合同归合同

就在Anthropic被政府封杀的同一时刻,它的老对手OpenAI做出了截然不同的选择。

2月27日,OpenAI宣布与五角大楼达成协议,将公司AI模型部署于五角大楼的机密网络。CEO奥特曼一边在社交媒体上声援Anthropic——“我基本信任这家公司,我认为他们确实非常重视安全问题”——一边签下了合同。

OpenAI创立之初为非营利性质,也曾禁止将技术用于军事领域。然而,从2024年开始放宽限制,如今连公司宗旨说明中的“安全”两字都已去掉,只说“造福全人类”。

同日,OpenAI宣布最新一轮融资估值达到7300亿美元,融资1100亿美元。资本的逻辑,从来就不等人。

四、Anthropic也是双面人:一边删红线,一边举良心

2月24日,就在被五角大楼召见的前一天,Anthropic其实已经悄悄删除了自己安全政策中的“硬性红线”——那个承诺“触及危险阈值就暂停训练”的条款,被替换成更灵活的“透明披露”机制。外界解读:这是准备让步的信号。

一边标榜自己是“最负责任的AI”,一边在政府施压下已经开始松动“安全优先”边自己先把底线的绳子松了松。这种说一套做一套的双面人姿的承诺;一边用所谓“良心”当挡箭牌对抗军方,一态,连好莱坞编剧都不敢这么写。

马斯克干脆在X上补了一刀,话虽然刻薄,但角度刁钻:“他们怎么敢‘偷窃’Anthropic从人类程序员那里偷来的东西?”——言下之意:大模型本来就是用全人类的数据训练的,谁比谁更“原创”?

事实上,所谓的“安全优先”,原来也是有价格的。今天可以用“良心”跟政府讨价还价,明天就可以用同样的逻辑跟商业对手谈判。只可惜,五角大楼没吃这一套——他们要的是绝对服从,不是讨价还价。

五、最讽刺的24小时:封杀、空袭与补刀

如果把时间线拉长,讽刺感似乎会更浓。

2月24日:Anthropic悄悄删除了安全红线。

2月27日:Anthropic被政府封杀。

2月28日:就在封杀后几小时,美军用Claude对伊朗发动空袭,哈梅内伊身亡。德黑兰上空的爆炸声,宣告了一场“没有Anthropic的AI战争”照样打响了。

马斯克在X上又一次补刀:“Anthropic憎恨西方文明。”

而OpenAI的550多名员工签署公开信,支持Anthropic的立场,呼吁各自公司的领导层对五角大楼的要求说“不”。吊诡的是,他们公司的合同,已经签了。

六、权力对决:谁来决定 AI 的生死线?

Anthropic与五角大楼的这场“决裂”,表面是“两条红线”之争,实质是一个更深的问题:当AI越来越强大,谁有权决定它如何被使用?

是创造它的公司?还是掌控战争机器的美国政府?

乔治城大学人工智能政策专家海伦·托纳说,这揭示了一种根本性的“认知脱节”:在华盛顿,官员们将AI视为一种可被用于特定目标的新工具;而在硅谷,技术创造者则越来越将其视为一种具备复杂推理能力的“实体”,可能以不可预测且危险的方式行事。牛津大学一位研究AI治理的学者说得更直接:“这本质上是关于国家权力与公司之间,谁有权决定AI如何在世界上被部署的问题。”

但问题是:当Anthropic这样的美国公司一边用“良心”当挡箭牌对抗政府,一边自己已经在悄悄松动“安全优先”的承诺时,它所谓的“底线”,到底还有几分真诚?

七、德黑兰之后:“良心”败了,战争赢了

2月28日,德黑兰的爆炸声过后,一个问题摆在那里:

如果Anthropic拒绝让步,美军就用不了Claude——这是这家公司的“良心”。但结果呢?空袭照样进行,一众伊朗高官照样身亡。区别只在于,Claude的名字,没有出现在战报里。

3800亿的“良心”,五角大楼不买账。不是因为良心太贵,而是因为战争不需要良心。

资本能买来技术,权力能找到替代品。但那个“谁来决定AI底线”的问题,不会随着合同终止而消失。

特朗普说,Anthropic犯下了“灾难性错误”。

也许,真正的灾难性错误是,当一家公司试图用“良心”定义自己的底线时,却发现这条底线本身,早已被自己亲手松动了。

德黑兰的废墟里,埋着的不仅是伊朗高官,还有那个“AI安全优先”的童话。

这就是现实。

0%(0)
0%(0)
标 题 (必选项):
内 容 (选填项):
实用资讯
北美最大最全的折扣机票网站
美国名厂保健品一级代理,花旗参,维他命,鱼油,卵磷脂,30天退货保证.买百免邮.