OpenAI 和 Anthropic 从“嘲笑”到分歧:与美国国防部的道德之战

最近,这两家人工智能巨头曾在媒体平台上公开相互嘲讽,以争夺用户。但当美国国防部介入时,他们突然不得不站在一起,抵抗五角大楼的压力。这场战斗不仅关乎金钱或军事合同,更关乎一个基本问题:在国家安全被置于天平上时,AI 应该如何使用?

从“嘲讽”到合作:为何两家AI公司会联手对抗五角大楼

此前,OpenAI 和 Anthropic 之间的争论并不温和。Claude由一批离开OpenAI的团队开发,两家公司激烈竞争,争夺用户、企业客户和投资资金。在去年的超级碗广告中,Anthropic还出资嘲讽OpenAI的ChatGPT。这就是他们之间的紧张程度。

然而,局势发生了变化,当Anthropic与美国国防部签订了一份价值2亿美元的合同。Claude成为首个在美国军方秘密网络上部署的AI模型,用于情报分析和任务规划。然而,Anthropic提出了两个明确条件:Claude不得用于大规模监控美国公民,也不得在没有人类控制的情况下发展成自主武器。

五角大楼不接受。他们的观点很简单:购买工具后,将自由使用,不需要科技公司指示他们该做什么。国防部长Hegseth直接发出最后通牒:Anthropic必须在周五下午5:01之前同意,否则后果自负。Anthropic的CEO拒绝了。他公开声明,虽然理解AI对国防的重要性,但在某些情况下,AI可能会损害民主价值观。我们不能良心上接受这个要求。

五角大楼的反应非常激烈。副部长Emil Michael在社交媒体上谩骂Anthropic的CEO是“网络骗子”,称其有救世主心态,拿国家安全开玩笑。

接下来发生了意想不到的事。超过400名OpenAI和Google的员工联合签署了一封公开信,题为“我们不会被分裂”。信中指出,五角大楼正利用“分而治之”的策略,逐个安排AI公司,试图让其他公司接受Anthropic拒绝的条件。

OpenAI的CEO也向全体员工发出内部信,表示OpenAI与Anthropic有共同的底线:不进行大规模监控,不发展自动致命武器。就在几天前还没有携手合作,这两家公司突然结盟,共同对抗五角大楼的压力。这种团结似乎是道德原则的胜利。

道德底线:Anthropic坚持,OpenAI后退

但这种团结只持续了几个小时。最后通牒到期后,Anthropic拒绝签署。一家估值3800亿美元的公司,愿意面对与美国国防部200万美元合同被取消的风险。

华盛顿的反应不带商业色彩。特朗普在一小时内在Truth Social上发文,称Anthropic为“左派疯子”,说他们试图将自己置于宪法之上,拿美国士兵的生命开玩笑。他要求所有联邦机构立即停止使用Anthropic的技术。

随后,国防部长Hegseth将Anthropic列入“供应链安全风险”名单——这是通常用于华为等公司的标签。意思很明确:所有与美国军方合作的承包商不得使用Anthropic的产品。Anthropic宣布将起诉。

当天晚上,之前持相似立场的OpenAI又与五角大楼签署了协议。问题是:OpenAI得到了什么?

首先,垄断地位:成为美国军方秘密网络的AI供应商,接替Claude的角色。但OpenAI也提出了三项条件:不进行大规模监控,不发展自主武器,所有高风险决策必须有人类参与。

美国国防部表示接受。

确实如此——Anthropic犹豫了几周才让步的条件,换成另一家公司几天内就达成了协议。但这两种方案并不完全相同。Anthropic又增加了一层保护:他们认为现行法律无法跟上AI的能力。例如,AI可以合法购买和整合定位数据、浏览历史和社交媒体信息,最终实现类似监控的效果,但每一步都不违法。Anthropic认为,仅写四个字“非监控”是不够的,还需要弥补这些法律漏洞。

OpenAI没有坚持这一点。他们接受了五角大楼的观点,即现行法律已足够。但如果你以为这只是条款上的差异,那你就错了。在数字和合同背后,是一场意识形态的角逐。

白宫的“AI皇帝”David Sacks公开批评Anthropic开发了“觉醒AI”——追求政治正确而非性能的AI。一位五角大楼高官对媒体表示,Anthropic的问题在于意识形态的支配。Elon Musk的xAI不断攻击该公司,声称Anthropic“讨厌西方文明”。值得注意的是,去年,Anthropic的CEO未参加特朗普的就职典礼,而OpenAI的CEO则出席了。

“杀鸡儆猴”效应与AI公司的未来

总结一下发生了什么。相同的道德原则、相同的底线,Anthropic多加了一层保护,表现出错误的姿态,被贴上了与华为同等的国家安全威胁标签。OpenAI少掉一层,与政府关系良好,获得了利用的合同。

这是真正的原则胜利,还是仅仅是原则的估值?

此前,军事合同被封锁并非首次。2018年,Google超过4000名员工签署请愿书,十余人辞职反对公司参与“Project Maven”——美国军方利用AI分析无人机视频以加快目标识别的项目。Google最终退出,没有续约,只是离开。员工们赢了。

八年过去了。类似的争论再次出现,但这次,游戏规则发生了根本变化。

一位美国公司告诉我,我可以与军方合作,但有两件事不能做。美国政府的反应是将其从整个联邦系统中剔除。所谓“供应链安全风险”标签,带来的影响远不止失去一份2亿美元的合同。Anthropic今年的收入约为140亿美元,这份合同只是九牛一毛。但这个标签意味着,任何与美国军方有交易的公司,都不能使用Claude。

这些公司不必完全同意五角大楼的观点。只需进行一项非常简单的风险评估:继续使用Claude可能失去政府合同;换用其他模型则没有问题。选择非常容易。

这才是真正的问题信号。Anthropic是否能坚持,已不那么重要。重要的是,下一家是否敢坚持。它们会考虑这个结果,权衡坚持原则的成本,然后从经济角度做出合理的决定。“杀鸡儆猴”的策略——通过惩罚一家公司以威慑其他公司——正是当前的真实策略。

回想起那张印度的照片,众人手牵手高举,但只有两人握紧拳头。也许,这才是真正的常态。AI公司的道德原则或许相似,但手未必都能握在一起——尤其是在政治人物不断抨击和惩罚那些不遵从者的情况下。

TRUMP-0.24%
XAI-2.69%
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论