最近,人工智能公司 Anthropic 与美国国防部的公开冲突把一个老问题再次抛到台面上:科技公司愿意在多大程度上让自己的产品参与战争?这场对峙不仅是法律争执,还是一次对行业方向的审判。过去十年里,硅谷对军事合作的态度发生了明显变化。

为什么现在变了

几条主线把许多科技公司推向了更靠近军方的位置:

  • 政治靠拢:在特朗普执政期间,部分科技高管公开表达对政府的合作意愿,企业与政府关系更密切。
  • 市场诱因:政府推动在联邦机构中广泛使用人工智能,这对厂商意味着长期且利润可观的合同机会。
  • 安全担忧:对中国科技进步的担忧及全球国防支出上升,使得许多公司把“支持国家安全”当成优先项。

从抗议到签约的转变

回顾并不遥远的 2018 年,谷歌员工曾因 Project Maven(为国防部分析无人机影像的项目)发起大规模抗议,数千名员工公开表示“谷歌不应参与战争”。那次抗议促使公司最初放弃续签并出台了限制性政策。

但几年内情形发生变化:公司内部对员工行动采取更严格的管控,有些原先用于限制军事用途的措辞被删除;此外,科技巨头接连签下允许军方使用其技术的合同。谷歌后来宣布向政府提供其大型模型以供非机密用途使用。

OpenAI 也经历了类似转向。该公司在 2024 年前对军方使用曾有限制,之后高管参与军事创新项目,并与其他几家公司一同签署了对国防部价值数千万的合作合同。与此同时,行业内偏向军工或安全的公司,例如 Palantir 和 Anduril,将与国防部合作作为核心业务。

Anthropic 的立场和诉讼

事情在最近升级为诉讼。Anthropic 起诉国防部,称被政府列入黑名单侵犯了其第一修正案权利。公司此前试图给自家模型划定边界,明确禁止将其用于国内大规模监控或完全自主致命武器。

Anthropic 的主张是:如果被迫允许“任何合法用途”,就会违背其创办时的安全原则,并可能把技术交给滥用者。诉状中还提到,面向政府的版本(Claude Gov)在某些情况下对军事用途的限制比面向民用客户时更少。

创始人观点:既担忧又愿意合作

Anthropic 联合创始人兼 CEO Dario Amodei 一方面强调公司与国防部在目标上有很多共同点,另一方面也在公开文本中警告 AI 的潜在危害,例如生物武器风险或技术被恶意国家利用。他认为应当把能力提供给民主国家以对抗专制国家,但同时担心控制权过度集中,使得少数人掌握“关键开关”。

Amodei 表示,公司已同意国防部绝大多数的使用场景,只有两类用途是明确拒绝的:一是用于国内大规模监控,二是用于完全自主致命武器。他在公开场合和公司博客中都重复过类似表态,并强调 Anthropic 并不参与军事的战术决策。

实际应用与争议

媒体报道显示,政府在某些行动中使用了 Claude 进行目标分析,这类用途在公司内部并不被明确反对。Anthropic 在诉讼中也承认,面向军方的产品版本在某些功能上更为宽松。

这场法律与舆论之争不仅关乎一个公司的道德底线,也反映出整个科技行业在利润、国家安全与伦理之间的重新平衡。对外界来说,问题很简单:当技术既能保护也能伤害时,公司应该如何画出那条线?

结语

Anthropic 与五角大楼的对峙把这个问题推到公众视野。行业内部的抉择将影响未来几年人工智能在军事和民用领域的界限。简单地说,硅谷曾经有一段抗拒参与战争的历史,但现在许多公司在压力与机会面前改变了立场。至于哪种选择更正确,这场争论还会继续。