背景:在争议与扩张间做抉择

科技公司Anthropic在一阵政治与法律风波中做了件看起来很学术的事——成立内部智库,名为Anthropic Institute。时间点有点敏感:公司正与美国国防部就被列为供应链风险一事较劲,并因此提起诉讼。简而言之,Anthropic一边要应对政府层面的指控,一边还要照常摆弄未来学问。这听起来像是在大风天里同时煎蛋和遛狗,难度不小。

结构与人事:老面孔的新角色

新智库把公司现有的三个研究小组合并起来:研究社会影响的团队、专门找模型漏洞的前线红队,以及研究经济与劳动力影响的经济学团队。Anthropic联合创始人Jack Clark从公共政策负责人转为新智库的负责人,头衔是“公共利益负责人”。他表示这项计划酝酿已久,而自己也酝酿换岗很久了。

与此同时,公共政策团队由原外联负责人Sarah Heck接手。公司还计划在华盛顿设立办公点,公共政策团队将继续关注国家安全、AI基础设施、能源以及“AI领域的民主领导力”等议题。值得一提的是,Anthropic称其公共政策团队在2025年已扩张到三倍规模。

智库阵容与扩展计划

Anthropic Institute初始约有30名成员,创始成员包括曾在Google DeepMind工作的Matt Botvinick、弗吉尼亚大学经济学系请假教授Anton Korinek,以及曾离开OpenAI的研究员Zoe Hitzig。新智库不仅合并现有团队,还计划孵化新团队,例如由Botvinick带队研究AI对法律体系的影响。Korinek和Hitzig将负责大型经济研究项目。

公司预期智库人员在可预见的未来每年翻倍增长。这听起来相当激进,但在AI领域,激进已经成为常态。

法律、商业与财务压力的现实

成立智库的时机遇上了麻烦事。Anthropic因被政府列为供应链风险而提出诉讼,诉状称政府因公司对大规模国内监控和全自动致命武器设定“红线”而非法将其列入黑名单。被列为供应链风险意味着与政府有业务往来的客户可能被禁止继续使用Anthropic的技术。

从公司披露的诉讼材料来看,Anthropic至今商用营收累计超过50亿美元,训练和推理模型已投入约100亿美元。诉状还提到,很多合作伙伴对潜在限制感到困惑并寻求指导,部分公司在询问是否需要终止与Anthropic的合作关系。根据不同的政府解读,公司预计2026年可能损失至少数亿美元,最严重情形下为数十亿美元。

面对这些短期风险,Clark表示并不担心。他认为长期投入于安全与透明度的研究能换来信任,进而成为公司的“利润中心”而非成本中心。

研究重点与资源分配

Anthropic Institute将把注意力放在宏大但具体的问题上,例如AI对就业与经济的冲击、技术是否让人更安全或带来新风险、AI的价值观如何影响人类,以及我们能否持续掌控这些系统。智库还计划做大规模的社会科学研究,研究人们对AI的情感依赖与使用体验,并用公司的AI来辅助开展用户访谈。

在算力分配方面,Anthropic表示在前沿模型预训练之外,公司的算力会按周评估并分配到最重要的任务上,尚未设定固定的专属份额,但目前并不预期会发生资源冲突。

透明度承诺与现实考量

Anthropic强调它是一个公共利益公司,因此联合创始人们在披露原则上有共识。公司表示会把更多研究成果公开,以回应公众对更大规模国家层面讨论的需求。不过,在商业与公共透明之间,现实经常会带来尴尬的抉择,未来若研究结果对公司不利,如何处理仍是一个需要回答的问题。

结语:在风浪中种下一盆学问

把三个团队合并成智库,对Anthropic来说既是学术投入也是形象赌注:在被政府盯上并面临潜在营收风险时,继续押注长期研究是一种信号,告诉外界公司愿意为AI安全和社会影响承担责任。究竟这是明智之举,还是豪赌时间会证明。至少现在,公司选择了继续提问并把答案放进实验室里。