一家领先的人工智能实验室与美国国防机构之间的紧张关系不断升级,已经演变成一场关于类人人工智能和战场应用的高风险冲突。
尽管价值2亿美元的合同岌岌可危,但Anthropic公司仍拒绝了美国国防部要求其移除系统中关键人工智能安全限制的要求。该公司已明确表示,在与国防部就其先进模型如何在军事网络中部署的争议中,不会做出让步。
这家初创公司的竞争对手OpenAI 、谷歌和xAI在2023 年也获得了国防部高达 2 亿美元的类似合同。然而,这些公司同意让五角大楼在军事非机密环境中将其系统用于所有合法任务,从而赋予政府更大的行动灵活性。
相比之下,Anthropic公司在7月份与美国国防部签署了一份价值2亿美元的合同,成为首家将其模型直接嵌入机密网络任务工作流程的人工智能实验室。此外,其工具还被整合到敏感的国防行动中,使该公司成为美国国家安全人工智能建设的核心力量。
近几周来,与五角大楼官员的谈判日益紧张。一位知情人士透露,摩擦“可以追溯到几个月前”,远早于克劳德参与美国与委内瑞拉总统尼古拉斯·马杜罗被捕有关的行动的消息公开之前。
这场冲突的核心在于,军方究竟能在多大程度上推动强大的AI模型走向监视和自主应用。Anthropologie公司寻求具有约束力的保证,确保其技术不会被用于制造完全自主的武器或对美国公民进行大规模的国内监视,而美国国防部则希望避免此类限制。
尽管如此,这并非一起普通的商业纠纷,而是一场备受瞩目的人工智能安全保障争议,对未来的战场自动化有着直接影响。五角大楼坚持要求获得最大的法律自由裁量权,而安人智公司则认为,目前的系统尚不足以胜任大规模的生死决策。
首席执行官达里奥·阿莫迪在一份详细声明中警告说,在“少数情况下” ,人工智能可能会“破坏而非捍卫民主价值观”。他强调,某些应用“完全超出了现有技术能够安全可靠执行的范围”,并着重指出在复杂的军事行动中滥用人工智能的风险。
阿莫迪进一步阐述了对监控的担忧,他认为,如今强大的系统能够“自动且大规模地将这些分散的、单独来看无害的数据整合起来,从而全面了解任何人的生活”。此外,他还警告说,如果这种能力被用于自身,则可能从根本上重塑公民与国家之间的关系。
阿莫迪重申,人智公司支持将人工智能用于合法的海外情报收集。但他补充说,“将这些系统用于大规模国内监控与民主价值观不符”,从而在海外情报和对美国公民的内部监控之间划清了界限,明确了道德规范。
周二,阿莫迪与国防部长皮特·赫格塞斯在五角大楼举行会晤,双方的权力斗争进一步升级。赫格塞斯威胁要将安斯罗派克公司列为“供应链风险”,或援引《国防生产法》强制其遵守规定。周三晚间,国防部发出所谓的“最终报价”,要求该公司在美东时间周五下午5点01分前作出回应。
安特罗皮克公司的一位发言人承认周三收到了修改后的合同文本,但表示这“几乎没有任何进展”。据她称,新措辞被包装成一种妥协,但其中却包含一些法律条款,实际上允许“随意无视”关键的保障措施,从而削弱了合同中规定的保护力度。
面对日益增长的压力,阿莫迪表示:“国防部已声明,他们只会与同意‘任何合法用途’并取消上述情况下安全措施的人工智能公司签订合同。”他还补充说,官员们威胁说,如果Anthropic公司拒绝,他们将把该公司从系统中移除,并将其列为“供应链风险”;然而,他坚持认为,“我们不能昧着良心答应他们的要求。”
对五角大楼而言,这个问题则有不同的看法。首席发言人肖恩·帕内尔周四表示,国防部“无意”将安特罗皮克公司的系统用于全自动武器或对美国公民进行大规模监控,并指出此类做法属于非法行为。他强调,国防部只是希望该公司允许将其技术用于“所有合法用途”,并称这是一个“简单且合乎常理的要求”。
这场争端也升级为高层人身攻击。周四晚间,美国国防部副部长埃米尔·迈克尔在X网站上抨击阿莫迪,声称这位高管“一心只想亲自控制美国军方”。迈克尔的言辞更加激烈,他写道:“达里奥·阿莫迪是个骗子,而且自视甚高,这真令人遗憾。”
然而,Anthropic公司获得了部分科技行业的鼎力支持。在一封公开信中,超过200名来自谷歌和OpenAI的员工公开支持该公司的立场。此外,一位前国防部官员告诉BBC ,赫格塞斯使用“供应链风险”标签的理由“极其站不住脚”,这让人质疑五角大楼论证的可靠性。
这场冲突也成为人工智能伦理和军事政策领域更广泛辩论中的一个关键节点。人工智能研究人员和公民自由倡导者都在密切关注事态发展,将此案视为国防机构能够迫使私营实验室放松对先进系统内置限制的一次早期测试。
尽管言辞愈演愈烈,阿莫迪仍强调他“深知利用人工智能保卫美国具有生死攸关的重要性”。他将这个问题定义为负责任的部署,而非反对国防,并认为美国人工智能能力的长期信誉取决于维护民主规范。
安特罗皮克公司的一位代表表示,该公司仍然“准备继续谈判,并致力于保障国防部和美国作战人员的行动连续性”。然而,随着五角大楼设定的最后期限临近,供应链被列入制裁名单的威胁依然存在,双方都面临着在不阻碍关键创新的情况下解决僵局的压力。
最终,Anthropic公司与五角大楼就安全保障、监控和自主性问题展开的冲突,已成为军事人工智能治理领域早期的一个典型案例。其结果很可能影响未来Anthropic人工智能模型及其竞争对手系统在美国国防行动中的合同签订、约束和部署方式。