在围绕军事人工智能应用的紧张局势日益加剧之际,OpenAI与五角大楼的合作引发了关于伦理、时机和政府压力的激烈辩论。
山姆·奥特曼承认, OpenAI在公开宣布与五角大楼的新合作项目时处理不当。他在发布于X网站的一封内部消息中写道,公司“不应该仓促”宣布与国防部的合作协议。
奥特曼表示,公司领导层曾试图缓和与美国政府不断升级的对抗。但他承认,最终结果“显得投机取巧且草率”,未能传达公司限制其技术被滥用的意图。
这项合作关系于周五公布,就在几个小时前,唐纳德·特朗普总统下令联邦机构停止使用人智公司(Anthropic )的人工智能系统。此外,该消息的公布时间恰好在美国对伊朗发动军事行动之前,这加剧了公众对这一时机的批评。
这场风波迅速蔓延至社交媒体,许多用户指责OpenAI利用政治打压竞争对手。大量评论者声称,他们正在删除ChatGPT账户,转而使用Anthropic公司的Claude模型以示抗议。
对此,OpenAI目前正与美国国防部官员合作修订该协议。奥特曼表示,目标是将OpenAI的伦理准则直接纳入具有法律约束力的文本中,而不是依赖非正式的政策承诺。
一项关键的新条款规定,“人工智能系统不得故意用于对美国公民和居民进行国内监控”。这项明确的国内监控禁令旨在回应批评者对军事人工智能部署提出的公民自由方面的担忧。
国防部官员也证实,国防部合同涵盖的系统不会被美国国家安全局等情报机构部署。不过,奥特曼澄清说,如果情报机构将来使用该系统,则需要另行签订合同并进行额外谈判。
尽管如此,奥特曼坚称,openai 与五角大楼的合作旨在限制高风险用途,同时允许符合美国法律和公司自身安全规则的狭义的、与国防相关的应用。
OpenAI 的协议直接源于 Anthropic 与美国国防部谈判的失败。Anthropic 曾力促国防部做出书面保证,确保其人工智能模型不会用于国内间谍活动,也不会为缺乏有效人工监督的自主武器系统提供动力。
周五,国防部长皮特·赫格塞斯宣布,由于谈判破裂,Anthropic公司将被列入供应链威胁名单。此外,据报道,政府官员此前已花费数月时间批评Anthropic公司过度强调人工智能安全性,认为这限制了战场灵活性。
当有报道披露安特罗皮克公司的克劳德系统被用于今年1月针对委内瑞拉总统尼古拉斯·马杜罗的军事行动时,双方的分歧公开化。当时,安特罗皮克公司并未公开质疑此次部署,这后来引发了人们对其内部政策一致性的质疑。
尽管后来出现了故障,但Anthropic此前曾是首家根据去年达成的协议,在五角大楼安全保密基础设施内部署人工智能模型的公司。批评人士认为,正是这段历史,使得该公司突然被贴上供应链威胁的标签显得尤为突兀。
奥特曼利用他最新的声明为安人为公司辩护,即便他自己的公司已经正式与五角大楼建立了合作关系。他说,他整个周末都在与高级官员进行磋商,敦促他们重新考虑新的分类。
他写道:“我重申,不应将Anthropic公司列为供应链风险企业,我们希望国防部能向他们提供与我们已达成一致的条件。” 然而,五角大楼领导人尚未表示愿意撤销这一认定。
Anthropic 由几位前 OpenAI 研究人员于 2021 年创立,他们因在战略方向和可接受的军事应用案例方面与 OpenAI 内部存在分歧而离职。此后,这家初创公司一直致力于负责任的 AI 开发和更严格的合规控制,并以此打造品牌形象。
尽管如此,美国当局尚未公开回应奥特曼提出的平等待遇要求,也没有详细解释新的“人类供应链”标签将如何影响未来政府的人工智能采购。
这场冲突凸显了围绕国防部人工智能合同授予日益增长的政治风险。如今,各公司面临着权衡商业机遇与声誉风险以及对致命自主系统的担忧之间的压力。
此外,这一事件凸显了围绕监控、目标定位和排除情报机构等条款的合同措辞已成为谈判的核心。奥特曼的介入表明,大型人工智能实验室可能会越来越多地游说,不仅是为了自身利益,也是为了确保竞争对手获得同等待遇。
随着关于安全标准和国家安全的争论愈演愈烈,这些争端的解决可能会影响五角大楼如何构建国防部先进人工智能的合同机会,以及哪些企业治理模式将在华盛顿获得长期影响力。
总而言之,OpenAI 的仓促推出、Anthropic 存在争议的风险状况,以及对监视和情报使用不断演变的限制,都标志着美国军方在处理人工智能伙伴关系和问责制方面进入了一个新阶段。