五角大楼与Anthropic的争端详情:
争端源于Anthropic签署的一份价值约$200 百万美元的合同,该合同允许在美国军方的机密系统中使用其Claude AI模型。
Anthropic设定了两个关键的“红线”:
- 不得将AI用于对美国公民的大规模监控。
- 不得将其用于**完全自主武器系统**(能够在没有人类监督的情况下做出致命决策的武器)
然而,五角大楼要求无限制地将AI用于“所有合法目的”,并不接受这些限制。国防部长Pete Hegseth强迫公司在截止日期前遵守,截止日期为2026年2月26日(。
当未达成协议时:
- 特朗普总统命令所有联邦机构**立即停止**使用Anthropic技术),给予五角大楼6个月的过渡期(。
- Hegseth宣布Anthropic为“国家安全的供应链风险”——这是通常用来对外国威胁实施的制裁;同时也禁止军事承包商与该公司进行业务往来。
Anthropic称这一决定“法律无效且具有先例性”,并宣布将把此事诉诸法院。CEO Dario Amodei强调他不会退让。
最终,五角大楼与OpenAI签署了一份接受类似限制的新协议。这一事件标志着在谁应对军事用途的AI设定限制方面的重大转折——是公司还是政府?
简而言之:最初关于安全问题的讨论演变成了政治压力和制裁。AI伦理与国家安全之间的冲突仍在继续。
争端源于Anthropic签署的一份价值约$200 百万美元的合同,该合同允许在美国军方的机密系统中使用其Claude AI模型。
Anthropic设定了两个关键的“红线”:
- 不得将AI用于对美国公民的大规模监控。
- 不得将其用于**完全自主武器系统**(能够在没有人类监督的情况下做出致命决策的武器)
然而,五角大楼要求无限制地将AI用于“所有合法目的”,并不接受这些限制。国防部长Pete Hegseth强迫公司在截止日期前遵守,截止日期为2026年2月26日(。
当未达成协议时:
- 特朗普总统命令所有联邦机构**立即停止**使用Anthropic技术),给予五角大楼6个月的过渡期(。
- Hegseth宣布Anthropic为“国家安全的供应链风险”——这是通常用来对外国威胁实施的制裁;同时也禁止军事承包商与该公司进行业务往来。
Anthropic称这一决定“法律无效且具有先例性”,并宣布将把此事诉诸法院。CEO Dario Amodei强调他不会退让。
最终,五角大楼与OpenAI签署了一份接受类似限制的新协议。这一事件标志着在谁应对军事用途的AI设定限制方面的重大转折——是公司还是政府?
简而言之:最初关于安全问题的讨论演变成了政治压力和制裁。AI伦理与国家安全之间的冲突仍在继续。




























