返回AI资讯
MIT Technology ReviewAI资讯

五角大楼给Anthropic扣上“风险”帽子,法官一纸禁令打脸回

2026/03/30 15:42

这场由五角大楼发起的“围剿” Anthropic 的行动,本质上是一场披着国家安全外衣的政治操弄。美国国防部援引《国际武器贸易条例》(ITAR),试图将 AI 模型纳入军备管控范畴,强行给一家民用 AI 公司扣上“风险”的帽子。这波操作看似强硬,实则漏洞百出——Anthropic 的 Claude 模型是面向全球开放使用的民用产品,与军火交易风马牛不相及。

加州法官的临时禁令给了 Anthropic 难得的喘息机会,但这事儿远没结束。表面上看这是政府与企业的法律纠纷,深层则是 AI 行业发展面临的根本性挑战:当技术进步的速度远超监管体系的更新速度,政府该如何界定“风险”的边界?是用国家安全的大棒“一刀切”,还是建立更精细的分级管理机制?

对整个 AI 行业来说,这次事件释放了几个明确信号:一是政府对企业技术的审查正在收紧,未来可能会有更多公司面临类似处境;二是法律途径仍是企业自保的重要手段;三是行业需要主动建立更透明、更合规的自我监管体系,否则就会一直被动挨打。

对于关注 AI 发展的读者而言,这件事提醒我们:技术从来不是中立的,它始终与权力、政策、利益交织在一起。AI 公司想要长久发展,不能只埋头搞技术,还得学会在复杂的政治生态中保护自己。而对于政策制定者来说,如何在安全与发展之间找到平衡点,将是未来几年最具挑战的课题。

来源 MIT Technology Review

阅读原文