Claude用90分钟撕开20年安全神话:AI正在重写网络安全规则
这场测试的发起方是安全圈知名的Trail of Bits团队,他们用Claude对一款久经沙场的开源安全组件进行审计。原本以为只是例行公事,没想到Claude在90分钟内就挖出了一条隐藏了整整20年的高危漏洞。这不是演习,也不是实验室数据,而是实打实的生产环境验证。消息一出,整个安全圈炸开了锅。
说实话,我看到这条消息时的第一反应是:靴子终于落地了。过去两年,AI代码生成能力突飞猛进,大家一直在讨论AI能不能挖漏洞,但真正让人信服的证据始终不够充分。现在不同了,5万星的项目被90分钟攻破,这个数字太有冲击力了。20年的历史沉淀,在AI面前变成了纸糊的城墙。这说明什么?说明人类工程师引以为傲的代码审查能力,在AI的暴力穷举和模式识别面前,正在快速失去优势。
对行业的影响是深远的。首先,开源社区的信任体系将受到冲击。那些star数高、使用广泛的"老牌劲旅"项目,长期以来被默认为相对安全的存在。但这次测试证明,历史不等于安全,流行不等于可靠。其次,安全审计的工作模式将被彻底重塑。传统的人工审计需要耗费数周甚至数月,而且高度依赖审计师的经验和细心程度。AI的介入让这个过程压缩到以小时计。当然,这也会引发一个尖锐的问题:AI发现的安全漏洞,到底算谁的发现?责任如何界定?
展望未来,我认为AI安全审计将进入军备竞赛阶段。一方面,像Anthropic、OpenAI这样的AI公司会持续强化模型的安全分析能力;另一方面,黑产团队也会利用AI来批量挖掘0day漏洞。攻守之势正在逆转,防御方必须学会用AI来对抗AI。对于普通开发者而言,这意味着一个残酷的现实:你的代码在AI面前几乎是透明的。任何疏漏都可能被快速发现和利用。我们能做的,就是把安全左移,让AI在代码编写阶段就参与进来,而不是等到上线后再亡羊补牢。
这波浪潮不会因为谁的抵制而停止。AI挖漏洞的能力会越来越强,这是技术发展的必然。与其焦虑,不如拥抱。学会用AI来审计自己的代码,用AI来发现潜在风险,这或许是每个开发者必须掌握的新技能。安全游戏的规则已经变了,我们都得跟上。
来源 量子位
阅读原文