返回AI资讯
量子位AI资讯

AI狂喂漏洞报告,开源维护者快被逼疯了!

2026/04/05 02:24

最近开源圈出了个新鲜事:AI安全工具扫描代码的能力太强了,强到让Linux内核维护者头皮发麻。据报道,现在这些AI工具每天能产出十几份漏洞报告,维护者光是审核这些报告就得耗费大量精力,根本来不及实际修复。

这事听起来挺反直觉的。我们总说AI是来帮忙的,怎么到头来反而成了负担?但仔细想想问题就明白了——AI工具现在处于"宁可错杀三千,不可放过一个"的阶段。它确实能发现很多潜在问题,但问题在于并非所有发现都需要立即处理。代码里存在一个理论上的安全风险,和这个风险真正会被利用之间,中间隔着十万八千里。维护者需要判断的是:这个漏洞真的会被攻击吗?修复它的成本和收益哪个更大?

更深层的问题在于,开源项目的维护模式本身就是靠志愿者贡献和少量核心维护者撑着的本来就脆弱的生态系统。Linux内核虽然大,但也经不住每天十几份报告轰炸。更糟糕的是,这些AI生成的报告质量参差不齐,有的可能是误报,有的可能需要深入分析才能判断严重程度。维护者的时间被大量无效沟通消耗,真正有价值的漏洞反而可能被淹没在噪音里。

但你说这是AI的错吗?我觉得不是。AI工具本身没有问题,问题在于我们还没有建立起与AI协作的完整工作流。未来的趋势一定是AI负责扫描,人类负责决策的分工模式。甚至可能出现专门针对AI报告进行二次筛选的"元工具",帮维护者过滤掉那些无关紧要的警告。

对于普通开源项目维护者来说,我觉得首先要调整心态——AI带来的噪音是暂时的,适应之后收益会更大。其次要学会给AI工具设置边界,比如只报告特定严重级别的漏洞,或者限制报告频率。最重要的是,开源社区需要坐下来聊聊这个问题了,不能让AI反过来伤害开源生态。

说到底,AI应该是工具,而不是老板。

来源 量子位

阅读原文