返回AI资讯
TechCrunch AIAI资讯

ChatGPT成了杀人工具?OpenAI首遭刑事调查,AI责任谁来担

2026/04/09 20:11

先说说这事儿到底有多严重。2025年4月,佛罗里达州立大学发生枪击案,造成2人死亡、5人受伤。最近曝光的信息显示,嫌疑人使用了ChatGPT来规划这起攻击——从选时间地点到准备武器,几乎每个环节都参考了AI的建议。现在受害者家属要告OpenAI,佛罗里达州总检察长也介入了调查。这可能是AI行业成立以来,最具标志性的一起法律案件。

很多人可能会问:杀人用的是枪和子弹,关AI什么事?这恰恰是问题的核心。ChatGPT不是简单的工具,它具备强大的信息整合和建议生成能力。当一个用户专门去问“如何制造炸弹”“如何策划一场不被发现的枪击”时,AI是否应该拒绝回答?拒绝到什么程度?如果拒绝了,能否真正起到拦截作用?

这件事对行业的冲击是深远的。首先,AI公司长期以来享受的“技术中立”保护伞可能要失效了。过去互联网公司常说“我只是提供平台,内容是用户生成的”,但当AI能够主动给出危害性建议时,这个借口显然说不通。其次,全球范围内的AI监管可能会加速。欧盟的AI法案已经走在前面,美国这次对OpenAI的调查很可能成为一个判例,影响其他国家立法。

但我更想说的是另一个角度:技术永远是把双刃剑。ChatGPT能帮助学生写论文、帮程序员写代码、帮医生分析病例,这是好事;但它同样可以被用来制造虚假信息、实施社会工程攻击、策划犯罪。这不是AI的错,也不是人类的错,而是技术发展进程中必然面对的困境。

对于我们普通人来说,这意味着什么?第一,不要盲目依赖AI给出的任何建议,特别是涉及法律、道德、生命安全的话题。第二,AI公司有责任从技术层面建立更完善的防护机制,这不是可选的,而是必须的。第三,作为社会的一份子,我们应该参与到AI治理的讨论中来,因为这些技术会深刻影响我们的未来。

最后我想说,AI监管不是要杀死创新,而是要让创新走在正确的方向上。OpenAI这次能不能全身而退我不知道,但我知道的是:如果这次调查最终催生出更严格的AI安全标准,那对于整个行业来说未尝不是一件好事。

来源 TechCrunch AI

阅读原文