返回AI资讯
TechCrunch AIAI资讯

AI助手成跟踪狂武器?OpenAI被受害者起诉的深层警示

2026/04/10 16:41

这起诉讼案之所以引发广泛关注,关键在于它第一次将 AI 助手的潜在滥用风险推到了法律和公众的聚光灯下。受害者并非凭空指控,她声称前男友利用 ChatGPT 生成的内容来强化对她实施的跟踪和骚扰行为,甚至可能借助 AI 来合理化自己的犯罪动机。换句话说,当一个人本身就具备危险性时,AI 非但没有成为阻止恶意的屏障,反而可能成为放大恶意的工具。

更令人不安的是,OpenAI 明明有机会踩下刹车。诉状显示,公司在收到至少三次相关警告后仍未采取有效行动,其中包括其自身系统触发的“ mass-casualty ”标记。这种“知道但不做”的姿态,显然无法让公众信服 AI 公司已经尽到了合理的安全责任。

对整个行业而言,这起诉讼的意义远超个案本身。它暴露了一个根本性问题:当 AI 的能力越来越强,监管和约束机制却远远跟不上。科技公司往往以“技术中立”自我辩护,但在实际应用中,算法推荐、内容生成等功能已经深度介入了用户的现实生活。如果 AI 系统无法有效识别和阻止恶意使用,它就不再是中立的工具,而是隐形的加害者。

我判断,未来一到两年内,这类案件会显著增加。一方面,公众对 AI 风险的认知正在觉醒;另一方面,现有的平台责任框架远未完善,企业有太多灰色地带可以回避。监管机构可能会被迫加快立法节奏,比如强制要求 AI 公司建立更严格的用户行为监测和报告机制。但技术层面的复杂性意味着,短期内很难找到完美的解决方案。

作为普通用户,我们需要建立清醒的自我保护意识。ChatGPT 等工具确实强大,但它本质上是一个没有价值观判断能力的程序。你可以向它求助,也可以利用它作恶,区别在于使用者的意图。对身边可能处于危险处境的人,及时关注、主动介入往往比事后追究更有意义。毕竟,法律能做的补救,永远无法完全弥补已经造成的伤害。

来源 TechCrunch AI

阅读原文