TechCrunch AIAI资讯
前男友靠ChatGPT搞跟踪骚扰?受害者怒告OpenAI:你们忽视了三次警告
2026/04/10 16:41
这起诉讼撕开了AI行业一道血淋淋的口子:技术公司能不能对用户滥用AI产品造成的实际伤害负责?
根据诉状,受害者曾多次向OpenAI报告其前男友的危险行为,甚至提供了对方声称要「大规模伤害」的证据。然而OpenAI的系统虽然标记了异常,却并未采取实质性行动阻止这位用户继续使用ChatGPT生成骚扰内容。这不是AI「失控」那么简单,而是一家科技公司面对明确警告时的冷漠与失职。
这事儿对行业的冲击是深远的。过去我们讨论AI安全,总是聚焦在「大模型会不会灭绝人类」这种宏大叙事上。但这次起诉把问题拉回了现实:当一个具体的人用AI工具去伤害另一个具体的人时,科技公司该承担什么责任?答案是:至少不该是现在这样——收到警告当没收到,继续让危险用户畅通无阻。
接下来的趋势很明显:各国监管机构会进一步收紧AI产品的安全义务,尤其是对「可预见滥用场景」的注意义务。欧盟的AI法案已经在路上,美国各州也会跟进。AI公司不能再躲在「技术中立」的护盾后面装人畜无害了。
作为普通用户,我们要意识到:AI工具不是法外之地。当你发现有人用AI骚扰、跟踪或伤害他人时,保留证据、及时报警、同时向平台举报。技术本身不善良也不邪恶,但使用技术的人和开发技术的企业,都有责任确保它不被用来作恶。
来源 TechCrunch AI
阅读原文