返回AI资讯
TechCrunch AIAI资讯

OpenAI悄悄关停Sora,隐私风暴背后的行业大地震

2026/03/30 03:09

当科技巨头开始“用完即弃”,用户还剩下什么?OpenAI最近关闭Sora的消息在科技圈炸开了锅,这款曾经被寄予厚望的AI视频生成工具在2025年9月发布,仅半年后就宣告死亡。更耐人寻味的是,官方说法是“战略调整”,但所有人都心知肚明,真正的问题出在那个让用户上传自己面孔的“身份验证”功能上。

Sora在推出时要求用户提供面部数据,表面上是为了防止滥用、确保内容安全。但问题是,这些数据最终流向哪里了?是仅用于身份核验,还是被拿来训练下一代模型?OpenAI的隐私政策写得云山雾罩,用户稀里糊涂地把最敏感的个人信息交了出去,等到回过神来,工具已经被关了。这种“事后关门”的做法,不仅没能消除疑虑,反而让更多人觉得OpenAI在试图掩盖什么。

这件事的影响远不止于一家公司的产品下架。首先,它把AI行业的数据伦理问题摆上了台面。最近几年,从图片生成到视频创作,AI模型的能力爆发式增长,但支撑这些进步的,是数以亿计的用户数据。科技公司一边享受着数据的红利,一边在隐私保护上打太极,用户早就憋着一肚子气了。Sora事件就像一根导火索,点燃了大家对AI数据收集的全面不信任。

其次,各国监管机构的神经肯定会更加紧绷。面部数据属于生物特征信息,比普通个人数据更敏感,也更受法律保护。欧盟的GDPR、美国的各州隐私法规,都对这类数据有严格要求。Sora的关闭很可能促使监管层出台更明确的限制性规定,甚至可能要求AI公司对数据收集实施“默认拒绝”机制,而不是现在的“默认同意”。

对咱们普通用户来说,这件事敲响了一记警钟。AI工具越来越强大,但便利背后往往藏着对个人数据的觊觎。以后遇到需要上传人脸、指纹或者声纹的AI应用,千万别急着点同意,先问自己三个问题:这家公司的隐私政策透明吗?数据会不会被用于训练模型?我能不能随时要求删除?在这个AI狂飙突进的时代,捂住自己的数据,就是保护自己的最后一道防线。

回过头看,Sora的关闭或许是一个转折点。它提醒整个行业:靠“无限制收集数据”驱动的AI增长模式已经走到头了。谁能在技术进步和用户隐私之间找到平衡,谁才能在下一阶段的竞争中活下来。用户不是傻子,数据不是免费的,AI公司迟早要学会尊重这一点。

来源 TechCrunch AI

阅读原文