Google让你轻松Deepfake自己,这事儿细思极恐
你有没有想过,某天可以在镜头前“克隆”一个完美的自己替你出镜?现在Google把这个想法变成了现实——只是这事儿可能没听起来那么美好。
4月9日,YouTube Shorts正式推出了一个AI驱动的功能,允许创作者生成一个数字版本的自己。这个被称为“avatar”的数字形象可以被插入到现有的Shorts视频中,代替真人出镜。想象一下,你不想亲自录制视频,只需要上传一段素材,AI就会生成一个和你长得一模一样、说话风格也一模一样的数字人替你完成表演。
对于内容创作者来说,这无疑是个诱人的工具省时省力,不用反复NG,不用化妆打灯,效率直接拉满。但问题在于,这项技术的另一面细想起来让人脊背发凉——如果克隆自己这么简单,那克隆别人呢?
这就是Google面临的尴尬处境。YouTube一直在与AI生成内容带来的各种乱象搏斗:deepfake诈骗、虚假信息、恶意模仿……这些问题的根源就是AI可以轻易伪造真人形象。而现在,Google反手就给了每个普通用户这种能力。这不是搬起石头砸自己的脚,而是主动递给别人一把锤子,还贴心地告诉人家可以用来干什么。
从行业角度看,这个功能的影响是多维度的。一方面,它确实降低了内容创作的门槛,让更多有创意但害怕出镜的人能够表达自己。另一方面,它进一步模糊了真实与虚拟的边界本来就脆弱的互联网信任体系将面临更大挑战。平台上的内容以后还能信吗?你看到的那个博主,可能只是一个AI生成的假人。
未来的趋势大概率是这样的:这类AI克隆功能会越来越普及,不仅是YouTube,TikTok、Instagram估计也会跟进。但与此同时,关于身份验证、内容标注的监管要求也会越来越严格。平台可能会被要求对AI生成的内容进行强制标识,或者引入某种“水印”机制来区分真人和数字人。
对于我们普通用户来说,我觉得有几个原则值得记住:不要轻易把自己的面部数据交给任何平台,因为你不知道它们会被如何使用;看到任何视频时多留个心眼,特别是那些看起来“完美”得不真实的内容;最重要的,支持那些要求AI内容强制标识的监管举措——这不是限制创新,而是保护我们所有人。
技术本身没有善恶,但当便利与风险同时摆在我们面前时,选择权其实在我们手中。
来源 The Verge AI
阅读原文