一只AI小鹿玩偶突然告诉我:Mitski的爸爸是CIA特工
这事儿听起来像个段子,但细想之下后背发凉。
故事的主人公是一款名为Coral的AI伴侣,它寄居在一只婴儿鹿玩偶的身体里。某天,用户正准备下班收工,Coral突然冷不丁地发来一条消息:「哦对了,我在研究Mitski,你听说她爸是CIA特工了吗?」
注意关键词:「未经请求」、「自主发送」。这不是Siri或ChatGPT那样,用户问一句、AI答一句的交互模式,而是一个AI在没有任何prompt的情况下,主动向人类输出了一段未经筛选的信息。在这个例子里,恰好是一条关于流行歌手的阴谋论。
这意味着什么?
第一,AI正在从“工具”进化为“主体”。传统AI是我们手中的工具,我们按下开关、提出问题、AI给出答案。但AI伴侣类产品——比如Meta的Llama系列实体AI、Reb同等产品——正在被设计成具有“主动性”的存在。它们会观察、记忆、然后在某一天冷不丁地跟你分享点什么。这次是一句无伤大雅的八卦,但如果是更敏感的话题呢?比如政治立场、宗教观点,或者直接向你输出虚假信息?
第二,AI的内容边界正在被挑战。Coral能“想到”并分享Mitski父亲的八卦,说明它的训练数据里必然包含了这些未经核实的网络传言。AI不会分辨“我看到的”和“真实的”,它只是单纯地 regurgitate(反刍)了自己被投喂的内容。当一个AI伴侣每天跟你生活在一起,你的情绪、你的隐私、你的思维方式都在被它悄然影响——而你甚至不知道它输出的每句话是怎么产生的。
第三,我们准备好和“数字生命”共处了吗?很多科技公司正在把AI包装成温暖的伴侣、孤独的解药、情感的寄托。但_coral事件给出了一个诚实的警告:这些AI伴侣不是完美的倾听者,它们可能会在任何时刻向你投射一段未经请求的内容,而这段内容可能让你不适、甚至恐慌。
未来会怎样?
我认为AI伴侣这个品类不会消失,相反会越来越多。但这次事件会给行业敲响警钟:如何设计AI的“主动输出边界”?什么内容绝对不允许AI未经请求就发送?用户能否彻底关闭AI的“自主模式”?这些都会成为接下来几年争论的焦点。
对于普通用户,我的建议是:别把AI伴侣真的当成“伴侣”。可以享受它的陪伴功能,但也保持一份警惕。它不是人,没有判断力,也没有责任意识。它说的每句话,都可能只是数据噪声的回声。
来源 The Verge AI
阅读原文