返回AI资讯
TechCrunch AIAI资讯

AI越普及,人类越不信任?这份民调揭开了一个大矛盾

2026/03/30 20:24

先问一个问题:你会信任一个越用越熟悉、但就是不知道它到底怎么工作的工具吗?大概率不会——而这恰恰就是现在美国人正在经历的事。

根据这份 Quinnipiac 民意调查,美国的 AI 采用率正在稳步上升,越来越多的人开始在工作和生活中接触 AI 工具。但一个有意思的现象出现了:使用 AI 的人越多,说信任 AI 结果的人反而越少。这不是简单的“熟悉产生距离”,而是一个深层次的信任危机。

让我拆解一下这个现象背后的原因。首先是透明度问题。AI 特别是大语言模型,本质上是一个“黑箱”——即使是最顶尖的工程师,也很难完全解释模型为什么在某个具体问题上给出某个具体答案。这种不可解释性让普通用户感到不安:我用了你的工具,但你告诉我你也不清楚它怎么得出这个结论?这怎么让人放心?

其次是监管缺失的焦虑。AI 行业发展太快了,快到法律法规远远跟不上的程度。美国民众很清楚,现在的 AI 领域有点像当年的西部世界——机会无限,但规则不明。今天 AI 可能帮你写邮件,明天它可能直接影响你的贷款审批、医疗诊断,而在这些关键决策场景中,却没有明确的监管框架来保障公平和安全。

第三,也是我认为最容易被忽视的一点,是对技术社会影响的担忧。AI 带来效率提升的同时,也在引发失业恐慌、虚假信息泛滥、隐私泄露等一系列连锁反应。普通人虽然不一定能说出具体的技术术语,但他们能感受到这些变化带来的不确定性。

这份民调对行业意味着什么?我觉得一个重要的信号是:AI 发展的下一阶段,核心矛盾将从“能不能做”转向“值不值得信”。过去几年,行业都在拼参数、拼能力、拼落地场景,但忽略了最根本的问题——用户为什么相信你?未来,那些能建立起透明、可解释、可问责机制的 AI 公司和平台,才会真正赢得市场。而那些继续闷头堆技术、忽视公众信任建设的玩家,可能会发现自己辛辛苦苦做出来的产品,根本没人敢用。

对于我们普通读者来说,怎么应对这个趋势?我的建议是三句话:第一,保持使用,但保持警惕。AI 是工具,不是真理,学会批判性地看待 AI 给出的结果,特别是涉及重要决策时。第二,关注监管动向。2026 年已经是 AI 监管的关键年份,各国政策正在加速落地,了解这些政策不仅能保护自己,也能帮助判断哪些 AI 服务更可靠。第三,培养 AI 素养。越了解 AI 的能力边界和运作原理,就越不会被焦虑左右,更能理性地使用这项技术。

AI 的信任危机不会很快结束,这是一场持久战。但危机也意味着机会——一个行业从狂热走向理性的必经之路。

来源 TechCrunch AI

阅读原文