AI时代,辨别真相的成本变高了

2026-04-06 07:06:25

专栏——陈楸帆

科幻作家、学者

代表作:《荒潮》《人生算法》

《我们能否改变潮水的方向》等。

2024年2月,香港一家跨国公司的财务人员接到一通视频会议邀请。屏幕那头,公司CFO正襟危坐,几位同事表情自然,讨论着一笔紧急转账。他按照指示操作,2500万美元随即消失。事后调查发现,那场会议里每一张脸、每一个声音,全部由AI伪造。你大概觉得这些人太天真。换成你,肯定不会上当。这恰恰是最危险的想法。

英剧《真相捕捉》描绘了一个

深度伪造(deepfake)技术泛滥,真相被扭曲的时代▐

心理学家丹尼尔·卡尼曼(Daniel Kahneman)花了一辈子研究人类判断中的系统性错误。他发现,我们的大脑有两套运行模式:一套快而自动,一套慢而费力。日常生活中,那套快的几乎垄断了我们的决策。它靠什么判断信息是否可信?很大程度上靠感觉,读起来顺不顺,看起来像不像。

AI生成的内容恰好完美命中这个弱点。语法无懈可击,排版赏心悦目,论证看似严密。大脑的快速系统扫过一遍,盖章:可信。慢速系统本该出来复核,但它太懒了,多数时候直接放行。

当AI给你一个完整、连贯、细节丰富的回答,你不会去想它遗漏了什么、歪曲了什么。叙事越圆满,你越觉得可靠。可偏偏,编故事是AI最擅长的事。

我们常嘲笑父母辈转发养生谣言,觉得他们信息素养不够。但仔细想想,老一辈至少还保留着一种朴素的怀疑本能。而今天的年轻人在信息过剩中长大,习惯了随手搜索就能得到答案。搜索引擎给出的结果看起来客观中立,AI聊天机器人的回答更是条理清晰、温和有礼。这种包装制造了一种前所未有的信任惯性。研究显示,在社交媒体上消费新闻的人更容易受deepfake影响,而且这个效应和智商高低无关。

电影《她》中的西奥多爱上了逻辑清晰、温柔有礼的

聊天机器人萨曼莎▐

更隐蔽的威胁来自AI的幻觉问题。大语言模型在预训练中只学习了什么样的文本读起来像是对的,却从未学过什么是对的。它预测下一个词的概率,却不理解词语背后的事实。当前的技术架构决定了,AI宁可自信地胡说八道,也不会承认自己无知。而多数使用者完全没有意识到这一点。最可怕的场景是:被骗了却浑然不觉,还把错误信息内化成了自己的知识。

听到这里你可能想问:那我是不是应该怀疑一切?大可不必。怀疑一切和相信一切,最终殊途同归,都是放弃理性判断。哲学家卡尔·波普尔(Karl Popper)给过一个更精准的态度:别问一条信息能不能被证实,要问它能不能被推翻。这个态度落到每天刷手机、读新闻、用AI的日常里,可以变成一套相当实用的操作。

《黑镜》第一季第二集《一千五百万的价值》描述了一个

人们在逼仄的房间里进行所有生命活动的世界▐

1.给自己建一份信源白名单。花点时间筛选出你信任的媒体、记者、学者和专业机构,把它们设为你的一级信源。白名单不必大,五到十个靠谱的来源就够你交叉验证了。养成这个习惯之后,那些来路不明的信息自动就降了级。

2.学会识别“一眼假”的特征。AI伪造的内容有几个共性:来源链条断裂(追不到具体的人、机构和时间地点),情绪浓度异常高(让你看完立刻愤怒或者立刻感动),细节丰富但缺乏可验证的锚点。一篇看似专业的科普文章,如果引用的论文你在Google Scholar上搜不到,大概率是AI编的。

3.用AI打假AI。你完全可以把一段可疑的文字丢给AI,让它帮你检查事实。这篇文章里引用的数据出处在哪里?这个案例是真实的吗?AI善于编造,但也善于拆解。让两个AI互相审问,效果远好过你独自判断。图片方面,Google的以图搜图功能可以帮你追溯一张图片的原始来源;Hive、AI or Not等在线工具能检测一张图是否由AI生成。这些工具未必百分之百准确,但作为初筛已经足够。

4.给自己装一个情绪断路器。虚假信息几乎总是裹着浓烈的情绪外衣。在你转发、相信、采取行动之前,先等一等。哪怕只是等10分钟。

5.最后也是最根本的一点:在你关心的领域里读几本扎实的书。有了基本概念和逻辑框架,新信息进来时你才有东西拿来交叉比对。知识网络越稠密,单条虚假信息击穿它的可能性就越小。我们正在进入一个伪造廉价而验证昂贵的时代。但你愿意为真实付出的耐心和努力,将成为最有价值的智识资产。你的大脑不会被AI取代,但需要你主动升级它的防火墙。

正如《黑客帝国》中的红色药丸,

选择它即代表要秉持着怀疑精神探寻万物的真相▐

原文刊载于《时尚COSMO》4月刊

若菲

编辑助理:王阿果

排版:萱萱

设计:棒棒

图源:网络、受访者提供