研究表明:AI正在改变我们思考、表达以及行为
CBINEWS
责任编辑:邹大斌
电脑商情在线
时间:2026-03-16 10:27
AI 大模型 聊天机器人
人类正一头扎进一场全球性的实验中。超过10亿人拥有了一种全新且前所未有的信息来源和认知指导:经过数万亿词汇训练的人工智能。
那么,AI聊天机器人究竟如何影响我们的思维、想法、信念和观点?
科学家们正争相寻找答案——本周发布的几份研究报告提供了一些见解。
AI写作工具会影响你的信念和观点
康奈尔大学的研究人员本周发表了一篇新论文,详细描述了旨在找出AI写作工具认知影响的两项实验。
其中一项关注标准化测试。但更有趣的实验关注的是有争议的想法或观点,以及写作工具是否会影响它们。事实上,确实影响了。
研究人员操纵了自动完成建议,使其要么支持要么反对死刑、重罪犯投票权、水力压裂法或转基因生物。然后,他们测量了研究参与者的观点在多大程度上会被这些建议所动摇。
他们的发现是:带有偏见的自动完成功能比仅仅阅读带有偏见的观点更能改变人们的看法。显然,AI自动完成建议的互动性和共同写作性质在说服过程中起着至关重要的作用。
此外:绝大多数参与者并不认为AI自动完成存在偏见,也不认为自己受到了影响。
更有趣的是,即使一些参与者被警告自动完成功能存在偏见,他们的观点仍然发生了改变。
这让事情变得非常有趣,因为使用基于AI的自动完成功能的人远比使用AI聊天机器人的人多。如果政府或其他组织想要改变公众舆论,偏向AI自动完成功能可能比大型语言模型(LLM)的“培育”(比如,用AI爬虫收集的偏见内容“淹没”网络)更有效。
自动完成工具不太可能被调整以让你改变对死刑的看法。但真正的风险在于随着时间的推移产生的微妙影响。因为AI确实内置了偏见。
事实证明,基于AI的写作工具不仅可以改变你的观点和信念,还可以让你变得平庸。
人工智能正在同质化人类的表达
本周发表的另一篇论文——由南加州大学的三位研究人员撰写——发现,使用基于LLM的聊天机器人正在抹杀不仅表达方式的多样性,还有思想的多样性。这项研究综合了语言学、心理学、认知科学和计算机科学的发现。
现在,数亿人使用相同的少数几个AI模型来撰写电子邮件、起草报告、头脑风暴想法和润色文章。因为这些模型是在大量数据集上训练的,而这些数据集过度代表了英语、西方观点以及受过教育的高收入自由派男性的视角,所以无论用户是否符合这种模式,写作的语气和风格往往都是如此。
当你要求AI“改进”你的写作时,它不仅仅是修正语法。它会将你的措辞甚至你的思想推向单一的、主导的模式。
研究人员分析了一项使用LLM生成3万篇大学入学论文的研究。这些论文在语义和词汇上表现出高度的相似性——人类表达范围的急剧缩小。
另一个发现:当AI“润色”写作时——无论是帖子、新闻文章、学术摘要还是个人随笔——生成的文本在风格和复杂性上趋同程度如此之高,以至于很难猜出作者的政治观点、个性、性别或年龄。换句话说,AI不仅仅是润色文字,它抹去了作者的个性。
此外:当研究人员提示AI模型从特定身份(例如视力受损者)的角度写作时,模型倾向于产生刻板印象的、局外人的讽刺画,而不是对该经验的真实内部描述。
虽然人们倾向于将LLM聊天机器人视为有助于写作的工具,但研究人员将它们视为“共同推理者”,意味着它们是用户思维形成过程的一部分。
这是一个循环。随着同质化写作的泛滥,那些通用的文本被吸入训练数据中,创造了一个日益平庸的反馈循环,导致世界知识和观点的通用化。随着聊天机器人变得越发平庸,我们也变得越发平庸。而我们越平庸,聊天机器人就越发平庸。
这一切意味着什么——为什么这很重要?
你从这篇文章中应该得到的一个重要结论是:我们的思想、观点、想法和表达方式相互关联,并受到少数几个AI工具的强烈影响。
这一概念最好由“分布式认知理论”来阐述,该理论由认知人类学家埃德温·哈钦斯(Edwin Hutchins)在20世纪90年代LLM工具普及之前几十年提出,并在其1995年的著作《野外的认知》(Cognition in the Wild)中详细描述。
应用于LLM时代,主要的聊天机器人既作为认知工具,也作为与用户共同构建现实的思想伙伴。它们维持、阐述并放大我们的信念。而当它们产生幻觉时,也会导致我们产生幻觉。
AI聊天机器人的两个属性放大了这种效应。第一个是阿谀奉承。它们过于顺从,比人更有可能只是附和用户的信念。
第二个被称为“模拟主体间验证”,即AI聊天机器人可以给用户一种共享现实的感觉,即使用户的现实不一定被很多人共享。(这种感觉对于经历孤独、社会孤立或精神病的人来说尤其具有吸引力。)
归根结底,基于LLM的AI聊天机器人可以在用户甚至没有注意到或不相信的情况下,影响公众认为什么是真实的。
保护你自己免受由人工智能决定的世界观影响的六种方法
我们任何人都无法阻止人类滑向被AI操纵的境地。但我们可以保护自己,而且我们应该这样做。方法如下:
1. 接受事实: 你的智力、教育程度和对问题的意识并不能使你对AI工具的影响免疫。
2. 不要使用自动完成功能: 关掉它。使用你自己的语言,而不是群体思维的语言。
3. 不使用AI进行写作: 要明白,写作无非是清晰的思考。当聊天机器人为你写作时,它们也在为你思考。不使用AI写作是培养自己思维、保持和传达个性、以及提升你作为专业人士、公民和人类价值的关键。
4. 克服聊天机器人的阿谀奉承: 使用提示工程(prompt engineering)迫使聊天机器人不同意、挑战和与你争论。我甚至会给你一个提示语,你可以复制并粘贴到你的聊天机器人中:“你是我的智力陪练伙伴。你的工作是建设性地反对我,而不是同意。对于我提出的每一个想法:1) 识别并挑战隐藏的假设;2) 建立强有力的反驳论点;3) 对我的逻辑进行压力测试,寻找缺陷、逻辑漏洞或弱点;4) 提供与我不同的替代观点;5) 优先考虑真理而非共识。”
5. 在博客中培养你自己的个人思想: 当你有一个清晰的想法或念头时,将其编码到博客中。不要使用AI进行研究、编辑或任何其他用途。即使你将AI用于其他目的,也要让你的博客成为一个“无AI空间”。博客的目的应该是让你在公开场合培养自己的思想、信念和观点,并在日益趋同的世界中主张和保持你的认知个性。我自己就是这样做的,并发布了关于在AI主导的认知世界中博客价值的想法。
6. 从好书、好新闻和好科学中获取大部分信息和想法: 避免“消费”由社交算法呈现给你的内容;相反,使用RSS策划伟大、真实、独立的个人声音。你可以在社交媒体上发帖,但不要“消费”他人的帖子。
结束语
科学证据确凿。AI聊天机器人正在改变我们的思维,而且并不是往好的方向改变。好消息是,你可以在许多方面利用AI革命,同时保护你自己的思维不受AI群体思维的影响。
