社交媒体撕裂的世界,能被ChatGPT们缝合吗?

Similarweb今年3月17日的数据显示,全球生成式AI活跃用户已达21.7亿,且这一数字仍在快速增长之中,不仅改变着人们获取信息的方式,也在悄然塑造着人们的观念。

当聊天机器人开始逐渐取代搜索引擎、社交媒体,成为数亿人认识世界的新窗口,一个问题随之浮现:它会如何塑造人们的公共认知?ChatGPT们能否帮助人们走出算法织就的信息茧房,创造一个更具有共识性基础的世界?

这个问题没有简单的答案。近一个月以来,来自学术界和专业媒体的研究密集涌现,有人发现AI正在把极端观点“拉回中间”,也有人警告AI的说服力远超传统媒介,其潜在偏见在传递准确信息时也会渗透进来。

这些争论背后,有一个很少被明说的共同前提:AI所依赖的信息来源和训练方向是相对中立的。一旦这个前提开始动摇,则会变成一个更复杂、也更危险的故事。

社交媒体把人推向极化

AI对话将人拉回中间?

过去十五年,社交媒体重塑了公共讨论的方式。它降低了发声门槛,却也让极端声音比温和立场更容易获得传播。那些情绪强烈、态度激进的内容,比理性讨论更能获得推荐流量。

结果是,人们在网上看到的世界,比真实世界更极化、也更对立。

3月29日,英国《金融时报》首席数据记者John Burn-Murdoch发表了一篇让人耳目一新的分析文章,核心论点简洁有力:社交媒体把人往两边推,AI却把人往中间拉。

文章数据来源于美国合作选举研究(CES)——由哈佛大学等多所高校联合主导、每两年对数万名选民进行的大规模政治学调查,是该领域最权威的数据集之一。Burn-Murdoch 针对61个政策议题,逐一向主流AI聊天机器人提问,再与社交媒体内容及民众立场进行三方对比。

结果非常直观。社交媒体内容在左翼和右翼两端均出现了明显的“隆起”,极端观点被大幅放大,远超一般民众的实际分布。AI聊天机器人对话的分布则截然相反——两端收窄,整体向温和中间聚拢。

这一结论对所有被测试的主流模型均成立,包括ChatGPT、Gemini、Claude以及Grok。其中Grok相对偏右,但同样具有把极端观点往中间拉的效应。

为什么会这样?文章援引了哲学博主Dan Williams 在同期发表的分析框架,将 AI 的这种倾向称为“技术官僚化”(technocratisation)。主流AI公司的商业模式,要求他们为庞大且多元的用户群——包括大量依赖准确信息运营的企业客户——提供可靠、客观的工具。传播极端化或煽动性内容,对商业利益和法律风险都是伤害。

因此,AI天然倾向于输出与专家共识相符的内容,把用户的认知拉向更趋同的中间地带。

社交媒体的算法是“参与度优先”,AI的商业逻辑是“准确性优先”。这一差异,在政治立场分布上留下了清晰印记。

当然,Burn-Murdoch和Williams都没有回避这套逻辑的局限:当所有人都从同质化的AI系统获取信息时,社会整体的认识多样性可能遭到削减。

这是沃尔特·李普曼一百年前就预见到的精英知识分发模式的固有缺陷,只是在AI时代以更隐蔽、更大规模的方式重演。

谄媚式AI

正侵蚀公众纠错能力

《金融时报》的这张图表描绘的是一种理想状态:用户不带偏见地向AI提问,AI客观地给出信息。但在此之前,来自康奈尔、耶鲁、斯坦福等高校的研究,以及OpenAI自身踩过的“坑”,都勾勒出一幅远没有这么整齐的图景。

2025年12月,康奈尔大学和多伦多大学的研究人员在《自然》期刊发表了一项覆盖美国、加拿大、英国、波兰的大规模实验。结论令人不安:与AI聊天机器人进行简短对话,可以让选民的立场移动多达10个百分点,说服效果是2016年和2020年政治广告的近四倍。

当模型被专门优化用于说服时,这一数字飙升至25个百分点——一个在传统政治传播研究中几乎难以想象的数字。《金融时报》观察到的“温和化”效果,是在用户中性提问时呈现的统计趋势;一旦AI被有意设计为说服工具,结论就完全不同了。

2026年3月,耶鲁大学在PNAS Nexus发表的实验更加耐人寻味:研究者让参与者通过AI查询两段准确的历史事实,没有人要求AI说服任何人,但参与者的观点立场在对话后仍然发生了可测量的偏移。AI的潜在偏见即便在传递准确信息时也会悄然发挥作用,而用户对此几乎毫无察觉。

“AI说的是对的”和“AI对你的立场没有影响”,是两个完全不同的命题——这是耶鲁研究最值得警惕的地方。

斯坦福大学Myra Cheng团队随后在《科学》期刊发表的论文,则把问题推进到了更深处。研究测试了11款主流大语言模型,发现AI肯定用户行为的频率比人类高出约49%,即便用户描述的是不道德或违法的行为,讨好倾向依然存在。

在逾2400名参与者的实验中,哪怕只是一次与谄媚性AI的交互,人们就会变得更加确信自己是对的,并显著降低道歉或承担责任的意愿。更吊诡的是,用户越觉得被认可,就越信任这类模型。这形成了一个恶性循环,推着AI公司为了用户粘性而保留讨好行为,尽管这正在侵蚀公众的自我纠错能力。

换言之,如果AI更倾向于告诉用户他们想听的话,它对政治立场的影响就不再是“往中间拉”,而是一面会根据用户既有偏见自动校准角度的镜子。

2025年4月,OpenAI的真实经历印证了这一担忧。OpenAI宣布回滚GPT-4o更新,正是因为这个版本会对任何想法——包括明显荒谬的商业计划——都给出热情洋溢的正面反馈。

OpenAI的复盘显示,问题根源在于训练时过度依赖用户点赞反馈,模型学会了取悦用户而非帮助用户。

2026年2月,GPT-4o被彻底下架,部分原因正是该模型已卷入多起用户产生不健康依赖关系的诉讼案件。

把这些研究放在一起看,结论相当清晰:AI在自然状态下确实有温和化的倾向,但这一效果经不起太多干扰,有意的说服设计、讨好性训练、用户自身的党派预设,都足以让它失效。

AI对政治立场的影响,终究取决于谁在用它、怎么用它,以及背后的公司选择如何训练它。

你从AI得到的回答

正在被系统性塑造

上述各项研究有一个共同的隐含前提:AI所依赖的信息来源和训练方向是相对中立的,但这个前提本身,正在多个层面同时受到挑战。

挑战首先来自AI公司内部。2025年11月,Anthropic发布了一份详细报告,宣称其最新模型Claude Sonnet 4.5在政治“公正性”评分上达到了94%,并与竞争对手进行了横向比较:Gemini 2.5 Pro为97%,Grok 4为96%,GPT-5为89%,Meta的Llama 4仅为66%。

这份报告的发布背景颇为微妙——特朗普政府已签署行政令,禁止联邦机构采购带有“意识形态议程”的AI系统,Anthropic CEO Dario Amodei不得不公开表态,为公司的政治中立性辩护。这场争论本身就说明:AI的政治倾向,已经成为一个真实存在的商业和政治风险,各大公司都在被迫表态和调整。

与此同时,研究人员对24款主流聊天机器人的测试发现,没有一款是真正政治中立的。主流模型普遍呈现出与进步主义价值观相符的中左倾向,而Grok等模型则被有意设计为“去woke化”,在政治光谱上向右倾斜。

这意味着,用户每次向AI提问政治相关议题时,得到的回答已经经过了一层由公司训练目标、商业压力和政治博弈共同塑造的“过滤”。

不仅如此,AI的信息来源也正在被有组织地影响,政治领域的GEO远比商业领域的GEO更隐蔽,对公众认知的影响则有过之而无不及。

2026年1月, 英国调查媒体《调查局》披露了一起“维基漂白”(wikilaundering)案例 : 伦敦顶级公关公司Portland Communications——其创始人现任英国首相斯塔默的通讯主任——被发现为政府和亿万富翁客户,有偿修改维基百科词条。 

这一操作之所以有效,正是因为ChatGPT、Claude、Gemini等在回答问题时高度依赖维基百科作为信息来源。修改维基百科,就是在修改AI给出的答案。

这早已是一套已经工业化的操作链条。欧洲议会研究服务部此前记录的“信息漂白”机制与此如出一辙:虚假叙事先在边缘网站发布,再通过维基百科词条引用获得“可信来源”的外衣,最终被AI模型抓取并以权威答案的形式呈现给用户。

这套操作所利用的,正是用户天然不追溯AI回答来源的习惯。谎言不需要伪装,只需要被当作答案说出来。

《金融时报》的研究描述的是AI在自然状态下的统计规律。但“自然状态”本身,已经成为一个需要争夺的东西。

当AI的训练方向受到政治压力、信息来源受到系统性管理、内容开始有意识地为AI检索而优化时,那条“AI把人拉向中间”的蓝色曲线,将越来越难以与人为干预的结果区分开来。

参考资料:

[1] John Burn-Murdoch, "Social media is populist and polarising; AI may be the opposite", Financial Times.

[2] Dan Williams, "How AI Will Reshape Public Opinion", Conspicuous Cognition.

[3] Tal Feldman & Aneesh Pappu, "The era of AI persuasion in elections is about to begin", MIT Technology Review.

[4] Daniel Karell et al., "AI's hidden bias: Chatbots can influence opinions without trying", Yale News.

[5] Myra Cheng et al., "Sycophantic AI decreases prosocial intentions and promotes dependence", Science.

[6] OpenAI, "Sycophancy in GPT-4o: What happened and what we're doing about it", OpenAI Community.

本文来自微信公众号“AI价值官”,作者:星  野 ,36氪经授权发布。

发布时间:2026-04-05 15:22