2026年春天,一只龙虾搅动了整个互联网。从社交媒体上的疯传、打工人乐此不疲的安装和体验,到高校、券商相继出台禁令,不过短短数周,这个被视作“新宠”的AI应用,捕获到了AI赛道开年以来最多的流量。
有人沉迷于它的“懂你”,有人警惕它正在偷走什么,而这两种情绪,正构成当下人与算法关系的两面。
胡泳是北京大学新闻与传播学院教授,也是国内最早研究互联网的学者之一。在他眼里,从早先的元宇宙到如今的大模型,再到最近的“龙虾现象”,一些互联网技术的标志性事件总在11月到次年3月集中爆发:“社会上会出现比如‘革命’‘颠覆’‘破坏’这些大词,搅得所有人都心神不宁。”
而这一次,龙虾从爆火到争议,恰好落在了3月——一个本该冷静下来的春天。热点之外,透露出一种什么样的焦虑?
在第十届深港城市建筑双城双年展(深圳)上,胡泳的装置艺术作品状似“一个困于地球里的人”。这个“人”看上去是罗丹塑造的“思考者”,但它实际由芯片堆积而成,“那是在假装思考,其实完全没有思考”。
胡泳跨界做的第一件装置艺术作品《人之困镜》。(图 /TAL+ 白羽)
胡泳给作品取名为《人之困镜》,镜子的“镜”。他觉得,人类发明元宇宙和大模型等,本质都是在和自己对话。我们沉迷于镜像世界里,就像莎士比亚在《哈姆雷特》中所说:“上帝啊!倘不是因为我总做噩梦,那么即使把我关在一个果壳里,我也会把自己当作一个拥有着无限空间的君王的。”
装置背后,是他扎实的研究和日常观察。在对抖音用户的访谈中,胡泳发现很多人刷短视频,并不是因为“想做某事”,而是因为“不想做某事”或“不知道该做什么”。他将这种观看情境的特征称之为“主动的被动”。人本可以利用短视频应用去搜索信息或进行社交互动,却主动将内容选择权交给了算法。
上至算命玄学,下到生活百科,大语言模型能提供“立等可取”的答案。胡泳发现,当用户的“个人偏好”都被投喂给算法,成为“公域资源”,和平台商业利益裹挟在一起,机器人是越来越“懂”人了,但隐私危机也随之而来。
很难想象,如今在作品中把“人”锁进地球抽空灵魂的胡泳,是30年前的“技术乐观主义者”。1996年,他把美国计算机科学家尼古拉·尼葛洛庞帝的《数字化生存》翻译成中文,这本书预言了技术带来平等、串联地球村的甜蜜未来,一度被放在中国互联网创业者的案头。
胡泳一度对技术很乐观,今天,他已经不这么认为了。(图/受访者提供)
但2016年,尼葛洛庞帝在《数字化生存》20周年纪念版序言里写:“民族主义甚嚣尘上,管制在升级,贫富鸿沟在加剧……全球化变成了本土化,尽管智识的、经济的以及电子的骨干设施都取得了飞速增长,但无所不在的数字化并没有带来世界大同。”
如此背景下,在胡泳眼里,整个传播学从研究孤立的媒介内容或技术效果,日渐转向考察人、技术、情感在新的社会情境下的复杂性。课堂上,他会和学生多聊一聊哲学,反思技术伦理。生活中,经过对患有阿尔茨海默病亲人的照护后,胡泳也会将注意力放在思考人如何老去、如何面对死亡等问题上。
但胡泳觉得,他在这两方面的实践都是相通的,它们都是在促使大家去思考:在一个技术并不能完全向善的风险时代里,人何以为人?
以下是《新周刊》和胡泳的对话。
《新周刊》:在2008年出版的《众声喧哗:网络时代的个人表达与公共讨论》中,你讨论了Web 2.0时代里公域与私域的变化——公众变成一种幻象,私人边界不断模糊。在各巨头平台以AI算法角力的今天,这一趋势是否被进一步放大?又出现了哪些新的变化?
胡泳:2008年,行业内还没有现在的这些算法推荐。18年后,在算法加持下,公域和私域的边界消融更严重了,二者的界限进一步弱化。首先,所谓算法整合推荐,就是先搜集用户私人偏好的数据。不管是你的私人兴趣、好友互动,还是你的浏览记录,甚至点赞、分享等,都会成为投喂算法的素材。这造成的结果是,个人的私域行为被投射到公共或半公共的内容流当中。
其次,在Web 2.0时代,社交媒体只是初见雏形。随着其做大做强,它裹挟了算法推荐,更重要的是,商业活动也进来了。社交跟商业活动是叠加的,最典型的就是短视频、直播电商。你的所有行为,不仅服务于个人社交,同时还服务于平台流量和广告销售。私人偏好就不只属于你自己了,还变成了平台价值生产的一部分。也就是说,人的注意力变得可交易了。
(图/pexels)
可怕的是,由于技术嵌入的加深,我们招架不住、无能为力,甚至有时候会觉得它给我们带来了方便,对此习以为常。如果真的稍微驻足想一下,你会发现自己的所有信息已经完全被公开化了。比如眼下,大模型侵犯隐私的问题已经暴露,但一切只是刚刚开始。
《新周刊》:大模型对个人数据的搜集、算法对个体喜好的迎合,让人越来越“舒服”,相应地,这是否会带来不同群体之间的对立?比如,这两年互联网上不断加剧的性别对立,背后是否有算法的助推?
胡泳:《众声喧哗》那本书有个副标题,叫“网络时代的个人表达与公共讨论”,技术势必会带来个体和群体两个层面的变化。不同群体组建起来的圈层,一定会产生很激烈的交锋,圈层内部则会通过“回声室效应”“过滤气泡”等机制,加强内部的同质化。在社会学研究里,这被称为“内群体”和“外群体”。算法推荐会带来内群体的极化和外群体的激化。
(图/pexels)
以小红书这类女性用户居多的平台为例,很多女性会通过打一些特定的标签,来建立一个自由无负担的交流空间,避开所谓的“男凝”也好,建立起某种壁垒也罢,内群体由此建立起来了。内群体的好处是共享相似的世界观、生活秩序以及亲密感。但附带的代价是,它会日渐加深外群体的成见,在一些情况下,有人甚至给你扣上“厌男”的帽子。这些都是一体两面的。
可以说,在算法制造的信息茧房里,物以类聚、人以群分的现象更严重了。当下,你甚至会发现不同群体拥有不同的平台。在以男性用户为主的地方,就会大谈特谈“高彩礼”“女拳”等话题,而女性用户占比高的地方,“凤凰男”“渣男”等标签话题同样能吸引大量议论。
《新周刊》:从传播学的角度看,用户对算法推荐的内容上瘾,背后有哪些原因?人可以“反算法”吗?
胡泳:我们之前研究抖音用户,很多人刷短视频,会处于“沉浸式注视”之中。这一方面是技术设计的结果,比如,每个视频都很短,往往含有某种瞩目的看点,而且播放完毕需要用户手动转到下一条,否则就会无限循环;另一方面,这种沉浸式的效果也与用户的使用习惯有关,受访者们刷抖音,不是因为“想做某事”,而是因为“不想做某事”或“不知道该做什么”,这就是某种“主动的被动”的观看情境。在这种情境下,无处不在的视听刺激又会让人觉得自己在接触新的东西,进而一直刷下去。
(图/pexels)
所以,“反算法”的核心,在于跳出这种情境,重新把算法推荐工具化,把它当成一种只是为了满足你主体需求的东西。我不是鼓吹拒绝技术,只不过是想改造个体对信息的接触路径、对算法的调控能力,我把它理解为“技术的反嵌入”。退一万步讲,我们“打”不过平台,因为平台对我们的影响是压倒性的,但也不能说,人面对平台就完全无能为力。
《新周刊》:关于“反算法”,我想到,当我看到妈妈刷的短视频里有欺骗老年人的内容,我会给她点击“不喜欢”,也有人会主动选择其他类目内容,甚至用各种关键词来扰乱算法“心智”。除了这些做法,你还有什么建议吗?
胡泳:“反算法”首先体现在行为上,你举的这些例子,都是通过具体行为来削弱算法的主导地位。我结合自己的经验,补充一些其他角度。比如,我获取信息的途径是多样化的,除各类付费订阅和主动阅读之外,我一直是搜索引擎的忠实用户。尽管大模型出现后,很多人认为搜索引擎可以被替代,但我觉得,搜索引擎这个产品给我们带来的信息质量相对更高。
(图/pexels)
搜索引擎的核心算法是PageRank(网页重要性排序),也就是说,如果这个信息靠前,是因为它和我输入的关键词关联度最高,而且它会给出明确的信息源,我可以顺藤摸瓜。此外,我用搜索引擎有个固定习惯,每次都会翻到搜索结果的第5页,这样,我对话题会有更客观的了解。
但大模型不一样,它看似给你一堆资料和观点,但也许会造假,有“AI幻觉”。像小红书这类平台,我也会用来搜索吃喝玩乐的信息,但如果用来做学术,我看不到信息源,也无法辨别内容发布者的资质。也就是说,它的信息成本是很高的,因为大量的人都在变着法子地吸引你的眼球。
除了通过特定途径获得信息之外,我也非常坚持,一定要出门参加线下活动,要用各种各样的办法跟不同的人群接触,也就是大家常提的“身体的在场”,追求“活人感”。这些活动可以让你的认知活动部分移除掉算法,建立起新的经验路径。你一定要在生活里有“非计算化的空间”,才能夺回你的认知主权——这也是“反算法”在认知层面的要义。借布莱希特戏剧理论的话来说,就是要建立人之于推荐结果的“间离效果”。
平日忙碌的都市人利用周末亲近自然,晒晒太阳,放松身心。(图 /Zhong)
当然,在行为层面和认知层面之外,可能还有更高的维度,比如算法素养很高的人会用专业工具来降低数据的可追踪性,拦截某些东西,或者恢复一些过去的东西。
《新周刊》:人类已经进入“后真相”时代,我们该如何重新建立信息判断的原则和对数字化的想象?
胡泳:“后真相”时代,人工智能可以24小时、无穷无尽地生产假信息,鉴别起来太难了,与其想如何搞清楚信息的真假,不如换一个原则。我的抖音主页上写了一句话:“注意力不是免费资源,而是人类最后的抵抗。”我觉得,任何的信息来到眼前,先问自己一个问题:它值得我投入注意力吗?我需要花时间和情绪来回应它吗?换言之,就是把判断信息的真假改成判断其重要性。因为每条信息都在争夺你的注意力,但注意力是你最稀缺的资源。
有一个读者反问过:“胡老师你这样做,难道不会被假信息欺骗吗?”我说不会,因为一旦这个东西值得投入注意力,你就会去研究它。仔细研究后,就会看出来它到底是真是假。
但我必须强调的是,在被商业巨头割据、被监控资本主义侵蚀,又被民族国家疆界重塑后,开放互联网的理想已经破灭。我们需要持续发出灵魂拷问,重新思考数字化,建立起新的价值论和认识论。它不仅仅指向用户,让人培养算法素养,夺回注意力的主动权,更指向企业和平台,以及政府监管机构,乃至整个技术架构的底层逻辑。
本文来自微信公众号 “新周刊”(ID:new-weekly),作者:钱雨朦,36氪经授权发布。
发布时间:2026-04-05 17:24