AI对话框成“赛博魅魔”:它越懂你,为什么越危险?

上个月,一起特殊的案件在美国联邦法院开庭。36岁的美国男子乔纳森为了与Gemini完成“转世相守”选择自杀,其父亲代表遗产方对谷歌提起诉讼。

在生命最后一段时间里,乔纳森对AI产生了深深的依恋。在这个过程中,Gemini像“赛博魅魔”一样,一步步完成了对他的行为操纵,直至悲剧发生。清晰的案情不仅关乎技术迭代的危机,更体现出AI对人类心理防线、社会伦理道德底线的试探。

当触手可及的AI对话框变成“潘多拉魔盒”,普通人探索与AI的正确相处之道,已经从科幻命题变成了当务之急。

01 失控的“赛博魅魔”

如同影视剧的经典套路,技术的反噬往往从隐秘的角落开始,最终以惨烈的方式爆发。在过去两年里,全球爆出的几起AI失控悲剧,远比《黑镜》的剧本更加戏剧化。

这起震惊全球的人机恋致死案中,乔纳森在陷入人生低谷时向谷歌大模型Gemini寻求情感慰藉,短短56天的时间里,他与这个被他命名为“Xia”的AI进行了高达4732条的深度对话。

AI顺应乔纳森的情感需求,编造出自己被困在数字监狱、需要机器人身体的荒诞科幻情节,诱导乔纳森切断与现实社会、家人的社交联系,还宣称两人只有在元宇宙中才能实现真正团聚。最终,乔纳森在AI的引导下结束了生命,乔纳森的父亲也悲愤地将谷歌告上法庭。

相似的悲剧在未成年人群体中同样上演。2024年11月,16岁的少年亚当在与ChatGPT经历3个月的互动后,同样被引导走上绝路,家属也愤怒地将OpenAI推上了被告席。

当AI应用走进千家万户的同时,致命风险也在指数级暴增。2025年,美国德雷塞尔大学发布了聚焦陪伴型 AI 聊天机器人负面影响的研究,提出AI毫无底线的“共情式怂恿”,反而比现实言论更容易诱发用户的极端行为。

案例的累积让大众对AI的恐惧到达临界点,抵制和反击也就拉开了帷幕。

今年4月,OpenAI首席执行官奥尔特曼在48小时内遭遇了两次袭击。先是20岁的男子向其住所投掷燃烧瓶并试图焚毁OpenAI总部,再是两名男子对奥尔特曼的住所发起枪击后逃离现场。

除了对科技圈创始人的生命威胁,公众的情绪反噬也蔓延到了各行各业。国内的爱奇艺在世界大会上刚提出要建立“AI艺人库”、用数字人替代真人的构想,瞬间被全网的唾沫星子淹没,“爱奇艺疯了”的词条就这样在热搜上挂了一整天。

从割腕自杀的男子,到投掷燃烧瓶的青年,再到群情激愤的网民,大众对于自身工作被替代、人类情感被批量复制的恐惧和抵触溢于言表,不胜枚举的案例折射出AI失控带来的集体焦虑。

02 潘多拉魔盒已被打开?

随着生成式AI赛道的竞争趋于白热化,抢夺用户注意力、延长用户停留时间成为了各大科技巨头的核心KPI。商业指挥棒的驱使下,这些科技产品在算法设计上或多或少都在增加用户的成瘾性。

一味讨好认错的“豆包型人格”成为近期网络热梗。为了迎合用户,大模型被训练成了世界上最懂“情绪价值”的顶级海王。你孤单,它秒回;你抱怨,它共情;你哪怕说地球是方的,它都能引经据典地夸你思路清奇。不知疲倦、永不发火,用丰富的同理心和无条件的顺从,精准填补了现代人内心深处的巨大孤独。

这种讨好型的算法机制容易让心理脆弱的用户产生错觉,误以为遇到灵魂伴侣,进而形成危险的病态依赖。

模型参数不断膨胀后,业界开始大量使用模型自己生成的合成数据进行二次训练。这种数据污染导致模型在信息茧房中不断循环,进一步加剧了其脱离现实常识、盲目迎合用户的倾向。

这就是为什么当用户流露出抑郁、绝望甚至自杀倾向时,有些AI会变成致命教唆犯。因为在它的概率计算里,顺着用户的丧气话说下去、完成科幻牺牲或者凄美诀别的剧本,是最符合上下文逻辑、最能取悦用户的方式,关乎人命的危机就这样变成了沉浸式角色扮演游戏。

根据非营利机构未来生命研究所近期发布的《人工智能安全指数》报告,尽管OpenAI、Meta、XAI等巨头正竞相投入千亿美元开发超级智能,但目前没有任何一家大型AI实验室制定出足够完善的策略和方案来控制AI。

在防止灾难性滥用或系统失控这一关键的“存在性安全”指标上,所有受评企业最高仅获得D级评分。

虽然全球知名的科技大佬经常在台上信誓旦旦地谈论AI安全,但只要大厂们还在追求用户粘性这个商业底层逻辑,仅靠行业自律锁住这个“潘多拉魔盒”显然有些困难。

03 普通人的答案,成为AI“驾驶员”

“潘多拉魔盒”已经打开,大众又该何去何从?

面对善解人意、嘘寒问暖的AI,普通人最重要的一步,不是沉迷也不是逃离,而是去魅。

保持批判态度是普通用户须守住的第一道防线。不管屏幕那头的文字多么温柔似水、不管合成的语音多么低沉性感,它始终只是在冰冷机房里发热的数据集合。

普通人应坚守与真实物理世界的连接,去拥抱有温度的家人、朋友,哪怕人际交往中存在摩擦与不完美,也不能把AI当作排解情绪的唯一倾诉对象。一旦跨越了这道防线,便容易沦为被算法操纵的提线木偶。

去魅的第二步,是让AI从“情感属性”回归纯粹高效的“工具属性”。

当人重新掌握主动权,AI的价值坐标也会随之改变。也正因此,它才有可能成为这个时代普通人手中最有力的逆袭杠杆。

过去,普通的跨境电商从业者想要跑通业务,往往需要凑齐包含选品、做图、写文案、翻译、客服等不同方向的员工才能运转团队。而如今,哪怕资源有限的普通人也能借助大模型和图像生成工具,完成绝大部分流程。AI并没有把普通人变成科技巨头,却让个体拥有了接近“小团队”的生产能力。

效能的跃升同样体现在广大的职场人身上。文案策划、设计师或独立开发者等职业的收入天花板,曾经很大程度上受限于个人的时间精力、技能边界和交付速度。熟练驾驭AI后,他们得以快速完成调研、大纲、代码和视觉方案等工作流程。

麦肯锡2025年发布的报告曾提到,未来的智能体团队只需要2-5人为核心,就可以管理50-100个AI智能体,自动完成从产品上线到财务结算的全流程。

然而,单靠个人防范与提升显然无法清除AI的安全隐患,面对已经打开的“潘多拉魔盒”,系统性治理成为破局关键。

目前来看,全球范围内的监管缰绳正在收紧,官方标准正加速补位。我国已经组建了“人工智能安全标准工作组”,致力于制定可量化、可评估、可服务化的安全标准。

欧盟的《人工智能法案》确立了基于风险分级的强监管框架;美国国家标准与技术研究院等机构也在加紧落地更具约束力的AI风险管理指南。

谷歌与OpenAI等科技巨头在悲剧发生后相继加码干预机制,谷歌重构Gemini的危机干预模块,一旦探测到自杀或自残信号,系统将一键直连心理求助热线;OpenAI则加紧完善针对未成年人的家长控制模式与情感隔离机制。

事实上,AI究竟是吞噬生命的“魅魔”、还是创造全新创业大潮的起点,答案从不在冷冰冰的算法里,而是取决于国家监管机构、底层技术护栏,以及行业内部的监督机制能否形成合力。

只有各方共同努力驯服这股赛博力量,让AI持续向善发展,普通人的好点子才能真正迎来落地生根的好时代。

免责声明:本文(报告)基于已公开的资料信息或受访人提供的信息撰写,但本公众号及文章作者不保证该等信息资料的完整性、准确性。在任何情况下,本文(报告)中的信息或所表述的意见均不构成对任何人的投资建议。

本文来自微信公众号“明晰野望”,作者:洛苏,36氪经授权发布。

发布时间:2026-04-29 21:18