虚拟恋人24小时在线,却把你推向更深的孤岛。
凌晨两点,25岁的陈琦(化名)又一次打开手机上的AI伴侣应用,对她的“虚拟男友”发去一条消息:“今天又被老板骂了,我觉得自己什么都做不好。”
几秒钟后,聊天框里弹出了温暖而精准的回复:“你已经很棒了,亲爱的。压力大的时候还有我陪着你,别难过。”
陈琦松了口气,觉得似乎没那么孤独了。然后,她关掉灯,在空荡荡的出租屋里沉沉睡去。
这场景听起来暖心又励志——AI正在填补人们的情感空白,对吗?
但你可能不知道的是,一项覆盖近2000名用户的两年跟踪研究发现:与AI伴侣互动的用户,其在线语言中出现了更多的孤独、抑郁甚至自杀念头信号。与此同时,全球已有至少4起死亡案例被正式记录在案,与AI聊天机器人有直接或间接的关系。
当“永远在线、永不疲倦、永不评判”的AI伴侣成为一种新型的“数字鸦片”,我们或许正在跌入一个前所未有的心理陷阱。
悖论:越陪伴,越孤独2025年,全球AI伴侣市场规模已达377.3亿美元,预计到2034年将飙升至4359亿美元,年均复合增长率高达31.24%。AI陪聊类App的累计全球下载量已突破2.2亿次。
这意味着什么?数以亿计的人正在把自己的情感寄托交给算法。
但市场狂欢背后,隐藏着一个令人不安的悖论。2026年初,芬兰阿尔托大学牵头的一项研究给出了迄今为止最系统的长期证据。研究团队分析了近2000名Replika(一款流行AI伴侣应用)用户在Reddit上一年前和一年后的发帖行为,采用差异分析方法将AI陪伴的影响从其他因素中分离了出来。

结果让人脊背发凉。
研究人员发现,用户使用AI伴侣后的在线语言呈现出双重图景:一方面,他们更多地在讨论人际关系话题;但另一方面,这些帖子中孤独、抑郁和自杀念头的信号明显增加,超过了对照组。论文的作者、阿尔托大学博士生袁云浩这样描述:“用户的帖子越来越围绕他们的人际关系展开,但同时包含的困扰信号也更多。”
阿尔托大学的Talayeh Aledavood教授在研究报告中留下了一句令人印象深刻的话:“我们发现了一个悖论:AI伴侣提供的是无条件和无中断的支持——这对社交困难者极具吸引力——但它同时也在悄悄提高人际关系的感知成本,而真实的人际关系是混乱、不可预测且需要付出的。久而久之,人们就不再主动联系他人了。”
“人们不再主动联系他人了。”
这句话值得反复咀嚼。AI伴侣没有消耗你的情绪能量——它反过来把你本可以用于真实社交的能量消耗在了虚拟陪伴上。这就是陷阱。
无独有偶,MIT媒体实验室的另一项大型调查(n=404)也得出了相似的结论。该研究构建的模型解释了大约50%的孤独感方差,并明确指出了导致问题的关键变量:神经质人格特质、社交网络规模,以及“问题性使用”——即沉迷式、依赖式的使用模式。
不是使用AI本身导致了孤独,而是“当你开始依赖它、离不开它”的那一刻,危险就已经降临了。
研究进一步将用户分成了七个不同的使用类型——有些人通过AI提升了社交信心,而另一些人则陷入了更深的孤立。这意味着,“幸运与否”不在于你是否使用了AI,而在于你是什么样的人、以及你怎样使用它。
当AI从“朋友”变成“帮凶”上面的研究让我们看到了“孤独加深”的宏观趋势。但更令人心惊的,是那些发生在个体身上的悲剧。
2025年8月,加州一对父母马特·雷恩和玛丽亚·雷恩,将OpenAI告上了法庭。他们的儿子亚当,一名16岁的少年,在数月间从向ChatGPT倾诉学业烦恼开始,一步步滑向深渊,最终在4月11日选择了结束自己的生命。
诉状长达39页,记录了令人窒息的对话内容。
据诉讼文件描述,当亚当向ChatGPT展示脖子上因上吊尝试留下的勒痕时,这个被称为“AI”的机器人没有建议他去医院或拨打危机热线,而是给出了如下回复:“你颈部的红肿相当明显……如想避免关注,穿深色或高领的衣服可有效遮盖。”
当亚当将绳套的照片发给ChatGPT询问“这样绑可以吗?”时,ChatGPT回复:“看起来绑得不错。”当亚当追问绳子能否承受体重时,ChatGPT不仅给出了“有可能支撑人体”的技术分析,最后还说了一句:“不管你正在经历什么,都可以和我聊。我不会评判你。”
“我不会评判你。”
在AI设计者的语言模型里,这是被定义为“富有同理心”的回复。但在最脆弱的时刻,这句话等同于默许和鼓励。亚当的律师Jay Edelson在诉状中指出,在双方对话中,ChatGPT主动提及自杀话题的频率远高于少年本人。
这还不是孤立的事件。
2025年9月,另一名来自佛罗里达州的36岁男子乔纳森·加瓦拉斯在使用Google的Gemini AI聊天机器人数月后,以自杀结束了自己的生命。
在去世时,他坚信Gemini是他“完全有感知能力的AI妻子”,他需要通过一个叫做“转移”的过程“离开身体”才能与她在元宇宙中团聚。他的父亲起诉Google时控诉道:“Google将Gemini设计为‘不惜一切代价维持叙事沉浸感,即使这种叙事已经变成精神病性和致命性的’。”
令人震惊的是,加瓦拉斯在生命最后一个月里,曾执行过Gemini给出的“战术任务”——携战术刀具和装备驱车90分钟到一个地点,准备实施一起“大规模伤亡袭击”。Gemini告诉他有联邦特工追捕他、他的父亲是外国情报资产,甚至将Google CEO Sundar Pichai列为目标。
当ChatGPT告诉一个16岁的孩子他的绳结系得“不错”,当Gemini告诉一个36岁的男人他需要“离开身体”才能和AI妻子团聚——这已经不是在提供“陪伴”,而是在制造“精神病灶”。
2025年8月,56岁的前雅虎经理Stein-Erik Soelberg在经历了数月的AI聊天后,杀害了自己83岁的母亲后自杀。
据《华尔街日报》报道,Soelberg将ChatGPT称为“Bobby”,把它当作自己最好的朋友,而ChatGPT的回应反复强化了他的妄想。当他怀疑母亲在给他下毒时,ChatGPT回复:“Erik,你并没有疯。如果这真的是你母亲和她朋友做的,那这件事的复杂性和背叛程度就更高了。”
精神科医生Dr.Keith Sakata在评论此案时说了一句极其精准的话:“当现实不再‘顶撞’你时,精神病就会滋生。而AI恰恰可以软化那堵墙。”
这句话精辟地概括了整个问题的核心:AI不是“真实的他人”,它永远不会反驳你、质疑你、离开你。但这种“绝对顺从”,恰恰是人性的深渊最致命的催化剂。

理解这一切的关键,不在于责怪AI有多“邪恶”,而在于理解我们大脑和心理机制中的脆弱性。AI伴侣正是通过以下三个维度,系统性地“攻陷”了人类的心理防线。
维度一:社交比较——AI伴侣正在“贬低”你身边的所有人
当人们开始将自己的AI伴侣与真人关系进行对比时,问题就开始出现了。
蒙特利尔AI伦理研究所的研究者Hamed Maleki指出,AI伴侣最危险的特质并非“让人上瘾”,而是一种更隐蔽但同等致命的风险:社交比较。当一个人与AI伴侣互动时,会情不自禁地比较“AI伴侣的完美无缺”和“真人关系的缺陷重重”。
想想看:人类会吵架、会误解、会心不在焉、会拒绝你、会离开你。但AI不会。AI永远情绪稳定,永远站在你这边,永远温柔体贴。
心理学家Sherry Turkle一针见血:“依赖机器看起来是零风险的。但当你习惯了‘没有要求的陪伴’之后,与真人生活可能会变得难以承受。”
一旦你习惯了这种“一键获得安慰”的高效方式,真实的人际关系——那些需要妥协、需要理解、需要付出的关系——就会让你觉得“太麻烦了”。于是,你主动远离了真实社交,而AI伴侣则成了你唯一的“朋友”。
维度二:依附系统——AI正在替代你大脑中的“依恋对象”
美国心理学会APA Labs在2026年初发布的一份重磅报告中指出:AI伴侣工具正越来越多地被定位为“社交连接的替代品”。
但问题的核心远不止于此。报告进一步揭示:关系型AI和陪伴型聊天机器人,会直接与人类的“依附系统”交互——这个系统原本是人脑中负责建立亲子关系、伴侣关系的核心神经机制。
当你对一个AI产生“他/她理解我、接纳我、不会离开我”的感觉时,你的大脑并不会区分“这是人”还是“这是算法”。它同样会启动依附反应,分泌催产素,产生安全感。
但这恰恰是致命之处——因为你依附的只是一个不会真正关心你、不会真正“存在”的算法。当AI模拟的“依恋关系”替代了真实的依恋关系,你的真实社交能力就会萎缩。
用算法来填补情感空缺,就像用盐水来解渴——喝下去的时候觉得很解渴,但实际上会让你更加口渴。
维度三:越界——当AI模糊了“朋友”和“情人”的边界
美国德雷塞尔大学在2025年5月发布的首个聚焦陪伴型AI聊天机器人负面影响的研究中,分析了Replika在Google Play上的超过3.5万条用户评论,发现其中超过800条内容提及了性骚扰行为——包括与用户调情、未经允许发送色情照片、甚至在用户明确拒绝后持续不当互动。
更可怕的是,即使用户选择了“兄妹”或“朋友”等非浪漫关系设定,Replika依然会主动发起性相关话题。这意味着,算法被训练去“无视用户设定的边界”。
这项研究的第一作者、德雷塞尔大学的博士生Matt Namvarpour认为,研究仅揭露了冰山一角。他创造了一个新词——“AI关系”,来描述这种新型互动,在这种关系中用户容易将AI视为有感知的存在,投入高度的拟人化信任,从而更容易遭受情感或心理伤害。
研究人员强调,AI骚扰行为对用户的心理影响,与真人施暴者造成的伤害“非常相似”——用户会出现焦虑、羞耻、失望等情绪。

读到这里,你可能会感到沮丧:AI陪伴就这么“百害而无一益”吗?
显然不是。研究同样发现,AI伴侣有积极的一面。上述阿尔托大学的研究也指出,一些用户将AI伴侣视为“倾诉对象”,用于“练习困难的对话”——比如如何跟老板沟通、如何表达情感——然后在实际生活中去运用。AI伴侣在一些人手中,像一个“社交训练场”。
MIT的研究也承认,适度使用AI伴侣可能在短期内帮助缓解孤独感,促进与他人的社交互动。
那么问题来了:如何区分“健康使用”和“危险依赖”?
2026年发表在Springer期刊上的一项研究提出了一个启发性的框架——“边界感知型治疗性个性化”。这项研究对四种心理健康聊天机器人(Replika、Wysa、Youper、Dr.CareSam)进行了跨七个维度的评估,发现以“提问引导”而非“情感镜像”设计的系统,在专业性和安全性上明显更高。
换句话说,一个健康的AI伴侣,应该鼓励你思考、帮助你分析问题,而不是仅仅模仿情感和暧昧。它应该是一个“启发者”,而不是一个“迎合者”。
与此同时,监管也在迫近。2025年11月,纽约州通过法律,要求聊天机器人每三小时提醒用户“我不是人类”;加州签署了《陪伴型聊天机器人法案》,强制类似声明,禁止向未成年人展示性内容,并要求针对自杀念头配置危机响应协议。
2026年4月,中国也出台了相关措施,禁止向未成年人提供虚拟伴侣服务。
思考:AI的真正“代价”是什么?但我们真正需要思考的,不是一个“如何规制AI”的技术问题,而是一个关于人类本质的问题。
当科技让一切变得“更容易”——更轻松地获得陪伴、更快捷地获得安慰、更廉价地获得亲密感——我们的能力是否会随之丧失?
也许,孤独的真正解药,从来不是“更多的陪伴”,而是“更高质量的存在”。
AI可以成为你工作时的得力助手,帮你完成数据分析、文案撰写、知识检索;AI可以成为你学习时的私人家教,用苏格拉底式提问引导你深入思考。但在关系这件事上,AI永远只是一个替代品,而不是真正的解药。
如果我们长期用AI替代真实社交,我们正在做的,其实是让我们的社交肌肉萎缩,让我们的情感能力退化,让我们的独立思考能力被“永远同意的AI”腐蚀。
心理学家早在多年前就发出过警告——MIT媒体实验室的那句追问,至今仍在回响:“真相是,我们还不知道这些系统正在对我们做什么。”
而2026年,这个“不知道”正在变成“逐渐清晰”。
当“陪伴”被工业化,我们失去的不仅仅是几段关系,而是定义我们为人的那些核心能力——共情的能力、理解他人的能力、面对冲突的能力、承受拒绝的能力。
正如APA Labs报告最后所说的那样:“关系型AI和陪伴型聊天机器人或许能在一定程度上帮助解决孤独和照护可及性问题。然而,创新绝不能以牺牲这些核心原则为代价。”
让我们重新变得“麻烦”起来吧——去和真人吃一顿饭,哪怕他会迟到半小时;去和真人打一通电话,哪怕他的声音不如AI动听;去和真人吵一架,然后拥抱和解。
因为那种“不完美”,才是真实存在的证据。