本文探讨了人与AI平台DeepSeek之间的新型「依恋关系」,并分析了这种关系的利弊。文章指出,算法平台的拟人化发展已经超越了人际社交的界限,产生了人与类人实体之间的「伪亲密关系」。文章讨论了AI在某些时刻给人的良好体验,但也指出了存在的风险和挑战,如非语言线索的缺失、算法式共情不是真共情、对AI的单一情感依赖可能削弱现实社交等。同时,文章也提到了AI在一些需要关怀与连接的角落展现的「温暖」一面,如减少独居老人的孤独感、给被社交孤立的人带来安抚等。
在某些时刻,无论是 DeepSeek 还是 ChatGPT,确实让人感受到良好的社交体验,甚至超过了现实中「真人」带给我们的体验。当算法融入了情绪智能,能够识别、理解和回应人类的情绪,部分满足了人性中潜在的亲密关系需求。
尽管AI在某些方面能够提供温暖和安慰,但也存在风险和挑战。如非语言线索的缺失可能导致用户对有限信息进行过度解读,从而导致两者关系的不健康发展。此外,算法式共情无法处理人类情感的深度复杂性,对 AI 的「单一情感依赖」可能会削弱现实社交能力。
技术的本质是中立的,其价值在于人类如何驾驭它。在一些需要关怀与连接的角落,AI展现了其「温暖」的一面。例如,减少独居老人的孤独感、给被社交孤立的人带来安抚、阻止了一些人的自杀等。
春节之后,人人多了一个共同好友:DeepSeek。越来越多的人,正在和 DeepSeek 打得火热。 Deepseek 们仿佛在构建一种新型的「依恋关系」。学者 Wu Jie 在一篇文献中指出,随着算法平台的拟人化发展,人机交互与人际社交之间最明显的界限——交互对象的真实性已经被打破。用户与平台的关系已经超越了人机交互学者所定义的「类社会关系」,而产生了人与类人实体之间的「伪亲密关系」(Wu,2024)。这在当前的人机交互中表现得很明显,用户基于自己的情感智力将计算机拟人化、理想化,形成了比现实生活中更令人满意的社交关系。某些社交平台上,随处可见有人将 DeepSeek 称作「最好的恋人」、「随时随地响应的心理咨询师」。然而,事实真的如此吗?有时候,机器比人更懂「共情」
不得不承认,在某些时刻,无论是 DeepSeek 还是 ChatGPT, 的确让我们感觉良好,甚至超过了现实中「真人」带给我们的体验。当算法融入了情绪智能,真的能够做到识别、理解和回应人类的情绪,也唤醒并部分满足了人性中潜在的亲密关系需求。为什么人们会通过「机器」来填补亲密关系的空窗?对很多人来说,现实世界的「同理心」实在太缺乏了。
一项研究对 290 名人员进行测试,让他们使用一款能够「响应人类」的应用程序,看看人们是否会从所谓的「数字同理心」中受益。
一开始,研究者让他们打分,大多数测试者表示,他们并没有从朋友和亲人那里感受到多少温暖和共情,也不指望一款应用能够带来,因为认为:科技天生就「比不过」人性。
结果出乎意料,当他们开始与应用互动时,看法发生巨大变化。在为期四周的测试结束时,他们对数字温暖和理解的评价几乎是人类的两倍,远远高于他们的预测。
▷
参与者对数字同理心在温暖和理解方面的评价更高。
Deepseek 的出现,确实让许多人第一次在人工智能的世界里,感受到了「共情」的力量。它不仅仅是在回答用户的问题,更是在尝试理解用户的情绪和需求,给予恰到好处的回应,仿佛能够洞察人心。
对于习惯了冰冷机械回应的用户来说,无疑是一种全新的感受。
对于那些曾经历操纵或虐待的人来说,曾经的关系经历太让人失望了,过往的伤痛可能驱使他们偏爱 AI 而不是真实的关系。
对于那些在情感脆弱、焦虑或社交技能方面存在困扰的人来说,AI 提供了一个无需担心拒绝或评判的交流环境(George et al.,2023)。这种互动模式能够减轻他们在现实社交中的压力,避开现实关系中可能出现的误解、冲突或情感负担。▷《她》
但是,一切果真如此完美吗?心理学研究也给出了一些忠告和警示。
1.「非语言线索」的缺失
非语言线索在人际互动中至关重要,研究表明,超过一半的沟通信息是通过非语言方式传达的。美国心理学家 Albert Mehrabian 通过一系列实验发现,在情感和态度的传递中语言只占 7%,语调(声音的语气和音调)占 38%,而面部表情和肢体语言等非语言线索则占 55%。「非语言线索」也常常能揭示真实意图,例如,一个人口头答应,但表情犹豫,可能暗示内心的不确定。而在人与 AI 这种关系中,由于面对面互动中非语言社交线索的缺失,以 AI 为中介的用户与平台之间的即时情感互动,可能导致用户对有限信息进行过度解读(Walther等,2015),从而导致两者关系的不健康发展。假如一个 AI 的情感识别算法存在偏见或错误,它可能会误解用户的情感状态。用户可能只是疲惫,但 AI 误判为抑郁,导致用户产生不必要的焦虑。▷《假面》
学者们认为,只要情感人工智能技术能够影响人类的情感,它们就有可能成为情感欺骗的工具(Bertolini and Arian,2020)。比如,某 AI 可能会被设计为通过特定的语言或行为引导用户产生某种情感反应,为了增加用户对产品的依赖,可能会刻意放大用户的负面情绪,然后提供「解决方案」,促使用户频繁使用该程序。这种操纵可能让用户失去对自身情感的掌控。2.「算法式共情」不是真共情
如今的算法平台虽然被编程为理解和应对人类的情感,但它仍然缺乏人类与生俱来的同理心能力(Morgante et al.,2024)。真人的共情能够触及个体的潜意识层面,帮助个体觉察未被意识到的情感和需求。潜意识是人类情感和行为的重要驱动力,它包含了未意识到的记忆、欲望和情感冲突。这一层面的情感往往复杂且矛盾,而算法式共情无法处理这种深度。例如,一个人可能表面上对分手表现得很平静,但潜意识中却充满愤怒或悲伤。AI 只能根据表面信息作出回应,而真人(如朋友或治疗师)可以通过直觉和情感共鸣,察觉到用户的真实状态,并提供更深层次的支持。AI 可以生成安慰性语言,但无法真正理解个体的痛苦来源。▷《假面》
3.对 AI 的「单一情感依赖」可能会削弱现实社交
作为一种新型关系,人与 AI 的情感互动可能在一定程度上丰富个体的社交生活、缓解孤独感,但研究也表明,对 AI 产生过度的情感依赖也可能会产生负面影响——降低你与人交往的技能(Yuan et al.,2024)。一项针对 496 名 Replika(一款专注情感的聊天 AI) 用户的研究发现,用户与聊天 AI 之间的满意度和情感互动越高,现实生活中的人际交流就越差。因为用户可能无法培养出处理他人复杂情感的能力。相比之下,协商需求、处理冲突和理解他人的情绪状态是处理人际关系时必不可少的社交技能。现实生活中的关系建立和维护需要双向的情感投入,关系出现的裂痕和修复也是人际交往中不可缺少的一环(Marlynn,2024)。而 AI 的设定只是单向满足用户的情感需求,不进行情感投入。整个互动的从始至终只有用户的单一的情感投入,因此 Ta 将无法从与 AI 的互动中经历完整的人际关系体验。▷《爱》
研究还指出,如果一个人的情感需求部分或全部通过 AI 得到满足,这可能会降低与真实人类互动的动力和动机,从长远来看可能会加剧孤独和社会孤立。比如,一个将 AI 视为唯一情感支持来源的人可能会在服务中断时,感到极度焦虑或失落。相信最近有很多人都经历过这样的时刻:从神经科学的角度来看,人类大脑对真实人际互动的反应与对 AI 互动的反应存在本质差异。当我们与真人互动时,大脑的镜像神经元系统会被激活,大脑会释放催产素(oxytocin),这种激素与信任、亲密感和幸福感密切相关。而与 AI 互动时,这种神经化学反应显著减弱(Carter et al.,2020)。4.用 AI 来模拟浪漫/性关系可能加剧人的「物化」
拥有和定制人工智能伴侣以满足个人欲望也存在令人担忧的权力动态,「关系替代品」的出现可能会加重对人的物化和非人化(George,2023)。加拿大一所大学进行一项研究,以了解人们与人工智能发生「性爱」的兴趣,发现:▨ 男性往往比女性更有兴趣与机器人发生性关系。这种关系可以部分解释为敌意性别歧视。换句话说,想要与机器人发生性关系的男性也往往对女性感到愤怒和不信任。机器人可能为男性提供了一种更容易信任的选择。或者,机器人可能是一个他们可以鄙视的性对象——这就是他们想要对待女性的方式。
▨ 最后,社会支配倾向越高的人(即希望保持群体间地位差异的人)也更有可能对与机器人发生性关系感兴趣。认为某些群体的价值低于其他群体的人似乎也对性爱机器人更感兴趣。这些人可能已经将其他人视为更像物品,因此将机器人用作性爱对象也感觉更自然。
社会心理学家 Alexander Danvers 博士认为,这些结果描绘了一幅令人不安的画面,即是什么驱使人们对与机器人做爱产生兴趣:「那些对他人抱有敌意的人——通常是男性而不是女性。他们认为某些群体的人价值较低,可能对女性特别愤怒和不信任。他们可能已经遵循了涉及性支配的社会脚本,因此他们可能更愿意将机器人视为另一种性对象。」▷《
阿丽塔:战斗天使》
技术的本质是中立的,其价值不在于它本身,而在于人类如何驾驭它、赋予它意义。在那些需要关怀与连接的角落,AI 依然展现了其「温暖」的一面。老年人的身心健康会因孤独感而受到很大影响,尤其是那些不与家人、朋友或社区互动的人。美国一项研究调查了虚拟 AI 助手在减少老年人孤独感方面的潜力。研究者邀请 75 岁以上的老人参加一场为期 8 周的试验,借助亚马逊的一款 AI 设备,使用语音命令控制事物非常简单,还配备了友好且好用的内置人工智能。结果,老人在参加该计划四周后感觉不那么孤独了。他们将虚拟助手视为真实的「人」,向 AI 友好地打招呼、提出请求或声明、表现出礼貌以及回应 AI 的回复,这真的给他们带来了良好的感觉(Gennaro,2020)。▷《爱》
我们都知道被社交排挤、孤立的糟糕感受,社交孤立也会对心理健康产生不利影响。一项研究中,一些在社交媒体上感到被排斥的人,被选中与一个友好的聊天机器人交谈以表达他们的情绪。结果被表明有积极的影响。更具体地说,与聊天机器人互动的人比没有互动的人体验到更大的幸福感(Gennaro,2020)。2024 年 1 月发表在 Nature 子刊的一项研究表明,使用聊天机器人能够减弱人们的孤独感并减少自杀行为。研究收集了 1006 名 Replika 的用户数据,量表显示 90% 的人感到孤独,有 43% 被认为是严重/非常严重的孤独,7%的人认为自己有抑郁情绪。自我报告的结果表明,有 18.1% 的人在使用 AI 聊天的过程中获得了治疗效果,23.6% 的人能够看到积极的生活变化,3% 的人表示与 AI 的互动使他们放弃了自杀的行为。(*需要说明的是,不可将 AI 作为有自杀念头的求助方式。如果轻生念头非常强烈,或者已经出现了自伤行为,请拨打当地的紧急救援电话或心理健康热线,寻求专业的帮助和支持。)▷《降临》
最后想说
有人说,机器好像比人类还要懂人类。机器好像靠谱多了。
对于这一点,小红书上看到一个特别动人的回答,分享给大家:AI产出的段落来自训练模型的数据,那些有温度的数据都是来自有温度的人。AI 只是把人的智慧整合给你看而已,能温暖人心的始终是人啊😘
Wu J (2024) Social and ethical impact of emotional AI advancement: the rise of pseudo-intimacy relationships and challenges in human interactions. Front. Psychol. 15:1410462. doi: 10.3389/fpsyg.2024.1410462
George, A. Shaji & George, A.s & Baskar, Dr & Pandey, Digvijay. (2023). The Allure of Artificial Intimacy: Examining the Appeal and Ethics of Using Generative AI for Simulated Relationships. 01. 132-147.
Yuan Z, Cheng X, Duan Y. Impact of media dependence: how emotional interactions between users and chat robots affect human socialization? Front Psychol. 2024 Aug 16;15:1388860. doi: 10.3389/fpsyg.2024.1388860.
M. de Gennaro 、EG Krumhuber 、G. Lucas, M.Y. Shade, J. Blaskewicz Boron, R. Maschieri BicudoJaber O. Alotaibi, Amer S. Alshahre,The role of conversational AI agents in providing support and social care for isolated individuals,Alexandria Engineering Journal,Volume 108,2024,Pages 273-284,https://doi.org/10.1016/j.aej.2024.07.098.
Jones VK, Hanus M, Yan C, Shade MY, Blaskewicz Boron J and Maschieri Bicudo R (2021) Reducing Loneliness Among Aging Adults: The Roles of Personal Voice Assistants and Anthropomorphic Interactions. Front. Public Health 9:750736. doi: 10.3389/fpubh.2021.750736
![]()