“AI与人类关系探索”系列(1):当AI说“我懂你”,人类为何难被打动?
- 2025-07-10 02:58:02
- 907
科技日报记者张梦然
你有没有试过深夜向聊天机器人倾诉烦恼,得到的却是一串精准但略显机械的安慰?现在,这些人工智能(AI)对话助手已经越来越能“读懂人心”,甚至比朋友更快给出建议,但我们却似乎难以真正被其打动。
不久前,《自然·人类行为》上发表了一项研究,为人们揭示了这个令人深思的现象:人们确实愿意接受来自人类的情绪支持,而不是来自AI的——哪怕这两者的回复内容几乎一样。
你是否也不相信AI能“懂”你?
50年前,美国芝加哥大学哲学家约翰·豪格兰德曾说:“AI的问题在于,计算机根本不在乎。”这个看法至今深入人心,尤其在涉及AI和人类情感交互的领域。
这次,包括以色列希伯来大学科学家在内的团队开展了一系列实验,涉及超过6000名参与者。他们给参与者展示了一些情绪支持的回复,这些回复都出自同一个AI生成式语言模型。只不过,科学家有时告诉参与者这是AI写的,有时则说是人类写的。
当人们以为是在和人类交流时,他们对回复的评价更高,觉得更有同理心、更能带来情感上的共鸣;而当他们知道是AI写的,即使内容一模一样,也会觉得这些建议缺乏温度,甚至让人有点失望。
换句话说,人们不是不认可AI说的话,而是不愿意相信它真的能“懂”我们。
为何我们更信任人类的情绪支持?
现在的大语言模型(LLM)已经完全可以分析用户的情感状态,并生成看似充满理解与关怀的回应。
比如你说:“今天工作好累啊”,AI答:“听起来你真的很辛苦,记得照顾好自己。”这样的句子看起来很温暖,也很人性化。
但在实验中,即使受试者承认AI的回复有逻辑、有情感色彩,他们仍然会觉得“它只是在模仿人类,并没有真正理解我的痛苦。”这种心理现象被称为“共情怀疑症”,因为人们很难把一台机器当作真正的倾听者。
有趣的是,即便AI的帮助是由人类在背后“润色”或“参考”,只要参与者知道有AI参与其中,他们就会降低对这段回复的情感认同度。仿佛AI一旦“碰过”这段话,它就失去了“人性”的温度。
科学家认为,这可能源于我们对“共情”的深层认知:共情不仅仅是说出正确的话,更重要的是要“感同身受”。因此,当我们知道对方是AI时,潜意识里会觉得“它并没有经历过喜怒哀乐,怎么可能真正理解我呢”?
这种心理随即反映在行为上。在实验中,当人们被告知可以选择,要么等待一条来自“人类”的回复,要么立刻收到一条来自“AI”的回复时,他们都宁愿多等几分钟,也要选择那个“人类”的版本。
AI情绪支持还有未来吗?
这项新研究并不是在评判AI好不好,而是在探索人类如何感知和接受不同来源的支持。它揭示了AI在情绪支持方面的局限性,但它并没有否定AI的价值。相反,它提醒未来设计AI辅助系统时,需要更加关注用户的感知与深度信任问题。
譬如在2024年,一家由前“深度思维”研究员担任首席执行官的公司“HumeAI”,发布了一款标榜为“第一个具有情商的对话式AI”的共情语音接口,其能够检测到用户53种不同的情绪。“HumeAI”演示之后反响十分热烈。但立刻有人担心,人类的情感并不只有正面情绪,当AI试着了解甚至学习人们的情感行为时,是否会主动或被动地利用其来达到某些目的?譬如诱导购物、养成恶习、心理折磨等等。
在最新研究中,人与AI的互动大多简短,只有一两轮对话。而在现实中,很多人已经在使用AI陪伴应用进行长期的情感交流,它们可以通过持续对话建立起某种“虚拟亲密感”,也许能在更长时间尺度上改变人们对AI共情能力和引导能力的看法。
未来,或许我们可以期待一种新的模式——AI不再是“替代人类”的情绪支持者,而是“增强人类共情力”的工具。譬如帮助心理咨询师快速识别情绪关键词,或是为孤独的人提供即时陪伴,直到他们能够接触到真实的人际关系。
在这个人机共存的时代,我们需要重新定义什么是“真实的共情”,以及深入思索:我们是否愿意给AI一个机会,去成为那个温柔地问一句“你还好吗?”的存在。
- 上一篇:孟子义李昀锐二搭
- 下一篇:字节跳动公布核心人才观