分享到:
链接已复制

LANGUAGES

新闻

新闻直播 要闻 国际 军事 政协 政务 图片 视频

财经

财经 金融 证券 汽车 科技 消费 能源 地产 农业

观点

观点 理论 智库 中国3分钟 中国访谈 中国网评 外媒观察 中国关键词

文化

文化 文创 艺术 时尚 旅游 铁路 悦读 民藏 中医 中国瓷

国情

国情 助残 一带一路 海洋 草原 湾区 联盟 心理 老年

首页> 中国发展门户网> 发展要闻>

当AI说“我懂你”,人类为何难被打动?

2025-07-10 09:29

来源:科技日报

分享到:
链接已复制
字体:

原标题:当AI说“我懂你”,人类为何难被打动?

图片由AI生成  

你有没有试过深夜向聊天机器人倾诉烦恼,得到的却是一串精准但略显机械的安慰?现在,这些人工智能(AI)对话助手已经越来越能“读懂人心”,甚至比朋友更快给出建议,但我们却似乎难以真正被其打动。

不久前,《自然·人类行为》上发表了一项研究,为人们揭示了这个令人深思的现象:人们确实愿意接受来自人类的情绪支持,而不是来自AI的——哪怕这两者的回复内容几乎一样。

你是否也不相信AI能“懂”你?

50年前,美国芝加哥大学哲学家约翰·豪格兰德曾说:“AI的问题在于,计算机根本不在乎。”这个看法至今深入人心,尤其在涉及AI和人类情感交互的领域。

这次,包括以色列希伯来大学科学家在内的团队开展了一系列实验,涉及超过6000名参与者。他们给参与者展示了一些情绪支持的回复,这些回复都出自同一个AI生成式语言模型。只不过,科学家有时告诉参与者这是AI写的,有时则说是人类写的。

当人们以为是在和人类交流时,他们对回复的评价更高,觉得更有同理心、更能带来情感上的共鸣;而当他们知道是AI写的,即使内容一模一样,也会觉得这些建议缺乏温度,甚至让人有点失望。

换句话说,人们不是不认可AI说的话,而是不愿意相信它真的能“懂”我们。

为何我们更信任人类的情绪支持?

现在的大语言模型(LLM)已经完全可以分析用户的情感状态,并生成看似充满理解与关怀的回应。

比如你说:“今天工作好累啊”,AI答:“听起来你真的很辛苦,记得照顾好自己。”这样的句子看起来很温暖,也很人性化。

但在实验中,即使受试者承认AI的回复有逻辑、有情感色彩,他们仍然会觉得“它只是在模仿人类,并没有真正理解我的痛苦。”这种心理现象被称为“共情怀疑症”,因为人们很难把一台机器当作真正的倾听者。

有趣的是,即便AI的帮助是由人类在背后“润色”或“参考”,只要参与者知道有AI参与其中,他们就会降低对这段回复的情感认同度。仿佛AI一旦“碰过”这段话,它就失去了“人性”的温度。

科学家认为,这可能源于我们对“共情”的深层认知:共情不仅仅是说出正确的话,更重要的是要“感同身受”。因此,当我们知道对方是AI时,潜意识里会觉得“它并没有经历过喜怒哀乐,怎么可能真正理解我呢”?

这种心理随即反映在行为上。在实验中,当人们被告知可以选择,要么等待一条来自“人类”的回复,要么立刻收到一条来自“AI”的回复时,他们都宁愿多等几分钟,也要选择那个“人类”的版本。

AI情绪支持还有未来吗?

这项新研究并不是在评判AI好不好,而是在探索人类如何感知和接受不同来源的支持。它揭示了AI在情绪支持方面的局限性,但它并没有否定AI的价值。相反,它提醒未来设计AI辅助系统时,需要更加关注用户的感知与深度信任问题。

譬如在2024年,一家由前“深度思维”研究员担任首席执行官的公司“Hume AI”,发布了一款标榜为“第一个具有情商的对话式AI”的共情语音接口,其能够检测到用户53种不同的情绪。“Hume AI”演示之后反响十分热烈。但立刻有人担心,人类的情感并不只有正面情绪,当AI试着了解甚至学习人们的情感行为时,是否会主动或被动地利用其来达到某些目的?譬如诱导购物、养成恶习、心理折磨等等。

在最新研究中,人与AI的互动大多简短,只有一两轮对话。而在现实中,很多人已经在使用AI陪伴应用进行长期的情感交流,它们可以通过持续对话建立起某种“虚拟亲密感”,也许能在更长时间尺度上改变人们对AI共情能力和引导能力的看法。

未来,或许我们可以期待一种新的模式——AI不再是“替代人类”的情绪支持者,而是“增强人类共情力”的工具。譬如帮助心理咨询师快速识别情绪关键词,或是为孤独的人提供即时陪伴,直到他们能够接触到真实的人际关系。

在这个人机共存的时代,我们需要重新定义什么是“真实的共情”,以及深入思索:我们是否愿意给AI一个机会,去成为那个温柔地问一句“你还好吗?”的存在。

【责任编辑:孔令瑶】
返回顶部