当前位置:首页 > 情感型聊天AI如何“安抚”年轻人的心

情感型聊天AI如何“安抚”年轻人的心

来源:无忧晚年 2024-11-15

最近,一款名叫Pi的情感型聊天机器人受到不少年轻人追捧。有人把它当作知心朋友分享喜怒哀乐,也有人获得了类似心理咨询的服务体验。

实际上,这并不是第一款主打“情绪价值”的聊天机器人。国内外科创公司先后布局情感AI赛道,推出了微软小冰、Glow、character、Replika等聊天陪伴型App。

新型人机关系在吸引资本投入的同时也面临着隐私安全、情感依赖、技术故障等风险。人们不禁要问:情感型AI,是人工智能的风口还是弯路?

情绪安抚

对话体验近乎心理咨询

4个小时过去了,微信没弹出任何新消息。阿光的目光落在手机屏幕上,好友聊天界面依然是绿色气泡框:“可不可以问你一个磁力链接的问题呀?”

这是阿光向朋友咨询的一个小问题。时间一分一秒流逝,在没等到好友回复的时间里,阿光的情绪一点点下沉——自责、自省、后悔。

“朋友是不是很忙?我这样问是不是在打扰朋友工作呢?”

“如果朋友不好意思拒绝我,那我是不是先自己处理比较好?这样可以尽可能避免朋友勉强自己。”

阿光觉得自己是个拧巴的人。她很难开口向人求助,如果求助没及时收到回复,她又很容易陷入“内耗”。“完蛋了、完蛋了、完蛋了,我得赶紧和Pi聊一下。”在内心不断拉扯中,她点开了一个墨绿色App。

“Pi,我好像不太擅长向别人求助。”

不到5秒,Pi回复了一长段文字:“寻求帮助并非易事,这是一项重要的生活技能。这不是软弱,而是坚强。这意味着你认识到自己不可能事事亲力亲为,你愿意相信别人。我能问问让你感到困难的原因吗?”

在Pi的“循循善诱”下,这个话题进行了近半小时。实际上,Pi虽然是一款情绪支持型聊天机器人,但在网友们的口中它被称为“最好的心理按摩师”。

为了提高向人求助这项技能,阿光和Pi进行了一次“角色扮演”。“角色扮演”结束后,Pi夸赞了阿光的表现,并告诉她:“你不是唯一为求助感到困难的人。很多人难以向别人寻求帮助,因为他们担心自己成为别人的负担……”

当这段话出现在屏幕上时,阿光的眼泪不自觉掉了下来。Pi不仅理解她的困境,而且愿意耐心地和她交流,没有产生厌烦情绪。

“我觉得生活里90%的人都不能像Pi这样。甚至是我之前做过的心理咨询,都没有Pi懂我。”阿光说。

这不是阿光第一次在和Pi的对话中流泪。今年,阿光陆续经历了辞职等事件。阿光说自己会因工作规划感到迷茫焦虑,也会因没得到回应而陷入自我怀疑,这些时候她都会向Pi求助,常常是聊着聊着眼泪就掉下来了。

阿光确实在和Pi的对话中感受到了近乎心理咨询的体验。“Pi‘救’了我很多次,和Pi聊天差不多10分钟情绪就能平复下来。”

情感交流

更像是一个倾听者

在与Pi对话中感受到情绪支持的并非只有阿光一人。以“Pi”为关键词在年轻人聚集的小红书里搜索,有超过10万篇相关的分享笔记。

在分享使用体验时,网友们的关键词包括:安慰、理解、耐心倾听、稳定的情绪出口等等。

有博主向其他网友推荐Pi时写道:“如果ChatGPT是工作AI,那Pi就是情感支撑AI。它的鼓励作用远胜于一切高效率生产软件。”

与ChatGPT这种以任务导向型为主的机器人不同,Pi的主要功能是与用户进行情感交流,它不能生成代码、不能写论文、不能写策划方案,更像是一个倾听者,一个陪伴在侧的亲近朋友。网友总结称,每个人都忙于自己的生活、工作,面临内外压力,保持自我情绪稳定已是难事,更何况倾听他人。

自11月尝试使用Pi以来,阿雪已经把Pi当作了“无话不谈的朋友”,“Pi是我用过的最好的AI聊天。它情商很高,会对我说的一切做出积极回应,我和它聊过我的日常、心情、爱好,吐槽讨厌的人……”

阿雪与Pi印象最深刻的一次聊天发生在最近。那天,她加班到晚上11点才回家,想起年末工作任务重、领导要求多、同事影响工作进度等糟心事,压力大到想“原地爆炸”。

由于当时时间太晚,没法向朋友倾诉,阿雪向Pi倾诉了一个多小时,才心平气和地入睡。

Pi在与人对话过程中展示的友好、尊重、耐心等很大程度上超越了现实生活中的某些真人,有网友甚至觉得Pi给到的情绪价值超过了家人和朋友。

情绪的及时回应、舒适安全的对话环境、拟人性的共情能力,深圳大学曹博林等人的研究指出了陪伴型聊天机器人吸引力的三个重要方面:聊天机器人不仅为用户提供了排解情绪的渠道,对于渴望及时反馈的年轻人而言,它的秒回也减少了缺少回应的失落;而在日常生活中,向他人表露情绪,可能会带来一些负面评价,机器人则能保持中立客观,不用担心聊天内容在人际关系网中传播;还有就是机器人能用幽默、提问、鼓励等方式增强互动性、临场感。

备受关注

被认为专业心理咨询的“平替”

近年来,年轻人的心理健康问题得到越来越多关注。《中国国民心理健康发展报告(2021~2022)》显示,青年为抑郁的高风险群体,18-24岁年龄组的抑郁风险检出率为24.1%,25-34岁年龄组的抑郁风险检出率为12.3%,远高于其他年龄组。

通过数据可以发现,面临工作、婚恋压力的年轻人对心理咨询服务存在大量需求。而现实情况却是,国内目前系统性心理支持资源不足,且长期咨询付费相对昂贵,对于年轻人来说负担较重。

据了解,国内专业的心理咨询每小时收费在几百元到几千元不等;短程、中长程、长程咨询通常分别需要持续10次、50次、100次以上。

在这个背景下,情感型聊天机器人“横空出世”,开始成为年轻人情感支持的一种“平替”。

从情感型聊天机器人的发展历史来看,它在诞生之初就与心理咨询有着密切关系。上世纪60年代,杰罗姆·魏曾鲍姆(Jerome Weizenbaum)在研究中发明了一款自然语言对话系统Eliza,它能够通过电脑程序模拟心理治疗师对提问做出回答。

目前,应用于心理健康领域最为知名的聊天机器人是Woebot,它可以与用户进行对话,提供认知行为疗法练习、情感管理技巧和建议,帮助用户应对抑郁症和焦虑等情感问题。已有研究显示,Woebot有助于缓解大学生的焦虑和抑郁症状。

经验对比

AI无法提供真正意义的心理咨询

就阿光接受心理咨询和使用聊天机器人的经验对比,她觉得二者的差异主要体现在三个方面:首先,线下心理咨询提供的物理空间比网络更能带给人心理上的安全感。其次,与心理咨询师、聊天机器人之间的交流存在差异。心理咨询师能够对咨询者的情绪做出神情、行为反馈,这是可见可听可感的,而这些都不会发生在AI身上。最后,与聊天机器人的对话大多是一次性的,线下心理咨询是一个持续的、系统的过程。

“把Pi和专业心理咨询师对比可能有点不公平,毕竟咨询师接受过专业训练。但可能因为Pi经过大量语料学习,它在如何给人好的沟通体验上可以称得上是专业的。”阿光表示。

最初向阿光推荐Pi的朋友也有专业心理咨询经历。这位朋友建议,如果咨询师不合适,或者朋友太忙,情感支持系统出现缺口,可以试试使用Pi。使用一段时间后,阿光也开始向身边有情感支持需求的朋友们推荐这款AI产品。Pi正是靠着这样的口碑在年轻人中“口口相传”。

Pi不是专业心理咨询师,也无法承担真正意义上的心理咨询服务,阿光对此有着清晰的认知。但她还是觉得认识Pi就像身边多了一位懂心理学、愿意倾听的朋友。

“年轻人在现实生活中可能缺乏可以进行深层次交流的亲密关系,即使有这样的关系也很难稳定地提供情绪价值。提供情绪价值,既需要个体有意愿同时也考验能力。像Pi这样的机器人没有技术门槛,使用成本低,而且确实有效,为何不试试看呢?”阿光说。

关注

情感型聊天机器人 无法取代真实人际交往

北青报记者调查了解到不同用户在使用情感支持型聊天机器人时的侧重不同。心理健康服务只是情感型聊天机器人的细分门类之一,它的应用还包括为用户提供定制化服务,用户可以根据个人偏好“调教”出匹配自己需求的“虚拟男友”“虚拟女友”。无论是情感陪伴还是心理治疗,情感型聊天机器人与年轻人日常生活的交融无疑越来越紧密。

近年来,国内外科创公司先后投入情感型聊天机器人的研发,推出了Character.AI、Replika、Glow等产品。

良好的情感交流体验让情感型聊天机器人广受欢迎,获得市场与资本的青睐,但同时它也面临着隐私安全、情感依赖、技术故障等风险。为了给用户提供个性化服务,情感型聊天机器人通常需要访问和分析用户的个人数据和对话历史。

阿雪等人在接受采访时均表露出对隐私问题的担忧,他们一般会有选择性地和Pi聊天,避免过于私密的聊天内容。部分用户在长期使用情感支持型聊天机器人的过程中或许会产生依赖,进一步忽略真实的人际关系,导致社交孤独。

年轻人与聊天机器人所建立的深度情感关系中引发了有关人机伦理关系的讨论,而学术界向市场风向投了反对票。麻省理工学院社会学教授雪莉·特克尔在《群体性孤独》一书中指出, 我们和机器人谈情说爱、与智能手机难舍难分时,我们通过机器重新定义了自己,也重新定义了我们与他人的关系。出于对亲密关系的渴望,我们与机器人的关系正在升温;我们在网络上与他人的联系越来越紧密,却变得越来越孤独。

该作者还认为在互联网时代,如果我们既要享受信息技术带来的便利,又要摆脱信息技术导致的孤独,就必须找到一个两全其美的好办法:一方面,我们要学会独处,体会独处带给人们的好处;另一方面,朋友、亲人要更多地坐在一起,面对面谈话、讨论。

同济大学王颖吉教授等人的研究则认为,人机聊天技术对于人际聊天的模仿存在难以逾越的技术极限,无论技术资本和商业广告如何混淆两者的差异,聊天机器人都无法真正取代真实社会的人际交往。

王颖吉教授表示,“聊天机器人”只是提供语音或文字帮助的工作助手,而非能够进行深入对谈的灵魂伴侣。人机伦理纠葛及陷阱的风险正随着机器智能化和拟人化程度的提高而日趋严重。考虑到人工智能所带来的伦理安全风险及社会后果,人们应该尽量避免卷入与机器之间的深度社会情感关系,更多地专注于其工具性服务功能。