TG:AI冒充人类让聊天更走心
6月30日发表于《自然-人类行为》的一项研究指出,人类倾向于拒绝来自人工智能(AI)对话机器人的情绪支持,除非这种同理心被误认为来自人类。
生成式AI对话机器人,尤其是使用大语言模型(LLM)的对话机器人,自面向公众以来,受欢迎程度日益上升。它们可以与用户进行社交互动并给予情绪支持。
此前研究显示,LLM驱动的工具能确定使用者的情绪状态,而且它们的回应也被看作具有同理心和共情能力。不过,之前并不清楚来自对话机器人的支持是否和来自人类的支持具有相同的效果。
在这项研究中,以色列希伯来大学的Anat Perry和同事发现,相比被认为来自人类的支持,AI生成的支持会被视为缺乏同理心,除非那些AI生成的回复被标记为来自人类。
研究人员开展了9项研究,给6282名受试者看了AI生成的回复,并告知他们有些回复是人类写的,有的是AI对话机器人写的。Perry和共同作者观察到,虽然受试者评价他们收到的回复富有同理心,但对他们以为交流对象是人类的回复评价更高。
相比来自AI的即时回应,受试者更愿意等待他们以为来自人类的回复。作者还发现,相比标记为AI生成的回复,受试者以为的来自人类的回复能唤起更多的正面感受,如慰藉、认可、幸福、被理解,以及更少的负面感受,如感到焦虑、生气、痛苦或烦恼。当受试者认为人类在构思回复时使用了AI协助,那他们对同理心、积极共鸣、正面情绪和支持的评分都更低。
这项研究结果表明,AI对话机器人提供的支持可能存在局限性。尤其是在期待同理心或情绪支持时,人们可能更看重来自人类的回复。不过,由于研究中的交流很简短,今后需要进一步研究AI工具在长期情绪支持交流中的使用和接受度。
猜你喜欢
- 06-21TG看丹观察丨这一届的毕业
- 06-09TG爱豆聊天器app
- 05-30TG汤姆猫:公司于2024年12月
- 05-20TGTelegram“服软”:将向政府
- 06-20TG谈恋爱的技巧和方法?如
- 03-14TGTelegram于2024年向美国当局
- 07-01TG男子掐死21岁女友藏尸酒店
- 06-01TG趣味性强的聊天游戏有哪
- 05-31TG实时语音仙侠手游推荐 可