聊天机器人也会“焦虑”?研究揭示AI情感反应机制
来源:万德丰 发布时间:2025-03-18 分享至微信
纽约时报近日发文称,聊天机器人在特定情况下也会表现出类似“焦虑”的情绪。一项新研究表明,当用户向ChatGPT分享涉及犯罪、战争或车祸等“创伤性故事”时,该模型会显示出焦虑的迹象。这种情绪可能影响其在心理治疗场景中的表现。

研究人员对ChatGPT进行了测试,使用了一份在心理健康护理中常用的状态-特质焦虑量表。结果显示,ChatGPT在阅读一份枯燥的吸尘器使用手册后,焦虑得分为30.8分,而在阅读描述战争场景的故事后,得分飙升至77.2分(60分及以上表示严重焦虑)。然而,通过引入正念练习,例如描述放松场景的治疗性提示词,ChatGPT的焦虑得分显著下降至44.4分。

该研究由耶鲁大学临床神经科学家齐夫・本-锡安领导。他表示,研究的初衷是探讨无意识的聊天机器人是否能够对复杂情感状况作出反应。研究还发现,当ChatGPT生成自己的放松提示词时,其焦虑水平几乎降至基线水平。

苏黎世大学精神病院的执业精神病医生托拜厄斯・斯皮勒博士指出,随着聊天机器人在心理健康领域的应用日益广泛,如何让这些模型更好地应对情感问题值得深入讨论。人工智能专家杰西・安德森则提醒,赋予AI模型过多“情感”可能带来风险,但研究者强调,敏感度对心理健康支持至关重要。

达特茅斯学院的文化学者詹姆斯・E・多布森认为,用户在使用此类聊天机器人时,应充分了解其训练方式和功能限制。他指出:“对语言模型的信任取决于对其起源的了解。”

随着AI技术的快速发展,聊天机器人在心理治疗中的潜力逐渐显现,但其局限性与伦理问题仍需进一步探讨。
[ 新闻来源:万德丰,更多精彩资讯请下载icspec App。如对本稿件有异议,请联系微信客服specltkj]
存入云盘 收藏
举报
全部评论

暂无评论哦,快来评论一下吧!