麻省理工研究表明:AI缺乏稳定价值观
来源:林慧宇 发布时间:2025-04-10 分享至微信
几个月前有研究指出,人工智能(AI)可能发展出“价值体系”,甚至优先考虑自身利益。然而,麻省理工学院(MIT)近日发表的一篇论文对此提出了质疑,认为AI实际上并不具备连贯的价值观。

MIT的研究团队指出,确保AI系统按照人类期望的方式运行,即所谓的“对齐”,可能比预期更具挑战性。研究显示,当前的AI模型容易产生“幻觉”并进行模仿,导致其行为难以预测。

MIT博士生、论文的共同作者斯蒂芬・卡斯珀(Stephen Casper)在接受TechCrunch采访时表示:“模型并不遵循许多关于稳定性、可外推性和可操控性的假设。”

研究团队对Meta、谷歌、Mistral、OpenAI和Anthropic等公司的多个近期模型进行了分析,以评估这些模型是否表现出一致的“观点”或价值观。结果发现,这些模型在不同情境下的表现并不一致,甚至可能因提示措辞的不同而产生截然相反的反应。

卡斯珀总结道,这些模型本质上是模仿者,缺乏稳定和连贯的信念与偏好,更多时候只是在“捏造”内容并输出随意的结果。这表明,AI系统可能无法真正内化类似人类的价值观和偏好。
[ 新闻来源:林慧宇,更多精彩资讯请下载icspec App。如对本稿件有异议,请联系微信客服specltkj]
存入云盘 收藏
举报
全部评论

暂无评论哦,快来评论一下吧!