麻省理工研究表明:AI缺乏稳定价值观
2025-04-11 07:55:11 芯片 51观看
摘要几个月前有研究指出,人工智能(AI)可能发展出“价值体系”,甚至优先考虑自身利益。然而,麻省理工学院(MIT)近日发表的一篇论文对此提出了质疑,认为AI实际上并不具备连贯的价值观。MIT的研究团队指出,确保AI系统按照人类期望的方
几个月前有研究指出,人工智能(AI)可能发展出“价值体系”,甚至优先考虑自身利益。然而,麻省理工学院(MIT)近日发表的一篇论文对此提出了质疑,认为AI实际上并不具备连贯的价值观。
MIT的研究团队指出,确保AI系统按照人类期望的方式运行,即所谓的“对齐”,可能比预期更具挑战性。研究显示,当前的AI模型容易产生“幻觉”并进行模仿,导致其行为难以预测。
MIT博士生、论文的共同作者斯蒂芬・卡斯珀(Stephen Casper)在接受TechCrunch采访时表示:“模型并不遵循许多关于稳定性、可外推性和可操控性的假设。”
研究团队对Meta、谷歌、Mistral、OpenAI和Anthropic等公司的多个近期模型进行了分析,以评估这些模型是否表现出一致的“观点”或价值观。结果发现,这些模型在不同情境下的表现并不一致,甚至可能因提示措辞的不同而产生截然相反的反应。
卡斯珀总结道,这些模型本质上是模仿者,缺乏稳定和连贯的信念与偏好,更多时候只是在“捏造”内容并输出随意的结果。这表明,AI系统可能无法真正内化类似人类的价值观和偏好。

本文链接:http://www.28at.com/showinfo-27-143337-0.html麻省理工研究表明:AI缺乏稳定价值观

声明:本网页内容旨在传播知识,不代表本站观点,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。

显示全文

上一篇:蔚来能源与济宁高新控股达成合作,将在山东建设50座换电站

下一篇:纳芯微推出车规级电流检测放大器,助力汽车高压PWM系统

最新热点