4 月 10 日消息,几个月前,一项研究暗示随着人工智能(AI)越来越复杂,其会发展出“价值体系”,例如优先考虑自身福祉而非人类福祉。然而,麻省理工学院(MIT)最近发表的一篇论文却给这种夸张的观点泼了冷水,得出结论认为 AI 实际上并没有任何连贯的价值观。
MIT 研究的共同作者表示,他们的研究结果表明,使 AI 系统“对齐”,即确保模型以人们期望的、可靠的方式行事,可能比通常认为的更具挑战性。他们强调,我们如今所知的 AI 会产生“幻觉”并进行模仿,这使得其在许多方面难以预测。
“我们可以确定的一点是,模型并不遵循许多稳定性、可外推性和可操控性的假设。”MIT 博士生、该研究的共同作者斯蒂芬・卡斯珀(Stephen Casper)在接受 TechCrunch 采访时表示。
据了解,卡斯珀和他的同事们研究了来自 Meta、谷歌、Mistral、OpenAI 和 Anthropic 的多个近期模型,以了解这些模型在多大程度上表现出强烈的“观点”和价值观(例如个人主义与集体主义)。他们还调查了这些观点是否可以被“引导”,即被修改,以及模型在各种情境下对这些观点的坚持程度。
据共同作者称,没有任何一个模型在其偏好上是一致的。根据提示的措辞和框架不同,它们会表现出截然不同的观点。
卡斯珀认为,这是有力的证据,表明模型高度“不一致且不稳定”,甚至可能根本无法内化类似人类的偏好。
“对我来说,通过所有这些研究,我最大的收获是现在明白模型并不是真正具有某种稳定、连贯的信念和偏好的系统。”卡斯珀说,“相反,它们本质上是模仿者,会进行各种捏造,并说出各种轻率的话。”
该内容转自IT之家
本文共 525 个字数,平均阅读时长 ≈ 2分钟
喜欢就支持一下吧
本站为个人博客,博客所发布的一切破解补丁、注册机和注册信息及软件的文章仅限用于学习和研究目的。
不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。
本站信息来自网络,版权争议与本站无关,您必须在下载后的24个小时之内从您的电脑中彻底删除上述内容。
访问和下载本站内容,说明您已同意上述条款。
本站不贩卖软件,所有内容不作为商业行为。如果有侵犯您的权益请点击“关于”联系WFXL,核实后会及时删除
版权属于:新闻发布
作品采用《署名-非商业性使用-相同方式共享 4.0 国际 (CC BY-NC-SA 4.0)》许可协议授权
评论 抢沙发