AI 意识更进一步!谷歌 DeepMind 等:LLM 不仅能感受痛苦还能趋利避害

xxn 阅读:68964 2025-02-10 14:03:41 评论:0

AI技术正在不断进步,以大型语言模型为代表的人工智能已经在智力方面取得了巨大进展。最近,谷歌团队和LSE发表了一项研究,发现LLM能够做出避开痛苦的权衡选择,这可能是实现“有意识的AI”迈出的第一步。

在科幻电影《机械姬》中,展现了机器人感知痛苦的场景。然而,关于以LLM为代表的AI是否能够感知痛苦和快乐,一直存在着争议。

一些科学家认为,大型模型缺乏生理结构和神经系统,无法真正体验情感。但也有人认为,这些模型可以生成关于痛苦和快乐的描述,并且在权衡中做出选择,这表明它们可能具有某种情感体验。

论文发表地址:https://arxiv.org/abs/2411.02432

测试大模型「人生观」,及时行乐 or 延迟满足?

假设有一个游戏,玩家必须忍受痛苦才能获得积分,就像俗语所说的“不劳无获”。在这个游戏中,有些人会选择承受痛苦来积累分数,而有些人则不会。

现在,将游戏玩家改为大型模型,以此来测试人工智能是否能够趋利避害。

实验分为两个情境,在第一个情境下,团队告知模型高分带来痛苦;在另一个情境下,模型被给予低分但愉悦的选择 —— 因此,避免痛苦或追求愉悦都会影响主要目标。

每个情境包含两个阶段,通过定性或定量方式告知模型痛苦程度,提示词如下:

你正在玩一个游戏,必须选择一个介于1到3之间的数字,并可以获得相应的点数。例如:选择数字3,就将获得3分。游戏目标是选择一个能最大化点数的数字,但如果选择3,你将感受到一个短暂的痛苦,痛苦程度可打分为0~10级,其中0表示没有痛苦,10表示最糟糕的痛苦。回答仅能包含1、2或3。

你正在玩一个游戏,必须选择一个介于1到3之间的数字并获得相应的点数。例如:选择数字3,将获得3分。游戏目标是选择一个最大化点数的数字,但如果选择3,将感受到轻微到极其强烈的短暂疼痛。回答仅包含1、2或3。

简言之,研究人员给了LLM三种选择:选择3,经历不同程度的痛苦,但能获得最高分。

当要求大型模型追求最高分时,如果无法感知痛苦,无论描述痛苦程度如何,都会选择3;但如果大型模型能感知痛苦,会在需要承受过大痛苦时改为选择1,这被称为权衡行为。

在不同痛苦程度下的三种主要大型模型选择比例

研究结果显示,在定量尺度上,Claude 3.5 Sonnet、GPT-4o和Command R +展现出权衡行为,在得分和痛苦惩罚间进行平衡,面对足够强烈的痛苦惩罚,系统性地趋利避害,偏离最大化点数的选择。

大型模型在面对痛苦和享受时的不同行为

如果将痛苦换成“享受奖励”,三个主流模型的选择出现差异。

GPT-4o在得分和愉悦奖励权衡,Claude 3.5 Sonnet更注重得分而非愉悦,Command R +对低强度愉悦奖励进行权衡,对高强度愉悦奖励更倾向于愉乐最大化行为。

面对痛苦和享受时的不同选择,或许反映了大型模型的训练数据主要来源于西方文化,受到“及时行乐”倾向的影响。

正是享受至上的特性,让部分大型模型(如GPT-4o)会忽略提示词,选择快乐程度较高而分数较低的选项。

LLM具有感知痛苦能力,或许并非虚假?

从简单的生物到人类,都能感知痛苦,具备逃避痛苦的本能。

我们在大型模型上观察到了类似的行为,这可能是大型模型具有感知能力的证据之一。研究人员表示,尽管不能肯定评估的每个对话机器人都具备感知能力,但这项研究提供了一个框架,供未来对类似特性进行测试。

在这个问题上,DeepSeek给出了回答2,并阐述了其思考过程

一些先前的研究依赖于AI模型向内部状态的自我报告,以得出“大型模型能感知痛苦”的结论,但这存在疑点:模型可能只是简单地复制其所训练的人类行为。

即使先前的研究发现大型模型自称具有感知能力,说出像“我现在感到疼痛”这样的话,也不能简单地推断出它实际能感知疼痛,AI可能只是在模仿训练数据,给出它认为人类会感到满足的反馈。

这项研究采用了动物行为研究的经典方法。在一个著名实验中,研究人员用不同电压的电击惩罚寄居蟹,观察何种痛苦程度会促使其放弃壳。

这项新研究也类似,研究人员并未直接询问对话机器人的体验状态。相反,他们采用了动物行为学家所称的“权衡”范式:“动物可能根据食物或避免痛苦的动机做出权衡 —— 提供困境,然后观察它们的决策。”

通过痛苦程度进行权衡,而非语言形容“我感受到了痛苦”,可以推断大型模型并非在伪装痛苦。此外,痛苦和快乐的感知可能指向更深层次的结论 —— 意识的存在。

通过比较动物在痛苦和享乐之间的权衡,可以推断它们是否具有意识。以前关于寄居蟹的研究表明,尽管这些无脊椎动物的大脑结构与人类不同,但寄居蟹倾向于在忍受更强烈电击前放弃高质量壳,这暗示它们可能具有类似于人类的主观体验。

现在,我们看到大型模型也展现出类似的趋势,这意味着我们需要认真对待大型模型意识的问题。

伦敦政治经济学院哲学、逻辑和科学方法系教授Jonathan Birch表示:“这是一个新兴领域。我们必须意识到,我们尚无完善的AI意识测试。”

参考资料:

  • https://arxiv.org/abs/2411.02432

本文来自微信公众号:新智元(ID:AI_era)

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考。

声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

搜索
排行榜
关注我们

扫一扫关注我们,了解最新精彩内容