美国哥伦比亚大学研究:大语言模型正在变得越来越像人类大脑

xxn 阅读:57839 2024-12-20 12:06:57 评论:0

IT之家最新报道指出,近年来大型语言模型(LLMs)如ChatGPT在处理和生成人类语言方面取得了显著进展。然而,这些模型与人类大脑在语言处理神经过程上的相似程度仍有待深入研究。

根据Tech Xplore的报道,哥伦比亚大学和费因斯坦医学研究所的研究团队最近展开研究,旨在探究LLM与大脑神经反应的相似性。研究结果显示,随着LLM技术的不断进步,这些模型不仅在性能上有所提升,其结构上也与人类大脑越来越接近。

研究论文的第一作者加文・米施勒接受Tech Xplore采访时表示:“我们撰写这篇论文的灵感来源于近年来LLM和神经人工智能研究的迅速进展。”

他补充道:“几年前的研究显示,GPT-2的词嵌入与人脑对语言的神经反应具有一定的相似性,然而随着人工智能的飞速发展,GPT-2目前已经过时,不再是最强大的模型。”

“自ChatGPT发布以来,涌现了许多更为强大的模型,但有关这些新模型是否仍呈现出与大脑相似性的研究却相对较少。”

米施勒及其团队的主要研究目标在于探究最新一代LLM是否仍表现出与人类大脑相似的特征。研究人员对12个不同的开源LLM进行了分析,这些模型在架构和参数数量上几乎相同。此外,他们还通过在神经外科患者的脑部植入电极记录其听到语言时大脑的反应。

米施勒解释说:“我们还将相同的演讲文本输入LLM,并提取其词嵌入,这些嵌入是模型内部用于处理和编码文本的表示。为了评估这些LLM与大脑的相似性,我们尝试预测大脑在语言词汇上的神经活动反应以衡量它们的对应程度。通过这种方法,我们可以深入了解二者的相似之处。”

在收集数据后,研究人员利用计算工具分析LLM与大脑之间的对齐情况。他们特别关注LLM的哪些层次与大脑中负责语言处理的区域最为匹配。已知大脑对语言的反应会通过语音及语音学等元素的逐步分析建立语言的抽象表征。

米施勒指出:“研究结果显示,随着LLM能力的增强,这些模型的词嵌入与大脑对语言的反应越来越相近。更让人惊讶的是,随着模型性能的提升,它们与大脑层次结构的对齐程度也随之提高。这表明,在语言处理过程中,大脑不同区域提取的信息与性能较强的LLM所提取信息之间的一致性更强了。”

这一研究结果显示,性能最出色的LLM更能准确地反映大脑的语言处理反应,并且这些模型表现优异可能与其早期层次的高效性有关。

该研究结果已在《自然・机器智能》期刊上发表,IT之家提供详细报道

广告声明:文内包含对外跳转链接,仅供参考。

声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

搜索
排行榜
关注我们

扫一扫关注我们,了解最新精彩内容