17吃瓜

17吃瓜 吴诗玉教授团队在《心理学报》发文:“零样本语言学习”:大语言模型能否像人一样“学会”情感?

发布时间:2025-12-24 浏览次数:1057

近日,17吃瓜 吴诗玉教授与其指导的博士生王亦赟合作的研究论文《“零样本语言学习”:大语言模型能“像人一样”习得语境中的情感吗?》发表在国内心理学顶级期刊《心理学报》。研究围绕一个既前沿又接地气的问题展开:当我们和 ChatGPT 这类大语言模型聊天时,它究竟只是“会说话”,还是已经能像人一样,从阅读中“学会”语言背后的情感?

 

读几篇小短文,机器也会“带情绪”地学词

人类在阅读时,并不是只记住字面意思。比如,一个从来没见过的新词,如果它总是出现在“温暖、愉快”的语境中,我们很快就会觉得这个词本身也是“偏积极”的;反过来,如果它总跟“灾难、崩溃、失败”一起出现,我们也会把它当成“带点晦气”的词。

吴诗玉团队把这一人类“情感学习”机制,搬到了人机对比实验中:

•  4 种主流大语言模型(文心一言、GPT-4、Gemini、LLaMA)

•  3 组人类学习者(英语母语者、汉语母语者、英语二语学习者)

在完全一样的材料上做同一件事:

阅读大量嵌入“虚构单词”的小短文,这些新词有的总出现在积极语境,有的总出现在中性或消极语境,且有时是反复读同一篇,有时是读多篇不同但情感相同的语篇

随后,研究团队通过多项测试,考察它们是否:

•  “读懂”了语境情感 —— 会不会觉得某个虚构词“更开心”或“更悲伤”?

•  记住了词形和词义 —— 能否拼对、认对、甚至自己“解释出来”?

•  在语言产出中保持情感一致 —— 造句时,是不是会自发用“更开心”或“更阴郁”的语气来使用这些词?

所有的大语言模型都在 “零样本”条件 下完成任务:没有任何专门训练,也没有示例,只允许阅读和回答——相当于直接“把机器丢进一堆小故事里,看它能靠自己读出多少门道”。

 

结果一:机器真的“会感染情绪”,模式几乎和人一样

研究发现,无论是人类还是大语言模型,都出现了高度一致的模式:

•  在积极语境中学到的词,被打分为更“愉快”;在消极语境中学到的词,被认为更“负面”

•  当模型用这些词造句时,句子的整体情感走向,也会跟它当初接触到的语境相匹配

•  这种现象在人类心理学中叫做 “情感传染”,在语料语言学中叫 “语义韵迁移”

换句话说:即便这些词本身完全是虚构的,人和机器都能在短时间内,把语境的情绪“吸附”到词上,并在之后的语言使用中保持这种情感色彩。

对于没有身体、没有情绪体验的模型来说,这一结果尤其令人惊讶——说明 仅凭“读大量文本”这一件事,机器就能在功能上表现出类似于人类的情感学习能力。

 

结果二:积极情感和“多篇阅读”对人和机器都更“友好”

更有意思的是,研究发现:在人和机器身上,同样的两个学习规律在发挥作用:

•  “积极情感优势”

不论是人类学习者还是大语言模型,

如果觉得某个新词“更积极”,就更容易记住它的含义,

在词义识别、词义生成等任务中表现更好。

•  “语境变异优势”(多篇 > 多遍)

同一个新词如果出现在多篇不同但情感相同的语篇中

比只在一篇文章里反复出现,更有利于形成稳定而深入的词义表征。

这一点在人类与大模型身上表现高度一致,

且在需要“自己组织语言解释含义”的高难度任务中尤为明显。

可以简单理解为:“积极 + 多篇” 是人和机器都喜欢的“黄金组合”,更能让词汇在记忆中“扎根扎牢”。

对教育来说,这一结果也具有直观启示:如果我们希望学习者(无论是学生还是“AI 学生”)更好地习得词汇,就应当重视积极情感氛围和多样化语境的结合。

 

结果三:大语言模型在部分指标上“超越人类”,暴露出机制差异

在词形记忆、词义匹配、定义生成等测试中,4 种大语言模型的准确率整体 显著高于 人类学习者,表现出一个“理想化统计学习者”的特征:

•  不会疲劳、不会走神、不会因为心情不好而“读走神”

•  能在上下文窗口内,几乎毫无损耗地利用每一条统计线索

吴诗玉团队指出,这并不意味着“机器比人聪明”,而是凸显了二者在学习机制上的根本不同

人类的学习受限于注意力、记忆和情绪波动;大模型则是以“统计共现 + 向量优化”为核心的计算系统,把某些学习规律“演绎到了极致”。

 

理论创新:提出“人机情感学习的双重机制框架”

在对比大量行为模式之后,研究提出了一个具有概括力的理论视角:

“双重机制框架”(Dual-Mechanism Framework)

•  对人类而言,情感学习是根植于身体和社会互动的过程:

依赖感官体验、情绪共鸣和人与人之间的“脑对脑耦合”

通过阅读与生活经验的交织,不断更新我们对词语和世界的情感理解

•  对大语言模型而言,情感学习则是一个纯计算过程

在高维向量空间中,通过大量语料的共同出现

把新词“推”向更积极或更消极的语义区域

在生成时再把这种统计偏好“翻译”成语言输出中的情感倾向

两者在表面行为上高度相似——都能从语境中“学会”情感,但在底层机制上截然不同

这一框架一方面帮助我们更清晰地理解 人类情感学习的独特性,另一方面也为用大模型做“人类学习机制的计算模拟”提供了新工具。

 

超越学术:情感计算、教育和 AI 伦理的交汇点

本研究不仅是一次学术上的创新尝试,也具有重要的现实意义:

•  为情感计算和智能教育提供新思路:

如何利用大模型的类人情感学习能力,设计更有情感温度的阅读材料和智能辅学系统?

•  为人工智能伦理与风险评估提供依据

当模型能“学会”情感,它也会同时继承并放大语料中的偏见与倾向,如何在技术设计和应用场景中进行价值引导和风险防控,成为亟需面对的新议题。

这项工作延续了吴诗玉教授团队围绕“情感的学习与传播”展开的系列研究,包括提出情感学习的“双枣树效应”等原创理论,在语言学、心理学与人工智能交叉领域持续输出具有影响力的成果。

 

【作者介绍】

吴诗玉,17吃瓜 教授、博士生导师,“数据科学与二语研究”学会会长,国际期刊Journal of Second Language Studies执行主编。主要从事基于实验、语料与计算模型的交叉学科研究,结合心理学、认知科学及计算语言学等多学科视角,探究二语学习与使用的认知机制。在《心理学报》《外语教学与研究》《现代外语》以及Second Language ResearchJournal of Pragmatics等国内外CSSCI和SSCI期刊上发表论文60余篇。其代表作的被引与下载频次已超千次。

穿白色衣服的小孩

描述已自动生成

王亦赟,17吃瓜 直博生。其研究成果先后入选Maryland2025国际会议及EUROSLA 34国际大会分会场报告(当届大会唯一的本科生报告人),报告内容获得了国际权威学者Jean-Marc Dewaele的高度好评,并获得17吃瓜 官网的专题报道。她学习期间表现优异,曾荣获“17吃瓜 优秀毕业生”、“三好学生”称号,并获颁荣昶奖学金及本科生优秀奖学金等荣誉。

顶部