ag真人旗舰厅和国际厅✿ღღ★,凯发真人k8官网✿ღღ★,AG品牌最佳真人电游仿真老虎机islot真人老虎机✿ღღ★。真版老虎机✿ღღ★。本综述旨在探讨大语言模型(LLMs)在心理学应用领域的前沿进展✿ღღ★。心理学的发展经历了多次理论变革✿ღღ★,而当前人工智能(AI)与机器学习✿ღღ★,尤其是大语言模型的应用✿ღღ★,有望开启新的研究方向✿ღღ★。本文旨在深入分析 LLMs 如何正在改变心理学研究✿ღღ★。我们讨论了 LLMs 在心理学各主要分支领域——包括认知与行为✿ღღ★、临床与咨询✿ღღ★、教育与发展✿ღღ★,以及社会与文化心理学——的影响✿ღღ★,重点强调其在模拟与人类相似的模式✿ღღ★、认知与行为方面的能力✿ღღ★。此外✿ღღ★,我们还探讨了此类模型生成连贯且具备语境相关性的文本的能力✿ღღ★,为心理学中的文献综述✿ღღ★、假设生成✿ღღ★、实验设计✿ღღ★、实验被试以及数据分析等提供了创新工具✿ღღ★。我们特别强调✿ღღ★,研究人员需要关注技术与伦理挑战✿ღღ★,包括数据隐私✿ღღ★、在心理学研究中使用 LLMs 的伦理问题✿ღღ★,以及深入理解这些模型局限性的必要性✿ღღ★。研究人员在心理学研究中应负责任地使用 LLMs✿ღღ★,遵守伦理规范✿ღღ★,并审慎考虑将这些技术部署于敏感领域可能带来的影响✿ღღ★。总体而言✿ღღ★,本综述全面呈现了 LLMs 在心理学领域的现状✿ღღ★,探讨了其潜在优势与挑战✿ღღ★。我们希望本文能为研究者发出行动呼吁✿ღღ★,在积极利用 LLMs 优势的同时✿ღღ★,切实应对相关风险✿ღღ★。
人工智能(AI)已有近七十年的发展历史✿ღღ★,其起点可追溯至 1956 年的达特茅斯会议✿ღღ★。近年来✿ღღ★,随着大语言模型(LLMs)的出现✿ღღ★,如 ChatGPT✿ღღ★、Google 的 Bard 和 Meta 的 LLaMA✿ღღ★,该领域迎来了革命性进展✿ღღ★。其中全网最热门真人财神游戏✿ღღ★,GPT-4 尤其可能代表着一次范式转变✿ღღ★,凭借其在数学844vv✿ღღ★、编程✿ღღ★、视觉✿ღღ★、医学✿ღღ★、法律和心理学等领域解决复杂任务的卓越能力(Bubeck 等✿ღღ★,2023)✿ღღ★,生动诠释了“AI赋能科学”(AI for science)的理念(Wang 等✿ღღ★,2023)✿ღღ★。LLMs 在机器学习与人工智能的发展中标志着一个关键节点✿ღღ★,这得益于其庞大的规模和采用注意力机制的复杂神经网络架构(Vaswani 等✿ღღ★,2017)✿ღღ★。这些模型融入了认知原理(Binz & Schulz, 2023a)✿ღღ★,并展现出可与复杂物理系统相媲美的涌现特性(Wei 等✿ღღ★,2022)✿ღღ★。这种特性不仅提升了它们处理与表征概念及高层语义的能力(J. Li 等✿ღღ★,2022)✿ღღ★,也加深了我们对人类认知过程的理解(Sejnowski, 2022)✿ღღ★。在心理学应用中✿ღღ★,这些进展正重塑数据✿ღღ★、语言与环境之间的交互关系(De Bot 等✿ღღ★,2007✿ღღ★;Demszky 等✿ღღ★,2023)✿ღღ★,并在包括临床心理学(Thirunavukarasu 等✿ღღ★,2023)✿ღღ★、发展心理学(Frank, 2023✿ღღ★;Hagendorff, 2023)以及社会心理学(Hardy 等✿ღღ★,2023✿ღღ★;J. Zhang 等✿ღღ★,2023)等多个领域发挥着重要作用✿ღღ★。此外✿ღღ★,LLMs 还对心理学研究方法产生了深远影响✿ღღ★,提供了全新的探索与分析途径与工具✿ღღ★。
生成式人工智能(Generative AI)源于模式识别能力的进步✿ღღ★。卷积神经网络(CNNs)在识别物体和概念方面表现优异✿ღღ★,但随之而来的下一个挑战是如何将这种识别能力用于生成任务✿ღღ★。例如✿ღღ★,如果 CNN 能够识别肖像中的“年龄”特征✿ღღ★,那么我们就可以利用这种理解去修改任何肖像中的“年龄”✿ღღ★。这种生成式方法首先在计算机视觉领域取得成功✿ღღ★,通过生成对抗网络(GANs)(Goodfellow 等✿ღღ★,2020)和反卷积技术(Zeiler✿ღღ★,2014)等模型✿ღღ★,能够基于已学习的模式生成逼真的图像✿ღღ★。随后✿ღღ★,这些生成原理被应用于语言领域✿ღღ★,催生了能够生成语境相关文本的大语言模型(LLMs)✿ღღ★。LLMs 在生成式人工智能的能力上实现了重大飞跃✿ღღ★,这类模型专为处理自然语言文本并生成上下文相关的文本而设计✿ღღ★。GPT-4✿ღღ★、LLaMA✿ღღ★、Claude 和 Gemini 等 LLMs 都基于 Transformer 架构(Vaswani 等✿ღღ★,2017)✿ღღ★,利用复杂的神经网络与注意力机制✿ღღ★,革新了自然语言处理✿ღღ★。每个模型都在性能优化方向上各有侧重✿ღღ★,例如 LLaMA 注重高效的训练过程(Touvron 等✿ღღ★,2023)✿ღღ★,Claude 强调安全与对齐(Li 等✿ღღ★,2024)✿ღღ★,而 Gemini 则融合了更强的推理能力(Rane 等✿ღღ★,2024)✿ღღ★。
尽管这些模型展现了 LLMs 的多样化能力✿ღღ★,但我们必须区分为特定交互设计的具体产品(如面向对话应用的 ChatGPT)与 LLMs 的更广泛能力——后者不仅包括聊天✿ღღ★,还涵盖文本生成✿ღღ★、摘要✿ღღ★、翻译和嵌入提取等任务✿ღღ★。这些广泛应用表明✿ღღ★,LLMs 的能力具有“涌现性”✿ღღ★,随着模型规模的增大会出现新的能力✿ღღ★。在对数—对数性能曲线上✿ღღ★,有时会出现“跳跃”✿ღღ★,即模型内部复杂交互催生出意想不到的能力(Wei 等✿ღღ★,2022)✿ღღ★。
LLMs 的核心是 Transformer 架构✿ღღ★,这是一种带有注意力机制的深度神经网络✿ღღ★,能够并行高效地处理序列数据(Vaswani 等✿ღღ★,2017)✿ღღ★,其工作方式在某种程度上类似于人脑功能✿ღღ★。该架构彻底改变了自然语言处理领域✿ღღ★。Transformer 的自注意力机制可以捕捉文本数据中的上下文关系✿ღღ★,从而实现更为精细的语言理解✿ღღ★。值得注意的是✿ღღ★,LLMs 中的“Large”指的是巨量的参数和海量的训练数据——通常包含数十亿个参数和以 TB 计的文本数据(Binz & Schulz✿ღღ★,2023b)✿ღღ★,以实现“掌握世界”的知识储备(Yildirim & Paul✿ღღ★,2023)✿ღღ★。
大语言建模的过程✿ღღ★,从机器学习到能力涌现✿ღღ★,可以分为几个关键阶段✿ღღ★。(1)预训练✿ღღ★:LLMs 在海量文本数据上进行预训练✿ღღ★,以学习复杂的语言✿ღღ★、句法和文本结构✿ღღ★,模型通过无监督学习预测下一个 token✿ღღ★,从而获得能够捕捉语言统计模式的基础模型(P. Liu 等✿ღღ★,2023)✿ღღ★。(2)对齐✿ღღ★:通过有监督学习✿ღღ★,使基础模型更好地按预期方式与用户交互✿ღღ★,这通常包括指令微调(instruction tuning)和基于人类反馈的强化学习✿ღღ★。在此基础上✿ღღ★,还可进行领域特定的微调✿ღღ★,使模型适配特定应用(Liu 等✿ღღ★,2022)844vv✿ღღ★。这一过程确保模型能够生成上下文相关的响应✿ღღ★,并参与有意义的对话或任务✿ღღ★。通过这些阶段的发展✿ღღ★,LLMs 展现出越来越精细的文本生成能力✿ღღ★,包括响应生成✿ღღ★、内容摘要✿ღღ★、翻译以及组合性文本生成(Bubeck 等✿ღღ★,2023)✿ღღ★。有效处理与表征上下文的能力✿ღღ★,是这些模型高级能力涌现的重要基础✿ღღ★。最终✿ღღ★,LLMs 在被集成到各种应用与系统中时✿ღღ★,会表现出“可观测的能力涌现”✿ღღ★,能够完成需要深度语言与上下文理解的任务✿ღღ★,并在特定实验任务中达到类人甚至超越人类的表现✿ღღ★,如类比推理(Webb 等✿ღღ★,2023)全网最热门真人财神游戏✿ღღ★、创造力(Stevenson 等✿ღღ★,2022)以及情绪识别(Patel & Fan✿ღღ★,2023)✿ღღ★。
因此✿ღღ★,LLMs 能够为我们理解这类技术如何模拟或增强传统上与人类认知相关的过程提供有价值的洞见✿ღღ★。具体而言✿ღღ★,LLMs 在逻辑处理与认知捷径(启发式)之间保持平衡✿ღღ★,并能够调整推理策略✿ღღ★,在准确性与认知投入之间进行优化✿ღღ★。这与双过程理论(dual-process theory)所讨论的资源理性(resource-rational)人类认知原则相契合(Mukherjee & Chang✿ღღ★,2024)✿ღღ★。例如✿ღღ★,LLMs 在生成与处理自然语言时✿ღღ★,在结构与功能上与人类语言和认知机制的某些方面存在相似之处(Goertzel✿ღღ★,2023)✿ღღ★。这种相似性使得探索其在认知心理学(Sartori & Orrù✿ღღ★,2023)✿ღღ★、语言习得(Jungherr✿ღღ★,2023)甚至心理健康(Lamichhane✿ღღ★,2023)等领域的应用成为可能✿ღღ★。此外✿ღღ★,对 LLMs 的研究也有助于深化我们对人类心智的理解✿ღღ★,从计算视角探讨语言处理✿ღღ★、决策(Sha 等✿ღღ★,2023)与学习机制(Hendel 等✿ღღ★,2023)✿ღღ★。这种跨学科的融合可能推动人工智能的发展✿ღღ★,并为研究与人类认知相关的过程提供计算框架✿ღღ★。
心理学作为一门探索人类心智与行为的科学✿ღღ★,自 19 世纪末以来经历了重大的理论变革✿ღღ★,从精神分析学与行为主义发展到认知心理学(Hothersall & Lovett, 2022)✿ღღ★。这一历史进程标志着心理学研究重心的转变✿ღღ★,即从关注行为表现转向深入探讨心理内涵✿ღღ★,反映了学术界从外显行为观察到内隐心理机制探索的趋势✿ღღ★。每一阶段都推动了人类对心理—认知过程理解的不断深化✿ღღ★。
理解人类的心理—认知过程因此成为心理学的核心任务✿ღღ★。在临床与咨询心理学中✿ღღ★,认知心理学的研究为心理障碍的诊断与治疗提供了理论支持✿ღღ★,深化了我们对情绪✿ღღ★、压力及人类行为背后心理机制的理解✿ღღ★。认知行为疗法(Hofmann 等✿ღღ★,2012)和心理动力学疗法等心理治疗方法已成为促进心理健康与情绪调节的重要工具✿ღღ★。在教育与发展心理学中✿ღღ★,认知心理学的发展加深了人们对知觉与情感因素在学习过程中的作用的理解(Glaser, 1984)✿ღღ★,推动了教学方法和学习策略的创新✿ღღ★。在社会与文化心理学中✿ღღ★,认知心理学研究有助于解释个体在不同社会与文化背景下的行为与心理过程✿ღღ★,探索文化差异如何影响认知模式✿ღღ★、价值观与行为规范✿ღღ★,尤其是在全球化背景下的互动与融合过程中✿ღღ★。在社会心理学领域✿ღღ★,认知心理学对群体行为✿ღღ★、社会影响✿ღღ★、偏见与歧视的研究✿ღღ★,为促进社会和谐与相互理解具有重要价值(Park & Judd, 2005)✿ღღ★。
人工智能正日益成为心理—认知研究中具有影响力的工具✿ღღ★。Simon(1979)是最早意识到计算模型在模拟人类认知过程方面潜力的学者之一✿ღღ★。目前✿ღღ★,大语言模型(LLMs)已经能够处理与生成类人文本✿ღღ★,并在某些任务中以类似人类认知的方式完成工作(Bubeck 等✿ღღ★,2023)✿ღღ★。LLMs 还为人类认知研究提供了独特的计算视角✿ღღ★。例如✿ღღ★,GPT-3 能够解决情境任务(vignette-based tasks)✿ღღ★,表现与人类相当甚至更优✿ღღ★,并能基于描述进行理性决策✿ღღ★,在多臂老虎机任务中超越人类(Binz & Schulz, 2023b)✿ღღ★。此外✿ღღ★,大规模测试表明✿ღღ★,GPT-3 在解决复杂类比问题时可达到与人类相当的水平✿ღღ★,而类比推理是人类智慧的重要标志(Webb 等✿ღღ★,2023)✿ღღ★。更重要的是✿ღღ★,通过多任务微调✿ღღ★,LLMs 能够预测此前从未见过任务中的人类行为——换言之✿ღღ★,LLMs 可以被适配为通用认知模型(Binz & Schulz, 2023a)✿ღღ★,有潜力开辟新的研究方向✿ღღ★,从而改变认知心理学与行为科学的整体格局✿ღღ★。
Newell(1990)提出了一个分析人类行为的结构化框架✿ღღ★,将认知与行为过程按照时间尺度划分为四个层次(图 1a)✿ღღ★。在生物学层面✿ღღ★,研究关注的是以毫秒到一秒的极短时间尺度发生的生理与神经过程✿ღღ★,例如神经反应与感官加工✿ღღ★,这些过程构成了人类认知的基础✿ღღ★。认知层面涉及注意✿ღღ★、知觉与短时记忆等机制✿ღღ★,其运行时间通常为一秒到一分钟✿ღღ★,是基本认知功能的支撑✿ღღ★。理性层面涵盖了问题解决✿ღღ★、计划与决策等更复杂的认知活动✿ღღ★,这些过程通常在几分钟到数小时的时间尺度上发生✿ღღ★,需要持续的认知投入✿ღღ★。最后✿ღღ★,社会层面关注由社会互动与文化影响所塑造的行为✿ღღ★,其时间尺度最长✿ღღ★,从数小时到数天甚至更久✿ღღ★,涉及社会交流✿ღღ★、群体行为与文化对认知的影响✿ღღ★。该框架凸显了人类行为的多维特性✿ღღ★,强调了快速的生理过程与更持久的社会影响在认知中的相互关系✿ღღ★。
因此✿ღღ★,通过在这四个层面(图 1a)分析 LLMs 的应用✿ღღ★,可以进一步探索它们在建模与研究人类认知和行为方面的潜力(图 1b)✿ღღ★,以及它们在心理—认知过程中的独特作用✿ღღ★。最新研究揭示了 LLMs 在执行复杂的类人认知与社会任务方面的显著进展(Grossmann 等全网最热门真人财神游戏✿ღღ★,2023✿ღღ★;Marjieh 等✿ღღ★,2023✿ღღ★;Orru 等✿ღღ★,2023✿ღღ★;Pal 等✿ღღ★,2023✿ღღ★;Stevenson 等✿ღღ★,2022✿ღღ★;Webb 等✿ღღ★,2023)✿ღღ★。例如✿ღღ★,Grossmann 等(2023)与 Marjieh 等(2023)分别展示了 LLMs 在模拟人类社会互动与知觉加工方面的能力✿ღღ★;Orru 等(2023)与 Webb 等(2023)强调了它们在复杂问题解决与推理方面的表现✿ღღ★;Hagendorff 等(2023)关注其决策过程✿ღღ★;Stevenson 等(2022)记录了其在创造力方面的潜力✿ღღ★;而 Patel 与 Fan(2023)则展示了它们的情绪识别能力✿ღღ★。总体而言✿ღღ★,这些研究结果凸显了 LLMs 在表征与增强人类认知和社会功能方面不断扩展的角色✿ღღ★,标志着人工智能研究的重要进展✿ღღ★。
作为通用认知模型(Binz & Schulz, 2023a)✿ღღ★,LLMs 在认知与行为心理学✿ღღ★、临床与咨询心理学✿ღღ★、教育与发展心理学以及社会与文化心理学等领域✿ღღ★,不同时间尺度的人类行为研究中提供了新的视角与方法(图 1a)844vv✿ღღ★。
(a) 将研究领域(如认知与行为✿ღღ★、社会与文化)映射到相应的行为时间尺度✿ღღ★;(b) 涌现特性(如认知仿真)可支持特定领域的建模✿ღღ★;(c) 大语言模型作为研究工具(如刺激材料生成)✿ღღ★。双向箭头表示这些新兴特性在领域与工具之间形成桥梁✿ღღ★,既支持具体应用(如记忆提取)✿ღღ★,又在使用过程中不断完善其特性✿ღღ★。
本综述旨在对大语言模型(LLMs)在心理学研究中的应用与影响进行全面分析✿ღღ★。为确保综述的系统性与严谨性✿ღღ★,我们制定了明确的纳入与排除标准✿ღღ★。本文聚焦于 2020 年至 2024 年间发表的相关文献✿ღღ★,数据来源包括 Google Scholar✿ღღ★、arXiv 和 Web of Science 等学术数据库✿ღღ★。我们使用 “GPT-3”“ChatGPT”“GPT-4”“large language models” 和 “psychology” 等关键词检索相关研究全网最热门真人财神游戏✿ღღ★。为提高数据提取过程的可靠性✿ღღ★,两位分别具有信息科学与心理学背景的跨学科研究人员(男性✿ღღ★,33 岁与 41 岁)共同进行了编码与筛选✿ღღ★。
纳入标准要求所选研究必须✿ღღ★:(1)探讨 LLMs 在心理学情境中的应用或分析✿ღღ★;(2)为同行评审期刊文章或高影响力会议论文✿ღღ★;(3)呈现实证数据✿ღღ★、理论探讨或方法学进展✿ღღ★。对于能够反映新兴趋势或填补重要文献空白的预印本论文✿ღღ★,我们也予以有选择地纳入✿ღღ★。不具备心理学研究焦点或仅涉及非 LLM 类 AI 系统的文章则被排除✿ღღ★。最终✿ღღ★,我们在初步筛选的 191 篇研究中✿ღღ★,深入分析了 100 篇全文✿ღღ★,并最终纳入了 46 篇研究✿ღღ★,这些研究按心理学不同子领域进行分类✿ღღ★。所有入选研究均符合严格的纳入标准✿ღღ★,确保其对我们理解 LLMs 在心理学研究中的作用具有实质性贡献✿ღღ★。
在本综述中✿ღღ★,我们通过不同行为时间尺度的视角系统分析 LLMs 在各个心理学领域的应用✿ღღ★。文章结构安排如下✿ღღ★:第 2 节探讨 LLMs 在认知与行为心理学中的应用✿ღღ★;第 3 节讨论 LLMs 在临床与咨询心理学中的作用✿ღღ★;第 4 节分析其在教育与发展心理学中的应用✿ღღ★;第 5 节聚焦社会与文化心理学✿ღღ★,概述 LLMs 在各领域的贡献✿ღღ★。尽管心理学技术有时被用于评估 LLMs 的能力✿ღღ★,但这一方法主要用于加深对其作为心理学研究工具的适用性与潜力的理解✿ღღ★。本综述的核心重点是探讨 LLMs 如何在上述领域促进并推动心理学研究的发展✿ღღ★。
为更深入理解 LLMs 对心理学研究的影响✿ღღ★,第 6 节将概述 LLMs 作为科学研究工具的潜力✿ღღ★;第 7 节则提出 LLMs 应用于心理学情境中所面临的挑战与未来研究方向✿ღღ★;最后✿ღღ★,第 8 节给出结论✿ღღ★,总结 LLMs 在心理学中的应用并提出未来研究建议✿ღღ★。值得注意的是✿ღღ★,我们还提出了将 LLMs 融入心理学研究的策略✿ღღ★,并提供了从心理学视角解读此类模型的见解✿ღღ★,以提升其安全性与可解释性✿ღღ★。
在人类行为的多层次时间尺度中(Newell, 1990)✿ღღ★,认知与行为心理学主要聚焦于亚小时(sub-hourly)时间尺度上的认知过程研究✿ღღ★,这些过程包括人类在知觉✿ღღ★、记忆✿ღღ★、思维✿ღღ★、决策✿ღღ★、问题解决以及有意识计划中的参与✿ღღ★。认知与行为心理学通常采用实验方法研究这些认知过程全网最热门真人财神游戏✿ღღ★,通过在特定条件下控制并观察行为与反应来揭示规律✿ღღ★。近年来全网最热门真人财神游戏✿ღღ★,大语言模型(LLMs)的出现重新激发了关于此类模型是否可能表现出类似人类认知过程模式的讨论✿ღღ★;如果这种相似性成立✿ღღ★,那么研究 LLMs 的“认知过程”或许可以为人类认知现象提供新的洞见✿ღღ★,并成为现有认知心理学研究方法的有益补充✿ღღ★。
支撑大语言模型(LLMs)的核心技术是生成式预训练 Transformer(GPT)架构✿ღღ★,它利用深度神经网络来处理并生成类人文本✿ღღ★。GPT 模型通过注意力机制(attention mechanisms)与 token 预测等机制运行✿ღღ★,从而能够捕捉复杂的语言模式并生成上下文连贯的输出✿ღღ★。这一基础技术极大地推动了自然语言处理(NLP)的发展✿ღღ★,显著提升了文本理解与生成的能力✿ღღ★,并拓展至广泛应用领域✿ღღ★,从对话代理到内容创作(Brown 等✿ღღ★,2020✿ღღ★;Vaswani 等✿ღღ★,2017)✿ღღ★。这类架构被引入心理学研究后✿ღღ★,引发了关于其模拟认知现象潜力的讨论✿ღღ★。
Binz 与 Schulz(2023a)发现✿ღღ★,通过多任务微调全网最热门真人财神游戏✿ღღ★,可以让 LLM 在此前从未见过的任务中预测人类行为✿ღღ★,这表明 LLMs 可以被改造为通用认知模型✿ღღ★。在另一项研究中✿ღღ★,同一作者使用认知心理学的工具测试 GPT-3✿ღღ★,结果显示其在决策质量上优于人类✿ღღ★,并在多臂老虎机任务中表现更佳(Binz & Schulz, 2023b)✿ღღ★。其他研究则表明✿ღღ★,LLMs 可能具备感知判断(Marjieh 等✿ღღ★,2023)✿ღღ★、推理(Webb 等✿ღღ★,2023)✿ღღ★、决策能力(Hagendorff 等✿ღღ★,2023)✿ღღ★、创造力(Stevenson 等✿ღღ★,2022)以及问题解决能力(Orru 等✿ღღ★,2023)全网最热门真人财神游戏✿ღღ★。一项研究甚至发现✿ღღ★,基于错误信念任务(false-belief task——在人类中被视为心智理论测试的金标准)✿ღღ★,某 LLM 的心理能力相当于七岁儿童(Kosinski, 2024)✿ღღ★。
在探索 LLMs 的推理能力与决策过程时✿ღღ★,Hagendorff 等(2023)设计了一系列语义错觉(semantic illusion)与认知反思(cognitive reflection)测试✿ღღ★,这些测试旨在引发直觉但错误的反应(传统上用于研究人类推理与决策)✿ღღ★,并将其应用于 LLMs✿ღღ★。他们分析了模型在认知反思测试(CRT)任务和语义错觉任务上的表现✿ღღ★,以揭示其认知过程844vv✿ღღ★,并借鉴了 Daniel Kahneman 在其经典著作《思考✿ღღ★,快与慢》(Thinking, Fast, and Slow)(Kahneman, 2011)中提出的系统 1 与系统 2 思维框架✿ღღ★,该框架是理解人类认知过程的基础理论✿ღღ★。系统 1 指直觉且自动化的思维✿ღღ★,而系统 2 则涉及理性且深思熟虑的决策过程✿ღღ★。该理论框架为解释 LLMs 在这些任务中模拟类人认知行为提供了理论依据✿ღღ★。研究人员观察了模型在这些任务中如何给出正确反应并避免错误✿ღღ★。在 CRT 任务中✿ღღ★,他们进一步通过限制模型进行链式推理(chain-thinking)来评估其表现✿ღღ★。结果表明✿ღღ★,随着模型规模和语言能力的提升✿ღღ★,LLMs 越来越多地展现出类人的直觉思维(系统 1)以及伴随的认知偏误✿ღღ★。表 1 总结了 LLMs 在认知与行为心理学中的应用情况844vv✿ღღ★。
Note:AUT是一项衡量创造力的心理测试✿ღღ★,要求参与者尽可能多地想出一个常见物体的用途✿ღღ★;DALL-E 2是由OpenAI开发的✿ღღ★,可以从文本描述中生成详细逼真的图像✿ღღ★,以探索AI在创意领域的潜力✿ღღ★。
除了理论层面的评估之外✿ღღ★,大语言模型(LLMs)在实验心理学中也展现了实际价值✿ღღ★,尤其是在刺激生成与实验设计方面(Zhuang 等✿ღღ★,2023)✿ღღ★。例如✿ღღ★,Dubey 等(2024)使用 DALL-E 2 创建了逼真的无车城市环境视觉刺激✿ღღ★,这些刺激影响了参与者对可持续政策的态度✿ღღ★。此类工具通过提供可控性✿ღღ★、多样性和可扩展性✿ღღ★,简化了刺激设计过程✿ღღ★。类似地✿ღღ★,LLMs 也被应用于硬件测试中✿ღღ★,用于生成定制化的刺激✿ღღ★,并在特定情境下优于传统方法(Z. Zhang 等✿ღღ★,2023)844vv✿ღღ★。Charness 等(2023)进一步展示了 LLMs 在优化实验流程中的应用✿ღღ★,包括改进任务指令✿ღღ★、确保一致性以及监测参与者参与度✿ღღ★。凭借其灵活性与可扩展性✿ღღ★,LLMs 能够为推动实验心理学提供新的方法✿ღღ★。这些应用不仅有助于探索复杂的认知现象和开发创新的研究设计✿ღღ★,同时也能补充传统的心理学研究框架(Srinivasan 等✿ღღ★,2023)✿ღღ★。然而✿ღღ★,对 LLM 输出结果的解读需要谨慎情境化处理✿ღღ★,以避免高估其能力或将其与人类认知过程直接等同✿ღღ★。