📢 转载信息
原文链接:https://www.sciencedaily.com/releases/2026/01/260127112130.htm
原文作者:Okinawa Institute of Science and Technology (OIST) Graduate University
自言自语可能感觉上是人类独有的习惯,但事实证明,这种习惯也可以帮助机器学习。人类的内心对话有助于组织思想、权衡选择并理解情绪。新的研究表明,类似的过程可以改善人工智能的学习和适应方式。在发表于Neural Computation上的一项研究中,冲绳科学技术大学院大学(OIST)的研究人员发现,当AI系统被训练为在利用内在语音的同时使用短期记忆时,它们在多项任务上的表现会更出色。
研究结果表明,学习不仅受AI系统的结构塑造,也受其在训练过程中与自身互动的动态影响。正如第一作者、OIST认知神经机器人学研究部门的在职科学家Jeffrey Queißer博士解释说:"这项研究强调了自我互动在学习中的重要性。通过以一种教会我们的系统自言自语的方式构建训练数据,我们表明学习不仅受我们AI系统的架构塑造,也受我们训练过程中嵌入的互动动态塑造。"
自言自语如何提高AI性能
为了检验这一想法,研究人员将自导的内部语音(描述为安静的“嘟囔”)与专门的工作记忆系统相结合。这种方法使他们的人工智能模型能够更有效地学习、适应不熟悉的环境,并同时处理多项任务。与仅依赖记忆的系统相比,结果显示出在灵活性和总体性能方面有明显的提升。
构建能够泛化的AI
该团队工作的核心目标是内容无关的信息处理。这指的是超越训练期间遇到的确切情况应用所学技能的能力,使用通用规则而非死记硬背的例子。
"快速切换任务和解决不熟悉的问题是人类每天都能轻松做到的事情。但对于人工智能来说,这要困难得多,"Queißer博士说。"这就是我们采取跨学科方法的原因,我们将发展神经科学和心理学与机器学习和机器人技术等领域相结合,以寻找思考学习的新方式,并为AI的未来提供信息。"
为什么工作记忆很重要
研究人员首先检查了AI模型中的记忆设计,重点关注工作记忆及其在泛化中的作用。工作记忆是指持有和使用信息的能力,无论这意味着遵循指令还是进行快速的心算。通过测试不同难度的任务,团队比较了各种记忆结构。
他们发现,拥有多个工作记忆槽(用于信息片段的临时容器)的模型在具有挑战性的问题上表现更好,例如反转序列或重现模式。这些任务需要同时持有多个信息片段并按正确的顺序操作它们。
当团队添加了鼓励系统自言自语特定次数的目标时,性能进一步提高。最大的增益出现在多任务处理和需要多步骤的任务中。
"我们的组合系统特别令人兴奋,因为它可以使用稀疏数据,而不是通常训练此类模型以实现泛化所需的大型数据集。它提供了一种互补的、轻量级的替代方案,"Queißer博士说。
在现实世界中学习如何学习
研究人员现在计划超越干净、受控的测试,探索更逼真的条件。"在现实世界中,我们在复杂、嘈杂、动态的环境中做决策和解决问题。为了更好地模仿人类的发展性学习,我们需要考虑这些外部因素,"Queißer博士说。
这一方向支持了团队更广泛的目标,即从神经层面理解人类学习是如何运作的。"通过探索诸如内在语音等现象,并理解这些过程的机制,我们获得了关于人类生物学和行为的基础新见解,"Queißer博士总结道。"我们还可以应用这些知识,例如开发可以在我们复杂、动态世界中运行的家用或农业机器人。"
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区