日本冲绳科学技术研究所认知神经机器人团队开发了一种具有新颖架构的具身智能模型。它允许科学家访问神经网络的各种内部状态,并且能够以与人类儿童相似的方式学习泛化,揭晓了神经网络中认知发展和信息处理的关键信息。该成果发表在新一期《科学·机器人学》杂志上。
对人工智能(AI)至关重要的大型语言模型(LLM)主要依赖于大规模数据集,但其无法像人类那样有效地从有限信息中进行泛化。而具身智能是一种基于物理实体进行感知和行动的智能系统。它可以通过智能体与环境的交互来获取信息、理解问题、做出决策并执行行动。
此次的具身智能模型基于预测编码启发,变分递归神经网络框架,通过集成视觉、本体感觉和语言指令三种感官输入进行训练。具体来说,该模型处理了以下输入:观看机械臂移动彩色块的视频;感知人体四肢运动的感觉及机械臂移动时的关节角度;以及语言指令如“把红色物体放在蓝色物体上”。
该模型的灵感,是大脑不断根据过去的经验预测感官输入,并采取行动将预测与观察之间的差异降至最低。因为大脑的工作记忆和注意力有限,所以必须按顺序处理输入并更新其预测,而不是像LLM那样一次性处理所有信息。
研究表明,新模型只需更小的训练集和更少的计算资源就可实现泛化学习。尽管它比LLM犯错更多,但这些错误类似于人类的错误。
这意味着,将语言与行为相结合可能是儿童快速语言学习的重要因素。这种具身智能不仅提高了透明度,还能更好地了解AI的行为效果,为未来更安全、更合乎道德的AI发展指明了方向。
这项研究为理解和模拟人类认知提供了一个新的视角,展示了如何通过整合多种感官输入来实现高效的泛化能力。这不仅有助于开发更加智能和灵活的AI系统,也为认知科学提供了宝贵见解。
总编辑圈点
何为泛化?人类就很擅长从少量示例中泛化知识。例如,给一个蹒跚学步的孩子展示红球、红色卡车和红玫瑰后,他很可能也会正确识别出西红柿是红色的,即便这是他第一次看到西红柿。这种能力的关键在于组合性——即将整体分解为可重复使用的部分的能力。而理解人类如何获得这种能力,是发育神经科学和AI研究中的一个重要问题。本文的成果对研究AI决策过程的科学家们非常有用。借此,可以进一步探索人类认知和机器学习之间的复杂联系,从而推动AI技术的进步。
日本冲绳科学技术研究所认知神经机器人团队开发了一种具有新颖架构的具身智能模型。它允许科学家访问神经网络的各种内部状态,并且能够以与人类儿童相似的方式学习泛化,揭晓了神经网络中认知发展和信息处理的关键信息。该成果发表在新一期《科学·机器人学》杂志上。
对人工智能(AI)至关重要的大型语言模型(LLM)主要依赖于大规模数据集,但其无法像人类那样有效地从有限信息中进行泛化。而具身智能是一种基于物理实体进行感知和行动的智能系统。它可以通过智能体与环境的交互来获取信息、理解问题、做出决策并执行行动。
此次的具身智能模型基于预测编码启发,变分递归神经网络框架,通过集成视觉、本体感觉和语言指令三种感官输入进行训练。具体来说,该模型处理了以下输入:观看机械臂移动彩色块的视频;感知人体四肢运动的感觉及机械臂移动时的关节角度;以及语言指令如“把红色物体放在蓝色物体上”。
该模型的灵感,是大脑不断根据过去的经验预测感官输入,并采取行动将预测与观察之间的差异降至最低。因为大脑的工作记忆和注意力有限,所以必须按顺序处理输入并更新其预测,而不是像LLM那样一次性处理所有信息。
研究表明,新模型只需更小的训练集和更少的计算资源就可实现泛化学习。尽管它比LLM犯错更多,但这些错误类似于人类的错误。
这意味着,将语言与行为相结合可能是儿童快速语言学习的重要因素。这种具身智能不仅提高了透明度,还能更好地了解AI的行为效果,为未来更安全、更合乎道德的AI发展指明了方向。
这项研究为理解和模拟人类认知提供了一个新的视角,展示了如何通过整合多种感官输入来实现高效的泛化能力。这不仅有助于开发更加智能和灵活的AI系统,也为认知科学提供了宝贵见解。
总编辑圈点
何为泛化?人类就很擅长从少量示例中泛化知识。例如,给一个蹒跚学步的孩子展示红球、红色卡车和红玫瑰后,他很可能也会正确识别出西红柿是红色的,即便这是他第一次看到西红柿。这种能力的关键在于组合性——即将整体分解为可重复使用的部分的能力。而理解人类如何获得这种能力,是发育神经科学和AI研究中的一个重要问题。本文的成果对研究AI决策过程的科学家们非常有用。借此,可以进一步探索人类认知和机器学习之间的复杂联系,从而推动AI技术的进步。
本文链接:神经网络中认知发展关键信息揭晓 具身智能模型学习方式与儿童相似http://www.llsum.com/show-2-10448-0.html
声明:本网页内容由互联网博主自发贡献,不代表本站观点,本站不承担任何法律责任。天上不会到馅饼,请大家谨防诈骗!若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。
上一篇: 量子光技术让时域光谱灵敏度翻倍
下一篇: 返回列表