
人民日报上海12月25日电(赵竹青记者)“机器智能需要更加智能,能够像人类一样进行因果逻辑推理。特别是需要小样本持续学习的新型人工智能模型,能够在算力较低的平台上支持强大的推理。” 12月25日,在第七届人民网内容技术论坛上,中国工程院院士、同济大学党委书记郑庆华发表主题演讲,提出“大脑认知激发的机器记忆智能”新方向,主张打破基于大规模数据的模型对轨迹的依赖,探索低算力、小样本、鲁棒推理的人工智能新途径,并提供新的想法。人工智能与脑科学深度融合。
他回忆道,自1956年人工智能概念提出以来,其发展总体上沿着计算智能、感知智能和认知智能的方向发展。未来,我们有望发展出人类独特的能力,例如记忆力、同理心和自我反思。 “目前,人工智能整体还处于起步阶段,未来发展潜力巨大。”
然而,当前的“大规模数据驱动模型”虽然展现出了强大的能力,但其固有的缺陷也日益显现。清华大学郑院士直言,大规模模型是“数据饥渴型”,人类产生高质量数据的能力远远不能满足需求,消耗大量能源。第二,大规模模型存在灾难性遗忘、迁移能力差、“喜新厌旧”等问题。“旧”的特点,使其难以处理时空动态演化的复杂任务。第三,抽象推理能力较弱,难以抽象出事物内在的因果逻辑。最后,大规模的a模型是“黑箱”模型,“知其所以然”,难以解释或干预。
面对这些挑战,整合数据和知识的混合模型已成为重要的技术途径。郑清华认为,他的团队从“只见树木、见森林”的认识论中汲取灵感,在大量分散的数据基础上开发系统化、可计算的数据。他表示,他提出了“知识森林”的概念,其目标是构建知识体系并从中进行逻辑推理。该方法已成功应用于国家治理风险识别等重要场景ld税务项目、土木工程大型专题模型(CivilGPT)建设和C919飞机设计知识管理,实现了知识驱动和数据驱动的结合。
基于此,郑清华提出了第三种更具革命性的技术途径:受人脑启发的机器记忆智能。他指出,对于灾害、危险等“小数据、小算力、低带宽”的场景来说,更多的智能正是所需要的,而这正是当前大规模模型的缺点。
“人为什么聪明?因为他们有记忆。”郑清华院士解释说,记忆不等于存储。它具有联想、抽象、还原、复原等动态能力,是人类智能的基础。人脑的记忆机制提供了三个重要的启示。首先,构成记忆基础的“吸引子”具有抗干扰、计算等特性,可以让人脑避免“灾难性遗忘”。其次,人脑通过稀疏激活、预测编码和联想记忆实现极高的能量效率,其能耗远低于同类大型模型。第三,人脑是基于抽象和联想的。较高的思维能力、环境适应能力和推理能力。
受此启发,郑清华团队提出了一种以抽象联想表示为核心的“智能机器记忆模型”,建立了小样本顺序学习、混沌激活和协作推理的新模型。该研究重点关注四个主要科学挑战:人脑记忆形成和运行机制、多层时空相关记忆表征的抽象建模、小样本学习和自适应重新构建的实现。推理、抽象指导下的具体协作和混沌推理。
“我们相信这是一条通往高阶智能的新途径,样本更小,计算能力更低,推理能力更强。”他表示,这将有助于促进能乐与神经科学之间的深入交流和相互赋能。同时,期待Rompa凭借对大数据驱动模型技术的“外延”研究,为中国学者的人工智能提出新的路径和方向。
(编辑:郝帅、高雷)
关注我们的公众号:人民网财经
分享出去让更多人看到。
发表评论