科技日报记者 杨雪
近日,由北京大学人工智能研究院和北京通用人工智能研究院组成的联合科研团队完成的最新研究成果——“人类水平的小样本概念学习”,在国际学术期刊《科学·进展》上发表。这一成果首次让AI系统在没有大数据训练的情况下,凭借像人类一样通过概念学习和逻辑推理的方式完成任务,并在经典“智商测试”中战胜了高智商人类选手。
这是首次由我国科学家独立完成,并在国内实现的人工智能高水平研究成果,标志着我国在人工智能领域的研究已跻身世界前列。
“暴力学习”的“做题家”无法真正类人
当前,广泛应用的AI系统主要以海量数据为基础,利用大量算力和存储进行数据“检索”,其核心范式是深度学习。这类人工智能在数据拟合和感知层面取得了显著进展,催生了ChatGPT等一批热门AIGC(生成式人工智能)应用。
AI似乎展现出惊人的能力,能写诗作画、多轮对话、答疑解惑,甚至协助药物开发。然而,在展现这些能力的同时,AI却难以完成简单的四则运算或几何问题,无法准确理解空间位置和因果关系。这不禁让人们产生疑问:这真的是人工智能吗?
“大模型一般是背诵式的,网上的所有知识它都能记住,这种更多像是一种小天才选手,他见过A、B,下次再见到A、B它能认识,甚至见到A、B、A'、B'它也能认识。但如果是个C就认不出来了。”北京大学人工智能研究院助理教授朱毅鑫解释。
目前的AI方案极大地依赖充分且可得的数据资源以及大量人力标注,通过“暴力学习”的方式不断刷题来取得高分。但它并不具备人类那样对问题进行快速、准确、细致推理的能力,尤其在数据匮乏或仅有少量数据和抽象概念的情况下,这类方法便无能为力。
正如做智商测试时,无法通过“刷题”来解决那些需要小样本数据和抽象概念推理的问题。因此,以大数据和深度学习为核心的人工智能范式,距离人类通用认知能力的智能仍有较大差距,且短期内看不到解决办法。
仅依靠“小数据”学会推理
“我们一直关注这样一个问题,就是怎么在小量的数据上得到像人类这样的性能表现。不是说大数据的效果不好,而是它的效率太低、成本太高,现在各种算力的堆积、数据的堆积,从成本上考量很多时候是很难达到的。”北京通用人工智能研究院研究员张驰介绍。
研究团队另辟蹊径,借鉴了北京大学人工智能研究院教授朱松纯在90年代提出的最大最小熵思路。这一方法最早应用于计算机视觉领域的图片生成模型。团队将问题形式化为易于求解的优化问题,并按照熵的思路将其描述为概率条件下的熵限制问题,使模型在快速迭代后能取得满意结果。
“就跟小时候做口算一样,你不可能把所有的题都练一遍。”朱毅鑫用培养小朋友打比方,教会它基本的原理后,它就可以举一反三,自己做一些排列、组合、推理来解决没有见过的问题。
该团队提出的这种超高效解决抽象推理问题的方法,让机器通过快速迭代和建模,获得了既容易得到又具可解释性的问题解决模型。研究结果显示,该学习模型在多项测试中均超过了包括北大、清华学生在内的国内顶尖人类选手。
在朱毅鑫看来,未来的人工智能更想用小数据。尽管算力可以无限提高,但同等算力的情况下,还是算法更优者胜。而且在一些场景下,只能用小数据,比如样本较少的医疗,还有几乎没有数据的航空航天等前沿领域。
做AI的初衷就是做“小样本”
“图灵对人工智能的论述里描述过,他希望能够创造一个智能体,能模仿人来做各种各样的任务,而且在这个模仿过程中,用比较小的数据,最后在行为上做到类人。这就是著名的图灵测试。”朱毅鑫说。但据了解,目前国内做小样本研究的专家并不多。
事实上,在国外,不论从资助的机构来看,还是从媒体的报道来看,小样本的研究量甚至在某些情况下比大模型要多很多。朱毅鑫提到,做AI的初衷就是希望能做到小样本。小样本的“小”并不是不需要数据,而是希望极大地提高数据的利用率。
ChatGPT走红,是因为它提供了一套全新的范式,普通人第一次有机会接触到最前沿的人工智能。但从实用性上来看,并不能称之为人工智能革命性的变革。这种重算力、轻效率的模式,更像是一场资本的狂欢。
“总体来看,学校、科研院所还是做基础科研,为未来20到30年的技术做准备,时机成熟的时候可能会有产业化的机会。但是核心还是技术预研,做原创、做0到1的研究,这是高校的目标。”朱毅鑫说。