《思想大爆炸——对话科学家》栏目第92期,对话中国科学院院士,北京大学教授梅宏。
嘉宾简介:
梅宏,中国科学院院士,北京大学教授,计算机软件专家。主要从事软件工程和系统软件领域的研究。
划重点:
1. 现在的大语言模型技术路径无法通往AGI,几年内可能会达到天花板。
2. AI还取代不了人类,它缺乏创造力,只能说是辅助性工具。
3. 从科技伦理的视角来看,智能是人类的专有特征,特别是认知能力,我们为什么要去造出一个替代我们认知的东西?
4. 机器没有所谓的什么意识,也没有涌现,它本质上还是把已经存在的内容进行基于概率统计的整理和组织。就这个意义而言,大语言模型可被视为是已有“语料”压缩而成的“知识库”。
作者|郑松毅
编辑|杨锦
近日,第二十一届中国计算机大会(CNCC2024)在浙江省东阳市横店举办。
大会期间,围绕AI大模型发展现状、是否存在“泡沫”现象、以及AI是否将对人类生活构成威胁等话题,与中国科学院院士,北京大学教授梅宏展开了对话。
梅宏直言,“当前的AI技术路径缺乏创造力,无法通向AGI(通用人工智能),更做不到替代人类。从人文和科技伦理的视角看,追求让AI去替代人类本身就是个错误的想法。”
他提到,“除了技术问题,还有伦理道德、知识产权以及产出质量等诸多问题尚未解决,大模型在应用层面还面临着不小的挑战。”
这段时间,大模型战场的炮声变小了。外界疑惑,“大模型的路,还走得下去吗?”
在梅宏看来,“现有大模型主要是靠数据驱动实现,但可见的是,可开放访问的数据已经被‘吃’得差不多了。不难预测,大模型能力的天花板在未来几年内或将到顶,当然输出内容的质量还会不断改善。”
他还呼吁,中国的科研人员应该培养批判性思维,为人师者也应该抱有共同学习的心态。不怕争论,思维碰撞的火花应该再多一些,别怕走别人没有走过的路。
在科技竞技场,很多人把美国看作是“排头兵”,疑惑如何才能找到“从0到1”的创新路径?
梅宏说,“绝大部分“从0到1”的原始创新都不是规划出来的,无前路可寻,基本都是来自基于兴趣去探索未知。”
他指出,中国当下的要紧任务是形成良性的科研文化。“中国在科研领域全面发力也就是不到30年的事,在短时间内能有今天的成就,我认为很了不起。”
以下为对话实录(经整理编辑):
:今天是“1024”,听了您的演讲,我想程序员们可以好好过节了。您说AI替代不了程序员,为什么这么肯定?
梅宏:这是现有AI技术路径的底层逻辑决定的。现在的AI没有我们人类的智能,自然无法取代。当然,未来是不是会出现别的技术路径,有可能走向“替代”,还不好说。
但AI确实能帮助程序员提升开发效率和质量,如推荐代码、代码补全、避免低级错误等。但总的来说它还是辅助性工具,缺乏用软件实现业务需求所需要的创造力。
另外,AI在应用层面还有很多问题没有解决,比如伦理道德、知识产权以及产出质量等。
人类智能是地球上的顶端智慧,也没有那么容易被取代。实际上,在计算机、AI发展早期的主流媒体报道中,“替代”人类的声音一直都有。只不过,早期报道的主角是计算机,也是涉及两个方面:“盲目、过度的高估”和“脱离实际的担忧”。
这些报道放到今天,主角换成AI,仍然可以适用。只是纸质媒体的传播影响有限,远赶不上今天互联网、自媒体时代的喧嚣。
:您也不认同机器取代人这件事儿?
梅宏:从人文和科技伦理的视角来看,去追求替代人的认知、替代人的智能,到底有没有必要?
大家想一想,智能是什么?是人区别于动物的最重要的特征。人为什么能成为地球上生物链的主宰,成为地球的主人?就是因为他的智能,他的认知能力,归纳演绎等逻辑能力,还有我们的语言。
我们为什么要去造出一个替代我们智能的东西,进而让出我们地球主人的地位?
我个人是反对追求AI取代人类认知的。我们应该是把它视为工具,来帮助我们做好各类事情,提升做事效率和质量。
:但是现在产业上已经在做了,机器越来越强大。
梅宏:AI技术确实进步很大,但其中炒作和泡沫也很多。
我还是想从科技伦理的视角来看这个问题,智能是属于人的。现在满社会都在炒作“智能”,似乎人类做的事已经不是智能了。
举一个例子,很多“设计”均属于人类的智力创造性活动,当然用计算机辅助设计无疑会大大提升效率。但现在很多人只提所谓“智能设计”,实际上它只是“AI设计”。AI设计是“智能”,那人的设计是什么?
:今年听到很多质疑的声音,说大模型越来越“吃”算力,训练的数据也面临枯竭,您判断大模型未来的三五年会怎么发展?
梅宏:我们应该看到,目前成功的两个领域都是因为有了大量的数据:一个是自然语言文本,人类数千年来,通过语言记录积累了海量的文本资源,在互联网上能够公开访问的文本语料是大语言模型成功的重要因素。大语言模型实际上是压缩了人类已有的可公开访问的绝大多数知识。另一个就是文生视频,互联网上已经存在了海量的视频数据。
但是到别的领域就没有那么多数据了,这是当前大模型应用落地面临的最大问题。当然,也还有其他障碍,如模型行为的不可解释性导致缺乏可信性等。
很多人问我行业AI应用怎么推进?我给出的建议是,面对AI技术发展现状,如果对AI的落地应用有所疑问和彷徨,那么,积累数据——可采尽采、能存尽存。
我非常认可当前AI技术的进步,但我反对过度泡沫化。当前的AI仍处于Hype Cycle的高峰阶段,喧嚣埋没理性,对成功个案不顾前提地放大、泛化,以偏概全,甚至神化AI的预期效果。我以为,我们需要一个冷静期。
我也认为,沿袭当前的技术路径,AI的能力“天花板”已隐隐可见。
:天花板在哪?
梅宏:很可能就在几年之内。这里我指的是大模型能力的天花板,模型产出内容的质量还是会有不断改善。
:您提出理想的AI应该是低熵的,这种理想它存在或者有可能实现吗?
梅宏:这是个理想。我只是觉得现在的模式熵增太快,过于耗费资源。以当前可以看到的发展路径,离这个理想还有很长很长的路。
:您认为大模型能否通往AGI?
梅宏:我认为不可能,现在的大模型不可能。这是其技术实现的底层逻辑决定的。
它覆盖的知识量大面广,确实是我们人类比不了的,但要想达到所谓的通用人工智能,当前技术路径应该是做不到的。
当前的大模型严重依赖数据和算力,但实际上可开放访问的数据已经被用得差不多了。当前大模型的竞争已经成为“数据工程”的竞争。
我还想再次表达我在今年9月的《中国计算机学会通讯》发表的文章“对当前人工智能热潮的几点冷思考”中提到的一个观点:大语言模型在未来需要像互联网一样,走向开源。全世界共同维护一个开放共享的基础模型,让全世界共同受益,共同维护,避免无谓的浪费。
在这个开放共享的基础模型上,全球范围内的研究者和开发者可以面向各行各业的需求探讨各种应用,构建相应的领域模型。
:您相信机器会产生意识,产生思想吗?
梅宏:我不认为现在的AI有什么所谓的意识,我也不认为它有知识涌现能力。
从基本原理来看,大模型是基于“概率统计”,将如图像分类或文本生成等任务建模为概率模型,将数据的分布或生成过程表示为概率分布函数。神经网络能够以任意的精度来逼近这些概率分布函数,从而构建这些概率模型。
就这个意义而言,大语言模型可被视为是已有“语料”压缩而成的“知识库”。生成结果的“语义”正确性高度依赖于数据的空间广度、时间深度以及分布密度,更高度依赖于数据的质量。
基于当前的技术路径,大模型不可能“无中生有”,做出超越人类预期的事情。
不过,大模型可以产生基于内容“基元”的新组合,虽然它本身并不知道该“组合”的含义。这种组合有可能是某种“知识”,也有可能是“幻觉”,这就需要人类专家去验证审核了。
我还想再强调一下,这也是我前面提到的文章中的观点。当前主流的AI工作机制,与人类大脑的工作方式仍相去甚远。我们不应该过度使用类人的术语来描述机器,比如“意识”、“心智”甚至“硅基生命”等,很容易在公众中造成误解。
我个人也特别不喜欢“硅基生命”之类的提法,说重一点,这是对生命的不尊重。我们不要忘记,真正的生命是地球上的生物,包括动物和植物,而我们人类则是其中的主导者。