欢迎收听晚点聊,我是曼琪。这期是晚点聊的一个新系列Long Context 长语境的第一期。类似于现在的大模型需要Long Context,我们每个人去学习理解智能,也需要一个更全面的历史语境,让我们能在新东西不断涌现的此刻,找到一个更稳定的坐标。
Long Context 的系列就是希望结合不同从业者的亲身经历,去多角度展现人工智能的历史。在这个系列的开端,我邀请了香港大学计算与数据科学学院院长马懿教授来与我们聊智能和机器智能的历史。马懿本科毕业于清华大学,2000年在加州伯克利大学获得博士学位,先后任职于伊林洛伊大学香槟分校、污染亚研院、上海科技大学、伯克利大学和香港大学,是人工智能和计算机视觉领域的全球知名学者。
最近五年,马懿自己关心的课题之一就是智能的历史。为了在港大推动面向所有学科本科生的AI通识教育,他也在撰写教材设计课程,对智能的发展做了更全面和深入浅出的整理。马懿对智能有一些少数派的理解,比如本系列的名称“Long Context”。当作为一个技术概念时,马老师认为,与其一味追求预训练模式下的更长的long context,更好的方式是找到一种机制让智能系统有闭环的、长久的并且不会遗忘的记忆。
这些理解本身与他对智能历史的梳理和认知有关,智能是如何在地球上诞生的。马懿认为,生命就是智能的载体。从DNA出现到神经系统诞生和寒武器物种大爆发,再到人类的语言与数学的诞生,智能有不同的表现形式,但不变的是,智能都是在学习外部世界的知识与规律,从而进行预测,使知识可以为我所用。
智能是在寻找规律并利用规律,是一个与宇宙的商增截然相反的过程。从智能的历史,我们接下来聊了机器智能的历史。大部分人会把1956年的达特茅斯会议视为人工智能的开端,而马懿认为,对机器智能的研究要追溯到1940年代,维纳的控制论、香农的信息论等更早的源头。从那时到现在的80多年里,机器智能的发展几经起伏,马懿也分享了自己亲历的部分变化。比如他刚博士毕业时找不到对口方向的教职,他现在被引用最多的成果一度没有任何会议愿意接收。
我们还聊了一个研究者的技术品位如何形成,品位不仅是一种认知,也是认知被挑战时能继续坚持的自信。马懿的技术品位使他进入了一个目前在AI工业界的眼中并不那么主流的方向——闭环反馈纠错的机器智能。这两个方向在我们去年与马老师的访谈中有更详细的展开,具体内容可以听晚点聊的第71期节目,相关图文报道我也贴在了show notes里。
为了加速这些方向的探索,蚂蚁也创立了一家公司——艺生科技。最后说一些声音上的注视。本期中多次提到维纳的Cybernetics,它是指洛伯特·维纳提出的控制论。本期也多次提到了闭环系统、闭环反馈纠错机制。简单来说,闭环是指一个系统能自己知道自己学的是对还是错,这是生物界智能的机制,也是目前还需要人来做预训链和标注的大模型尚不具备的特性。
下面我们就正式进入本期节目吧。因为上次和马老师聊是在去年,然后最近的话就是想聊一下新一年,我觉得AI领域有非常多的变化,当然可能您对很多变化的视角跟一般人也不一样。另外就是我觉得上次有一个没有特别展开的主题,就是智能的诞生过程,包括可能自然界的智能,也包括机器的智能。
还有一个就是跟这个话题有延展的,就是我想跟你聊一下技术品味(taste)的形成,因为我觉得这是我最近和很多技术人员聊的,大家在一些未知领域的很多判断,来自于一种长久积累的品味,或者叫直觉也好。而且它不仅仅是一种认知,而是当你的认知受到挑战时,你还是愿意去相信你所相信的东西,我觉得那才是真正的taste。
最后可能想聊聊通识教育,因为上次聊的时候,其实你们在港大还没有开始,但有一个计划,对吧?想给所有学科的学生,包括社科文科都有这样一个计划,如果这个有进展的话也可以聊一聊。实际上那件事情跟可能第一个问题都是有关系的。
对,你第一个问题主要是讲这个历史,对不对?我今天刚刚在清华,这是在北大,今天来两天,我和北游也回去,最近在书里我对智能的认识也是在过去几年,这个七八年,包括最近这一年都在不断丰富和完善,也是因为现在某种意义上说大家对AI很感兴趣。学校也在有很多需求,要对研究生本科生教育的要求越来越多,甚至是高中生初中生的这种科普,甚至大众的科普,所以我们觉得是越来越需要做这个事情。
正好我们可以从这个源头开始聊一聊,比如说您觉得智能的本质实际上是什么?然后我们怎么理解现在的机器智能在我们去探索智能的这个过程中带来了什么阶段?实际上这个观点我们早就有了,因为过去在Berkeley的时候与原来做神经科学的老师,对智能的起源,不只是机器智能的起源,智能的起源有了一些理解。只是最近,因为有这种科普的需求,让更广的科学的、有学文学的、社会的背景的都了解智能道理本质,所以我们做了一些整理,我最近也在做一些讲座。
实际上某种意义上说,生命就是智能,这个可以讲讲。今天就像龙先生上次在香港有次聊天,听到陈修先生非常看重这个问题,他觉得这个世界上有两个问题值得研究,一个就是物理,研究宇宙的历史、起源,另一个就是生命,更多研究生命的起源。实际上从现在看来,从某种意义上说,智能和生命实际上也应该是智能的载体,就是这种机制的载体。
这就涉及到起源,而且跟现在大模型有点关系。实际上智能本身就是在不断学习外部世界有规律的东西,能够对外部世界进行预测。我很喜欢的一个quote,金总我记不住,大概是在说,整个宇宙发展的基本规律就是它的熵在增加,它的状态在增加,热力学第二定律,封闭系统的熵是不断增加的,因此世界变得越来越混乱、越来越混沌。但是生命在这个过程中是反其道而行之的,智能实际上是在这个过程中找到还没有完全不可预测的世界的规律,并且反抗熵增。我们要在这个过程中找到可预测、有规律的东西,有结构的东西。
那么这方面其实还很有趣,这跟我们对智能的理解就是,实际上生命就是在利用这个世界上很多可预测、有规律的东西,而不是随机的,找到这些规律来做事情。所以生命最早是怎么把这些知识编码的呢?就是DNA,对不对,遗传物质。
所以我觉得可以这样去理解,大家很简单去理解,现代大模型实际上就是DNA。DNA就是这个世界上最早的大模型,早期的生物对外部世界所学到的知识的一个编码记录下来了。通过核糖核酸这样的结构,对吧??非常有规律地记录下来,跟我们的语言很像。
那么早期它是什么阶段的生物呢?单细胞生物,甚至是还没有什么细胞。对不对,早期的生命出现后,从DNA出现,有机物出现以后,就是它是很初级的生物。
对,而且这个过程非常长,大概是30亿年。就是这种简单低等生物完全靠DNA的继承,父母继承下来的,上一个细胞分裂下来给你传授下来的,叫遗传物质。这是父母给你的。那么它是有进化,它的智能体现在哪里呢?智能体现在它的变异,自然选择,适者生存。这就是强化学习。
所以你看看早期的大模型靠什么进展?强化学习。对不对,实在是自然界就给你的奖励,你变异得对了就活下来,变异得更好就活得更好,变异不对你就一将功成万古苦,整个物种都被wipe out。
所以它有一个新的生命诞生,就好像是预训练的这个,得重新训练一般。它不是在这个里面,会持续的去学习。但它在过程中会有随机变异,分裂过程中会有些随机变异。
所以这叫在生物学上叫phinal genetic evolution,就是物种进化。物种与环境形成闭环,它有智能,它在找到不断改进自己对外部世界的知识,对还是不对,或者增加对外部世界的知识。当个生物个体没有智能,物种的通过进化再实现一种智能的机制。
到了大约5.5亿年前,这个时候开始出现生物个体,出现了不起的事情,出现了神经系统,出现了视觉。马上在寒武纪之后就出现了生命大爆发。出现什么事情呢?就是说个体开始除了从父母继承的这个大模型,它能形成自己的memory,从外部生活的那个具体环境产生自己的新的记忆,而不是父母接到的。
对吧,通过视觉、通过感知、甚至触觉,它能够形成自己的事情,它能适应环境,个体开始产生记忆。所以你看个体的记忆,就是在DNA之外,对外部世界的一个模型、一个编码。
对,它也是通过它的神经网络记录下来。它不再通过DNA记录下来,对不对,但它只属于个体。但是个体确实能更好地适应,在出生之后,它能够对特殊环境适应得更好。所以寒武纪的出现实现了个体的生存能力大大提高,而且物种变多了,各种不同形态的物种。
它几乎所有的变量,只要有这种能力,它的适应力都很高,不然以前完全变得稍微不好了就死掉了。但现在个体的生存能力更好,所以让它的变化也变得更加容易存活,更加容易产生更多的物种。这里面有关系的。
那么到了后来,对不对?就开始出现人。你也看到在这过程中,从DNA等生物到高等生物,再到爬行动物、鸟、哺乳动物,这个过程在进化,你会发现一个有趣的现象,随着生命或者智能的形态越来越高,个体在出生之后和父母的时间越来越长。是什么原因呢?就是说它越来越不依赖于预训练的大模型,越来越依赖于后天的学习,后天建立起来的memory,父母教授它的东西,或者在特殊环境中学到的东西的重要性。
从早期的鸟基本上三个月就得跟父母飞,哺乳动物基本上都是半年到一年,猫科动物最长两三年,猴子五六年,人就是十八年,对不对?你可以想想,这个很简单的一个事实。实际上人的随着智能形式的提高,反而是越来越不依赖于预训练的模型,更多是这种后天的memory。
那么到了人的出现之后,又出现一点了不起的事情,人开始出现了比较系统的语言,可以交流。它大大提高了获取外部知识的效率。比如说我找到哪里有谁,学到哪些知识,你不用再去跑一遍,我告诉你就好了,对不对。这大大提高了实际上一个群体、族群、群体或者一个社会获取外部知识的效率。
原来每个动物(甚至猫)记忆都要建立,每个猫科动物是完全独居的,但人群居,产生语言就变得非常重要。它大大提高获取外部世界知识的微观建模的效率。因此才产生了语言和文字,您可以认为文字几乎才是文明的起源。语言记录的就是人类收集的知识,而语言。而且不光是我们可以交流,我还可以传授给下一代,甚至从农书上语言文字起到一定DNA的作用,原来的所有上一代的知识,上一代获取的世界模型还要通过遗传物质,但现在通过书本、通过组织好的语言就可以传授下去,一代一代,造成了文明发展的速度大大提高。
就不会是原来的单个物种死了,这个猫死了,它的所有记忆学校的东西全丢失了。从语言开始,是不是也开始了更多幻觉。DNA并不是没有幻觉。
幻觉这件事情,首先就没有一个好的定义,对不对?到底是这种随机的,哪些是好的,哪些是坏的。我刚刚想到那个点,其实我想到的是,因为DNA最后就是个结果,你生存或者不生存。我们在对知识的应用过程中,哪怕你的encode的知识很精准,但应用过程中都会有很多不确定因素在里面。对不对?它不是所有的知识都像数学一样deterministic,那么确定性。很多的知识是一种甚至是概率。
对吧,明天有可能下雨,但很有用,这种并不是说明天一定下雨。或者这样子,但很多的知识,尤其经验知识,都是以这种形式存在的。包括中国以前的皇帝,我不需要刘顿定义,也不需要这些文明方程,我同样预测天象什么,还是挺准的。虽然会有一些小的误差,但你说这些误差就是幻觉也不对。
所以这里面对这件事情,大家不要过分解读,什么幻觉就是,因为它没有一个科学的定义。现在一直到人类文明、几千年前,它都是文字记录的,还有语言,或者文字记录下来的知识,实际上大部分还是对,我们的经验总结下来的规律。对,它不是以非常抽象、精准、科学的语言描述出来的。
但是到了三、四千年前,一些很有趣的事情发生了,一些哲学家、数学家,无论是希腊也好,可能在中国或者印度,这些文明开始出现了一些抽象的概念。发现一些经验的,数数12345678,数下来就发现能到无穷。可以出现了自然数、一个抽象概念,甚至分数、时数、虚数,甚至出现了抽象空间的概念、点线平面,抽象的概念。这些从我个人来看,都是不是从经验来的,它是甚至今晚的东西的升华,但这个升华是怎么产生的,这个机制并不清楚,到今天也不清楚。
到底是人的大脑出现了什么原因、什么机制,使得大家能开始从纯经验的知识里面抽象、概括出高层次的抽象知识,至今并不是很清楚。所以你这么看,从原来单一个体的物种智能的进化,通过基因变异,到后面个体的大脑、神经系统、记忆的出现,到文字的出现,到数学、类似数学的语言,科学的语言,这四种都是对一个智能体学到的外部世界知识的一种表达形式。
从这个角度,它是统一的,只是介质不一样而已。它都是对外部世界知识的一个可预测的规律性的东西的总结和记忆。是这么来的。而且这四种机制不太一样。第一种进化是靠reinforce learning,强化学习。对不对?自然淘汰选择。第二种是靠个人自适应记忆不断纠错。
我们最近在说的也是一种闭环反馈的过程。它不是靠强化学习的,优化机制不太一样。它不是做back propagation,而是基于反馈自换。第三种那么就是文明的发展。对不对,靠语言、文本,把这些值得传递、值得交流的知识记录下来,实际上这一部分知识,实际上是我们每个人学到的外部物理世界世界模型很小很小的一部分。
我们大脑只有前额一点点在处理自然语言,绝大部分在处理视觉信号、触觉信号、声音、其他的物理信号,或者是我们的小脑在处理运动相关的控制我们肢体。这方面你可以看到,实际上即使是语言,那也只是人类在一生中或是学到的外部世界物理知识的一小部分。
那么当然,科学在把这些知识高度概括、抽象、理念,变得非常严谨,但科学我们也知道,科学理论也是可以被证伪的。对不对?也是要不断改进的。处理数学公式的大脑部位在哪,也是语言附近,逻辑语言附近,都是在那一块,实际上并不多。
要求的处理的,知识跟我们可能视觉的记忆,处理你看我们视觉也好,触觉也好,听觉也好,它的信号的量、信息量是非常大的。多少,几百万个bit per second,对不对?那么到了大脑最底层,基本上就变成十几个bit per second。就它高度灵练之后,它只把真的需要的东西体验出来、记忆或者修改、或者预测等等。
所以这就是我们的理解过程。哪些信息关心的信息提取,然后高度的简化,然后把它记住,或者纠正我们以前记忆中不足或者是不对的、不完善的地方。这是智能的最重要的一点。
所以你们可以看到,整个过程你发现,智能跟有一件事情一直分不开,就是知识。对外部世界的知识,原来在DNA到记忆、到文字、到最后的科学,但是知识本身并不是智能。智能,知识是智能活动的结果,有能力获取外部通过观测到的信号,获取这些信号所描述的外部世界规律的这个能力才是智能。
所以说一个系统只有知识,它只是个知识系统。如果没有更新自己已有知识,或者增加自己已有知识的不足机制的话,它是没有智能的。所以现在你这么也可以理解,是DNA这个链条本身没有智能。不管它的模型多大,多么大,它本身没有智能。无论它已经扣了多少、记录了多少已有的知识,它本身是不存在智能的,只有它在被更新,被重新更新,或者改进这个过程,整个系统才会有智能。
就是大模型本身没有智能,但是这些人结合OpenAI的工程师不断改进,这个系统是有智能的。明白吗?就跟对吧,单一的物种是没有智能的,尤其早期的,它不断变异以后再被自然界选择,这个过程,整个系统闭环以后是有智能的。如果就是以现在的机器智能发展的阶段,去类比你刚才说的自然界产生的智能,这四种阶段,或者说四个机制,现在主要就是处在第一阶段和第二阶段吗?
主要还是在第一阶段,现在在朝着第二阶段来走。就是说我们现在如何再去能够自主上。这也跟我们最近工作很有关系。就是说怎么让真正的系统能够在有了一定知识之后,有一定技术以后,它能够更新,自主去改进自身的记忆和知识,就是朝着第二个阶段走。
其实我们去年也聊过,您一直在做的闭环反馈纠错的机制,学界的一个共识,大家都是在往这个方向走吗?还是这其实也是目前探索的众多方向中的一种。早期的机器智能,我们知道从Cybernetics开始,就是闭环反馈,就是控制论的起源,机器智能的起源,大家就已经意识到这是最重要的机制。这不是我们发明的,这也不是我们最早意识到的,就是自然界的从早期的先显,人家早期研究智能的时候就发现,任何的智能系统都是闭环反馈的系统,都是通过闭环反馈来纠错。
尤其是他们在研究动物的时候,早期的智能研究都在研究动物,研究动物的时候就发现,基本上高级动物都是以这种闭环反馈的方式来改善自己、纠错、来学习提高、获取外部世界知识、提升决策能力的,都是这种机制。
所以这不是我们现在其中的一种,整个我们自然界决定的。这是最重要的一种,可能就是唯一的一种。这个也是我想问的一个问题,因为其实你刚才说的这四个阶段,这四种机制,是否存在一种可能会有一些别的智能机制,它跟地球上的生物不是一样的机制?
有可能,但是这时候我就说,真正理解智能要有个严谨、有言之的定义。就是说一个真正有智能的系统,它一定是能够自主地获得、改善它已有的知识,或者改进它已有知识的能力。获取新知识的能力,从这个定义来讲,它就描述了现在自然界的智能是怎么进展的,第二有没有实现这种机制,但不是靠自然界已经存在的这种优化,或者这种筛选、进化的机制有可能。
对吧,自然界大浪淘沙,它做到的很多系统已经是不错,但它未必是最终的极致上的最优解。对,我们现在不知道它是否自然界的选择方法有更优的、更加高效的,甚至有其他新的机制。但不管怎样,比较简单的道理就是,假设从这个意义上来讲,生命出现在宇宙其他地方也是非常有可能的。那智能能出现也有可能。
它会未来能对抗伤增吗?就是智能,达到一定程度之后,它得用外力,一定要用到资源,要用能量。对吧,要去伤减。你看为什么现在要烧那么多、几十万张卡呢?对不对?你看我们生成图像,从造成开始,慢慢压缩去造,但这过程中去造的过程就是在伤减的过程。
伤减要让最后你得到的数据,或者这个系统伤减,你是要把能量注入进去的。生命能量必须要来自于某个地方。但是对一个封闭系统,它没有外部的能量输入的话,真的伤势一定会增加的。对不对?我们是在用其他的能量,比如说我们把电、其他地方的能量烧火,对吧,然后在芯片上把这些图像整理的好。这是一个不封闭的系统。
所以我们是要用能量消耗能量去找到规则,让我们东西变得越来越规则。对,就是让一个无序的东西变成有规则的东西,生成图像的diffusion denoise model就在干这个事。
那么如果宇宙就是我们现在观测到的,它没有一个外部的力量,它就是伤不大变大,然后最后所有的规律都消失,没有规律可供你学习,变成一个完全随机的世界,这还挺像一个电影里的台词,就是《银翼杀手》里面有一个很经典的台词,就是说“All those moments will be lost in time”。
对,所以时间就是一个伤增过程。你知道时间的定义,实际上就是说,熵的增加,让宇宙有了方向,才有了时间的概念。就是说这是赫金讲的,时间的定义就是从有序到无序这样的一个过程。那么正是有了熵增这个方向,给了宇宙方向。所以时间是有方向的。
所以人类去探索这个智能机制,可能在整个宇宙的历史中间,它也就是一个瞬间,是一个过程,在这段过程正好,很多的东西我们生活的,尤其地球这个环境,很多的环境是可预测的,包括气候、化学的组成成分等等。是分得很清楚的,有水,有空气,对吧,有了这些东西,才让我们有了生命的可能。
我觉得这正好可以从刚才讲的整个智能诞生的过程,我们来到机器智能。就是你也说现在你们在探索的,就是从第一阶段到第二阶段,这个智能的机制,其实就是最开始大家想研究智能时提的方向是对的,就是大模型。我觉得我们只是当时,实际上40年代,对这些智能系统的研究动物也好,智能也好,他们已经看到了智能系统所具有的必要的一些特征,才导致了控制论、信息论、对策论,甚至是现代计算机体系结构的发展,以及神经网络的数学模型,都是在那个年代去研究这个智能的这些特征,才发现神经网络的特点,数学模型,才发现它的机制。
闭环反馈是生物界去改进学习、自适应的一个最基本的机制,才知道信息论,我们的大佬要去对外部的世界的有用的信息如何进行编码解码,才导致了对策论。当一个动物处在一个未知环境中,一个甚至是比较复杂的环境里,如何去提高自己的决策,通过试错、通过博弈去提升自己的决策能力,实际上就是因为到了40年代的蓬勃发展,才导致了真实的例子,这些间接上也影响了图灵去想。
那么如果这些机制,关于动物层面的生物层面的这些智能机制,现在至少这些已经当时都知道,怎么去集成他们,但都知道这些都是已经观测到的现象。所以图灵就在想,那么如何把动物和人分开呢?
所以他才提出来了50年才提出的图灵测试这个概念,如何当机器聪明到什么程度,我们把它和人分不开。就40年代,首先开始的一些人,所谓年轻人,应该是为了响应该呼召,才开始研究,所以人和机器不能分开。
那么这些人,主要就研究一些高度抽象的逻辑、符号性问题,做问题解决能力,但这些东西并没有给出有效的理论或者实现的路径。慢慢地大家发现这些问题看到神经元的模型提出,大家也在脑神经网络,或者趣事神经网络,大家意识到,它虽然有了一些模型,但是经过长时间的实践,发现做得并不好,所以在严格的科学方法上,这也在短时间内没有太重视。
在短时间其实大家就是发了一些图、发了一些实证结果,大家只是对于这个图论测试,至于机器如何获得智慧,大家都没有好的定义,当然相应的那些研究者自己也面临瓶颈。大部分最终就是以一个发展循环总结,而且最终是一个一个的短视。大家其实都想去改变这类问题,甚至也愿意探讨。
你要出头,当然也需要一些对的方向和工具,对,所以您觉得未来的方向是什么呢?对,比如说您觉得机器智能在未来的发展,您想更多的看到一些什么。对于当今的机器智能,您对于它是否有信心,有点保留。对。大家可能认为现在大的模型的效果,确实一直在进步、不断提升,但是发展上也容易出现周期的波动。我觉得这也是二十几年没有实现,并且潜在带来的风险。
一个会觉得好像大家已经得到到了更高的认识,比如说是不是得更好的塑造力或概念的能力,但我认为更多的可能还是在工程层面上再提高,比如更高的Rodney brooks大两家功法,更加工程化。可能我们不会太快看到的,所以心理预期可能还是要管理一下。
因此整个过程可能就值得看,生存的本能,当然理论是更重要的,学术价值高的。整体希望有一个从实证到理论的探索,将来可能才有更高的期望,这某种程度上也是希望可以从研究中发掘一些潜在的可能。对对。 每次我跟他们说 你们在讲课的时候 注意讲清楚技术的边界 哪怕他是一个程序员 对吧 你不能把每一次演讲 都当成宣传 我真的觉得特别痛苦 因为你面对的是 希望有人能说服他去投资 或者怎样 你特别要注意 WHAT IS THE TRADE-OFF 对吧 你自己的技术的边界是什么 但很多没有清楚的东西 是完全不一样的 所以我觉得在这一段时间 我们就刚刚兼职 所以我觉得这个经历 也蛮有意思 所以你也不可能因为学术圈有这些问题 学生的教育不一定关注这些问题 而且有句话说 其实你教会这些企业家以后 你可能对你的学生也是有帮助的 我觉得尤其是我们也有些 年轻人来这边 是我们学术界里 这一块的知识也相对少 我个人觉得有趣的就是 现在的很多决策者 其实也是比较年轻的 45岁以下的管理者 他们来自不同的背景 原来不懂的事情 现在也愿意学习 所以其实我们在AI普及的时候 其实也能让这些企业家 或跨行业的人 理解这些新技术 有助于他们对行业的思考 也能够带动他们自己的变革 这是一件好事 所以您觉得品味在科研领域 和其他领域的商业人才对比 有什么性质上的差别呢 我觉得品味是相通的 在一定程度上 包括在商业上 你得对一些趋势有预判和了解 所以技术品味能帮助你判断 在某个方向上 是否应该投入 很多人缺乏就是在这个过程 没有抓住这个机会 很多也不是看好 但都有的 known unknown 有部分是 based on evidence 基于实验和很严谨的东西 所以我认为,技术是要有实践 不要看单一的文献就感觉OK 而是要对他有多方面的了解 所以对于领域是有的 我觉得这也是为什么 我觉得品味是有选择 很多人可以有选择的意识 但是在商业决策中 要看商业回报 这是决定因素 再加上对他所在行业的实战经验也是很重要的 如果他们的技术品味不足 可能在决策上就会面临一定挑战 这也是需要基于知识积累的过程 培养他们自己暴露在不确定性中的接受能力 所以尝试把新技术应用于实际的情况下 才能有认知的提升 所以企业适应变化的能力往往是非常重要的 与学术界并不完全一样 这也是在实际过程中 对这些企业家所进行的理解与积累 所以对于这项技术 是需要不断的总结和提炼出好的经验 而不是缺乏对技术的基础认识 在面对新的平台和商业推广中特有的情况 这也是原因之一 再者商业节奏基本上大公司有很大的局限性 转型往往无法在决定上作出及时的反应 而且商业决策是一个复杂的过程 再加上其本行业需求的技术跟没有掌握的新技术之间冲突 而且这个过程中是需要借助很多工具 甚至需要新算法试错 企业需要有一个固有的策略
所以兼顾了品味在科研与商业当中的绝对关系 要有一定兴趣与认知的积累 才能在快速变化的市场上应对挑战 始终保持在一定的技术前沿 如果没有这方面的东西 在领域之间没有出众的理解 所以能够更好地实施产品和技术布局 学习补充知识与转型为核心 尤其面临常态化的不确定性 至关重要 但这需要时间才能形成 这也是不容易的事 为了形成这种观念 往往需要面对风险与挑战 最终带来企业与个人的成果与反思 这对于未来的认知与实践总结也是推动力 因为我们老师从来没面对这样的 audience。虽然他们的素养肯定比大学生可能要好,他们有很多的经验。他有很多社会经验。这些人的判断能力也很强,所以他们接受一件事情的这个 bar 也很高。
那我就说我们的年轻老师,这些很多老师,你去讲,那就好啊。我觉得这是 challenge。他们一天自己流鼻涕的,觉得自己要 change the world。他做了一点什么事,觉得我做的东西了不起,那行啊。我说那好,你一下面对 80 个,你给他们讲明白你做的东西的价值在哪里。如果这些人都不卖账,觉得你东西一点用没有,解决不了他的工作,那你在做什么呢?
所以他们对我们的老师准备这东西也是一个 challenge。你把你做的东西能不能讲清楚,你的价值到底在哪里。我们同学员上次有个统计,我们学员加起来的身家可能是好几千亿。大家要一个体调,所以这也很 influential。他对他的行业,他可能的产业都是有很大的影响的。我觉得这个还是挺有意义的。
因为其实他们和一些政策决策之后肯定也是有一些表格的勾动。他们是接触到整个社会,代表了他们的产业。这就是说你看,这只是个例子。所以现在你看,对 AI 的教育可能都不只是针对我们的大学生或者我们的研究生开课,甚至是对高中、大众。
那么这些企业家,我相信以后可能甚至政府,这些真正的,尤其是跟科技相关的 policy maker,他们应该要对这些技术有比较客观系统的认识。正好从这个,我觉得可以聊到更广泛的教育,因为现在港大也是在做这个 AI 的同时教育。其实去年我们聊到的时候是说当时计划要开课,而且你们你也在写一个新的教材,可能是给本科生用的。
让他知道智能是怎么回事,让他理解机器。因为未来我们肯定是要和机器共处的。可以讲讲这个东西的进展吗?港大可能是第一个大学就是说对学生要做同时教育,然后我们有一个叫 AI literacy 的课程。因为原来港大的学生要上两门英文课,一门中文课。
我们现在把英文减了一门,然后把相应的学分,六个学分替换成 AI literacy。现在基本上所有的本科生,所有专业必须上,这是他毕业的要求。大概六个学分就是分两个学习唱,头三个学分是所有的学生上一样的东西,后三个学分可能会是不同的 college,他会有一点 customization,比如说医疗、医学院或者是法学院,或者他可以有一个相对朝着他的方向相关的门课,这是他们这么一个情况。
那么今年这个学期我们已经在 pilot 了,这个春天我们已经做了 pilot 课程,现在有一百多学生选修,就 volunteer 学,这不是 manitory 的。到秋天就是正式上课了,就是今年 9 月所有人就上了,今年 9 月新生、技术学新生就全部要求要上了。
那可以讲讲大家上课的一些反馈吗?非常好。我觉得现在这一百多都是自愿选择小学生的课程,而且当然我们也是第一次来设计这一课程。每一堂课就要花很多精力,一般一门课程你就一百多个学生,对不对?你即使上十几门课,对吧,十几个小时,十几层乘上一百,这是多少学生和 hour。
但你想想,现在一门课就面对了四千到五千个学生,所以它的影响,每一节课的影响是不得了的。它的总体量是远远超过一门课对学生的影响。
那你们第一节课,比如说你们这个课是怎么设计的,教他们什么了?有不同的模块,当然这个课程也是一个,因为是个通识课,主要是一个 overview。我们的目的很简单,第一,学生要对 AI 基本的概念搞清楚,的智能的一些基本概念。第二,历史,我非常强调,你连历史都没搞清楚,包括我们前面谈到的,你们这个历史是从机器智能从四十年代开始还是更早的时候。
实际上这个课程我在教,所以我给了一个包括从生命的智能业讲,智能业都讲。以后还会打磨。另外还会对于就是说讲技术本身,比如说现在的语言模型,概念是什么,基本的概念,但不一定那么 technical。第二,图像处理、语言处理等等,有几个关于技术的,他们所面对的这些工具,生成模型也好、识别,他们面对的人也是整个这些他的后面,深入网络,他们听到的这些耳熟能详的东西,他的一些基本的概念和他在做什么。
本质,给他一些浅显易懂的正本溯源的一些介绍,让他知道这些东西在做什么,的能力,的 limitation,当然还有机器人,对不对,我们怎么机器人,对吧,是不是会把人给毁灭了。
另外后面还会有 ethics,伦理的问题,伦理。那这涉及到像从事模型,模型也让学生们以后你们应该怎么去正确的面对和使用这些工具。到个人,那就用考试作弊、抄袭、是什么概念。
当然这些概念到底是怎么去理解,涉及到以后的 copyright、隐私保护,还有以后这个 privacy 等等。还有安全,因为港大的学生以后都会是这些社会的一些精英,对吧,会到一些 policy making,他们必须要对技术要很好了解。
那么相关的法律、规范,应该怎么去理解这个问题,怎么看这个问题,还有这些模块。所以整个是会给学生们第一了解历史,了解概念,第二了解当前的技术,第三了解现在这些技术对他们个人的,乃至或者他们对他们的行业的影响,甚至对社会的一些可能带来的一些影响。
当然现在很多问题我也跟你们老师讲,我们现在很多问题没有答案,但我们的课程要起到的作用是让他们去比较批判的去看,他要想这个问题,而不要人予阴云。对不对,看到自媒体上什么,对不对,别人说什么。
他要自己要找过,学会去掌握证据,找到自己的论据去形成自己的观点,然后去接受这些东西,而不是现在别人告诉他是什么,这个东西什么都能干,这个东西什么都能做,这个是安全的,或者现在就要管,开源不行,这个危险等等。
所以他们必须要通过这样的课程,一方面了解,他引进客观的东西,系统的东西,历史的东西,另一方面就是对于将来,他们要有这种能力去判断。
所以你看,传授知识到本身并不是很重要,实际上最终我们的目的通过这些历史,通过这些看法,主要是还让学生能提升他们的判断能力,因为技术以后还会改进。对不对,同样的炒作还会再出现。
我即使把现在的解释清楚了,对吧,他自己没有自己独立的判断,他以后还是会被大家误导。所以这一点是我想通过这个通识课程,不光把 AI 讲清楚,也通过 AI 这个话题,让同学们意识到,它的独特性带来了很多,实际上是蛮好的,很丰富的一个话题,让学生们学到很多综合。
甚至还有艺术,对不对,像你看包括我们讲到的这个,为什么要把历史,你看光是生命,那都是学生命的学生,学 neural science 的学生,甚至学物理的学生,他的可能,他的专业跟智能这件事发生什么碰撞。
那么学到 ethics 这个事情,那些学人文科学、学法律的、学艺术,学 generative AI,那么学艺术的,什么叫创造,版权,你怎么去看这些事情,那你以后音乐家、画家,你以后在这边办什么角色,这个技术是帮你还是跟你竞争,等等,你自己去看。
所以整个这个课程就是让整个港大,不管你是哪个专业的,只要 AI 跟你的这个专业有些信息,对你个人也好,对你这个领域也好,帮助他们去思考怎么去做这个事情。
而且这个内容,我也跟我们老师讲,每一节课都有一个团队在后面,不是一个老师教。每一节课每一个小时的课,是好几个老师来设计,来共同来打磨。而且我说这个内容不是说这次教了,拍了教以后就教同样的东西,绝对不是。
每一年可能这个内容都要 update,它是一个完整的,就是让我们的学生每一群的学生都要了解最新的 AI 发展的现状,然后对他的理解,这样子是起到这个效果。
所以他最后的授课形式是你们这个学院,就是香港大学计算与数据科学研究院,好些老师一起来合作,一起教的。可能不同的课是不同的老师,第一门课是我们主要在传接,但我们也会 involve 其他系的老师,包括一些机器人,我们还会有 WE 的老师,其他系的老师我们都会 involve。
主要是这个事情,就是头三个学分,基础的技术的介绍。整个是我们,而且包括 ethics,我们还有来自于法律,还来自于哲学的系的老师来传授。所以它是整个,我们是 host 一样,但我们是在 coordinate。
至于第二个三个学分,第二个文科,就会招一专业,我们可能就我们学院要跟其他的各个学院共同来开发,比如针对医学健康。那么这些我们要传授哪些,第二部分就是比较各个 faculty 或者 college,就专门去抵扎这个事情。
因为您已经在春季,就是有市上这个课程,有一百多人,这一百多学生,他们会提一些什么问题,他们和您互动,关心什么好奇什么困惑什么?很多了。
但是第一年的学生,因为他是志愿选的,有一点 bias,对不对?这些学生第一要门,很可能就是对这个事情非常感兴趣的,因为他不是必须要必修课。还有很多大部分是可能比较偏技术 STEM 的人,对不对。
好人为的少一点,所以可能会有点 bias,所以我们会要等到秋天才可能比较一个完整的一个 sense,但目前为止,现在是效果非常好。他们往往会 follow up,想更加深入了解一些东西,很多学生虽然已经都想跟老师做做一些 project 等等。
反正好像打开了他们的思路,有些也不太现实,对吧?他们整个的反馈是蛮 positive,有点像 CEO 的项目。就是目前为止确实 AI,大家都比较关注,而且大家确实理解的不深。
大家可能很多真正聪明的人都还是有这个体会,他还是知道理点东西不够,不系统、不全面,这样的课程他们都觉得比较 excited,知道他能开始一下子比较系统的看到 AI 的方方面面在不同领域的一些影响。
在你们这个课程中间,你们是怎么去描述 AI 和人的关系的样?你怎么向本科生去讲述这个关系?智能本身不是一个犯的东西,对不对?具有不同能力功能的智能系统,我们把它们本质讲清楚就好,然后让他们学生自己去判断怎么去交互。
当然有些工具,比如说你是写作的工具,你到底拿它真的就让它替代你写作业、写论文,实际上对我们老师也是一种 challenge。现在面对这些工具,AI 的一些工具,实际上包括我们很多老师,包括学校,也没有最终的定论。
因为这些技术也在不断的发展,它能力也不断的提高、改进等等。但我相信这个过程中是启发我们的学生去给它不同的 option,给它不同的看法,然后让他们自己去形成。我希望这次让他们自己去形成对这些事情的一些判断,去引导他们,而不是去把一些东西灌输给他们,这个是可能是最好的方式吧。
对,这个确实我觉得 AI 和人的关系,这有点复杂,这可能跟哲学、伦理,包括 AI 未来到底怎么发展都有关系。比如说它有可能自己产生意识之类的。
对,我们在包括我最近,浩克也在讲这个事情。所以知道,不对,目前的东西,对吧,我们知道它就是把这个本质搞清楚,它实际上在做非常机械的压缩、数据的压缩和生成,对不对。
所以就是我们把本质搞清楚之后,我相信现在的同学们知道如何跟现在的 AI 打交道,知道它的本质。这是我们要能做的,但对于未来我们可以展望,当一些智能的机制越来越被发现得更完整、完善,被实现得更完整、完善。
那么这些系统,比如说开始真正有自主学习的能力的时候,他们可以去思考,有了这样的系统出现之后,该怎么去做一个个人,或者做一个社会去面对这样的事情。现在可以把这些话题给讲给他们,但是我们希望他们比较客观看这个问题,而不是说现在就,这就是现在的系统能做的事了。
对,它首先理解现在系统能做什么、不能做什么。我刚说的产生意识,这是一个比较未来的畅想。我们也有哲学的老师想这个事情。那么意识到底是什么,对不对?或者哪怕我们说到的 consciousness,对不对?
虽然我觉得我们可能还不知道,我觉得至少目前的机制都是非常 mechanical 的。这次采访之前,我去看了一下维纳的人有人的用处,但是我没有自己完全看完,我也是让 AI 帮我速读了一下。
它那里面其实也讲到了,它认为未来如果机器对人异化的环境之下,你怎么去培养一个完整的人?它觉得审美是最后的堡垒,它也讲到了批判性思维,还有跨学科的这种综合的视角非常重要。
我们也可以不严谨一点,畅想一点,如果想得更远的话,关于 AI 和人的关系,我觉得现在有两派。有一派就是觉得人类文明是为规矩文明铺垫的,然后有一派是比较人本主义的,就是觉得我们还是要守住人类的堡垒。
您自己如果感性上,您是比较偏向什么?我觉得人有人的用处,机器有机器的用处,对不对?但是智能这个机制,我觉得不会是人所独特的,智能本身就是一种民主化的机制,自然界早就把智能开源了。
我们这个世界上不是人这种动物,还有无数多其他的动物,对不对?而且对吧,人也是一个偶然变成了这个世界的主宰。对吧,在这之前实际上物竞天择,适者生存,对吧,有很多的共同竞争的过程。
所以智能这种机制对于这个自然界来说,它不是一个谁会,只是人目前处于垄断时代,可能在一些形态上比较高级而已。我觉得智能你当我们把它机制搞清楚,很可能就是一个共融。
而且你看我们每个人都有智能,对不对?我们也能学会去共存。我相信对吧,当机器有了智能以后,我们也会有一定方式找到共存的方式。对,这个很难,这个也很,这个可能是需要一些大家去思考的问题。
对吧,到底这个机制智能发展到什么阶段?如果真的现在的机制能实现以后,不过我们经常讲到什么 scaling law 什么的,对不对?现在我们还没有找到正确的该 scale 的。
等这些机制智能实现,就跟人的大脑批成一样,对吧,从小老鼠的大脑到人的大脑,它基本上就是在 scale 正确的东西了。但你可以看到它能力,大大在那些高,它机制可能相似,但它的这个随着这个 scale 上去,它的效率、它的这个能力是不得了。
那么很可能机器规机也好,什么机也好,量子机也好,不管它怎么着了,只要把同样的机制实现的话,它可能是人的大脑的百倍、千倍、万倍。它记忆、它的推理能力,或者它获取新知识,假设我们认为智能就是获取,但它获取新知识的效率,甚至通讯可以远远,机器人之间可以远远超过人,对不对。
那种情况下我们该怎么办,我也不知道。对吧,留给大家去想,这个该制定什么样的一些规则规范,怎么让机器人能够,或者我们还没有说到意识,只是它能够有自主的学习能力的时候,就已经可能会比较麻烦了。
就是您自己做这个事情的动力,包括你们现在做白盒、做闭环、反馈、自主纠错这些机制,除了您觉得这是一个未知的东西,您好奇想把它弄明白之外,您会觉得这个东西研究出来之后,它整体上来说是有好处的吗,还是这不是考虑的首要的问题?
我觉得从我们做科研也好,很多东西还是先把事情了解清楚。对,因为我刚刚在想这个东西的方向性,就是如果它都是一个过程,时间还很长,对不对?在过程中我们还有很多的时间可以做,可能这些知识还是有用的。
那么从我们做学问的或者是,我们还是希望把这些机制搞清楚。至于任何的东西,相信我觉得任何一个技术、任何一段知识,都可以用来做好事,也可以用来做坏事。
所以我们为什么要把智能技术搞清楚?我们要把两件事情分开。一个是这个技术是可以拿来做坏事还是好事,这个技术本身是中性的。比如练钢,你练钢当然有好处了,造车对不对,那你也可以做枪、做刀。不能因为这个技术最终会去拿去做坏事,比如说我们就不能研究把这钢怎么练得越来越好。
这是两个事,就说那么你不该去限制对技术的发展,你该去研究如何去 regulate 那个应用,就跟互联网一样。那智能技术也是这样,这是一种情况。当然还有一些技术,它本身就是有害的,或者是危险,比如说病毒,或者是一些放射性元素,对不对?它本身这种技术,或者是这种就带有危险性,化学等等,对吧?那你就要小心了。
这就是技术本身的研究就要有严格的保护、严格的规范了。就如果回到你们现在的这个研究的话,比如像白河,然后闭环反馈这些,相比去年我们聊的时候,有些什么进展和突破,应该蛮多的。
实际上也是我们也是设计到我们公司做了很多事情,现在我们作为做这个做了一些产业化,也是因为发现在学校做的东西验证,一些方法验证还是比较清楚的。
那么同时也觉得这些机制跟现在的这些 AI 的都也不是很同质化。那么我们现在就要搞清楚,那么这些技术如何去更加在更大的规模,更加的效率提高。这些往往并不一定是学校愿意去做的,比如我要更多的数据去验证一些事情,我要在更大的规模上做一些事情,或者我要去改进效率。
我已经知道方法了,想把效率提高。很多东西是比较工程化的。所以我们过去这一年在这个方面,就是很多的最近的一些工程,在我们公司的网站上也有一些表达。也是跟学校在合作,因为我们还是处在研发的阶段。那么你可以看到,大部分的进展都是跟比如现有的这些白盒,或者这壁环这种系统的机制。
比如在怎么去,如何去大规模的 scale,如何去大大的提高它的效率,或者通过这些原理去把已有的,比如说 Transformer 以后里面的一些冗余的、效率不高的地方给取代掉。过去这一年有不少的这样的东西。而且通过原理,你可以现在把一些比如说训练视觉,现在大概视觉,因为现在视觉模型非常糟糕,原模型还好一点,但视觉模型它也很糟糕,预训练非常不好做。
那么现在的很多的最好的一些方法,Dialog 它就是完全工程化的系统。现在这些原料指导下,我们可以把这些系统大大的减化,而且性能还反而会提高。所以这就是可以看到现在这些技术,现在我们的新的一些原理,已经在对这些真正的下一代的比较能改进现在的实践,已经在开始产生很大的效果了。
因为我看了一些你们最近的成果的整理,是不是你们接下来的一个方向是因为那个闭环,它其实是要在开放的真实的物理世界里面,它是可以去运转,或者它可以去学习的,所以它这个未来是会更多地和巨生这个方向结合吗?
是,确实是这个,这个讲的很自然的一个 killer app。就是我们的,就跟人一样,对吧?一个真正的一个 agent,它应该是一个能够真正的物理世界打交道,而且是一个,这个开放的世界。
我经常有一句话,open-ended system is for a closed world,不管 however big it is,就是不管这个世界如果是 N2N 的,这样开环的系统,它只是能记住一个封闭的世界,不管这个世界有多大,不管是模型多大,它都是一个封闭的。但是这个 a closed-loop system 是 for an open world no matter how small,哪怕小到一个蚂蚁,它面对一个再大的世界,它也是闭环的,它能自己去学习。
所以它实际上是,为什么现在 N2N 的,它不管是多少的知识,它都是 fixed、finite 的,对不对?它没有自己改进,单脑端就不能是闭环的什么,单脑端和闭环是互斥的吗?我也不是完全不造,是目前为止,远程这样实现的方法。
这种目前的大模型这样子的 N2N 去 fintune 去训练,它没有这个模型,它没有自己改进的方法。对,实际上单脑端也是一个业界的非常火,你可以认为很简单,比如说把它想成 DNA,对吧。DNA 就是个开环系统,你爸爸妈妈给你什么就是什么,完全靠 instinct,你改不了,依这辈子已经注定了,对不对?你靠本能活着的,对不对?这就是开环系统。
那你怎么看现在居生智能领域,讲了很多的,我不知道这个端到端跟你刚刚说的端到端是不是一样的东西。就端到端 VLA 模型什么这种东西,有点像吧?他们这个现在技术路线还是通过很多的数据对吧,从感知啊视觉到预言啊到这个 action,在整在一起,的动作,对。
现在反而还是蛮粗暴的,对吧?就是这个方法,你觉得这个可能是不是个正确的方向?对啊,你可以,至少是你就跟坐大飞机一样。你看什么叫正确,对吧?正确这件事情,比如说我们现在的飞机,是不是按照正确,所谓的正确的方向在飞,未必,对不对?动物的从昆虫到鸟,都不是这么飞的,但它能飞,但它也能飞,甚至能载客、甚至能挣钱,对不对?
所以看正确与否是怎么回事,但是不是最高效的,是不是跟自然界的更自然的高效的实现方法,肯定不是。所以这个是我们可以肯定能狠的,但是至于说砸很多的数据,砸很多的算力,对吧,很简单,出发去实现,让这些机器人的性能有些提高,这个可能还是可以的。
对,因为其实去年我觉得白河,我们是聊的比较多的。我觉得那个概念可能是更相对容易理解一点,实际上就是本来的 Transformer 这种结构里面,它从高维的东西到低维的东西,它这个压缩过程里有很多经验的,是试出来的冗余的东西。
然后白河其实是找到它的一个更底层的数学解释,我可以把冗余的去掉,可以让这个效率提高。但是我觉得去年聊的时候,实际上闭环反馈、自主纠错这个机制,我觉得那个时候我感觉是比较模糊的,就这一块有些什么进展吗?
这块我们现在在做不太一样的东西,我们先是把这个模型的简化和效率提高了很多。那么现在呢,我们实际上是已经不太局限于这个了,我们现在是很希望,就是现在你发现,现在这种,尤其这种开环,哪怕是现在这种单一的单一的模型来实现这种 Incolin Decolin 来实现这种闭环,可能都不是最优的方法。
那么至少不是自然的,我们的大脑不是一个环,而是多个环。大量的对吧,分行的,我们的大脑皮层是几十万个 column,形态相似的这样的 column 在处理器。所以他们的,可能每一个人都在做这种,每一个都在做这高脱 Incolin,Incolin Decolin,都是一个闭环系统。
所以我们现在已经在探索就是说在朝着怎么能够比较实现更接近于自然人的大脑形态的这样的构架。这种构架其实,就是它很早期,对吧,我理解,就是它属于一个比较前沿方向的一个东西。
You never know,对吧,你永远不知道,对吧,就跟现在,比如说你从概念很清楚,但是真正的实现过程对吧,比如说你有了 Alex Slat,你有了 CNN,实现这个就是工程到不到位。实现正不正确,很可能在这过程中如果真的实现正确了,可能很快找到 Reslet,很快你可以提高很多,Transformer 也可以,对不对?
现在很多的改进,现在这种,就科学的很多的进展,你很难去预测,很可能像 GPT 也花了八年,但现在大家操作也很快,一年就可以操上去,对不对?有时候这个探索过程有可能也用不到那么长。
所以很多东西就是这样,在不管是科学或者技术的探索过程中,你只要我觉得方向是对的,你就已经很幸运了。那么只要方向正确,那么大家全力以赴,那你们现在正在探索这个方向。
如果,我可能理解的不对,就如果统统的总结一下,它是很多这个模型组合在一起,然后每一个都是闭环的,对吧?应该是这样,至少我们大脑的形态是这样。
我们大脑处理不同的模态,对不对?我们的五官五种感知进到大脑都是并行的处理,然后它再做汇总。而且大脑的区域非常的功能,非常清楚。它是一个非常的并行、分布,然后 hierarchical 的,就是这种有层次的这样的结构。
因为我理解的闭环的定义就是你的输出是会影响你的输入的,——对不对?是这样,那大脑的每一个这个就是它分块的这个部分,它也自己知道,它自己处理的结果就对不对吗?它也输出影响输入。这都有吧?这个人类的大脑实际上这个神经网络的每一层基本上都在做很多的这个预测和纠错,很多的机制在做。
而且大脑里面很多的人,到大脑处理的这个信号的 passion,很多机制,实际上跟神经网络根本就没有,比如说我们的神经元之间的,有这种 herborn connection,有些不同神经元看到同样东西,它同时 fire 的时候,对不对?它说都同时 fire 的时候,它会加强之间的 connection,帮助它去识别一些共同的东西。
那么有些神经元,它对一些事情 fire 以后它会去限制其他周围的神经元不 fire。像这种计算机制,现在的都还不清楚,现在的神经网络没有这种机制。
但是我是倒是觉得,我们现在肯定是要向大脑学习,而且现在我们从一些基础,从一些原理的来看,从原理来推到就发现这样的机制可能更有效。因为我们知道大脑,尤其是机翼该怎么形成,保证它的压缩,简约和支洽的话。
从这个机制来看的话,这种分布、并行分布、hierarchy 和机制,可能是更合理。这是我们知道的,原理上本身也是在设计,这件事情是可能更有道理。
所以有可能并不是说未来它是一个大统一的模型,因为我感觉现在好像很多人都是想把很多功能放到一个模型里面,对啊,一个大模型在那儿折腾,把什么模态的、把语言都砸在一起。
实际上就是很,就是暴力的这样去弄,标很多数据。对,所以这是一个很大的机会。对吧,难度相对不是高,而且从理论上说绝对有必要去期待这样的进展。
然后向社会化与日常生活相结合,而这一点可能更容易推动,如果它能达到规模化的这样的一个应用。对吧,现有这些技术,相对来说还是不成熟。
对,大家容易会对它产生一些错误的认识或者想法。但是不管怎么样,可能更可怕的是如果下一代科技完全由一两个大公司主导生存,那就是全民焦虑了。
但另一方面,对吧,原本不是说靠一两个大厂主导。在我信任的有前途的技术,它在原本的进程里也会有不断的更新迭代和突破。
对,这样一来我们也对大公司产生了强烈的某种依赖。这是无意识形成的,甚至一些公司就会变成。对,设计理念上会形成,公司局限于各自不同的视角,更建立起了相对各自的市场和稳固的行业根基。
但有可能是出人意料的进步与突破就会闪现出来。好,这段时间也过得干部蛋煮青。好的,祝你 horse racing good luck。也可以是没有了。
欢迎收听晚点聊,我是曼琪。这期是晚点聊的新系列 Long Context(长语境) 的第一期。正如目前大模型所需要的长语境,我们每个人在学习和理解智能时,也需要更全面的历史背景。这会帮助我们在新事物不断涌现的当下找到更稳定的坐标。
Long Context 系列希望通过不同从业者的亲身经历,从多个角度展示人工智能的历史。在这一系列的开篇,我邀请了香港大学计算与数据科学学院院长 马懿教授 来聊聊智能与机器智能的历史。马教授本科毕业于清华大学,2000年在加州伯克利大学获得博士学位,曾在多个知名高校和研究机构工作,是全球知名的人工智能和计算机视觉专家。
在过去五年中,马懿教授关注的一个课题就是智能的历史。为了在港大推动面向所有学科本科生的AI通识教育,他还在撰写教材,旨在对智能的发展进行全面而深入的整理。马懿对智能有一些独特的理解,比如本系列的名称“Long Context”。他认为,与其一味追求在预训练模型下更长的语境,更好的方法是建立一种机制,让智能系统有闭环的、长久的而且不会遗忘的记忆。
这些理解与他对智能历史的梳理和认知紧密相关,涉及智能在地球上的起源。马教授认为,生命是智能的载体。从DNA的出现到神经系统的诞生,以及寒武纪的物种大爆发,再到人类语言和数学的产生,智能有多种表现形式,但是不变的是,智能始终在学习外部世界的知识与规律,从而进行预测,以便应用这些知识。
智能是在寻找规律并利用这些规律,这是一个与宇宙的熵增截然相反的过程。接下来,我们聊到了机器智能的历史。许多人认为1956年的达特茅斯会议是人工智能的开端,但马懿教授认为,机器智能的研究可以追溯到1940年代,诸如维纳的控制论和香农的信息论等早期源头。从那时起至今的80多年间,机器智能经历了多次波折,马教授也分享了自己观察到的一些变化。例如,他博士毕业时找不到适合的教职,他当前被引用最多的成果曾经面临没有会议愿意接受的局面。
我们还讨论了研究者的技术品位如何形成。品位不仅是一种认知,更是一种认知被挑战时能够保持坚持的自信。马懿教授的技术品位引导他走向一个在当前AI工业界并不十分主流的方向——闭环反馈纠错的机器智能。这两个方向在我们去年与马老师的访谈中得到了更详细的探讨,具体内容可参考晚点聊的第71期节目,相关图文报道也已附在show notes中。
为了进一步推动这些方向的探索,蚂蚁创立了一家公司——艺生科技。最后,我想补充一些内容。在本期多次提到的维纳的 Cybernetics,即控制论,以及闭环系统和闭环反馈纠错机制,指的是一个系统能够自我判断学习是否正确。这是生物界智能的机制,而目前仍需人来进行预训练和标注的大模型尚不具备这一特性。
下面我们正式开始本期节目。因为上次与马老师的聊天是在去年,最近我想谈谈新一年的变化。我感觉在AI领域发生了很多变化,当然您对这些变化的视角可能与普通人有所不同。此外,我觉得上次有一个主题没有特别展开,就是智能的诞生过程,包括自然界的智能与机器智能。
还有一个与此话题相延展的,就是我想与您讨论技术品味的形成。我最近与很多技术人员交流,大家在未知领域的判断往往来源于一种长期积累的品位或直觉。这不仅仅是一种认知,更是在认知受到挑战时,愿意依然相信自己所信的东西,这我认为才是真正的品位。
最后,我可能想聊聊通识教育。上次我们交谈时,实际上港大还没有真正开始这个计划,但当时有提到想要为所有学科的学生提供相关课程的想法。如果这个计划有进展,我也希望与您探讨。
马懿:是的,你第一个问题主要是讨论这个历史,对吧?我今天刚刚在清华,这里是北大,最近这两天事情比较多。在我书中,我对智能的认知在近几年,包括最近这一年都在不断丰富与完善。因为现在大家对AI的兴趣愈发浓厚,学校也在对研究生和本科生教育中有越来越多的需求,甚至高中生和初中生的科普都显得非常重要。所以我们认为,越来越需要开展这方面的工作。
我们可以从这个源头开始聊聊,比如您觉得智能的本质实际上是什么?我们如何理解现在的机器智能在探索智能的过程中带来了什么阶段?其实这个观点我们早已有了,因为在伯克利的时候,我和做神经科学的老师讨论过智能的起源。我们不仅讨论了机器智能的起源,还重新审视了智能的起源。近来也因为科普的需求,促使我们让更广泛的学科背景的人了解智能的本质,因此我们进行了些整理,并且我最近也在做一些讲座。
某种意义上说,生命就是智能。我想到之前龙先生在香港的一次聊天中提到过,陈修先生认为有两个值得研究的问题:一是物理,研究宇宙的历史和起源;二是生命,更多关注生命的起源。从这一点来看,智能和生命实质上是互为载体的机制。
这涉及到起源问题。本质上,智能是在不断学习外部世界有规律的东西,能够对外部世界进行预测。我非常喜欢一句名言,虽然细节我记不住,但大意是说,整个宇宙发展的基本规律就是熵的增加。第二定律表明,封闭系统的熵是逐渐增加的,因此宇宙的秩序不断变得混乱。然而,生命在这个过程中是逆向而行的,智能正是在这个过程中寻找未完全不可预测的世界的规律,并反抗熵的增加。我们在这个过程中的目标是寻找可预测、有规律的事物和结构。
在此,我认为这个理解非常有趣,因为实际上生命是在利用这个世界上许多可预测且有规律的事物,而不是随机发现的,找到这些规律以开展活动。那么,生命最早如何编码这些知识呢?就是通过 DNA,对吧,遗传物质。
所以,我觉得可以这样理解,现代的大模型实际上可以视为DNA。DNA是这个世界上最早的大模型,记录着早期生物对外部世界学到的知识。通过核糖核酸这样的结构,规律地存储这些信息,与我们的语言相似。
早期的生物是什么阶段呢?是单细胞生物,甚至是还未形成细胞的生命。这个过程很漫长,大约经历了30亿年。很简单的低等生物完全依赖于DNA的继承,父母通过分裂将遗传物质传递给后代。这一过程中也伴随着变异与自然选择,适者生存的原则也反映了强化学习的过程。看看早期的大模型是如何进展的?其依赖于强化学习。在自然界中就有奖励机制,正确的变异使其存活,而错误的则被淘汰。
这称为 phinal genetic evolution,即物种进化。物种和环境之间形成闭环,具有智能以不断改进对外部世界的理解。即便是个体没有智能,通过物种的进化实现一种智能机制。
大约在5.5亿年前,生物个体开始出现,并伴随着神经系统与视觉的产生,寒武纪之后的生命大爆发随之而来。这个时期,个体开始不仅仅从父母继承这一大模型,而是能够根据外部环境记忆并形成新的记忆,而非单纯依赖父母的记忆。
个体通过视觉、感知甚至触觉,能够适应环境并形成自己的记忆。因此,个体的记忆便是在DNA之外,对外部世界一种新的建模。
随着个体记忆的形成,个体的适应能力显著增强。寒武纪的出现使得个体产生更强的生存能力,使得物种更加丰富多样。
过了一段时间,随着生命的演化,最后人类的出现令人瞩目。在这个过程中,从DNA等生物到高等生物,再到爬行动物、鸟类、哺乳动物的阶段,进化过程显示一个有趣现象:随着智能形态的提升,个体出生后依赖于父母的时间逐渐延长。这表明,个体越来越不依赖于预训练的大模型,更加依赖于后天学习建立起来的记忆,父母教授的知识和特定环境中获得的经验变得更加重要。
从早期的鸟类在三个月内需要跟随父母飞行,到哺乳动物大约需要半年到一年,猫科动物最长为两三年,猴子需至少五六年,而人类则需直到十八岁!这清晰体现了智能形式提升的趋势,即个体在出生后的学习与适应能力更强,逐渐依赖后天记忆而非单纯的预训练模型。
而在人类出现后,更为进步的是系统化语言的出现,促进了外部知识的交流。这极大提升了知识获取的效率,比如通过语言分享发现与学习新东西。因此,语言与文字也可认为是文明的根源。语言记录人类积累的知识,不仅可以交流,还能传授给下一代,书籍甚至在某种程度上具有DNA的作用,将前辈的智慧传承给后代。这样,文明的进展得以加速。
这标志着不再是单一物种的知识消逝,而是通过语言的演化,使得知识的传递更加稳定,不必再因为个体”死亡“失去所有的记忆。同样,DNA中的记忆也并非没有幻觉。
在此,我认为“幻觉”一词并没有一个明确的界定,它可能包含随机性,有哪些是有益的,哪些又是无用的。其实,DNA的结果很简单,就是生存或不生存。在知识的应用中,即使我们记录了精确的知识,在应用过程中也会遇到许多不确定因素。并不是所有的知识都是确定性的,很多的经验知识以概率的形式存在。
比如明天可能会下雨,但并不能表明明天一定会下雨。相似地,许多经验知识,尤其古代皇帝的预测,虽然并不需要数学式的明确,但依旧能够相对准确地预测天象。即使在此过程中存在误差,那些误差并不代表“幻觉”。
所以,在对这一现象的讨论中,我们不应过分解读“幻觉”的概念,毕竟没有科学的定义。同样,几千年间的人类文明通过文字与语言记录的知识,仍然保持着一定的准确性,是对经验的总结与规律的归纳。
然而大约在三、四千年前,一些有趣的事情发生了,一些哲学家与数学家无论是在希腊、还是中国或印度,这些文明开始出现一些抽象的概念。他们发现从经验出发,数字的概念如1、2、3,很快就能理解无穷的概念,抽象出自然而生的数、分数、甚至是图形上的空间。
这些从我个人来看,绝不是简单经验的总结,而是对思想的一种升华,而这种机制至今尚不得而知。我们现仍然不清楚是什么原因使得人类能够从纯经验的知识中提炼出更高层次的抽象知识。
因此可以看到,智能的演化过程,从个体物种的智能进化、经过基因变异,到后来的个体神经系统与记忆,最后是文字与科学语言的形成,都是智能体用来理解外部世界知识的一种表达形式。
从这个角度看,它们是统一的,只是介质不同。它们归根结底是对外部世界知识规律的总结与记忆。四种表现方式之间的联系也很有趣。第一种是通过 reinforcement learning(强化学习),自然选择推动物种进化。第二种是通过个体自适应记忆的持续纠错,这也是一个闭环反馈过程,而不是简单依赖强化学习的优化机制。第三种则是文明的发展——通过语言与文本记录值得传递和交流的知识。
实际上,记录的知识仅占我们个体所学的外部世界世界模型的微小部分。我们的大脑只用前额的少量部分来处理自然语言,绝大多数时间处理的是视觉信号、触觉信号、声音等其他物理信号,或者小脑在控制运动中运用。
尽管语言只不过是我们在一生中学到的外部世界知识的一小部分,但在科学上对这些知识的高度概括和严谨,理论的不断改进与证伪,都是必不可少的。数学公式的处理也和语言相近,大脑中的处理区域相对集中,功能区的分配相对较少。
处理信号中,尤其是视觉、触觉、听觉的输入量是非常大的,每秒的信息量可达到数百万个比特。而在大脑的最底层,信息量却不足十几个比特,经过高度灵活的处理,保留真正需要的信息,记忆并调整,或确认哪些是之前的不完善之处,这恰是智能的关键所在。
所以,当我看到整个过程时,发现智能与知识是密不可分的。知识是智能活动的结果,智能就是通过观察获取外部世界规律的能力。因此,只有知识存在的系统其实只是一个知识系统。如果无法更新已有知识的机制,那么它就没有智能。
事实上,DNA本身并没有智能。无论其模型有多大,记录了多少知识,但本质上并不存在智能的存在。只有在持续的更新与改进这些知识的过程中,整个系统才会体现出智能。
因此,我们可以了解到,大模型本身并没有智能,但当它与OpenAI的工程师结合,持续改进时,这个系统是有智能的。这与自然界中的物种演化相似,早期的物种也未必具备智能,必须经过不断的变异和自然选择,才能形成智能。
如果将当前机器智能的发展阶段与自然界的智能演化过程相类比,我们的现阶段主要处于第一和第二阶段吗?
马懿:主要还是在第一阶段,但正在朝第二阶段发展。如今我们希望能够让系统能够更新、自主改进自身的记忆和知识,这正是向第二阶段迈进的重要步骤。
我记得去年我们讨论过,您一直在做的闭环反馈纠错机制在学界有共识,大家都在向这一方向努力吗?还是说这只是众多探索中的一种而已?
其实早期机器智能的发展起源于 Cybernetics,也就是我们今天所说的闭环反馈。大多数人都意识到这是机器智能的关键机制。早期对动物的智能研究表明,高级动物使用的机制普遍是闭环反馈,用来提高学习能力和决策能力。
所以,这绝不是新的探索,而是自然界中普遍存在的现象。对此我想问,您认为是否存在其他智能机制,可能与地球上的生物机制不同?
马懿:可能是存在的,但要理解智能就必须有一个严谨且确切的定义。一个真正具有智能的系统必然具备自主获取和改进已有知识的能力。因此,从这个层面讲,它明确描述了自然界智能的进化是否实现这种机制。
自然界通过优胜劣汰来选择出优秀的物种,但我们也并不明确它的选择机制是否一定是最优的。假设生命在宇宙其他地方出现的可能性也很大,因此智能的产生同样存在可能。
但智能达到一定程度之后,也需要外部力量来获取资源与能量来维持自身发展。因此,在此情境下,若是宇宙为一个封闭系统,无法获取外部能量的话,熵将继续增加,最后一切秩序消失,回归到完全随机的状态。
这一点让我想到了电影《银翼杀手》中经典的台词:“所有时刻都会随着时间流逝而消失。”
时间的定义实际上即是“熵增加”,这是宇宙有序转向无序过程的开启。正因为有熵增的方向,才有了宇宙的时间观念。人类对智能机制的探讨,可能在整个宇宙历史中,只是一个瞬间的过程,在这个过程中,生活的多数环境是可预测的,包括气候、化学成分等,正因如此,才能为生命的诞生提供条件。
整个智能的起始过程,我们再回到机器智能的探讨。其实最初大家探索智能的方向确实是精准的,大模型的发展就是基于40年代对这些智能系统的研究,包括动物与智能理论,推动了控制论、信息论、博弈论,到现代计算机架构和神经网络数学模型的形成。
闭环反馈正是生物自我学习、自适应的基本机制,正因为如此,我们后来得以理解如何编码解码外部世界的有用信息,当一个动物或人类处于未知或复杂环境时,如何通过试错与博弈提升决策能力。
不过,在这个探索的过程中,图灵如何将人和机器区别开来呢?他在50年代提出了图灵测试的概念,即机器智能到达何种程度才能与人类无法区分?在40年代的研究中,年轻的研究者们为回应这一需求,开始深入探讨,虽然人和机器不能完全分割。
在当时,尤其是高度抽象逻辑与符号性问题的研究,仍然未能提供有效的理论或实现路径。随着研究的推进,虽然发现了神经元模型,但实践也展现出其不足,严格的科学方法尚未广泛应用。
因此,有许多研究者尝试以成长为目标,不断改进这一过程的理论,但这也需要正确的方向与工具来实现。那么,您认为未来的研究方向是什么呢?
马懿:我的看法是,机器智能的发展很依赖于理论与工程应用之间的结合。尽管我们对大模型的进展充满信心,但我们也必须保持谨慎。已有的认知虽然有所提升,但发展并不平稳,可能会出现波动。
因此,我认为在理论探索与实证研究方面,我们都应加强努力,尽可能从当前研究中发掘潜在的可能。对于教育与技术传播,我也认为对于技术的边界应做出清晰的说明,这有助于技术从业者理解与反馈,在推动智能进步的过程中,关注到每一项实际的trade-off。 马懿:对吧,你自己对技术的边界是什么?其实很多东西并没有明确的界限,面对的情况都是完全不同的。所以我觉得在这一段时间的兼职经历也蛮有意思的。你不能因为学术圈存在这些问题,就忽视生学生的教育。而且,有句话说得好,其实当你教会了这些企业家后,你对学生的教育也是有帮助的。
我确实觉得,尤其是最近有一些年轻人来到这儿,他们在学术界里相对缺乏这方面的知识。我个人觉得有趣的是,现在很多决策者其实也是比较年轻的,管理者大都在45岁以下,他们来自不同的背景,曾经不懂的事情,现在也愿意学习。这在AI普及的过程中很重要,可以帮助这些企业家或跨行业的人理解新技术,从而推动他们对行业的思考与变革。
你觉得在科研领域的品位与商业领域人才的品位相比,性质上有什么不同呢?
马懿:我觉得品位在某种程度上是相通的。在商业上,你需要对一些趋势有预判和了解,这样技术品位能帮助你判断在某个方向上是否应该投入。很多人缺乏的就是在这个过程中把握机会。许多决策并不仅仅是基于定性判断,也涉及到已知未知的情况,部分则是基于证据,即有实验和严谨的数据支持。
因此,我认为技术是要有实践基础,单单依靠文献是不够的,必须对其进行多方面的了解。这也是为什么我觉得品位是一个选择,很多人可以选择的意识。在商业决策中,商业回报是决定因素,加上对行业实战经验的重视。如果技术品位不足,可能在决策上就会面临一定的挑战。这是一个需要知识积累的过程,也需要培养他们在不确定性中的接受能力。
所以,尝试将新技术应用于实际情况中,才能提升认知。企业适应变化的能力往往非常重要,这与学术界是有很大区别的。在实际过程中,企业家需要理解与积累技术,而不是仅仅停留在理论层面。
马懿:然而大企业往往有很大的局限性,转型时无法及时作出反应。这也加剧了商业决策的复杂性,尤其是行业需求技术与新技术之间的冲突。同时,这个过程中需要依赖许多工具,甚至是新算法的试错。因此企业需要拥有一套固有的策略。
综上所述,品位在科研与商业之间确实存在绝对关系,必须具备一定的兴趣与认知积累。只有这样,才能在快速变化的市场上应对挑战,始终保持在技术的前沿。如果没有这些基础,跨领域的优秀理解就会很困难。因此,优良的产品和技术布局需要学习和知识转型作为核心,尤其是在常态化的不确定性中,这一点至关重要。
马懿:不过,形成这种观念往往需要面对风险与挑战,最终带来的都是企业和个人的成果与反思,对未来的认知与实践总结也是一种推动力。实际上,我们的老师从来没有面对这样的一群听众。虽然他们的素养比大学生要高,但他们的经验也丰富。这些人的判断能力很强,所以他们接受的标准也是很高的。
另一方面,我们的年轻老师在讲课时会面临挑战,你要让他们讲清楚自己所做的事情的价值。比如说,面对80位观众,你能否让他们明白你工作的价值何在?如果他们不认可,觉得你的工作毫无作用,那你在做什么呢?
因此,对于老师们来说,这也是一个挑战:能否讲清楚自己的研究和价值。有统计显示,我们的学员加起来的身家可能高达几千亿。他们的见解对行业的影响很大,因此挑战的意义尤为重要。
马懿:所以AI教育实际上不再仅是针对大学生或研究生,甚至要向高中生和大众普及。所有的政策制定者,尤其是与科技相关的,未来都应该对这些技术有系统而客观的认识。正如我们之前谈到的,港大也是在尝试这一方向。要帮助学生了解智能的本质,理解机器的工作原理,因为将来我们肯定是要和机器共存的。
你能谈谈这一进展吗?
马懿:当然可以。其实去年聊的时候,我们提到计划要开设相关课程,现在的进展是港大已经基本上可以算是第一个大学推出全校本科生的AI素养课程,所有专业的学生都必须上,这是毕业的要求。课程内容包括智能的基础概念、历史背景、当前技术等多个模块。
目前,我们已经在进行试点,已有一百多位自愿选修的学生参与。秋季学期开始,这项课程将正式开设,所有新生都必须参与。在上课时,首先会让学生搞清楚AI的基本概念,了解机器智能的历史,比如从1956年的达特茅斯会议到当前的技术发展。
在课程中,我会讲到技术的基本概念,例如语言模型、图像处理等。这些都是与学生关系密切的工具,让他们了解这些技术的能力、局限性,以及它们可能带来的伦理问题。
此外,还会涉及到法律、规范等,尤其是未来要成为社会精英的学生,理解相关问题显得尤为重要。我们的课程不仅要教知识,更重要的是提升学生的逻辑判断能力,使他们能够独立看待技术。
这样的教育目标不只是为了提高科技素养,更重要的是培养一批能够在快速变化中理性应对新挑战的人。 马懿:所以整个课程的设计是为了让香港大学的所有专业的学生,无论他们的背景如何,只要与AI有所关联,都能思考如何将这个新技术融入自己的领域中。
此外,我也告诉我们的老师们,每一节课都有一个团队在背后支持,而不是由一个老师单独教授。每节课的内容都是由多个老师共同设计和打磨的。我强调,课程内容不是一次性固定的,而是每年都会进行更新,以确保我们的学生与最新的AI发展保持同步,从而增强他们对该领域的理解。
最终,授课的形式是由香港大学计算与数据科学研究院的多位老师合作共同授课。不同课程可能由不同的老师负责,但第一门课是我们主要负责的,同时我们也会邀请其他系(包括机器人学)的人参与。课程中将包括技术的基础介绍,还涉及伦理学,甚至法律,由法律和哲学系的老师来进行教授。所以,整个课程我们实际上是作为一个协调者来进行。
至于第二学期的三个学分,我们将面向不同专业,例如医学健康等领域,与其他学院共同开发课程,专门针对这些领域需要教授的知识。这部分由不同学院或学院负责人来专题研究这个议题。
在春季时,我们已经开设了这个课程,有超过一百名学生自愿参与。他们提了一些问题,与我互动时表现出什么样的兴趣和疑惑呢?其实问题很多。
不过,第一年的学生志愿选修课程,可能会有一些偏差,因为这些学生普遍对这个领域非常感兴趣,而且大部分是来自技术和STEM方向的学生,所以样本可能比较单一。我们可能需要等到秋季开课后,才能获得一个较完整的反馈。但截至目前,效果非常好,学生们通常会跟进课程,想进一步了解一些深层次的内容,甚至有许多学生希望参与老师的项目等。这显然拓宽了他们的思维。尽管有些反馈不够现实,但整体的反馈还是相当积极的,类似于CEO项目的效果。
马懿:目前,AI的关注确实越来越高,但大家对它的理解仍然不够全面。许多聪明的人意识到他们对这个领域的知识仍然有欠缺,因此,他们对系统和全面了解AI的课程感到兴奋。
在我们的课程中,如何向本科生讲解AI与人之间的关系呢?智能并不是一个固定的东西。我们应清晰地阐释不同功能的智能系统,帮助学生判断如何与这些系统进行交互。
当然,某些工具,比如写作工具,学生们需要认真考虑如何使用它们,不能仅仅依赖它们去完成作业,这对老师也是一种挑战。尤其是在面对这些新工具时,许多老师和学校并没有达成最终一致的看法,因为这些技术仍在不断发展和改进。
我相信,这个过程可以启发学生,为他们提供多种选择,引导他们形成自己的判断,而不是将自己的观点强加于他们。我认为这可能是最好的教育方式。
马懿:确实,AI与人之间的关系相对复杂,这涉及哲学、伦理以及AI未来的发展方向。例如,AI是否可能会产生自主意识?
我们需要明确的是,当前的技术本质上是在进行数据的处理和生成。理解这些本质可以帮助学生明白如何与AI系统打交道。我们应该引导学生认识到,尽管有朝一日可能会出现更加复杂的智能机制,但现阶段的系统功能仍然有限。
在讨论未来可能的智能系统时,我们希望学生能以客观的态度看待问题,而非将现有系统视为最终解决方案。他们需要理解当前系统的优势和局限性。我们提到的意识,确实是在较遥远的未来展望中存在的思考。
我们甚至尚未完全解答意识的本质问题。至少目前,我们所掌握的机制仍是非常机械的。最近,我浏览了一些文献,讨论了如何培养一个完整的人,以应对机器对人类的异化。如果机器真的具备智能,未来如何定义人类的价值和角色将成为重要议题。
在当然的讨论中,实际上存在两种观点:一种是认为人类文明为机器的进步铺平道路;另一种则偏向人本主义,强调保持人性的堡垒。在您的观点倾向于哪个方向呢?
马懿:我相信人的价值和机器的价值是不同的,智能并不是人类所独有的特质。智能本身是一种进化的机制,自然界早就将智能的作用开源化了。在这个世界上,除了人类,还有许多智能的生物。人类只是在漫长的进化历程中偶然成为了主宰。在这个过程中,智能的进化是没有主控的,也只是生物竞争的一部分而已。
我相信,当机器获得智能后,我们会找到与之共存的方式。这是一个复杂的问题,确实需要人们深思熟虑。如何定义智能诞生的时机是关键。如果我们认为智能的标准是获取新知识的能力,那么当机器具备高效获取知识的能力时,我们将如何面对这一现象?
马懿:您提到的在研究AI中的动力,是否更多来源于对未知事物的好奇心?您认为这项研究整体上是有益的吗?
我觉得,从科学研究的角度来看,了解事物的本质本身就是重要的。正如我所想的,在这个过程中,我们仍然有时间去探索,更重要的是这些知识是有价值的。至于技术的用途,我相信任何技术都有可能被用来做好事或坏事。
所以,我们之所以要深刻理解智能技术,是因为需要区分技术本身的中立性,以及其应用的方向。例如,金属冶炼技术可以造车,但也可能被用来制造武器。因此,我们不能因此而停止对技术发展的探索,而是应当关注如何合理规范其应用,正如我们对互联网技术所做的规范那样。
当然,一些技术本身就具有危险性,如病毒或放射性材料等,这需要严格的保护和规制。如果回到当前的研究,尤其在自主学习和闭环反馈的机制上,与去年我们的讨论相比,有什么新的进展?
马懿:在这一年间,我们的公司进行了很多工程化的尝试,发现学校的很多验证方法都相对清晰。同时,我们意识到这些机制与现有的AI技术并不完全相同。因此,我们正在努力探索如何在更大规模和更高效率的基础上进行技术的发展。
同时也许在这些方面,很多公司可能不愿意去处理大规模的数据。因此,在过去的一年里,我们实现了一些工程化进展,最终成果已经开始在我们的网站上得到表达。在与学校的合作中,我们也发觉大部分进展都与现有的白盒和闭环系统的机制密切相关。
在未来,我们也为如何在数据驱动学习的过程中,如何在更高效的条件下实现多功能模型的开发而不断努力。