清华大学基础科学讲席教授:我们有可能制造出人工大脑吗?

混沌学园·2021-08-05
人工智能可以有感情吗?

今年3月底,小米正式宣布进军智能电动汽车赛道,自疫情爆发后,人们再一次将目光投射到了方兴未艾的人工智能领域。

人工智能诞生自上世纪50年代,至今已迈入稳步发展阶段。智能教育、智能家居、智能医疗……这些词汇无不在描绘着一个更为便利的未来世界图景。

但人类在享受这些便利的同时,可曾想过,人工智能何以诞生?

与这个问题相比,我们更为关注的是人工智能可能带来的威胁。为什么这样说?

也许,从下面这些耳熟能详的问题中可见一斑:

人工智能将在多大程度上替代人类工作?

人工智能会彻底取代人类吗?

人工智能可以有感情吗?

……

不可否认,人工智能的确会替代一部分的人类工作,但也不必杞人忧天,因为我们或许可以达成这样一个共识:人工智能并不具备,或者说至少尚未具备人类所特有的理解能力与共情能力。而仅凭这一点,就让人工智能暂时难以和人类比肩。

事实上,人工智能和生物智能相比还有很大差距,尤其是与人类的智能相比。这也是为什么当今世界上许多国家都在抓紧脑科学方面的研究。在脑科学与人工智能领域,相对于未知而言,人类已知的部分不过是沧海一粟而已。

接下来,在混沌学园文理院的讲堂上,清华大学基础科学讲席教授、北京智源人工智能研究院首席科学家刘嘉将从认知科学的角度带领大家探寻:人工智能何以“智能”?人工智能的有限性在哪里?人工智能在未来将去往何方?

我们先从一幅画谈起。下面这幅画乍看有点艺术感,但细看便会发现它更像是儿童的涂鸦之作。但就是这样一幅涂鸦之作,它却在纽约最负盛名的艺术长廊里展出长达一个月,吸引了来自世界各地的人前去观看。

那么,这幅“拙劣之作”的独特之处在哪?它何以收获此等关注?

事实上,这幅画的作者不是人类,而是神经元。它也是人类历史上第一个由神经元画就的一幅画。

我们再看另外一幅画。下面这幅画是人类艺术史上的经典作品之一——梵高的星空图。

我们不难发现这两幅作品之间的差距。但问题是,究竟是什么原因带来了这种差距?

对这一问题的回答涉及到四个部分的内容。以下是第一部分——机器的崛起。

授课老师 |刘嘉 清华大学基础科学讲席教授

神经元何以绘画?

即便是一幅拙劣之作,我们仍不免好奇,神经元到底是如何绘画的? 

首先,神经元通过树突接收来自外部世界的视觉信息;接着,被数字化后的信息经过神经元的胞体,经胞体加工处理后通过轴突传递出去;最后,机械臂根据输出信号开始在纸上作画。 

那么在整个绘画过程中,神经元到底发挥了怎样的功用? 

在回答这个问题之前,我们不妨先了解一下神经元究竟长什么样子。神经元分为三个部分: 

1.树突,用于接收输入的电信号; 

2.胞体,用于整合输入信号并产生输出信号到轴突; 

3.轴突,用于传导电信号到另一个神经元的树突。 

更进一步,我们通过模型对生物性的神经元进行简化:树突首先接收输入的电信号,经数字化后,胞体对其进行进一步的整合加工;当神经信号累积到一定程度后,神经元便开始发电,并来回发放神经脉冲。 

接着,我们进一步简化上述模型,将它变成一个数学公式——MCP模型。MCP模型由莫克罗(W.S.McCulloch)和彼特(W.Pitts)在上世纪40年代提出。 

在MCP模型中,I代表输入(Input),W代表权重。权重乘以对应的输入并求和后,再把结果取一个阈限,这就是被简化后的神经元模型。 

值得注意的是,莫克罗和彼特二位其中一个是心理学家,另一个是逻辑学家。而逻辑学家在其中所发挥的主要作用是,将求和后的结果设置阈限,把它转化为0和1;即不小于某一阈限为1,反之即为0。 

从表面上看,这是对神经科学的一种模拟,即神经元产生脉冲设为1,没有脉冲设为0 。但事实远非如此。莫克罗和彼特是在《神经活动中内在思想的逻辑演算》这篇论文中提出的MCP模型,从论文标题所传达的意思来看,设置阈限并将输入乘以权重求和后的结果转化为0和1这一过程,触及了人类思维中最本质的一面。 

这样说的依据在哪里? 

亚里士多德在《形而上学》一书中提出一个非常重要的逻辑学观点——A必不非A,也即我们所熟知的矛盾律。简单说来,矛盾律意味着两个对立的陈述不可能都是真的。例如,亚里士多德不能同时生和死。 

而这个看似非常简单的观点却成为推动中世纪科学发展的关键因素。我们从历史上的一段著名公案——伽利略的斜塔实验讲起。 

亚里士多德曾经断言:物体从高空落下的快慢与其重量成正比,重者下落快,轻者下落慢。此后这一观点一直被广泛接纳,直到伽利略通过斜塔实验证伪了这个结论。 

伽利略在《两种新科学的对话》中下一定论:在真空状态下,从比萨斜塔的同一位置往下落,羽毛和铁球会同时落地;而羽毛之所以看上去落地更慢,是因为空气阻力的作用。在当时,人们根本无法找到一处完全真空的环境进行验证,那么伽利略为何如此笃定这个未经实验证实的结论? 

事实上,这一结论是伽利略通过纯粹的推理推导出来的,而不是真的在比萨斜塔做了这个实验。他的推理过程如下: 

假设亚里士多德的观点是正确的,即重者比轻者掉落的速度更快。假设重者的掉落速度为8m/s,轻者的掉落速度为4m/s;那么当重者与轻者绑在一起时,会发生什么? 

掉落速度慢的轻者会妨碍重者往下落,也即轻者对于重者而言发挥的是减速器的效用。想象一下,在铁球上绑一个降落伞,降落伞就会妨碍铁球正常往下掉,起到减速器的作用。 

但换个视角来看,当重者和轻者绑在一起时,它们总体的质量变得更重,就会掉落的更快。这时,轻者对于重者而言发挥的便是加速器的效用。 

但与此同时,轻者不可能既是加速器,又是减速器。因此,伽利略得出结论,轻者与重者必然以同样的速度往下掉落。 

至此,我们不难发现伽利略利用亚里士多德的矛盾律证伪了亚里士多德的运动律。 

因为这一言论,伽利略被教皇囚禁;但即便如此,他至死都坚信自己的推论是正确的。而直到三百多年后,人类第一次登上月球,才真正通过实验证实了伽利略的这一推论。我们看到,真理在三百多年后终于得到了回响,它与强权无关,只要它是真的,终有一天它就会是真的。 

矛盾律与布尔逻辑

上文提到,伽利略基于矛盾律这一前提推翻了亚里士多德的运动律。我们在直觉上认为矛盾律是对的,就像我们在直觉上认为重的物体比轻的物体掉落速度更快一样,它只是经验上的判断而已。因此,在未经检验的情况下,我们就无从断言:矛盾律也是真理。 

直到十九世纪中叶,英国数学家布尔首次通过数学形式化的证明证实了矛盾律。他的计算过程如下: 

首先假定1是全集,代表所有;0是空集,什么也没有;*是运算符,代表交集。 

假设A是一个集合,那么A*A代表A和A的交集,结果是A本身,即A=A*A;接着,通过移项得出A-A*A=0,并提出公因数A,得到A*(1-A)=0。也就是说,A和(1-A)的交集为空集。 

由于1代表全集,那么(1-A)就意味着非A。A和(1-A)的交集为空便意味着A和非A的交集为空;换句话说,A必不非A。这样一来,布尔便通过逻辑学证实了亚里士多德的矛盾律,并将这一发现写入了《思维的法则》一书中。至此,我们发现了0和1的伟大之处,它们代表着人类最本质的思维过程。 

此后,图灵进一步从数学上验证任何可能的逻辑运算。也就是说,所有可能的思维方式,都可以被机器的0和1这两种状态所表示。而事实证明,图灵机的确可以仅仅通过0和1表征所有的智能行为。

还原论

布尔通过0和1这两种状态证实了亚里士多德的矛盾律,进而触及到人类思维的本质特性。从生物性的神经元到MCP模型的层层简化,正体现了人类认知事物所秉承的还原论的思路,这其中的还原过程分为三步。 

去除生物性是还原的第一步。 其中的关键在于保留功能,去除物理载体,如突触、离子通道、膜等,也即从生物性的神经元变成模型。 

去除非线性是还原的第二步。 世界上绝大部分非线性的事物都可以用线性表征,用线性近似非线性的目的在于简化运算,提升可实现性。 

二值化是还原的第三步。 将线性的模型转化为0和1这两种状态,通过逻辑学来描述思维。这时神经元的运作不再是一个简单的生物活动,而是在进行一种思维方式的工作,其目的是为了实现人工智能。 

因此可以说,MCP模型是所有人工智能的始祖。而计算机中之所以充满了0和1,正是因为人类的思维是二值的;只有按照逻辑学的路径延伸,计算机才有可能实现人工智能。 

总结来看,亚里士多德基于归纳推理发现了运动律,他通过日常的经验观察从诸多现象中归纳出规律性的认知——重的物体先落地,轻的物体后落地。 

但在很多情况下,归纳推理却难以经得住事实的检验,黑天鹅事件便是其中的典型。这时我们就要把归纳推理变成演绎推理,即找到一个逻辑原点进行理性思辨,这个逻辑原点便是矛盾律。 

在矛盾律的指导下,伽利略通过推理否定了亚里士多德的运动律,纠正了既有的谬误。此后,在伽利略的运动律的基础之上,才有了牛顿力学、爱因斯坦狭义相对论等伟大的理论。可以说,这些伟大的理论都来源于矛盾律这一逻辑原点,而这个逻辑原点也被称为第一性原理。 

将第一性原理下沉便会触及到更底层的布尔逻辑。布尔逻辑通过对人类思维法则的揭示,为计算机、互联网、人工智能的出现埋下了种子。可以说,我们现代人所享受到的技术便利,都源于布尔所建立的逻辑原点。 

简单说来,科学的逻辑只有一个,那便是用还原来寻找规律性的简单;从科学到产业的路径也只有一条,那便是用构造来重建可控制的复杂。 

人工智能的发展

在认知科学层面,从运动律到矛盾律,再到布尔逻辑,这其中体现的是从复杂到简单的还原过程;而一旦将科学应用到产业,便需要将简单的科学逻辑重新建构为复杂。基于人类思维的二值性而诞生的人工智能正是体现了从简单到复杂的建构过程。我们不妨简单回溯一下人工智能自诞生之初到现在的发展脉络。 

我们知道,人的大脑大约由860亿个神经元构成。1957年,心理学家罗森布拉特(Rosenblatt)创造了第一个人工神经网络,叫做感知机(Perceptron)。他将感知机定义为一个感觉、识别、记忆和反应,像人类思维一样的机器。但是感知机有一个先天的缺陷,就是它不能解决疑惑的问题,只能机械地做出反应。因此,科学界关于神经网络的研究很快便沉寂下去。 

直到1986年,辛顿(Hinton)提出了BP算法(Back Propagation),即回传算法,机器学习此前所面临的疑惑问题才得以解决。这一年也是神经网络深度学习的诞生之年。 

但回传算法提出后并没有得到应有的赏识。辛顿本人也因此受到冷遇,美国没有一所大学愿意接受他,他只好前往加拿大的一所大学,继续深入此前的研究。后来,由于支持向量机(Support Vector Machine)的出现和繁荣,辛顿的深度学习彻底被学界冷落。 

转机发生在2006年,辛顿成功解决了机器在深度学习中所遇到的问题,并给出了多层次的非线性模型。这对于人工智能的发展而言,具有划时代的意义。 

而辛顿之所以能够一直深耕于如此“边缘”的领域,正是因为他坚信机器智能能够通过0和1这两种状态得以实现,这只是技术问题或时间问题而已。可以说,我们今天所享受的来自人工智能深度学习的便利,离不开辛顿始终如一的坚持。 

我们有可能造出人工大脑吗?

从简单的MCP模型发展到深度学习模型,这其中体现的是从科学到产业的构造主义之路。更进一步来看,我们有可能制造出人工大脑吗? 

 事实上,大量的科学研究已经证明,人工神经网络越复杂(层数越多、参数越多),它越像人类的大脑。因此,现今几乎所有的人工智能研究机构都在致力于提升模型的复杂度。下图呈现的便是随着模型的演进,人工神经网络的参数数量级增加的过程。

简单介绍一下GPT-3(Generative Pre-training Transformer)模型。它是一种生成式语言模型,通过对不同的书面材料集与长篇连载文本的预训练,以获取关于世界的知识,由OpenAI(人工智能非营利组织)与微软合力开发而成。 

首先,这个模型会受到来自AI超级计算机的专业训练,这个计算机的算力位列全世界超级计算机中的第五名;其次,GPT-3模型的架构非常复杂,共有约1750亿个参数,比GPT-2高两个数量级;此外,该模型的数据非常庞大,英语维基百科的全部内容(约600万篇文章)仅占其训练数据集的0.6%;最后,训练一次GPT-3模型的花费高达460万美元。 

与此同时,GPT-3模型的功能也非常强大。它可以编程,帮助人们诊断和开药,还可以回答人类的各种疑问。它的高度智能特性不禁让人开始畅想,人工智能到底能够发展到什么程度? 

谷歌公司首席未来科学家库兹韦尔写就一本预测未来的书,叫做《奇点临近》。他在这本书中将“奇点”定义为人类文明发展的断裂点。 

库兹韦尔认为,未来人工智能的发展会帮助我们摧毁病原体、纠正DNA差错、消灭毒素,让我们永不衰老;除此之外,我们还可以逐步将自己的智力、性格和技能转移到非生物的载体上去,也就是说人类可以从生物的“我”变成计算机的“我”,从而实现永生之梦。 

相信很多人都认为库兹韦尔的预言不过是天方夜谭而已,但他却被比尔盖茨视为最神奇的预言家,因为他曾预言过移动互联网、AR、VR以及机器翻译的出现,并且这些预言都没有落空。 

而对于“奇点”的预言,库兹韦尔在《奇点临近》一书指出,只要2045年,奇点便会到来,届时人类将实现永生之梦,而现今世上的大多数人都将成为这一预言的共同见证者。 

但遗憾的是,科学总是浪漫又脆弱的,现实不一定如库兹韦尔所预想的那般美好。为什么这样说? 

辛顿在去年接受媒体采访时曾提到,诸如GPT-3之类的能够生成复杂文本的人工智能,它一定能够理解自己所生成的这些文本,只不过我们还不知道它理解的程度到底有多深。 

而心理学家针对GPT-3的智能验证结果却并非指向同样的结论。心理学家问GPT-3:How many eyes does my foot have?(我的脚有几只眼睛?) 

对于人类而言,这是一个极其愚蠢的问题;但GPT-3会一本正经地回答:Your foot has two eyes.(你的脚有两只眼睛) 

同理,当心理学家问GPT-3太阳有几只眼睛时,它也会回答道,太阳有一只眼睛。 

不难发现,GPT-3之所以智能,是因为人类问了它智能的问题。它所了解的知识都是从人类已有的智能中习得,但是它并不理解这些知识到底代表什么意思。化用爱因斯坦的一句话——Any fool can know. The point is to understand.(任何傻瓜都知道,关键在于理解),可以说,GPT-3虽然很厉害,但它只是知道,却不理解自己在说什么。 

对此,辛顿坦言自己也意识到了这个问题;但与此同时,他也反驳道,假设机器能够描述出一个人打开抽屉并取出东西这一过程,那就很难再说机器并不理解自己在做什么。 

然而,机器的理解与人的理解却存在着很大的不同。以下图为例,当人类看见图中的这位男性从柱子上摔下来时,他的第一反应肯定是不忍以及同情;但机器却做不到这样。人与机器的差别首先在于人类有同情心,可以与他人共情,并感同身受。

同理心对于人类而言极为重要。患有自闭症的儿童最大的问题便在于缺乏同理心,因此缺乏站在他人的角度去考虑问题的能力,难以与他人建立正常的朋友关系。 

在文理院的讲堂上曾提出过这样一个问题:人和机器能够谈恋爱吗?大家对此各抒己见。但在我看来,这个问题的前提在于机器能否像人一样产生共情。正如被誉为“人工智能之父”的马文·明斯基(Marvin Minsky)所言,问题不在于机器能否拥有情感,而在于不拥有情感的机器是否智能。 

除共情能力外,人类还拥有机器所不具备的超凡的理解能力。例如,黑手党走进一家糕饼店,并对老板说:“你的这个糕饼店真漂亮,如果意外发生火灾把它烧掉就太可惜了!”显而易见,我们都知道黑手党并不是在好意提醒老板做好消防工作,而是在暗示老板乖乖上交保护费。 

再比如,张三问李四:“你最近忙吗?”李四答道:“我的眼圈黑得可以扮演熊猫了。”李四的回答看似风马牛不相及,但对人类正常的交流而言却是完全可以理解的。 

其实,当我们在看待问题的时候,不仅仅是从问题的表面看待事实,还在深挖问题背后的逻辑是什么。事实上,大部分人都对推理这件事情非常在意,我们总是在寻找因果以求逻辑自洽,刻意回避把所有的事情都归为随机。而我们对因果关系的执念,就像德谟克利特所说的那样:“我宁可找到一个因果的解释,也不愿成为波斯人的王。” 

可以看到,现今人工智能的发展水平和真正的人工智能相比还有很遥远的距离。 

我们发现,笛卡尔在300年前对于机器发展的思考几乎可以完全移植到人工智能上面。 

笛卡尔认为,即便机器能够在某些方面达到人类的水平,甚至超越人类,但它仍旧会不无例外地在其他方面不如人类;这是因为机器总是按照预先设定的指令去执行,而非通过自身的理解去行动。 

笛卡尔在300年前的论断依旧可以映照当下的现实,我们还没有真正触及到人工智能的本质所在。那么,我们应该怎么办? 

辛顿认为,现今人工智能之所以无法和人类比肩是因为它的复杂度还不够。人脑有100万亿个参数,而GPT-3模型却只有1750亿个参数,二者之间相差了三个数量级。 

因此,对于辛顿而言,“大小”很重要;也就是说,只要模型足够复杂,参数足够多,机器的智能便会得到提升。但事实果真如此吗?我们不妨先来看生物的智能。 

其实,生物的智能与“大小”关系不大。我们可以通过数据比对各类生物神经元的多少及其对应的智能高低。 

从左至右(从线虫到人类)生物神经元数量的多少依次递增,并且人脑与线虫之间神经元的数量相差了9个量级。但是,哪怕再低等的生物,如线虫,它也可以和人类一样在开放的自然环境中独立生存下去;与之相对的是,复杂度高达1750亿个参数的GPT-3却无法脱离人类独自生活。 

除此之外,生物还具有感觉与知觉的能力。虽然线虫只有302个神经元,但是它知道如何寻找食物、如何躲避天敌。更进一步,大多数的生物还具有情感。例如,我们在和宠物的日常相处中能够轻易察觉到它们的情绪变化,并给予相应的陪伴或是抚慰。而作为高等动物的人类,更是具备其他生物所欠缺的自由意志、思维能力等。 

我们可以进一步假设,如果把智能划分为不同层次的话,生物智能与“大小”关系不大,它并不需要参数量级的积累以实现更高层次的智能。我们可以借用自动驾驶汽车的例子来佐证生物智能的高级之处。 

自动驾驶汽车作为现今投资的热门领域,其自动驾驶技术的模型构造参照的正是线虫大脑的运算机制;而仅仅19个仿线虫的神经元,75000个参数,就基本上解决了自动驾驶的问题。这就是生物的伟大之处。 

生物经过35亿年的进化,其神经元中已经储存许多关于智能的密码,只是我们没有去解决它而已。关于脑科学的奥秘还未得到真正的解码,即便如此,基于简单的MCP模型已经能让神经网络实现众多智能化的操作。相信在未来随着脑科学研究的深入,机器一定能够实现更高层次的智能。 

简单总结一下,矛盾律作为物理世界的通行法则,伽利略利用它推翻了亚里士多德的运动律。也正是在伽利略的运动律的基础之上,才诞生了牛顿力学与爱因斯坦的狭义相对论。但矛盾律并非在诞生之初即是真理,英国数学家布尔通过逻辑运算证实了矛盾律的真理性。 

布尔逻辑触及到人类思维的本质,0和1这两种状态成为了所有智能行为的表征。以布尔逻辑为准绳,诞生了互联网与人工智能。因此,布尔逻辑也被称作第一性原理。 

更进一步,我们沿着第一性原理下沉至人类精神世界的法则,但这个法则究竟是什么,现今仍未可知。而我们能做的便是不断地追问智能的本质是什么、人脑如何工作以实现智能……并且,这些追问将在未来一直持续下去。 

本文来自微信公众号 “混沌大学”(ID:hundun-university),作者:刘嘉,36氪经授权发布。

+1
10

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

文章提及的项目

下一篇

最后一款产品发布21年后,3dfx还能回归吗?

2021-08-05

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业