人工智能离理想还有多远

徐英瑾:专用人工智能就是只能干一件事或两件事的人工智能,通用人工智能是指什么事都能干一些的人工智能。解放周一:通用人工智能如果要处理全局性问题,需要搜集的数据就更复杂了。

人工智能离理想还有多远

来源:解放日报    2020-07-27 08:39
来源: 解放日报
2020-07-27 08:39 
分享
分享到
分享到微信

本月初,世界人工智能大会在上海召开。大会期间,张文宏医生一句“在人工智能如日中天的今天,此次抗疫靠的还是传统智慧”引起很多人的共鸣。

人工智能曾经是一个颇为科幻的话题。有人担心人工智能会取代人类,甚至会反人类。然而几年下来,我们发现人工智能并没有我们想象的那样智能。“问题”究竟出在哪儿?

从2004年开始,复旦大学哲学学院教授徐英瑾就开始将注意力投向人工智能。他不仅撰写了大量相关论文专著,开设的人工智能哲学课程也受到学生好评。

日前,他讲述了自己对上述议题的思考。他的剖析从“什么是人”“什么是智能”这两个问题切入。

认识不到现实和理想的差距就会导致“泡沫”

严格来说,人工智能的主流技术并不新,它经过对传统技术的反复迭代而来。

关于人工智能的发展现状,目前有“乐观论”“悲观论”“泡沫论”三种论调。

解放周一:世界人工智能大会的举办,激发起了很多非专业人士对人工智能的兴趣。大家很希望了解,人工智能目前进展到底如何。您如何看待人工智能目前的发展?

徐英瑾:现在公众对人工智能有很多期望,但根据我的观察,这些期望相当大的程度上是建立在一些对学界实际发展状况的误解上。

我经常会听到各种各样的误解,第一个误解就是认为人工智能是个新东西,是这几年冒出来的。事实上,人工智能(artificial intelligence)这个词正式变成公认的学科名词是在1956年美国的达特茅斯会议上。显然,这是距今已经挺久远的事情了。

至于现在被谈论很多的深度学习技能,前身就是人工神经网络(artificial neural network)。这个概念在上世纪60年代就被学界注意到了。人工智能的奠基人之一阿兰·图灵生前也搞过一些粗浅的人工神经网络研究。这样算的话,这个技术至少可以追溯到上世纪40年代。

所以,严格来说,人工智能的主流技术并不新,它经过对传统技术的反复迭代而来。

解放周一:那么,人工智能技术发展至今,现状如何?

徐英瑾:关于人工智能的发展现状,目前有“乐观论”“悲观论”“泡沫论”三种论调。

其中,“乐观派”可能是主流。持乐观论者认为,人工智能的发展一定能够在短时间内解决我们面临的各种问题。

这种论调描绘出了一个乌托邦般的场景:当你回到家中,所有的设备都能够通过全新的网络技术和物联网与你心有灵犀;汽车是不用驾驶的,你上了车以后,什么事都不用干,就可以把你带到目的地;沿途,你还可以和你的汽车交谈,就好像它是你的人类司机那样。

悲观论者更多是站在那些可能会丢掉工作的人的立场上,认为人工智能实在太厉害,会取代很多人的工作。到时,如果社会暂时又无法提供更多的新岗位,这可怎么办?

我的观点是泡沫论。“泡沫”不是指人工智能的未来一片黯淡,而是说在短期内,这项技术的发展还无法支撑得起很多人的梦想。

理想很丰满,技术目前还很“骨感”。如果你意识不到理想和现实之间的差距,就会导致泡沫。假如因为对人工智能持有乐观态度而到市场上去融资,就更需审慎考虑。

历史上确实有成功案例,比如IBM360计算机项目。

它的成功使计算机从过去那种非常笨重、只有高级科研单位才能买得起的状态,慢慢地变成办公室可以用的计算机,为个人PC的出现打下了基础。但失败的案例也很多。如果关于人工智能的融资计划都把未来描述得很美好,把饼画得特别大,最后也很可能会有问题。

我个人对人工智能未来发展的基本判断是——

人工智能对我们生活的改变不是全局性的、颠覆性的,而是局部的改进。比如,在在线教育、养老陪护等领域,人工智能能促进一些变化,带来一些商机。但有些项目,比如自动驾驶,就很可能存在一些应予以审慎对待的泡沫。

当然,我主张的“泡沫论”是建立在一些基本概念的界定上,比如“专用人工智能”和“通用人工智能”。

使用传统方法解决问题的能力下降是危险的

李世石应该会泡面、会开车,在和AlphaGo下完棋以后他还能够接受媒体采访、谈谈自己的感受。但是,AlphaGo肯定不会开车,更不能在和李世石下完棋以后和人类、和媒体交流自己的所思所想。

现在的人工智能都是基于大数据的,它对小概率和偶然性事件缺乏应对机制。当它面对这个充满变动的世界时,就不知道该如何应对了。

解放周一:如何区别“专用人工智能”和“通用人工智能”?

徐英瑾:专用人工智能就是只能干一件事或两件事的人工智能,通用人工智能是指什么事都能干一些的人工智能。

举个例子来说,李世石是一位棋手,AlphaGo是一个围棋程序。如果我们把李世石看成一个智能系统的话,他就是通用智能系统。因为他除了下棋,还能做许多其他事情,比如他应该会泡面、会开车,在和AlphaGo下完棋以后他还能够接受媒体采访、谈谈自己的感受。但是,AlphaGo肯定不会开车,更不能在和李世石下完棋以后和人类、和媒体交流自己的所思所想。经过这样的对比,我们能明显看出专用人工智能的局限。

我们人类的特点是,在一件事上可能是专家,其他事也能干,只是干得没那么好。但是,专用人工智能就只能干专门的事情,其他的事情基本无法兼顾。仅从这一点来讲,专用人工智能和能力全面的通用人工智能之间的区别还是很大的。

我们现在看到的人工智能都是专用的,它们的制作思路都是按照专用人工智能的思路来做的,比如人脸识别和语音识别。当前,人工智能通过卷积神经网络技术的进步,已经获得了一项重要能力,即可以同时通过人脸和声音来识别他人。但对于人工智能来说,基于神经网络的图像识别系统和语音识别系统是两回事。

解放周一:现在很多人对人工智能的想象,是建立在“通用人工智能”之上的。

徐英瑾:没错。这就成了一件比较麻烦的事。

很多人喜欢看美剧,发现里面出现的一些机器人已经特别厉害。有的机器人不仅拥有人类的特征,还开始反抗人类。有人看了这样的故事以后就会展开联想:如果我们和这样的机器人一起生活,会受到怎样的威胁?

自然而然地,很多人对人工智能的思考就建立在了这类科幻影视作品的基础上。而科幻影视作品受众广、不需要具备太多科学素养就能看明白,很有传播力和影响力。

我有一个观点:软科幻看多了,要看一些硬科幻。硬科幻距离今天的科学比较近,对科学知识的运用更严谨。相比软科幻,硬科幻更适合起科普的作用,能够增强普通人对现实世界的思考能力和把握能力。

现在的人工智能都是基于大数据的,它对小概率和偶然性事件缺乏应对机制。当它面对这个充满变动的世界(比如新型病毒、未知规模的洪水等)时,就不知道该如何应对了。

所以,我担心的问题不是人工智能有了人的意识以后会与人对抗,而是人类过多依赖人工智能以后,头脑反而会变简单。

不要以为有了现代化的先进工具以后就可以放弃传统。举例来说。假设现在有两支军队对峙,双方都有能力使用最新的网络信息技术,但只要有一方攻破了对方的网络防线,另一方的信息基础设施就沦陷了。到时,只能转而采用最原始的办法(比如信鸽、鸡毛信等),来传递信息。

对人工智能充满合理想象本身并没有错,但如果我们将人工智能的能力想象得过于强大,同时又疏于保持用传统方法、传统智慧解决问题的能力,这就可能会将人类置于某种尴尬的境地。

为什么现在还发展不出通用人工智能

通用人工智能系统的特点就是通用,既然是通用,就要处理全局性的问题。什么是全局性?就是拥有在不同的理论体系之间进行抉择的能力。

深度学习基于的神经网络技术用强大的机器海量计算掩盖了方法本身的“笨”。对于深度学习来说,如果有现成的数据会非常好办,但如果没有优质数据,靠它自己搜集数据就很成问题。

解放周一:现在的“深度学习”技术,有望在短期内,达到通用人工智能的程度吗?

徐英瑾:人们曾经想象能够有一种机器,不需要任何外界输入能量或者只需要一个初始能量,就可以不停地自动运动。在哲学家看来,这个设想经不起严格推敲,无法从根本上立得住。在我看来,通用人工智能大概也只能停留在设想阶段。

通用人工智能系统的特点就是通用,既然是通用,就要处理全局性的问题。什么是全局性?就是拥有在不同的理论体系之间进行抉择的能力。不同的诉求之间往往存在冲突,而人类有能力在各种冲突之间想办法,找到一个可以平衡各种矛盾的中庸点。

举个大家比较好理解的例子。有一位家政员到雇主家里做事。如果雇主是一位知识分子,家里书特别多,他就可能会要求家政员尽量把书房打扫干净,但不能干净到书都找不到了。

家里书多的人都知道,书的易取性和整洁性往往是相互矛盾的。书收起来,家里固然更干净整洁了,但如果几本书同时在看,堆起来以后再找、再取就很耗费时间。这时,究竟是追求整洁还是易取?这里面就有个平衡点。这个平衡点的抵达需要家政员和雇主之间长时间的磨合,却很难通过程序来设置。

任何一个综合系统都要具备处理各种复杂甚至突发情况的能力。其中有些情况甚至是非常极端、偶发的。比如,一辆自动驾驶汽车在道路上行驶。道路的左侧有一个路人在行走,道路的右侧有五个路人在行走,万一出现车速太快来不及刹车的情况,到时该往哪边拐?假设这个程序突然得到消息,左边的路人是我们国家一位非常重要的专家,它该如何选择?

很多人第一直觉会觉得专家更重要,但转念一想,每个人类个体的生命都是平等的。遇到这样的问题,人类会痛苦抉择、反复取舍。

换作是机器,问题就麻烦了。我们都知道,人工智能是基于一系列规则设置的,规则背后就是各种逻辑原则。一旦情况过于特殊或复杂,机器内部基于不同逻辑规则设置的程序之间就会打架。

我再举个例子。假设现在有一位外国小伙子到少林寺学武术,语言不通,怎么办?有个办法,那就是师父做一个动作,小伙子跟着做;如果他做对了,师父就微笑,做错了,师父就棒喝。通过这种方式,小伙子被棒喝以后,就知道自己做错了。但具体到底哪一点做得不对,如果师父不明示、不详解,他就需要猜、需要不断试错。这时语言的好处就很明显。如果彼此能够通晓对方的语言,师傅就能把包括武术规则在内的一整套内容都传授给他,帮助他理解,然后再由学生自己转化为行动。深度学习基于神经元网络的运作产生。神经元网络的运作,就类似于前面所说的那种比较笨的教学方法。

人类犯错以后的反省是基于道理和规则的。但系统不是,它遇到障碍以后的应对办法是调整各种参数,试错以后发现不对就再猜。它是通过大量的猜,慢慢地把事情往对的方向引。它的优势在于,可以在很短的时间里完成人类不可能完成的巨量猜测。深度学习基于的神经网络技术就是用强大的机器海量计算掩盖了方法本身的“笨”。但问题是,对于深度学习来说,如果有现成的数据会非常好办,如果没有优质数据,靠它自己搜集数据就很成问题。

解放周一:通用人工智能如果要处理全局性问题,需要搜集的数据就更复杂了。

徐英瑾:是的。所以,目前的深度学习机制,其根本问题就是缺乏跨领域学习的能力。这正是人工智能无法通用化、全局化的根本所在。

在我们的日常生活中,不同的系统有不同的运作方式。国际象棋有国际象棋的下法,围棋有围棋的下法。人可以适应变化,要人工智能去适应这一点却非常难。

解放周一:很多人会问,可不可以把各种专用的人工智能整合为一套通用的人工智能?

徐英瑾:其中又有一个问题——协同。这就和企业运筹帷幄一样,需要各个团队、板块的协同合作,需要有一个能力全面的人来领导,而人工智能并不具备总体的调度、配置能力。

为了研究人工智能和人类智能还差在哪儿,一些专家提出了所谓的“卡特尔—霍恩—卡罗尔”三层智力模型。他们把通用智能分解成很多部分,比如流体智力、晶体智力、量化推理、读写能力、短期记忆、长期记忆、视觉处理和听觉处理等。

量化推理无非就是算术,读写能力就是你能不能看懂文章、读懂要点。晶体智力就好比老师现在给你一道题目,告诉你解法以后,看你能不能把做题的思路迁移到新的题目上。流体智力要求更高,相当大程度上,它强调的是一个灵活调用各种智识能力的状态。

至少在目前,人工智能不是根据人类智识能力的发展方向来发展的。长此以往,它的“拟人性”就很成问题,它离真正意义上的通用人工智能就还很远。记者 柳森

(柳森)

【责任编辑:张瑨瑄】
中国日报网版权说明:凡注明来源为“中国日报网:XXX(署名)”,除与中国日报网签署内容授权协议的网站外,其他任何网站或单位未经允许禁止转载、使用,违者必究。如需使用,请与010-84883777联系;凡本网注明“来源:XXX(非中国日报网)”的作品,均转载自其它媒体,目的在于传播更多信息,其他媒体如需转载,请与稿件来源方联系,如产生任何问题与本网无关。
版权保护:本网登载的内容(包括文字、图片、多媒体资讯等)版权属中国日报网(中报国际文化传媒(北京)有限公司)独家所有使用。 未经中国日报网事先协议授权,禁止转载使用。给中国日报网提意见:rx@chinadaily.com.cn