公告栏:

首页 > 思想·文史 > 列表

人工智能距离“人类杀手”有多远?

作者:浙江大学哲学系、语言与认知研究中心 李恒威教授 王昊晟

人工智能威胁人类还有多远?
 

WDCM上传图片

 
  “深度学习”(Deep Learning)算法和大数据技术的出现,将人工智能研究推进到一个全新阶段。人工智能程序AlphaGo、Alpha Master和Alpha Zero的登场更是震动了整个社会。人工智能被认为是第四次工业革命的核心动力之一。在短短的时间里,世界上的一些发达经济体,诸如美国、英国、日本、韩国等,相继发布有关人工智能的国家战略,力求在国家竞争中占据先机。中国也分别于2017年7月和11月公布了《新一代人工智能发展规划》和首批四个国家新一代人工智能开放创新平台,展示了中国成为人工智能强国的雄心。相比于国家战略,像谷歌、微软、阿里巴巴、腾讯、百度等科技巨头更是迅速布局人工智能的企业战略,通过增资研发、投资并购等方式,争夺这一领域的产业高地。同时,学术界也竞相成立人工智能的研究机构和智库,探索人工智能的前沿技术和方向,以及人工智能塑造人类社会的各种可能性。
 
  随着一些新科技,诸如物联网、机器人技术、虚拟现实和增强现实技术、3D打印技术、生物科技、神经科技、新材料科技、纳米科技、人工智能、自动驾驶技术等,在第四次工业革命时代的汇聚融合,人类既为这些科技蕴含的巨大的变革性力量感到振奋和鼓舞,同时也为人类在自己所创造的技术社会的角色、地位和状况有一种混合着现实与想象的担忧、焦虑甚至恐慌。人工智能的此轮崛兴,尤其Alpha系列的人机围棋大战,使得人们对技术的这种复杂心态变得更加突出和醒目。
 
人工智能威胁论之种种
 
  在人工智能发展史上,研究者不止一次地表达过对人工智能威胁的忧虑,提出了像“智能爆炸”(intelligence explosion)、“人工智能奇点”(AI singularity)、“人工智能启示录”(AI apocalypse)这样的理论假设。面对这些理论家的、社会名流的以及一般公众的各种人工智能威胁论,我们认为非常有必要解析各种人工智能威胁论的语义,对它们进行梳理分类。根据语义分析,人们所谈到的人工智能威胁大致可以分为四种类型:工具性威胁、适应性威胁、观念性威胁和生存性威胁。
 
  工具性威胁。工具性威胁是指,作为人类使用的工具,技术因其本身的缺陷或由于人类不恰当使用所导致的危害或威胁。换句话说,当人工智能技术存在缺陷或者被以不正当目的进行利用时,它会对人类的个体和社会的不同方面造成危害或威胁,例如,通常的弱人工智能系统可能因程序故障或人的恶意操控而造成导航错误、电网瘫痪、金融市场崩盘等。这种危害或威胁意味着人工智能在与人类的关系中处于被动从属地位,它并不具有自主“威胁”人类的意图。
 
  适应性威胁。近代以来的每一次工业革命甚至单一的技术革命都会对原有生产生活方式造成极大冲击,这种冲击往往令身处原有生产生活方式中的人们感到“不适应”。我们把这种技术变革造成的人们的不适应称为适应性威胁。与蒸汽、电力等其他新技术的诞生一样,人工智能给当下人类社会带来了重大变革,也令许多人感到“不适应”,例如,人工智能造成的“技术性失业”甚至会广泛波及高级智力劳动者,如翻译、医生、律师等。
 
  观念性威胁。随着人机融合技术的发展,通过各种增强技术——物理增强、生物增强、神经增强和智能增强——人类可以将人工智能嫁接乃至无缝地融合到自身的自然智能中,实现人机融合的智能。这样,人不再是纯粹自然演化意义上的生物人,而是一种人机混合物。这种人机混合物将会对人类自身所持有的人性观念产生极大的震动,会对人类在自然演化意义上的历史中形成的一整套观念——尤其是伦理的、法律的、教育的观念——构成威胁。我们把这种人机混合的生物所造成的对人性观念的冲击和威胁称为观念性威胁。
 
  生存性威胁。当通用人工智能完全实现,人工智能体将会成为一种源自人类创发、但却异于且优于人类的独立自主的生命形态。在人们的构想中,这种人工智能的生命形态具有与自然人一样的人性构建,即具有人所具有的完整心智(mind),也就是说,它们不仅有与人类一样的智能系统、情感系统和意志系统,而且在这三个方面都有比人类更强的能力;并且人类往往设想这种人工智能的动机和意图是邪恶的,它们会凭借自己的超级能力控制、奴役甚至灭绝人类。我们把这种人工智能的威胁称为生存性威胁,即一种最令人忧虑和恐惧的对人类生存的根本威胁!
 
对四种威胁的辨析
 
  对于一个完整的心智(mind)而言,通常包括三个相对独立又相互连结的系统——情感(情感和动机)系统、意志(意志和行动)系统和智能(感知和思维)系统。事实上,就语义而言,“威胁”“控制”等词语都是规范性概念,而这种规范性的语义通常是由情感(情感和动机)系统承载的,而并非由智能(感知和思维)系统承载的,换言之,“威胁”的规范性语义并不内在于“智能”概念中。因此,要明确人工智能威胁论的究竟,我们就有必要辨明在上述四种威胁中人类与人工智能在规范性上处于何种关系。
 
  对于工具性威胁和适应性威胁而言,主体都是完全生物意义上的人。在两种威胁中,人工智能体(或人工智能装置,或人工智能系统)都扮演着工具性的角色。虽然适应性威胁中的人工智能体已经成为一种改变人类生存环境的革命性构成要素,但从本质上看,其功能与价值同样是由人类赋予或决定的,并服务和满足人的意图。因此,上述两种威胁实质上是关于人如何使用工具的威胁。
 
  在观念性威胁中,主体已不再是完全生物学意义上的人,构成人类主体的方式发生了一定的变化。但这种变化是局限性的,它增强的是生物人的体力、感知力和智力,而作为行动主体的规范性,即生存的动机、意图、目的、感受、情感、价值、意义等,来源仍然是由生物意义上的人所决定的。确切地说,融合在生物人身上的人工智能是对生物人的智能的融合而不是对生物人的心智的融合。从核心意义上说,观念性威胁仍然是人类对人类的威胁。
 
  然而,在生存性威胁中,主体发生了根本性的改变,从人转移到了人工智能本身。尽管此类人工智能也是人类创发的,但它本身却具有独立自主的(autonomous)心智,因此也就有了独立自主的动机和情感系统——人工智能体将成为一种尽管是人工的、但却是独立自主的、甚至超越人类心智的主体。在这一层面上,生存性威胁就与前三种威胁存在质的差别,也就是说,生存性威胁是真正意义上人工智能对人类的威胁,而不仅仅是人类因为使用作为人类智能延伸的人工智能而对自身产生的危害或威胁。
 
  事实上,针对生存性威胁,许多公众人物,特别是科技界的知名人士都表达过自己的立场。以霍金、马斯克等为代表的支持派认为,“人工智能未来还将发展出自己的意志——这种意志将与人类的意志产生冲突。”而扎克伯格、贾南德雷亚等所在的反对阵营则表示,这些威胁言论过于消极,是极其不负责任的。在他们看来,所谓的生存性威胁并不是迫在眉睫的事情,人们不应当为此感到恐慌。
 
生存性威胁可能吗?
 
  无论是支持或反对生存性威胁,都必须给出有力的支持理据,否则,相关的言论就无异于夸夸其谈,甚至是误导民智的。我们认为,如果人工智能能够产生生存性威胁,那么除了具有超级智能之外,它还必须具有能对智能加以规范的自治的情感系统。但是,从情感神经科学的角度看,智能系统并不必然蕴含情感系统,相反,情感系统要比智能更加古老;而按照生物学中的自创生(autopoiesis)理论,情感——或者更一般地,价值、意义或自然目的——已经蕴含在最简单、最原始的生命中,并且情感的起源也就是生命的起源,而唯有在情感的规范性的引导下,智能才能发挥它的作用。
 
  与传统神经科学认为新皮层的高级认知功能对于心智发展起到决定性作用不同,情感神经科学提出了完全相反的观点。美籍爱沙尼亚科学家潘克塞普(J. Panksepp)认为,位于新皮层下的低阶脑区的情感系统在心智演化过程中居于首要地位。他在《心智考古学:人类情绪的神经演化起源》一书中提出了嵌套的脑心层次结构(nested BrainMind hierarchies)模型,阐明了这一观点。脑心(BrainMind)是一种在演化上分层的器官,生物的情感、学习和高级认知能力是逐层嵌套的,低阶脑心智功能嵌入并再现于高阶脑功能中。在整个心智过程中,不仅存在智能等高阶脑功能自上而下对情感进行调节;更重要的是,低阶脑的情感功能可以自下而上,通过学习和发展机制,对高阶脑功能进行引导与控制。这种双向的路径可以被视为“循环因果作用”。因此,心智生活的所有方面,包括高级认知活动,都受到初级过程情感的影响,并且低阶心脑的整个情感系统是高阶心智功能健康发展的基础。如果离开了脑深处的情感心智(affective mind),那么新皮层根本就无法取得任何成就。
 
  相较于潘克塞普提出情感源于原始脑系统,自创生理论的研究更进一步。这一理论认为,即使在像单细胞这样无神经系统的最小形式的生命,就已经蕴含了内在目的和规范性,也就是说,规范性的起源可以通过分析最小生命这一更基本层次来理解。智利理论生物学家和认知科学家马图拉纳(H. Maturana)和瓦雷拉(F. Varela)主张,“生命——无论是最原始的生命单元(单细胞),还是复杂如人类般的生命体——的本质在于它内含一种必须遵循和实现的自创生机制,它是一个物质系统成为生命系统的充分必要条件。”也就是说,生命系统不仅是一个自指和递归的过程,更重要的是,它是一种能够实现自我生产从而得以自我维持的自指和递归的过程,这个过程形成了一种特定类型的自组织系统,即自创生系统。自创生分析表明,有机体统一性的持续建构就是生命内在的自然目的。有机体通过新陈代谢的方式维持其同一性的过程蕴含着一种最基本的规范性,即生与死或好与坏。因此,规范性内在于生命中。如果说,伦理、法律、审美等是在人类心智层面才充分表现出来的规范性,那么,这是因为它们有一个来自最简单生命的规范性起源。
 
  基于上述分析,我们认为,一个能够产生生存性威胁的人工智能体首先必须是一个具有自治情感的生命系统,但就目前已知的人工智能技术而言,生命概念并不蕴含在其中。因此,在这个意义上,人工智能的生存性威胁在现实当下并不可能,对它的忧虑是没有科学理据的。
 
“拟人化”人工智能的未来发展
 
  当我们重新审视人工智能的生存性威胁时,我们会发现,事实上这些言论都是对人工智能进行了一种拟人的外推。所谓拟人论,是指将人类的特征、情感或者意图套用在非人类的对象上,并用人类的方式来理解和描述它们的行为。具体到人工智能威胁上看,无论是毁灭人类世界,还是自我意识觉醒,大众印象中的人工智能始终被假设具有与人类完全相同的人工心智,或者至少是同时拥有认知的智能系统和动机的情感系统。只有当人工智能被视作一个生命系统时,生存性威胁才能够真正成立。未来人工智能的发展是否可以使人工智能体成为一个完整的生命系统?对此,我们持开放的立场。但就目前而言,我们很难视人工智能是有生命的,因为它缺少出自自身的、内在的、自治的规范性。
 
  事实上,考虑到人工智能目前在模拟人类智能上所遇到的瓶颈与困难,相较于忧虑、恐惧人工智能对人类的威胁,寻找新的途径、促进发展人工智能才是当前学界应当关注的首要问题。我们希望关于人工智能的各种威胁论可以回归理性的轨道上。当然,人工智能的长期发展,或者说通用人工智能的实现,无论是对于人类的社会进步,还是对于理解人类自身心智大脑而言,都将具有极为重要的积极作用。
 
《社会科学报》总第1590期5版