正如硬币有正反两面一样,人工智能功能的发挥也有其两面性。一方面,作为工具属性,人工智能延伸了人的四肢并逐渐解放大脑。使用远程监控的千里眼、远距离信号传输的顺风耳、在古人看来无解的复杂计算,这些问题在人工智能那里得到了稀松平常的解决。另一方面,在某些领域,人工智能对人类运算、存储、记忆等能力的替代和超越,孕育了人工智能全面超越人类的可能,而这种可能性增加了人类被支配、被奴役甚至被消灭的危险。目前来看,越来越多的科学技术正在促使这种危险向人类逼近。那么,如何解读人工智能这种内在的张力?人类的哪些属性被人工智能改变?如何看待这些改变?
智能时代人类属性的改变
当分析人工智能既便利人类又可能灭亡人类的内部张力的时候,我们需要回答两个问题:一是我们说的人工智能究竟是哪种人工智能?二是这种张力是什么背景下发生的?
如果人工智能本质上是一种利用计算机模拟人类智能的技术,那么就可按历史、流派、文化、功能等角度对其进行分类。按照功能大小,人工智能主要分为弱人工智能、强人工智能和超人工智能。所谓弱人工智能主要是为满足特定需要、在特定方面对人的某一部分具体职能的替代和模仿的智能。这部分是目前应用最多的智能。比如,电力设备自动化控制器、电费收费软件、科大讯飞的语音翻译软件等。所谓强人工智能,主要是具有一定的通用性或一般应用场景的人工智能技术,该智能机器具有一定思考能力,比如,智慧电厂某些判断、自动驾驶的推理判断。超人工智能指具有相对自我学习、拥有与人类大脑相似的自主意识和自主创新能力。这种人工智能在科幻片中有很多,比如《人工智能》电影中的威尔,《机器姬》的那位机器人。这种超人工智能是弱人工智能和强人工智能发展的方向和未来。
既然人工智能的种类有如此的不同,那么按照这些种类推断出的结论也会千差万别。如果不在概念统一的共识下进行讨论,一定是鸡同鸭讲式沟通。这也是很多人对人工智能产生不同认识、得出不同判断,进而拥护或反对人工智能的原因。对能源电力来讲,我们日常接触的发、供、配、用电和大、云、物、移、智等概念,主要是电力领域的弱人工智能,即模仿人类的眼睛、耳朵、身体等五识的智能机器。这些人工智能是强人工智能的基础。而本文讨论的主要是强人工智能,即通用人工智能。这是因为,虽然弱人工能力有潜力发展为人类的替代者,但只是在某个专门领域内发挥作用;超级人工智能还存在于科幻作品中,在不确定的遥远未来里。
此时,我们就要回答:强人工智能产生的背景是什么,即人工智能张力是在什么样的特殊时代背景下产生的。这个背景就是很多人所确认的我们已经进入的人工智能时代。当然,使用“人工智能时代”这个说法,不是认为这个时代只有人工智能而没有能源互联网、基因工程、物联网等科技,而是认为人工智能是这个时代的标志。正如铁器时代也有工业,电气时代也有农耕一样。这个时代,以人工智能为代表的高科技使人类的生产力、生产关系,生活环境、生存方式发生了重要的甚至革命性的变化,这些变化在一定程度上也导致了人类属性的改变。人工智能不仅通过基因编辑等形式改变了人类的生理属性(比如试管婴儿、人造心脏对人类的生理结构的塑造),而且还通过替代人类计算、记忆等形式改变了人类的智力属性(文化属性)。随着时代的发展,这种生理属性和文化属性的改变呈现不断汇合的趋势,这种融合的交替作用正加快人类属性的较大改变。在这样一个背景之下,先前有关人性和理性的理论都要予以重新的审视。
人类属性有何改变
既然人工智能对人类属性带来了改变,那么,这种改变到底是什么样的改变?回答这一问题的前提是,人类的属性到底是什么?
人类的属性是一个自古以来哲学界一直关心而没有标准答案的话题。我们采用康德关于人类属性的四个追问,即人类能认识什么、人类应该做什么、人类可期待什么和人类是什么。这四个追问的核心归结为一句话,即如何定义人类在世界上的地位、价值、生存和发展的根据和意义。按照康德的思路,人工智能带给人类属性的变化至少在四个方面。一是人属性中的生物性质的变化。人工智能技术下的基因工程和器官移植,生成了有基因干预和有器官移植的人类,这一进程看似缓慢实际快速地塑造着新的人类。试管婴儿和移植器官病例的增加说明,人类的基础属性正在遭受人工智能水滴石穿般力量的攻击。二是由生物属性变化带来的人类心理和智力的变化。三是人的相对地位变化。如果说,人类能够凭借智力而成为万物之灵长,那么为什么拥有并且可能拥有超过人类智能的机器就不能作为万物之首呢?四是人类中心主义的伦理面临挑战。如果不能阻止机器替代人的可能性,那么有什么理由说碳原子合成的肉体比硅原子合成的智能机更高贵呢?
人工智能对人类属性的改变已经成为既定的经验事实。这其中,脑机接口研究和生物芯片技术具有一定的代表性。脑机接口领域是被世界顶级刊物《麻省理工科技评论》称为改变世界的一项新兴技术。随着脑机接口技术的不断发展,很多渐冻人患者、严重瘫痪患者可重新学会行走。更重要的是,正常人也可“神通广大”用意念掌控生活。比如,用思想来操控电脑、驾驶汽车、与他人进行交流,而不再需要笨重的键盘或液压方向盘。如果一个人能靠意念极快地获得快乐,那么奋斗的意义何在?追求的幸福在哪里?
生物芯片技术是利用半导体工业中的微加工技术把DNA、蛋白质、细胞、组织这些非常微小的材料有序地放到芯片上去。在人工智能技术的支撑下,生物芯片技术将给生物战争、生命科学、环境监督等领域带来巨大的革新甚至革命。个人记忆是人类认同的唯一根据。倘若人的记忆可以通过脑—机结合强化,可以通过生物芯片技术改变,那么记忆的内容同样也可以由此而改变。这个时候,被人工智能武装过的脑机接口(生物芯片)人还是之前的那个人吗?如果不是,与之前的人又有何区别呢?
退一步说,即便人工智能没有改变人的主体性。那么,在人的主体地位上,人工智能崛起也给人类带来挑战。比如,人类顶尖棋手仅仅能测算部分棋牌步骤,而阿尔法狗却能在只掌握围棋基本规则的前提下,依靠自我学习,就将人类打得毫无还手之力!如果说脑机接口、生物芯片、阿尔法狗距离我们还遥远的话,那么,许多专业性的工作逐渐被弱人工智能所取代现象正在不断量变。如,以十年为界比较电厂供用电技术的变迁,以五年为界比较移动互联网对PC互联网的代替。那些原本被视为高端智力工作被呆头呆脑的机器所取代,而人类还得听从它的安排,因为一些事情机器过不去、程序过不去,人类就过不去。
人工智能对人类属性的生物属性、智力属性的改变,可能不会如奇点一样突然涌现,但当这些改变演变到普遍程度时,整个人类的物理基础、行为规范都会产生本质的改变。
面对人类属性改变的应对策略
对人工智能带来人类属性的改变,有乐观者,有悲观者,也有无动于衷者。科学家可能更多关注在技术实现方面的弱人工智能,而哲学家更关注人类可能被取代的强人工智能。科学家与哲学家的这种分歧的结果是,科学家对人的本质属性并不关心,哲学家对科学的技术可能泛泛而谈。
但,未来已来。
对于如何防范人工智能危机的问题,学界有很多建议,且并没有统一的意见。其中比较著名的是美国科幻作家阿西莫夫提出的《机器人学的三大法则》:机器人必须保护人类的整体利益不受伤害(第零法则)。机器人不得伤害个体人类,或者目睹人类个体遭受危险而不管不问,除非这违反了机器人学第零法则(第一法则)。机器人必须服从人给予它的命令,当该命令与第零法则或者第一法则冲突时例外(第二法则)。机器人在不违反第零、第一、第二法则的情况下可尽可能保护自己的生存(第三法则)。看来堪称完美,但是,“人类的整体利益”这种混沌的概念,连人类自己都搞不明白,更不要说那些用0和1来想问题的机器人了。威尔·史密斯说:“机器人没有问题,科技本身也不是问题,人类逻辑的极限才是真正的问题。”
笔者以谨慎乐观的态度提出建议。
一是成立人工智能伦理建设委员会。该委员会包括人工智能领域的科学家、工程师和伦理、法律、政治、经济、社会等领域的专家,在民主协商的基础上,按照“少数服从多数”的原则,对人工智能的发展规划和前沿技术的研发开展评估并提出建议。
二是以人为本。既然人工智能是一项人类创造的为人类服务的技术,那么,就应坚持人类为中心的伦理,使这项技术尽可能满足人类多方面的愿望和不断增长的需要。既不能因噎废食而抗拒人工智能,放弃人工智能造福人类的机会;也绝不应该过于自信、任其发展,而使得人工智能的负面效应、可能风险伤害人类。
三是合理公正原则。对于人工智能可能造成的失业问题甚至造就无用阶层的问题,应该确立公正原则,让人工智能为尽可能多的人服务,让尽可能多的人共享其成果。任何人都应平等接触人工智能,可以自由使用人工智能。
当然,随着技术进步和社会发展,人工智能会有新变化,我们应该面对这些已经或即将发生的变化提出新的应用对策。(作者系中央民族大学中华文化研究院特聘研究员,高级编辑)
原载《当代电力文化》2020年第6期
评论