数据要素产业
吴万伟:人工智能的哲学问题
文 | 吴万伟,武汉科技大学外国语学院教授
作者授权发布
摘要:最近一两年,人工智能似乎成为中外学术界和普通大众都津津乐道和热烈讨论的新潮流。人工智能究竟是什么?人们在谈到这个话题时为何往往按捺不住兴奋激动之情,同时又感到忧心仲仲?人工智能涉及到哪些哲学问题?中国的人工智能前景如何?本文根据最近报刊上发表的文章,对这些问题做初步的分析,希望对国内学界有些启发。
一、人工智能风头强劲
人们近期对人工智能的热情大幅增加。风险投资家对人工智能的投资已经从2013年资助291年创业公司增加到现在的1028家人工智能创业公司。在瑞士达沃斯世界经济论坛年会上,2018年的议程中有11个分论坛涉及人工智能问题。财富杂志2018年在广州召开的全球技术论坛也是人工智能的讨论占主导地位。人工智能不仅仅是一种时尚潮流,而且代表了一种做生意的新方式。[1]
麻省理工在2018年10月15日宣布了投资10亿美元的人工智能工程。用六亿五千万美元捐款和招聘50名员工成立新学院,打破学科边界,专门研究人工智能。除了人工智能的应用性进步外,该学院将支持研究应对两大挑战的办法:如何处理人工智能对所要改造的社会带来的伦理和哲学含义,以及如何打破学术界内部的学科孤立的制度樊篱。[2] 不久,加州大学伯克利分校2018年11月宣布成立数据科学和信息部,并在全世界招聘该部主任,戴上副教务长头衔,与其他学院平级。这是该校过去几十年来最大的机构改革,帮助确立其在国家一流数据科学研究和培训中心的地位。[3]
我们国家显然也意识到了人工智能的重要作用,政府正采取积极行动,改善中国人才库的规模和质量。教育部2018年4月启动的高校人工智能创新行动计划就包括:为特定行业的人工智能应用创建“50个世界一流的本科和研究生教材”,将创建“50个国家级高质量在线开放课程”,将建立“50个人工智能系,研究机构或跨学科研究中心”。教育部还计划推出一项新的五年人工智能人才培训计划,以培养500多名人工智能教师和5,000名顶尖中国大学的优秀学生。[4]
二、人们对人工智能正反两方面的看法
(一)人工智能简介
那么,人工智能的魅力究竟何在?人工智能(Artificial Intelligence)被定义为机器从事与人有关的认知功能的能力,如认识、推理、学习、与环境互动、解决问题甚至发挥创造性等。人工智能的技能涉及机器人和自动化技术、计算机视觉、语言、虚拟代理人和机器学习等。算法的进步加上数据增生以及计算能力和存储能力的大幅度提高促成人工智能从夸张宣传变成现实。[5]
著有《在人工智能时代生存:机遇与风险》 的英国作家卡鲁姆查斯(Calum Chace)认为,人工智能对人类是个威胁,但也可能带来巨大的潜在利益。我们以他近期推荐的五本新书简要介绍可知该领域关心的主要话题。第一本书是雷库兹维尔(Ray Kurzweil)的《奇点接近》,该书认为2029年将出现通用人工智能(AGI),机器将取得技术突破,变得和人一样聪明甚至更聪明。不过,他觉得库兹维尔过于乐观了。第二本是尼克波斯特罗姆(Nick Bostrom)的《超级智能:道路、危险和战略》,专业性很强,作者的资历令人信服,最糟糕的风险是我们忽视风险的存在。第三本书马丁福德(Martin Ford)的《机器人崛起》谈论经济问题,即造成大规模失业。如何应对不平等问题?特权阶层不仅拥有经济优势,而且有认知和身体优势,成为比他人更聪明、更敏捷、更长寿的物种,人类将分为两种:神和废物。剩余两本有关人工智能方面的书是麻省理工教授埃里克布莱恩约弗森(Erik Brynjolfsson)和安德鲁麦克菲(Andrew McAfee)的《第二个机器时代》和澳大利亚科幻小说家格雷戈埃根(Greg Egan)的《序列城市》。[6]
如果谈到人工智能的理论基础,中国科学技术大学计算机学院陈小平的介绍通俗易懂。他认为人工智能涉及三层空间:现实层、数据层和知识层。底层是现实层,是人类的复杂、含糊和具像的现实世界。中间层是数据层,是从现实层获得的抽象的、格式化的数据。在现实层和数据层上,经过人工建模或机器学习得到结构化的、包含语义的知识。在知识层上,人工智能研究自然语言处理、推理、规划、决策等。人工智能经典思维在数据层和知识层取得了巨大进展。但是,智能机器人和现实层人工智能必须能够有效应对环境的不确定性,这是当前人工智能研究面临的主要科学挑战。由于对象、属性、和关联的不确定性,陈小平认为全能型人工智能是内涵矛盾的概念,其研究目标是基于中国讲究灵活性、灵巧性和灵敏性的传统思维尝试发展一种“基于容差性的机器人灵巧性技术”。[7]
脸书人工智能研究院院长和纽约大学数据研究中心主任杨立昆(Yann LeCun)强调说创造人类水平的人工智能即便不是没有希望的,至少是非常困难的,在可见的将来,超级机器人似乎很渺茫。蒙特利尔大学机器学习实验室主任(Yoshua Bengio)认为人工智能的最紧迫威胁不在人工也不在智能,而是应对品牌推广挑战而非技术挑战,教育民众区分科幻和现实。[8]
人工智能主要有四大应用领域:视觉处理,语音识别,自然语言处理和智能机器人。智能机器人领域主要与自动化、控制与技术学科相关,视觉处理更多与电子通信学科相关,而语音识别、自然语言处理则涉及计算机科学和语言学知识。在语音识别和自然语言处理的应用之中,语料库作为必不可少的技术支撑,需经由语言学的知识建立。为了对人工智能在政治、经济、心理、教育等领域产生的问题进行回应,应该创建包括智能政治学、智能社会学、智能法学、智能经济学、智能教育学、智能心理学和智能语言学等在内的智能社会科学,为未来全球范围内的人工智能发展、社会问题的解决提供中国智慧和中国方案。[9]
人工智能不是先锋概念,而是企业需要准备接受的技术现实。早期采用者占领先机,机器人自动化系统取代数据输入等重复性劳动,自然语言处理被用来产生人类话语的意义,机器学习在处理分析数据并据此行动。目前的挑战在于实施的高成本,与现有体系的融合,专业知识的缺乏等。[10]
(二)积极和正面的看法
说到人工智能,不能不提及要改变世界并塑造我们生活方式的硅谷数字巨头新精英群体。其中四个代表人物分别是:1)预言家库兹维尔,提到奇点概念和宣称2029年电脑能够做人能做的任何事,而且做得更好。2)工程师塞巴斯蒂安特伦(Sebastian Thrun),他是幕课平台(Udacity)的总裁和斯坦福人工智能实验室主任,制造了无人驾驶汽车,他认为技术进步迫使社会接受终身学习的概念和面向所有人的教育,希望他的教育公司(Udacity)每天毕业一千人。3)意识形态理论家彼得塞尔(Peter Thiel),他是在线支付工具Paypal创始人,硅谷最有影响力的风险投资家,几年前曾设立基金会每年资助20岁以下的学生20名每人10万美元辍学办公司,他相信大学教育体制阻碍人的进步。4)征服者乔格比亚(Joe Gebbia)爱彼迎Airbnb创始人,征服世界同时让它变得更好。[11]
几十年前曾经撰写过《自私的基因》的理查德道金斯(Richard Dawkins)也是人工智能的支持者,他的革命性进化论为人工生命研究者带来灵感。他认为所有生命在本质上都是数字信息转移的过程。自私的基因这个隐喻不仅创造了解释人和动物行为的重要背景,而且创造了让分子生物学家考察基因有机互动的框架。道金斯认为电脑不仅是计算工具而且是进化媒介。在他看来,进化单位不是基因或者模因而是复制因子(replicator)任何有机体都倾向于继承基因,并竭力创造精心设计的机器,即与上一代一样的身体。[12] 道金斯说,人工智能或许比人更好地管理社会。[13]
人工智能将改变世界,但研究者在试图明白何时和如何改变世界。第二届人工智能年度索引报告显示,硅谷领袖将其视为做生意的机会,参与人工智能研究的军备竞赛会带来巨额回报。麦肯锡全球研究所2018年11月的报告发现,到2030年,全世界8亿个工作将败给自动化产业,只有6%的工作面临彻底自动化的风险。从只有人做的工作转变为机器协助的工作的转变过程如何发展将决定是全面的危机还是历史性的范式转移。自动化不会消灭所有工作,但会让工作的性质变得复杂起来。[14] 奥巴马政府最后几个月发表的“为未来的人工智能做准备”报告谈到,智能汽车、智能大楼、智能教育、智能医药、智能政府带来潜在好处和值得认真对待的风险和挑战。同时还有仿人机器人从事陪伴、看护、性伙伴等也是许多研究者探讨的可能性。[15]
(三)消极和负面的看法
技术总是令人感到恐惧,这是因为它是变革的催化剂。麻省理工媒体实验室副教授伊亚德拉万(Iyad Rahwan)说,“从前,早期医疗科学产生了弗兰根斯坦,工业革命产生了害怕机器抢了他们工作的路德分子。今天,人们在担忧人工智能不仅抢了工作岗位,而且担忧机器人会毁灭人类。”[16] 人工智能不仅剥夺蓝领工人的工作,而且威胁到中低层都市白领的工作。与90年代互联网兴起之时吸收大量的程序员、技术人员和内容生产者不同,拥有深度学习能力的人工智能有可能取代编辑、记者、银行职员、医生、教师、投资分析师等脑力劳动者。不仅如此,人工智能的时代,随着云计算和大数据的研发,机器处理数据的效率大大增加。这种对个人数据的分析和处理,将影响、支配每个人的生活。[17]
人类依赖人工智能来发现知识越多,我们就越丧失自己的认知能力,大脑会退化。人工智能在本质上就是在我们执行功能过程中制造心理缺陷。如果不受限制持续下去,我们将过分依赖人工智能来辨认出改善生活的新东西,最终导致离开人工智能就活不下去的地步。[18]
美国国家科学基金会前项目主任保罗沃布斯(Paul Werbos)不大相信几十年之内,机器将能够“不仅能走路、开车、飞行、打架,还能写书、作曲、拍电影、设定新目标。”机器人可能有意识,可能看起来像人,但他们会注意到我们受苦,会为我们感到难过,因而会杀了我们,一种利他主义的毁灭。[19] 人工智能是一种处理方式,人工智能算法只能将信息简化为数据集,而不是增加。数据集是让人工智能工作的信息源。要增加信息,我们就必须增加数据。假设我们可以接触无限的数据,增加数据集的规模的边界时我们处理数据的速度。如果达到一个峰值,数据处理的改善停止不前,或者对改善的投资回报已经下降,就不值得再继续研究下去了。[20]
凯文凯利(Kevin Kelly)也认为超人人工智能是个神话。他说,霍金、马斯克、盖茨等人所说的超级人工智能即将实现是基于如下五个没有证据支持的假设:1)人工智能已经比我们聪明,而且以指数级的速度快速发展;2)我们将让人工智能拥有通用智能机器;3)我们用芯片制造人类智能;4)智能可以无限扩张,5)一旦制造出超级智能机器人,它能解决我们的大部分问题。但实际上1)智能不是单一维度的,比人聪明的说法没有任何意义;2)人没有像瑞士军刀那样通用目的的心灵,人工智能也不会;3)采用其他媒介模仿人类思维代价高昂,思维方式与人不同是人工智能的主要资产;4)智能维度不是无限的;5)智能只是进步的一个因素,思维只是科学的一部分。[21]
不仅有人对人工智能的技术前景表示怀疑,甚至觉得人工智能热潮就是个骗局。人工智能是现在用得最广泛、定义最松散和最容易误解的术语。2018年前8个月英国六家主流媒体发表的760篇文章中,媒体对人工智能的报道主要是企业本身,60%的文章集中在新产品或者发布会之类,三分之一来自企业,12%明确提到大富豪马斯克(Elon Musk)。[22]
剑桥大学智能未来研究中心执行主任斯蒂芬卡弗(Stephen Cave)指出,作家卡夫卡(Franz Kafka)在其1915的小说《审判》中想象了这样一个复杂和不透明的系统:人被分为胜利者和失败者,但使用标准并不清楚。被评判者不知道收集了什么数据,也不知道与什么数据进行了比对,没有人愿意为系统的决定承担责任,人人都声称只负责分管的那部分功能。主人公约瑟夫K无缘无故被逮捕,最后像一条狗一样被处死。快进100年,人工智能被批评家描述为类似东西:模糊不清,无须承担责任。其历史很长,与国家和企业权力有千丝万缕的联系,主要服务于政府、军方和大企业的利益。“人工智能”中的智能不是人类个人智能而是官僚制度的系统性智能。它的确有技术可以带来更好的医疗服务或更具针对性的在线学习,但可能存在不公平长期化,体现从前的偏见等问题。[23] 哈佛商学院教授肖珊娜佐伯芙(Shoshana Zuboff)在新书《监控资本主义》中指出令人担忧的现象:将一切数字化给予技术公司无限的社会权力。其理论核心是“行为过剩”(behavioral surplus)概念,技术公司利用改善服务来收集数据,用更多数据卖广告,再预测甚至影响用户行为并创造“监控资本。”谷歌创造和完善监控资本主义的方式与一个世纪前通用汽车公司的管理资本主义一样,但不仅仅是监控范围更大,而是新的经济秩序、市场形式和积累逻辑。“管理资本主义”将身体自动化,监控资本主义将心灵自动化。消费者在追求自我实现的目标中被消费心理劫持。[24]
英国哲学家朱利安巴格尼尼(Julian Baggini)说科学对世界的去神秘化是一把双刃剑,在带来好处的同时也带来风险,用道金斯的话说,把人变成“生物学机器人”。[25] 小说家戴夫艾格斯(Dave Eggers认为世界将变成数字监狱,人们心甘情愿地进入专制世界,实现了梦想,却丧失了自由。[26]
总之,人工智能本身不是恶魔,重要的是我们如何防范风险,开发者积极嵌入保护性措施以免其被恶意使用。现在下结论那一方正确还为时尚早。[27]
三、人工智能的哲学问题
读者或许已经注意到在上文介绍人工智能尤其是谈到对人工智能的评价时,不仅涉及技术问题更与哲学问题密切相关。本节简要论述人工智能涉及到的哲学问题如死亡、伦理、意识、进步、创造性等。
在英国皇家学会副会长阿利斯泰尔麦克法兰(Alistair MacFarlane)看来,人工智能这个词让人误入歧途,似乎赋予机器能动性,更好的说法应该是“人工知识”(Artificial Knowledge)。创造机器智能是巨大的挑战,因为智能在本质上指的是使用已经学到的东西对付崭新的意外。他认为我们需要区分三大概念:信息、知识和智慧。它们分别反映了我们与现在、过去和将来的关系。信息告诉我们世界现在如何;知识告诉我们基于积累的过去经验应该做什么;智慧指导预测和建议,告诉我们在新环境下应该怎么做。信息是可分享的有用模式,知识是可验证的真信念,只有明确的以语言为基础的知识能够轻易靠书本或机器传播,但很多知识是心照不宣的。智慧不是信息而是对付难以预测的场景的能力。人与机器的潜能差异包括技能差距、知识差距、人格差距。人与机器之间的技能和知识差距在逐渐扩大,机器赢得人这种程度的智能、同感和情感潜能恐怕还很遥远。我们的终极挑战不是进一步开发更先进的技术,而是学会如何以一种新的社会形式与机器共处。科学家技术人员可能发现挑战令人兴奋,但后续的政治社会和经济困难可能让其余人觉得困难重重。[28]
(一)人工智能本来就是哲学问题
牛津哲学教授卢西亚诺弗洛里迪(Luciano Floridi)认为以人工智能为代表的第四次革命是人类重新定位人性和自己在宇宙中的位置的演变过程的延续,是对人类自恋的又一次打击。科学改变我们认识的方式有两种:一种是外向--世界,一种是内向--自我。他引用弗里德尔韦纳特(Friedel Weinert)的书《哥白尼、达尔文、弗洛伊德:科学历史与哲学上的革命》说,哥白尼的日心说动摇了人是宇宙中心的假设,达尔文显示人和其他物种拥有共同的祖先,一样依靠自然选择进化演变,弗洛伊德认为心灵不是纯粹的理性,受到潜意识的影响。以电脑鼻祖图灵为代表的人工智能挑战了人类的优越性。他强调了信息哲学的重要意义。哲学之所以特别有用就是因为它能构建和改善我们需要的思想工具以便对付遭遇的最大挑战。我们进入了历史的转折点,从模拟世界到数字世界的革命性转变和信息技术的快速发展改变了生活的每个方面:不仅改变了我们的行为,还改变了我们理解世界的方式、我们与世界的关系、我们看待自己的方式、与他人互动的方式、对更美好未来的希望。[29] 牛津大学物理学家大卫道奇(David Deutsch)则更是直言不讳地说,通用人工智能(AGIs)研发根本不是电脑科学或者神经生理学的问题而是哲学问题。他说,“我们把不知道如何编程的任何东西都称为‘人类智能’。”美国哲学家约翰塞尔(John Searle)在电脑出现之前就说过,蒸汽机和电报是解释人类心灵如何工作的隐喻。创造性的存在使人们不可能永远被奴役。我们应该停止把教育看作灌输看作传输现有知识,让现有价值观得到驯服地实施的手段。[30]
塔夫茨大学认知研究中心丹尼尔丹尼特(Daniel C. Dennett)是哲学家,也是神经科学、语言学、人工智能、电脑科学和心理学方面的专家,他重新定义和改造了哲学家的角色。他在“哲学家遭遇人工智能”一文中提到:人工智能在很大程度上就是哲学。常常直接与立刻辨认出的哲学问题相关:心灵是什么,意义是什么?理性是什么?感知中辨认出物体的必要条件是什么?怎么做决策,如何为决策辩护?但哲学家对此似乎并不热心。很多人工智能项目是在探索做事的方式,更像思想实验而不是实证性实验。哲学家则往往将人工智能工程看作顽固的傻瓜不断尝试把圆形变成方形:我们已经证明这行不通,停下来吧,傻蛋。人工智能给哲学家提供了新问题和新解决办法,还有更多可供思考的新原材料。[31] 这个观点得到伦敦帝国理工学院认知机器人学系教授默里沙纳汉(Murray Shanahan)的支持,他在《技术奇点》(2015)一书中说“人工智能最终提出的问题是苏格拉底问题:我们应该如何生活?” [32]
人类之所以担心被超级智慧机器所奴役,之所以把拥有超级智慧的人工智能看作生存的威胁是因为我们依据智能水平为自己的权势和地位辩护。在剑桥大学斯蒂芬卡弗看来,人类的最大威胁不是人工智能而是天生的愚蠢。他说,一个人是否有智慧,不仅是指其智能水平,还是一种价值判断,因而是政治性的。在西方历史上,那些被认为智慧不足的人可能面临着被殖民、被奴役、被绝育、甚至被杀戮的风险。难怪纽约学者凯特克劳福德(Kate Crawford)注意到对人工智能的担忧主要出现在西方白人中间,因为他们处于社会等级的最高层,新智能产品的出现将使他们损失最大。如果对智能的概念发生变化,如东方文明认为有智慧的人不是有权统治他人的人而是传播智慧和为天下带来太平的人,是嘲弄陷入虚荣的权力陷阱的人,我们还担忧比自己聪明的机器人吗?[33]
(二)死亡问题
高奇琦在“向死而生与末世论:西方人工智能悲观论及其批判”中谈到人工智能悲观论的基督教起源问题。在高看来,悲观论实际上是西方基督教叙事中的最新版本,最终可以追溯到西方哲学对待死亡的态度。末世论是基督教中的经典叙事,因为人性恶,所以人类的历史将会终结于世界末日。人工智能的发展在本质上为末世论提供了新的叙事场景。人类不应该去充当神的角色,更为激进地挑战神的领域,在未来必将付出更大的代价。因此,人们的恐惧心理也在与日俱增,正如曾经说过“学习哲学,就是练习自杀”的丹麦哲学家索伦克尔凯郭尔(Soren Kierkegaard)在《恐惧与颤栗》中描述的场景。西方关于人工智能的观念实际上就是一种自杀论,推动人工智能的进步,就是练习自杀。海德格尔思想中的一个重要概念是“向死而生”。海德格尔认为,偶然性就是人的意义本身,或者说人完全生活在偶然性之中。海德格尔的观点呼应了中世纪神学家托马斯阿奎那(Thomas Aquinas)的“人本身没有终极意义,只有上帝才有终极意义”的观点。阿奎那的“灵魂不死”说明人世的终结并不是终点,人生在世,只是灵魂的一趟旅行。与西方传统相反,中国人对待死亡有两种态度:儒家的“避而不谈”和道家的“举重若轻”。庄子强调“安时而处顺”,用一种自然洒脱的心境来面对死亡,把自然的观念发挥到极致。这与海德格尔忧郁悲伤的心情完全不同。西方人用死来理解生,相比之下,中国人则用生来理解死。在西方文化当中,死亡就意味着结束、终结和灭亡,“向死而生”思考的结果就是人工智能终将统治世界和统治人类,并最终导致人类的被统治或者灭亡。但是,从生来思考这一问题则意味着新生、重塑和凤凰涅。相比西方的在悲观情绪和恐惧与颤栗,中国人对待人工智能的态度相对温和和健康,有一种谨慎乐观的态度,可能成为人工智能发展中的主流思想。[34]
美国洛杉矶罗耀拉大学终身哲学教授王蓉蓉在“机器人能否循道而行?道家哲学与人工智能”中对此问题有更详细的阐述。作者探讨了三个议题“气之生命和超越:道家之人与人工智能”、“对真的终极追求:人工智能技术的道家伦理框架”和“阴阳智慧:人工智能可从道家哲学中学到什么?”道家哲学认为,理解和分析人体的最重要方式之一,是通过区分三大要素:形、气、神。“气”成为身体中“形”与“神”的协调者。心和身通过“气”统一起来或产生互动。人不可能仅仅是“气”的流动而已;“神”显示了“气”流动的更深层次内涵。人类生命不仅仅是简单的信息、数据和网络的组合体。人的生命本身是非线性的、动态的、自我组织的复杂系统,是从多层次组织起来的信息交换能量以便维持生存和发展。计算机算法为“气”的一种流动形式,但人脑不仅做出符合逻辑的决策(视为算法)而且做出情感的复杂运算,这是机器所做不到的。庄子赞赏特别的道德人,即真人。这是人的最高境界。能“循道”而为,即意味着将自己的行为模式纳入到“道法自然”之中。道家思想认为,不可预测性和变化的不可避免性实际上支配了我们的日常生活。它帮助我们挑战秩序和稳定性的线性的因果关系思维。变化不是简单控制以从一个稳定状态转向另一个状态,变化是生命的组成部分,我们不应该回避技术变化的现实。道家实践就是要学习老子的三宝:慈,俭,不敢为天下先。清虚自守,齐物而侍。[35]
著名宗教哲学家,中国人民大学宗教学系教授何光沪谈到人类不仅没有把人性中的自由和“心”(如情感、想象、良心等等)等赋予人工智能,而且人工智能的物质材料是硅或一些稀有金属等没有生命的东西,因而无法摆脱自己的局限性。[36] 有意思的是,作者最近刚刚翻译的新加坡南洋理工大学教授李晨阳的文章正好谈到新型材料的问题,“人工智能技术的进步伴随着生物工程技术的进步。最近,康奈尔大学的科学家成功地实现了动态生物材料自下而上的构建,它是依靠人工新陈代谢驱动的,这种代谢代表不可逆的生物综合和耗散组装过程。他们通过编程让这种材料产生类似于真核微生物黏菌的自发移动行为。动态生物材料拥有像自动化模式产生和持续极化再生那样的性能。据报道:“人工新陈代谢驱动下的动态生物材料能够提供从前没有探索过的路径以实现具有再生和自我维持特征的‘人工’生物系统。”新陈代谢和生物综合是生命的特征。康奈尔大学农业和生命科学学院生物学和环境工程教授罗丹(Dan Luo)说:“我们在引进一种崭新的、类生命的材料概念,它是由自身的人工新陈代谢系统所驱动的。(虽然)我们不是在生产某种有生命的东西,而是在创造一种从前没有见过的更接近生命的材料。”当这种新技术与人工智能技术结合起来,可能从完全相反的方向满足人类“大脑延展”的目标。“人形机”(humanoid)不仅表明了类似人的非人的存在,而且证明了在具体的个体身上可能存在人和非人部件的混合体。[37]
华东师大政治哲学教授吴冠军在谈到奇点时代的“长生不死”问题时说,“就是说过了2049年,我们的技术就可以保证很多人不死,不是说真的不死,而是说他可以不断换心脏、换肺,不断换身体器官,不断植入各种各样的仿生器官,从而能够接近不死,至少活两百年没有问题。”[38]这正好呼应了“新人类”的话题,即人工智能的人类中心主义的理念可能导致“人机协同的混合增强智能取代纯粹生物学的人。加上器官移植、再生医学、基因工程等技术,人之中的一小部分“权贵”则可能在生物学+人工智能融合的新生命体系中完全不同于现在的人类。”[39]但即便如此,人工智能仍然无法帮助人们摆脱生死魔咒。罗伯特诺齐克(Robert Nozick)在《无政府、国家和乌托邦》中设想一种“体验机器”,插上电源,我们就可以获得希望的那种体验。但他说真要这样做就是一种自杀。1987年的诺贝尔文学奖获得者约瑟夫布罗茨基(Joseph Brodsky)曾说,“人的生活中很大一部分是无聊”。无论贫富都难逃无聊的折磨。有钱人太无聊了,因为金钱买来时间,而时间是重复性的。对穷人来说,无聊是其痛苦中最折磨人的地方。无聊代表了让你见识无限性的机会之窗,教导我们学会谦逊、合作、妥协、创造。[40]
(三)伦理问题
当前与人工智能有关的哲学往往集中在伦理学问题上:如有轨电车问题、使用人工智能的伦理问题、它对人的存在威胁问题以及隐私和数据安全问题上。但是,在加州大学伯克利分校法学院的阿敏阿夫洛兹(Amin Epahimi Afrouzi)看来,这些都不是人工智能特有的问题,哲学家应该探讨专属人工智能的问题。这位身兼硅谷智能技术专家和法哲学博士生双重身份的作者认为,这个交叉领域应该包括(1)人工智能伦理学:一旦自私、自主的代理人争夺有限资源,伦理问题就出现了。另外,人工智能代理人如何对待对方也有相关意义如合作型人工智能代理人;(2)人工智能意向姿态:我们必须开发一种人工智能特有的语言来描述它想要什么如合作、尊重或者做什么;(3)模拟哲学:则使用计算机模拟学习人工智能并检验与人工智能有关的哲学解释。[41]
至于具体的人工智能伦理问题,大致包括如下九类:1)失业、劳动等级差异主要与自动化有关;2)不平等,如何分配机器创造的财富;3)人性,机器如何影响人的行为和互动如机器依赖症;4)人工愚蠢,如何防止犯错误;5)种族主义机器人,如何消除偏见;6)安全,如何确保人工智能的安全;7)罪恶,如何保护自己不遭遇意外后果;8)奇点,如何控制日益聪明的系统;9)机器人权利,如何定义人工智能的人道主义待遇、法律地位以及机器的感情痛苦等。[42]
就拿隐私问题来说,很多人都觉得在人工智能时代隐私受到破坏,但哲学探讨会揭示出一些发人深思的新情况。上文提到的《监控资本主义时代》对人在监控资本主义中的异化问题的探讨就很能说明问题。著名科技作家尼古拉斯卡尔(Nicholas Carr)在为该书写的书评中尖锐指出,在脸书和谷歌等硅谷中的私有企业来说,人类生命成了原材料。监控资本主义的真正产品是对人类将来行为的预测:我们看什么,我们去哪儿,我们持有什么观点等。日常生活经验被蒸馏成为数据,成为私有企业的资产,用以预测或者塑造我们的行为,破坏个人自由和腐蚀民主。我们不是客户也不是产品,而是数据尾气之源。数据就意味着财富。更可气的是,在线监控逐渐被政客、官僚和大众认为是正常的甚至必要的,无须大惊小怪。隐私不是受到破坏而是被重新分配了,决定权从公民转移到了公司手中而已。[43]
若拿高级人工智能机器是否应该被当作伦理存在来对待以及如何对待的问题来说,正如李晨阳所说,“人工智能机器是机器,却是一种拥有智慧的特别存在物。伦理学的每个概念,尤其是在西方的主流传统中,都是把人当作唯一的道德行为者(moral agent)和道德行为的施受者(moral patient),把世界上的所有其他生物都排斥在道德领域之外。随着环保意识的崛起,当今有些伦理学家开始将道德领域扩展,希望把生物有机体包括进来。即使我们同意高级人工智能机器能够和应该被当作道德行为的施受者,但究竟该如何对待它们仍然是远非清晰可见的。比如,世界各地的医院人工智能医生的情况越来越多,对它们的工作条件应该采用什么样的管理规定?是不是应该像我们对待真人医生那样,对其工作条件设置最低标准要求?电话和电脑现在已经拥有了内置的人工智能技术。这已经在很多根本方式上影响了人类,它们可能决定人类的命运。在此意义上,成功应对人工智能的相关伦理挑战甚至比应对人工智能的相关技术挑战更为艰巨。”在机器人伦理学上,儒家道德哲学能够为我们提供有用的资源。在李晨阳看来,儒家对伦理学的理解包括孟子的“软心肠途径”(the soft-heart approach),即伦理学源于和遵循不忍之心和荀子的“社会程序的途径”(the social wiring approach),即通过习得社会规范而变得有道德。如果遵循孟子的途径,或许应该在仿人机器人身上安装一个系统,以“不害人”作为压倒一切的原则,确保机器人不能采取极端破坏性的行动伤害人、伤害其他生命形式或者相互伤害。如果遵循荀子的进路,可能会安装能够指导人工智能机器的行为法则,却没有压倒一切的保护性原则,人工智能机器将主要完成所分配的任务,根本不考虑任务的性质。[44]
(四)意识问题
麻省理工学院瑞典裔美国宇宙学家迈克斯泰格马克(Max Tegmark)在2017年出版的《生命3.0》中提出了生命演变的三个阶段:生物进化,文化进化和技术进化。生命1.0不能重新设计其硬件和软件,都由DNA决定;生命2.0 能重新设计软件,学习复杂的技能如语言、体育、职业等;生命3.0在地球上还不存在,但能重新设计软件和硬件。他提出了意识原则理论,即有意识的系统应该有信息储存能力,信息处理能力,独立性和融合性。如果没有意识就没有幸福、善良、意义、目的和美。不是宇宙给了有意识的人以生命的意义,而是有意识的人赋予宇宙以意义。传统观念认为人是地球上最聪明的动物,但人工智能的出现迫使我们放弃这个观念,变得更谦恭一些。[45]
中国社科院哲学所研究员赵汀阳专门写过一篇文章谈到人工智能的自我意识问题。在他看来,“人工智能的危险之处不是能力,而是自我意识。如果人工智能拥有了拟人化的情感、欲望和价值观,必然更为危险,因为人的欲望和价值观正是一切冲突的根源。”他说,“只有语言才足以形成智能体之间的对话,或者一个智能体与自己的对话(内心独白),在对话的基础上才能够形成具有内在循环功能的思维,而只有能够进行内在循环的思维才能够形成自我意识。”正是语言的发明使得意识拥有了表达一切的功能和反思的功能,否定词的发明意味着在意识中发明了复数的可能性,成为人类产生自我意识和自由意志的关键条件。难怪他大胆地说,“哪怕人工智能处理数据的能力强过人类一百万倍,只要不具有反思能力,就仍然在安全的范围内。”[46]
王蓉蓉也谈及道家对人能获得和丧失自我意识的问题。即便人工智能开发机器的自我意识,但它也能如道家指出的那样失掉自我意识吗?有如庄子曾经描述的境界:当一个人沉溺于手头工作的时候,他就可以忘掉自己的存在。让自己被物携带着走,心由是可以自由飞翔,乘物以心。庄子详细描述了这一过程:“臣将为,未尝敢以耗气也,必齐以静心。齐三曰,而不敢怀庆赏爵禄;齐五日,不敢怀非誉巧拙;齐七日,辄然忘吾有四枝形体也。当是时也,无公朝,其巧专而外骨消。”《庄子?外篇》中所描绘的自我意识的暂时忘却与获得是不会轻易被人工智能所替代的。[47]
(五)创造性问题
与人工智能有没有意识密切相关的是创造性问题。牛津大学教授马尔库斯萨托利(Marcus du Sautoy)在刚刚出版的新书《创造性模式》中提出了“机器真能创造吗?”有意思的不在于明确的答案,而是考察该问题本身意味着什么。英国《展望》杂志2019年3月初发表了一篇文章题目是“机器能创造吗?”,讲述了西班牙一大学的研究人员开发的作曲算法机器人(Iamus)出了一张由伦敦交响乐团演奏的古典音乐CD的故事。人们通常觉得人工智能无法做出概念跨越,进入新领域,但萨托利认为未必如此。他认为,艺术上的真正进步是在有人敢于打破常规,违背法则,用意料之外的方式结合起来而产生的。这种创造性同样出现在科学中。萨托利描述了一个名叫(Mizar)的制造数学定理的程序。制造的东西类似于阿根廷作家博尔赫斯(Jorge Luis Borges)的《巴别图书馆》,里面包括所有可能的书,是所有语言中的文字所有可能的排列组合。大部分是垃圾,但萨托利认为我们的“创造性概念就是与有限性绑在一起的。”如果我们认为创造性的本质在于和其他人一致,有目的地塑造材料,今天的人工智能当然离创造性还很远,但是如果“能够看到别人看不到的模式或者可能性是创造性的一个方面”,人工智能的艺术恐怕越来越难以和人的艺术区别开来。[48]
山东大学教授贝淡宁教授在“从马克思主义儒家视角看人工智能”一文中对比了谈到马克思主义和儒家对创造性的不同认识。在他看来,马克思主义看重实现多种形式的创造性工作的潜能,儒家则看重培养多样性社会关系尤其是与亲人的关系的潜能。“在高级共产主义阶段,发达的机器将生产人类需要的所有商品,我们将真正实现自由和平等,有机会发展我们认为合适的多方面才能。考虑到我们迫切需要创造性工作,多数人都将从实现创造性工作的潜能中获得快乐和满足感。从儒家视角看,马克思对人类美好生活的描述未免过于狭隘。创造性工作的潜力当然是人之为人的重要特征之一,但是,它总是人类的第一需要吗?它有必要成为每个人的第一需要吗?”从儒家视角看,关爱和照顾父母的工作不一定特别具有创造性却是美好和令人感到满足的生活所必不可少的。如果人工智能将我们从社会必须的工作中解放出来,帮助我们实现自己对构成身份的重要关系的承诺如精心照顾上年纪父母,人工智能的发展就应该受到欢迎。[49]
(六)进步与启蒙问题
进步与启蒙问题或许是人文学者和科学家之间最经常争吵的话题了。哈佛心理学家斯蒂文平克(Steven Pinker)在2018年出版的《当下的启蒙》中集中论述了理性、科学、进步等启蒙核心价值观,指责知识分子中的悲观论调是高人一等心态的表现。他认为“大部分人同意生比死好,健康比疾病好,饱比饥好,富足比贫穷好,和平比战争好,安全比危险好,自由比独裁好,平等权利比偏执和歧视好,读书识字比文盲好,知识比无知好,智慧比愚笨好,幸福比痛苦好,有机会享受天伦之乐、朋友相伴和文化娱乐、自然美景比枯燥乏味的劳作好。”他引用经济学家阿玛蒂亚森(Amartya Sen)的观点“发展的终极目标是让人有能力做出选择”,并引证哲学家玛莎诺斯鲍姆(Martha Nussbaum)的观点,人人都应该拥有“基本潜能”确保获得选择的机会:长寿、健康、安全、读书识字能力、知识、言论自由、和政治参与,还包括审美体验、娱乐享受、欣赏自然、情感依恋、社会归属感、幸福生活概念的反思等。我们不可能拥有完美的世界,去追求这样的世界是危险的。但是,只要用知识推动人的幸福,改善生活的进步应该没有边界。[50]
英国哲学家约翰格雷(John Gray)在书评中指出,平克是科学主义鼓吹者,科学不能支持任何政治工程,因为科学并没有人类价值观。实证主义者孔德(Auguste Comte)鼓吹公然反对自由思想的科学主义,因为在以科学为基础的社会,不需要自由价值观,道德和政治问题由专家来回答。难怪孔德的核心观点--理性、科学、人文主义和进步恰恰是平克列举的启蒙核心价值观,但两人都没有提到自由和宽容。平克的目的是要向读者保证他们站在历史的正确一边,但终极而言,理性是激情的奴隶。[51]格雷在新书《木偶的灵魂》中谈到现代科学的意识形态是将精神从物质世界的束缚中解放出来。走向人工智能之路之所以不可避免是因为我们陷入自由的困境不能自拔。人的自由不是自然的人类条件,而是相互不干涉对方的做法,是缓慢习得却迅速遗忘的罕见技能。人的独特性不在于意识或者自由意志,而是内心的冲突,是自我的分裂造就了人。[52]这与赵汀阳的自我意识论相映成趣。
约翰格雷反对进步论,萨特说过人总是一样的,面对变化的背景,选择总是特定背景中的选择。道德问题自从奴隶制和反对奴隶制的选择那个时期以来就没有变化。科学提供的世界是我们体验和选择的背景,要由我们来决定其意义。正如伯特兰罗素(Bertrand Russell)所说,“变化是一回事,进步是另一回事。变化是科学性的,进步是伦理性的;变化是不容置疑的,进步则是可争论的问题。”[53]格雷还说,我们是生活在污秽肮脏的物质世界的动物,连不会说话的动物拥有的无自我意识的优雅都没有。我们是在地上爬的婴儿,还不能像成年人那样站起来行走。[54]
两人有关进步的争论或许可以从上文提及的哲学家丹尼特针对平克和《新共和》文学编辑维斯特勒(Leon Wieseltier)2013年在《新共和》上人文与科学论战的评论中看出端倪。丹尼特指出,争论显示知识分子不愿意和科学家对话,科学家直接与大众交流。平克鼓励人们使用新的思想工具(理论方法和模型等)和数据操作工具(电脑、光学字符识别、统计学、数据库)回归扩大知识宝库的使命。维斯特勒拒绝了,但他的替代选择似乎仍然没有摆脱后现代主义潮流的影响。任何研究核心哲学话题如道德、自由意志、意识、意义、因果性、时间、空间等的人,如果希望得到认真对待,最好充分了解这些话题在多种科学推动下的最新发展。不幸的是,很多文科学者仍然以传统方式探讨这些问题,是对新发展一窍不通的坐在摇椅里的理论家。难怪丹妮特毫不客气地指出,人文学科收复失地的最好办法是向侵略者学习重新获得对真理的尊重,而不是指责他人越界。[55]
如果从儒家视角看人工智能是不是进步,问题就变成了人工智能是否有助于让个人和社会变得更有美德。美国汉学家,卫斯理大学(Wesleyan University)教授安靖如围绕儒家五大美德(仁、义、礼、智、信)展开论述,并得出了肯定的回答。他认为,人工智能会帮助我们更多关注需要我们关心的目标,帮助我们变得更有仁德。手机软件(1)知道到你的位置和日程安排;(2)知道众多需要关心(民众或环境)的机会(3)知道你的特别专长和兴趣。通过将事务与这三个维度搭配,手机就能提醒你关注到一些可能性上,并以最佳的方式满足你的要求,实现你关心他人的愿望。有了GPS应用软件的帮助,开车时要想忽略违规行为就更加困难了,帮助我们培养义的美德。就礼而言,我们可以考虑一下电子邮件系统有能力提醒用户正在写的信息内容是否有冒犯他人之处。儒家的第四个美德是智。智慧的根源是“是非之心”,如果情感人工智能提醒我们“及时”关注典型场景来影响行为,结果可能真能带来更大智慧。至于信,在儒家看来,其关键是领袖表现出高尚的行为,君子行动的自发性和真诚性表现在脸上。可是,人们不禁要问,如果人工智能帮助人们采取某种行动,这还能说是有德之举吗?对此疑问,似乎可以用几乎所有美德都需要花费时间和精力来培养的说法来对付。更大的挑战如技术移植到人们体内的“半机器人(cyborgs)”等打破人与非人的二元论的“后人类”未来则是谁都无法回避的问题。[56]
四、我国人工智能的优势
美国技术杂志《连线》总编尼古拉斯汤普森(Nicholas Thompson)和欧亚集团主席伊恩布雷默(Ian Bremmer)认为,在中美两大国在数字革命新阶段的竞争中,中国有数据规模优势,如的微信与脸书和推特类似,中国手机用户是美国的三倍。中国的私有企业会配合国家的战略,百度、、阿里巴巴、科大讯飞都是人工智能国家队。[57]中国拥有7亿因特网用户,拥有庞大的数据资源来训练人工智能学习算法。中国欣欣向荣的移动互联网生态系统也为研究者提供了收集和分析人口特征和行为特征方面的大数据进行大规模的试验,这是其他国家的同行不具备的优势。[58]
作者注:本文曾发表在杨国荣主编《从早期中国思想到新实用主义》思想与文化第二十七辑(上海:华东师范大学出版社,2021年),第440-461页。