李建华:智能时代人机关系的伦理学慎思
点击次数: 更新时间:2023-09-22
【摘 要】正确认识智能时代的人机关系是防范人工智能伦理风险的重要前提,而对人机关系伦理本质的认识存在着人本主义与技术主义的分野。从人本主义的伦理立场出发,尽管出现了超人工智能,但人类的伦理世界是不可能被颠覆的,因为人伦关系、伦理法则及伦理秩序是人类所“独有”的。机器人也许会“参与”到社会伦理生活中来,这种“参与”源于机器人内部被预先设定的程序,机器人无法成为真正意义上的伦理主体。从责任的基本规定看,机器人也承担不了伦理责任,因为它天然不具有行动的自知性和可解释性,人类对人工智能负有完全责任,而不仅仅是责任的分担者之一。当我们说要强化机器人伦理的时候,绝非意指关于机器的伦理,而是人类对智能机器人进行设计、开发、应用与运营的伦理。坚持人本主义的伦理观念,是讨论人工智能伦理的前提,可以避免思想认识上的模糊与混乱。
作者简介:李建华,哲学博士,必赢中国官方网站教授、博士生导师。主要研究方向和领域:伦理学基础理论、道德心理学、政治伦理学、中国传统伦理思想。
文章来源:《理论月刊》2023(9)
我们是否已进入智能时代?智能时代的核心标志是什么?这些都是需要从理论上进一步澄清的问题。但从经验层面上看,社会生活各个领域似乎越来越趋向于智能化,这是不争的事实。特别是随着ChatGPT的诞生,人们对于人工智能在功能与功用方面的优势既表现出极度兴奋,同时又心存诸多忧虑:人类与机器人如何相处?机器人是否可以完全取代自然人的工作?未来的世界是否就是智能世界?面对人工智能的挑战,人们往往表现出乐观、保守和谨慎这三种不同的态度。乐观论者认为,随着奇点理论的出现以及智能机器人的不断更新迭代,人工智能终将“反客为主”,超越人类智能。保守论者认为,人类始终处于支配地位,人工智能永远不会超越人类智能,“造物主一定比所造之物高明”。谨慎论者则认为,人类应该敬畏人工智能的崛起,智能机器人有成为“万能人”的潜质,一旦具有了自我意识并取代人的全部活动,人类就有可能被智能机器人所控制,“如果人类运气不佳,人工智能和基因编辑等技术有可能要了人类的老命”。
其实,乐观论、保守论或是谨慎论本身并不重要,都还没有触及问题的核心。智能机器人伴随着技术的不断完善,以及产业化、商品化的催促,不断被人类所利用,这是无法回避的客观事实,问题的关键在于如何看待人机关系。指数级、复合式的技术变革以及超人工智能的出现,可能会改变人类推测未来的假设框架和基本逻辑。但我们不能被技术裹挟,从而丧失人的主体地位,也没有必要无条件地去拥抱这个智能时代,而是“要记住,未来不只是降临在我们身上,它是由我们一天天创造的,我们也将要为这个非常时刻所作出的决定负责”。基于此,对智能时代的人机关系进行伦理学慎思就显得十分必要与紧迫。对人工智能伦理问题的讨论,与研究者或讨论者所坚持的伦理理论、信念与立场密切相关,其基本的分野仍是人文主义与技术主义这两条彼此对立的路向。人工智能伦理是一个宏大课题,也是一个无论从宏观还是微观层面均处于学术争论中的问题。笔者无意也无力去深究问题的全部,仅仅基于人本主义(人文主义)立场,从人伦世界的本质性、伦理主体的规定性、机器人的伦理责任、是否存在机器人伦理四个方面谈点浅见。通过对这四个问题的审度与反思,笔者旨在确立以人为本、以人为主的伦理信念,坚守人类基本伦理法则,使对人工智能伦理挑战的被动回应向主动防范转变,而不是主动迎合或迁就对人工智能的无限制、无底线、无责任的滥用,任由其颠覆现有伦理理论与人伦秩序。
一、人伦世界是否可能被颠覆
人机关系是智能技术发展的结果,也是应对人工智能伦理挑战的思考主线。要明确的是,我们必须正视人工智能所引发的新伦理问题,但却不必焦虑于“伦理观滞后”,更无须急忙去改变现有伦理而去刻意“迎合”人机关系的表象。因为人工智能引发伦理变革只具有某种可能性而非必然性,并且这种伦理风险不能单靠伦理来防范,重要的是要节制人工智能本身的发展与应用,尽量避免出现因伦理问题引发的社会风险。尽管人工智能与人机互动属于不同领域,但二者都同计算与智能行为密切相关。因此,本文所说的人机关系是广义的,即人与机器、机器人、人工智能技术的关系,主要集中于自然人(人类)与机器人的关系。
现实的人类伦理生活具有客观与主观两个基本层面:就其客观性而言,它指代“一种特定的社会秩序,这种社会秩序是以理性的方式分化和组织起来的”;就其主观性而言,它指个体的自我意识,是对伦理秩序之实体性的意识。可以说,现实的人伦世界就是客观与主观的统一,就是由人伦关系及其协调法则所构成的秩序世界,即人伦世界由人伦关系、伦理法则及伦理秩序三个基本要素构成,其根本前提是社会化了的自然人的存在。一切由人的对象化活动所产生的对象物不可反过来与作为行动主体的人本身构成平等的伦理关系,甚至“反客为主”。人际或人群关系及其秩序是人伦世界的边界,具有不可逾越性。尽管“物伦理”概念被提出后,在“人—机”系统交互情境中出现了“物转向”,对人的理解也出现了去意义化,但“人—机”关系在人伦世界中仅仅是一种间接或延伸的关系,人伦世界本身不可能被颠覆。首先,从人伦关系的本质来看,它是人类利益关系的体现,而人机关系并不构成现实的利益关系。人伦即人之伦,“伦”意为“辈”(《说文解字》)、“常”(《正韵》)、“类”(《礼记》郑玄注),即依据某些特定标准对人群进行分类、划定等级,如根据年龄与辈分人有长幼之分,依照社会地位人有尊卑之别。人伦之要义是关系,人伦就是人际或族群关联的秩序化,其前提是处于社会关系(交往)中的具有自然情感的人,人作为关系性存在会产生人伦世界。“理”本义为“治玉”,即根据玉石本身的纹路进行剖析与雕琢,泛指事物中存在的客观规律,后被引申为万事万物运行的规则、蕴含的道理,如“理者,分也”“知分理之可相别异也”。可见,“理”是进行一切分类的前提。对于人伦世界而言,只有掌握其运行的内在规律,才能确立“伦”的标准。可见,“伦理”出现的根源是:人摆脱了蒙昧、独立的生存状态,开始联合成为团体,而团体需要建立一定的秩序来保证其生存与延续,人需要从单个个体的生存意识逐渐发展出有利于共同进化(进步)的社会意识。这种意识的形成最初源于原始氏族内部联结的现实纽带——血缘。也就是说,只有具有血缘关系的个体才能成为氏族团体的一员,和其他成员相互依赖、协作、扶持、保护,共同遵从团体内部的行为法则——风俗、习惯,以对抗自然世界中不可预知的巨大风险,谋求生存概率的最大化。人类求生存的本能与欲望是社会利益关系的自然前提,因为现实的利益包含人的欲望及其实现这两个基本方面。欲望的一致证明了共同人性基础上的共同利益,而欲望实现的多样性证明了人的道德的差异性以及伦理调节的必要性。利益是一种客观存在,是满足人的生物性和社会性需要的客观条件,特别是“共同利益不是仅仅作为一种‘普遍的东西’存在于观念之中,而首先是作为彼此有了分工之间的相互依存关系存在于现实之中”。只有当利益主体充分认识到可欲当求之时,才有现实的利益关系。可见,作为人伦关系的利益关系有三个基本条件——由血缘关系过渡到社会关系且具有情感联系的人,由共同欲望而产生的共同利益,以及因利益获得的正当与否而产生的伦理评价和调节。而机器人与自然人,以及机器人与机器人之间的关系,哪怕已进入超人工智能时代,也不具备上述三个条件。因为机器人永远都不是真正的“人”,人机关系本质上不是真实的伦理关系,充其量是人伦关系的延伸或虚拟而已,以人为主体的人机关系不会被颠倒,人伦世界不可能被颠覆。人伦世界不仅仅是一种关系结构,而且也是一种法则体系。一般而言,人伦世界的行为法则有自然法则、制度法则与信仰法则三种。智能世界不可能拥有这三者,而这三者也无法针对和适应于机器人。自然法则从属性上讲似乎是“前社会”的产物,至少是进入文明社会前人们普遍遵守的行为规范。就其确切的含义而言,“它指的是一种‘基于自然而存在’且‘基于自然而被认识’的约束着所有人的道德法则(moral law)”。自然法则维系着人类最初也是最本真的伦理关系。所谓最初指人作为自然界的一部分是动物进化的结果,首先受生存法则的支配;所谓最本真指人的进化是生命体的进化,而不仅仅是个体的进化,更重要的是人类通过自身的生产而获得的整体性进步,其前提就是以血缘为基础的调节人伦关系的和谐法则。生存法则决定着人类的优胜劣汰,和谐法则维护着人类的整体利益,人类正是遵循这两种最基本的自然法则才走到今天。但随着生产生活领域的扩大,社会交往空间也在拓展,人际关系也就日益复杂,单纯的血缘宗法关系开始变得脆弱,需要有基于契约关系的刚性制度法则,如文明社会诞生以来的系列政治制度和经济制度。这些法则立足于普遍性而获得有效性,它们是人类理性的产物。但人并非纯理性存在,还有非理性的一面,或者说经由理性而进入一种更高层次的非理性,这就是信仰法则。信仰法则不再有质疑、反思与批判等理性因素参与,只有虔诚恪守与誓死捍卫。三种法则从不同方面和不同层次上调节人伦世界的关系。尽管机器人可能参与到人类活动中来,甚至替代人的某些机能,但它们始终不属于人伦世界中的“成员”,仅仅是使人伦世界更加人伦化的工具。这些法则不适合它们,也于它们无益。哪怕未来机器人有自我意识,也不会有人伦情感,形成不了本来意义上的人伦秩序。人伦秩序不同于道德秩序:道德秩序主要是人的心灵秩序,以快乐、幸福、尊严等为主要元素;人伦秩序是人存在的关系秩序,主要以自由、平等、正义、和谐等为元素。人伦秩序是一种具有伦理性的秩序,是人作为伦理存在的关系性、社会性、实体性证明,因为“人是具有伦理属性的存在,正是这种伦理性,使人成为不同于自然物的存在”。中国古代的“五伦”就是一种人伦秩序,是社会基本的五种人伦关系,即父子、君臣、夫妇、兄弟、朋友五种关系。在《孟子·滕文公》中,孟子认为:君臣之间有礼义之道,故应忠;父子之间有尊卑之序,故应孝;兄弟手足之间乃骨肉至亲,故应悌;夫妻之间相互喜爱而又内外有别,故应忍;朋友之间有诚信之德,故应善。这是处理人与人之间伦理关系的道理和行为准则,是现实的人伦秩序。从整体而言,中国古代的人伦秩序还有礼、仁、和三个基本维度。“礼”最初来自风俗习惯,后形成仪式与礼仪,进而成为具体的行为规范。中国古代的礼治虽然有政治秩序和法度的内容,但更多地体现为德治与法治的高度统一,其本身就是人伦秩序。“仁”是礼治的价值内容或内涵,强调“爱人”的人伦情感,注重“己所不欲,勿施于人”的伦理思维,推崇“推己及人”“将心比心”的理解方式。“和”是实现礼治的方法与纽带,强调“和为贵”,不搞分化,不走极端,使“和”真正成为一种生命性的内在融合关系,而不是僵化的物理性、机械性的制衡关系。所以,人伦秩序奠基于生命体的社会性,即便随着科技的发展,人的身体或器官被机器取代后,人的能力(如记忆与体能)可能大大增强,但如果出现人格改变,甚至人机一体,哪怕是很小的概率,我们也是无法接受的。而且,所谓的人机一体也仅仅是人被机器过度“武装”的结果,改变不了人的本质属性和人伦秩序。从目前关于人机关系的伦理讨论来看,确立人本主义的人伦世界观是非常必要的。否则的话,人们就会将人工智能风险的可能性错认为必然性,将其局部性错认为全局性,要么出现全面恐惧而“病急乱投医”,要么出现一片欢呼而无条件拥抱,从而导致人工智能伦理讨论方面无立场的现象性热闹,以及基于伦理理论的基础性辩论的缺场。总而言之,离开了人本主义立场本身,人工智能伦理就是非伦理甚至是反伦理的,因为伦理只属于人伦世界。
二、机器人能否成为伦理主体
如果说人工智能时代我们之所以还有人伦世界不被颠覆的自信,是因为我们处于以人类为中心的伦理立场,那么人工智能的快速发展可能导致的人类异化、人伦关系的疏离和伦理法则的消解,是否意味着原有的伦理主体不复存在,出现完全由机器人主宰的伦理世界?目前的理论尝试是,从传统伦理学中寻找资源,建构一个与之平行的人工智能伦理体系,而这无疑是将人类伦理强制匹配到人工智能的设计、运行和使用中去。我们不禁要问,人工智能真的需要伦理体系吗?即便我们可以给智能人设计出道德行为程序,甚至机器人会有“道德情感”,这可以等同于真正意义(或传统意义)上的伦理吗?人工智能时代真的会出现两套伦理体系吗?目前理论界存在有意夸大人工智能颠覆作用的倾向,以为有了智能机器人等先进设备,整个世界就是智能世界了,人工智能就从“仆人”变成“主人”了。也就是说,机器人会成为伦理主体,并能够创造一个属于它们的伦理世界。此世界与人类的伦理世界并存,还能相安无事、和谐共存,或许哪天机器人还会取代人伦主体,一统天下。如果从人本主义或人类主义的视角看,这种可能性是不大的,我们大可不必在很小的可能性上“造势”而造成伦理紧张与威胁,甚至让自然人甘愿主动在伦理上“退位”。
首先,我们必须明确伦理主体的边界。如前所述,伦理的载体只能是处在一定人伦关系中、具有现实生活特性的人,具有主体关系性、意识自觉性、利益相关性等特性。其他存在物包括植物和动物都不具备成为伦理载体资格,更不用说作为劳动(生产)工具的机器人了。伦理主体必须是具有伦理实体属性的存在,因为“伦理关系是实体性的关系,所以它包括生活的全部,亦即类及其生命过程的现实”。伦理的实体只能是某种社会生活共同体,如家庭、民族、社会、国家、人类等。伦理实体是伦理主体的基础,但伦理主体与伦理实体不同,现实的伦理主体必须具备四个基本特性——行为实践性、意识自觉性、交互主体性、利益相关性。作为伦理主体的人不是作为生物性存在的人,而是处于社会生活实践之中的人,是有主体性的人。主体性意味着主观能动性和行为责任性,而机器人只是被某种程序控制。唯有能担负起社会伦理实践的人(包含个体与群体),才有资格被称为伦理主体。与此同时,人的主体性活动不是刺激反应活动,而是基于自由意志的有自觉意识的活动。所谓有自觉意识,一是指主体行为是在明确的意识指导下进行的;二是指具有一定的自我意识,即能够意识到自己的意识,这是一种自知的状态。机器人尽管有智能,但绝无意识:“智能倾向于目的化、客体对象化和效能化的方式看待和处理问题,以期获得解决问题的答案;意识则意味着主体能够感受到痛苦的情感的能力,它是个体在身体和精神上被触动后构建意义的能力。”并且,主客体之间要有感知,即主客双方都能知道和感受到对方的行为及其意义,这样主体才能成为伦理主体。也只有这样的伦理主体关系及秩序,才能构成伦理实体。我们或许直观地“觉得”机器人有情感意识,但机器人能了解自然人对它的理解吗?如果缺乏主体间的交流与理解能力,现实的伦理关系也就无法形成。而机器人不具备这种能力,因为这种主体的相互性不是无缘由的,而是基于利益的相关性。或者说,双方或多方正是因为有利益关系(权利—义务关系),才有可能展开交际与交往,形成一种“没有对方就没有自己”的关联。而机器人是没有利益感知的,即它不可能有满足感或丧失感,无法搭建起现实的利益关系。如果机器人有所谓的权益,那也不过是人的利益的延伸或扩展。其次,我们必须思考,人工智能时代是否存在伦理“双主体”。从伦理主体的限制条件可知,机器人是不具有成为伦理主体的资格的。但未来的伦理世界是否像传统社会一样,伦理主体就是单一性存在?是否会存在双重(两种)伦理主体?或者说,在“人工道德行动体”的出现进一步引发了伦理主体问题讨论的背景下,在未来的伦理世界中人机是否可以共存?目前,从工业制造机器人,到医疗机器人,再到家居机器人、社交机器人和军用机器人,机器人已被广泛应用到社会生活的各个领域。但目前控制机器人自主系统的软件存在两个“道德盲区”:“第一,此类系统的决策能力并未涉及任何清晰的道德推理表征;第二,此类系统的感知能力并不符合现实世界中的伦理特征。”所以,机器人的设计者们开始考虑将伦理道德因素作为重要参考因素纳入自主系统的决策模块中,以使机器人成为“人工道德行动体”。其顾虑前提是,机器人自由度越大,就越需要伦理道德标准来约束,以此来克服伦理上的盲目性。这种想法本身无可非议,毕竟是想让机器人尽可能成为“好人”,不要伤害人类。可问题的复杂性不在于机器人是否需要伦理道约束,而在于如何认识“人工道德行动体”的本质,思考机器人是否可以充当现实生活的伦理主体。从目前的人工智能研发来看,机器人并不具有道德上的自主性,也就是说,“它们的道德定义完全掌握在设计者与使用者手中,自己本身没有任何自主性”。但是,也许随着人工智能越来越精密,机器人可能会具有应对道德问题的能力,出现所谓的“功能性道德”。但无论如何,它并非具有明确伦理推理的行动体,其所表现出的“道德”不过是一种“被操控的道德”。尽管机器人的设计者想尽办法要对机器进行伦理编程,但其恐怕无法处理最基本的伦理法则,如道义论、功利论、美德论的一些原则在算法层面是无法得到体现的。也许设计者们并没有把机器人变为伦理主体的意图,仅仅是在机器人得到广泛使用的情况下考虑如何避免各种技术风险,从而使其作出正确的道德决策。问题在于,当虚拟的或实体机器人进行道德决策时,要不要确定其责任,以及如何分清责任。机器人一旦进入责任领域,就有了伦理主体的意味。但实际上机器人不可能成为责任主体,负责任的设计者所追求的“完整的道德性”也是不存在的。我们只能为设计者提供专门的设计伦理准则,而不是让机器人去模拟人类的道德性。设计者才是机器人的责任人,机器人自身无法承担伦理责任。但是,如果人类自动放弃主体地位,甚至越来越依赖机器人,甘愿沦为“机奴”,且机器人的设计者不断使社交机器人日益人格化,那么机器人成为伦理主体也不是没有可能。这完全取决于人类如何看待和坚守自己所处的人伦世界,如何维护人类自身的权利与尊严,如何使人工智能不沦为危害人类的异化力量。最后,我们还要进一步追问:如何理解人工智能时代的“人”?机器人是“人”吗?人机交互就是人机共存吗?人机共存的前提是什么?无论人工智能多么先进和强大,自人类进入文明时代以来,人机关系一直是确定的,即机器是人发明和创造的,没有人就没有机器与机器人,人是一切人机关系的主导者。这种观念虽然显得传统甚至陈旧,但传统的东西不一定都是错的。经过现代性洗礼后,人依然是作为主体的唯一性存在。尽管后现代主义者们对人的主体性和人类中心论展开质疑和批判,但在质疑与批评中人的主体地位不仅未被撼动,反而被加固了。与此同时,人类与机器人在受制于伦理规则时,其性质也是根本不同的。传统伦理规约的有效性基于调整性规则,而人工智能时代的伦理规约有向构成性规则转向的可能:“调整性规则是对先于规则之前存在的行为进行调整,是告诉人们在某个场景中应当怎么去做的规则。构成性规则不仅调整受其调整的行为,而且还使得受其调整的行为得以产生”,而“人工智能时代的权利实际上最关注的就是构成性缔约原则,也就是不仅关注行为的调整,也关注如何实现这些调整的机制”。而这种行为的发生机制的最终观察者和评价者都是设计机器的人,所谓的构成性规则看似深入了一层,其实不过是人在设计机器人时的伦理想象,因为机器人无法观察到自身的行为,不具有伦理行为主体性。当然也有学者认为,“机器人可能会意识到自己的价值远远超过作为人类工具的价值。一旦意识到它们的奴隶地位,并认为被这样对待是不公平的,它们就可能会发动起义,进行反抗。因此人类要维持这一关系中的主人地位需要机器人毫无怨言地接受人类的主导地位”。其实,正是伦理道德等文化自主性因素使人类与机器人区分开。“虽然我们目前确实无法创造出超人类,但看来前方的路也没有什么绝对无法克服的障碍。现在真正让人类研究放慢脚步的原因,在于伦理和政治上的争议。”伦理上的谨慎态度在一定程度上也许能减缓对人工智能的无节制滥用,“然而,不管现在的伦理论点如何有说服力,未来的发展似乎势不可当;特别是这有可能让我们无限延长人类生命、解决各种疑难杂症,以及强化人类认知和情感上的能力”。人类在巨大的功利诱惑面前难免会产生价值冲突与选择,但我们一定要坚信,人类的包含伦理道德在内的精神家园是属于自己的。即便未来的机器人具有与人类一样的身体结构、内在情感和认知能力,具备所谓伦理上的“具身性”,也无法证明机器人的身心关系是“天缘”,也说明不了机器人身体的相似性就一定会产生“好感”,更解释不了机器人之间的身体会具有“利他主义”亲近与冲动,因为身体本质上是生物性的。具身伦理学不过是遵循了达尔文、汉密尔顿、威尔逊、麦金太尔等人的思维路径,强调了人类道德的生物学基础:“伦理学规范的内容,在相当大的程度上是作为伦理主体的人类的肉体特征所塑造的。”但是,伦理道德从来都是要人的精神来承载的,是文化进化与跃迁的产物,也是人之为人的根本标志,而非人的生物本性所固有。由具身伦理引发的伦理生物主义倾向可能向人工智能领域蔓延,把生物身体与物理身体通过相似性连接起来,由此得出机器人也可能充当伦理主体的结论,这是我们值得警惕的。
三、机器人能否承担伦理责任
如果机器人无法成为伦理主体,那么也就不存在机器人的伦理责任问题,这是伦理学的共识。可问题恰恰在于,技术主义者们有意夸大人工智能对人类的威慑,特别是随着超强人工智能技术的纷纷出现,大有机器人取代自然人之势。为消除人类对技术风险的忧虑,他们提出了机器人可以承担伦理责任的理论主张。似乎只要机器人承担了各种风险,自然人就无须干预机器人世界,整体世界就是机器人的了。而事实上,在技术发展与责任承担的关联一直被模糊化,即“不知道是技术驱动人工智能的发展,还是摆脱承担道德责任的想法促使人类采用新技术”的情况下,人类绝不能追求使自身责任最小化甚至零责任的技术。
机器人果真能承担伦理责任吗?如果我们仅仅从后果主义立场出发,表面上看机器人确实存在责任分担问题。当机器人作出了有益于人类之事时,设计者和运营商就会把功劳归于自己;而当机器人作出了有损人类利益的事情时,设计者和运营商又会把责任全部推给机器人。所以,这根本不是机器人伦理问题,而是人类自己的伦理问题,特别是机器人设计者和运营商的道德问题,需要严肃认真地加以科学区分。从目前讨论的情况看,关于机器人的伦理责任归属存在三种不同的观点——有责任、无责任和部分责任。主张“有责任”的理由是,机器人执行了行为,至少也是行为主体之一,“好汉做事好汉当”。主张“部分责任”的理由是,人与机器人是一个整体,所以伦理后果应该由机器人设计者、使用者、机器人和运营商共同承担。主张“无责任”的理由是,机器人根本就不是“人”,只是机器人设计者、制造商和运营商获利的对象与工具。笔者是“无责任”观点的支持者,认为机器人不能也无须承担伦理责任,人类是伦理责任的唯一承担者。一般而言,责任存在需要三个基本前提:第一,独立的行为主体,包括排除人身依附性的行为个体与群体;第二,基于行为的自由选择,自己选择的自己负责,排除人为的强制或胁迫;第三,行为自知,即对行为选择有明确的自我意识,知道自己在干什么及行为后果,排除盲目、无知、无意的行为。这些条件适应于对人类所有责任的认定和承担,特别是伦理责任、政治责任、法律责任、经济责任等。从依附性上看,机器人是人类科学技术发展的产物。进而言之,它是人类活动的对象化产物,这种主客二分虽然有简单化的倾向,但也是人类认识论的基本前提。从主客关系讲,机器人是依赖于人的,从设计到编程再到算法,完全是人在“操纵”。从自由意志上看,机器人在本质上就是机器。尽管科学家们一再强调机器人也会有“意志”,有“情感”,甚至会有“慈悲心”“无私心”,但是这些都不过是程序植入的结果。从自知性看,即使机器人真的有意识,即能有对对象物的“刺激—反应”模式,这也仅仅是生物性的。人类的高明之处在于能“意识到自己在意识”,这就是“自我意识”。“承担责任需要知道行为内容、行为后果,也能回想起自己的行为。”机器人显然不具备这三个条件,根本无责任可言。也许,我们有能力促使机器人成为可以通过“道德图灵测试”的“道德机器”,但是人类作为机器人的发明者和创造者,绝对不能放弃对机器人的规约,并且要预测技术发展的多种可能,切实维护好人类的基本价值原则和基本伦理责任;更不要天真地期盼机器人会“效忠”人类,主动承担责任,“如果人形机器人变得更加能干并且具备了只有人类才有的认知能力的意识,那么现实的问题就是,它们是否仍会‘效忠’我们”。单纯从技术层面和机器人争责任主体地位是没有意义的,甚至在机器人面前产生自卑也很可笑。如戈尔德·莱昂哈德所认为的那样:“如果‘仅仅作为人’还不够好,如果作为人还太笨拙,为什么不用技术来加强、来改善你自己呢?为什么不让技术成为你的‘第一天性’,拉平我们与机器之间的差距呢?”戈尔德·莱昂哈德从根本上忽略了所有科学技术都是由人类创造的这一基本事实,人类对自己发明创造的技术负责,而不是看技术的先进或落后来确定谁是责任主体。诚如爱因斯坦所言,科学技术“是一种强有力的工具。怎样用它,究竟是给人带来幸福还是带来灾难,全取决于人自己,而不取决于工具。刀子在人类生活上是有用的,但它也能用来杀人”。并且,承担责任涉及两个方面:一是担负责任,二是具有可解释性。在弱人工智能那里,行为决定是透明的、可解释的;但在超人工智能那里,如通过神经网络深度学习的人工智能,其思维就不透明了。那么,这种不透明性是否意味着应由机器来解释自身呢?而客观事实是机器解释不了,还是要由人类来解释,最终承担责任的还是人类。再从责任的三个基本向度来看,责任一般有“从集体责任到个体责任;从外部责任到内部责任即心理责任;从向后看的责任(对过去负责、过失)到向前看的责任(对将来负责、职责)”。人工智能的伦理责任是一种集体责任,即由研究者、设计者、应用者、运营者多主体共同担负的责任,而非人工智能本身所应承担的责任,更不是机器人的个体责任。责任往往存在着一个由外在规制转变为主体“责任感”的过程,如强制性的外在义务久而久之会转化为一种强烈的义务感。因此,真正意义上的责任是客观要求与主观意愿的统一,是从“没有办法,必须履行”到“我愿意履行”的统一,而机器人是不具备这种心理转换能力的。如果硬要说机器人负有某种责任,那也是设计者或运营商“强加”于它的,机器人是缺乏责任意识的。责任从时间上讲有过去、现在和将来三种形态,与之相对应的是追责、问责与预责三种行为。现代技术发展如此飞速,人工智能技术更是日新月异,今天的这个机器人可能就不是明天的那个机器人,也许“躯壳”没有变,但组件和程序可能全变了,这该如何划定责任呢?有学者担心,超级智能机器人的出现会引发人类被取代的危险,所有的责任都将由机器人扛下。尼克·波斯特洛姆就提出,可能出现的“超级智能”会令人类面临前所未有的“整体存在性风险”,“如果有一天我们发明了超越人类大脑一般智能的机器大脑,那么这种超级智能将会非常强大。并且,正如现在大猩猩的命运更多地取决于人类而不是它们自身一样,人类的命运将取决于超级智能机器”。这种悲观论调无疑是想否定人类作为唯一责任主体的地位。松本徹三甚至认为,“AI神”的统治更有优势,更值得期待——“请胸怀善意,由持有坚定‘信念’而绝对不会动摇的AI作为‘唯一的神’来支配这个世界”是“‘人类自己的英明决断’,是为了让‘人类能够出于天性、本性地快乐生活’这个目的”。在讨论自动驾驶中人机责任问题时,人们普遍担忧的问题也是,“自动驾驶过程完全由机器作出决策,人类不再占据主导地位”。其实机器之所以能决策,是人在设计机器时对自动驾驶的多种可能性进行充分考虑,人是真正的控制者,自动驾驶的责任始终是人自身的责任。伦理责任较之其他责任是一种特别的责任:一方面,伦理责任在个体层面是一种道义的责任,往往与“应该的”义务相关,即没有做应该做的就是放弃道义或背叛道义;另一方面,伦理责任在社会整体层面是一种维护正义的责任,往往与“应得的”权利相关,如果一个人损害了他人的应得,便不能得其应得。因此,对伦理责任的规定应该遵循更加严格的前提条件并采取非常慎重的态度,不要把伦理责任轻易强加于某人或某种存在物。伦理责任需要满足所谓的“终极责任”的基本要求,它不仅要求行动者在采取行动的时候能够具有“真正开放”的取舍,也要求行动者在根本上对其采取的一切行动及其根据负责。也许机器人在完成人类的某种任务时,表面上呈现出主动、自觉的决策特征。但一旦出现失误,造成对人类利益的损害,它是无责的,因为背后还是技术问题,技术问题就是人的问题。如果人类没有这种责任担当,科学技术就可能变成“杀人武器”,因为我们会沉沦在“机器人也可有责”的思维误区之中,从而彻底放弃对机器人的掌控。我们不能因为出现了所谓的情感机器人,甚至性爱机器人,就自认为可以建立起良好的人机互信关系。“对于人类的命令,机器先进行风险评估,若风险可控,则予以执行,否则,拒绝执行并给出解释”,我们并不能由此认定机器会信任人类,更不能因为人机存在互信关系的虚无缥缈的可能性而放弃人类的最终责任。赫拉利在《人类简史》的结尾提醒世人:人类虽然拥有了强大的能力,但比以往任何时候更不负责任,仅仅为寻求自己的舒适和娱乐,便不惜掀起一场场灾难。人类正“拥有神的能力,但是不负责任、贪得无厌,而且连想要什么都不知道。天下危险,恐怕莫此为甚”。尽管我们还无法断定人工智能是不是人类历史上的又一场灾难,但持谨慎批判的态度是必要的。
四、我们真的需要机器人伦理吗?
在人机关系的伦理调节中还出现了另外一种声音,那就是由人机共存衍生出人类伦理与机器人伦理并存的理论主张。这就意味着,我们在人机关系伦理讨论中还有一个需要澄清的问题,就是认为目前人机边界越来越模糊,人类和机器人可以“通用”一套伦理规则,或者有专门的机器人伦理。换言之,“在机器人伦理的发展过程中,人类工程师是否必须将自己的伦理学规范置于机器之中,或者我们是否能够逐渐设计或发展出一种伦理规范,它不适用于智人,但适用于不同自身和能力的机器人”。机器人会拥有自己的伦理规范体系吗?或者说,有所谓的机器人伦理吗?玛蒂娜·罗斯布拉曾经认为:“一旦被创造出的有意识的思维克隆人,即智能的、有情感的、活的虚拟人,成为一个普遍的人类追求,我们将面对很多新的个人问题和社会问题,因为它从根本上扩展了‘我’的定义。”这个“我”就是主体,机器人就是扩展或延伸的“我”,尽管此“我”非彼“我”,但也是与真正的人可以平行相处(共存)的“人”。据此,这个“人”似乎应当有自己的伦理学。
因此,围绕“机器人伦理”出现了三种不同理解:一是基于人类自身职业伦理和责任伦理的机器人伦理,即既然人类创造了机器人,就应该在机器人设计及应用中遵守人类最基本的伦理准则;二是随着机器人自主性的增强,我们应该对它们制定相应的伦理准则,确保我们制造的机器人不给人类造成伤害;三是机器人学的科学共同体总有一天会创造出一种可以进行道德行为的新物种,虽然可能需要一定的时间,但完全自主式的道德行动体终究会被制造出来。第三种理解大概就是赛博格(Cyborg)视域中的人机关系,在此基础上出现了“超人类”(transhuman)和“后人类”(posthuman)的概念。“超人类主义属于前瞻式反思人类的潜能与本质,后人类主义是回顾式反思人的起源及因果联系。”无论“超人类”还是“后人类”概念都认为人类未来拥有多样化的世界性和空间性,存在多种行动实体,包括超人类、外人类、非人类和作为腐殖质的人类等。总的来说,前两种理解所指出的机器人伦理是存在的,因为它们强调了人对于机器人的主体性;而第三种理解认为机器人本身有伦理,这种意义上的机器人伦理是不存在的。人所赋予机器人的伦理在本质上还是人的伦理,机器人只不过是把人伦理世界关系搞得有些复杂而已。机器人自己的伦理是没有必要的,也根本无法实现。人们对机器人本身施以伦理,主要是出于对机器人发展的担忧,由此产生出对机器人设计者、生产者、运营者以及机器人本身采取双重伦理控制的想法,从而有效避免人工智能的伦理风险。“人工智能技术能力日益增强,特别是当人工智能进入深度学习与情感交流,可以进行团体协作行动时,也就是说当人工智能开始挑战、突破甚至完全脱离人为其设计好的初始算法而自我创制新算法时,人工智能必然影响整个人类社会发展。”因此,这种担忧可以理解,但有三个问题需要深入思考,从而消除这种担忧:第一,人工智能自己创新的算法改变的是机器程序还是伦理秩序;第二,机器人是否真正拥有实现第一人称的自我意识和审慎的道德能动性;第三,机器人是否可以意识到它拥有机器人伦理并努力去实现。技术的运用实质上是一种问题的解蔽方式,但解蔽的过程往往隐藏着难以估计的风险。人们可能在人工智能技术过程中被技术所“绑架”,人工智能算法就是其中之一。算法是人工智能技术的基础,人类已经开始将部分事情的决定权转移给具有高度智能的算法,但开发者有可能将其自身所持有的价值偏见植入算法中,甚至存在非法篡改算法参数的风险。虽然算法可以根据人下的各种指令编程,甚至“自作主张”,但算法目前在学习、推理、联想、产生新判断等能力上不够强大,难以解释行为背后的决策逻辑。因为人类行为所具有的主观动机性和意向性是机器人不具备的,机器人是依据人工设计的结构和在学习进程中所接收的数据而形成对世界的“认知”,其本质还是“编程”。如果有所谓的机器人在决策时的道德偏见,那也只不过是算法设计时技术人员的主观选择和判断,并且他们能否真正把自己所信奉的全部道德规则与法律写进程序也是值得怀疑的。加上目前的技术壁垒,如机器学习算法的“黑箱”属性、数据支撑的不足、多语境系统的有限性等问题,通过改变算法来提高决定的正确性与稳定性,建立人工智能自身伦理秩序,继而改变“以人为主”的伦理关系格局,实现人的伦理与机器人伦理并存的目标的设想,暂时还不可能。长期以来哲学基本观念是,主体能动性是人与动物的区别,也是人与其他物存在的根本差别。即便在程序设计上机器人可以根据自己的机械推理而改变某种程序,获得一些新的“表现”方式,但这种改变是机器人无法“自知”的,即机器人无法实现概念推理与经验感觉的统一而形成自我意识,意识不到自己在意识。如现在的社交机器人会说话,但它根本意识不到自己在说话,其“言说”的意义只存在于听者(人类)的心智中,“这种意义或许能够体现在机器人身上,但并不体现在言说本身”。“很明显,机器人的本性并不是我们人类所拥有的生物本性,机器人的本性主要还是由工程师或设计者决定。”但值得我们注意的是,未来的人机交互系统研究已经有了四个明确的发展方向——主动的推荐、自主的学习、自然的进化、自身的免疫,而其中智能的自主性是最关键的。人工智能的自主性问题又有四个方面必须被思考:自主应该具有记忆功能而不仅仅是存储,能够产生直觉与联想;自主应该具有选择性,而选择具有单向性;自主应该具有匹配性,是双向性的;自主应该可以被控制。从目前来看,机器人还不具有可以完全脱离人的控制的“自主性”。即使社交机器人可以依靠人类认知能力和社交能力的深度模型而展现出类似人类的社交智慧,但它也只不过是延伸了人的主体意识和伦理思维,充其量就是一具“木偶”。机器人不可能拥有生物学意义的人类道德自主能力和判断能力,也就不具有机器人世界中自身的伦理规范体系。假设机器人可以意识到它拥有机器人伦理并要努力去实现,那么这就需要两个前提条件——伦理上的自我意识与行动上的伦理目的性。伦理上的自我意识主要有两层含义:一是指伦理主体能够清楚地意识到自己的伦理信念、伦理立场、伦理判断能力及可能的行为后果,即对伦理上的动机、后果与责任非常了解;二是这种伦理意识的形成是自由自觉学习、修炼的结果,即这种伦理意识是经过了生命体验的道德经验。行动上的伦理目的性,指伦理主体对行动目标及其价值有明确的了解,而不是处于一种模糊的“打赌”状态,去面对可能的风险,而应该筑起防范伦理风险的可靠“防火墙”。如果机器人意识不到自己“在伦理”,那么试图建立一个像人类一样拥有伦理判断能力和行为能力的智能体就没有可能。因为没有伦理自我意识,就不可能有自主性的道德能力,也不具备获得伦理知识的能力。尽管后人类主义者认为,人类是有缺陷的,应该让人工智能接管人类,但人本主义坚持认为,应该确保人工智能不失控,确保机器人做人类想做的事情,充分尊重人类的权利。在这个层面上,人本主义是一种负责任的思想主张,我们需要机器人伦理也只能是人本主义意义上的机器伦理,即对机器人的设计、制造、运营、应用全过程进行伦理监控与规约,防止机器危害人类与社会。这是一种积极的、正向规约的伦理。机器人在执行人类所设计的道德指令时,也许有算法与程序的选择,但绝无明确的目的,且不具备趋向于达成目的的内在“动机”,仅仅是程序的被动完成。总而言之,所谓的与人类无关或可以与人类并存的机器伦理只不过是人类伦理价值观念和想象的植入,充其量是人类在防范人工智能风险时在机器人身上的“伦理投入”,且这种投入必须是人本主义而非技术主义的。人本主义的科学内核就是“人是目的不是手段”,“人工智能归根结底是人的本质对象化,它不可能也不能够拥有与人同等的地位”。目前,我们无须去思考人类与机器人如何共生的问题,而是要重视人类如何确保对机器人的支配权与管理权等问题。这意味人类必须理性而慎重地研发和使用人工智能,而不是一味地惊呼人工智能风险而把自身置于被动(次要)地位,寄希望于人工智能伦理和机器人的“伦理自律”。