人工智能(artificial intelligence, 简称AI)经过半个多世纪的发展, 取得了众多理论与实践成果, AiphaGo战胜职业围棋选手, 苹果公司的人工智能产品通过机器学习撰写的论文获得CVPR 2017最佳论文等, 人工智能促进了社会的发展和人类的进步, 但是人工智能作为新兴技术也存在着潜在风险, 人工智能的发展拉大了社会贫富差距, 人工智能的发展引起新的伦理问题, 可能影响社会稳定, 等等。我们将通过分析人工智能的社会效应及人工智能发展引发的新伦理冲突, 在此基础上分析人工智能的伦理规约。
一、人工智能发展历程及其社会效应人工智能的产生可以追溯到1956年在美国达特茅斯(Dartmouth)召开的人工智能会议, 美国科学家明斯基(M.Minsky)、西蒙(H.Simon)及麦卡锡(J. Mccarthy)等人工智能先驱参加了会议, 这次会议正式宣告了人工智能的诞生。
人工智能的发展经历了三次跨越式发展阶段:第一次发展是使智能系统基本实现了问题求解, 实现了人工智能简单的逻辑推理功能; 第二次发展是实现了智能系统与机器及外部环境进行自动交互的功能, 可以实现从陌生的环境中获取有用信息完成设定的推理工作; 第三次发展是追求类人的思维和认知能力, 使得智能系统与机器能够发现、创造和运用新知识, 能够对数据进行分析和挖掘等功能。一般来讲, 人工智能技术分为三种:弱人工智能技术(artificial narrow intelligence, 简称ANI)、强人工智能技术(artificial general intelligence, 简称AGI), 以及超人工智能技术(artificial super intelligence, 简称ASI)。弱工智能技术指的是在严格的程序规定下, 只对设定刺激作出反应, 目前大多数人工智能产品都属于弱人工智能技术, 如下棋程序、导航系统等等; 强人工智能技术完全依靠机器自身就能做出决断, 机器能够自主进行推理和判断, 强人工智能的程序具有人类的理解能力。“超人工智能指的是在各个方面都比人类具有优势的智能系统。”[1]超人工智能是智能机器, 能够制造新的人工智能系统。
人工智能以联结主义(connectionism)、符号主义(symbolicism)与行为主义(actionism)为理论基础。符号主义学派主要依靠计算机逻辑符号来模拟人的认知过程, 认为智能系统可以像人类一样通过逻辑推理认识事物, 符号主义学派的主要代表人物为西蒙、明斯基等人; 联结主义认为神经元是人类智能的基本构成和传递单元, 人工智能的重要来源是人类大脑本身, 人工智能的核心议题是对人脑模型深入研究, 代表人物是鲁梅尔哈特(David Everett Rumelhart); 行为主义学派的研究进路在于人工智能技术产品的行为可以根据搜集的外部数据来调整, 可以主动适应外部环境, 而不是依赖于人类的算法和预先设定的程序对外界作出反应, 行为主义学派的代表人物是维纳(N.Wiener)。
人工智能是强大生产力, 它改变了人类的生活方式, 提高了人类的生活质量。首先, 人工智能改变人类生活。现在人类的生活从简单的外卖自动下单到证券市场的股价分析都离不开人工智能, 人工智能产品已经把人类从繁重的劳动中解脱出来; 其次, 人工智能改变了社会结构, 推动了社会的转型升级, 提高了劳动生产效率, 促进了产业结构的优化发展; 再次, 人工智能的发展改变了人类的思维方式。人工智能出现之前人类的主要思维模式是因果式的思维模式, 人工智能出现之后人类思维模式从因果式思维方式向相关性思维方式转变。人们日常生活中遇到的一些问题可以向智能机器寻求帮助, 而不再像以前一样寻求人类帮助, 如家庭智能安防系统, 当房主离开房屋后房屋内出现生命体, 安防系统会自动识别生命体的性质, 如果是蠢贼入室盗窃, 系统会自动通知辖区派出所, 从而达到防盗的目的。以人工智能为核心技术的智能革命给人类社会带来前所未有的影响, 甚至影响到未来世界格局的变化。
人工智能也有消极方面的影响。首先, 人工智能可能导致工人失业。人工智能机器具有效率高、错误率低、劳动时间长、维护成本低、操作智能等特点, 这相比较人类的效率低、错误率高、劳动时间短等特点具有明显优势, 人工智能可能取代某些人的工作, 导致某些行业的工人失业。例如, 随着机器翻译的发展, 同声传译面临着被机器翻译取代的可能性。其次, 人工智能会进一步拉大社会的贫富差距。拥有和使用人工智能将创造更大的物质财富, 而没有掌握与使用人工智能的行业会日渐衰落, 失业工人将更加贫苦, 富者越富, 穷者越穷, 贫富差距增大。再次, 智能技术被滥用的风险, “网络面前无隐私”, 在网络上, 个人信息和发言记录都可以被查到, 如果被不怀好意的国家和企业滥用先进的技术可能会导致个人的生命安全、财产安全、信息安全都受到威胁和挑战。最后, 人工智能可能导致人的异化。人类研制与发展人工智能的初衷是想摆脱被自然界奴役的命运与繁重劳动, 但随着人工智能的发展, 人的主体性地位面临丧失的危险, 人类越来越依赖人工智能, 甚至受制于人工智能。
人工智能既有促进社会发展等积极的社会效应, 也有引发新社会问题等消极方面的社会效应。除此之外, 人工智能可能引发新的价值冲突与伦理困境。
二、人工智能引发新的价值冲突与伦理困境人工智能在产生伊始就出现了人工智能伦理问题, 图灵(Alan M.Turing)在《智能机器》中表达了对于人工智能的技术快速发展, 而相对应的伦理发展与制约相对滞后的担忧。人工智能作为现代重要的科技成果所带来的社会影响和伦理问题也逐渐引起了人们的普遍关注与广泛重视, 除了对传统伦理规范提出新挑战之外, 人工智能发展可能引发以下价值冲突与伦理困境。
1. 人工智能引发新责任伦理问题20世纪初, 汉斯·乔纳斯(Hans Jonas)、乔尔·费因伯格(Joel Feinberg)、汉斯·昆(Hans Kǜng)、汉斯·伦克(Hans Lenk)建立了责任伦理学。责任伦理学基于对责任主体行为的目的、后果、手段等因素进行全面、系统的伦理考量, 对当代社会的责任关系、责任归因、责任目标及价值标准等进行伦理分析和研究。责任伦理的目的是更好地规范人类社会的责任关系, 避免人工智能产品对人类社会带来风险和挑战, 责任伦理的原则是“绝对不可拿整个人类的存在去冒险”[2]。人工智能的责任问题是现代社会不可回避的重要议题, 由人工智能引发事故或设计、操作失误后的追责问题是人工智能发展中人类必须面对的问题。目前为止没有一个算法和程序是绝对安全的。塞尔(John R. Searle)提出“中文屋”的思想实验来区分智能机器与人类, 在“中文屋”中, 尽管机器人能够通过中文屋测试, 但它并未真正理解中文, 并且机器人自身也不能具有人类的意向性。“机器人根本没有意向状态, 它只是受电路和程序支配的简单的来回运动而已。”[3]随着医学、生物学及计算机等学科关于意向性研究的突破, 意向性在一定程度上可以通过程序自主生成, 这会使得责任的划分更加困难。这说明人工智能发展给责任伦理理论提出新的问题, 特别是责任主体的界定、主体责任的范畴界定等等, 这或许成为人类正在面临或者即将面临的难题。人工智能的设计者、使用者、监督者、维护者的责任及人工智能企业的伦理责任等会进入学者的研究视域。例如, 哲学家菲利帕·福特(Philippa Foot)提出的电车难题(Trolley Problem)会随着无人驾驶汽车的研究与应用重新进入学者的研究视野, 无人驾驶车辆遇到不可避免的危险时, 是选择保护行人还是保护车内人员呢?决策的理论依据是什么呢?这些道德冲突与伦理问题又将引起学者关注。
2. 人工智能引发风险伦理的问题人工智能产品特别是智能机器人的使用在带来方便快捷的同时也会有潜在的风险, “风险”(risk)是“一种应对现代化本身诱发并带来灾难和不安全的方法; 具有威胁性的现代力量及现代化造成的怀疑全球化所引发的结果”[4]。风险指的是遭受某种损失、伤害、不利后果的可能性。从风险产生根源可以分为“外部风险”(external risk)与“被制造出来的风险”(manufactured-risk)两种形式。“所谓外部风险, 就是来自外部的、因为传统或者自然的不变性和固定性所带来的风险。……所谓被制造出来的风险(人为风险), 指的是由我们不断发展的知识对这个世界的影响所产生的风险, 是指在我们没有多少历史经验的情况下所产生的风险。”[5]人工智能产品的风险随着相关产品的使用而引发, 人工智能带来风险的原因主要有以下几个方面。
其一, 技术的不确定性带来的风险。人工智能的技术具有不确定性, 人工智能究竟是造福人类还是毁灭人类或未可知, 迅速发展的人工智能技术使人们产生了恐慌心理, 人类感觉到自身能力的局限性, 开始担忧人工智能的发展, “人正面临着一股自己根本无法控制的力量, 与这股力量相比, 人只是一粒尘埃罢了”[6]。人工智能技术的不确定性可以理解为人工智能技术后果的难以量化、难以评估性。从上个世纪简单的图灵机到不久前第一位有国籍的机器人索菲亚的诞生, 人工智能飞速发展, 很难预测未来人工智能将会发展到何种程度, 人工智能的规范与治理没有任何经验或者教训可供借鉴。“正是无法预见的东西创造了曾经未知的情境。”[7]迄今为止, 人工智能技术不再局限于符号系统的简单性, 人工智能产品越来越趋于复杂化, 随着大数据、云处理、人机交互、人脑互联等人工智能技术的发展, 人工智能技术与其他学科的融合和渗透更加紧密, 这些人工智能技术的发展对于人类来说“是福是祸”还是未知数。
其二, 人类认知能力的局限性。由于社会历史条件的局限性, 人类在每一个特定的历史阶段所取得的知识成果都受到时代条件的局限。20世纪60年代, 西蒙提出了物理符号系统的思想, 提出对于一般智能行为而言, 物理符号系统是必要手段, 并提出了储存程序的概念和表处理的方法, 这些都是基于经验的假设。西蒙的思想对人工智能的发展有巨大的推动作用, 但是在今天看来, 把一切智能行为都归结为物理符号系统并尝试建立人类一切行为的符号化模型的想法是荒谬的。人类行为具有复杂性, 并不能简单地还原为大脑的结构, 人类的大脑到现在为止还是一个未知的“黑箱”。随着现代科技进一步发展, 人工智能会快速发展, 但是人类自身的认知能力在特定的历史条件和阶段总是受到局限的。“这个社会在技术上越来越完善, 它甚至能够提供越来越完美的解决办法, 但是, 与此息息相关的后果和种种危险却是受害人根本无法直觉到的。”[8]由于人类认知能力的局限性, 我们可能并不能准确评估和预测人工智能发展可能给人类带来的风险及风险发生的概率。
3. 人工智能风险的社会扩大在人工智能发展初期, 人工智能机器只是按照人类设定的程序运行, 人工智能机器并不能自己设置程序, 未超出人类的控制。然而在经济全球化的今天, 任何国家和地区在某些方面所带来的影响势必将对其他国家和地区带来直接或间接的影响, 人工智能的发展也会引起在政治、经济、文化等社会各方面的变化。风险所带来的影响也并不局限于特定时刻与特定领域, 人工智能风险具有较强的时间延续性与空间广延性。目前在医疗领域、商用博弈、军事战争模拟等领域都广泛使用了人工智能且取得了丰硕成果。人工智能的使用会使一些事情的处理更加高效、准确和科学, 人类很容易对这种先进的技术产生依赖性, 但人工智能系统操作不当容易出现问题, 影响社会的生产和生活秩序, 甚至引发社会恐慌。例如无人驾驶汽车可以解放司机双手、避免交通拥堵, 但是, 无人驾驶汽车在测试阶段事故频发, 谷歌、特斯拉、Uber都曾出现过汽车伤人致死事件, 无人驾驶汽车安全问题引起人们关注。
4. 人工智能引发智能机器的道德主体地位的思考根据人工智能的发展速度和规模, 人工智能或许在未来能够研发出具有自我意识的智能产品, 这样的人工智能产品将有怎样的道德地位呢?针对这个问题, 不同的伦理学理论家尝试着给出了自己的答案:“人类中心主义”者反对给予智能机器道德主体地位, 认为道德主体只能属于人类, 人的道德地位是基于人类本身所独有的精神特点而存在的, 人类所独有的精神特点主要表现为有思维的能力、交流的能力等, 这些特点机器均不具备, 只有人类具有道德主体地位, 智能机器只是高级工具与设备。塞尔认为人工智能产品没有意向性, 不可能成为道德主体, “从没有一种纯形式的模型, 足以凭借自身而产生意向性, 因为形式特性自身不足以构成意向性, 同时它们自身也没有因果能力, 它们的能力不过是在例示过程中随着计算机的运行而产生下一步的形式体系”[3]。动物伦理学家没有完全否认机器人拥有道德主体地位的可能性, 他们提出除人类之外的其他生命体也可能具有道德主体地位。目前关于人工智能机器的道德主体地位的争论尚无定论。美国研究机械和人工智能伦理的著名哲学学者帕特里克(Patrick Lin)曾对机器人的“自制能力”作出这样阐述:“一旦机器的一部分启动, 那么该机器就根据外部环境进行自我反馈运行, 而具备在一定时间内不受外部控制的能力。”[9]人工智能发展引发新的道德冲突与伦理困境, 需要修正传统的伦理原则来规范与约束人工智能机器的发展。
三、人工智能的伦理规约之径一般来讲, 对于人工智能的伦理规约分为三个不同的维度:自上而下的伦理规约、自下而上的伦理规约及复合型的伦理规约之路。所谓自上而下的伦理规约指的是从伦理学的基础理论或者伦理规约的原则出发针对人工智能给出规约路径, 以普遍性的伦理学理论指导具体的人工智能领域的实践; 自下而上的伦理规约指的是通过具体的伦理规约的场景和情境给出规约路径, 从具体的人工智能的实践分别给出人工智能的规约路径, 自下而上的伦理规约也可以称为归纳式的伦理规约路径; 所谓复合型的伦理规约路径指的是综合运用自上而下的演绎规约路径和自下而上的归纳规约路径来对人工智能伦理问题进行规约分析。
2017年12月12日, 汇集了来自全球各行业专家的意见, 美国电气电子工程师学会(IEEE)提出了《人工智能设计的伦理准则》(第二版)白皮书, 在白皮书中, 提出了人工智能设计的八大原则, 包括问责在内的法律框架、准则制定的伦理基础及人工智能的未来关注议题等内容。2017年1月, 人工智能研究者在美国加州的阿西洛马召开了“阿西洛马会议”, 会议的重要成果是提出规范人工智能发展的《阿西洛马人工智能原则》(Asilomar Artificial Intelligence Principles), 目的是为全球从事人工智能的专家提供伦理准则, 以保证人工智能能够为人类福祉而服务。
《阿西洛马人工智能原则》对人工智能和机器人发展规范的主要包括三个方面的内容:研究主题(research issues)、伦理与价值(ethics and values)与长期议题(longer-term issues)。研究主题主要讨论了人工智能的发展方向、发展主题等事项; 伦理与价值主要关注人工智能涉及隐私、价值观、道德地位、价值归属、故障追责等方面的问题; 长期议题立足于人类发展与人工智能的长远发展, 对人工智能发展潜在的危机与挑战进行了集中讨论与统一规约, 主要包括能力警惕、风险及公共利益等核心主题[10]。
首先, 针对人工智能加剧的责任伦理方面的规约。随着人工智能的发展, 其中的责任伦理问题日益凸显, 传统的责任伦理理论不能完全适应人工智能发展的需要, 现代技术是塑造世界、改造世界的重要工具, 在技术领域的变化突出了责任伦理问题。在《人工智能伦理设计准则》(第二版)白皮书当中, 明确提出了人工智能的设计者和操作者要负责任并且可以问责的基本原则, 提出建立和完善人工智能的问责法律框架, 增加个人权利的透明度, 减少算法歧视等由于设计者的价值倾向导致的人工智能产品不完善的问题。《阿西洛马人工智能原则》尝试着解决由人工智能带来的责任伦理问题。在伦理与价值部分提出人工智能系统的开发者和设计者是这个高级系统的实际应用、造成误用等行为所产生的重要影响的间接参与者, 有责任与能力去消除人工智能的负面影响。值得特别说明的是, 第一部分直接提出了研究人工智能的要求, 从而进一步提出了人工智能的研究目标是发展有益于人类的人工智能系统, 而不是不受人类控制的人工智能系统。第二部分提出设计者是首要责任人, 使用者是直接责任人, 相关利益者有不可或缺的间接责任。《人工智能伦理设计准则》与《阿西洛马人工智能原则》对人类责任的肯定和确认在一定程度上也是对人在人类社会中的主导地位的肯定, 既是对传统责任伦理理论的有效回应, 也对解决人工智能责任伦理规范作出了有益的尝试。早在1942年人工智能尚未诞生的年代, 阿西莫夫(Isaac Asimov)在《我, 机器人》中给出了三条机器人定律:“第一条, 机器人不得伤害人类个体, 不能目睹人类受到伤害而不干预; 第二条, 机器人必须服从人类的命令, 命令与第一条冲突除外; 第三条, 机器人在不违反第一条、第二条原则的情况下, 要保护自身安全”[11]。2016年, 英国标准协会(BSI)通过《机器人和机器系统的伦理设计和应用指南》, 提出机器人的设计不应该以杀害或者伤害人类为唯一或首要目的; 责任主体应该是人类而非机器人; 任何机器人都应该有责任人, 这个责任人应该为机器人的行为负责。
其次, 针对风险伦理问题和风险社会扩大的问题。为了减少或者降低人工智能风险, 人类应该对人工智能采取慎用的原则, 在建立相关的法律体系中也应体现人类知情权, 在人工智能产品中嵌入价值原则, 人工智能在研制阶段就应该接受风险评估, 广泛推广应用前应该接受风险测试, 人工智能产品产生的数据要接受审核。人工智能需要完全可靠并且不受影响的安全环境来运行, 同时其风险性需要人类检验与确认。为了规避人工智能风险, 人工智能的故障应该坚持透明性原则, 任何运行当中的人工智能系统一旦给人类或人类社会造成了损害, 那么它所造成损害的原因必须经过认真查实和确认, 并及时进行补救。我们可以看出, 《人工智能伦理设计准则》与《阿西洛马人工智能原则》都十分重视风险与安全问题, 尤其是强调人工智能风险性必需要可接受验证。在关于隐私保护方面, 人工智能在分析人类的隐私数据时, 人类有权去访问、查看和管控人工智能系统所产生的数据, 只有这样才能保障数据安全, 保护人类的隐私。《阿西洛马人工智能原则》的长期议题比较关心技术的未来发展, 重点关注自主武器发展的伦理规范, 提出了若干控制自主武器失控的伦理要求, 同时对于情感计算提出了发展要求。重点提及人工智能可能造成灾难性或者威胁人类生存的风险, 《人工智能伦理设计准则》与《阿西洛马人工智能原则》从近期和远期两个层面对安全问题作出了重要的强调。
再次, 针对人工智能道德地位的伦理问题。道德具有相对性与非强制性, 道德因个人知识水平、所处位置的不同而有所差异, 因此对于人工智能的道德伦理问题难有一个普遍认可和广泛接受的标准, 让人工智能产品奉行人类普遍认可的价值观是可行的解决途径。在人工智能的发展过程中, 人工智能机器应该与人类普遍认可的价值观相一致, 人工智能的发展应该服务于人类的公共利益, 服从于人类的共同价值, 人工智能机器的研究和应用的目的是为了服务于人类, 而不是危害或者毁灭人类, 应该受人类所普遍认可和广泛接受的基本的伦理原则的约束。人工智能应该合乎伦理地设计、开发与应用, 人工智能技术应该遵循包括人权、福祉、问责、透明等基本伦理原则并且将价值嵌入人工智能的自主系统当中。英国标准协会(BSI)在《机器人和机器系统的伦理设计和应用指南》中指出, 机器人的设计要保证透明, 同时要避免人类对研究使用机器人上瘾。
在《阿西洛马人工智能原则》中也体现了司法的透明性, 任何高级人工智能系统参与各级司法审判都需要提供令人类完全认可的、符合现行法律的司法说明和依据, 同时其法律依据和证明都要得到相关领域的人类专家的认可。高级人工智能被人类法律或权力机关、国家机器所授予的权利应该仅用于改进健康社会的秩序, 而不是颠覆人们的认知, 从这一点上我们可以发现, 人工智能被赋予的特定权利是历史发展和技术发展的必然趋势。人工智能获得一定法律地位是十分必要的, 这既有利于提高法律事务的办理效率, 又有助于保证法律执行的公正, 促进社会的公平正义。为人工智能立法, 促进人工智能法律体系的建设则更是具有重要意义, 如果人类违背法律必定要被司法系统追责一样, 人工智能系统若是违背法律同样需要追究责任。
综上所述, 人工智能的发展不应只是满足实现功能性目标与解决技术问题, 更应该造福人类, 服务于人类整体的价值目标与伦理准则。智能机器的开发应该尊重用户的价值, 不剥夺人类的权利, 智能机器的设计和应用应该以人类福祉为最终目标。人工智能的发展必须从责任伦理、安全风险、法律法规等多维视角去规约才能促进人工智能的规范发展, 才能更好地发挥人工智能的积极作用。
[1] | Barrett A M, Baum S D. A Model of Pathways to Artificial Super Intelligence Catastrophe for Risk and Decision Analysis[J]. Journal of Experimental & Theoretical Artificial Intelligence, 2016, 29(2): 397–414. |
[2] | Jonas H. The Imperative of Responsibility: In Search of an Ethics for the Technological Age[M]. Chicago: University of Chicago Press, 1985: 16. |
[3] | Searle J R. Minds, Brains, and Programs[J]. Behavioral & Brain Sciences, 1980, 3(3): 417–457. |
[4] | Beck U. Risk Society: Towards a New Modernity[M]. London: SAGE Publications Ltd, 1992: 3. |
[5] | 安东尼·吉登斯. 失控的世界[M]. 周红云, 译. 南昌: 江西人民出版社, 2001: 22. |
[6] | 陈学明, 吴松, 远东. 痛苦中的安乐马尔库塞、弗洛姆论消费主义[M]. 昆明: 云南人民出版社, 1998: 162. |
[7] | Beck U. World Risk Society[M]. Cambridge: Polity Press, 1999: 87. |
[8] | 乌尔里希·贝克, 约翰内斯·威尔姆斯. 自由与资本主义[M]. 路国林, 译. 杭州: 浙江人民出版社, 2001: 127. |
[9] | Lin P, Abney K, Bekey G. Robot Ethics: Mapping the Issues for a Mechanized World[J]. Artificial Intelligence, 2011, 175(5/6): 942–949. |
[10] | 阿西洛马人工智能原则马斯克、戴米斯·哈萨比斯等确认的23个原则, 将使AI更安全和道德[J]. 智能机器人, 2017(1): 20-21. |
[11] | 阿西莫夫. 银河帝国8: 我, 机器人[M]. 叶李华, 译. 南京: 江苏文艺出版社, 2012: 2. |