摘要:人工智能技术的快速发展与广泛应用产生了深刻的社会影响,为了更好地约束与规范人工智能的发展与应用,社会各界相继提出各种各样的人工智能伦理原则与伦理指南。总体来看,各种伦理原则的内容大致趋同,但也有一些被普遍忽略的内容,而且不同机构对同样一种伦理原则的阐释存在明显差异。虽然有的学者认为人工智能伦理原则是无用的,但从伦理原则的应用现状来看,人工智能伦理原则是能够发挥积极作用的,是实现人工智能伦理治理的一种重要工具。包括伦理学家、科学家、学术组织、企业与政府管理部门在内的各类主体需要采取必要的强化措施,切实保障伦理原则的贯彻与实施。
关键词:人工智能;伦理原则;伦理漂蓝;具体行动
随着人工智能技术的快速发展及广泛应用,如何合理地应用人工智能,使其为人类造福而不是带来伤害与威胁,成为学术界与公众普遍关注的热门话题。法学家普遍重视对人工智能的法律监管,有学者认为,应该制定《人工智能发展法》(AIDevelopmentAct),建立专门的监管机构,保证人工智能的安全性与可控性。〔1〕其实,法学家提出的一些问题与解决进路,已经在人工智能伦理治理研究中得到高度重视。比如,近些年来许多机构提出了形形色色的伦理原则、伦理指南与伦理准则,试图从宏观上对人工智能进行治理。人工智能伦理治理就是应用伦理工具与理论,对人工智能伦理与社会风险进行治理,与法学领域中的软法治理本质上是一致的,相对于法律法规的钢性规制而言,通过伦理原则等软法实现对人工智能的灵活与敏捷治理,是当前及今后相当长的时间内人工智能治理的基本途径。本文首先对已有的人工智能伦理原则进行简要介绍与特征分析,然后论证伦理原则发挥积极作用的可能性,最后针对不同行为主体提出实现从伦理原则到行动的可能途径,以期推进人工智能伦理原则的实效性研究。
一、人工智能伦理原则及其特征分析
1.若干代表性伦理原则
自2016年以来,包括国际组织、各国政府、企业与学术团体等在内的各类主体发布了大量伦理原则与伦理指南,根本目的就是为了推进、规范与约束人工智能技术的研发与应用。
第一,国际组织提出的伦理原则。2017年12月,全球工会联合会(UNIGlobalUnion)提出《合伦理的人工智能十大原则》,包括“透明性、配备伦理黑匣子、为人类与地球服务、采用人类控制进路、无性别歧视与无偏见、利益共享,以及禁止军备竞赛”等等。2018年6月在加拿大召开的G7峰会上,七国集团领导人通过了一项《人工智能未来的共同愿景》文件,提及“以人为本、增加信任、保障安全、保护隐私”等若干伦理原则。2019年4月,欧盟人工智能高级专家组发布《可信任的人工智能伦理指南》,强调人工智能应该是合法的、合伦理的与稳健的,并针对合伦理的人工智能提出了“尊重人类自主、防止伤害、公正与可解释性”四大伦理原则。
第二,各国政府层面提出的伦理原则。2016年10月,美国总统行政办公室、国家科技委员会等发布《为人工智能的未来做准备》,强调了公正、安全与责任等原则,提出科研人员要确保人工智能是开放、透明、可理解与可治理的。2018年4月,英国上议院发布《英国人工智能》报告,提出“为了公共利益发展AI、可理解性与公正原则、保护隐私权与数据权、利益共享,以及不伤害不破坏不欺骗”五大原则框架。2019年6月,中国国家新一代人工智能治理委员会发布《新一代人工智能治理原则:发展负责任的人工智能》,提出了人工智能发展应遵循“和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作与敏捷治理”八条原则。
第三,各类企业提出的伦理原则。2018年4月,德国电信公司提出了《人工智能指南》,其中包括“责任、关爱、顾客优先、透明、安全、控制、合作、共享”等伦理原则。2018年6月,谷歌CEO皮查伊(SundarPichai)发布了谷歌人工智能七条原则,包括“有益于社会、避免产生或加剧偏见、为了安全而建造与测试、对人类负责、融入隐私设计原则、坚持科学卓越的高标准、使这些原则应用于实践”。2018年9月,腾讯公司董事会主席兼首席执行官马化腾在世界人工智能大会上提出“四可原则”:可知、可控、可用和可靠。
第四,各类学术组织与研究机构提出的伦理原则。2017年1月召开的阿西洛马人工智能会议从“科研问题、伦理和价值、更长期的问题”三个方面提出了23项原则,会议呼吁全世界在发展人工智能的同时严格遵守这些原则,共同保障人类未来的利益与安全。其中“伦理和价值”部分提及“安全性、透明性、责任、人类价值观、隐私、利益分享、人类控制”等伦理原则。2017年12月,美国电气和电子工程师协会(IEEE)发布了《合伦理的设计》报告,提出人工智能设计、开发和应用需要遵循的伦理原则,包括“人权、福祉、责任、透明、慎用”等。
2.已有伦理原则的特征分析
第一,从伦理原则内容的角度来看,大部分伦理原则与指南的内容趋同。我们很容易看到,上述提及的伦理原则中有相当多的内容是类似的,更全面细致的研究亦表明了这一点。乔宾(AnnaJobin)等人收集对比了84份包含了伦理指南与伦理原则的文件,将相关伦理原则按出现频率的高低排序,分别是“透明、公正、不伤害、责任、隐私、有益、自由与自主、信任、可持续、尊严”等。〔2〕伦理原则趋同的表现可能主要源于人工智能伦理问题的共性,但也很可能源于制定主体并未深入思考人工智能的伦理原则究竟应该包含哪些内容,同时也反映出一些普遍被忽略的重要内容。比如,大多数伦理原则对环境与生态问题关注不够;很少从女性的角度思考人工智能伦理问题,在已有的伦理原则中,几乎看不到女性通常比较关注的关爱、护理、照料、帮助等内容。
第二,从伦理原则具体内涵的角度看,对于同样的伦理原则,不同制定主体所阐释的内涵却存在一定的差异。比如,就伦理原则中普遍关注的人工智能的透明性而言,不同机构对透明性的关注重点并不一致。有的主要强调人工智能系统决策过程与机制的可知性与可理解性,认为透明的人工智能系统是可以发现它是如何、为何做出一个决策的;有的强调人工智能决策与影响后果的可解释性,阿西洛马人工智能原则就是从故障透明性与司法透明性两个层面理解透明性问题;还有的强调人工智能与相关技术、资源应用情况的公开性,德国电信公司对“透明”原则的界定即是强调这个方面。
第三,从制定主体的角度看,以发达国家及其企业为主,而发展中国家很少。乔宾等人分析了84份包含伦理指南与伦理原则文件的地域分布情况,结果显示:美国最多,有21份,占25%,其次是英国13份,占15.5%,再次是日本4份,德国、法国和芬兰均为3份,加拿大、冰岛、挪威、印度、新加坡、韩国等均为1份。〔2〕不过,乔宾等人只收集了英语、德语、法语、意大利语与希腊语文献,可能主要由于语言的原因,许多发展中国家发布的文件与报告并未收入。这种情况显示出许多发展中国家要么根本就没有发布相关文件,要么并不重视用英语发布相关文件,需要引起发展中国家的高度重视。
第四,从伦理原则实施保障的角度看,许多机构仅仅是提出了一些伦理原则与指南,但对于如何保障伦理原则的实施,如何将这些伦理原则落到实处,却没有提出相应的保障措施。关注人工智能治理问题的法学家通常批评伦理原则在解决人工智能伦理与社会问题方面存在缺陷与不足。卡罗(RyanCalo)认为,即使我们能够达成道德共识,但伦理学缺乏一套强有力的执行机制。目前,少数公司主导着新兴的人工智能产业,他们热衷于提出伦理标准,而不是约束性的规则。其原因显而易见,如果他们改变或无视伦理标准,也不会受到实质性的惩罚。〔3〕与法律法规即“硬法”相比,包括伦理原则、行为准则等在内的软法的确缺乏直接的强制性,但是,我们可以通过多种途径对软法进行间接强制来克服这一缺陷,具体途径将在本文第三部分详细论述。
二、伦理原则:有用,还是无用?
1.伦理原则无用与伦理漂蓝
很多学术团体非常重视制定并发布伦理原则与职业规范,用以指导与约束专业人士的职业行为。1972年,计算机协会(AssociationforComputingMachinery,ACM)发布了伦理准则,用以规范专业人员的软件开发行为。2018年,ACM发布了新版《计算机协会道德与职业行为准则》,声称该准则的目的是用作计算专业人员进行道德决策的基础。为研究这些伦理准则究竟能够对专业人员产生何种程度的影响,麦克纳马拉(AndrewMcNamara)等人邀请了63名软件工程的学生和105名职业软件工程师对11个与软件相关的伦理决策进行实验。他们将受试对象分为两组,一组将ACM的伦理准则展示给受试者,另一组则看不到伦理准则。实验结果表明,两组受试者对同样的伦理问题给出的伦理抉择较为一致,无论是学生还是专业人员,是否看到伦理准则,对他们的伦理抉择没有统计学意义上的显著差异。因此,麦克纳马拉等人认为,没有证据表明ACM的伦理准则会影响伦理抉择。〔4〕
相关期刊推荐:《自然辩证法研究》创刊于一九八六年,月刊。本刊为专业学术性期刊。研究自然哲学、科学哲学、技术哲学、科学方法论等理论问题,探讨当代科学、技术、经济与社会的相互关系、注重对最新国内外科学技术成果的哲学探索和对自然辩证法学科的基础理论的研究。读者对象为哲学、理论、管理、科技工作者和自然辩证法教师以及关注本领域的研究人员。
随着环境保护运动的兴起与人们环保意识的增强,许多企业采用虚假或夸大的广告、宣传等形式,误导人们相信它们在环境保护方面的各种表现与努力,这种现象在环境伦理学中被称为“伦理漂绿(ethicsgreenwashing)”。参照“伦理漂绿”概念,弗洛里迪(LucianoFloridi)把数字技术中的类似现象称之为“伦理漂蓝(ethicsbluewashing)”。也就是说,有的人工智能企业通过市场宣传、广告以及其他公共关系活动,包括设置咨询团队等方式,使得人们相信他们的行为、产品与服务等是合乎伦理的,但实际情况并非如此。通过伦理漂蓝的手段,可以转移公众的注意力、掩盖其不良行径、节约成本以及获得某些竞争优势等等。〔5〕伦理原则真的不能发挥实质性的作用吗?难道伦理原则只能用作部分人工智能企业与学术团体的漂亮口号,借此缓解与平息公众对人工智能的忧虑与质疑?
2.伦理原则在生命科学与医学等领域的积极影响
伦理原则制定与应用历史最悠久、影响最大、接受度最高的领域可能是医学伦理与生命伦理。美国医学协会(AmericanMedicalAssociation)早在1847年就创立了医学伦理准则,之后不断更新与扩充。在医学领域中,特别是在新兴领域与快速发展的领域当中,由于没有现成的法律法规可供使用,因此包括伦理准则、伦理指南与政策等“软法”得到广泛应用。而且,职业共同体的软法还有助于法庭判定某些职业责任,在某些特殊情况下,如果缺乏相应的法律条文的话,软法将是案件判决的决定性因素。〔6〕生命伦理学中对伦理原则的推崇甚至表现为原则主义(principlism),这种观点认为,在伦理对话中,可能存在被所有参与者赞同的基本原则,生命伦理学最重要的任务就是根据具体的生命伦理学问题来解释应用这些伦理原则的结果,决定它们的权重或相对的影响力。〔7〕33
不过,米特尔施泰特(BrentMittelstadt)认为,虽然人工智能伦理原则与医学伦理原则很相似,但人工智能与医学的差异使得人工智能领域的伦理原则不太可能像医学领域那样成功。人工智能与医学相比存在四方面的不足。第一,缺乏共同目标:人工智能的研发目标与公共利益并不一致。第二,职业规范不完善:作为一名良善的人工智能研发者的具体内涵并不清楚。第三,没有一套有效的将原则转译为实践的方法。第四,缺乏稳健的法律与职业责任机制:当研发者的行为违背伦理原则时,几乎没有处罚机制与纠偏机制。〔8〕
3.若干人工智能伦理原则的认同与影响
虽然米特尔施泰特的批评有一定合理之处,但我们应该看到,随着人工智能科学共同体与哲学家、社会公众的共同努力,人工智能领域与医学相比的不足与差距正在逐渐缩小,或者得到一定程度的克服与改善。另外,前述提及的麦克纳马拉等人研究的预设前提并不合理,他们的研究实际上假定实验者看到了伦理原则就会立即对其思想与行为产生影响。事实上,任何人从知道伦理原则,到在实际的技术研发行为中得到正确理解与合理应用,需要一个较长的反思与实践过程。——论文作者:吴红,杜严勇
* 稍后学术顾问联系您