引言
过去十年里,面部识别已成为最强大的生物识别技术之一,该技术可通过对个人面部轮廓信息进行比较和分析来识别和验证个人身份。得益于机器学习和传感技术的进展,面部识别系统也得到了极大的改进和提高,预计 2024 年其市场将激增至 70 亿美元(2019 年为 32 亿美元)。事实上 2010 年最有效的面部识别系统的准确率已达 72%,而如今面部识别系统的准确率可轻松达95%以上。
面部识别技术应用广泛,包括从改善银行和零售业的消费者体验到加快机场边境管理速度等。虽然这项技术为许多产生社会效益的实际应用创造了大量机会,但同时也对人权和公民自由构成了不可忽视的严重威胁,特别是对言论自由、集会自由、联盟自由以及隐私权的威胁。最令人担忧的是,正如美国公民自由联盟(ACLU)所强调的那样:“收集和存储信息以备不时之需的技术正在向积极监控人们日常行为的技术转变,而这种监控通常是实时进行的。”
近年来,公众对面部识别技术的担忧与日俱增,一些有争议的问题也加剧了人们的这种担忧。如一些零售商在未通知用户或未经用户同意的情况下使用这项技术,越来越多的学校也正在采用这项技术对学生实施监控,生物测定学数据泄露事件屡屡发生,个人数据在未经用户许可的情况下被用于面部识别系统的开发,等等。
尽管在过去几年中,面部识别技术已取得了长足的进步,但由于某些局限性原因,人们对其在伦理方面的一些担忧已开始浮出水面。一些研究表明,由于人口统计学特征上的一些差异,以此为基础的面部识别技术有可能导致产生不公正偏见。最近一项研究发现,系统的准确性和检测结果因肤色影响,对个体的识别可能会产生错误。此外,取决于具体系统的不同,性别、年龄、身高、眼镜或头巾也都会对准确性和检测结果产生影响。
面部识别系统用于实时执法场景时,以上因素都有可能增加识别错误的风险,并有可能导致重大的安全隐患。因此,对于面部识别技术,我们不能满足于现状,必须制定一种确保面部识别技术应用可靠性和安全性的治理框架。我们认为,这一治理框架应以证据为基础,并由各利益相关方共同设计。
为此,世界经济论坛(WEF)在法国率先制定了以某个实例场景为试点、涉及多个利益相关方、基于证据制定相关政策的项目计划。该计划的目标是确立一个通过现场测试的面部识别技术的治理框架,主要挑战是围绕法国或其他国家的用例(考虑到当地法规、社会规范和其他背景因素)进行各种政策试点,以不断强化治理行动的框架。《负责任的面部识别使用框架——流程管理用例》白皮书是该项目实施过程的第一步。
此外,该治理框架旨在为欧洲和国际关于面部识别技术应用展开的公开辩论提供信息。由于这个问题涉及个人和集体的权利和自由,是希望促进还是限制这些技术,以及使用这些技术需要具备哪些条件,公民及其民主代表是唯一合法的决策者。我们的目标是赋予公民及其代表以权力,让他们来为面部识别 技术的推行和取舍进行导航。
治理行动11项原则
治理行动原则第一版是多个利益相关方共同起草的结果,并认真参照了欧盟《通用数据保护条例》(GDPR)和警察与刑事司法法令,借鉴了其中的一些原则。治理行动原则第一版的制定还参照了为在整个欧盟范围内符合道德地使用人工智能技术铺平道路至关重要的文件:欧盟委员会发布的由人工智能高级专家组编制的《人工智能道德准则》。
行动原则第一版的制定旨在确保负责任地使用面部识别技术,但 DNA、指纹、虹膜或步态识别等其他生物特征并不包括在内。这些原则的制定代表了本政策项目的第一个里程碑,应参照政策试点的现场调查结果进行评审。测试阶段我们将特别注意其有效实施的潜力、完整性和相关性。
偏见和歧视
使用面部识别系统的组织机构应采取适当步骤以确保避免产生不公平偏见的监测结果,并尽可能减轻其不利影响。尽管完全消除偏见是人工智能研究中的最大挑战之一,但各类组织机构必须分配适当的资源用于实施工具和运作过程,以尽量减少不公平的偏见或结果。
合理使用面部识别系统
采用面部识别系统的组织机构应采取合理的步骤来评估其打算采用系统的性能和局限性,并确保系统的合理使用。面部识别系统应根据预期用途进行高度定制。
系统设计中的隐私权问题
使用面部识别系统的组织机构应设计支持隐私的系统,包括系统安装要求中的隐私考虑,在面部识别技术的设计、开发和测试以及支持业务实践和持续的系统维护中贯彻隐私权支持政策。
问责制
使用面部识别系统的组织机构应确保内部和跨第三方服务提供商或业务合作伙伴的问责制的实施。为此应建立并公开披露指导其系统设计和使用的监管原则。这一条不适用于系统在预防潜在网络攻击方面的技术规范。
风险评估与监测
创建面部识别平台或将面部识别作为系统一部分的组织机构应对其系统进行全面的风险评估,包括对隐私的影响、潜在的错误、易受到不公平的偏见、易受黑客攻击和网络攻击的影响等。决策过程若缺乏透明度可能导致对公民权的侵犯。
性能评估
创建面部识别平台或将面部识别作为某个系统一部分使用的组织机构应遵循其设计阶段(实验室测试)和实施阶段(现场测试)的系统准确性和系统性能一致的评估标准。性能评估应由有资质的第三方组织进行审核,并向系统用户提供评估报告。
知情权
应采取措施,向对面部识别系统使用存有疑问或有需要的最终用户提供信息。终端用户可应要求获得其个人生物特征数据。
知情同意书
个人应就使用面部识别系统签署已知情的、明确和肯定的同意书。任何时候数据用户注册一项由面部识别技术支持的新服务时,都对数据保留范围表示明确的同意意见。
通告和同意书
在公共场所使用的面部识别系统,应设置清晰的通告标牌,以确保与最终用户就面部识别使用有明确沟通。使用面部识别系统的区域应明确划定并向个人提供相关提示以及系统运行时的视觉标志。
无障碍使用权和儿童权利
面部识别不应排除任何人,应始终能为包括老年人和残疾人在内的所有人所使用。在婴儿和儿童等某些例外情况下,应提供面部识别的替代办法。
替代选项和人工监督
对有可能导致某种后果的任何用途,如造成民事侵权的后果,应介入人工审查(人工监督)制度。为应对和解决系统异常和意外错误,全自动运行系统的循环中应始终有人工介入的后备系统。在面部识别系统中配置某种替代方案应作为一个合理的选项。
流程管理政策试点
为支持负责任面部识别系统设计的最佳实践,工作组决定将重点放在“流程管理”(面部识别作为访问某种服务的一种手段)用例上,原因如下:首先,该用例可能在未来几年内予以开发。例如,东京奥运会的组织者已宣布使用面部识别来对运动员和工作人员进入体育场馆和奥林匹克设施场馆进行管理。此外,机场和航空公司也开始推行使用这项技术。其次,任何面部识别应用都存在某些内在风险,通过认识到这一挑战以及面部识别用于流程管理的其他相关风险,项目成员可确定具体的风险,设计有针对性的缓解策略。此外,以上方法可作为面部识别技术的设计者和用户的蓝图,说明如何将伦理道德考虑引入商业运作中。
为便于通过问卷调查评估面部识别技术在流程管理用例中负责任的使用,该技术的设计者和用户在设计和部署面部识别系统时应遵循以下最佳实践。相关要求主要集中于四个方面:(1)明确选择面部识别技术的理由;(2)设计与最终用户特征相匹配的数据计划;(3)减少偏见风险;(4)让最终用户拥有知情权并保持透明度。
相关知识推荐:人脸识别有关论文投稿期刊推荐
通过最佳实践,不仅可以为产品开发团队的工作提供信息,还为技术提供者和使用者提供面部识别系统在整个组织机构内运作的信息。虽然一些要求与面部识别的各种应用相关,但主要是针对流程管理用例专门设计的。此外,最佳实践代表了一整套最低限度要求,可根据政策试点的结果加以审查和实施。
明确选择面部识别技术的理由
确定要解决的问题,并就“与其他技术相比,面部识别技术能更好地解决某特定问题”的理由做出解释,这对面部识别软件的优势和劣势进行评估并做出相应决策是非常有价值的。此外,愿意使用该技术的组织机构对假设数据须明确验证,例如,可能的假阳性率和假阴性率、可能的性能效果等,以支持对面部识别软件的价值评估。如果这些假设没有得到验证,应收集数据来验证它们。
设计与最终用户特征相匹配的数据计划
根据最终用户确定的特性设计一个数据计划,其中应包括一定数量的样本,并收集相应的数据,这些数据应反映出系统可能部署场所的情况。即使是经过使用验证的模式,也必须收集针对具体使用条件和最终用户特征的测试数据集,以评估系统是否存在不公平偏见,这一点很重要。对收集的数据应加以评估,以确保其与数据计划相一致。
减少偏见风险
在开发用于流程管理用例的系统中,应明确存在的不公平偏见风险。为此,提供或使用面部识别技术的组织机构应:评估运作过程中的每个步骤(例如,基于图像捕获的不公平偏见和基于模型性能的不公平偏见),考虑并记录每种情况下的假阳性和假阴性错误的影响;记录系统最终用户的特征,包括年龄范围、性别、出生国、种族和民族,并按使偏见最小化的方向进行优先顺序排列;并将对减少偏见和差异进行评估。记录系统设计中不同人群的特征,例如,对坐轮椅或非常高的人如何识别,对于戴头巾或其他头饰的人又将如何识别;对已识别的每一种歧视风险,组织机构应对系统的这种偏见做出明确评估:将使用哪些衡量标准,如何测量,投入使用的系统必须满足哪些标准;确定每种风险评估的环境,以及对周围环境的反应。
在整个开发过程中,应多次评估系统是否存在不公平的偏见,以便有充分的时间来减少偏见,在系统部署之前和之后都应进行评估。若仍存在可能对用户造成损害的任何差距,在减轻损害或消除差距之前,不应将系统投入使用。
最终用户的知情权及信息透明
应方便最终用户访问有关面部识别系统功能的相关信息,系统设计和使用的监管原则应转换为非专家可理解的格式,告知包括重要条款摘要在内的同意政策(如预期目的、数据保留期、数据保护和共享政策),必须以使用者能够理解的方式且标记明确易读的方式明示监控系统拍摄的空间范围。
结语
考虑到生物特征数据的敏感性,使用面部识别技术存在内在风险。虽然其使用可为个人和社区带来公认的好处,但风险的存在也是事实。因此,迫切需要建立某种强健的治理框架来减轻风险。设计这样一个框架需要有可实现的原则,进行现场测试,并通过政策试点对使用结果进行评审。这一进程将确保治理框架是可靠的、保护性的,并得到各利益相关方的认可。
为实现这一目标,我们建立了一个包含多个利益相关方的社区,并提出了围绕四个主要步骤的方法:(1)确定行动原则;(2)设计一整套最佳实践来支持这些原则的实施;(3)通过评估问卷来评估组织机构是否遵循了这些原则;(4)通过独立审计对这些原则进行验证。这四个步骤不仅有助于为负责任的流程管理用例的系统设计者提供信息,而且还可以确保其设计人员和用户有效地遵循这些可实现的原则。
我们坚信,为了确保这些行动原则得到有效采纳,必须与系统运作核心活动密切结合,才能将其付诸实施。这一过程的实施需要行业参与者、决策者、学术界和民间社会代表之间强有力的合作。如果能够在各利益相关方之间建立起可持续的合作,将可为发展真正以人为本的技术奠定基础。
下一步是现场测试政策框架,评估其相关性,并根据观察结果对其进行审查。通过政策试点项目,法国标准化协会(AFNOR)将对相关的审计框架进行测试,并为设计负责任的面部识别应用标准铺平道路。一旦试点项目完成,我们将建立一个致力于尊重和促进这一治理框架的多方利益相关者联盟。
考虑到项目计划的开放性和实验性原则,我们将鼓励行业参与者、公众行动者、民间社会代表、决策者和学术界人士与我们一起踏上这一征程,以强化我们的治理框架并确保其影响力。——论文编译:方陵生
* 稍后学术顾问联系您