浅析欧盟人工智能算法歧视的法律规制
◇李良雄
作为一项战略性技术,人工智能在新一轮科技革命和产业变革中发挥着引领作用,其溢出带动性较强。出现在移动互联网、大数据、超级计算、传感网等领域的技术突破,促使人工智能技术迅猛发展,成为当下社会经济发展的新引擎和新动能。然而,人类在享受人工智能技术红利的同时,也面临着人工智能背后隐藏的伦理问题,特别是作为人工智能内核的算法所引发的歧视问题。人工智能算法歧视主要包括三种类型:一是源于人类社会以及算法设计者自身的偏见,即先行存在的歧视;二是算法设计之初由技术中立问题导致的偏见,即技术性歧视;三是由于社会环境变迁导致的偶然性算法偏见,即突发性歧视。针对上述问题,欧盟颁布了《欧盟基本权利宪章》《机器人民事法律规则》《通用数据保护条例》等规则,并以《通用数据保护条例》为主体、以“数据保护”为主旨对人工智能算法歧视进行法律规制。
借“数据清洁”抑制算法歧视
算法导致的数字歧视风险主要产生于两个阶段:一是在数据采集、储存阶段。在物联网技术下,人工智能设备大多会不经数据主体同意,在主体不知情状态下获取用户隐私数据并进行算法分析。二是在算法运行阶段,算法在分析运行海量数据时常会因设计者或技术本身的原因带来偏见,导致输出结果与现实情况出现落差。基于此,《通用数据保护条例》第2条第1款通过对数据范围的把控,将全自动和半自动个人数据处理纳入条例规制范围,填补了欧盟过往在算法规制问题上的立法空白。同时,通过第9条规定了算法歧视的“数据清洁”,即要求在数据库内清除特定的具有歧视意义的数据内容,以防止数据主体由于“敏感数据”而受到算法歧视。该条例在第22条第4款中进一步明确表示,如非出于社会秩序及公共管理需要或已经获得数据主体的同意,且已采取措施保护数据主体权利、自由和正当利益,被自动化决策处理的个人数据不能包含“敏感数据”。
不过,“数据清洁”虽然在理论上有助于抑制算法基于个人特质形成的直接歧视,但是难以抑制算法基于个人特质相关数据形成的间接歧视。在大数据时代,人们的个人数据与其他数据之间存在高度关联性,“数据清洁”原则虽可清除特定的“敏感数据”,但却无法清除与其高度关联的其他数据。欧盟目前规定的“数据清洁”范围显然不能满足全部现实需要。如何实现个人数据保护与算法分析准确性之间的平衡,是欧盟以“数据保护”抑制算法歧视理念能否持续运行的关键。
管控“算法黑箱” 提高数据透明度
在人工智能算法技术层面,除算法内置性编码凝视(即在算法设计之初就嵌入程序的固有偏见)以及算法运行数据偏差外,“算法黑箱”也是导致算法歧视的原因之一。“算法黑箱”是指算法在归纳分析海量数据后,形成一种更为高级的认知方式。程序员不仅不能观察,同时也难以理解算法“自主认知”后产生的代码链条,导致算法运行过程变得愈加模糊。尽管算法开发者一般都会谨慎对待相关问题,但人们仍然难以把握和消除算法运行过程中产生的系统歧视。美国布鲁克林法学院教授弗兰克·帕斯奎尔(Frank Pasquale)将“算法黑箱”分为三个层次:一是由于算法自身深度自主学习导致透明度缺失形成黑箱,也即“技术黑箱”;二是由于算法具有较强的领域性与专业性,对于非专业群体而言算法本身就是“黑箱”,也即“解释黑箱”;三是由于算法使用者或应用平台不公开算法数据相关信息,使算法在应用层面透明度缺失形成黑箱,也即“组织黑箱”。“黑箱”概念逐渐成为算法透明度缺失的各类具象化表现的代指,学术界也愈来愈认可此种用法。
为缓解不同“算法黑箱”可能带来的不同性质算法歧视问题,欧盟要求数据使用者提高算法透明度并加强管控,相关措施主要分为两个方面:一方面是要求个人数据透明与操作路径有迹可循。在个人数据透明层面,算法的运行以海量数据为基础,从数据的收集、存储到分析、运行,再到算法自动作出决策,无一不影响着算法的最终质量。任一环节中的数据瑕疵或缺陷,均会导致带有歧视性的算法结果。故欧盟规定了数据的合法、公正和透明原则,要求算法开发者应当通过正当途径获得用户主体个人数据并将数据予以公开,使得算法在数据来源、数据内容方面可查,增强算法在训练阶段、运行阶段、决策阶段的透明度,减少黑箱带来的歧视影响。另一方面是要求算法透明,建立起对算法模型的审查机制。“算法黑箱”之所以会导致算法偏见,除“技术黑箱”外,均是由于算法模型本身可识别却不为人们所了解,例如“解释黑箱”与“组织黑箱”加剧了算法的不透明问题,使算法失去掌控,产生未知偏见。根据《通用数据保护条例》第13、14条相关规定,数据使用者如果将用户个人数据用于“自动化决策”,那么数据使用者要承担信息披露责任,主动向数据主体提供与该决策有关的“有用信息”,同时对可能出现的问题进行风险提示。但是通过增强算法透明度来打开黑箱,并不意味着要将所有算法信息公开,根据欧盟的相关规定,此处的“有用信息”是指对于数据主体而言浅显易懂且有利于主体的信息,并非所有算法关联信息,鼓励数据使用者向主体解释某一特定决策产生的具体原因。
当然,针对欧盟有关算法透明度的要求,也有学者提出质疑,认为这种规定不必然导致算法公平,也并不必然阻止算法歧视,反而不利于维护算法决策在准确性与透明度之间的平衡关系。因为算法的复杂性决定了往往难以对其作出通俗易懂的解释,而且机器学习也会导致算法变得难以识别,此外商业秘密保护、技术能力等也影响算法透明制度实施。
确定相关法律责任
《通用数据保护条例》还对相关人员所应承担的义务和责任进行了规定。在算法设计者层面,算法设计者作为算法编写、分析及运行的主导者,应当是算法偏见产生的直接责任人。为此,《通用数据保护条例》对算法设计者的法律责任作出了规定。首先,为预防“算法黑箱”带来的透明度缺失问题,算法设计者应当在算法编写之初到算法运行阶段承担数据痕迹可查义务,以保证算法训练数据的真实可靠;其次,算法设计者应就算法涉及的部分技术原理进行阐释,以保证算法目标服务人群充分了解情况,缓解因“解释黑箱”产生的算法偏见;最后,若算法设计者出于自身主观偏见,在算法编写之初便嵌入歧视性程序,破坏算法的技术中立和价值中立,则其应当承担恶意操纵的法律责任。在算法使用者或应用平台层面,由于其与算法目标服务人群联系密切,使用者或应用平台关于算法运用、决策的意志关乎被服务人群的切身利益。当算法由于使用者或应用平台自身产生“组织黑箱”导致透明度缺失,产生算法歧视侵害行为时,使用者或应用平台应当承担较设计者而言更为严苛的责任。故欧盟在算法歧视法律归责问题上,采用严格的企业问责制度,依法对算法使用者及应用平台进行追责。《通用数据保护条例》详细规定了数据使用者、控制者以及处理者在搜集、储存和分析数据主体个人数据时应当承担的义务,并在第82条和第83条明确规定了民事赔偿责任和行政处罚。《通用数据保护条例》规定的企业问责制度促使相关企业在其生效后,投入大量成本维护信息数据安全,在一定程度上缓和了因数据泄露或数据偏差导致的算法歧视问题。
但令人遗憾的是,欧盟并未对算法责任承担问题作出具体的专项规定,使得在因算法歧视发生侵权问题后,缺乏完善的责任承担机制,不利于算法歧视问题的事后法律规制。
数据是算法的基础,是算法平稳运行的助推器。欧盟“以数据保护为中心”的算法歧视法律规制模式在对用户个人数据实行严格保护的同时,对算法以及人工智能进行法律约束,将算法可能产生的风险扼杀在数据阶段,为相关法律实践提供了新思路。
(作者单位:福建江夏学院金融学院)