浅析欧盟人工智能算法歧视的法律规制
◇李良雄
作为一项战略性技术,人工智能在新一轮科技革命和产业变革中发挥着引领作用,其溢出带动性较强。出现在移动互联网、大数据、超级计算、传感网等领域的技术突破,促使人工智能技术迅猛发展,成为当下社会经济发展的新引擎和新动能。然而,人类在享受人工智能技术红利的同时,也面临着人工智能背后隐藏的伦理问题,特别是作为人工智能内核的算法所引发的歧视问题。人工智能算法歧视主要包括三种类型:一是源于人类社会以及算法设计者自身的偏见,即先行存在的歧视;二是算法设计之初由技术中立问题导致的偏见,即技术性歧视;三是由于社会环境变迁导致的偶然性算法偏见,即突发性歧视。针对上述问题,欧盟颁布了《欧盟基本权利宪章》《机器人民事法律规则》《通用数据保护条例》等规则,并以《通用数据保护条例》为主体、以“数据保护”为主旨对人工智能算法歧视进行法律规制。
借“数据清洁”抑制算法歧视
算法导致的数字歧视风险主要产生于两个阶段:一是在数据采集、储存阶段。在物联网技术下,人工智能设备大多会不经数据主体同意,在主体不知情状态下获取用户隐私数据并进行算法分析。二是在算法运行阶段,算法在分析运行海量数据时常会因设计者或技术本身的原因带来偏见,导致输出结果与现实情况出现落差。基于此,《通用数据保护条例》第2条第1款通过对数据范围的把控,将全自动和半自动个人数据处理纳入条例规制范围,填补了欧盟过往在算法规制问题上的立法空白。同时,通过第9条规定了算法歧视的“数据清洁”,即要求在数据库内清除特定的具有歧视意义的数据内容,以防止数据主体由于“敏感数据”而受到算法歧视。该条例在第22条第4款中进一步明确表示,如非出于社会秩序及公共管理需要或已经获得数据主体的同意,且已采取措施保护数据主体权利、自由和正当利益,被自动化决策处理的个人数据不能包含“敏感数据”。