张珺皓|人工智能立法残疾人保护的中国路径——基于欧盟《人工智能法》的镜鉴

【摘要】欧盟《人工智能法》以无障碍与反歧视为核心,构筑了关于残疾人保护的规范群。人工智能残疾人保护的立法公平性不同于年龄、性别等其他受保护属性的公平性,差异来源于残疾的多样性、复杂性和动态性。域外“群体—个体”公平性和“有意识—无意识”公平性不能完全契合我国人工智能残疾人保护立法的现状,应以过程维度的全过程公平性和结果维度的发展公平性作为我国立法的法理基础。全过程公平性以包容性立法、参与和协同立法以及利益主张型立法贯穿立法始终;发展公平性坚守实质公平的理念,以改善残疾人的生活质量和福利为旨归。一方面,残疾人保护的视角能够促进算法公平性;另一方面,实现残疾人保护算法公平性的阻碍在于延续的歧视、数据不足与低质量带来的歧视、代理的歧视三类算法歧视以及“沉默的沉默”算法黑箱。为促进我国人工智能立法残疾人保护,应致力于实现数字权益保障和数字福利促进相结合。同时,应在重点场景体现残疾人保护方式的多层次性,即在就业领域,用人单位安排残疾人就业应达到规定比例,保障招聘、考评、晋升和淘汰的全过程公平性;在教育领域,发展与促进人工智能残疾人教育;在公共安全领域,应平衡技术应用价值与公共安全追求;在福利保障与医疗领域,引入可解释人工智能与异常标注方法。

【关键词】人工智能;立法;残疾人保护;公平

0 引言

党的二十大报告指出,“完善残疾人社会保障制度和关爱服务体系,促进残疾人事业全面发展”[1]。人工智能立法于残疾人保护方面在数字时代面临新的挑战。自人工智能问世以来,实时字幕、手语翻译、机器人辅助或机械臂、眼控仪、虚拟现实和脑机接口等人工智能应用可以支持不同类型的残疾人,改善了残疾人的生活,人工智能在残疾人生活中的贡献是真实而显著的[2]。有学者认为,“提升残疾人生活的最佳途径是技术”[3]3757。研究人员在机器学习模型中发现了性别歧视、种族歧视和年龄歧视,但残疾歧视在文献中尚未被充分探讨。人工智能系统明显具有对残疾人存在偏见的潜势[4]40。

残疾人常被形容为天生的生活技巧探索者和个人创新实践者,因为他们经常需要在一个不符合其需求的世界中找到创造性的解决办法和新技术[5]。与残疾人共同设计或为他们设计的产品实际上可以改善每个人的生活体验。“残疾并不是某一群体所特有的,而是人的潜在可能性。”[6]在人工智能立法中考虑到残疾人,甚至将残疾人的需求作为立法的出发点,既能够最大程度地规避人工智能应用系统对残疾人的偏见,同时也能引发人工智能领域残疾人保护的扩散效应。

2024年5月21日,欧盟理事会正式批准了《人工智能法》( European Artificial Intelligence Act ),该法是世界首部针对人工智能领域的全面监管法规[7]。该法中出现“残疾”一词的条文共有13条(前言10条、章节中的条文3条),以风险分类规制为原则。相较于欧洲,美国青睐于发布不具有法律约束力的各种计划和总统的行政命令来规制人工智能风险和制定人工智能的相关标准,只有少数几个州就人工智能出台了具有强制约束力的法规[8]。对残疾领域人工智能风险的规制求助于1990年通过的《美国残疾人法案》( Americans with Disabilities Act of 1990 )和1998年修订后的《康复法案》( Rehabilitation Act Amendments of 1998 )等,这些法案难免具有滞后性[9]511。2024年9月联合国大会通过的《全球数字契约》( Global Digital Compact )以利用数字技术促进残疾人权利为目标与原则[10]。

在我国,《全国人大常委会2025年度立法工作计划》中出现了“人工智能健康发展等方面的立法项目”的表述。《国务院2025年度立法工作计划》也指出,推进人工智能健康发展立法工作。同时学术界也对人工智能立法的立法定位、调整范围、立法目标、立法体系和具体规则等事项也展开了广泛的争鸣与讨论[11],也出现了非官方的探索性文件,如《人工智能法(学者建议稿)》及其重点制度建议“AI十二条”、《人工智能示范法1.0(专家建议稿)》和《人工智能示范法2.0(专家建议稿)》等立法建议稿。

在智慧助残[12]、科技助残[13]的背景下,于人工智能时代进行残疾人保护立法已成为不可逆转的趋势。鉴于此,我国人工智能立法中残疾人保护的法理基础与模式选择在应然层面该呈现什么样的内容和结构?由于欧盟在人工智能立法规制的前沿性、先进性与系统性,本文将以欧盟《人工智能法》为镜鉴进行分析,兼顾引领人工智能发展的美国立法规制现状,探究我国人工智能立法残疾人保护的公平正义根基和具体的场景选择。

1 欧盟《人工智能法》关于残疾人保护的规范群分析

1.1 立法理念:以无障碍与反歧视为核心

欧盟《人工智能法》由前言和十三个章节组成,其立法理念主要体现在前言中。《人工智能法》是欧盟的“国内法”,作为一个整体需要与残疾人有关的国际条约相衔接,通过展示其与国际法的互动可以揭示《人工智能法》的立法理念。前言第80条规定,作为联合国《残疾人权利公约》的缔约国,欧盟和成员国需要顺承条约精神,“保护残疾人不受歧视,促进其平等对待,确保残疾人在与其他人平等的基础上获得信息、通信技术和系统,并确保尊重残疾人的隐私”,即反歧视原则。同时,人工智能技术的提供者应充分考虑残疾人的固有尊严和多样性,保障残疾人充分和平等地使用人工智能技术,确保技术符合无障碍的要求,即无障碍原则。虽然在《人工智能法》中有关残疾人的规定较为分散且不成体系,但以无障碍和反歧视为核心,可在理论层面构建出《人工智能法》关于残疾人保护的规范群。

其一,针对反歧视原则,《人工智能法》规定了两种歧视类型——延续的歧视和新形式歧视。前言第56条、57条规定,对残疾人在教育、就业、工人管理和自雇职业中的人工智能系统可能延续历史上的歧视模式,即“延续的歧视”。“延续的歧视”是指将现实中对残疾人的歧视转移至人工智能系统,人工智能系统成为现实中残疾歧视的载体。此外,前言第58条还规定,人工智能可能造成并非延续于现实社会中的既有歧视模式的“新形式歧视”。“新形式歧视”是指由人工智能系统本身的特性或其使用方式所引发的歧视类型。

其二,针对无障碍原则,无障碍的要求包含在人工智能技术的各个环节。前言第 132条规定,与自然人互动或生成内容的人工智能系统的透明性信息和通知应以无障碍的格式提供给残疾人。前言第 142条规定,鼓励成员国在无障碍建设方面投入足够的资源支持和促进人工智能的研究和开发,使得各领域专家之间的跨学科合作成为原则。第十章“行为守则与指南”第 95 条第 2 款(e)项规定,人工智能办公室和成员国应促进制定行为守则,以衡量人工智能系统运转的状况,其中包括评估和预防人工智能系统对残疾人无障碍性的负面影响。

1.2 法条梳理:权利本位、危害应对与风险预防

《人工智能法》以风险规制为框架[14],在坚守权利本位的同时,拥有危害应对和风险预防两种思路。

一是《人工智能法》对残疾人的保护坚守权利本位①。前言第48条规定,评估人工智能系统可能造成的危害的严重程度时,“残疾人权利”是特别重要的考量因素。“残疾人权利”不仅在评估过程中是《人工智能法》保护残疾人的核心,还贯穿于各个方面对残疾人的保护,即在所有涉及残疾人保护的环节中,该法都将残疾人权利置于优先考虑的位置,确保残疾人在人工智能系统中的权益得到充分保障。然而,“残疾人权利”的提法并不聚焦,应以“残疾人数字权利”作为残疾人权利在信息时代的特殊展现[15]。“残疾人数字权利”的实践逻辑来自残疾人与非残疾人之间的数字鸿沟[16],是由残疾人平等数字就业权、残疾人平等受数字教育权、残疾人信息权和其他数字社会发展权利等组成的“权利束”。

二是前言第 29条归纳了人工智能对残疾人的危害性。“人工智能的操纵技术可被用来劝说人们做出不想从事的行为,或通过诱导其做出决定来对其加以欺骗,从而颠覆和损害他们的自主、决策和自由选择。”个人或特定群体的残疾状况可能被人工智能加以利用,残疾人更容易受到剥削。

三是关于残疾人被完全禁止的人工智能实践。前言第32—34条规定,基于自然人的残疾特征进行远程生物识别的人工智能系统在技术上的不准确性可能会导致结果偏差和歧视性影响,因此其应当被禁止,除非使用这些系统对实现重大公共利益是严格必要的,其重要性压过了风险。在公众场所为执法目的使用实时远程生物识别系统,不能用作无差别常态化监管的手段,只能部署用于确认具体目标的个人身份。同时,《人工智能法》第二章“禁止的人工智能实践”中第5条“禁止的人工智能实践”第1款(b)项规定,若投放市场、提供服务或加以使用人工智能系统,利用特定个人或特定群体因其残疾而具有的弱点,以实质性扭曲该人或属于该群体的人的行为,造成或有合理可能造成该人或他人重大伤害为目的或效果,则该人工智能应被禁止。

四是关于残疾的高风险人工智能实践。前言第54条规定,残疾数据属于生物数据,其构成特殊类别的个人数据,对其的运用具有高风险,受到《人工智能法》第三章的规制。该章对高风险人工智能系统提出诸多要求,规制条款达51条,是除前言之外拥有最多条款的章节。此外,在评估和测试方面,《人工智能法》第60条规定,在人工智能监管沙盒之外真实环境中测试高风险人工智能系统时,需要在适当保护因身体或精神残疾而属于弱势群体的人的前提下进行。

2 人工智能立法残疾人保护的法理基础

从比较法的意义来看,法律规则由客观的纯粹命题性陈述和主观的规则意义两个要素构成,前者可以移植,后者由于地域文化的约束而无法移植[17]。然而,由于主客观的强行割裂,忽略了主观的规则意义也能够存在一定的共识。法律规则的移植须考虑立法的共性与国别的个性,立法的共性构成人工智能立法共同的正当性理据,立法的个性来源于各国独特的法治文化和社会背景。欧盟《人工智能法》关于残疾人保护的立法规定有其经济、政治、社会、文化和生态等诸要素的影响,但是由于公平是一种全人类的共同价值[18],其构成了世界各国人工智能立法的共性,同时对公平性的不同解读形成了各国立法的个性。

2.1 立法共性:残疾人公平性与性别和年龄等其他受保护属性的公平性之区分

歧视的形式多种多样,包括但不限于性别歧视、年龄歧视等。但还有一种较少被讨论的歧视形式是能力歧视,即对残疾人的偏见和排斥。残疾人与其他受保护群体之间存在一些关键差异,差异来源于残疾的多样性、复杂性和动态性。这些差异构成了世界各国人工智能残疾人保护立法的共性实践基础。

残疾不是一个具有少数离散值的简单变量,其具有许多维度。其一,残疾人不是一个统一的群体,而是包括许多类型的群体。如《中华人民共和国残疾人保障法》第2条第2款规定,“残疾人包括视力残疾、听力残疾、言语残疾、肢体残疾、智力残疾、精神残疾、多重残疾和其他残疾的人”。其二,残疾概念永远在发展中。“当你见过一个自闭症患者时,你只见过一个自闭症患者。”[4]52可能导致残疾的损伤和健康状况不仅多样,而且强度和影响各不相同,通常会随着时间而变化。从而看似同质的残疾群体实则包含着多样性。

在开发人工智能模型时,研究人员可以使用许多偏见测试方法①保障残疾人公平性。然而,当这些技术应用于保障残疾人公平性时,一些局限性变得明显。其一,群体分析方法要求每个群体内具有足够数量的个体,以便进行有效的统计比较。然而,在人工智能系统中,残疾数据可能被视为“异常”数据,并因此被识别为“噪声”而被忽略。简单的算法模型往往无法充分处理残疾人的特殊需求,这类数据通常需要更强大的算法模型来准确分析和处理。其二,当前的偏见测试方法通常倾向于进行二元比较,即将个体简单地分为群体内的受保护群体成员和群体外的其他成员。然而,残疾状态具有多维性,且其强度和影响各不相同,往往会随着时间变化。此外,由于隐私保护的限制,人们通常不愿透露残疾信息,导致人工智能系统在数据处理时,可能缺乏关于残疾的明确信息,无法应用既定的公平性测试和修正方法[4]42。将各类不同的个体合并为广泛的“残疾”类别进行二元分类分析,难以准确检测出施加于残疾人的偏见。例如,一个无障碍的在线测试网站可能不会对轮椅使用者造成不利影响,但对于依赖辅助技术或仅使用键盘控制方法访问网络的用户,可能会导致其无法完成测试。因此,必须采用基于非二元分类的、更为敏感的分析方法,以有效应对这些挑战。

2.2 域外个性:“群体—个体”公平性与“有意识—无意识”公平性

因残疾人保护人工智能公平立法的特殊性,域外多从群体公平与个体公平、无意识的公平与有意识的公平两组公平类型出发,尝试解决残疾人权益保障中的公平难题。

其一,群体公平性又称统计平等,是指受保护群体(残疾人)中被选中的个人比例应与非受保护群体中被选中的个人比例大致相同。例如,在招聘中采用人工智能进行筛选,从一个含50名残疾人、450名非残疾人的候选人样本中选出20人,由于候选人样本中残疾人占10.0%,那么最终选出的20人中一定要包含2名残疾人。群体公平无法适应残疾群体内部、残疾群体与非残疾群体之间的真实差异,也无法保证选中最优资格的候选人。

个体公平性,指“类似个体,类似结果”。个体公平采用同一种度量来比较两个个体在完成任务方面的差异。个体公平可以通过比较“相似”申请者的结果来测试任何个体的公平待遇,而无须知道他们是否有残疾。个体公平面临如何在度量中引入残疾信息的挑战[4]43。

其二,无意识的公平是指在决策过程中不收集和使用受保护属性(例如性别、年龄、残疾)的信息。无意识的公平能够很好地保护残疾人隐私、维护残疾人尊严。然而,无意识公平不能很好地应对残疾信息,许多有能力的残疾人可能因为身体或精神缺陷而被人工智能系统排除在外。例如,使用辅助技术的残疾人可能在完成任务的质量上领先其他人,但是在完成时长上落后非残疾人,从而导致在竞争中被人工智能系统判定为不合格。

有意识的公平,即明确了解受保护群体的成员身份,并可以形式化定义、测试和算法强制执行公平性。当残疾信息可用时,可以通过数值方法解决数据偏见,并调整模型的输出以减轻偏见[4]40。

2.3 我国人工智能残疾人保护立法的法理基础

域外“群体—个体”公平性和“有意识—无意识”公平性不能完全契合我国残疾人保护立法的现状。“群体—个体”公平实则形式公平,其背后由市场经济的理性主义和法治国家建设的形式法治所支撑。同时,无意识的公平无法真正对残疾人境遇做到移情和理解,而有意识的公平能够直面残疾人的生存状况。我国社会主义社会的公平兼具形式公平和实质公平[19],过程与结果并重,是一种有意识的全过程、全方位、全领域的公平。因此,我国残疾人人工智能保护立法应超越简单的公平概念,构建公平正义理念的中国模式。具体来说,可分为过程维度的全过程公平性和结果维度的发展公平性。

2.3.1 过程维度:全过程公平性

习近平总书记指出,“全面建成小康社会,残疾人一个也不能少”[20]。同理,我国人工智能立法“残疾人一个也不能少”,在立法过程中应突出残疾人的主体地位,以残疾人的利益为根本出发点。具言之,我国人工智能立法残疾人保护的全过程公平性可由包容性立法、参与性立法、利益主张型立法三部分构成。

2.3.1.1 包容性立法:包容性设计

包容性立法是包容性法治的组成部分,彰显了科学立法和民主立法的精神[21]。其是补齐立法中最短的一块木板的立法模式,能够将残疾人与非残疾人之间的价值冲突融为一体,超越非残疾人对残疾人的“多数”压制,可以容纳差异的多元立法取向,旨在营造出充满活力的社会创新秩序[22]。包容性立法认为立法中最优路径或者能产生最大效能的方式是不断询问立法决策的谈判桌上缺少谁,以及通过将其纳入立法过程来增加立法过程的包容程度。在人工智能立法中,采用包容性立法的理念,承认包括残疾人在内的每个人都是独特的,督促人工智能系统建立匹配残疾人特殊需求的运作方式,能够在我国社会结构急剧变革的背景下支持和扩大残疾人对自身独特性的认同,弥合残疾人与其他群体之间的裂隙[23]。包容性立法将人工智能的数理逻辑转变为人文逻辑,运用人工智能使残疾人更好地了解和维护自己的权益。包容性立法承认所有的立法设计都在一个复杂的适应性系统中进行,关注制约残疾人人工智能使用的摩擦点,努力设计出对整个系统更加有益的规范。

包容性立法还可以辐射至人工智能系统的设计阶段,激励人工智能系统朝包容性数字服务[24]转变。包容性的人工智能系统设计可利用故事讲述、底层个性化数据或小规模深层情境数据来克服残疾人数据值占整个数据值比例偏小的缺陷。

2.3.1.2 参与性法治:参与和协同设计

参与性立法是协同治理的子项,其是指多元主体民主参与的立法模式[25]。参与性立法既坚持党对立法的领导权,又力求充分发挥残疾人的主体性。残疾人“为自己立法”能够提升立法质量,促进残疾人的守法自觉。应以残疾人的感受为主观标准,畅通残疾人参与立法的渠道,增强残疾人参与人工智能立法的意识,分担人工智能立法者的立法负担和责任,缩小立法者与残疾人之间的权力差异[26]。

参与和协同设计的理念也可以延伸至人工智能系统中,需要的是真正的共同设计,使残疾人成为算法设计团队和过程的一部分,应该成立一个有代表性的涵盖多类残疾的残疾人小组[27]。从机器学习的角度来看,处理与一般人群不同的特殊子群体数据的一个效果较好的解决方案是为该群体开发专门的模型。例如,一个专门针对讲话含糊或口吃的人的语音识别模型。

2.3.1.3 利益主张型立法:价值敏感设计

利益主张型立法是指将立法过程中的相关利益主体全部纳入考量范围,从而合理分配相关主体的利益。可将利益相关者界定为直接利益相关者和间接利益相关者。对于残疾人而言,由于残疾类别多样,采用利益主张型立法能够将与残疾人相关的主体,如医疗关系中的护理人员、医生,就业关系中雇主、猎头等囊括在内,这些主体之间的利益诉求存在差异,通过这种立法模式可以更全面地考量和协调各方利益,确保立法的公正性和有效性。

利益主张型的理念对人工智能系统设计的影响使人工智能在设计时将会对相关利益主体的利益更加敏感。一是利益平衡。确保各利益主体的诉求得到公平对待,避免因技术偏见或歧视导致某些群体利益受损。例如,在设计面向残疾人的医疗辅助系统时,须兼顾残疾患者、医生和护理人员的不同需求。二是透明度和问责机制。人工智能系统设计需保持透明,相关利益主体应有权了解系统的决策过程和原理,并有机制对系统的偏见或错误进行申诉和纠正。例如,雇主和残疾求职者在使用人工智能招聘系统时,应能了解系统的评估标准,并有渠道质疑不公平的评估结果。三是持续反馈与改进。在人工智能系统的运行过程中,持续收集各利益主体的反馈意见,进行系统更新和改进,以适应利益主体需求的变化。例如,针对残疾人的人工智能辅助设备应根据用户和医疗专业人员的反馈,定期升级和优化功能。

2.3.2 结果维度:发展公平性

残疾人数字权利是一种发展性人权,人工智能立法中的残疾人保护体现了发展性公平,而生存与发展构成了公平的首要维度[28]。马克思(Marx)认为,应对权利和公平等概念采取现实主义的观点,防止其变成空话[29]。让残疾人实质性地共享社会发展成果才能够充实权利和公平的实质内容,这也构成了东西方残疾人保护公平性观念的根本差异。

发展公平性坚守实质公平的理念,以残疾人的美好生活和高品质生活为旨归。以发展公平性为指引,残疾人数字权利是将美好生活和高品质生活由抽象转化为具体现实的枢纽。我国残疾人数字权利保护的发展公平性根除了西式权利的个人主义本位,以社会本位为基础强调国家对残疾人数字权利保障的介入,能够发挥国家建构的优势[30]。

3 人工智能残疾人保护立法的算法公平性研究

在厘清迥乎于域外的我国人工智能立法的公平性基础后,应落脚到人工智能残疾人保护立法的直接技术问题,即算法公平性。算法公平性包含算法公平性优势和算法公平性阻碍,算法公平性阻碍又分为算法偏见和算法黑箱两部分。

3.1 算法公平性优势:残疾人保护的优势视角

引入残疾人的视角能够对算法公平性的促进发挥独特的优势。首先,残疾人的多样化使得算法服务从普遍化、标准化、扁平化转向特殊化、个体化和精准化。量身定制算法不仅能够使残疾人受益,还将使整个人类群体获取实质的算法公平性。其次,算法精确识别残疾人需求能够有效分配有限的公共资源,从而避免人为主观判断的偏差。最后,算法将残疾人的信息进行数据处理可以缩小残疾人边缘地位的劣势。因为在算法或模型的技术逻辑下,残疾人与非残疾人的信息均变成了数字空间的符号。

3.2 算法偏见:延续、量少质低与隐藏的故意

算法偏见有5个来源:(1)通过依赖过去无意中带有偏见的数据将偏见引入机器学习算法;(2)收集的数据显示出不具代表性或部分不完整,从而对残疾人产生不成比例的影响;(3)对少量数据点赋予过多意义,导致广泛的概括;(4)依赖在社会中普遍存在的相关因素,这些因素充当受保护群体的代理;(5)通过隐藏在人工智能表面上中立的外观后面掩盖故意的歧视,即数据被操纵[31]。对残疾人而言,算法歧视主要体现在延续的歧视、数据量少质低的歧视和隐藏的故意歧视三类。

首先,第一种算法歧视是现实中对残疾人歧视的延续。与残疾人息息相关的医疗、就业等领域的歧视无处不在。已有实证研究表明,求职过程中披露残疾会导致雇主的积极回应减少 26.0%,即便残疾不太可能影响该职位的生产力[32]。心理认知科学的研究显示,男性和那些未曾接触或缺乏与残疾人互动经历的人对与残疾人共事往往有更负面的情感反应[33]。残疾人在商业保险中投保会有比非残疾人更高的拒保率,且投保渠道也受限[34]。算法作为人为产物,将人类现实生活中对残疾人的歧视通过模型加以固定,通过算法程序加以可视化。例如,在商业保险的算法程序中,对残疾人变量作特殊标记或者赋予更少的可保权重。

其次,第二种算法歧视是由于数据量少质低带来的歧视。此类歧视多属于“建筑性偏见”(archi‐ tectural bias),即人工智能的设计本身隐含了对残疾人的不友好或排斥[35]。由于残疾人相较于身体健全人的样本数量更少,从而可能会导致模型对少量样本赋予过多的意义,或者选取其他可以被代理的特征。如果残疾人的特质在身体上表现出一种算法在先前训练数据集中没有见过的方式,他们将始终处于不利地位。关于残疾人的数据质量远非理想或具有代表性,因为残疾人在算法使用中的技术素养有待提高,同时在经济实力层面,他们往往无法负担最新的人工智能技术[36]。残疾人对更新、更先进技术的获取能力有限,这不仅限制了他们接触并受益于技术创新成果的机会,还降低了开发者对这些技术进行测试和改进的动力及激励[37]487。

最后,第三种算法歧视是隐藏的故意歧视,即为了排除残疾人而故意设置的恶意算法。此类歧视多属于“结构性偏见”(structural bias),即一种更广泛、系统性的偏见,其不是出现在某个具体的人工智能设计中,而是存在于整个社会制度、文化规范、法律政策、技术发展过程中的不平等机制[38]。存在结构性偏见的原因在于为了避免在集体中容纳残疾人所带来的风险。在经典的“电车难题”中,如果车内人员或车外人员存在残疾人,该如何进行抉择?欧盟的《人工智能法》规定自动驾驶算法不得基于个人特征(如残疾状态、年龄、性别、社会地位等)对生命价值进行区分或排序,强调人工智能系统必须尊重所有人的基本权利和尊严,不允许算法在人命价值判断上存在歧视性决策逻辑。但是如果大多数人的心中确实存在这种道德原则和排名,这些假设就会隐形地进入人们设计的算法中[37]488。

3.3 算法黑箱:“沉默的沉默”

由于人工智能的黑箱性质,对于那些认为自己受到了歧视的残疾人来说,因果关系的证明可能很难建立。由于人工智能的复杂性,尤其是以神经网络为核心的机器学习算法,可能连人工智能的创造者自己都无法理解人工智能为什么或如何会以特定方式行事,更不用说那些试图收集证据以建立索赔的残疾人了[39]。残疾人本属于社会边缘的“沉默”群体,由于人工智能的黑箱,其可能会变成“沉默的沉默”。例如,残疾人求职者不知道自己为何未通过人工智能系统的筛选,更无法明确指出哪些评价指标存在偏见。法律角度上,也很难就算法歧视进行证据链建构,进而无法合理分配损害责任[40]。这些表明了人工智能算法的不可解释性和透明度问题使残疾人在面对可能的不公平待遇时,缺乏足够的技术支持和法律保护,进一步加剧了其在社会中的边缘化状态。

4 我国人工智能残疾人保护立法的场景选择

以欧盟《人工智能法》为镜鉴,结合我国残疾人保护的实际,我国人工智能立法残疾人保护在不同场景中应致力于实现数字权益保障和数字福利促进相结合的立法架构。数字权益保障是指通过技术跃迁、立法制定和理念革新来确保残疾人在数字社会中享有平等、无障碍的技术使用权、隐私权和数据安全权。其中以数字无障碍(digital accessibility)[3]3758为核心。使用数字设施需要一定的知识,应教授残疾人相关使用知识,并给予他们适当的指导,使数字设施对残疾人更加便捷可及[41]。数字无障碍可被视为无障碍权利从物理空间向信息空间的横向延展,残疾人也是数字公民,应平等享受人工智能服务[42]。数字福利是促进残疾人事业发展在数字时代的涵射结果。

就业、教育、公共安全、医疗保障等领域是残疾人人工智能立法保护的重点领域,应首先在这些场景体现残疾人保护方式的丰富性。同时,从时间线来看,2017年《新一代人工智能发展规划》指出,到2025年“初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”。据此,应紧密结合为促进人工智能健康发展的立法需求,针对残疾人保护提出具体的立法建议。

此外,也需要注意参考美国通过的司法判例,不断容纳技术发展,将人工智能对残疾人的影响通过司法裁判加以解决,从而在立法、执法、司法和守法形成一个完美的逻辑闭环,在规范维度保障残疾人的物质基础和精神富足[43],走出一条具有中国特色的人工智能立法残疾人保护之路。

4.1 就业:以就业比例为红线,招聘、考评、晋升和淘汰的全过程公平性

从欧盟《人工智能法》的经验来看,利用残疾人特征和残疾人数据的人工智能一概被纳入高风险的人工智能和禁止的人工智能的管理范围,体现了特殊保护原则,但不能因噎废食地认为只要涉及残疾人的人工智能便不能发挥技术优势助力残疾人保护。例如,在就业领域,人工智能有助于简化招聘、雇用、就职和岗位培训过程,并有助于为残疾人提供就业机会。招聘和雇用是人工智能在工作场所使用的最大领域[9]513。例如,美国IBM公司开发的人工智能系统可以以95.0%的准确率预测哪些员工将离职,并向雇主提供防止这种情况发生的建议。在我国,招聘平台与中国残联联手打造就业助残计划,通过招聘平台的大数据算法精准匹配的优势,在全国450多个城市开设残疾人招聘专区和职业培训指导等活动[44]。

在招聘中,使用人工智能系统可能会对残疾人造成一些风险。例如,使用辅助技术进行在线测试的申请人可能需要更长时间回答问题,如果算法模型将回答时长也作为考核的变量,那么残疾人将在招聘中丧失优势。又如,面部表情较为僵硬的残疾申请人可能会被使用眼神、声音特征或面部动作视频分析的筛选系统排除。

《残疾人就业条例》第 8 条规定,“用人单位安排残疾人就业的比例不得低于本单位在职职工总数的 1.5%”,该规定遵循了群体公平的思路。该比例应作为人工智能立法中残疾人用工保护的基础。在人工智能不断渗透招聘、考评、晋升和淘汰等趋势下,人工智能立法也应与时俱进,遵循全过程公平性,打破“理想的求职者”[45]概念。

首先,在招聘过程中,人工智能招聘系统应采取不同方式回应《残疾人就业条例》第 8 条所规定的用人单位安排残疾人就业的最低比例。例如,人工智能招聘系统可以通过每次的招聘总数自动计算出最低残疾人招聘人数,以此为基准进行考核,也可以在显著位置提示雇主应考虑到残疾人招聘的最低比例 。《促进残疾人就业三年行动方案(2022—2024年)》指出,“开展民营企业助力残疾人就业活动,组织一批头部平台、电商、快递等新就业形态企业对接残疾人就业需求,每年开发一批岗位定向招聘残疾人”。头部平台、电商和快递已经在智能化方面走在前列,其通过算法进行劳动资源的配置,可将这种配置前移至招聘阶段,让其通过算法对劳动者的身体状况进行仔细分析匹配到合适岗位,进而容纳更多的残疾人就业,改变以往雇主注重在形式上通过雇佣轻度残疾人来完成雇佣比例的困境[46]。

其次,在考评和晋升等企业内部管理行为上,有成本核算相关的研究显示,59.0% 的便利措施都不需要成本,而大多数需要耗费的措施费用都在4 000 元人民币以下[47]。因此,建议对企业内部关于对残疾人的保护做强制性规定,企业应定期进行内部审计,收集人工智能如何对待残疾人数据的情况,并做出针对性的算法设置、优化和调整。

最后,在淘汰残疾人方面应设置更为严格的程序。淘汰残疾人应与招聘残疾人同时进行,保证企业残疾人总数能够达到比例红线。在公司获取残疾人信息后,应该对公司施加责任要求。由于公司汇集和分析有关残疾人的身体和心理健康的敏感数据,如何对这些敏感数据进行留存与利用成为难点。可采用受托责任理论①,让企业成为残疾人信息的受托主体,重新平衡残疾人与收集、消化和利用残疾人信息以改造生产方式从而获取利润的科技巨头之间的关系[48]。

此外,还应该不断促进残疾人的数字无障碍工作,可为残疾人提供智能无障碍的远程协助工具、居家办公等选项,促进残疾人更好地融入社会、实现自我价值[49]。

4.2 教育:发展与促进人工智能残疾人教育

如果完成测试或测验有严格的时间限制,有认知障碍或考试焦虑的学生处理信息的速度比健全学生慢,有可能会被评估为能力不足。由于考试的客观性、统一性和公平性等限制,要求在测试或测验中兼顾残疾人保护是一个难题。采用特殊教育的方式让残疾学生完全分流到特殊教育学校是一种“一刀切”的方式,许多残疾学生完全可以在人工智能辅助下与非残疾学生共同完成学业。《欧盟无障碍法案》( European Accessibility Act )在2025年6月28日正式实施,与欧盟《人工智能法》形成规制合力。欧盟将残疾人获得人工智能辅助教育视为行使基本权利的必要工具,而非一项慈善或福利。考虑到人工智能在教育领域对残疾学生的赋能,应在我国人工智能立法中设定“发展与促进”的专门板块,部署促进人工智能融入残疾学生教育领域的制度[50]。

由于《个人信息保护法》赋予个人知晓其被保留数据及其使用方式的权利,并可请求删除其数据。但人工智能系统采集残疾相关的明确信息和数据以用于既定的公平性测试和修正教育人工智能工具,应该对此作出例外规定。

人工智能系统的引入能够为人群提供差异化的教育,甚至可为教育对象量身制定个性化学习方案。例如,该系统可为被归类为视觉学习者的学生增加更多的插图和图片,也可以生成个性化用户界面助力其学习。而对于非母语学习者,包括聋哑学习者,该系统可为视频内容提供字幕,以便学生可以跟随讲座阅读。由此观之,在教育领域中,残疾信息通常是可用的,通过人工智能保护残疾人的受教育权利不仅不会引入对残疾人的偏见,反而有助于所有人群从中受益。由此可见,应以促进性立法的思路,加大对教育领域人工智能对残疾人的支持力度。

4.3 公共安全:平衡技术应用价值与公共安全追求

公共安全涉及残疾人的日常生活,而人工智能与公共安全之间是一体两面的关系。一方面,人工智能既可能改善残疾人的公共安全。例如,面部识别等生物识别技术和图像识别技术可支持有感官障碍的个体安全。人工智能技术可让盲人或聋人意识到武器的存在或使用,支持其对潜在攻击者的防御,或增加其与警察更谨慎和有效的互动,甚至可让盲人提供更有说服力的证据来抓住袭击他们的人。另一方面,人工智能也可能对残疾人的公共安全造成威胁,人工智能应用于识别公共安全威胁和执法活动中存在隐私保护和算法偏见、算法错误的可能性。例如,一名衣衫不整的男子在机场候机厅里不安地踱步和自言自语,可能是因为对乘飞机感到高度紧张、焦虑或恐惧,但他的行为可能会被人工智能分析解读为有潜在威胁;聋人用于沟通的夸张面部表情有可能会被人工智能分析解读为愤怒和有潜在的安全威胁。

在人工智能立法时,承认使用人工智能作为维护公共安全工具的同时,必须最大限度地减少对残疾人的负面影响。欧盟《人工智能法》仅在第5条将利用残疾实质性扭曲残疾人的行为,对以造成或可能造成该人或他人重大伤害为目的或效果的人工智能加以禁止,而在高风险人工智能实践部分仅在前言部分进行笼统规定,因此,我国人工智能立法在公共安全部分可以在此基础上加以细化。

首先,建议对造成或可能造成残疾人或其他人重大伤害的人工智能生物识别完全禁止。同时,仅用于网络安全和个人数据保护措施的残疾人生物识别系统不应被视为禁止的人工智能或高风险的人工智能。其次,对于被归类为高风险的其他人工智能系统,应当建立完善的风险管理体系,具体包括:加强残疾人相关数据的治理和保护;完善技术文档编制;做好操作记录的保存;确保系统透明度并向部署方提供充分信息;实施有效的人工监督;保障系统的准确性、稳健性和网络安全;明确界定高风险人工智能系统中提供方、部署方及相关各方的责任义务;针对残疾人建立专门的质量管理体系;开展合规性评估等各项工作。最后,在组织建设上,应强化党政部门兜底保障基本公共安全,支持市场主体和社会组织积极参与,并在普惠性非基本公共服务供给中发挥作用[51]。

4.4 福利保障与医疗:可解释人工智能①与异常标注

人工智能在医疗保健中的应用可以帮助克服一些阻碍人们获得必要护理或预防性护理的障碍。例如,言语残疾人可能难以清晰表达其所面临的问题和体验,在疼痛管理或药物配送方面,使用人工智能工具可助力消除该类患者的沟通障碍。对于残疾或沟通能力可能影响治疗和治疗依从性的复杂病例,人工智能可识别其有特殊需求并标记需要额外关注,为制定合适的治疗方案建立基础。对于罕见病或遗传性疾病,使用人工智能工具可汇总分散的数据,从而使诊疗方案的制定与实施不再高度依赖个别医生或药学专家的个人经验。

如果采集的数据集不能很好地代表广泛的人群,在没有覆盖或者缺乏相关数据的情况下,人工智能系统可能表现不佳,从而会对残疾人产生负面影响。例如,如果使用讲话停顿来诊断阿尔茨海默病等疾病,那么受言语残疾影响的人可能会被误诊,或者由于系统不适用而被误诊。除此之外,一些健全人认为,试图主张自身权利的残疾人是“伪装者”或“冒名顶替者”。他们并不是真正的残疾,因此不应得到任何“特殊待遇”。要防止公权力机关基于算法决策系统不当削减对残疾人的服务保障[37]510。

欧盟《人工智能法》规定了决策溯源机制,要求医疗和福利领域对使用人工智能系统进行的决策要保留完整的记录,使残疾人能够理解为何获得或被拒获得某项福利。由于福利保障与医疗、残疾人的生命权联系最为紧密,因此应规定人工智能算法黑箱应通过可解释人工智能加以打开,或者在无法通过可解释人工智能加以阐释时放弃人工智能辅助决策,改为人为决策或人为方式。残疾人应当享有拒绝接受人工智能辅助决策解释的选择权。任何影响人们的人工智能系统都应设置一个争议机制为自动化决策提供争辩的平台,并为模型不可靠的异常个体提供手动覆盖。残疾人是多样化的群体,在数据处理中可能经常被边缘化。现如今,由于人工智能对异常值的处理不佳,而在医学实践中,异常情况可能预示着未知疾病或罕见症状的出现,其能够推动医学领域的发展,因此应规定算法对异常值的标识与反馈。通过开发识别和处理异常值的方法,可以提高算法对残疾人的公正性和机器学习解决方案在现实应用中的鲁棒性[4]60。

5 结语:将残疾人从“边缘”带到立法的“中心”

每个人都有可能在生命的某个阶段经历残疾,人工智能技术必须足够强大以适应人类体验的多样性。在人工智能立法中忽视残疾人,可能会对残疾人造成二次伤害,而在人工智能领域,对残疾人的立法保护可能带来引人注目的新立法理念,最终扩大惠及至全体人群。将残疾人从“边缘”带到立法的“中心”,改变残疾人在人工智能保护的境遇就是改变全体人群的生存境遇。在人工智能领域对残疾人立法保护只是实现残疾人人工智能保护的第一步,还应进一步在执法、司法和行政领域保护残疾人,以及在省市县逐层改善。未来研究可从以下角度继续推进:一是细化人工智能立法对残疾人进行保护的具体规定,并从教义层面与宪法和其他部门法形成融贯解释、弥补缺漏;二是将人工智能立法中残疾人保护的理念扩展至女性、老年人和未成年人等特殊群体。

注:本文刊发于《残疾人研究》2025年第5期,作者系吉林大学法学院博士研究生张珺皓;研究方向:数字法学、法哲学、社科法学。