
1.3.5 人工智能法律体系
法律具有稳定性、强制性、普遍性和滞后性,体现了统治阶级意志,全面考虑政治、经济、社会等多个方面的影响,应确保技术创新与权利保护以及国家、企业、个人利益之间的平衡。总体而言,全球人工智能立法进展较为缓慢,主要体现为数据保护、算法监管等一般性立法对人工智能的源头治理,以及在自动驾驶、金融、医疗等场景化领域中推进立法制定工作。
(1)全球人工智能立法整体趋势
人工智能引发的社会风险具有更为鲜明的共生性、时代性和全球性,给当下的法律规则和法律秩序带来了前所未有的挑战,在著作权法、侵权责任法、道路交通法、劳动法等诸多方面与现有法律制度形成冲突。近年来,全球人工智能的立法监管正从慌乱走向理性,已初步形成综合治理与精细治理。
① 数据和算法规制。数据和算法是推动人工智能发展的核心要素,也是可能引发人工智能法律问题的首要因素,数据的准确性、安全性、隐私性和算法的不透明性、不可控性、问责性均成为人工智能立法首要关注的重要命题。
数据的实时收集、精准分析、规模流动将从根本上触动了隐私、公平等人类基本价值,因而全球范围内的个人数据保护立法被迅速推动。2018年,欧盟《通用数据保护条例》(GDPR)正式实施,其中,数据的最小化原则、目的限定原则、准确性原则、有限存储原则均对人工智能发展产生直接影响。第22条“免受自动化决策权”规定,非经数据主体的明确同意,自动化决策不得使用包括种族、政治观点、宗教、健康数据等在内的敏感数据,借此避免出现根据种族类别分发广告、根据选民政治观点操纵民主进程等问题。以GDPR为蓝本,印度、巴西、日本、新加坡、美国加州等国家和地区相继出台或修订个人数据保护立法,通过限制和规范个人数据使用方式以规范人工智能。
与此同时,OECD、G20、美国、日本等国家和国际组织积极推动跨境数据流动,促进数据向本国回流,为人工智能发展提供原材料。2018年,美国、墨西哥和加拿大签署的《美墨加协定》中加入了高开放程度的跨境数据流动条款。日本在世界经济论坛2019年年会上提出了“可信数据自由流动”的概念。2017年美国《人工智能未来法案》提出促进人工智能领域数据的开源共享和开放。2018年12月,美国国会通过《开放政府数据法案》,要求联邦机构必须以“机器可读”和开放的格式发布任何“非敏感”的政府数据并使用开放许可协议。可见,数据隐私和数据使用利益的平衡已成为人工智能治理的基本价值取向。
人工智能应用可采集用户人脸、指纹、声纹、虹膜、心跳、基因等具有强个人属性的唯一生物特征信息,因而各国尤为重视对生物数据等敏感数据收集、使用的监管和指引。2017年,美国华盛顿州通过《关于收集和使用生物识别符的法案》,严格规范企业基于商业用途收集和使用生物识别数据;2019年,美国议员参议院提交《商业人脸识别隐私法案》,规定禁止将收集的个人识别数据用于其他目的;2018年12月和2019年8月,我国分别发布了《信息安全技术指纹识别系统技术要求》《信息安全技术虹膜识别系统技术要求》,对生物识别系统的数据保护能力提出要求。
透明和问责成为算法专门性立法的核心内容。2016年,法国通过《数字共和法》,强调使用自动化决策的行政机关和数字平台运营者的透明度义务;2017年,纽约市通过《关于政府机构使用自动化决策系统的当地法》,要求成立自动化决策工作组作为实施、监督主体,规范数据使用的合比例性、解释和获取权、损害救济等问题;2019年,加拿大出台《自动化决策指令》,对算法审查、透明度、质量、用户质疑权加以规定;2019年,美参议员提出联邦《算法问责法案》,强调对算法决策问题进行审查。我国算法规制场景过于狭窄,如《电子商务法》《网络信息内容生态治理规定》《在线旅游经营服务管理暂行规定(征求意见稿)》,均对算法加以规范,但主要集中在新闻推荐、广告推送等定向推送领域,尚未覆盖至医疗、交通、公共安全保障等更为关键的领域。
② 尊重技术规律和法律安定性。人工智能技术瓶颈和存在的缺陷降低了机器人主体资格的立法讨论和实践的热度,近年来未再出现人工智能主体资格立法,而转向对算法问责的讨论,如欧盟委员会责任与新技术专家组在2019年发布的《人工智能和其他新兴数字技术责任》报告称,不建议当下赋予人工智能电子人身份。
通过解释、修改现有立法规制人工智能,维护法律的安定性。2020年,欧盟发布《人工智能白皮书》指出,诸如产品责任指令、消费者权益保护法、雇佣和职业平等待遇指令、个人数据保护法等现行的欧盟法律条款仍将适用于人工智能。美国联邦贸易委员会根据《联邦贸易委员会法》第5条赋予的广泛执法权,对利用人工智能带来的新型不公平和欺诈性商业行为进行灵活监管。2017年德国修订《道路交通法》,对自动驾驶的法律含义、责任分配、数据传输等问题作出规定,尝试寻求自动驾驶技术与传统立法的兼容。我国在修改《著作权法》的进程中,也在尝试解决人工智能创作内容的版权保护问题。
对人工智能透明度的要求更加符合产业发展的需要。目前,自主学习算法的固有“黑箱”成为法律推动人工智能透明度的现实障碍,透明度给维护问责、信任价值的局限性及对产业发展带来的负面效应逐渐显现,各国立法和监管既要明晰对人工智能透明度的实质要求,也要注重寻求正当程序、区分规制等其他路径。2019年欧盟发布的《算法责任与透明治理框架》指出,算法透明并非对算法的各个步骤、技术原理和实现细节进行解释,算法系统源代码的简单公开也并不能提供有效透明度;2019年美国发布《算法问责法案》主要强调对企业算法审查的内容,并未提及透明度要求;法国《数字共和法案》也并不要求数字平台运营者履行包括算法规则、标准以及在最终决策中所占的比重等内容的告知义务。
③ 以风险为导向分级分类治理。技术必然有效率和风险两面,为避免过度的法律责任为企业带来不合理、不必要的负担,多国立法皆强调优先规制“高风险”的人工智能应用。欧盟委员会在《人工智能白皮书》中从三个层面界定了高风险人工智能:
● 人工智能在该行业的应用极有可能引发重大风险,如医疗、运输、能源、移民、司法、救济所等公共行业;
● 行业应用风险的判定应结合具体场景,如医院预约系统即不属于高风险;
● 基于招聘、监控等特定目的,显著影响个人劳务、隐私等重大利益的,认为属于高风险。
2019年,美国《算法问责法案》界定了“高风险自动化决策”的判定标准,仅规制年收入超过5000万美元或拥有超过100万用户的企业。德国则呼吁建立基于风险的五级监管体系,从不受监管的最无害的人工智能系统,到完全禁止的最危险的人工智能系统。
风险影响评估是由技术应用方依据风险大小而作出自适应调节的一种自我规制手段,已逐渐受到各国人工智能立法的认可。GDPR第35条要求数据使用者在应用人工智能自动化决策处理时,应履行数据保护影响评估义务;2019年,加拿大出台《自动化决策指令》,要求政府部门在生成任何自动化决策系统或其系统功能、范围发生变化时,均需进行影响评估;美国国会议员提出的《算法问责法案》要求对“高风险”的自动决策系统进行影响评估。
政府机构或公共领域的智能化应用,通常与人身权利、公正、秩序、非歧视等价值关系重大,为防范其滥用人工智能技术,各国加紧对公共领域的人工智能应用立法。2017年,美国纽约市通过《关于政府机构使用自动化决策系统的当地法》,对法院、警方等公权力机构使用的人工智能自动化决策系统进行安全规制;2019年以来,美国旧金山、萨默维尔、奥克兰等多个城市禁止政府部门使用人脸识别技术;英国信息专员公署(ICO)发布《关于执法部门在公共场所使用实时人脸识别技术的建议》,呼吁政府针对实时人脸识别技术的部署和使用,建立强行性的规则和较高的法律门槛。
(2)人工智能的场景化规制
人工智能算法往往和应用场景、商业模式相结合,这促使各国对于人工智能的法律规制也相应具体化和场景化,在自动驾驶、深度伪造、金融、医疗等具体领域的存在不同的规制方法、路径和手段。
① 助力自动驾驶落地。当前,全球多国已将发展自动驾驶汽车技术上升为国家战略,通过立法加速推进其应用落地。美国目前已有30多个州通过自动驾驶相关立法,联邦政府也于2016年开始出台统一政策,已相继发布3份关于自动驾驶的政策,为自动驾驶的发展提供政策性保障。2017年,美国众议院表决通过《自动驾驶法案》,为自动驾驶汽车的监管创建基本的联邦框架,明确了联邦和州在自动驾驶立法上的职权和分工;2020年,美国交通部发布了《确保美国自动驾驶领先地位:自动驾驶汽车4.0》,提出涵盖用户、市场以及政府三个方面的十大技术原则,明确了联邦政府在自动驾驶汽车领域的主导地位。
英国着重培育自动驾驶产业环境,推动自动驾驶技术处于世界领先,促进本国行业竞争力。2017年,英国发布《联网和自动驾驶汽车网络安全关键原则》,指出评估安全风险,设计和管理安全系统,数据安全存储和传输等的重要性,以保护自动驾驶汽车免于遭到网络攻击的威胁。2018年,英国出台首部为自动驾驶设计保险制度的法律《自动化与电动化汽车法》,明确自动驾驶汽车发生事故后,可根据车辆的投保情况由保险公司以及车主来承担事故损失带来的赔偿责任。此外,英国还启动了自动驾驶汽车法律审查机制,针对自动驾驶事故发生责任确定、自动驾驶汽车刑事犯罪等新议题革新现有法律。
开放的立法环境和明确的自动驾驶技术推进时间表使日本在自动驾驶相关立法方面走在世界前端,鼓励高级别的远程无人自动驾驶的测试,提出2020年在一定条件下实现在高速公路和人口稀少地区自动驾驶的目标。2018年,日本政府提出的《自动驾驶相关制度整备大纲》,明确了自动驾驶汽车发生事故时的责任问题,规定自动驾驶事故损失继续使用《机动车损害赔偿保障法》中对民事责任的要求。2019年,日本通过了《道路运输车辆法》的修正案,为实现自动驾驶产业化规定了安全标准。
韩国政府正在为“成为全球第一个将自动驾驶商业化的国家”加紧制定监管和法律框架。2019年,韩国出台《自动驾驶汽车商用化促进法》,规范自动驾驶汽车提供商业服务的行为;修订《汽车事故赔偿法》,规定有条件自动驾驶车(L3级)要求驾驶员应当随时准备接管,驾驶者本人仍是事故主要责任人;2020年,韩国发布《自动驾驶汽车安全标准》,提出有条件自动驾驶车(L3级)安全标准。
我国谨慎推进立法,推动形成智能网联汽车发展路线。2018年,多部委联合发布《智能网联汽车道路测试管理规范(试行)》,对测试主体、测试驾驶人及测试车辆、测试申请及审核、测试管理、交通违法和事故处理等方面作出规定;2020年,多部委联合印发《智能汽车创新发展战略》,提出到2025年基本形成中国标准智能汽车的技术创新、产业生态、基础设施、法规标准、产品监管和网络安全体系。主要国家对自动驾驶的立法规制情况详见表1.3.5。
表1.3.5 主要国家对自动驾驶的立法规制情况

(续表)

(续表)

② 防止深度伪造滥用。美国专门针对深度伪造予以立法规制,欧盟、德国、新加坡则将深度伪造涵盖在不实信息或虚假新闻的规制空间内。2019年,美国国会先后提出了《2019年深度伪造报告法案》《深度伪造责任法案》,以避免深度伪造影响2020年总统大选和国家安全。加州、得州、马萨诸塞州、弗吉尼亚州等陆续推出了相关立法,提出的主要措施包括:
● 划定应用边界,禁止政治干扰、色情报复、假冒身份等非法目的的深度伪造。
● 设置披露义务,要求制作者、上传者以适当方式披露、标记合成内容。
● 加强技术攻防,呼吁开发检测识别技术和反制技术。
欧盟主要通过虚假信息治理等限制深度伪造技术的应用。2018年,欧盟发布《应对线上虚假信息:欧洲方案》,提出改进信息来源及其生产、传播、定向投放和获得赞助方式的透明度要求,还规定了改善信息的多样性,提高信息的可信度,制定包容性的解决方案等原则。同年,欧盟发布其历史上首份《反虚假信息行为准则》,以加强互联网企业对平台内容的自我审查,从源头打击网络虚假内容。
德国利用现有规制网络内容立法,防范深度伪造技术危害。德国1997年出台的《信息和传播服务法》和2018年通过的《社交媒体管理法》,要求社交媒体公司检查被投诉内容,限制互联网提供商传播非法内容,设置“网络警察”监控危害性内容传播,并对制作或传播对儿童有害内容的言论视为犯罪行为。除此以外,德国相继出台的与网络舆情、虚假信息治理相关的法律法规,都可以用来有效打击人工智能深度伪造行为。
新加坡针对网络虚假内容立法,兼顾调整深度伪造行为。2019年,新加坡通过《防止网络虚假信息和网络操纵法》,该法适用于利用深度伪造技术制作的虚假音视频,规定政府有权要求网络平台或个人删除损害公共利益的虚假信息。
我国相关立法也开始关注深度伪造问题,侧重人格权保护和内容管理。我国《民法典》和《网络信息内容生态治理规定》规定禁止利用信息技术手段伪造的方式侵犯他人的肖像权和声音;不得利用深度学习、虚拟现实等新技术新应用从事法律、行政法规禁止的活动。此外,《网络音视频信息服务管理规定》还专门对深度伪造问题进行了一系列的制度设计,包括规定安全评估要求、显著方式予标识义务,不得制作、发布、传播虚假新闻信息,建立健全辟谣机制等。各国对深度伪造的立法规制情况详见表1.3.6。
表1.3.6 各国对深度伪造的立法规制情况

(续表)

③ 规范智能金融产品。金融是现代经济的核心,金融服务行业也一直是技术创新的积极实践者和受益者。人工智能目前正广泛应用到金融业中,形成了智能风控、智能投资、智能交易、智能投顾等应用场景。智能金融需要有新的监管技术,各国对智能金融产品设置了灵活性的监管规定。2017年,美国证券交易委员会(SEC)的投资管理部发布了《智能投顾指南》,强调了机器人顾问应履行《顾问法》所规定的法律义务;同期,SEC的投资者教育与倡导办公室还发布了《投资者公告》,该公告旨在教育个人投资者有关机器人顾问的知识。
欧盟通过一般法令强化对于人工智能金融产品的监管。欧盟发布《网络和信息系统安全指令》指出,在银行和金融市场基础设施领域,操作风险是审慎监管的重要组成部分;《不公平商业指令行为》规定,禁止不公平的商业行为,列明违背专业勤勉要求并有可能曲解消费者意愿的经济行为。
我国对人工智能金融应用的立法侧重于鼓励行业发展和防范风险。2017年,国务院发布《新一代人工智能发展规划》,提出“智能金融”的概念,明确指出要建立金融多媒体数据处理与理解能力,创新智能金融产品和服务,发展金融新业态;2018年,多个金融管理部门联合印发《关于规范金融机构资产管理业务的指导意见》,对人工智能在金融领域的应用进行了规制。《证券法》规定,通过计算机程序自动生成或下达交易指令进行程序化交易的,应当符合国务院证券监督管理机构的规定,并向证券交易所报告,不得影响证券交易所系统安全或者正常交易秩序。各国对智能金融产品的规制情况详见表1.3.7。
表1.3.7 各国对智能金融产品的规制情况

(续表)

④ 促进智能医疗发展。近年来,人工智能技术与医疗健康领域的融合不断加深。智能医疗的应用场景主要包括:语音录入病历、医疗影像辅助诊断、药物研发、医疗机器人等方面。2019年,美国食品药品管理局(FDA)发布《器械软件功能和移动医疗应用政策指南》,以告知制造商、分销商和其他组织FDA如何监管移动平台或通用计算平台上使用的软件应用程序。同年,FDA还颁布了《临床决策支持指南草案》,阐释临床决策支持软件的定义及FDA对其监管的范围。
欧盟通过立法为智能医疗建立起体系化的监管方案。2017年,欧盟发布了《欧盟医疗器械法》,在器械的分类、器械的通用安全和性能要求、技术文件的要求及上市后监管体系方面进行了相应改变,细化了多条性能要求,强调将风险分析和管理贯穿于设计和生产、销售、上市后监管整个产品周期。
我国基于鼓励发展的态度,开展对于智能医疗的精细化监管。2017年,当时的国家卫计委(现国家卫健委)发布《人工智能辅助诊断技术管理规范(试行)》《人工智能辅助治疗技术管理规范(试行)》,对使用计算机辅助诊断软件及临床决策支持系统提出要求,明确以诊断准确率、信息采集准确率、人工智能辅助诊断平均时间以及人工智能辅助诊断增益率作为人工智能辅助诊断技术临床应用的主要考核指标。2018年,国务院发布《关于促进“互联网+医疗健康”发展的意见》,提出要推进“互联网+”人工智能应用服务,研发基于人工智能的临床诊疗决策支持系统,开展基于人工智能技术、医疗健康智能设备的移动医疗示范。各国对智能医疗的规制情况详见表1.3.8。
表1.3.8 各国对智能医疗的规制情况
