2020.12.01 史欣悦
上篇文章《欧盟关于人工智能的民事责任的新动态(一)》(以下简称“《新动态一》”)介绍了2020年10月20日,欧洲议会发布的《人工智能和民事责任》的法律研究报告(以下简称“报告”或“民事责任报告”)的主体内容。本篇旨在介绍报告第五章中四种技术分类的案例分析:工业机器人、联网自动驾驶(CAD)、医疗机器人和辅助诊断技术以及无人机。
在进入具体技术案例之前,我们简单回顾一下报告的主要观点和方法论。
第一, 民事责任报告指出,规制技术的法律法规应当依据不同技术,分类而制定,而不是寻求制定一部统一的、规制所有人工智能技术的法律。我们可以称为“分类规制原则”。
第二, 民事责任报告提出了“风险管理模式”(Risk Management Approach, 简称“RMA”)来规制人工智能的民事责任,即最有能力控制和管理某项技术风险的一方,应当承担严格责任,并且应被推定为可以启动诉讼的单一被告。
第三, 应以保障受害人得到充分赔偿为原则,设定单一诉讼被告人,再通过价格机制、保险、合同约定、追偿诉讼或者无过错赔偿基金,把赔偿责任延伸、分摊到该产品价值链上的其他各方。我们可以称为“充分赔偿原则”。
第四, 涉及多方共同参与提供的人工智能产品时,更难区分哪一方需要承担什么责任,这时,创设一个法律的或者电子的人格就可以简化这个难题。
一、 分类规制原则
分类规制原则是报告进行案例分析的原则和基础。这个原则要求将人工智能技术加以分类,首先是识别出某一群技术,它们有足够多的一致性,体现出了相似的技术特征,同时也具备相似的法律问题,有时候还具有相似的道德关注点。
例如,无人机和无人驾驶汽车,就应该分属于两类技术。虽然它们都是在公共领域使用的技术,也都体现出了一定的技术自主性,但是他们所基于的技术是不同的,它们应用的环境和可能造成事故的场景,也是不同的。 此外,无人机和无人驾驶汽车的社会角色和社会功能不同,参与其中的操作者不同,它们提供服务的商业模式也不同。
在将人工智能技术分类的基础上,报告提出,应当考察现有的法律制度如何适用在不同的技术分类上。 同时还要有前瞻性的分析,充分考虑这些法律在鼓励技术进步上的作用,以及可能出现的法律无效或者市场失灵的情况。这样前瞻性的分析应当足够提前,最好在某类技术还没有大规模扩散和应用的时候做出。
如果分析结果表明法律需要针对某类技术做出调整,那么法律调整时应当特别注意充分赔偿原则。具体说就是,要单一实体首先承担严格责任,应当建立追索制度,以及在需要时设立强制投保制度和规定责任上限。
报告指出,通过细致分析就能看到,泛泛的谈所谓“技术中立原则”是不合适的,因为有些技术是不需要设定特殊的法律来干预的,而另外一些技术种类是需要特殊法律予以规制的。
二、 工业机器人
报告首先将工业机器人分为三大类别:
1、 协作机器人,指直接与人类协同工作的机器人;
2、 移动机器人,指可以自动行驶完成工作任务的机器人;
3、 人类骨架机器人,指外部结构具有类似人类骨骼和关节的机器人。
这三类机器人,可以认定成为同一类应用,因为他们具有相同的特征和使用特性。
报告认为,从RMA的角度分析,现有的欧盟法律和成员国法律是可以充分规制工业机器人技术的,主要原因有:
1、 工业机器人主要应用在工作场所,而非公共区域。通过与劳动者健康和安全有关的法律,以及有关保险系统,受害者是可以得到及时和充足的赔偿的;
2、 工业机器人的用户主要是商业用户,而非个人用户。商业用户可以基于合同关系,直接起诉产品链上的其他主体,或者事后追偿;
3、 PLD在工业机器人场景下的适用仅仅是补充性质的, 所以PLD的缺陷在工业机器人技术领域影响有限。1
因此,报告认为,欧盟现有产品责任制度和劳动者保护制度,可以满足工业机器人技术的新要求,没有实质改变的必要。
三、 联网自动驾驶(Connected and Automated Driving, “CAD”)
报告提出自动驾驶技术有以下共同特征:
1、 自动,虽然不同技术的自动化程度不同,但是都在从完全手动到完全自动的范围内变化;
2、 联网,这些车辆是与其他车辆互联,与基础设施、设备互联。
欧盟有些国家,如英国和德国,已经有了专门针对CAD的法律。例如德国规定,高度自动化汽车的驾驶人,有特殊的义务监控驾驶任务,如果系统要求恢复手动驾驶,或者客观情况要求驾驶员恢复手动驾驶,必须恢复手动驾驶。
英国2018年的《自动和电动汽车法》规定,必须购买强制保险以覆盖CAD技术失灵的风险,如果没有购买保险,车辆所有人将承担责任;同时设定了准过错责任制度,即车辆所有人要负责安装关键安全更新,没有安装关键安全更新的所有人,在发生事故后不能获得赔偿,即便是保险公司赔偿受害人后,也可以向所有人追偿损失。
另外一些欧盟国家,如意大利、法国、西班牙、瑞典、荷兰、奥地利等,依然使用过去的交通责任制度。整个欧盟之内,有多种归责制度,从过错责任,到严格责任,或两者兼而有之。
从RMA的角度分析,现有欧盟法律和成员国法律对CAD的规制是不足的,主要原因如下:
1、 自动程度的不断提高,使得PLD和各国的交通责任法律互相重叠,法律的一致性和确定性较低;
2、 责任分配机制有问题,使得PLD的缺点更加明显。自动驾驶的各个系统高度互相依赖,如果需要原告去分析事故原因,会造成不合比例的负担。即便法律要求车辆记录行驶数据,对原告来说,要加以分析也是非常困难,或者成本高昂。
3、 强制保险制度也是不足的,因为它并没有解决哪一方要承担何种责任的问题。
报告建议,针对CAD技术,欧盟需要一部以严格责任为基础的特别立法,特别是要明确规定,谁有责任购买保险并且把风险降到最低,谁就应该首先负责。大部分情况下,应该是车辆所有人或者车辆制造者负责。 同时,有了欧盟层面的统一立法,可以避免成员国根据各自法律,发展出互相分割的自动驾驶技术的市场,这与欧盟的一体化原则是背道而驰的。
四、 医疗诊断辅助技术
报告首先指出,医疗协助诊断技术的应用非常广泛,涵盖诊断、治疗、手术和专科应用等各方面。 报告认为,不存在某一种法律规制方式,可以统一适用于所有医用人工智能技术。
从分类规制的原则出发,首先可以区别出来的是手术机器人和智能医疗助手。 手术机器人,具有代表性的产品是达芬奇机器人(Da Vinci Robot)。在手术机器人的领域,虽然要考虑医生和机器人互动所产生的问题,但主要还是依靠生产者承担严格责任的方式,让受害者一站式得到赔偿。
智能医疗助手,具有代表性的产品是IBM Watson系统,医生根据智能医疗助手给出的数据或者初步判断来做出医疗决定。这里既有产品责任问题,也有医疗责任问题。
从RMA的角度分析,现有欧盟法律和成员国法律对医疗诊断辅助技术的规制是不足的,原因是:
1、 产品责任法律与各国的医疗事故规定有重叠,有时依据合同,有时依据侵权,医生或医院都可能承担责任,有较大不确定性;
2、 现有责任制度会导致医疗行为的防御性,即医生倾向于使用防御和保守的治疗和用药策略,以防止被诉承担医疗责任。
报告指出,欧盟现有的归责制度需要修改,要保护医生个人不会直接因为使用医用人工智能技术而承担责任,而应让医院或者医疗辅助系统的生产者承担严格责任,还要为医疗辅助系统的服务提供者建立企业保险制度。
五、 无人机
报告首先分析了欧盟关于无人机的法律,一是《民用航空共同规则和建立欧盟航空安全机构条例》(Regulation 2018/1139)2,二是《保险条例》(Regulation No 785/2004)3, 三是PLD有关产品责任的规定。
从RMA的角度分析,现有欧盟法律和成员国法律对无人机的规制是可以满足部分要求的,原因是:
1、 成员国法律基本上是明确地让无人机的操作者或所有者,承担严格责任;
2、 已经建立了强制第三者保险制度;
3、 但是,现有法律与PLD和其他责任制度有重叠。 PLD固有的问题,会带来信息不对称、滥用发展风险抗辩、受害人需证明因果关系等问题。
报告指出,需要欧盟在RMA的基础上统一立法,使得各成员国在使用无人机的民事责任上协调一致。另外,欧盟现有的无人机法律制度和保险法律制度也要更加协调。报告建议,即便现有法律制度可以使得大部分无人机案件得到妥善解决,欧盟还是应当建立一个赔偿基金,以补充保险的不足,因为有时无人机可能没有上保险,或者已经丢失损毁,从而难以确定所有人。
以上是欧盟《民事责任报告》第五章对于四类人工智能技术的法律适用分析和改革建议,其他报告内容请参阅《新动态一》。
君合将持续关注国际、国内与人工智能有关的法律动态。
注:
[1] 参见《新动态一》第四部分。 PLD是指欧盟《产品责任指令》(Product Liability Directive, 85/374/EEC)。https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A01985L0374-19990604&qid=1604918047856
[2] https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32018R1139&qid=1606197963259
[3] https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32004R0785&qid=1606198258004