2022.09.07 周烽 孙吉萍
医药健康领域是人工智能(以下简称“AI”)最重要的应用场景之一,在行业景气度大幅降低的2022年,AI辅助药物研发、AI医疗影像、AI手术机器人是少数几个保持投资热度的医药健康子赛道。新科技的发展催生新的诊疗方法和技术,既可以增进人类的福祉,也可能带来新的伦理和法律的挑战。2018年,我国某高校的教职人员违法实施人类胚胎基因编辑事件引发的轩然大波,至今影响犹在1。与之类似,“AI+医药健康”的开疆拓土也时常面临一些伦理和法律的困扰。
了解方兴未艾的“AI+医药健康”领域的伦理监管要求及常见的伦理问题,对于医药医疗企业确保其业务的合规运营是十分必要的。本文将以“AI+医药健康”的伦理监管框架和主要的伦理挑战为切入点,总结我国的监管实践,帮助医药健康从业者在伦理合规的情况下应用AI,找到风险和收益的最佳平衡点。
一、我国处理“AI+医药健康”伦理问题的基本原则
“AI+医药健康”所涉伦理问题属于科技伦理的范畴。2021年修订的《科学技术进步法》第103条规定,“国家建立科技伦理委员会,完善科技伦理制度规范,加强科技伦理教育和研究,健全审查、评估、监管体系”。2019年10月,我国的国家科技伦理委员会正式成立。在这一委员会的指导下,科技部会同相关部门,先后成立国家科技伦理委员会人工智能、生命科学、医学三个分委员会,开展相关制度研究。2022年3月,中共中央办公厅、国务院办公厅联合颁布的《关于加强科技伦理治理的意见》(“《治理意见》”),对于科技伦理的监管进行了顶层设计,是目前我国最为全面、完整的科技伦理监管框架。
《治理意见》提出了科技伦理的五项原则,即:(1)增进人类福祉;(2)尊重生命权利;(3)坚持公平公正;(4)合理控制风险;及(5)保持公开透明。其中前两项是实体性要求,要求科技需要兼顾“增进人类福祉”和“尊重生命权利”两方面的利益,不能为了追求科技进步而牺牲人的生命安全、身体健康、精神和心理健康。后三项是程序性要求,要求科技活动的全过程需要公平、公正、包容地对待不同社会群体,防止歧视和偏见,防范风险,确保安全,并且鼓励公众合理参与,保持透明度。
二、“AI+医药健康”科技活动的伦理审查要求
人工智能、生命科学和医学均属于科技活动的核心领域,但是相对而言,相关从业者对于以生命科学和医学为主体的医药健康领域的伦理审查要求更为熟悉。我国法律对于医药健康领域的伦理审查要求散见于各个法规中,建立了以相关研究事项的事前审查为核心的伦理审查机制。
《民法典》 第1008条:为研制新药、医疗器械或者发展新的预防和治疗方法,需要进行临床试验的,应当依法经相关主管部门批准并经伦理委员会审查同意,向受试者或者受试者的监护人告知试验目的、用途和可能产生的风险等详细情况,并经其书面同意; 第1009条:从事与人体基因、人体胚胎等有关的医学和科研活动,应当遵守法律、行政法规和国家有关规定,不得危害人体健康,不得违背伦理道德,不得损害公共利益。 《人类遗传资源管理条例》 第9条:采集、保藏、利用、对外提供我国人类遗传资源,应当符合伦理原则,并按照国家有关规定进行伦理审查 《药品管理法》 第32条:开展药物、医疗器械临床试验和其他医学研究应当遵守医学伦理规范,依法通过伦理审查,取得知情同意; 第44条:医疗卫生机构开展医疗卫生技术临床应用,应当与其功能任务相适应,遵循科学、安全、规范、有效、经济的原则,并符合伦理。 《生物安全法》 第34条:从事生物技术研究、开发与应用活动,应当符合伦理原则; 第44条:医疗卫生机构开展医疗卫生技术临床应用,应当与其功能任务相适应,遵循科学、安全、规范、有效、经济的原则,并符合伦理。 《医师法》 第26条:医师开展药物、医疗器械临床试验和其他医学临床研究应当符合国家有关规定,遵守医学伦理规范,依法通过伦理审查,取得书面知情同意。
AI在医药健康领域的运用,并不必然以药械临床实验、人类遗传资源研究或者生物技术研究的形式出现,因此相关参与方在伦理审查合规时可能出现轻“AI”重“医药健康”的倾向。根据我们的观察,尽管一些头部人工智能企业如旷视科技、商汤科技已经建立了人工智能伦理审查机制,但入局“AI+医药健康”赛道的其他企业,例如生物科技企业、跨国药品、医疗器械企业、医疗机构、CXO及互联网公司等对于涉及AI的伦理审查尚未建立完善的内部机制。
根据《治理意见》,科技伦理审查的基本要求如下:
(1) 从事生命科学、医学、人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应当设立科技伦理(审查)委员会。
(2) 涉及人、实验动物的科技活动,应当按规定,由本单位科技伦理(审查)委员会审查批准,不具备设立科技伦理(审查)委员会条件的单位,应委托其他单位科技伦理 (审查)委员会开展审查。
(3) 探索建立专业性、区域性科技伦理审查中心。
(4) 逐步建立科技伦理审查结果互认机制。
(5) 国际合作研究活动应符合合作各方所在国家的科技伦理管理要求,并通过合作各方所在国家的科技伦理审查。对存在科技伦理高风险的国际合作研究活动,由地方和相关行业主管部门组织专家对科技伦理审查结果开展复核。根据公开报道2,国家科技伦理委员会的三个分委员会正在研究起草相关领域科技高风险活动清单,目前已经取得了很大进展,将在2022年内发布。
根据前述要求,只要“AI+医药健康”相关科技活动涉及人或者实验动物,就需要进行科技伦理审查。一般由本单位科技伦理(审查)委员会审查批准,不具备条件的,可委托其他单位,包括专业性、区域性科技伦理审查中心进行审查。相关地方和行业主管部门还需要对于存在科技伦理高风险的活动还需要进行复核。对于国际合作研究活动,合作各方所在国家均应当进行科技伦理审查。
三、防止算法偏见、保护患者隐私和数据
算法偏见是AI应用所特有的伦理问题。用于训练AI应用的数据集如果未能合理覆盖女性、少数族裔、老年人、农村群体等多样化群体,可能导致最终的算法推荐的偏见。如果AI药物研发中所依据的数据集具有种族、环境和文化上的同质性,可能导致AI所识别到的对于某个靶点有效的活性物质不适用于更广泛的群体。除此以外,“AI+医药健康”的各类应用普遍涉及患者数据的搜集。对于基于大数据进行计算并输出结论及诊疗意见的AI应用来说,数据积累越多,分析越发精准,脱离了数据几乎无法工作和发展。在此过程中,如何保护患者数据和隐私,是企业和医疗机构需要特别关注的问题。
我们在《人工智能与医疗健康产业系列研究之二:人工智能在医疗健康领域应用涉及的数据合规问题》一文中,针对算法偏见和患者隐私和数据保护问题及监管要求进行了全面分析,有兴趣的读者可以参考。
四、保护参与者自主性
随着AI能力的日新月异,如何划定AI在辅助诊疗、参与医生决策时的边界是业界广泛讨论的话题。在传统诊疗模式下,患者通常是出于对于医院或医生本身的信任而选择了接受相应服务,但AI的介入使得传统意义中由医生告知或决策的很多事项转而通过大数据算法来推荐。例如,国内已有一些中医诊疗机构推出“AI中医”的概念,即医生将患者的症状做描述判断并录入“AI中医”系统,系统通过大数据的抓取及运算分析,直接形成推荐处方。
根据世界卫生组织颁布的《卫生健康领域人工智能伦理与治理》白皮书3,保护参与者的自主性是卫生健康领域AI的重要原则。“任何机器自主性的延伸都不得损害人类自主性。在卫生健康方面,这意味着人类应继续掌控医疗体系和医疗决策。”“人工智能系统的设计应在医疗服务提供者、患者等人群做出知情决定时处于辅助地位。”我国的立法对于这一原则已有体现,例如《互联网诊疗监管细则(试行)》规定,“医疗机构开展互联网诊疗活动,处方应由接诊医师本人开具,严禁使用人工智能等自动生成处方,且医师接诊前需进行实名认证,确保由本人提供诊疗服务,人工智能软件不得替代医师本人提供诊疗服务。”
五、涉AI医疗损害责任
所有技术的运用都不是完美的,AI作为一门新兴的技术,其在医疗健康领域的应用可能导致医疗损害。因AI应用引发的诊疗事故及责任承担问题,由于近年来事故案例的增加,而成为人们关注的焦点。例如,韩国媒体就曾报道过某一韩国患者在接受手术机器人进行的器官切除手术中,发生了周边脏器破裂导致了后遗症并最终死亡,其家属与医院和手术团队就因该事故的责任承担问题选择对簿公堂。
目前,我国关于AI应用引发的损害责任承担相关的法律要求主要如下:
序号 法规名称 主要相关内容 1 民法典 一般规定:行为人因过错侵害他人民事权益造成损害的,应当承担侵权责任。 产品责任:因产品存在缺陷造成他人损害的,生产者应当承担侵权责任。被侵权人可以向产品的生产者请求赔偿,也可以向产品的销售者请求赔偿。产品缺陷由生产者造成的,销售者赔偿后,有权向生产者追偿。因销售者的过错使产品存在缺陷的,生产者赔偿后,有权向销售者追偿。 医疗器械:因医疗器械的缺陷,造成患者损害的,患者可以向生产者请求赔偿,也可以向医疗机构请求赔偿。患者向医疗机构请求赔偿的,医疗机构赔偿后,有权向负有责任的生产者追偿。 2 医疗事故处理条例 由于医疗机构及其医务人员使用产品的过程中,违反医疗卫生管理法律、行政法规、部门规章和诊疗护理规范、常规,过失给患者造成人身损害的事故,医院应当向患者承担民事赔偿责任。特定情况下,医院和医务人员也可能承担行政责任(例如停业整顿、吊销执业许可等)甚至刑事责任。 3 人工智能医用软件产品分类界定指导原则 医疗器械管理:人工智能医用软件(即基于医疗器械数据,采用人工智能技术实现其医疗用途的独立软件),其处理对象为医疗器械数据,且核心功能是对医疗器械数据的处理、测量、模型计算、分析等,并用于医疗用途的,将被作为医疗器械管理。 非医疗器械:若软件产品的处理对象为非医疗器械数据(如患者主诉等信息、检验检查报告结论),或者其核心功能不是对医疗器械数据进行处理、测量、模型计算、分析,或者不用于医疗用途的,不作为医疗器械管理。
根据上述法规及相关司法实践,如果AI属于作为医疗器械管理的医疗软件运用在诊疗服务当中,因其产品缺陷而给患者造成的损害(包括由此引发的诊疗事故而造成的伤害),一般由该AI软件的生产商或销售商承担责任;而非因产品缺陷的其他原因造成损害,则一般由医疗机构、生产商和销售商根据各方的过错及相关协议确定责任承担。如果AI作为非医疗器械(例如作为一项服务)运用在诊疗中时,给患者造成了损害,也需根据届时的具体情况,分析各方的过错及相关协议以判断具体的赔偿责任。
六、总结
斯蒂芬·霍金说过,“我们的未来是一场不断发展的技术力量与我们掌握这些力量的智慧之间的角逐。”AI技术和生命科学技术都是锋利的双刃剑,双剑合璧可能成为发展的利器,也可能是风险的源头。针对“AI+医药健康”这一新兴的领域,我国正在持续推进“科技伦理”的顶层设计,并不断完善相关法律法规及政策。对于这一领域的从业者而言,在科研和应用中保持“伦理先行”,积极掌握监管趋势并保持与监管机关沟通,对保障企业合规运营、行稳致远至关重要。
注:
[1]参见《聚焦“基因编辑婴儿”案件》,人民网,2019年12月31日:https://baijiahao.baidu.com/s?id=1654381999650781785&wfr=spider&for=pc
[2] 参见科技部关于《治理意见》的新闻发布会文字实录:https://www.most.gov.cn/xwzx/twzb/fbh22032301/twzbwzsl/202203/t20220324_179977.html
[3] 参见《卫生健康领域人工智能伦理与治理》白皮书第5.1章:https://ai-ethics-and-governance.institute/wp-content/uploads/2022/04/WHO-Guidance-Ethics-Governance-AI-for-Health-Chinese-version.pdf