
人工智能(AI)在当前国内外医疗领域的应用广泛,涵盖了医学影像、辅助诊断、药物研发、健康管理、疾病预测等领域,但其“自主性”和“未知性”为现行法律体系带来了巨大挑战,尤其是AI医疗的主体定位及法律责任认定的问题。我们应当对AI医疗未来角色的发展趋势进行有效分析,针对AI医疗发展在法律层面的现实问题,提前在法律层面提出应对策略防患于未然,以期推动AI医疗的应用能得到有效规制,从而保障其在我国的良性发展。
版权归中华医学会所有。
未经授权,不得转载、摘编本刊文章,不得使用本刊的版式设计。
除非特别声明,本刊刊出的所有文章不代表中华医学会和本刊编委会的观点。
国务院办公厅于2018年发布的《关于促进“互联网+医疗健康”发展的意见》中指出,要推进“互联网+”人工智能(artificial intelligence,AI)应用服务,提高医疗服务效率。在开展AI医疗的过程中发现,AI一方面能推动公共卫生和医学实践的巨大进步,为民众的医疗和保健提供更优质便利的服务;另一方面我们也逐渐认识到AI医疗的发展对人类将产生潜在的负面影响,患者的隐私保护、医疗损害赔偿的责任认定以及衍生的伦理性问题皆日益凸显。诚然,AI医疗的发展实属新兴领域,无论是在“现在时”还是“将来时”的运用中均存在大量的未知空间。
1. AI医疗主要应用类型:现如今,AI在医疗领域的应用已经达到了一定的广度和深度。我国近期多项研究报告对AI医疗产品进行了分类和梳理,主要有《中国人工智能医疗白皮书》(2019版)分5个方面:(1)医学影像;(2)辅助诊断;(3)药物研发;(4)健康管理;(5)疾病预测。《中国医疗人工智能发展报告(2019)》蓝皮书分6个方面:(1)医学影像类产品;(2)辅助诊疗类产品;(3)虚拟助理类产品;(4)医药应用类产品;(5)健康管理类产品;(6)智慧医院类产品。《2019中国医疗人工智能市场研究报告》中又分为7个方面:(1)医疗辅助;(2)医学影像;(3)健康管理;(4)疾病风险预测;(5)药物研发;(6)医院管理;(7)医学研究。《中国人工智能医疗行业报告》分为8个部分:(1)疾病风险管理与预测;(2)医学影像;(3)医院管理;(4)辅助诊疗;(5)虚拟助理;(6)健康管理;(7)辅助医学研究平台;(8)药物挖掘与研究。
尽管各大分类标准不完全相同,但基本可以看出多以应用场景或应用领域作为依据。除此之外,另有学者从AI医疗可发挥的功能范畴进行分类。以医用机器人为例,可以分为以下三类:第一,自主型机器人,不需要医生的介入即能单独执行完成手术的机器人类型;第二,监督型机器人,为执行手术的医生提供监督保障;第三,医生控制型机器人,医生在控制台进行操作,由机器人通过机械臂、成像系统等形式执行手术[1]。
2. 未来医用机器人角色分析:随着AI技术的发展,必然从弱AI时代进入到强AI时代,乃至超AI时代,以医用机器人为例,本段以临床医生工作内容为参照,预测医用机器人的角色转变可能会经由以下发展阶段:首先是医生的工具,其次为医生的助手,再成为医生的同事,最后成为医生的老师。
现阶段,理论界和实务界对医用机器人的角色定位统一认定为医生的工具。工程师通过固定的程序植入,医生通过在电脑等系统上的控制等方式完成对医用机器人的使用,当前阶段医用机器人是被人类有意识地操作和统治,没有人格性和自律性[2]。第二阶段,当医用机器人发展到医生的助手的阶段,类似于医辅人员或医学实习生,没有独立的诊疗权利,需要在医生的领导下和授权范围内完成各项医疗辅助工作(如完成病历书写,无意识地照护患者),仅是医生在某一方面的助手,但对于其本身是具有人格性和自律性的。第三阶段,在技术的提升下医用机器人可能发展为医生的同事,其可能达到具有独立的意志和行为的条件,在完全不依靠医生的情形下,也能独立地完成诊疗工作,与医生保持平等的合作关系。第四阶段,当AI技术超过了人类的意志水平,医用机器人可能发展成为引领和指导医生的老师,除了诊疗之外,还可以承担教学和科研工作,为不断提高医生的职业技能而发挥作用。
1. AI医疗的主体定位及行为性质不明:AI医疗的行为主体认定是当前其理论界与实务界共同关注的首要问题,只有首先明确AI医疗的主体地位,后续的法律问题及相应的解决措施才能得到系统化的推进。AI医疗主体的定位主要在医疗设备或器械与医生之间徘徊,换言之究竟定位是“物”还是“人”?如果认定为是医疗设备,那本质上仍然是民事法律关系中的客体,与普通的工具别无二致。但AI医疗发展的趋势本在于能够具有独立的意志(思考力和决策力),在脱离人类的控制下可以进行自主操作,单凭这一点我们就难以将其一直固定于“物”的范畴。如果将其定位是医生,是与自然人医生完全相同的主体定位,还是在法律上拟制为完全或有限的人格?以及是否可以赋予AI医疗与医生相同的权利和义务?在确立了AI医疗主体定位的基础上,同理可推导其行为的性质。若将AI医疗定位为“物”,其行为只能视为是医生的医疗行为。相反,若将其主体定位为“人”,即AI医疗的行为主体即是自己,其是否与自然人一般享有民事权利能力和民事行为能力仍有待探究[3]。
2. AI医疗主体的法律责任认定不清:传统医患关系之间发生纠纷及其责任认定问题在我国现有的以《民法典》侵权编为代表的法律规定中已经得到了较为完善的解决。然而当AI运用于医疗活动中为人类带来高效、智能的医疗服务时,不可避免地会发生AI医疗诊断错误、治疗过程出现故障等情况,从而引起新型的医疗纠纷造成他人的人身或财产损害。当前阶段,AI医疗在临床应用中发挥了一定的诊疗功能,但基本上属于辅助医生的角色,最终诊疗决策还是依靠医生来确定。因此,当AI医疗致人损害可以根据《民法典》的规定分情况而定,若是AI医疗设备本身存在缺陷,应由生产者或医疗机构承担无过错责任;若是因为医生的过错、过失导致患者受到损害,应当由医生(医疗机构)承担赔偿责任。
缘此,在目前AI医疗发展情况及法律环境下,其责任的最终承担方均包含医疗机构方,或多或少地会影响到医疗机构应用AI医疗的积极性。且在当前司法实践中主要依靠鉴定方式认定医疗纠纷案件中当事人一方的过错行为、结果及因果关系。大部分的鉴定都是围绕医疗机构、医生的行为认定,对AI医疗本身的缺陷鉴定相对缺乏,一是因为缺乏具备医学与AI技术双重背景的专业鉴定人员,二是因为AI医疗的“黑箱”特性导致人类难以去判断其究竟是否具有技术问题或漏洞[4]。此外,当AI医疗的自主化程度逐渐提升,能够独立完成诊断、治疗等其他的操作时,其造成的医疗损害应该如何问责?
在弱AI时代期间,AI医疗被认定为医生的工具能够达到众口一词,但不可否认地其会逐渐朝着医生助手和同事的方向发展。当AI医疗可以像医生一样自主提供诊疗建议、实施治疗方案时,其能否真正代替医生是探讨能否赋予其法律主体地位的核心问题。
1. 医师的法定权利义务范围:《中华人民共和国医师法》(下称《医师法》)第22条规定医师在执业活动中享有“医学诊查、疾病调查、医学处置、出具相应的医学证明文件,选择合理的医疗、预防、保健方案”的权利,医生在诊断治疗领域享有主导权和自由裁量权。此外,医生需承担亲自诊查和及时填写医学文书、告知和征得知情同意、应诊和报告等义务。除上述义务之外,根据《医师法》的规定,医师在执业活动中应当履行的义务还包括:其一,敬业精神和职业道德;其二,遵守临床技术规范和伦理规范;其三,尊重、关心和爱护患者,保护患者隐私等义务。
2. AI医疗无法代替医师的主要原因:首先,AI医疗无法承担医生应尽的义务。强AI时代期间AI医疗的诊疗水平可能会比人类医生更加高超、精密,将医生所拥有的权利复制给AI医疗是可以实现的。然而,任何民事主体在享有权利的同时必须承担对于社会和他人的义务和责任。尽管AI医疗在未来可能会拥有独立的意志、独立的行动,但始终难以像医生一样去承担责任,尤其是履行如前所述的赋有“人情味”的义务。例如关爱患者、遵守伦理道德等医生的应尽义务无法通过算法植入AI医疗的系统中由其自主履行。其次,AI医疗无法进行医患互动。在诊疗过程中除了依靠医生高超的医术之外,与患者进行沟通交流全面掌握其动态特征和了解患者及家属的需求同等重要,医生能够据此结合诊断结果进行多方位考量,最终为患者提供最合适的诊疗方案[5]。然而,算法无法完全替代人的分析判断,无法提供面对面的沟通对患者的病情和情感做出及时的反馈,因而更谈不上由AI医疗来保障患者的知情权、理性选择诊疗方案等权利。
综上,否认AI医疗的法律主体地位一方面是源于其无法依靠算法设计完全地替代医生在诊疗活动中发挥的作用,另一方面我们应当明确和达成共识,无论在现在还是将来,医疗领域只能是人类为主导,因为其关乎每个人的生命健康[6]。
若在立法上赋予AI医疗法律地位以及相应的行为能力,有朝一日人类的健康和安全将会遭到巨大的威胁。
1. 使用层:细化医疗机构和医生的责任。如前所述,如果将AI医疗定位为医疗设备,无论是违约还是侵权责任的认定,甚至是行政责任和刑事责任的追究,我国现行的法律体系基本能涵盖其相关问题。但AI医疗毕竟是一项动态发展的新技术、新设备,作为使用者的相关义务不能始终一成不变,应当承担更高标准的谨慎注意义务。比如,医疗机构应当组织医生定期对AI医疗技术的更新进行学习,确保医生是在熟练掌握其技术变化的基础上才能下放对医生使用AI医疗的许可。2015年发生在英国的一起Da Vinci心脏手术案件中,主刀医生在手术中没有准确控制机械臂导致患者当场死亡。该医生事后承认自己没有在术前完成操作培训,以及没有告知患者他将是英国首位接受机器人修复心脏瓣膜手术的患者,手术可能存在较高风险[7]。触发AI医疗风险的原因可能是产品自身,也可能是在于使用者的过失。因此,在法律法规、部门规章或行业准则层面,应明确细化AI医疗使用者的责任范围,以此补充现行法律体系当中可能存在的遗漏之处。
2. 制造层:明确生产商的责任。除了革新换代之外,现阶段应当重视AI医疗的定期维护,降低其在使用中的风险隐患。与人类不同,任何机械设备都是有使用年限的,离开了定期的检修和维护其工作能力亦会大大地降低。因而,生产商必须严格按照要求,对AI医疗相关设备进行检查和维修,若因为自己的原因而耽误了对AI医疗的维护导致了医疗损害的发生,生产商必将难辞其咎,应当承担赔偿、康复、恢复原状等责任。其次,应当增加AI医疗的生产商购买产品强制责任险的义务。AI医疗系统本身的瑕疵和缺陷是无法完全避免的,一旦因设备问题造成医疗事故,承担赔偿责任的生产商可能难以承受巨大的资金压力。AI医疗是否存在缺陷的取证也是困难的,在国家目前还没有制定统一的安全标准之前,认定AI医疗存在缺陷必定困难重重[8]。因此,为了保障受到医疗损害的患者能够获得足够的经济补偿,我国可以借鉴国外的药品不良事件救济制度,通过由AI医疗的生产商、代理商进行强制投保,按照不同类别的AI医疗设备的比率来缴纳保费。我们应当在制度层面明确AI医疗强制保险的保险金来源、赔偿模式、保险金支付等环节,确保患者在受到损害时,能够顺利地向保险公司提出理赔申请[9]。
安全原则是AI应用的核心,包括物理意义上的技术安全和抽象意义上的安全可控[10]。但相关利益方对AI医疗发展的期待可能存在认知上的差异:工程师在于追求技术的突破,如何把AI医疗的潜力挖掘到最大以其为人类提供更加智能、高效和精准的医疗服务。生产商关注对高科技、新技术的引进和应用,其实质在于对逐利性的追求。然而,将AI引入医疗领域对于人类来说,最重要的还是确保其安全性,在各方利益冲突的情况下,专设AI医疗监督委员会将会产生重大意义。
1. 保证其设备准入的安全性与伦理性:任何器械设备在进入市场流通前均应遵循其各领域准入机制,由于AI产品的特殊性,在准许其进入医疗领域之前,除确保其安全性之外还应当对其伦理性进行严格审查。当人类发展到强AI时代,流通前的伦理性和风险性审查将会变得格外关键。因此,除了依靠政府权力的审查外,还可以考虑建立专门的AI医疗监督委员会,聘请智能科学、医学、生物信息学、法学和伦理学等多学科领域的专家作为主要成员[11]。另外还可以适当吸收部分群众代表,以普通人视角对AI医疗的引进发表观点。
2. 参与和协助司法鉴定环节:如前所述,当前实践中针对AI医疗致人损害的司法鉴定存在困难,缺乏专业的鉴定人员对AI医疗产品是否存在缺陷给予肯定的意见。设立多级的AI医疗监督机构,除了履行前端、中端和后端的监督职能之外,还可以根据管辖区的不同,以其独立的专业地位参与到各级司法案件的鉴定环节中,为当事人提供专业且全面的鉴定意见。
医学技术的本质是为了解除患者痛苦,AI医疗的发展目标也应是如此。如果仅仅去追求技术的不断突破而丧失了对人类安危的守护,既违背了医者的初衷,也偏离了人类发展的应有道路。世界卫生组织于2021年发布的《卫生健康领域人工智能伦理与治理指南》中提出了发展AI医疗的六大原则,其中排在前两位的是“保护人类自主性”和“促进人类福祉、安全及公共利益”[12]。有专家提到:对于法律学人来说,仅仅从概念或理念层面思考远不够,必须从实践层面以及可能的后果层面来思考,这才是务实的法律学术思考[13]。我们必须坚守医疗伦理规则的不可逾越性,在弱AI时代向强AI时代发展的进程中,通过法律的手段将可能出现的问题进行先导性的规制,充分发挥法律的指引作用、预测作用和威慑作用,从而保障AI医疗能够持续稳定地发展且在与人类共存的进程中发挥其重要作用。
作者声明不存在利益冲突





















