专家论坛
人工智能临床应用的法律规制
中华医学杂志, 2023,103(18) : 1363-1366. DOI: 10.3760/cma.j.cn112137-20230217-00227
摘要

随着人工智能技术在临床的广泛应用,愈来愈多的法律问题亟待解决。目前,虽然学界与实务界对人工智能的法律地位仍存争议,但它在临床诊断和外科手术中的侵权风险却无法回避。在强、弱人工智能责任主体区分的基础上,符合侵权行为、损害后果、因果关系、主观过错等要件即可构成侵权责任,但存在免责事由亦可免除责任。除侵权责任的事后追责外,还需要建立完备的行政法律规制体系。我国当前需要尽快探索建立人工智能的分类登记制度、强制保险制度和储备金制度,从而加强对人工智能临床应用事前、事中和事后的全过程法律规制。

引用本文: 胡梦瑶, 袁飞. 人工智能临床应用的法律规制 [J] . 中华医学杂志, 2023, 103(18) : 1363-1366. DOI: 10.3760/cma.j.cn112137-20230217-00227.
参考文献导出:   Endnote    NoteExpress    RefWorks    NoteFirst    医学文献王
扫  描  看  全  文

正文
作者信息
基金 0  关键词  0
English Abstract
评论
阅读 0  评论  0
相关资源
引用 | 论文 | 视频

版权归中华医学会所有。

未经授权,不得转载、摘编本刊文章,不得使用本刊的版式设计。

除非特别声明,本刊刊出的所有文章不代表中华医学会和本刊编委会的观点。

人工智能技术以其精确性、高效性、安全性等优势,广泛应用于临床诊断、外科手术等医疗活动中。然而,随着人工智能在临床治疗中的应用不断深入,势必带来一系列极具争议的法律问题。但是,目前相关规范较为匮乏,无法保障人工智能技术的临床适用。人工智能在临床应用中的侵权属于医疗侵权,其侵权责任的构成必须符合医疗侵权责任的构成要件。但由于人工智能这一技术领域有着阶段性创新与迭代发展的特点,不同时期的人工智能在技术水平上存在较大差异,其法律地位不能等闲视之。毋庸置疑,随着技术的日趋完善,未来人工智能在医疗领域的应用必然更加普及,带来便利的同时也不可避免地引发一定的侵权风险。目前,我国在人工智能医疗侵权领域尚无专门的、系统的法律规定,人工智能临床应用造成实际侵害后,如何认定侵权责任、如何加强侵权纠纷的事前预防、事中监管、事后处置,将成为未来人工智能临床应用不可回避的法律议题。

一、人工智能在临床应用中的法律角色及侵权类型

人工智能技术在医疗领域已被广泛应用于手术辅助、影像读取、药品配置等一系列临床诊断和临床治疗活动当中,为人类提供了更加精确的临床诊疗服务。在侵权类型方面,当前人工智能应用的医疗侵权,主要发生在医学诊断过失侵权、外科手术侵权方面。

1.人工智能的法律角色:人工智能技术正处于快速发展变化的阶段,其“智能”水平因不同的产生时期和不同的应用领域而有所差别,不同人工智能技术的自主意识和思维复杂程度存在较大差异,其法律地位不能一概而论。在人工智能是否能够成为适格法律主体的问题上,学界持有不同观点:(1)可以成为民事主体:范进学1认为虽然目前人工智能的智力水平无法超越人类智慧的最高程度,但是其已然具备个体处置各类输入信息的功能,因而不能把人工智能单纯地视作法律意义上的物,无论是弱人工智能或强人工智能,都具有某种程度或方面的法律主体资格。(2)不能成为民事主体:赵万一2认为人工智能不仅没有影响到自然人作为主要民事主体的重要地位,而且没有形成能够赋予其民事法律主体地位的逻辑基础。(3)需要基础理论的引导:杨立新3认为人工智能是否具有人格的问题,是民法必须解决的重大理论问题。实定法规范中人工智能法律主体地位内容的缺位,需要通过理论与实践的结合的方式,对人工智能侵权实践应用进行价值引导,并予以解决。然而,实践中面临的问题往往比学理上的争论更为复杂。人工智能技术在医疗临床应用中的法律地位,是对一般普遍意义上人工智能法律地位问题的进一步讨论,在基础问题尚无定论的情况下,细化领域的研究也必须慎之又慎。本文认为,应当充分结合人工智能技术的特点,根据技术发展的“智能”水平高低区分为弱人工智能和强人工智能,智能水平越高,越能成为独立的责任主体。

2.人工智能临床应用的医疗侵权类型:(1)诊断过失侵权:人工智能在临床诊断过程中的误诊,属于诊断过失侵权。譬如,沃森肿瘤(Watson for oncology)就是一个成功应用于临床的人工智能,其主要适用于对肿瘤病灶的识别与诊疗。然而,因为沃森肿瘤属于弱人工智能,预先学习内容的局限性亦或信息处理过程中的微小偏差,都有可能导致其误诊。(2)外科手术侵权:人工智能在手术过程中的误诊,属于手术侵权。达芬奇手术机器人(Leonardo Da Vinci surgical robot)是全世界临床手术中应用最为广泛的手术“机器人”。医生通过操控达芬奇手术机器人或向其发出指令进行手术操作,以提升手术的精准程度,极大减少术中人为失误等负面因素。但是,由于人工智能高度依赖算法数据的支撑,那些缺少准确数据“训练”的人工智能可能容易误判误诊而造成损害。

二、人工智能临床应用过程中的侵权责任构成

人工智能临床应用的实践过程中,无法排除致患者损害的风险4。但是,一旦人工智能的临床应用发生医疗事故,其责任归属将成为悬置问题,这也是阻碍人工智能普及应用的重要障碍。因此,必须对人工智能临床应用过程中的侵权责任进行规制,以规范其临床应用方式、侵害责任归结,从而引导器械公司规范研制、临床医生规范适用、就诊患者正确认知医疗人工智能。进而,通过法理论与法规范完善,确立损害发生后的归责机制,推进人工智能技术的临床有效适用。

其一,临床应用过程中人工智能的侵权,是指因用于临床医疗活动的人工智能所作出的诊断结果、治疗措施导致患者权益受到损害的情形。对人工智能构成医疗侵权责任的侵权责任法规制,必须符合《民法典》对侵权责任的构成要件的规范要求5

1.责任主体:人工智能医疗损害责任主体分为两类:(1)弱人工智能:属于医疗辅助产品,当因产品缺陷致人损害时,应当以产品的设计、生产主体为侵权责任人。(2)强人工智能:具有较高的自主性意识,若因算法失误或操作故障致人损害时,只有强人工智能自身拥有财产时才会对外承担责任6。但在人工智能拥有自己财产前,侵权责任应由相应的保险基金赔付。相比于强人工智能,弱人工智能受自身“智能”水平的限制,自主意识更弱而工具属性更强,无法成为独立的责任主体,而强人工智能则因其高度发展的“智能”水平和强自主意识而更能成为独立的责任主体。因此实践中人工智能医疗损害责任的相关争议和责任认定难题主要聚焦在强人工智能主体中。

2.侵权行为:人工智能的医疗侵权包括研发过程中的缺陷纰漏、制造过程中的品质瑕疵、应用过程中的决策失误等。具言之,强、弱人工智能在医疗活动中的侵权行为有:(1)强人工智能误诊:强人工智能可能独立参与诊断活动,因它独立做出的临床诊断结论而导致误诊,并进一步造成损害后果。(2)弱人工智能致害:弱人工智能在辅助进行外科手术过程中,出现技术障碍或者运行错误导致的医疗损害,该人工智能的设计、制造或错误指令、操作行为可能成为侵权行为。

3.损害后果:损害后果可分为两类:(1)患者人身损害:人工智能在临床诊疗活动中导致的医疗事故造成患者失去生命、身体致残、健康减损的侵害结果。(2)患者财产损害:财产损害体现为患者诊疗费用的直接损失,还包括为身体恢复需要而增加的康复费用和营养费用、无法按时回到工作岗位的误工费用等间接损失。

4.因果关系:因果关系是判断承担医疗损害侵权责任主体,还是共同责任主体的判归依据。依致害原因,可将因果关系分为三类:(1)由设计缺陷所致:设计行为与损害后果间存在因果关系;(2)由生产瑕疵所致:生产行为与损害后果间存在因果关系;(3)由操作和管理不当所致:使用或管理行为与损害后果间存在因果关系。上述三种情形可能同时发生,那么因果关系可能是并存的、共同的、叠加的,应由各行为主体按因果作用大小按份承担责任。

5.主观过错:过错包括故意或过失,即积极追求结果发生或疏忽大意造成结果发生7,但人工智能做出决定的思维逻辑不同于人类,并不存在故意或过失的区分可能。人工智能在运行过程中主要是遵循设计主体、生产主体、管理主体按预设的算法模式展开思维和行动。质言之,倘若人工智能出现“故意”,那也必然是设计、生产或管理主体的“故意”。

6.免责事由:《民法典》与《医疗事故处理条例》对医疗机构的免责事由进行了规定,这同样适用于人工智能的临床应用场景:(1)患方不配合进行合规诊疗的;(2)人工智能及其操作者已经尽到一般合理注意义务的;(3)限于医疗水平而无法进行有效诊疗的;(4)发生不可抗力事件或者意外事件的,在这些情况下都不会导致侵权责任的发生8

其二,有效建构临床医生、医疗机构等潜在侵权主体应对人工智能侵权纠纷的自我规制方法。为了防止人工智能技术在临床应用过程中陷入困境,需要以目的为导向,强化潜在侵权主体的自我规制,以符合医事法规内容、医学伦理规范、医学技术发展规律,推进临床安全、有效地使用人工智能。具体来说,可以采取以下三方面措施:一是强化医生在人工智能临床应用中的主导地位。在涉及人工智能临床应用的医疗诊治过程中,以医生决策为最终依据,尊重医生的独立地位和知识经验,始终由医生主导整个诊疗活动。二是制定落实人工智能临床应用的规章制度。严格依据医疗诊治规范,对人工智能临床应用的诊治程序进行全过程规范并严格落实。三是增进潜在侵权主体应对纠纷的处置能力。鼓励研发机构、生产机构、医疗机构单独增设应对人工智能临床应用侵权的事务部门,积极运用解释说明、调解、和解等方式处理纠纷。对使用人工智能技术的临床医疗人员进行规范培训,增强医疗人员对人工智能临床应用侵权纠纷的认识及处置能力。

三、人工智能临床应用的行政法规制

我国目前还没有进入到强人工智能和超人工智能时代,一些在人工智能领域探索先驱的国家和地区,伴随该项技术的不断创新与接续发展,已经认知到亟需对人工智能的责任制度加以规制并予以完善。而且,仅诉诸于侵权事故发生后的民事侵权责任远不足将其纳入规范运行的轨道,还需要事前干预、事中监管和事后追责等行政法制度的相互配合,才能真正发挥治理实效。

1.制度的比较镜鉴:欧盟最先对人工智能采取立法手段予以规制,提出了规制人工智能的立法提案,以及《人工智能道德准则》(AI Ethics Guidelines)9。该准则提前明确一个具有指导性质的人工智能伦理原则框架,以便于人工智能在临床应用中的统一遵循,确保其在符合法律、伦理标准的前提下运作。我国应当镜鉴欧盟规制人工智能方面的有益经验,进一步完善对人工智能的法律规制。(1)在法律地位方面,人工智能可能被定性为具有自主决策能力的“电子人”(electronic persons),从而获得特定的法律地位。“电子人”等强人工智能在临床应用过程中的侵害风险,难以被人类及时监测10。故此,可以结合强制保险机制,选择让保险基金承担赔付责任。(2)在人工智能的法律规范和行政监管上,需建构一个具有专业监管能力的行政部门,进一步提出分类规制的思路。分别建立强人工智能机器人、弱人工智能机器人的注册登记制度,从整体上实现可追溯、全流程的行政法监管制度。(3)在追责标准方面,人工智能侵权事故承担责任的大小应当与人工智能的意识自主性程度成正比,即人工智能自主决策能力越高,承担责任越大。

2.制度规范的完善方法。我国当前引导人工智能医疗有序发展,在法律规制方面有必要落实两方面的配套制度:(1)分类登记制度:强人工智能具备如同人类思维一般进行“逻辑输入—逻辑输出”的自主性,具有成为民事法律主体地位的条件,因而有必要通过行政法规范确立注册登记制度,强化其法律监管水平。不过,注册登记制度要实现对人工智能的级别区分,分别对强、弱人工智能实行不同标准的准入许可、登记注册,并由专门机构监管其全过程运行。特别是对医疗人工智能产品,应形成由设计过程、到生产过程、再到临床的使用过程的全程追溯。如此一来,损害结果发生后,就可以确切地找到该人工智能的算法设计者、产品生产者和管理使用者,同时也有助于对同类人工智能调整监管或禁用召回。(2)强制保险制度。同交通保险、航空保险等具有较高风险的领域相似,临床应用中的人工智能也具有较高的侵权风险,因此,有必要通过行政法确立其强制保险制度,通过规范手段令所有用于医疗产品的强人工智能纳入到保险范围之内,创造一个潜在的资金池,用于触发侵权责任的情形下的及时赔付。这不仅能有力保障受害者得到应有的经济赔偿,也较好地分散了设计者、生产者和管理者所承担的风险。(3)储备基金制度:储备基金制度是风险领域的风险分担机制,在医疗人工智能应用中,应当由所有涉及设计、生产、使用医疗人工智能的法人主体按比例出资后构成的储备金,分担、补充在强制保险的限额之外的损害赔偿部分。可将设计主体和制造主体的销售金额,以及人工智能依靠医保系统在临床诊治活动中的收入,按法定比例直接转入至储备基金。储备基金可以使得临床应用的人工智能风险得到有效分散,有助于解决与人工智能相关的赔偿责任分担问题,进一步补充强制保险制度限定额度之外的部分。

伴随着人工智能技术的日益成熟,强人工智能在临床中的深度应用成为必然趋势,甚至有可能出现拥有超级学习能力与诊断能力的机器人医生。届时,将进入人机诊疗共生共存的时代。不论是研制主体、医疗机构还是医务人员,都必须尽早为人工智能临床应用的规范化的到来做好准备。人工智能在临床应用过程中的法律规制,既是医学问题,也是法学问题,还是哲学问题。未来,相关法律制度的探索和完善需要医学、法学和哲学共同努力,让人工智能的临床应用真正造福人类。

引用本文:

胡梦瑶, 袁飞. 人工智能临床应用的法律规制[J]. 中华医学杂志, 2023, 103(18): 1363-1366. DOI: 10.3760/cma.j.cn112137-20230217-00227.

利益冲突
利益冲突:

所有作者均声明不存在利益冲突

参考文献
[1]
范进学. 人工智能法律主体论:现在与未来[J]. 政法论丛, 2022, 208(3):3-17. DOI: 1002-6274(2022)03-003-15.
[2]
赵万一. 机器人的法律主体地位辨析——兼谈对机器人进行法律规制的基本要求[J]. 贵州民族大学学报(哲学社会科学版), 2018, (3):147-167. DOI: 10.3969/j.issn.1003-6644.2018.03.011.
[3]
杨立新. 人工类人格:智能机器人的民法地位——兼论智能机器人致人损害的民事责任[J]. 求是学刊, 2018, 45(4):84-96. DOI: 10.19667/j.cnki.cn23-1070/c.2018.04.011.
[4]
Benli, Erman, Gayenur. Artificial intelligence and tort law[J]. ASBU Law J, 2020, 2(2):296-336. DOI: 10.47136/asbuhfd.713190.
[5]
孙东东. 《民法典》医疗损害责任立法变化的学习与应用[J]. 中华医学杂志, 2021, 101(19):1381-1402. DOI: 10.3760/cma.j.cn112137-20210125-00235.
[6]
Benedict. Paging doctor robot: medical artificial intelligence, tort liability, and why personhood may be the answer[J]. BKNY Law Rev, 2021, 87(1):417-438.
[7]
王春蕾. 医疗过错的认定规则及完善路径[J]. 中华医学杂志, 2021, 101(20):1537-1540. DOI: 10.3760/cma.j.cn112137-20210129-00275.
[8]
杨立新. 侵权责任法[M], 北京:法律出版社, 2018.
[9]
Larsson, Stefan. On the governance of artificial intelligence through ethics guidelines[J]. Asian J Law Soc, 2020, 7(10):437-452. DOI: 10.1017/als.2020.19.
[10]
郭少飞. 人工智能“电子人”权利能力的法构造[J]. 甘肃社会科学, 2019, (4):108-116. DOI: 10.3969/j.issn.1003-3637.2019.04.019.
 
 
展开/关闭提纲
查看图表详情
回到顶部
放大字体
缩小字体
标签
关键词