AI辅助诊断的责任划分:法律挑战与制度构建

发布时间:2025-05-07 19:54

AI辅助诊断:部分医疗机构利用人工智能辅助医疗决策 #生活知识# #科技生活# #健康生活技巧# #科技与健康融合#

作者简介:华东政法大学公共法律服务学院 纪中池

近期,随着DeepSeek等深度思考人工智能的爆火,AI在医疗诊断中也得到广泛应用。以DeepSeek为例,"医药一哥"恒瑞医药等医疗机构、山东大学淄博生物医药研究院等科研院校都表达了对其推动医疗行业的发展的信心。各地医院也在推进DeepSeek本地化部署,如福建医科大学附属第二医院、上海市第四人民医院、泉州市中医院、上海市第六人民医院福建医院等等。可以看出,人工智能参与到医疗诊断中是大势所趋,是科技发展带来的技术革新。本文从人工智能在医疗诊断中的地位现状出发,分析人工智能辅助诊断的技术特征,结合国内立法现状,分析医生、技术方及医疗机构的责任边界,借鉴民法典中的公平原则、诚信原则等提出以"风险分担"为核心的复合型责任框架,旨在平衡技术创新与患者权益保护。

Part.1 人工智能参与医疗诊断的地位和技术特征

(一)地位

深度思考式人工智能迅速发展,人们越来越喜欢在去医院前,先在人工智能平台上询问医疗问题。正如舆论热议话题所说,DeepSeek在倒逼医生利用人工智能诊疗或者医疗机构进行本地部署。在人工智能参与到医疗诊断后,首先需要确定的是人工智能在医疗诊断中的地位。

面对AI参与医疗诊断可能出现的数据污染、算法缺陷、医生操作不当、患者自身表达不准确等问题导致的医疗纠纷,目前的应对方法在于通过印发政策性文件来明确AI参与医疗诊断的辅助地位。近日,湖南省医疗保障局发布《关于进一步加强基本医疗保障定点零售药店管理的通知》,其中明确规定互联网医院严禁使用人工智能等自动生成处方。2022年发布的《互联网诊疗监管细则(试行)》中,也有明确"处方应由接诊医师本人开具,严禁使用人工智能等自动生成处方"的规定。人工智能参与医疗诊断,目前处在辅助地位阶段。

(二)技术特征

目前以作者自身对于深度思考式人工智能平台的浅显认知来看,其有深度学习算法和大数据分析两大特征,面对数据污染、算法偏差等技术风险,目前多采取本地部署的方式缩小数据量,尽可能避免误诊。但相应的,数据量小带来的问题是应用场景的缩小以及大平台建设的难度增大。

Part.2 现行立法的适用与局限

目前我国医疗损害适用的原则以《民法典》第1218条规定的过错责任原则为主,《民法典》第1222条规定的过错推定原则为辅,两个条款规定的责任主体均是医疗机构,且主要聚焦于传统医疗场景,当涉及人工智能平台参与医疗决策过程时,医生、人工智能平台以及医疗机构之间复杂的责任关系无法依据《民法典》相关条款得以明确。《医疗纠纷预防和处理条例》第46、47条:强调医疗机构主体和医务人员的责任,但未涉及技术提供方的责任以及具体的责任划分问题。而在《产品质量法》中对于AI系统是否属于"产品"实际上也是存在争议的。

从上述立法情况来看,我国目前缺乏对人工智能参与医疗诊断出现纠纷后的责任划分的立法规定。随着人工智能技术的不断发展,促进科技发展和维护社会秩序之间的伦理冲突愈发明显,没有明确的责任划分,容易引发技术的无序发展。目前我国尚处在AI辅助诊疗的阶段,未来随着人工智能技术的成熟,未必不会出现AI主导诊疗的时代,那时将会面临更加尖锐的秩序与效率之间的冲突。

Part.3 责任划分的核心争议

对于责任划分的核心争议,根据上述立法情况概述,主要有主体上的多元性矛盾问题、因果上的矛盾复杂性问题以及归责标准的模糊性问题。

主体上,可能承担责任的主体主要有三类,即人工智能平台方、医疗机构以及医生,其中人工智能平台方还可以细分为算法开发者和数据供应商,这样的划分是为了更好地区分不同侵权情形下的责任划分。在算法上,可能存在算法上的缺陷直接导致误诊;在数据上,可能存在数据污染的情形,数据来源混乱且错误,导致据此做出的诊断错误,同时还可能出现AI诊疗泄露患者个人信息的情形出现。

在因果的复杂性上,如果把一起侵权案件逻辑线条以时间为轴来评析,可以发现在案件的起因上可能是算法缺陷、数据污染、医生操作不当以及医疗机构缺乏监管等等原因。起因的不同可能会导致不同的侵权结果和规则标准,其中更有多因一果、一因多果、多因多果等更为复杂的情形,不同因素在不同案件中的作用力也不同。

最后一个问题是归因标准的模糊,传统的医疗过错责任实际上难以适用于AI辅助医疗决策案件。

在AI辅助医疗决策阶段,应当认识到在一般案件的情形中,医生存在"过度依赖"的风险,盲目采信AI意见的问题。而根本性的问题在于AI给出的方案存在问题,可能原因是算法缺陷或者数据污染。在根本原因和直接原因之间的链条是医院或者其他医疗机构的管理过失。这一逻辑链条下,应当是医生的盲目采信占据主要责任。当然,未来人工智能参与医疗决策发展到新的阶段后,应当重新分配责任,一般而言,应当在人工智能参与程度加深的同时,加大技术方和医院的责任。

Part.4 责任划分的路径构建

从上述逻辑链条的分析来看,目前我国处于AI辅助医疗决策阶段,其中一般情形下,责任承担应当以医生为主,其次是医院方,再次是技术方。也即医生承担过错推定责任,因为其违反了专业审慎义务,技术方和医院承担一定程度上的补充责任。而在技术方或者医院出现明显错误情况下,则应当由过错方承担责任,如算法缺陷导致系统性错误,给出明显过错方案时,由技术方承担主要责任;医院未经批准采用明显存在缺陷系统导致侵权案件产生,由医院承担主要责任。

Part.5 配套制度设计及立法建议

在责任划分体系明晰后,这里提出笔者的一些浅显建议。首先,各技术平台应当在回答医疗问题后附带上明显的免责声明,这一点各平台基本上都有做到;其次,平台应当公布医疗意见的生成逻辑以及训练数据来源;最后,平台应当提供一定的保险以应对各类侵权案件赔偿。对于医院方,应当公布本地部署的训练数据来源,同时,在AI参与医疗决策过程中起到监督作用。对于医生,则应当尽到专业审慎义务,避免过度依赖。

立法上,应当修订《医疗纠纷预防和处理条例》,增设"AI医疗特别条款",明确各方责任比例。如果出于对技术的保护等原因,也可以确立一般的过错推定原则,在此基础上,先对技术发展的未来场景进行观望以便制定出更符合时代发展前景的责任条款。

结语

AI辅助诊断的责任划分需突破传统法律框架,构建动态风险分配机制。目前笔者仅就AI辅助医疗决策阶段的责任划分提出一点浅薄的个人见解,如有不当之处,欢迎大家批评指正。

中国研究型医院学会医药法律专业委员会忠言法语微信公众号2025年第23期

投稿邮箱:yyflzwh@163.com

欢迎关注:中国研究型医院学会医药法律专业委员会"忠言法语"公众号!我们诚挚邀请各位专家学者、法律实务工作者、医药行业从业者积极投稿,分享您的研究成果和实践经验,共同推动医药法律领域的繁荣发展!

本文由“健康号”用户上传、授权发布,以上内容(含文字、图片、视频)不代表健康界立场。“健康号”系信息发布平台,仅提供信息存储服务,如有转载、侵权等任何问题,请联系健康界(jkh@hmkx.cn)处理。

网址:AI辅助诊断的责任划分:法律挑战与制度构建 https://www.yuejiaxmz.com/news/view/939033

相关内容

深度报道丨AI助手时代:挑战与机遇并存
AI助手时代:挑战与机遇并存
构建未来:人工智能在城市规划中的应用与挑战
AI人工智能助理的未来发展趋势:技术创新与挑战
AI辅助教育:个性化学习的新纪元
人工智能在健康监测系统中的应用与挑战
未来生活中的AI助手.pptx
利用AI技术的健康信息管理,新趋势与挑战
未来智能交互:AI技术在日常生活中的应用与挑战
女子偷盗后求助AI免责:科技不应成为逃避法律的“避风港”

随便看看