1. 首页>>分享

中国百家三级医院加速部署DeepSeek大模型,AI诊疗变革风暴席卷医疗行业

界面新闻记者 | 张倩楠

界面新闻编辑 | 刘海川

今年开始,中国有多家医院在加快推进 DeepSeek 大模型在本地的部署工作,从而引发了一场由 AI 驱动的诊疗变革的新风暴。

目前,据不完全统计,国内有超百家三级医院已官宣完成 DeepSeek 的本地化部署。这些医院分布在 20 余个省份,如北京、上海、广东、江苏、浙江等。其中包括北京大学第一医院、清华长庚医院、上海第六人民医院、郑州大学第一附属医院、深圳大学附属华南医院、北京中医药大学深圳医院、湖南省人民医院等。

DeepSeek 是一项基于深度学习和大数据分析的智能技术,它能够被应用于临床这一医疗场景,也能够被用于科研这一医疗场景,还能够被用于医院运营管理这一医疗场景等,总计有数十种医疗场景。

在临床上的使用带来的冲击感最为强烈。首都医科大学三博脑科医院神经外科主任张宏伟公开分享了他的“震惊”之事。他在门诊碰到一位超复杂脑瘤患者,此患者已经历经两次开颅手术、一次经鼻手术、一次放疗以及一次伽马刀治疗,然而肿瘤依然未被控制住。张宏伟将患者情况发送给 DeepSeek,没过多久,仅 18 秒,DeepSeek 就给出了一个清晰的方案,这个方案包含了张宏伟能想到的以及文献上报道的内容,并且还涵盖了最新的临床实验。张宏伟表示:“对于脑肿瘤这类较为复杂的问题,DeepSeek 的水平起码相当于省级三甲医院的专家。”

辅助医疗决策是医院部署 DeepSeek 的主要目标之一。陆军军医大学新桥医院推出了“新桥 DeepSeek”智能体,当面对复杂医学问题时,由于大模型的加持,智能体能够迅速且精准地给出专业解答;在病例辅助分析上,它可以为医生的诊疗决策提供可靠的参考依据。在 DeepSeek 与医院 OA 系统深度融合之后,湖南省人民医院提出,未来,AI 会深度参与临床决策支持这一场景,会深度参与病历质控这一场景,会深度参与影像分析这一场景。

我们必须承认,在医疗场景当中,人工智能发挥的作用越来越大,其自身潜力也越来越大。与此同时,人工智能介入医疗背后所蕴含的高风险也必须被纳入考量。对外经济贸易大学法学院教授、数字经济与法律创新研究中心主任张欣向界面新闻表示。

能否对数据“守口如瓶”?

事实上,AI 医生并非首次亮相。2019 年 1 月的时候,国家卫生健康委统计信息中心在全国范围内开展了人工智能技术应用落地案例的征集活动。在 3 个月的时间里,通过网上填报一共收集到了 245 个案例,经过筛选进入评选环节的有 190 个案例,这些案例涉及 137 所医疗卫生机构和科研院所。

2024 年国家卫生健康委、国家中医药局、国家疾控局将《卫生健康行业人工智能应用场景参考指引》予以公布,此指引包含临床专病智能辅助决策以及手术智能辅助规划等 84 个应用场景。在 2024 年 12 月 13 日,工信部与国家卫健委一同对 51 个高端医疗装备推广应用项目进行了公示,这些项目当中包含人工智能辅助诊疗。

卫生健康行业人工智能应用场景的参考指引全景图。此图片来源于卫健委。

医学人工智能辅助诊断技术在基层应用方面持续进行布局。国家卫生健康委基层司司长傅卫介绍说,到 2023 年底时,27 个试点县的基层机构借助辅助诊疗系统已经给出了 2600 余万次诊断建议。

此前开发应用的医疗大模型与之相比,DeepSeek 更具亲和力,普通民众能够通过向 DeepSeek 询问而获得答案。这种“开源”状况,让长期对医疗行业进行观察的病毒学家常荣山心生担忧,DeepSeek 接入医院系统后,能否确保患者信息不被泄露呢?

医疗数据通常包含极为敏感的信息,像患者的基因数据以及病史记录等。这些信息一旦出现泄露情况,便有可能给个人隐私带来极为严重的威胁。倘若系统的架构设计存在不足之处,亦或是数据在传输过程中未获得恰当的加密保护,那么这些珍贵的数据就有很大可能会成为网络攻击者的攻击对象,进而被非法获取并被滥用。中国政法大学的教授郑飞告知界面新闻,他同时还是京都律师事务所的兼职律师。

开源代码存在不可控性,这是一个不能被忽视的问题。郑飞介绍说,因为开源项目准许来自全球各地的开发者参与代码的编写与修改,这一方面促进了技术的快速发展与创新,另一方面也带来了潜在的安全风险。社区中的代码修改或许会在不经意间引入后门程序或者安全漏洞,这些漏洞有可能被恶意行为者加以利用,进而增加了数据泄露以及系统遭受攻击的风险。所以,在把开源 AI 系统运用到医疗领域的时候,一定要对这些风险进行细致的评估,并且采取相应的安全措施,以保障系统的安全性以及数据的保密性。

使用 DeepSeek 主要存在以下三种方式:一是直接访问应用;二是调用云服务接口;三是进行本地化部署定制开发。目前,为了确保安全性与专业化,医院采用的使用 DeepSeek 的方式为本地化部署定制开发。长庚医院医学数据科学中心的主任李栋在接受经济观察网采访时进行了介绍。一方面,医院的数据是不能离开医院的;另一方面,为了能够让病人获得更专业的咨询,就需要用医院专业的真实医疗数据来进行训练,并且还要保证这些数据不会向外泄露。

然而,在使用数据的过程中,怎样去保护患者的个人隐私,这是一个长期存在的问题。深圳大学附属华南医院作为率先完成 DeepSeek 本地化部署的医院,其院长吴松在文章中介绍,传统的匿名化方法能够降低数据泄露的风险,不过往往会致使数据部分丧失,所以需要开发更精细化的脱敏算法,以便在保障隐私保护的同时,最大限度地保留数据的有效性。

吴松表示,随着数据量不断增加。一方面,要在保证数据安全的前提下,实现大规模数据的存储、传输和处理,这是当前医疗大模型本地化部署面临的重要挑战之一。另一方面,分布式存储、边缘计算等技术的应用或许能为这一问题提供解决办法。然而,如何平衡数据处理效率与安全性,仍需进一步去研究和探索。

如果发生个人信息泄露或不当处理的情况,郑飞介绍说,依据《中华人民共和国民法典》以及《中华人民共和国个人信息保护法》等规则。当医疗机构作为数据控制者,若未能履行其应尽的安全管理义务,通常就需要承担主要责任。在特定情况下,责任的划分可能会牵涉到多个相关方,这些相关方包括开发者与供应商、第三方开源贡献者、数据处理人员、网络服务提供商。

AI医生必须服从人类医疗伦理框架

AI 必须要服从人类的医疗伦理框架。其中关键在于强调人类掌控最后的按钮这一原则。并且要明确要求守住医生的终审权、患者的知情权以及技术的可溯性这三大底线。上海交通大学数据法律研究中心执行主任,上海交通大学法学院副教授何渊向界面新闻表示。

事实上,医生终审原则是明确的。2009 年时,原卫生部印发了《人工智能辅助诊断技术管理规范(试行)》。此规范明确,人工智能辅助诊断技术属于辅助诊断和临床决策支持系统,不能当作临床最终诊断,仅仅能作为临床辅助诊断和参考,而最终诊断必须由有资质的临床医师来确定。

国家卫健委和国家中医药局在 2022 年发布的《互联网诊疗监管细则(试行)》遵循了该原则。此细则规定,医师在接诊前必须进行实名认证,以确保是由本人提供诊疗服务。同时,其他人员以及人工智能软件等都不可以冒用或替代医师本人来提供诊疗服务。另外,处方应当由接诊医师本人开具,严禁使用人工智能等自动生成处方。在地方政策方面,北京以及湖南等多个地方都对人工智能辅助诊疗划定了“红线”,明确严禁使用人工智能等自动生成处方。

在人类掌控最后按钮的情况下,如何构建起医生与 AI 之间的和谐互动关系会成为关键问题。常荣山向界面新闻透露,2024 年 10 月,斯坦福大学、哈佛医学院等机构的研究人员发表的一项研究表明,AI 作为强大的诊断辅助工具,并未提升医生的表现,人与 AI 的结合实际上产生了“1+1=1”的效果。AI 确实很强大,然而倘若医生们无法熟练地掌握它,那么它的作用依然是有限的。关键之处在于怎样通过对教育培训制度进行完善、对工作程序进行标准化以及对监管框架进行设计等方式,来突破人们对 AI 的信任危机,进而提高效率。常荣山表示。

确保“人”在回路上很重要,同时确保患者知情权也很重要。若在患者不知情时使用了含医疗辅助的人工智能系统,就不符合医疗伦理。从透明度治理角度看,需要让患者充分知情、同意和被告知,并且获得相应授权。张欣说。

郑飞指出,传统医疗行为中有知情同意。而 AI 包含数据集交互和算法,其具有复杂性问题。这导致人们难以就自己的个人数据使用作出全面且可预测的决定。所以,与 AI 相关的知情同意问题变得极为复杂。

在当前的监管环境下,存在着一些灰色区域。郑飞进行了介绍,其一,技术正快速发展且迭代速度极快,远远将相关法规的更新速度甩在了后面。尤其是人工智能算法,因其具备自主性以及动态学习的能力,导致这些技术难以完全契合传统医疗器械所遵循的静态标准。其二,分类标准存在模糊性,这也是一个不能被忽视的问题。在医疗文本处理领域里,对于生成式人工智能的应用是否应被归为“诊断辅助”工具,目前尚未有明确的界定。这种不确定性给监管机构造成了挑战,同时也给相关技术的发展与应用带来了潜在的风险。

AI参与诊疗,医疗损害责任如何厘清?

依据《中华人民共和国民法典》第 1218 条规定,患者在诊疗活动中遭受损害,若医疗机构或者其医务人员存在过错,那么就由医疗机构承担赔偿责任。在我国当前阶段的人工智能辅助医疗的侵权案件里,在司法实践方面所采用的依然是传统意义上以过错责任原则为核心的医疗损害责任认定方式。

这表明在出现医疗纠纷之际,患者或者其家属得去证明医疗机构或者医务人员存在过错。比如,没有能够恰当地审核由人工智能(AI)系统所给出的诊断建议,亦或是在操作过程当中出现了差错。如果使用 AI 辅助诊断系统出现了误诊的情况,那么医疗机构必须证明自身已经采取了审慎的态度和措施来运用这项技术,例如对 AI 系统的建议进行了全面的审查以及验证。”郑飞称。

当涉及到 AI 自主决策这一情况时,会面临归责方面的困境。郑飞进行介绍,因为深度学习模型具备所谓的“黑箱”特性,也就是说其决策过程是不透明的,这就致使在出现错误或者问题的时候,很难去追溯到具体的错误原因。而这种不透明性使得医疗机构与 AI 系统的开发者之间常常会发生互相推卸责任的状况。从义务角度来看,这一方面会对医务人员向患者履行告知义务产生影响,另一方面也会对医务人员履行再判断义务造成影响。

此外,责任的划分涉及多方责任相互交织的问题。因为缺乏明确且统一的分担标准,所以责任的划分变得复杂且模糊。郑飞举例称,若数据泄露事件是由开源代码存在漏洞以及医院管理疏忽共同导致的,那么责任的分担就得依据各方的过错比例来进行,然而对于这个比例,目前还没有明确的标准。

如果人工智能辅助医疗工具被明确界定为医疗器械,那么在责任认定时,需要综合去考虑《产品质量法》,同时也要考虑《医疗器械监督管理条例》等相关法规。

人工智能辅助医疗工具是否被正式归类为医疗器械,取决于它具备的具体功能,还取决于它被应用的场景。郑飞介绍,若 DeepSeek 仅被当作提供决策支持的工具,或许不会被明确归入医疗器械范畴;但要是 DeepSeek 在实际应用中直接参与诊断过程,或是在治疗过程中起到关键作用,像在手术导航、影像分析等方面,尤其对医疗器械数据进行分析,那么它就可能需依照医疗器械的相关规定接受审批和监管。

郑飞介绍,对于产品缺陷的无过错责任事宜。依据《产品责任法》第 41 条,若产品存在缺陷并导致人身以及缺陷产品以外的其他财产受损,那么生产者需承担赔偿责任。生产者有责任对因设计上的缺陷或者制造过程中的瑕疵所引发的损害承担无过错责任。这表明,即便生产者在制造过程中不存在过错,也必须对由此引发的损害进行赔偿。

此外,依据《民法典》第 1203 条,若产品存在缺陷并造成损害,被侵权人既可以向产品的生产者请求赔偿,也可以向产品的销售者请求赔偿。倘若医疗机构未履行其合理使用的义务,像未能定期对设备进行维护等情况,那么在出现损害时,医疗机构或许需要依据其过错的程度来承担补充赔偿责任。

目前来看,因为人工智能辅助医疗有辅助定位的作用,这就表明其背后的人机关系一直是由医务人员来主导的。也就是说,现有的医患关系结构不会发生改变,医疗机构依旧是承担损害赔偿责任的主体,而医务人员会继续代表医疗机构去具体对患者承担注意义务。郑飞表示。

本文采摘于网络,不代表本站立场,转载联系作者并注明出处:http://mjgaz.cn/fenxiang/275638.html

联系我们

在线咨询:点击这里给我发消息

微信号:13588888888

工作日:9:30-18:30,节假日休息