“生病了问AI”,出错了怎么办? AI医疗现状调查

分享到:
链接已复制

LANGUAGES

新闻

新闻直播 要闻 国际 军事 政协 政务 图片 视频

财经

财经 金融 证券 汽车 科技 消费 能源 地产 农业

观点

观点 理论 智库 中国3分钟 中国访谈 中国网评 中国关键词

文化

文化 文创 艺术 时尚 旅游 铁路 悦读 民藏 中医 中国瓷

国情

国情 助残 一带一路 海洋 草原 黄河 运河 湾区 联盟 心理 老年

首页> 中国发展门户网> 发展要闻>

“生病了问AI”,出错了怎么办? AI医疗现状调查

2025-04-01 09:19

来源:法治日报

分享到:
链接已复制
字体:

今年3月,一名“95后”新手家长面对孩子反复咳嗽发热的症状,在手机端用AI问诊判定孩子为“普通呼吸道感染”,并参考网络建议居家用药,致病情延误。最终,孩子被医院确诊为病毒感染肺炎。医生指出AI问诊存在一定风险,应以专业医疗意见为准。

此事引发网络热议。AI癌症早筛、AI肺结核诊断、AI手术机器人、AI导诊机器人……近年来,AI技术已在门诊导诊、临床辅助诊断、疾病管理等环节广泛应用,尤其是今年年初DeepSeek的问世,更是掀起了一股“生病了问AI”的热潮。但也有不少人反映,AI医疗并没有想象中那么靠谱,看错病、看不出病的情况时有发生。

对于AI医疗,舆论场也涌现出更多的追问,比如:AI医疗是否会影响到医生的地位?如果AI诊断错误,谁来负责?如何保护普通人的医疗数据隐私?如何让AI医疗发展更快、应用更广?

AI医疗只是辅助手段

“AI医疗可以提升医疗服务的效率,已经在疾病预测、健康管理、影像识别等领域表现出色,能够为患者提供较为精准的医疗服务。”中国卫生法学会副会长郑雪倩向记者介绍,在基层或缺乏专家资源的边远贫困地区,可以通过AI进行初步筛查,并为医生提供提示或诊断参考,从而优化医疗资源分配、推动分级诊疗政策落地、提升基层医疗服务能力。

正因AI医疗彰显出诸多优势和巨大潜力,“AI会不会抢医生饭碗?”“AI医生看病爆火”“AI看病比三甲医院医生还准”……在最近关于AI医疗的网络讨论中,相关话题频繁出圈。“当DeepSeek给出了和主任医师一样的诊断,以后是否还有必要去医院?”近期,这样的疑问也出现在了医患对话中。

记者采访了多位一线医务工作者,他们均不反对患者使用“AI问诊”。但对“‘AI问诊’的结果是否靠谱”“能否作为诊疗依据”等问题,受访医生都抱着谨慎态度。他们普遍认为,“AI问诊”存在局限,只能作为一种辅助手段,并不能替代医生。

北京市某社区卫生服务中心的全科大夫周医生坦言,在基层医疗机构平日里遇到疑难杂症的情况不多,更多的是高血压、糖尿病、心脏病等慢性病的老年患者,AI在慢性病随访、慢性病管理上还缺少些“人情味儿”。

“以预问诊AI为例,有老年患者反映,他有几个晚上睡不好觉导致头疼、心慌,AI就有可能把所有有头疼症状的病都列给医生,其中绝大多数是无效信息。”周医生说,疾病的诊断是一个模糊决策,尤其是在社区这种基层医疗机构,看病的基本是“老熟人”,往往需要医生综合病史、症状等多种信息、根据经验缩小范围下诊断,AI目前在这方面还不够成熟。

“AI医疗是人工智能在医疗领域的应用,即通过大数据的分析学习,建模,来辅助或优化医生在看病治疗以及健康管理环节的一项技术应用。”在中国卫生法学会常务理事、北京市华卫律师事务所副主任邓利强看来,AI医疗通过机器的学习建模进行数据的分析,让AI反复学习的确可以帮助识别病症,但这种建模本身有数据库的问题,再加上无法把医生的诊疗经验揉到建模里,所以这种智能诊断不可能完全取代医生。

“AI问诊缺乏人文情感交流,AI开方无人审核,还可能出现误诊、误治和AI医疗的法律主体不明确等问题。因此,AI医疗应当始终定位于医生的辅助工具。”郑雪倩说。

持谨慎态度划定红线

随着AI医疗在全国逐步落地,一场医疗领域的巨大变革正在发生。仅今年2月以来,就有不少医院发布其最新应用成果。

比如,上海瑞金医院发布瑞智病理大模型,AI仅需数秒就能精准识别病理切片中的病灶区域;北京协和医院研发的“协和·太初”罕见病大模型已进入临床应用阶段;上海市肺科医院参与研发的肺部智能手术规划系统,将实际手术规划时间从数天缩短至2到5分钟……

虽然有多项成果问世,但对于AI医疗,不仅是医生,相关部门也保持谨慎态度。记者梳理公开资料发现,目前针对AI医疗已出台多项限制性措施:湖南省医保局发布通知,禁止使用AI自动生成处方,以维护医保基金安全和患者权益;北京禁用AI自动生成处方,并成立了互联网诊疗监管平台;国家卫健委和国家中医药局联合发布的《互联网诊疗监管细则(试行)》明确规定,人工智能不得替代医师本人提供诊疗服务……

“这些政策和规定表明,我国在AI医疗领域已经开始划定红线,以确保技术应用的安全性和伦理性。”郑雪倩说,医疗安全底线包括:处方红线,即AI不得自动生成处方,医生必须对诊疗行为负责;伦理红线,即AI应用需遵循医学伦理,确保患者隐私保护、数据安全和公平性;技术红线即AI技术需经过严格的临床验证,确保其在实际医疗环境中的有效性和安全性。

受访专家明确,即便有AI的辅助,医生仍是最后把关人,如果医生利用AI诊疗出现误诊、漏诊等医疗事故,最终还是由医生承担责任。

邓利强认为,由于AI医疗存在较多法律风险和合规挑战,这才让相关部门对AI医疗的态度如此谨慎。

“医疗数据涉及患者的个人隐私,哪些数据可以向研发AI医疗的企业开放并未有明确规定,而且直接针对医疗数据开放的法律法规尚未出台,无法对数据按照统一技术标准进行清洗处理;对AI误诊的责任界定和相应法律纠纷的处理办法同样存在争议;目前国内医疗数据共享不足且缺乏标准规范,制约着AI医疗产业的发展……”邓利强说,正因有诸多问题亟待解决,所以医疗保守绝不是落后,恰恰是对生命的负责。

应平衡创新加强监管

AI医疗,今后如何才能更好地发展?

邓利强说,应平衡AI医疗技术创新与合规监管关系。要强化全流程的资质审查机制,即针对AI医疗和AI处方各个环节的主体都必须有诊疗的资质,这是不能突破的底线。应强化企业的自律与诚信机制的建立,开发和使用AI医疗的企业都必须依法合规。需要明确AI医疗产品的注册、审批、使用和退出流程,并加强对算法透明度、公平性、隐私保护等关键维度的评估与监管。

郑雪倩建议,应建立伦理审查机制,确保AI技术在医疗领域的应用符合伦理道德要求。还要鼓励社会各界对AI医疗技术进行监督和评价,形成全社会共同参与的监管格局。加大处罚力度,提高违法成本,构建更有效的法律威慑体系。加大正向宣传引导,提高医生和患者对AI技术的接受度是实现技术普及的关键。

2025中关村论坛年会期间,AI医疗成为与会专家热议话题。与会专家建议,加强监管与伦理指导,制定严格的数据安全和隐私保护政策,设立医疗AI伦理委员会。同时,提高模型透明度,发展可解释AI技术,使大语言模型在医疗决策时能够提供推理过程。例如在肿瘤诊断中,AI需指出影像特征依据,而不是只给结论,还要设定合理的使用范围。大语言模型适用于医学教育、辅助决策和信息检索,但不应直接用于关键诊断或治疗决策,最终决策仍需由专业医生作出。

“医疗从业人员的确应该积极拥抱发达的技术,但技术对行业本身的冲击以及它是否能实现有温度的医疗,也是我们行业的引领者所需要思考的。我们期待的是,行业参与者冷静思考的心和职业情怀,可以让技术成为帮手,而不是让患者的医疗安全受到影响。”邓利强说。(记者 赵丽 实习生 陈颖)

【责任编辑:孔令瑶】
返回顶部