首页 排行榜文章正文

千亿市场催生 AI 医生,专家分身效率倍增,安全标准是核心

排行榜 2025年09月23日 21:38 3 cc

随着时代发展,“专家智能体”悄然成为医疗领域的创新焦点。

但在医疗这条命悬一线的赛道上,技术不能光靠炫,它得真正靠得住,能救人。现在,“专家智能体”这股热潮正席卷全国,看起来像是医学界的一场革命。但从技术到临床,AI医生真的值得信任么?

今年前四月,国内医疗AI圈迎来了一波“小高潮”——全国新发布的医疗大模型数量超过100个,远超2024年全年的94个、2023年全年的61个。

千亿市场催生 AI 医生,专家分身效率倍增,安全标准是核心

各大企业、三甲医院、互联网医疗平台纷纷入场。“专家智能体”成了兵家必争的技术高地。

所谓“专家智能体”,说白了就是用大模型技术,把专家的经验、语料、诊疗逻辑“复制”出来,变成一个可以辅助诊断的数字“分身”。

这样一来,不管是在偏远地区的小诊所,还是在资源紧张的三甲医院,普通患者都有可能“见”到顶级专家的分身。

听起来很美,但问题也不少。

“我们现在比的是谁的模型考试分数高,回答速度快,但医疗不是竞赛。”医联/未来医生创始人王仕锐在接受《第一财经》采访时说出了一句实话。

千亿市场催生 AI 医生,专家分身效率倍增,安全标准是核心

如今国内医疗大模型的推理能力突飞猛进,能理解指南、分析病例、提出建议。但真正的问题不是它懂不懂书本,而是它能不能像医生一样“看懂”一个具体的人。

医生看病,靠的不只是书本知识,还有经验、直觉和责任。而AI医生,尤其是“专家智能体”,一旦出错,就不只是输在分数上,而是可能害人命。

此前一篇发表在《新英格兰医学杂志》子刊的研究引发关注。斯坦福和麻省理工的研究人员发现,让非专业用户来判断AI和医生的回答,很多人反而更信AI,认为它说得“全、准、专业”。

这就是AI的“幻觉问题”。

不仅用户分不清,AI自己也可能一本正经地说错话,而且你还不知道它为啥错。这种“黑箱式”推理方式,让医生和患者都难以放心。

千亿市场催生 AI 医生,专家分身效率倍增,安全标准是核心

行业里有个说法:“AI医生说错了话,责任还在医生。”所以很多专家宁愿多花时间,也不愿完全依赖AI。

很多人以为训练一个专家智能体,就是“喂数据”。但实际上,专家的经验不是数据堆出来的,而是临床一线打磨出来的。目前不少模型的训练方式还很原始,有的甚至是拿着录音笔记录专家问诊。

王仕锐说,他们的做法是让专家像带学生一样训练AI,每天从真实病例中总结经验,反哺到模型中。这个过程又慢又“贵”,需要专家深度参与、不断复盘。

但问题是专家就那么多,他们愿意“签字背书”的平台能有几个?

在临床中,像皮肤科、影像科这种需要“看图说话”的环节,AI还经常出错。一个像素、一个色温不对,就可能误判病情。

所以,“未来医生”团队就定了个规矩:凡是涉及影像判断的病例,最后一步必须由医生亲眼核对。

千亿市场催生 AI 医生,专家分身效率倍增,安全标准是核心

这说明,AI能做的,是帮医生节省时间、分流患者、整理病史;但真正的诊断,不能也不该完全交给AI。

医疗AI不是走得快就是好,它得走得稳、走得明白,走得让人放心。现在的“专家智能体”可以提升效率、优化流程、扩大服务边界,但它必须建立在安全、透明、可追溯的技术基础上。

王仕锐说得直白:“我们每天还是有1到2个病例,需要专家亲自答复。”真正的进步,是让AI成为“第二双手”,而不是“唯一的大脑”。

发表评论

vv号 网站地图 Copyright © 2013-2024 vv号. All Rights Reserved.