切换到宽版
  • 114阅读
  • 2回复

[智能应用]张文宏:反对将AI系统性地引入医院日常诊疗流程,恐影响年轻医生鉴别诊断正误能力 [1P] [复制链接]

上一主题 下一主题
在线huozm32831

UID: 329002

精华: 1097
职务: 超级斑竹
级别: 玉清道君
 

发帖
117892
金币
2567
道行
19524
原创
29600
奖券
18354
斑龄
204
道券
10565
获奖
0
座驾
 设备
EOS—7D
 摄影级
专家级认证
在线时间: 25570(小时)
注册时间: 2007-11-29
最后登录: 2026-01-24
— 本帖被 兵马大元帅 执行提前操作(2026-01-22) —

据深圳卫视《科创最前沿》消息,1月10日于香港举行的高山书院十周年论坛上,国家传染病医学中心(上海)主任张文宏教授就AI在医疗领域的应用分享了见解。他明确反对将其系统性地引入医院的日常诊疗流程。

据界面新闻报道,张文宏在分享中明确表示,反对将AI系统地引入医院日常诊疗流程。他以自身使用AI的经验为例,说明他通常让AI先对病例进行初步分析,之后再凭借专业经验快速识别并纠正其中的错误。
张文宏指出,真正的隐患在于,如果一名医生从实习阶段就依赖AI直接得出结论,而没有经过完整的临床思维训练,未来将难以具备鉴别AI诊断正误的能力。
张文宏强调,年轻医生必须通过系统性的训练,才能掌握两大关键能力:一是判断AI诊断的准确性,二是诊治AI无法应对的复杂疑难病症。他认为,这是技术便捷背后不可或缺的专业根基。
当然,张文宏也不是完全否定AI在医疗领域的作用。他觉得AI可以在一些辅助性的工作上发挥作用,比如帮助医生快速查找相关的医学文献、提供一些参考的治疗方案等。
1条评分金币+15
兵马大元帅 金币 +15 优秀文章,支持!n神马都是浮云 01-18
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
  




    
在线jjybzxw

UID: 551814


发帖
221431
金币
689149
道行
2006
原创
2450
奖券
3340
斑龄
42
道券
1233
获奖
0
座驾
设备
摄影级
在线时间: 48078(小时)
注册时间: 2008-10-01
最后登录: 2026-01-25
只看该作者 沙发  发表于: 01-18
张文宏谈AI医疗应用:反对系统引入诊疗流程,强调“人机协同”需守住专业底线  
——年轻医生临床思维训练不可替代,AI应定位为“辅助工具”而非“决策主体”  
一、核心观点:AI可辅助,但不可替代医生临床决策  
1. 反对系统性引入诊疗流程  
场景:1月10日香港高山书院十周年论坛上,国家传染病医学中心主任张文宏明确表示,反对将AI作为“标准配置”直接参与医院日常诊断。  
依据:他以自身使用AI的经验为例,指出AI分析病例后仍需医生凭借专业经验“纠错”,否则可能因数据偏差或算法局限导致误诊。  

2. 担忧核心:年轻医生能力退化  
临床思维断层:若医生从实习阶段就依赖AI结论,将缺乏对症状、病史、检查结果的独立分析训练,未来难以鉴别AI诊断的对错。  
复杂病例失能:AI擅长处理标准化问题,但面对罕见病、多器官并发症等复杂场景时,医生若未经过系统训练,将丧失独立诊治能力。  
二、张文宏的“人机协同”边界论  
1. AI的合理角色:辅助而非主导  
信息检索:快速查找医学文献、指南、药物相互作用等,节省医生时间。  
方案参考:基于大数据提供治疗建议(如用药剂量、手术方案),但需医生结合患者个体情况调整。  
流程优化:自动化处理病历录入、预约安排等行政工作,让医生专注核心诊疗。  

2. 医生的“不可替代性”  
专业纠错能力:AI可能因训练数据偏差(如种族、地域差异)或算法黑箱产生错误,需医生凭借经验识别。  
伦理决策权:在临终关怀、资源分配等场景中,医生需综合医学、伦理、社会因素做出判断,AI无法承担。  
复杂问题解决:如新冠疫情中,张文宏团队需结合流行病学、病毒学、临床数据制定诊疗方案,远超AI当前能力范围。  
三、行业争议:AI医疗是“颠覆”还是“赋能”?  
1. 支持派:AI将重塑医疗生态  
效率提升:IBM Watson Health曾宣称可在数秒内分析海量文献,辅助癌症诊断。  
基层赋能:AI可弥补偏远地区医生资源不足,如腾讯觅影辅助基层医生筛查食管癌。  
成本降低:麦肯锡报告预测,AI每年可为全球医疗行业节省超3600亿美元。  

2. 反对派:警惕“技术至上”陷阱  
数据偏见:2020年《科学》杂志研究显示,某AI皮肤癌诊断工具对深色皮肤人群准确率低30%。  
责任模糊:若AI误诊导致医疗事故,责任归属(开发者、医院、医生)尚无明确法律界定。  
过度依赖:英国《柳叶刀》曾报道,部分医生因过度依赖AI辅助诊断,导致自身临床技能退化。  

3. 中间路线:张文宏的“平衡论”  
阶段定位:当前AI应作为“第二意见”工具,而非直接决策系统。  
教育改革:医学院需加强“AI素养”课程,培养医生与AI协作的能力,而非被AI替代。  
监管框架:建立AI医疗产品的审批标准(如FDA的“数字健康预认证计划”),确保安全可控。  
四、未来展望:AI医疗的“进化方向”  
1. 技术突破点  
多模态融合:结合影像、基因、可穿戴设备数据,提升诊断全面性。  
可解释性AI:开发能解释决策逻辑的算法(如LIME、SHAP),增强医生信任。  
联邦学习:在不共享原始数据前提下,实现跨医院模型训练,保护患者隐私。  

2. 应用场景拓展  
预防医学:通过分析人口健康数据,预测疾病爆发趋势(如流感、新冠变异株)。  
慢性病管理:AI助手可实时监测糖尿病患者血糖,调整用药方案。  
药物研发:AlphaFold预测蛋白质结构已加速新药开发进程。  

3. 张文宏的终极判断  
短期(5年内):AI将主要承担辅助角色,医生需保持“最终决策权”。  
长期(20年以上):若脑机接口等技术突破,AI可能参与更复杂的认知任务,但医生仍需主导伦理与人文关怀。  

结语:  
张文宏的警告,本质是对“技术狂欢”的理性刹车。在AI医疗浪潮中,守住医生的临床思维训练底线,不仅是保护患者安全,更是维护医学作为“人学”的本质——当机器能处理数据时,医生的价值将更体现在对生命的共情、对复杂的敬畏、对不确定性的担当。  

(数据来源:深圳卫视《科创最前沿》、界面新闻、《科学》《柳叶刀》期刊报道)  
技术可以辅助医生,但无法替代医生成为“人”的守护者。

如何不发帖就快速得到金币道行
 
在线姜谷粉丝

UID: 1569053

精华: 2
级别: 玉清道君

发帖
168994
金币
505989
道行
20030
原创
768
奖券
359
斑龄
0
道券
30
获奖
0
座驾
设备
摄影级
在线时间: 20869(小时)
注册时间: 2012-06-21
最后登录: 2026-01-24
只看该作者 板凳  发表于: 01-19
张文宏医生明确反对将AI系统性地引入医院日常诊疗流程的核心原因在于:

⚠️ 一、担忧年轻医生临床能力退化
诊断思维训练缺失
张文宏指出,若医生从实习阶段就依赖AI直接生成诊断结论,将失去完整临床思维训练的机会。这种能力无法通过AI替代,需通过长期实践积累(如病例分析、病情推理等)。
丧失AI鉴别能力
当医生未建立独立诊断框架时,无法判断AI结论的正误。例如,AI可能因数据局限产生错误诊断(如罕见病症误判),缺乏专业经验的医生难以识别风险。
🧠 二、强调医生需掌握的核心能力
双重专业根基
判断AI准确性:能复核AI诊断的逻辑漏洞;
处理复杂疑难病例:AI无法应对非标准化病症(如多系统交叉疾病)。
经验不可替代性
张文宏以自身为例:"我让AI先分析病例,但一眼就能看出错误",这源于数十年临床积累的直觉与知识库。
⚖️ 三、AI的合理定位:辅助工具而非决策主体
适用场景
文献检索与数据分析(如快速调取最新治疗方案);
提供参考性建议(如药物相互作用提醒)。
禁区
严禁替代医生做最终诊断,尤其涉及患者安全的核心环节(如处方生成、手术方案)。
💎 核心结论
张文宏的反对本质是守护医疗本质:AI应解放医生的重复劳动,而非替代医生的专业判断。年轻医生需在扎实的临床训练中成长为"能驾驭AI的决策者",而非"依赖AI的操作员"。这一观点反映了医学教育中人文关怀与专业能力并重的不可妥协性。
如何不发帖就快速得到金币道行
 
我有我可以
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个