切换到宽版
  • 597阅读
  • 0回复

[智能应用]医疗人工智能的四个法律问题 [复制链接]

上一主题 下一主题
在线huozm32831

UID: 329002

精华: 1097
职务: 超级斑竹
级别: 玉清道君
 

发帖
106178
金币
2389
道行
19523
原创
29307
奖券
17275
斑龄
190
道券
10126
获奖
0
座驾
 设备
EOS—7D
 摄影级
专家级认证
在线时间: 20023(小时)
注册时间: 2007-11-29
最后登录: 2024-11-24
只看楼主 倒序阅读 使用道具 楼主  发表于: 2022-01-14
— 本帖被 兵马大元帅 执行锁定操作(2024-04-22) —
           国家卫生健康委员会医院管理研究所、《中国数字医学》杂志社、社会科学文献出版社日前共同发布了《人工智能蓝皮书:中国医疗人工智能发展报告(2020)》(以下简称蓝皮书)。蓝皮书指出,医疗人工智能面临的法律问题,其核心或者出发点是对大数据与核心算法的规制,因为大数据与核心算法是医疗人工智能的灵魂与表现形式。另外,还要确立规制医疗人工智能的基本原则,明确医疗人工智能的知识产权问题。

01

“机器人是人吗?”

医疗人工智能的法律人格问题可以分为两个层面:是否必须确定医疗人工智能法律人格的问题及如何确立医疗人工智能的法律人格问题。人工智能通过深度学习,逐渐呈现出一些“自主性”的特征。“机器人是人吗?”这个问题变得越来越重要。因为人工智能的民事主体身份的确认是明确其法律行为、法律责任、归责原则等问题的基础。在传统的民法体系中,民事主体有自然人、法人、非法人组织、国家与国际组织。深度学习的强人工智能机器人是否可以被赋予有限的民事能力,是否能以“机器人”的名义位列民事主体是一个重大的法律问题。

02

“机器人”手术有相关法规吗?

法律是以国家名义颁布的、以权利义务为内容的、以国家强制力保证实施的主体的行为规范。无论是设定医疗人工智能的民事主体身份,还是把医疗人工智能当作医生的医疗辅助手段,都必须有相关的法律文件对医疗人工智能的诊疗行为进行规制。关于机器人手术的相关法规,2012年国家卫计委印发了《机器人手术系统辅助实施心脏手术技术规范(2012年版)》和《机器人手术系统辅助实施心脏手术技术培训管理规范(2012年版)》。实际上,手术机器人不仅做心脏手术,还会做脑部、胸部、腹部、四肢等多部位手术,因而,相关法律法规的设立还在摸索阶段,而国际公认的手术机器人标准也尚未形成。

03

机器人手术引发的医疗事故,责任如何划分?

医疗人工智能导致的医疗损害要从两个层面进行责任认定:法律责任的归责原则及法律责任的承担方式。医疗人工智能有可能因硬件故障、程序漏洞、深度学习后的自主性等引发医疗事故。2015年英国首例“达·芬奇”手术机器人心瓣修复手术中,机械手臂乱动打到医生的手,还把病人心脏放错位置,戳穿了患者的大动脉。我国侵权责任法规定:“责任医师或医疗机构对患者在医疗服务中所受的损害有过错的,医疗机构应承担赔偿责任。医疗器械产品缺陷导致的医疗损害,由医疗机构和生产者承担连带赔偿责任,适用无过错责任原则。”侵权责任法考虑到了由医疗器械导致的损害的责任承担问题,但在由具有自主性、独立性和拟人性的医疗人工智能导致的医疗损害的案件中,谁是责任主体、应用什么归责原则,却是一个新问题。

04

医疗人工智能深度学习后的风险如何防范?

隐私风险:患者个人的医疗数据如个人基本信息包括姓名、年龄、性别、住所、籍贯、工作单位、联系方式等,还包括身体指标、既往病史、诊疗记录、生物基因信息等,这些信息如何收集、储存、使用等都是重要的法律问题。

数据安全:医疗人工智能的深度学习需要收集并分析海量的数据资源,而这些数据资源关系到国计民生,甚至国家战略决策,一旦泄露后果不堪设想。如2015年我国深圳某基因科技服务有限公司某医院与英国牛津大学开展合作研究。中国公司把人类遗传资源信息通过网络传递到国外,且没有经过相关部门的批准与许可,收到了科技部的行政处罚书。2016年,英国伦敦皇家自由医院为了研究肾脏医疗新方法,将约160万名患者的相关信息交给“深度思维”公司。因侵犯患者隐私及患者知情同意权,“深度思维”公司数据来源的合法性和正当性受到质疑,皇家自由医院也因传递患者信息这一行为被英国信息委员会要求整改。如何利用好大数据以供人工智能深度学习,同时保护好大数据安全也是一个亟待解决的法律问题。

医疗人工智能深度学习后的“自主性”导致的风险:上海交通大学教授江晓原认为人工智能的发展会对人类造成远期、中期、近期三大威胁。“近期威胁是大规模失业与人工智能的军事化应用;中期威胁是人工智能的失控与反叛;远期威胁是至善全能的人工智能消解人类的生存意义。”人工智能通过大数据的喂养与“自主性”地深度学习,成为各个领域的实际控制者。民众不知不觉地被无形的、强大的算法技术管控与统治。如被算法控制的打车平台、自动驾驶与导航系统、银行对个人或者企业的信任风险评估体系、互联网的广告分发系统、媒体软件的内容推送系统、股票与基金模型等,其中一些具有偏见与歧视的算法被数据科学家称为“数学毁灭武器”。如何防范人工智能深度学习后的“自主性”导致的风险也是个极其重要的法律问题。

伦理风险:人工智能有可能因为设计者的偏见与歧视,或者经过深度学习后习得了偏见与歧视,这种有意或无意的偏见与歧视会对某些特定群体不利。要防止技术的滥用和异化,避免歧视与偏见,避免损害生命体的尊严。在真实世界中,昂贵的医疗人工智能诊疗新技术的应用有可能侵犯贫困患者平等的生命健康权利;优生优育计算软件有可能剥夺某些缺陷胎儿的生存权利等。当然还有战争机器人的伦理问题等。
山庄提示: 道行不够,道券不够?---☆点此充值☆