切换到宽版
  • 568阅读
  • 0回复

[数码讨论]人工智能伦理:有原则不等于能治理 [复制链接]

上一主题 下一主题
在线huozm32831

UID: 329002

精华: 1097
职务: 超级斑竹
级别: 玉清道君
 

发帖
106074
金币
986
道行
19523
原创
29307
奖券
17275
斑龄
190
道券
10126
获奖
0
座驾
 设备
EOS—7D
 摄影级
专家级认证
在线时间: 19970(小时)
注册时间: 2007-11-29
最后登录: 2024-11-16
只看楼主 倒序阅读 使用道具 楼主  发表于: 2022-06-04
— 本帖被 兵马大元帅 执行锁定操作(2024-05-26) —
过去一年,数据安全法与个人信息保护法先后生效,《互联网信息服务算法推荐管理规定》审议通过,使得保护隐私、防范算法乱用有了保障机制。

可是,这在人工智能伦理治理中并不是常态。

事实上,宏观层面的伦理原则与其在实际技术研发、应用中得到正确理解与合理实践之间,还存在巨大鸿沟。

如何将伦理原则落实到具体的制度与行动上,是当下人工智能伦理治理必须回答的一个关键性问题。

人工智能伦理难执行

近几年来,国际组织、各国政府、企业与学术团体等发布了形形色色的伦理原则、伦理指南与伦理准则,试图推进、规范与约束人工智能技术的研发与应用。

“这些伦理原则的核心内容大都是趋同的,比如透明、公正、不伤害、责任、隐私、有益、自主等。”上海交通大学马克思主义学院教授杜严勇解释道。

“关键在于如何保障伦理原则的实施。”他直言,“伦理原则本身无法直接落地,而我们没有一套将原则转译为实践的有效方法——原则无法与人工智能技术从研发到应用的每一个环节结合起来,同时也缺乏一套强有力的执行机制。当研发者的行为违背伦理原则时,几乎没有处罚与纠偏机制。”

中国科学院自动化研究所人工智能伦理与治理研究中心主任、国家新一代人工智能治理专业委员会委员曾毅的观察也是如此。

他告诉《中国科学报》,目前,人工智能的研发活动从技术本身出发,缺乏能满足实践的伦理审查机制与体系,国内外情况基本一致。

这使得潜在的伦理问题只有在应用中被用户和公众提出后,才引起相关方重视。

而在人工智能伦理研究的技术进展方面,曾毅提到,相较而言,隐私保护研究比其他议题落地更快。

比如,现在有针对隐私保护提出的联邦学习和差分隐私等研究及其实践。

这主要有赖于隐私保护的社会关注度更高,影响范围更广泛。

“但这并不意味着我们已经有了绝对的进展。绝大多数社会对人工智能隐私的关切尚未取得真正意义上的突破。”

曾毅举例,比如,用户隐私的知情同意方面,在人工智能模型上实现用户授权撤销就是极大的科学挑战,目前很多人工智能模型几乎无法实现这样的技术。

是什么阻碍了伦理行动

人工智能伦理原则难以落地有多方面因素。

一方面,曾毅认为,从管理者到人工智能学者,再到产业创新者和应用者,他们的伦理意识都亟待提升。

“目前,绝大多数人工智能科技研发和产业创新的中坚力量没有经过专门的人工智能伦理教育与培训,甚至相当一部分人工智能创新者、实践者认为,人工智能伦理不是科学研究和技术研发需要关注的问题,这使得他们在从事和人与社会相关的人工智能创新时,难以建立相对完善的防范机制,以应对可能存在的伦理风险。”

另一方面,正如东南大学哲学与科学系副主任、副教授张学义所谈到的,从事哲学特别是伦理学研究的学者对具体技术发展及其背后蕴含的原理知之甚少,往往从一般性伦理原则出发,对人工智能技术可能产生的伦理问题进行反思,其效果只能是“隔靴搔痒”,难中要害。

“即使是一般性的伦理学原理,在应用到具体经验性情境中时,不同理论、流派的观点也存在冲突与分歧。”

张学义说,比如无人驾驶汽车遭遇“电车难题”时,就面临着到底用何种算法 伦理进行抉择——是制造商预先为车主设置一个特定道德算法,还是将算法的设置权交付给车主?

目前,张学义正在基于现有的无人驾驶算法理论进行实验哲学研究,即将这些算法理论具化为实际的经验性情境,对普通大众进行直觉性调查,收集大众对该问题的经验性证据,从而对现有理论进行印证或修正。

但他也坦言,目前还没有同无人驾驶相关领域的科学家进行较为深入的互动交流。

“在国内,人工智能伦理研究领域的跨专业互动比较有限或者停留在浅层方面,突破专业的界限与视域,针对具体问题进行跨学科、多领域的协同创新研究还很少。科学家和人文学者之间存在着一定的割裂现象。”张学义表示。

如何从原则到行动

曾毅认为,人工智能领域首先要解决的问题是借鉴生命科学、医学相关领域的经验,建立人工智能伦理审查制度和体系,对涉及人类、动物、环境生态以及高风险领域的研发和应用进行适度监管。

杜严勇也谈到,人工智能治理的当务之急,是通过伦理原则与规范加强对人工智能技术的“前端”伦理治理。

他提出,为了使从事人工智能科技研发的科研人员承担起前瞻性的道德责任,应该在国家级、省部级等高层次科研项目中实施科技伦理审查制度,使之成为一项常态化工作机制。

同时,为了提高伦理介入的有效性,他还建议从国家级、省部级等高层次人工智能科研项目中提取3%左右的资金,在相关课题中设立伦理子课题,专门用于人工智能伦理协同治理研究,由科技伦理专家作为主要负责人。

“伦理学家的责任是对伦理原则的内涵进行详细阐释,把宏观的伦理原则在一定程度上转译为易于理解、具有可操作性的具体问题与工作流程,帮助人工智能科学家在更细致、更全面的知识基础上进行技术研发。”杜严勇强调。

“伦理学家不仅要告诉科研人员‘应该做什么’,还要协助研发人员解决‘应该如何做、避免什么’。这就要求伦理学家更多地关注科学家的具体工作和技术细节,避免自说自话。”

除此之外,曾毅告诉《中国科学报》,为使人工智能伦理从原则落实到行动,一定要把“多方共治”嵌入人工智能产品与服务的整个生命周期。

对于从事人工智能研发的科研机构和企业而言,应通过主动设置人工智能伦理委员会、人工智能伦理研究员,以及第三方提供的人工智能伦理服务等手段,建立和完善人工智能伦理自律自治机制,并开展实践。

产研机构需要在政府引导下进行标准制定,联合发布最佳实践报告,积极开源,开放人工智能伦理与治理算法、工具,从而促进人工智能伦理技术落地。

教研机构、学会和行业组织一方面应积极参与相关伦理规范的形成、制定与实践,另一方面积极推进人工智能伦理的教育与培训。

公众和媒体是人工智能产品与服务的用户,应积极发挥监督者的作用,为政府、产研机构和企业及时提供社会需求、关切与反馈。

政府及各级管理者、政策制定者在制定人工智能伦理与治理政策时,应根据人工智能的产研进展及社会反馈进行自适应,以推进人工智能伦理与治理公共服务为抓手,比如国家部委和国家级检测评估中心应协同产研机构提供伦理合规检测与认证,同时以监管为辅。
山庄提示: 道行不够,道券不够?---☆点此充值☆