大数据时代,每个人都与“数据”息息相关。今天,人工智能在大数据的基础上赋能百业,打造了数字经济的新引擎,推进人类文明迈上新台阶。虽然公众对人工智能接受程度越来越高,但其应用中存在的风险问题,让全社会迫切地需要AI技术更加“可靠”。
如何更好地让AI技术为人所用?如何如何让数据在安全环境下被合理地开发和利用?12月14日,京东探索研究院的算法科学家何凤翔,中国信息通信研究院华东分院人工智能与大数据事业部主任陈俊琰,华控清交信息科技(北京)有限公司标准负责人、战略总监王云河在“谈云说AI”技术产业沙龙首季第一期的现场,深度探讨了“如何平衡好AI技术的可信与可用”,为可信AI的发展出谋划策。
可信AI的两大瓶颈:算法安全和数据保护
在专家看来,无论是目前常见的个性化推送、个人信息诱导上传还是未来有望大规模应用的自动驾驶、智能诊疗,这些人工智能应用的背后都涉及到“算法安全”这个核心问题。
当下,机器学习模型大多仍然是“黑盒模型”,简单地解释就是,很多时候可以拿来用,但具体原理并不十分清楚,即缺乏足够的“可解释性”。
何凤翔认为,如果我们不太了解算法背后的机制,就很难预测人工智能的风险从哪里来、风险机制怎么样、尺度如何。“我们不太能管理风险,这样AI算法就很难被用在关键领域中,包括医疗诊断、自动驾驶这种人命关天的行业。所以打破AI技术现今固有的黑盒模式,算法方面的突破是关键。我们需要深刻理解算法,然后在此基础上设计出可以被信赖的算法,才能够更好应对应用风险。”
王云河则表示,算法模型的训练和优化,离不开可追溯的数据。数据通过流通共享与协同计算,能更好地释放其价值。但隐私保护、数据合规等监管要求,让数据拥有方陷入“不愿共享、不敢共享、不能共享”的困境,而“多方安全计算”或许有可能成为解决数据获取和应用困境的突破口,即在保护数据本身不对外泄露的前提下,实现数据分析计算的一类技术集合,具备“可用不可见,可控可计量”的特点。
“可用不可见,是指在相关法律要求下,数据对使用者是不可见的,以确保对用户的安全性;可控可计量,是在不能明文的基础上,建立多方信任机制。参与进来的机构、个人,身份要统一管理,要对数据和模型合规性进行审核,再让多方对此达成一致执行,也就是计算合约,以控制计算用量。”
在实现数据的保护性利用后,进一步解决的是数据溯源问题。王云河认为,在计算的过程中加上存证、区块链技术等,有助于在发现模型造成了一些社会的恶劣影响时,找到记录和数据源头。“用这项技术解决模型有没有问题,数据是不是合法,数据有没有被“投毒”等隐患,帮助AI 打造安全底座。”。
打造可信AI的生态空间 需要标准先行
面对AI的信任危机问题,各界始终在探寻解决之道。陈俊琰分享了近年来国际上可信AI的相关政策或者是标准落地情况。
国际上主要是以指南及法案的形式对人工智能的可信度进行规范,例如2018年《可信人工智能伦理指南草案》的发布、2019年《可信赖人工智能道德准则》、2021年的《欧盟人工智能法案》等。也有在标准制定上的探索,构建人工智能管理框架,对可信AI进行监管,以提升信赖度。例如今年发布的《关于识别和管理人工智能歧视的标准提案》、《人工智能风险管理框架》等。
“宏观来看,国外的可信AI做到了法规和标准先行,但也存在不够灵活,容易产生‘一刀切’的问题。”陈俊琰表示。
相比之下,我国在可信AI建设方面,正在从政策、生态、法律、标准制定等方面综合发力。《国家新一代人工智能标准体系建设指南》、《促进可信人工智能发展倡议》等文件的出台,除了监管部门的通力合作,信通院、京东为代表的企业界、人工智能产业发展联盟、人工智能治理与可信委员会等,都在努力推进行业倡议、标准研制等。
何凤翔介绍,在可信AI的技术攻关和标准研制方面,京东探索研究院和信通院白皮书的思路一脉相承,从四个方面做可信AI方面的研究,即稳定性、可解释性、隐私保护、公平性。他表示:“我们从基础理论出发来研究最前沿的问题,从这些理论问题、理论结果出发,设计新的可被信赖的全新AI算法,再尝试把这些AI算法应用到产品中去,完成技术的最终落地。”
沙龙现场,专家一致认为,人工智能需要在技术和标准的共同努力下演进。相比之下,标准是“1”,而技术是后面的“0”,不可本末倒置。
“未来,我们需要进一步加强人工智能法制和标准体系的建设。需要类似信通院、京东等产业界、企业界的力量参与开展可信AI的评测工作,形成比较完善的可信AI的评测体系。同时,可信AI的人工智能生态打造,不仅不会限制我们人工智能的发展,反而有利于供给侧和需求侧的互相信任。”陈俊琰说。