直接共享数据,隐私就得不到保护;如若个人产生的数据不对外共享,就不能带来经济价值。科技部高技术研究发展中心研究员嵇智源认为,寻找隐私保护、政府监管、商业诉求的平衡点尤为重要。中国工程院院士潘云鹤和同盾科技合伙人、人工智能研究院院长李晓林等均提出,运用知识联邦技术有望在数据安全方面取得突破。
谈数据安全:知识联邦实现数据可用不可见
科技部高技术研究发展中心研究员嵇智源表示,寻找人工智能时代隐私保护、政府监管、商业诉求的平衡点,已经成为产学研各界迫切需要解决的问题。在此背景下,“可信AI”的理念逐渐成为全球共识,也成为未来人工智能产业健康发展的必由之路。可信AI,就是确保AI公平性、可解释性、健壮性和透明性,确保算法可被人信任。
在可信AI的实现中,数据安全尤为重要,其中一个重要趋势是数据可用不可见。“可用”,即数据可以发挥它的经济价值,“不可见”,即个人数据隐私不会被泄露。
中国科学院院士、中科院医学所所长谭蔚泓从医疗领域出发,认为智慧医疗在未来大有作为,但生命科学涉及个人的方方面面,如何保障个人隐私和数据安全,是一个刚需。打造可信的智慧医疗,要实现数据可用不可见,知识共创可共享。
同盾科技合伙人、人工智能研究院院长李晓林认为,数据已经被列为一种新型生产要素,成为驱动技术革命和重新定义人类社会未来的新动力。近年来,数据安全相关法律法规也越来越完善。作为新型生产力的人工智能,迫切呼唤新型生产关系的支撑。
他提出的解决思路是知识联邦技术。所谓知识联邦,就是运用人工智能、大数据、密码学等领域技术,将散落在不同机构或个人的数据联合起来转换成有价值的知识,同时在联合过程中采用安全协议来保护数据隐私。李晓林介绍,知识联邦通过将数据转化成信息、模型、认知和知识,满足了数据不可见;此外,在数据交换层面,该框架通过安全的数据交换协议来使用数据,在不改变数据所有权的情况下,实现数据价值。
中国工程院院士潘云鹤认为,处理大数据和处理多重知识,形成了AI发展的两类核心技术。作为一项我国原创、自主可控的技术,知识联邦有望成为推动大数据智能突破发展的一个重要环节。
平安集团首席科学家肖京也肯定了联邦学习技术在数据安全方面的作用。他介绍,分布在不同机构的数据,很多时候需要跨机构使用来发挥价值。以前的常用方法是把数据直接拷贝到大的数据平台上面,这个方法在风险控制、风险管理和服务领域产生了很好的作用,但是对隐私保护的能力非常差。
他指出,隐私计算、联邦学习技术可以使数据交换的过程变得安全。例如,银行为中小企业做贷款业务时,需要政府的税收经营分析数据,但是政府数据不能直接给银行使用,所以银行跟政府之间可以通过联邦计算平台,有效利用信息,但是不会泄露数据,不会有合规的风险。
谈决策可信:正逼近可信AI,“与其恐慌不如拥抱”
除数据安全外,专家们还提出了可信人工智能面临可解释性差、算法偏差等挑战。在未来,可信的人工智能到底能否实现?
李晓林认为,在2040年,这些问题都可以被解决。“2040年,生活就是工作,AI把人们生活产生的数据利用起来,产生更好的东西。数据无所不在,并且可以以安全的方式获得。到那时,你想要做什么,都可以按照你的兴趣来。”
哈尔滨工业大学(深圳)人工智能研究院院长刘劼有不同观点。在他看来,在人工智能领域,可信、分离、高效三者不可能同时兼得。他举例,区块链是分布式技术,但非常低效。如果数据集中处理,可信又高效,但集中式的系统很难分离。在他看来,可信AI的理想状态或许不能实现,一定要在三者之间进行折中,需要做一些牺牲。目前来看,需要在达到可信和分离的前提下尽可能提升效率,这是一个重要的研究课题。
龙盈智达(北京)科技有限公司首席数据科学家王彦博也认为,最完美的可信AI我们永远达不到,但是我们的标准不断在提升,可以渐渐逼近可信AI。
几位专家都表达了对AI的乐观。刘劼表示,在一些疾病的诊断领域,AI的准确率已经超过了医生,但是大家对使用AI诊断还是不太接受。他认为,今后在AI决策方面,可以采用AI承诺书的方式,让人们自己选择。“比如,从概率的角度来说,一个医生的准确率是80%,另外一个机器的准确率是95%。你写一个承诺书,承诺说接受AI检测有5%的出错可能。大家迎接可信AI挑战的同时,要接纳这个东西。”他说。
中国科学技术大学计算机学院副院长张燕咏同样肯定了AI在很多领域比人做得更好。比如,在汽车领域,无人车比驾驶员更安全。因为每个驾驶员不可控的因素太多,无人车是标准化的,可以根据问题不断提高进化,机器不会喝酒,不会疲劳驾驶,也不会看手机,所以比驾驶员开车更安全。她认为,即使AI比人操作更安全,人们也还是对AI缺乏信任,一个很重要的原因在于人机交互的方式。例如,人类走在拥挤的街上,互相推一下是很正常的,但如果被机器人推一下,人们会觉得有威胁。人机互动的研究对于信任是很重要的。