1、 1 05全体大会 2 圆桌论坛:AI 精度与隐私的博弈转载自:AI 科技评论AI 时代,大众是不是真的就没有隐私了呢?以联邦学习为代表的新兴 AI 技术,能否实现 AI 协作,提升模型精度的同时实现数据隐私的保护。那么中国如何抢占人工智能安全发展的制高点?下一个 10 年中人工智能又将何去何从?就上述话题,在第二届北京智源大会上,AI Time 联合北京智源研究院,邀请了张钹院士、高文院士、杨强教授、唐杰教授、刘知远副教授进行了第 15 期论道,共同探讨“AI 精度与隐私的博弈”。在具体讨论过程中,采用了唐杰、刘知远发问,张钹、高文、杨强回答的形式进行。在论坛中,几位嘉宾提到,国外以“欧盟的
2、 GDPR”为代表的相关法律法规以及国内的相关法律规定都取得了长足进展,隐私计算技术也出现了三大主流门派:譬如说安全多方计算少林派;安全可信计算环境方式华山派;联邦计算武当派。另外,几位嘉宾还就提升模型精度是否一定意味着牺牲隐私保护?如何让更多人参与到技术创新中来,是开源还是激励机制?下一代 AI 技术应该具备哪些特点?我们如何抢占制高点?人与 AI 如何更好地协作,创造更大的价值?等等这些问题进行了讨论。以下是演讲全文,AI 科技评论做了不改变愿意的整理。一、隐私保护是否阻碍了人工智能的发展唐杰:提升模型精度是否一定要牺牲隐私保护?重视隐私保护是否阻碍了人工智能的发展,对 AI 的应用和用户
3、隐私的数据安全的担忧,是杞人忧天还是未雨绸缪,如何处理好 AI 的技术,如何提高模型的精度的同时,能够实现智能与精度以及隐私的同时保护?张钹:今天讨论的问题是人工智能和隐私保护的关系,实际上涉及到技术和隐私保护的关系。隐私保护的原定义是:有关个人或者团体的隐私,在本人或者团体没有允许情况下,不能随便的收集、传播和利用。但是随着技术的变化,隐私被破坏的可能性越来越大。例如,有了照相技术,就有肖像权的问题。所以,按照上述隐私保护定义,照片不能随便获取,也不能随便传播,更不能随便使用。有了网络以后,此问题就变得非常突出,照片在网络上到处都有,隐私保护也遇到了新挑战。所以,技术确实带来了新的隐私保护的
4、问题。如何解决?主要有两个方面思路:一方面是隐私如何不被误用和滥用,这属于人工智能的治理问题。第二个方面是如何利用技术的手段来保护个人隐私或者团体的隐私,包括数据的安全等等。3 高文:隐私保护和技术本身的发展关联性很强。如果隐私保护不出问题,也许不需要太多的技术关注,如果隐私保护不好,可能就需要技术上多想一些办法提供保护。隐私保护是一个社会学范畴的问题。例如,家庭成员之间的 90%的隐私是“互通”的;扩大一圈,亲属之间,可能是 80%的隐私“互通”,再扩大一圈,例如同学关系,长期生活工作在一起的同事,可能掌握你 50%左右的隐私。随着圈子的扩大,隐私共享的可能性越来越低。所以,在社会中“隐私”
5、是一个相对的概念。扩展到人工智能相关的隐私,例如人脸识别,大家之所以这么敏感,是因为在法律方面,相关“规则”不配套。所以,如何做好隐私保护,一方面尽可能从技术方面做一些贡献,同时完善相关法律法规。杨强:隐私的问题一直是人工智能的短板,尤其深度学习模型的训练离不开大数据的支撑,大数据的获得的方法通常有两个方式,一是互联网购买,二是聚合不同的数据源,这两种方式或多或少会侵犯用户隐私。随着深度学习的精度、数据量的增加,隐私的受威胁程度也在增加,相应的一些法律法规也在出台,例如欧洲的 GDPR。那么隐私保护法规是否会阻碍人工智能的发展?在 2018 年时,我问了瑞典的工业部长这个问题。他的回答到:“人
6、类的技术进步是螺旋性的,我们今天在欧洲提出了非常严格的隐私保护法,也促使人工智能技术公司都遵照法律创造下一代的保护隐私的技术,这也是我们击败美国对应公司的一个办法,毕竟,美国这方面没有欧洲严格。”瑞典工业部长这番话给我们的启示是,隐私保护法确实为人工智能和大数据规定了很多限制,但同时也激励我们发展下一代的既能保护隐私又能够提高技术的方法。除了联邦学习,还有多方安全计算、差分隐私等等技术正在探索的路上。二、联邦学习等技术如何实现突围刘知远:针对数据隐私愈演愈烈的趋势,我们接下来的技术突围之道是什么?以联邦学习为代表的 AI 新技术,它能否解决大数据 AI 协作与数据隐私保护之间的矛盾?这些技术的