微众银行 CAIO 杨强:人工智能下一步离不开人

2020 年 6 月 24 日北京智源大会上,微众银行 CAIO,兼香港科技大学讲席教授杨强做了题为《AI 的新三定律:隐私、安全和可解释性》的报告分享。
杨强教授在开场便引用了《机械公敌》作者阿西莫夫所撰写的三大机器人定律,分别为:
  • 第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管

  • 第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外

  • 第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存

他解释道,人工智能的下一步是离不开人的。以 Alpha Go 为例,人类工程师会为其进行 Debug,但它还是会下错棋、下臭棋。这就意味着必须要有人监管其结果,才能实现保证人工智能得出正确的结论。
杨强教授认为,AI 的模型和系统在设计的时候就没有把人考虑进来,进而生成了一个全自动的过程,包括后面发展出来的 Self-supervised Learning 和 AlphaGo Zero。他特意讲到 “这就并不是今天我们在工业和社会上大家所想看到的。”
根据这个结果,杨强教授认为既然人工智能诞生于数据中,那么在创造它的时候就应该启用新的三大定律。分别为人工智能需要保护人的隐私、人工智能需要保护模型的安全、人工智能需要人类伙伴的理解。这也就意味着,人工智能不能脱离人去发展,需要让人和人工智能形成协作关系。
受此启发,杨强教授团队也开始了联邦学习的尝试,为此还推出了一本同名的书 ——《联邦学习》。其主要思想是可以总结为数据可以保持在原地,但模型通过孤岛不同机构之间加密的情况下的沟通,这个模型就会成长起来,效果就是这个数据可以被使用,但是各方都看不见对方的数据。用剪短的话概括联邦学习:数据不动模型动,数据可用不可见。
杨强教授表示,这种做法听起来天方夜谭,不过在技术上还真的可以做到。他把模型比喻为养羊,过去是从各个草场里运草过来喂羊,这个过程就是数据聚合过程。然而由于数据会离开其本身所处的数据库,因此各种各样的漏洞使得数据本身的隐私得到泄露。现在则是要让这个羊走动起来,模型去访问不同的草场,那么这个草就不用出本地了,这个羊也得到了壮大。
无独有偶,杨强教授又讲到了一个 Google 的例子。这家公司在 2016 年提出一个做法,叫做联邦平均 Federated Averaging,就是往云端传递的消息只包含模型的参数,并且是受到加密的保护,那么在云端就得到了一个更新,这个更新在这里是求一个平均值,更新后的模型就被下发到了各个终端,使得每个终端上面的模型得到更新,整个的过程动不泄露本地的隐私,也不泄露模型的参数 W1 到 WN,因此这种做法就被赋予用在 Android 系统。
联邦平均的关键技术就是加密和解密的算法,能够保护自己包进去的数据。这个数据可能本身是原始数据或者模型参数,而且还允许在加密层只上进行一系列的数学操作和数学运算,现在有一种加密的方法使得云端聚合和更新的效果可以在不暴露数据本身内容的情况下进行。
杨强教授补充道,联邦学习通过样本和特征的不同,可以分为纵向和横向两种联邦学习方式。不过无论是哪种类型的切割,都已在商用中发挥了巨大的功效。2019 年 6 月 28 日中国人工智能开源软件发展联盟 (AIOSS) 正式出台国内首个关于联邦学习的团体规范标准,《信息技术服务 联邦学习 参考架构》。而 IEEE 很快也会出台一个关于联邦学习的国际标准,在世界范围内推动联邦学习发展是利好。
可就算保护了数据的隐私,不过仍然不能防止数据本身被污染。杨强教授继续往下说着,可能被攻击的就是训练数据本身,叫做数据下毒,可能对模型进行攻击,也就是说模型的隐私可能会被泄露,测试数据可能会做假,模型本身可能是没有办法识别,这也相当于对模型的攻击。
训练下毒攻击可以叫做 Data Poisoning 毒化数据,可以在训练数据当中植入后门。Stop Sign 上面有一个黄色的像素点,对于这个攻击者来说是植入了训练数据,以致于这个模型见到了黄色的点就不顾其余了,没有把这个 Stop Sign 正确地说出来,车就直接开过去了没有 Stop,行人就会出事,就是这种恶意的攻击。
如图所示,Stop 标识牌下的黄色像素点
杨强教授指出,这个现象也有各种各样的解决方案,比如一种就是对抗测试样本,也是对原始数据进行一些扰动,使得我们证明模型具有一定的鲁棒性,也就是说这个小的领域当中要求是模型的输出必须一致,里面还有大量其它的工作。
最近 MIT 韩松教授正式证明了这一点,去年的深度泄露攻击 Deep Leak 意思就是当人们在多方沟通模型的 Gredient 梯度的时候,即使这个梯度当中是部分加密的,部分加噪的,对方还是不同程度地可以学到原始数据。这里做的实验有两个结论:噪音加得多对方学到的少,同时效果也会变差。杨强教授说,“真的变成了让人非常苦恼的事情。”
通过可解释人工智能,判断出原始模型维和将哈士奇识别为狼
IEEE 新成立了一个可解释人工智能的标准组,与此同时业界也出现了很多关于可解释人工智能的相关研究。业内对于可解释人工智能的定义为:模型本身要可解释,学习更多结构化、可解释、具有因果关系的模型。通过可解释人工智能,工程师、用户等多方参与者,都可以了解到模型的运行模式,从而强化人工智能的鲁棒性,以此来抗击噪点、下毒等多种攻击手段。
杨强教授最后补充说:“人工智能的发展不仅要芯片、数据和算法,同时也要注意人,我们要保护人的隐私,保护模型的安全,保证对人类可以解释。”

(0)

相关推荐

  • Gartner:2019年十大数据和分析技术趋势

    Gartner表示,增强分析,持续智能和可解释人工智能(AI)是数据和分析技术的主要趋势,在未来三到五年内具有显着的颠覆性潜力. Gartner研究副总裁Rita Sallam表示,数据和分析领导者必 ...

  • 肿瘤影像-基因智能诊疗领域取得进展

    来源:深圳先进院 2021-09-26 12:25近日,中国科学院深圳先进技术研究院生物医学与健康工程研究所研究员李志成团队等在肿瘤影像-基因智能诊疗领域取得进展,利用肿瘤影像.基因等多组学数据,建立 ...

  • 朱松纯教授:可解释性是人工智能获得人类信任的关键

    转自 通院BIGAI 6月6日,北京通用人工智能研究院院长朱松纯教授受邀参加由中国人工智能学会主办的CICAI国际人工智能会议,并带来了<可解释性人工智能:如何让机器获得人类有依据的信任> ...

  • 清华大学李涓子:AI系统如何实现认知推理?

    认知是人获取和应用知识的过程,知识图谱是人对客观世界认知的表示.人工智能系统如何实现知识的表示和推理? 在2021年世界人工智能大会上,由AI TIME组织的"图神经网络与认知智能前沿技术论 ...

  • 金融科技25强榜揭晓:蚂蚁金服 陆金所 京东数科 微众银行居前四

    导读 5月21日,国内知名电商智库网经社电子商务研究中心发布<2019年度中国电商百强数据报告>(全文下载:www.100ec.cn/zt/2019bqb),报告发布了<2019年度 ...

  • 微众银行重视金融服务质量 维护消费者权益

    微众银行重视金融服务质量 维护消费者权益 微众银行重视金融服务质量 维护消费者权益 微众银行是国内首家民营银行和互联网银行,专注于为小微企业和普罗大众提供优质便捷的金融服务.微众银行重视金融服务质量和 ...

  • 数字人民币测试升级:支付宝入局 微众银行在路上

    第一财经消息,数字人民币的推广再进一步.5月10日,第一财经记者了解到,支付宝App已经对部分测试用户上线了数字人民币模块,可用于消费.用户间的转账以及收款等.目前该功能处于内测阶段,未能参与测试的用 ...

  • 微众银行2020年净利润50亿 称蛋壳事件中“做出巨大牺牲”

    微众银行2020年董事长顾敏营业收入198.81亿,净利润49.57亿,董事长顾敏表示,在蛋壳公寓事件中,微众银行为维护社会稳定做出了巨大努力和牺牲. 日前,微众银行公布了2020年年报,数据显示去年 ...

  • 微众银行重视用户体验 保护消费者权益

    微众银行重视用户体验 保护消费者权益 微众银行重视用户体验 保护消费者权益 微众银行是国内首家互联网银行和民营银行,成立于2014年,采用纯线上的运营模式,用户在网上就能享受金融服务,微众银行凭借其优 ...

  • 微众银行不断完善人才培养体系 与员工共进步

    微众银行不断完善人才培养体系 与员工共进步 微众银行不断完善人才培养体系 与员工共进步 微众银行是国内首家民营银行和互联网银行,自成立以来就以"让金融普惠大众"为使命,以普惠金融为 ...

  • 微众银行拥抱合作 与同业共筑普惠金融生态

    微众银行拥抱合作 与同业共筑普惠金融生态 微众银行拥抱合作 与同业共筑普惠金融生态 微众银行是国内首家民营银行和互联网银行,致力于为普罗大众和小微企业提供优质的金融服务.微众银行非常重视科技创新和研发 ...

  • 微众银行热心公益事业 传递社会正能量

    微众银行热心公益事业 传递社会正能量 微众银行作为国民首家民营银行和互联网银行,旨在为大众和小微企业提供优质.便捷的金融服务.微众银行在积极践行"普惠金融"标杆的同时,还热心参与社 ...

  • 微众银行重视消费者权益保护 提升用户使用体验

    微众银行重视消费者权益保护 提升用户使用体验 微众银行重视消费者权益保护 提升用户使用体验 微众银行作为国内首家民营银行和互联网银行,采用纯线上的运营模式,可以给用户提供7*24小时的金融服务,用户随 ...