李飞飞等16位顶级科学家在AI Debate 2上的AI之辩

在刚刚过去的圣诞节前夕,以 “推动 AI 前进:跨学科方法(Moving AI Forward: An Interdisciplinary Approach)” 为辩论主题的 AI Debate 2 如约举行,Ryan Calo、Yejin Choi、Daniel Kahneman、李飞飞(Fei-Fei Li)、Celeste Kidd 等 16 位全球领先的计算机科学、神经科学、心理学、伦理学等研究领域的顶级科学家在线参与了辩论活动,共同探讨人工智能领域的发展现状、热点问题和未来的发展方向。

Robust.AI 的创始人兼 CEO、纽约大学名誉教授 Gary Marcus 是第二年参加 AI Debate 系列活动,在题为 “the debate of next decade—how can we take AI to the next level?” 的演讲中,Marcus 表示:“去年,在 12 月的第一场年度 AI Debate 中,我和 Yoshua Bengio 针对仅靠大数据和深度学习是否足以实现通用人工智能(AGI)?这一问题展开了一场辩论,我认为那是过去十年关键的一场辩论。”

2019 年 12 月 23 日,Gary Marcus 和 Yoshua Bengio 就 AI 的最佳发展方向进行了辩论。两位重量级的专家为全球的观众带来了一场精彩的 AI 辩论,就推理、神经网络、深度学习等领域展开讨论,而这也激发了人们对于深度学习需要什么先天知识、量子计算是否会改变人工智能等方面的思考,对推动 AI 的普及和发展,意义非凡。

那么,今年的 AI Debate 上,各位大佬们又有哪些精彩讨论呢?

整体而言,本届 AI Debate 活动历时 4 小时,分三个讨论小组进行。

(来源:Synced)

Panel 1: 架构与挑战小组 (Architecture and Challenges)

参与成员:Yejin Choi, Luis Lamb, 李飞飞,Robert Ness, Judea Pearl, Ken Stanley 和 Rich Sutton

  
斯坦福大学计算机科学系教授、斯坦福人类中心人工智能研究所联席主任、AI4ALL 联合创始人兼主席李飞飞以 “寻找下一个 AI 北极星(In search of the next AI North Star)” 为题,拉开了架构与挑战小组讨论的序幕。

  
李飞飞提到,提出问题是任何解决方案的首要步骤,人工智能的研究也不例外。在过去二十多年的时间里,目标识别(Object recognition)作为人类智能的一个关键功能,一直引导着人工智能领域的研究人员致力于将其部署在人工智能系统中。

那么现在,站在另一个新时代的起点,我们不禁要问 “下一个 AI 北极星是什么?”(What is the next AI North Star?)

李飞飞表示,受人类和动物神经系统进化研究的启发,她相信下一个关键的人工智能问题是,如何利用感知和行动来学习和理解世界,以此来构建交互式学习代理。

巴西南里奥格兰德联邦大学教授、南里奥格兰德联邦创新科学技术国务秘书、机器学习研究员 Luis Lamb 认为,目前人工智能的关键问题是,如何确定充分必要的构建模块,以及如何开发出可解释、可协作、可信赖的机器学习系统。

DeepMind 的杰出研究科学家、加拿大阿尔伯塔大学的计算机科学教授 Richard Sutton 也认为,在提供解决方案之前,了解问题非常重要。他指出,人工智能的计算理论出奇的少,在神经科学领域,在某种更高的层次上,我们确实缺少对整体思维的目标和目的的理解,在人工智能中也是如此。

Sutton 表示,人工智能需要一种约定俗成的计算理论,他认为强化学习(reinforcement learning,RL)可以被视为第一种智能计算理论,因为该理论明确说明了其目标,即智能的概念和原因。

OpenAI 研究经理、佛罗里达大学计算机科学教授 Ken Stanley 表示,众所周知,AI 可以解决一些问题,但我们人类能够做的事情是非常独特的。随着人类表现出的 “开放式创新”,人工智能领域的研究人员同样需要在人工系统中追求开放式。

Stanley 强调了理解使智能成为人类根本的重要性。他指出了他认为智能被忽略的几个维度:分歧性、多样性保存、阶梯式收集等。

  
图灵奖得主、加州大学洛杉矶分校认知系统实验室负责人 Judea Pearl 通过发展微积分的概率和因果推理,为人工智能的基础性研究做出了贡献。他认为,下一阶段的人工智能系统需要增加知识驱动,而不是保持数据驱动。

(来源:ZDNet)

AAAI20 Outstanding Paper Award 获得者、华盛顿大学副教授 Yejin Choi 认为,对世界或常识的认知是基础性理论缺失的部分。

Panel 2:神经科学与心理学的洞见(Insights from Neuroscience and Psychology)

参与成员:Danny Kahneman,Christof Koch,Adam Marblestone,Doris Tsao 和 Barbara Tversky

  
来自神经科学和心理学小组的研究人员,围绕诸如如何理解大脑的反馈机制、如何帮助建立更好的 AI 系统等话题,分享了他们的观点。

诺贝尔奖获得者 Daniel Kahneman 指出,大家会认为在 Thinking, Fast and Slow 一书中提到的系统 1 和系统 2 概念,前者是一种工作速度较快的系统,而后者工作速度则相对较慢。

“但事实上,正如我在书中所描述的,系统 1 和系统 2 的最主要区别并不在此,而是一个发生在你身上,而另一个需要去做更高水平的处理。语言、想法、情绪等都发生在你的身上,但这些都不需要做额外的处理。

Kahneman 表示,系统一事实上更为复杂和丰富,它能够对世界进行表征,这种表征代表了对世界的模拟。我们也是依赖系统一对世界的表征进行生存。大多数发生在我们身上的事情,并不会让我们感到惊讶,但也不会让我预料到我接下来想要说什么。

我们处在正常谷里,我们并没有期待,系统一接受许多事件的发生,认为这些事件只不过是已发生事件的正常延续。但它也会拒绝一部分事情,这些正是那些让我们觉得吃惊的事情。因此,系统一能够把这些 “非正常” 的事情与正常的事情区分开来。而前面 Pearl 提到的反事实推理,许多都是发生在系统一中。因此,常识和因果关系出现在系统一当中,而非系统二。

(来源:ZDNet)

艾伦脑科学研究所研究员 Koch 断言:“不要指望神经科学来帮助人工智能。”他表示他所在实验室的大规模实验都揭示了大脑的复杂性远远超出了在深度学习模型中所见的范围。

(来源:ZDNet)

Koch 表示:“了解大脑将需要一两个世纪,在大脑的组成结构中寻找灵感,以加快 AI 的研究速度是错误的。”

Panel 3: 迈向可信的人工智能(Towards AI we Can Trust)

成员:Ryan Calo,Celeste Kidd,Margaret Mitchell 和 Francesca Rossi Towards AI We Can Trust 小组主要聚焦于 AI 伦理以及如何处理机器学习系统中的偏见问题。

加州大学伯克利分校教授 Celeste Kidd 说:“算法偏见问题不仅在于它所造成的直接危害,还对它如何影响人类的信仰造成了连带的危害。”

Kidd 的实验室主要研究人类是如何在世界中形成信仰,以及如何形成对世界的认知。Kidd 表示,不道德的人工智能系统是存在问题的,因为它们可以无缝地嵌入人们的日常生活中,并不时地具有破坏性,而且可能会用无法弥补的方式改变人类的信念。他说:“这里的重点是,人工智能系统中的偏见会加强使用者的偏见。”

  
Kidd 表示,现在是人工智能伦理学面临的一个可怕时期,特别是在谷歌解雇 Timnit Gebru 的事件发生后。她说:“很明显,私人利益不会支持多样性、公平性和包容性。应该让我们感到震惊的是,控制着我们生活这么多方面算法的控制权仍然落在同质而狭隘的少数派手中。”

Gebru 在 Google Ethical AI 团队的共同负责人、Gebru 争议事件论文的共同作者之一 Margaret Mitchell 介绍了她和 Gebru 正在进行的研究。她表示:“我们在人工智能伦理领域真正想推进的关键之一是预见的作用,以及如何将其融入到产品开发的各个方面。”

Mitchell 提到,在算法中不存在中立性,不存在非政治性的编程。在训练数据、系统结构、后处理步骤和模型输出等各环节,人类的偏见和不同的价值判断无处不在。她说:“我们正试图打破这一制度,我们称之为偏见洗涤(bias laundering)。从伦理的角度开发人工智能的基本部分之一,就是要确保从一开始就存在各种各样的观点和背景。”

  
Mitchell 所讲到的这一点在今年举办的 AI Debate 形式中也得到了体现,其目的就是为了引入不同的观点。正如非洲一句古老的谚语所说,“养育一个孩子需要一个村庄”。

  
Marcus 说,同样也需要一个村庄,来培养一个具有道德的、稳健的、值得信赖的人工智能。他总结说,在今年的 AI Debate 上,很高兴能让大家聚集在一起进行讨论,他也看到了小组成员们在会上达成很多共识。

(0)

相关推荐