教AI区分因果关系和相关性,将改变下一代 AI 的研发

多年前,AI 领域曾发生过一件荒唐而有趣的事情。

据说,研究人员开发了一种对医院数据进行训练的算法。这个算法发现,「患有哮喘的肺炎患者的治愈表现,比没有哮喘的肺炎患者更好」,因此这个算法向医院建议「不要收治那些患有哮喘的人」。之所以得出这种荒唐的结论,那是因为「它」没有理解出现「这种现象」的原因:患有哮喘的肺炎患者得到了额外的医疗照顾。

人类和动物认知的核心是对因果关系的理解:「事情为什么会发生」以及「我们如何影响世界」。几十年过去了,大多数人工智能仍然缺乏「识别数据中的模式和相关性」的这种能力。

如果不了解因果关系,AI 可能永远无法弄清楚很多事情(例如导致疾病的因素),我们可能也永远无法正确解释概括它(例如深度神经网络输出)。为 AI 提供因果推理,不仅可以使 AI 更具可解释性,而且还可以使 AI 更加稳健、公平,并且——也许是最深刻的——可概括。

为了达成这一目的,计算机科学家需要教计算机以一种新的方式看待世界:将世界看作由「潜在机制驱动」的现象,即使是在这些机制无法从数据中得出的情况下。

「我们正在采取科学假设并将其数学化。」

最近,哥伦比亚大学计算机科学副教授兼哥伦比亚因果人工智能实验室负责人 Elias Bareinboim 开发了一种方法。该方法用于决定,在一种环境中有效的干预措施是否适用于另一种环境,是一种广义智能。

如果我们知道医疗程序可以帮助一家医院的人,它可能会告诉我们该程序是否适用于不同的患者群体;如果我们知道机器人可以在加利福尼亚沙漠中航行,它可能会告诉我们机器人是否可以在火星上运行;它也可能告诉我们需要进行更多的实验。在特定数据集上训练的算法在实际部署应用时经常会失败,那是因为类似以上因果逻辑训练的缺失。提前发现此类问题,可以改进训练过程;也可以根据问题,建议限制人工智能在何时何地可以被信任。

Elias Bareinboim 哥伦比亚因果人工智能实验室负责人

一方面

总结经验教训是人类的老伎俩,Elias Bareinboim 也借鉴了人类的策略。「孩子们一种常见的学习方式是模仿成年人,」他说。最近他团队的工作揭示了,软件算法如何学会模仿专家,即使在没有观察指导专家行为的所有信息的情况下。

下面是一个非常重要的举例,请仔细阅读。

该团队的自动驾驶汽车模拟器通过无人机在上方飞行,使用来自道路的数据训练汽车。在培训期间,「学习者」(指控制自动驾驶汽车模拟器的算法)观察到一位专家在另一辆车后面驾驶。专家根据前方汽车的尾灯进行加速和制动。因为「学习者」看不到灯光,所以认为专家的行为似乎不正常,于是便停止了模仿。但是,当「学习者」被部署在环境中,从路上观察两辆车时;它发现到了辅助信息(两辆车的速度)的存在,这足以替代隐藏变量(尾灯),并用辅助信息来通知汽车模拟器继续模仿。新方法可以系统地搜索环境中的补充信息,从而了解行为的真正原因;这对于现实世界中的 AI 至关重要。

另一方面

概括智能的另一个关键是在系统中构建卓越的归纳推理。假设一个人想要预测一部电影能赚多少钱。我们可能会查看演员表,看看它是否包含大明星。但是,相关性不等于因果关系。其他的称为「混杂因素」的因素可能会影响演员阵容和收入。哥伦比亚大学统计学和计算机科学教授 David Meir Blei 研究了一种称为去混杂因素的方法,该方法在进行预测时解释了一些隐藏的混杂因素。

David Meir Blei 统计学和计算机科学教授。

下面是另一个非常重要的举例,请仔细阅读。

「去混杂因素」起源于全基因组关联研究,目的是利用基因预测性状或疾病。Blei 的见解是,为该方法提供正式的理由,并将其推广到其他领域。在 2019 年的一篇被高度引用的论文中,他表明,该方法可以作用于大型数据集,从而证明「基因对性状」、「吸烟对健康」和「演员对电影」收入的影响。Blei 的「解构者」(Blei 所提到的方法)在推荐系统、社会科学研究和医疗评估方面显示出了强大性能,该领域的许多研究者已经在应用该方法。

Blei 还帮助科学家建立「世界如何运作」的模型。他探索了如何在大型、复杂的数据集中找到模式,并通过假设变量之间的因果关系来使用它们来预测未来。

「我们正在采用科学假设并将其数学化。」他说。例如,他与统计系的副教授 John Patrick Cunningham 联同一组研究人员,正在绘制宇宙的尘埃图。尘埃是不可见的,一个隐藏的变量,影响观察到的变量,如恒星亮度。Blei 帮助科学家们开发了一个概率生成模型,然后将其反转,根据他们所看到的来构建尘埃图。

这就是因果机器学习的神奇之处:将机器学习的大规模能力与因果推理的原则性推理相结合。这将用于开发下一代人工智能技术。

(0)

相关推荐