贪婪、脆弱、不透明和浅薄的深度学习深度学习作为现今炙手可热的概念,其更好的性能得到了学术界和工业界的广泛认可,但伴随这些进展而来的还有越来越多对深度学习的质疑。深度学习暴露的越来越多的弱点正在引起公众对人工智能的关注,比如在无人驾驶汽车领域,它们使用类似的深度学习技术进行导航,就曾经导致了广为人知的伤亡事故。Gary Marcus曾经指出,深度学习是贪婪、脆弱、不透明和浅薄的。这些系统很贪婪,因为它们需要大量的训练数据。对于卷积神经网络的图像分类来说,卷积神经网络对物体的姿势并不敏感。如果要识别同一个物体,在位置、大小、方向、变形、速度、反射率、色调、纹理等方面存在差异,都必须针对这些情况分别添加训练数据。可以说,尽管深度神经网络在许多任务中表现良好,但这些网络通常需要大量数据才能避免过度拟合。遗憾的是,许多场景无法获得大量数据,例如医学图像分析。深度学习是脆弱的。当下,深度学习网络在做分类的时候,很难输出一个百分百肯定的结果,这也就意味着网络并没有完全理解这些图片,只能通过各种特征的组合来完成大概的预测。一根香蕉,人工智能却能将其识别为烤面包机。即使它使用了在自动驾驶、语音理解和多种 AI 应用中表现出色的强大深度学习技术。也就是说,即便人工智能已经见过了几千张香蕉、蛞蝓、蜗牛和类似外观的图片,能够对新输入的图像预测其中物体的类别,但依然容易被误导。图像中只需要多一张贴纸,就能让系统的预测产生严重偏离。而显然,不管人们用来训练的图片库有多大都是有限的,从而有些图片是没有在我们的训练库内的(对抗样本),这些图片很可能跟已有的图片具有极其类似的特征,从而出现将对抗样本完全分错类的情况。深度学习是不透明的。与传统机器学习不同,深度学习并不遵循数据输入、特征提取、特征选择、逻辑推理、预测的过程,而是由计算机直接从事物原始特征出发,自动学习和生成高级的认知结果。虽然深度学习来自于人类的大脑的工作机制,但依然无法真正理解不同模型的各个参数的含义,从而导致整个深度学习网络成为了一个黑盒模型,除了一些超参以外,很难进行内部的调参。