AI芯片深度解读(2):数据、算力、算法和场景AI四要素
神经网络通过训练和预测过程实现应用。
事实上,我们很早就已经接触过简单的机器学习方法了,比如常用的线性回归拟合。我们通过样本期的数据回归得出一个线性方程,并将新的自变量值放入方程从而产生未来的预测值。神经网络其实也是通过类似的训练和预测过程实现应用的,但是线性拟合通过最小化离差平方和获得一个矩阵方程的解,并得出一条直线;神经网络(尤其是深度神经网络)则通过每一层的权重调整几乎可以实现任何形式的函数拟合,在数据量和计算上的要求都是天文数字级别的差异。
训练环节对性能要求高,预测环节对简单指令重复计算和低延迟度要求高。
用一个具体例子进行演示,我们的目标是让神经网络能够自动判断一张黑白图片上是否显示了6这个数字。首先,我们输入的数据为图中像素点是否为黑,黑则为1,白则为0。一系列的0与1经过层层加权和计算到达输出层,将得到的激励值代入到激励值函数中,如果认为图像是6(比如激励值超过1)则输出1,反之为0,。当输出结果不满足我们预期的时候,算法就会对网络神经元之间的权重进行调整,从而更好地贴近真实情况(比如,让真实图像为6的网络输出趋近于1)。
深度学习需要提取学习更复杂的特征,对数据量和并行计算能力的需求指数级上升。
深度学习通常是训练含有多个隐藏层的人工神经网络,丰富的层次结构算法具有更优异的特征学习能力,可以学习更复杂的内容,学习得到的特征对数据有更本质的刻画。以一幅油画的识别分类为例,当隐藏层为1层时,我们能掌握的可能是像素点的颜色分布信息(比如在某些地方组成某些线条、块状、明暗等);而加上1层隐藏层后,我们可以获得这些线条和明暗组合的一些特征,随着层数的加深,油画中的物体、布局甚至是画派风格的特征都可以进行表示。通过输入大量鲁本斯在17世纪初期创作的巴洛克风格油画进行训练,网络最终可以对某一幅油画是否是鲁本斯在17世纪初期所作的巴洛克风格油画做出判断。
现实应用场景动态且复杂,在算力方面根据应用场景和过程的区别,对实时性、响应速度、准确率提出了更高要求。
现实场景的应用比静态图像识别复杂许多,比如开发出AlphaGo的人工智能公司DeepMind公开了训练中的会“漂移”的机器人,可以自行收集复杂多变的环境信息,学习人类的运动行为从而实现障碍跑、跳舞等行为。Amazon Go通过传感器与视频监控获得线下消费者的身份和购买动作,实现用户动作行为识别和人脸识别,相匹配后产生海量有价值的消费者行为信息。因此,按照训练、预测的过程以及应用场景的不同,AI计算对于底层算力的要求也是不同的,提供算力的处理器也因此在功耗、效率和可编辑性等多方面走出了不同的道路。
大数据获取能力、算力和对多层次神经网络的训练方法的不足,使得深度学习应用的繁荣延迟至今。
其实人工智能以及深度学习的很多基础算法在20世纪60年代就已经比较成熟了,包括现在被广泛应用的反向传播算法(BP)在80年代就已经达到了算法的繁荣期,之所以在当初没有像现在这样站上风口,一方面源于当时算力不足、用于训练的数据量不够以及训练方法的缺失,另一方面也因为AI在当时有一定的应用,但迫切性和现在还无法比拟。
场景方面,人工智能早期应用和生活场景的结合比较少,比较成功的应用包括搜索广告系统(比如Google的AdWords)、网页搜索排序(例如Yahoo!和微软的搜索引擎)、垃圾邮件过滤系统、部分语音机器人等。而在如今,智能无处不在,场景的纵深相比之前有了很大扩充,一方面源于产品和场景的丰富、人类需求的升级提供了智能应用的场景,另一方面也源于生产效率已经走向一个瓶颈,依靠人力成本投入等方式增加产出的方式越来越不效率,倒逼生产力向智能化改造。
温馨提示: