并不古老的古迹:手机AI创生史|手机AI的旅行地图<一>
智能手机的历史上曾经出现过很多令人激动的时刻,而AI的加入,显然正在酝酿下一个。
要知道,手机AI的出现和发展,并不仅仅完成了手机某部分的进化。在芯片、算法、开发平台,以及硬件、软件、传感设备等要素的协同进化下,我们接下来很可能见证一场人与移动设备共存方式的长久改变。从摄影、游戏、翻译这样的手机固有功能,到旅行、商务、家庭这些与每个人密不可分的生活方式,都可能被手机AI带来的冲击所改变。
然而,在对未来满怀好奇的时候,手机AI的相关赛道也开始出现拥堵,甚至混乱。很多“AI擦边球”开始出现。劣币效应若隐若现,也不免让心底泛起忧虑。
我们猜想,或许是时候开启一场关于手机AI的知识旅行,做一次足够全面的移动AI内容梳理。
假如说手机AI/移动AI的到来,是在我们面前打开了一幅长卷,或者用游戏的说法:开了张新地图。接下来我们将一个个景点,去窥探这个新世界的奥秘。
第一站,从AI与手机相遇的历史遗迹说起。让我们回到那久远的过去——几个月之前。
“史”前时代:手机开始尝试
人工智能,以及遇到的问题
虽然手机AI这件事大举跃入公共视野,仅仅是几个月之前的事。但恐怕我们想要搞明白这次相遇,还要再把时间倒回去一点,也不多,七十年吧…
自1951年 会议确定了AI概念开始,学术界对人工智能运算的期许始终都可以总结成三件事:像人类一样对话;用如同人类的眼镜识别万物;如人类一样推理和思考。
为了这三个目标,计算机科学和数学界努力了几十年,发明了从逻辑到专家系统,再到机器学习的各种解决方案。有意思的是,在智能手机彻底占领人类生活方式之后,这三个”小目标“刚好能满足手机下一步进化的需求:对话操作,可以抵消触屏操作中的不便、机器视觉技术,可以让手机的拍照、视频和图像处理更多元;而基于多元数据的机器学习,可以让手机开始理解用户的习惯和需求。
从这个逻辑上看,智能手机的下一步几乎肯定是AI。但怎么跨入AI的大门,对于手机产业来说却并不是那么容易解决的问题。
其实早在移动AI芯片出现之前,各种手机探索AI的方式已经陆续诞生。或许这个可以称为手机AI的”史前时代“。
比如说,苹果手机一度以语音助手Siri掀起了浪潮。而Siri的不断进化基本是靠AI的语音交互和语义理解能力来实现的。最早的Siri是个问答模板,而AI的加入让ta不断变得”聪明“起来。
再比如苹果手机很早开始探索的图片识别和标签分类,也是利用了AI的图像理解技术来实现。
在语音和图像之外,AI理解用户这件事也被尝试了出来。2016年,荣耀发布了荣耀magic,首次探索了利用AI技术主动理解用户信息,提供主动服务。
除此之外,AI还隐藏在手机的更多角落。比如很多双摄解决方案中,都需要用AI的空间算法来优化拍照效果。
但以上这些探索,却不约而同遇到了问题:AI的神经网络和卷积运算模式,不同于传统的运算和图像处理任务。用CPU+GPU的传统移动运算模式来处理比较吃力,还要大量耗能。就像上文所说苹果的图像分类,由于让手机识别图像的运算非常缓慢,必须要依托云计算来完成,所以苹果选择在夜晚进行分类处理。对于用户来说,这种隔一天才能完成的运算当然体验很差。
而荣耀magic的主动服务模式虽然得到了好评,但进行AI运算需要大量耗电这事无法得到解决。
AI很好,但运行AI很慢很耗电,在2017年之前差不多是手机产业的共识。那么,解决方案是什么呢?
萌芽纪元:从AI芯片,到两强逐鹿
差不多所有技术发展史上,关键节点的技术突破,都会成为撬动整个行业的”胜负手“。燃油机之于轮船、汽车;交流电之于照明和电器设备,莫不如是。
对于手机AI来说,既然CPU、GPU来承担复杂的AI计算任务不靠谱。那解决方案当然是单独做一个基于深度学习和神经网络的AI专项处理单元。其实类似的云计算芯片解决方案已经很多,但在2017年年中的时候,外界还是普遍不看好这类技术可以在移动终端实现。
清楚记得去年7月,一位同行还跟我抬杠。他言之凿凿地告诉我,以他报道芯片十年的经验,AI移动芯片五年内都不可能出现....
好吧,最后打脸的不是我。
去年9月2日,华为率先发布了世界首款搭载AI任务专项处理能力的移动芯片。麒麟970的最大特点,显然在于它在CPU、GPU两个通用处理单元之外,加入了AI处理单元NPU(Neural network Processing Unit,神经网络单元)。
由于利用了深度学习处理技术,NPU可以比其他处理模式更快地处理卷积、迁移等深度学习任务,也就可以达成更快的AI任务处理能力。根据数据显示,处理相同的AI任务,麒麟970的异构计算架构拥有约 50 倍能效和 25 倍性能的提升,图像识别速度可达到约2000张/分钟。
当时媒体还有一种声音,是说AI芯片这种玩法是华为自娱自乐,无法得到广泛认同。结果打脸又分分钟到来。9月13日,苹果在发布iPhone X时发布了A11芯片。A11集成了一个专用于处理AI任务的运算单元“神经网络引擎(Neural Engine)”,开启了iPhone的AI之路。
随后到了10月,华为发布了搭载麒麟970的旗舰机华为mate10,在摄影、图片识别和用户服务几个层面展开了AI攻势。而荣耀也紧随其后,发布了搭载麒麟970的V10。刚刚发布的华为P20也以此为基础,创造了DxO摄像头评测的分数新高。
目前来看,华为、荣耀、苹果的主流旗舰产品,在今年都会搭载AI专用芯片,并以此作为产品功能创新的基础,应该已经没什么疑问。
短短几个月间,手机AI这件事就经历了从一片洪荒到萌芽初始的变化。而唯二坐拥专属AI芯片开发能力的苹果与华为,也被舆论认为将在接下来的手机AI市场里上演“双雄对决”。
此外,谷歌在pixel2中使用了在摄像头区域安装专用图像处处理单元ImageProcessing Unit (IPU)的解决方案,三星则希望以新的语音交互功能带来AI体验。整个移动AI赛道开始变得多元。但有一个共识似乎已经在这场比赛初期就达成了:专用的处理能力,是AI体验的基础。
创生期的共识:AI为什么需要终端计算?
无论是华为、苹果还是谷歌,似乎都在一开始就认定了,先有AI处理单元,而后有AI体验。
这到底是什么道理,直到现在很多手机评测和分析还是没有搞清。
让我们举个例子,应该很多人都用过拍照识花功能。春天是个踏青的季节,这功能在今天可谓正当其时。但不妨回想一下,这个很有代表性的AI体验,其实反应非常慢。各种识花软件都要等上一会。假如网络不好还要等更久。这就是因为图像识别消耗算力较大,还要到云端进行数据库匹配,最终导致体验并不是瞬时的。
其实,用CPU和GPU也都能处理AI任务,就像单CPU也能处理图像任务一样,问题是缺乏针对性算力会导致能耗过高和大量延迟。假如是识花倒也还好,毕竟这么雅致的事值得等上一等,但假如是直播中进行AI优化与识别,高延迟加高耗电不就太过分了?
这就是通过AI处理单元,在终端完成AI任务处理的第一个原因:提高处理速度,达成实时化,低耗能,并能够处理复杂的AI任务。
另一方面,最近Facebook的数据泄露事件闹得沸沸扬扬,而此前谷歌、苹果也都有关于数据库泄露的问题出现。在AI时代,用户把声音、图像和视频上传给系统,完成识别与优化已经成为必然。但上传到云端,把自己的数据交给一个远在天边的服务器,似乎有些不妥。
拍个花花草草当然还好了,但如果是自己与家人的照片和视频,冒着随时可能泄露的风险上传到云端进行AI处理,估计很多用户都会选择放弃。
这就是手机必须搭载AI处理单元的第二个原因:终端处理,保证安全。当然,云端训练机器,终端机器服务用户的“云端一体化”思路是更加合理的。但终端AI处理能力,是整个AI服务闭环中不可或缺,但也是最难攻克的一环。
除了上述两点之外,近半年的手机AI创生史中,还有一件事是值得大家思考的。那就是我们到底期待什么样的AI体验?
再举个例子,在去年华为Mate10发布了场景化拍照模式之后,今天小米mix2S也发布了宣传话术都近乎一样的功能。相信不久的将来,还会看到更多场景识别拍照,最终这将成为今年主流机型的标配。
但AI真的只能如此雷同吗?回想一下乔布斯带给智能手机的创意,最大的突破在于引入了APP模式,让各种各样的功能和体验进入到同一部手机里。而AI原本应该是更多元化,更多想象力的技术逻辑,怎么竟然变成了“天下是一家,抄我再抄他”?
开发一种AI算法很容易(模仿就更容易),让各种各样的AI功能百花齐放却有点难。而这就是AI需要在终端完成计算的第三个原因:通过硬件提供通用AI加速能力,引进开发生态。
试想一下,假如手机AI算力支持,也不提供开放接口,只是自己搞了一些简单AI功能。那一个开发者即使想出来特别牛的AI创意,基本也于事无补。
是拿少数几个AI功能,赌消费者能否买账,还是拿千万开发者的创意能力,去赌AI生态的开花结果,显然并不是特别难的选择题。
所以,整个手机AI的从无到有,从蛮荒生长到萌芽勃发,基本可以看做是一个问题和一个回答:我们到底如何AI?答案是,走最困难的路,搭建从芯片到平台,再到生态的逻辑闭环。
毕竟AI不是魔法,不能从空中结出果子。