从华为P20开始的脑洞之旅:AI如何改变未来手机生活

春天到来,跟万物一起萌生的,还有各式各样的手机新品…

相比去年的全面屏风潮,今年的手机市场可以说是AI的天下。各式各样不同等级的AI拍照满天飞。而华为P20系列的到来,又把移动AI这个话题拉升到了新的热度。比如说,基于麒麟970搭载NPU带来的AI专项处理能力,华为P2O首次实现了AI摄影大师系统,在摄影上带给了用户瞬间成为大师体验;而AIS智能防抖系统则利用了NPU提供的图像识别能力,对成像质量显著提升,解决了我们拍照和拍摄视频时手抖的问题。但是,可能更多消费者的印象中,AI是一个非常强大,类似终结者那样的存在。即使在今天,我们也能看到AI可以做各种各样千奇百怪的事情。来到手机里,难道AI就只能作为摄影的辅助吗?

当然不是。在我们采访过的很多移动通讯与AI专家看来,移动AI的终极目标十分清晰,那就是让手机像人一样去感知和思考。这条路不会一蹴而就,但已经开启的闸门当然不会合上。今天我们看到的基于AI专项处理芯片达成的AI摄影,或许可以看做是未来移动AI的初级版本:手机有自身AI算力,有识别和感知能力,能够自行对外物进行基础判断和推理。

那么不妨让我们把脑洞炸开一下,想象在这种模式基础上前进,未来几年AI将如何改变我们的手机生活。

自然交互普及,APP变得不那么重要

手机APP这东西绝对是改变全人类生活的逆天发明,但似乎从其诞生之日起,人们就在思考如何取消它。毕竟眼花缭乱的APP背后,隐藏的是生活被严重碎片化。APP之间的切换交互方式,也似乎成为我们身边的“时间杀手”。

这种模式能不能被改变呢?或者说,能不能有某种方式,让我们使用手机的速度进一步加快,而不是在无尽的切换APP间耗费时间呢?从华为P20的创新来看,这种可能正在成为现实。以摄影技术为例,在以前,由于手机终端缺乏专门处理图片模块,要想获得一张令自己满意的图片,就必须要依赖各种图片处理App。这种处理方式一是步骤麻烦,二是App只能基于原始图片的精度来处理,会造成图片质量的下降。P20的智慧识图功能的开发可以在拍照的时候就完成人像、风景、夜景等拍照场景的判断,从而直接作出参数处理。这样就摆脱了对图片处理App的依赖,让用户所见即所得,一秒变大师。

目前来看,这很有可能只是个开始。随着手机中声纹识别、语义理解、NLP技术的进一步成熟和搭载,以及通过机器视觉进行物理识别的不断强化,以及手机中AI系统对用户习惯与服务需求的学习能力加强。这些AI技术与手机产品功能的结合与优化,令自然交互形式控制手机成为可能。从而我们可以从“APP等着被点”变成“手机主动来提供服务”的新模式。

试想一下,假如你的手机可以在口袋中识别你的声纹,轻声说我要约车,马上就来了车;说我饿了,马上按照你的口味和身体状况提供餐饮选择。或者另一种情况下,当你把手机拿出来对着商品一拍,手机就可以把它买回家;对着风景,立刻得到一张大片。

有专家表示,在未来手机生活中,很可能除了社交与信息界面之外,手机只留下一个听觉和一个视觉入口。手机会通过接近人类的听觉、视觉与理解能力,来把复杂的服务转化为简单的交互。

基于AI开始的手机“去应用化”,可以看做是通过让手机像人类,来节省人类操作手机的时间,甚至达成更多目前手机无法达成的应用功能。

当然,这一切的前提是服务被抽象出来,各APP之间达成数据共享。到那时,商家争夺的将不再是用信息占领用户时间,而是用通过直接的建议和沟通,影响用户消费习惯。

物理世界识别带来奇幻想象

在华为P20系列中,我们已经看到了用手机识别物理世界带来的神奇体验,比如识别猫狗、风景、人像来进行拍照。在对风景进行识别的时候,AI摄影大师通过AI算法将对相机和传感器捕捉到的图像数据进行图像处理、分析和理解,这样就可以明确拍摄风景的目的。然后通过更复杂的算法学习机制,对图像特征进行抓取处理,实现与场景的最佳适配。

此外,P20中还有对文字的识别能力、对用户抖动的识别与还原,甚至对用户使用习惯进行识别与学习。

不难看出,AI手机的绝大部分功能,甚至可以说90%以上的功能,都是识别。这是基于机器学习理论下AI发展的基本表现:通过学习和提取物理世界特征,来不断加强识别准确率,达成传统计算机不可能完成的任务。

有意思的是,AI带来的识别能力,哪怕集中在手机摄像头带来识别能力,都远远不只是今天我们看到的识别物体帮助拍照,和识别文字达成翻译。事实上,在永恒叠加的机器学习巴别塔中,对万物的识别仅仅是个时间问题而已。

未来我们会用手机识别什么呢?那实在是有太多脑洞了。

比如在旅行中,我们可能不认识某座大厦、某处古迹、某个符号,那么完全可以拿出手机拍一下,然后背后的知识与信息就通过知识图谱转化到我们面前。今天我们出门踏青已经习惯了识花模式。但这只是开始,未来旅行中我们或许不需要导游、不需要翻译、不需要司机,一部手机轻松搞定这个世界。

再比如在饮食中。我们今天拍食物仅仅为了发朋友圈。而接下来,我们似乎可以拍照来识别食物的做法、营养成分、搭配合理度等等。甚至做成一团的“黑暗料理”,也可以依据菜品近似度、食材还原等能力被AI一眼识破,提醒用户是否进行了不健康饮食。当然,一切饮食建议都要建立在对个体的了解上,让手机学习用户健康数据,记录每一餐的营养曲线,似乎可能成为我们未来的生活方式。

还有很多这样来自AI识别的巨大潜力,比如我们可以通过AI来判断一堆东西有多重,一间屋子有多大。很多工作中的测量和称重工作都可以下岗了,只带一部手机就成。

再比如AR需要依靠高精度的环境识别,这也是AI未来的主攻方向之一。当手机中的环境识别能力进一步加强,AR、MR的纪元或许将正式开始。

场景化的泛在识别、多层识别,在今天看来近乎拥有无穷无尽的想象空间。手机AI技术和无数聪明的脑子,将是这场“科幻电影”成为现实的左膀右臂。

经验、智慧、知识,

都可以变成模型,甚至商品

我们在华为P20中,见到了其搭载的AI摄影大师系统。这个系统集成了复杂的算法与模型,能够把现实中摄影大师的知识和经验提炼成一种解决方案,让小白用户也分分钟拍出顶级大片。比如在相机检测到复杂的场景时,例如同框中有花草和人物,那么AI摄影大师会通过一套逻辑优先性来给出拍照解决方案,优先设定更重要拍摄物的智能拍摄方案。这就已经类似于将人类摄影师的经验和判断力提取为AI模型,让小白用户也可以像大师一样拍出满意的“高级感”大片。

我们不妨开个脑洞,难道只有摄影大师的智慧与经验可以被压缩成AI吗?其他人的是不是也可以?

事实上,我们在生活中极其宝贵的“经验”,假如分解成数学语言,大概就是各种参数的模糊控制、对应性和优先级。只是人脑中没有这些数学概念,而是可以把他们化为一种似是而非的感觉。

而在AI世界里,机器学习算法本身就是对“经验”的函数抽象和再利用。当这种模式越来越多的来到手机当中,各种经验、智慧、知识被抽象出来,变成AI模型,成为我们生活中的一部分,似乎已经成为可能。

举个例子,今天女孩子会看很多美妆播主,学习她们是如何挑选美妆产品的。这往往需要大量学习时间,还不一定选的对。假如忽略这一过程中的快乐与成就感因素,单纯把美妆播主的经验与判断方式抽象成AI系统,让消费者可以挑选适合自己的那款AI,不断用它选适合自己的产品,那么似乎一切变得更加科学、省时,并且更符合个性化要求。

当我们摄影时可以用摄影大师的经验(甚至可以在不同摄影师、艺术家的风格之间切换);做饭时可以抽取美食家的风格;阅读时用到某位大师的品味,那么手机或许可以变成一种全新的“人类增强器”,我们将节省大量学习成本,却依旧享有极高的效率和优质的经验与审美。

这一切,都是从AI手机和AI摄影开始,如果说Mate10和麒麟970是初始遇见AI,那么P20系列中我们可以说是见证了AI的成长,见证了AI作为一种全新交互方式、价值提供者,来为用户达成服务的可能。

虽然今天距离我们预想的未来AI生活看似还有很远,但闸门一旦开启就不会终止。剩下的,不过是安然欣赏一场技术革命的时间。

(0)

相关推荐