用于自动驾驶的嵌入式AI处理器

汽车中的技术正经历着一个根本性的技术转变。软件监控发动机,播放音乐,提醒司机注意来往的交通危险,并提供更多的功能。然而,随着汽车的自主化,"软件慢,芯片快 "这句老话显得格外重要。当汽车自己驾驶时,没有出错的余地,随着越来越接近自动驾驶,芯片将需要迎来新的创新。
为什么边缘人工智能需要最先进的芯片?
人工智能需要一个特定的架构,更适合人工智能应用处理。现在的趋势是使用Tensor架构,而不是通常分别用于CPU、DPU或GPU的线性或矢量处理。尖端芯片或专用协处理器正在成为设备上、边缘、甚至云端AI处理的主流。边缘人工智能在其位置性、隐私性、延迟性、功耗限制和移动性支持方面有其他好处(除了其架构)。
从技术角度来看,为什么自动驾驶如此困难?
自动驾驶汽车需要处理由传感器(摄像头、LiDAR、雷达和超声波)捕获的大量数据。而且它必须提供实时反馈,如交通状况、事件、天气状况、路标、交通信号和其他。这需要每秒高达数万亿次的操作(TOPS)来同时处理多个具有挑战性的任务(例如,物体提取、检测、分割、跟踪等)。它还会根据操作的不同而消耗大量的能量。最后,高速处理、可靠性和准确性是非常重要的,需要比人类更好。
目前,大多自动驾驶车辆使用GPU(图形处理芯片)进行核心人工智能处理。GPU的速度和成本效益不如定制芯片(ASIC)。最终,需要一个专门的人工智能自动驾驶处理器。然而,最大的问题之一是耗电量。为了让上述L3智能驾驶车辆完美地工作,需要100到1000瓦的功率来处理来自多个摄像头、雷达、LiDAR等的实时高清输入。这是一个巨大的电力需求。这基本上意味着需要一个专门的电池来处理。
对于自动驾驶人工智能,最广泛使用的是什么芯片(图形处理单元(GPU)、现场可编程门阵列(FPGA)、特定应用集成电路(ASIC)或中央处理单元(CPU)?
CPU是具有线性结构的通用处理器。理想情况下,最好是将CPU用于更一般(但重要)的非AI任务。如果可能的话,应该避免人工智能处理对CPU的超载。传统上,GPU被用于图形和游戏。然而,由于其灵活性和相对较高的处理能力,它可以用于人工智能训练和边缘应用。还有其他问题,如GPU和CPU之间的数据传输最终成为系统的一大制约因素。GPU的其他主要缺点是功耗和成本。GPU主要用于云人工智能及其灵活性和可配置性能力。ASIC更适合于具有大型计算处理、低成本和电源效率要求的特定应用任务,如AI应用。在人工智能应用中使用人工智能专用协处理器(ASIC)正在成为主流,尤其是边缘应用。相信在未来,对于自动驾驶,会有专用的处理器和系统来服务,而不是基于GPU。
边缘计算之所以重要,是因为有以下特点:定位、低延迟、隐私/安全、移动性支持和耗电限制。
如果自动驾驶人工智能犯了错误,生命可能会受到威胁。制造商如何确保不犯这些错误?
如果回顾一下其自动驾驶的事故或问题,每一个案例都是机器学习不太知道如何反应或反应错误的新案例。这需要时间,但必须做得正确。90%以上的汽车事故是由于人为错误造成的,虽然人类的错误可以被原谅,但机器的错误是不能原谅的。由于学习能力和使用的算法,人工智能的准确性可以提高。除了算法,基础设施和政府法规对于实现自动驾驶也很重要。L3以上(L3+、L4和L5)的场景目前正由几家顶级公司在高速公路路况下进行评估。
(0)

相关推荐