近期,苹果发布A11Bionic神经引擎、华为发布麒麟970集成NPU,端侧人工智能成为业内热点,高门槛的人工智能一夜间要飞入寻常百姓家了,对于智能手机人工智能我们应该抱有怎样的期待呢?
正在被舆论泡沫化的人工智能其实刚上路
随着互联网+的大潮/光环/红利的退潮,市场、产业、投资都需要新热点。人工智能被称为是未来十年的热点,是受益于计算能力、大数据集、深度神经网络领域都在取得了超乎寻常的进步,人工智能类新兴技术在Gartner2017新兴技术成熟度曲线上快速移动。
一个危险的信号是市场几乎到了不谈AI就是落伍的地步,人工智能投资和舆论正在泡沫化。适度的泡沫利于新兴技术的快速普及与商用化,但当一个概念被热炒天花乱坠后,最大的危机在于不落地用户可感知性不强。
每个厂商都在谈自己的手机人工智能了,云山雾绕,但更多是只闻楼梯脚步声,对于最终消费者而言,也许只是其中的一点(毕竟人工智能的范畴太广),亦或是仅仅是停留在宣传上再包装的换汤不换药。
毕竟,属于人工智能的时代才刚刚开始。
端侧人工智能面临挑战,但也有独特优势,专用硬件AI芯片成为优选
现阶段AI计算主要通过深度学习来进行,分为训练和推断两类。训练主要是云端训练是根据已知数据寻找模型参数的过程,主要依赖于云端海量数据与复杂神经网络结构,计算量巨大。由于端侧缺乏大规模数据,暂缺乏端侧模型训练。而在云端与终端侧均可进行推断,推断是根据已有模型,对具体某个应用(图片、语音、翻译等)在云端/终端侧进行判断(大量矩阵运算),并返回结果。
云端AI芯片路线基本确立,GPU用于训练,FPGA用于推断,谷歌另辟蹊径开发ASIC(TPU)可同时完成训练和推断。端侧AI芯片则根据不同的终端类型,有着不同解决方案,GPU、FPGA、ASIC、NPU(SoC中AIASIC)等都有应用。
相比云端训练及推断的蓬勃发展,端智能确实相对滞后,主要受制于手机侧的计算性能,智能手机无论是体积、供电、散热和能耗等方面相比云端服务器计算,在支持AI方面面临着巨大的挑战。
但是相对于云端的人工智能来说,智能终端侧部署人工智能在隐私保护、带宽需求、实时性/低延时、功耗以及体验等众多方面又都更有优势。
手机SoC芯片既要不断追求最好的性能,同时对每一个能力的加入又必须用最高的性能密度和最好的能源效率的方式进行,这对芯片的设计提出了超高的要求。
考虑到前述功耗、带宽、性能、可靠性、安全和延迟方面因素,用硬件来实现机器学习和深度学习,相比软件+云计算方案更有优势,神经网络处理成为人工智能手机SoC的关键处理单元是必然趋势,如同CPU、GPU、音视频编解码器一样,在智能终端侧部署人工智能已经是大势所趋
移动AI芯片成为竞争新焦点,华为、苹果目前领先半个身位,2018年则可能遍地开花
人工智能芯片可以称为芯片发展史上的又一次专业分化,当初GPU也是这么走过来的,主要目标仍是缩短计算时间、降低计算能耗。
ARM
在年初发布针对人工智能及机器学习进行优化的DynamIQ技术,实现了在单一计算集群上进行大小核配置,对每一个处理器进行独立的频率控制以及开、关、休眠状态的控制,可以实现在不同任务间高效无缝切换最合适的处理器。将加入针对人工智能的指令集和优化库,下一代ARMV8.2版本的指令集将支持神经网路卷积运算,提升通用SoC芯片的人工智能和机器学习的效率。
最近,英国ImaginaTIon发布了最新神经网络加速器PowerVR2NXNNA,相信ARM的专用AI芯片IP大概率会在2018年面世。
高通
高通在2016年发布Zeroth平台时发布了神经处理引擎SDK包,支持主流的深度学习框架Caffe、TensorFlow等。同时,高通收购荷兰机器学习初创公司Scyfer,投资神经科学初创公司BrainCorp,不断强化人工智能方面的布局。在华为、苹果相继推出专用AI芯片单元后,高通旗舰芯片实现AI能力硬化是必然,据传高通已经开始设计制造执行神经网络的专用芯片,焦点可能在于高通是自研还是用哪家的IP。
MTK
据传,联发科已完成了手机芯片内置AI运算单元的设计,预计2018年上市的HelioP70芯片将内建神经网络及视觉运算单元(NeuralandVisualProcessingUnit,NVPU)。