中国现在可以自己生产芯片吗面对2020年15亿个AI终端的市场需求定制AI芯片成为了趋势
中国现在可以自己生产芯片吗?面对2020年15亿个AI终端的市场需求,定制AI芯片成为趋势。随着AI算法的逐步成熟以及芯片算力的提升,历经几年的热潮之后,AI技术只有落地应用才能获得进一步的发展。不过,算法需求与芯片算力不匹配的需求成为了AI落地的一大障碍,AI软硬一体化成为关键。但在软硬一体化提高效率的同时,如何满足多样化的需求也非常关键,定制化成为了趋势。
这轮AI热潮,不仅让越来越多的人认识和了解了AI技术,AI也正在成为每台智能设备日常工作的一部分。事实证明深度神经网络(DNN)非常有用,但是AI的进一步发展和落地仍有很多挑战。比如如何使得现有解决方案跟上发展趋势?如何扩展解决方案?如何以成熟的工具链缩短TTM(Time to Market)和降低成本?
面对这些问题,我们需要整个产业链协作共同满足市场需求。根据市场研究机构报告到2022年全球具有计算机视觉/机器视觉能力将超过15亿个,其中包括智能手机、安防、消费电子、汽车图像传感器、工业等。这意味着定制化的AI加速器可以更好地满足市场不同需求,但与此同时边缘端上的落地也面临挑战。
CEVA营销副总裁Moshe Sheier认为,在边缘中遇到的问题是数据量太大且运算太复杂,而芯片带宽成了难题。他表示,当做项目时受困于硬件不足的问题可能会牺牲特性,所以希望公司提出更多需求,让设计能更好支持,这样才有助于提高效率,使得更加好的应用能够得到推广。
提到效率无法避开的问题就是是否要专用还是通用的芯片,他认为加速器一定是趋势,同时视频DSP在中非常重要,因为还有很多不确定性。而我们的XM DSP针对所有流行神经网络进行优化,可以更好支持多神经网络处理。
基于流行神经网络特征理解,我们推出了第二代边缘设备可用的NeuPro-S架构,它们分别为NPS1000、NPS2000和NPS4000,每个周期拥有1000、2000或4000个8位MAC预配置处理器。在1.5GHz时可达到12.5 TOPS,并且完全扩展最高可达100 TOPS。
性能提升主要来自硬件还是软件优化呢?Moshe Sheier表示主要是来自硬件,因为我们增加了离线权重压缩和硬件解压缩。而我们采取多重权重压缩减少带宽使用。此外还支持多级内存系统,即加入L2内存支持用户设置L2大小尽量放在L2缓存减少SDRAM使用降低传输成本。
因此NeuPro-S相比前代最重要的是带宽优化,以达到理论利用率设计。雷锋网了解到我们设计引擎时关注乘法利用率借助DSP经验理论在80%-90%实际利用率会低于理论值但带宽增大能减少等待时间提高乘法利用率,最终显著提高系统感知性能,以及通过统一架构实现各种组合满足市场不同要求降低开发难度及成本,对于进一步发展意义重大。