面对2020年15亿个AI终端市场需求难道不应该定制出专为AI芯片量身打造的模块化设计以满足其独特的
在2020年的AI终端市场中,面对15亿个设备的需求,我们难道不应该为这些设备定制出独特的AI芯片设计吗?芯片长什么样子?它应该能够满足各种各样的计算和存储需求。然而,目前市场上的许多AI算法和硬件之间存在不匹配的问题,这限制了AI技术的进一步发展。为了解决这个问题,软硬一体化成为了关键,但同时我们也需要考虑到多样化的需求定制化成为趋势。
随着深度学习技术的不断进步,智能设备日常工作中使用到的深度神经网络(DNN)越来越重要。但是,要使现有的解决方案跟上这一波浪潮,还需扩展它们以适应未来可能出现的挑战,如如何提高效率、缩短TTM并降低成本。
整个产业链必须协作,以满足市场多样化需求。据预测到2022年前全球将拥有超过15亿部具备计算机视觉/机器视觉功能的智能设备,这包括智能手机、安防系统、消费电子产品等。
这意味着,我们需要专门为这些不同的应用场景定制出能够更好地满足其需求的AI加速器。不过,在边缘端落地还面临数据量大且运算复杂的问题,这就要求我们的芯片具有强大的算力能力。
CEVA营销副总裁Moshe Sheier指出,当前面临的一个挑战就是如何破解带宽难题。他认为,算法公司在做落地项目时,由于硬件算力不足,有时不得不牺牲一些特性,因此希望能更多地与芯片公司沟通,让芯片设计能够更好地支持算法需求,只有这样才能让AI更加有效率地落地。
至于是否要采用专用还是通用的芯片,他表示两者都有其优势和局限性,而定制化加速器将是一个趋势。此外,他强调视频DSP在AI中的重要性,因为很多时候我们会运行多个神经网络模型,并且进行CV处理,这时候CPU可能会遇到瓶颈。而CEVA推出的NeuPro-S系列处理器正是针对这种情况而优化,它们可以提供高性能、高效能以及可扩展性。
NeuPro-S相比之前版本,其性能提升主要来自硬件优化,比如增加了离线权重压缩和硬件权重解压缩功能,以及支持多级内存系统。这使得它可以更有效率地处理带宽密集型任务,同时也减少了功耗。在软件层面上,CDNN框架允许客户自己的硬件加速器驱动集成,从而实现更加开放和灵活的一体化平台,对于开发者来说既方便又节省成本。