高通即将揭晓一项令AI开发者激动的决定手机芯片处理器排名重塑之谜
如果你问AI边缘芯片公司最难的是什么,他们大概率会说落地的应用场景太多、太复杂。如果你问开发者使用AI芯片最难的是什么,他们可能会说没有统一的开发平台。如果你问消费者使用AI的最大感受是什么,他们或许会表达一些对AI智能程度的不满。
在智能手机中,AI已经普及,但体验还不够完善,功能也还不够强大。想要实现体验优秀的AI功能和产品,一定需要从底层的硬件到上层的软件和系统深度融合。所有AI芯片公司都在大谈自家产品优势,但即便对于有能力和经验的AI开发者,要将一个应用程序迁移到不同的产品中总是有许多迁移工作,这也阻碍了AI的大规模推广和进一步创新。
为了解决这个问题,高通给出了最新方案——高通AI软件栈(Qualcomm AI Stack),包括硬件、软件和工具,让OEM厂商或者开发者的一次开发,就可以应用到智能手机、物联网、汽车、XR、云和移动PC等智能网联边缘产品。这足以让开发者兴奋,是“一次编写,随处运行”的梦想。但要实现这个目标,面临着诸多挑战。
Ziad Asghar指出,“不同场景下的功耗需求模型类型模型部署方式等都有所不同,不同业务对于准确性功耗以及时延平衡要求也有很大区别。”Jeff Gehlhaar提到,“如何让我们所有不同的IP都能获得同样的访问权限,让每个IP都能够以统一方式选择相对应解决方案,这是一个主要挑战。”
高通最终推出的就是这样一个全面的组合,从底层硬件联合上层软件与工具优化,以实现跨硬件平台运行。此项工作十分艰巨,要支持不同的操作系统,如Android Windows Linux以及QNX等。在系统软件层面要能完整支持系统接口加速器驱动仿真支持。在库与服务层面要能够支持数学库编译器虚拟平台。此外,还需分析器调试器帮助了解过程中的模型用途,以及在硬件端应该采用怎样的权重进行分析。最后,还需编程语言核心库支撑。
基于Direct这样的引擎,上述这些高通软 件均可实现。Direct可视为较低级别库,在靠近模型或硬件位置进行编辑,以释放最高性能表现。而上之上的则是Runtimes来提高效率并完成更多用例,同时支持神经网络处理SDK ONNX runtimes TF Lite Micro Direct ML 最顶端则是框架如TensorFlow PyTorch ONNX。
此外还有系列工具套装,如AIMET AI图形用户界面用于增强量化优化模型分析器神经网络架构搜索。其中AIMET提供量化感知训练无数据训练,将浮点运算转换为整数运算,比如32位浮点转8位整数提升4倍效能。
而且该栈还支援诸多基础设施包括Prometheus Kubernetes Docker,并包含Snapdragon Ride SDK 智慧多媒体SDK Snapdragon Spaces XR发展平台,为建立统一SDK奠定基础。
Asghar表示,“任何单一终端特性轻松部署于其他终端,只需编译器之一但它只是众多部分之一”,他认为这些因素极其重要需要共同协作确保有效运行。不过刚发布、高通已开始展现其愿景仍然有很长路要走,与客户紧密合作持续投入才可能成功。而若成功,则成就其技术路线图战略及其在市场上的巨大成功关键。