人工智能时代的MCU架构来源:半导体行业观察 仅执行控制任务的 MCU 是一回事。但在当今的 AI 时代,真正支持 AI 的 MCU 需要提供更多功能。了解重要因素 — 从优化的神经处理单元 (NPU) 到节能架构,再到巧妙的内存拓扑。 执行嵌入式控制功能而没有任何原生人工智能 (AI) 功能的传统微控制器 (MCU) 永远存在市场。但是,在端点执行 AI 功能的需求迅速增长,这将越来越决定新产品设计中使用的 MCU 的规格。 MCU 市场的竞争将越来越被那些能够将神经处理单元 (NPU) 功能与传统 MCU 特性和功能紧密结合的人所赢得。MCU 制造商为这种新型混合 CPU/NPU 设备采用的架构对 OEM 的产品设计有着实际影响,会影响其性能和响应时间、功耗以及开发产品的工程团队的生产力。 所有这些都是为了满足最终消费者的期望,他们希望以实惠的价格在可穿戴设备、可听设备、健身和健康监测器、智能相机和游戏等产品中体验流畅、实用的功能,而不会出现可察觉的延迟,并且对云端的依赖较少。 负责选择具有 AI 功能的 MCU 的工程师当然会依赖性能基准和其他技术数据,但他们也将受益于深入了解 NPU 集成到熟悉的嵌入式控制器结构中的方式。 关于 MCU 中神经网络功能的竞争对手实现的争论尚未爆发,仅仅是因为很少有制造商能够真正满足终端物联网设备对有效机器学习 (ML) 功能的市场需求。 总体而言,MCU 市场的巨头们更倾向于通过在其软件开发套件 (SDK) 中添加 ML 功能来增强现有产品组合,同时保持基本不变的传统硅 IP。在几乎所有情况下,这种 IP 都基于 Arm 的旧版 Cortex-M CPU 架构来执行 ML 工作负载,而在极少数情况下,会采用专有的神经网络协处理器。
文章分类:
新闻资讯
|