黑芝麻智能发布华山 A2000 家族智驾芯片平台,算力达“当前主流旗舰芯片的 4 倍”

xxn 阅读:81603 2024-12-30 16:00:23 评论:0

IT之家于12月30日报道,黑芝麻智能今天正式发布了一款专为新一代 AI 模型设计的高性能芯片平台——华山 A2000 家族

华山 A2000 家族包含三款产品:A2000 Lite、A2000 和 A2000 Pro,旨在满足不同层级的自动驾驶需求:

  • A2000 Lite 针对城市智能驾驶

  • A2000 提供全场景智能驾驶支持

  • A2000 Pro 设计于高阶全场景智能驾驶

华山 A2000 家族芯片集成了 CPU、DSP、GPU、NPU、MCU、ISP 和 CV 等多种功能单元,实现了高度的集成化和多任务处理能力;新一代 ISP 技术支持 4 帧曝光和 150dB HDR,在隧道和夜间场景下表现出色,显著提升图像处理能力。

此外,A2000 家族的单芯片数据闭环设计使得智驾功能正常运作的同时,实现全车数据的脱敏、压缩、编码与存储。

华山 A2000 家族的算力达到了“现有主流旗舰芯片的四倍”,并原生支持 Transformer 模型。这一系列产品的灵活扩展性,允许根据不同自动驾驶需求进行多芯片算力扩展,涵盖了从 NOA 到 Robotaxi 的各种应用场景。

不仅如此,华山 A2000 家族芯片适用于智能汽车,还支持机器人及通用计算领域。值得特别指出的是,A2000 芯片能够匹配机器人的“大小脑”需求,助力机器人产业进入大规模量产阶段。

根据公告,黑芝麻智能发布了自研 NPU 新架构——“九韶”。这是为了满足自动驾驶技术需求而推出的 AI 芯片计算核心,支持新一代通用 AI 工具链 BaRT 和新型双芯粒互联技术 BLink。

九韶 NPU 采用大核架构,能够实时推理智驾大模型,支持包括 INT8 / FP8 / FP16 的混合精度,集成高精度量化及 Transformer 的硬加速,简化开发者在量化与部署过程中的操作。

此外,九韶 NPU 拥有低延时和高吞吐的三层内存架构,其中包括大容量高带宽的 NPU 专用缓存、核心模块内共享缓存,以及对称的双数据通路和专用 DMA 引擎。这提升了整体性能和有效带宽,减少了对外部存储带宽的依赖。

为发挥九韶 NPU 的最大效能,黑芝麻智能还研发了新一代的通用 AI 工具链 BaRT。BaRT 可支持多种流行框架和模型转换,原生兼容 PyTorch 推理 API,并支持 Python 部署,方便开发者进行 AI 模型的构建与实施。

BaRT 的另一个显著优势是支持主流的 Triton 自定义算子编程,开发者可以使用 Python 编写这些算子,并自动编译为硬件加速代码,从而进一步提升 AI 模型的部署速度。

为满足不同阶段自动驾驶的算力要求,全新双芯粒互联技术 BLink支持高效的 Cache 一致性和 C2C(Chip-to-Chip)互联,能够扩展支持更大规模模型的算力,为长期算法演进做好准备。

借助 BLink 技术,A2000 系列芯片实现了软件单 OS 跨片部署,支持高带宽的一致性 C2C 连接,符合 NUMA 跨芯片访存要求,简化了软件开发及部署的复杂度。

广告声明:本文中包含的外部链接(如超链接、二维码等),旨在提供更多信息以节省您的筛选时间,结果仅供参考。

声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

搜索
排行榜
关注我们

扫一扫关注我们,了解最新精彩内容