群联 aiDAPTIV+ 技术破局“内存焦虑”:用 NAND 玩转 AI
据悉,科技媒体NeoWin于3月18日发布了一篇关于群联(Phison)展示其aiDAPTIV+技术的报道,这项技术旨在通过动态缓存扩展内存,为AI应用的内存瓶颈提供可能突破之路。
IT之家援引博文介绍,随着人工智能(AI)和机器学习(ML)处理能力成为现代硬件性能的重要指标之一,除了处理器算力外,AI任务对内存需求的巨大性也备受关注。
AI模型的参数和准确性愈高,则对内存的需求就愈大。举例来说,单精度(float32)通常会消耗四倍于参数值的内存。即便是配备32GB显存的RTX 5090,也或许无法满足一个拥有80亿参数的模型的需求。
而通过动态缓存,aiDAPTIV+技术结合基于NAND闪存的“aiDAPTIVCache”缓存技术,可扩展可用的HBM(高带宽内存)/GDDR(面向高带宽应用设计的同步动态随机存储器)。
在GTC 2025大会上,群联与Maingear合作推出了应用aiDAPTIV+技术的AI PRO桌面工作站,并通过aiDAPTIVLink 3.0新版中间件,负责SSD的NAND和GPU之间的数据传输,提供更快的首个Token时间(TTFT)回调响应,并支持更大的LLM(Large Language Model)提示上下文。
以下展示了群联Aidaptiv+技术在参数超过130亿的模型上的应用成果。群联aiDAPTIV+技术在这方面轻松超越了Maingear未采用aiDAPTIV+的四路英伟达RTX 6000 Ada设置。
据Maingear介绍,PRO AI工作站将动态分片70B训练模型,将当前片段提供给GPU进行高速训练,同时将模型的其余部分存储在DRAM和群联AI100 SSD中。每个NVIDIA RTX 6000 ADA在训练时均以最短停机时间全面展示。
广告声明:文内包含的外链(包括但不限于超链接、二维码、口令等形式)仅供参考,方便获取更多相关信息,节省挑选时间。
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。