微软宣布为 Win11 用户优化 DeepSeek-R1 模型,让 Copilot+ PC 实现本地化 AI 推理
近日,IT之家 1 月 30 日报道,人工智能技术正在快速融入边缘计算领域,Copilot+ PC 起着关键作用。在 DeepSeek R1 的发布下,微软意识到这一模型可能引发一系列创新变革。
微软今天正式宣布推出针对 NPU 优化的 DeepSeek-R1(IT之家特别注:已在 Azure AI Foundry 和 GitHub 上发布),这一优化产品将首先应用于搭载高通骁龙 X 芯片的 Copilot+ PC,紧随其后的是适配英特尔酷睿 Ultra 200V 等其他平台。
据微软称,首个版本 DeepSeek-R1-Distill-Qwen-1.5B 将在 AI Toolkit 中上线,后续还将推出 7B 和 14B 版本,以帮助开发者充分利用 Copilot+ PC 强大的 NPU 功能。
微软指出,Copilot+ PC 上的 NPU 引入一种全新的运作模式。在这个模式中,生成式 AI 不仅在需要时被调用,同时也可以支撑半持续运行的服务。这使得开发者能够利用 AI 推理引擎创建主动且持久的用户体验。微软表示:
借助我们在 Phi Silica 项目中的研究,我们实现了高效能推理 —— 在首次生成 token 的速度和整体性能方面表现优异,同时有效降低了对电池续航和 PC 资源的影响。针对 NPU 优化的 DeepSeek 模型吸收了该项目中的多项关键经验与技术,涵盖了如何分解模型组成部分以获取性能与效率的最佳组合、低比特率量化技术,以及如何将 Transformer 架构映射到 NPU。另外,我们还利用 Windows Copilot Runtime(WCR)通过 ONNX QDQ 格式在丰富多变的 Windows 生态中实现了扩展。
微软表示,用户只需下载 AI Toolkit VS Code 扩展,即可在 Copilot+ PC 上体验 DeepSeek;同时,优化过的 ONNX QDQ 格式的 DeepSeek 模型也将快速出现在 AI Toolkit 的模型目录中,用户可直接从 Azure AI Foundry 获取。
用户只需点击“下载”按钮,将其下载到本地。下载完成后,只需打开 Playground 并加载“deepseek_r1_1_5”模型,输入提示词即可开展实验。
除了为 Copilot+ PC 优化的 ONNX 模型外,用户还可以通过点击“DeepSeek R1”下的“Try in Playground”按钮,访问 Azure Foundry 中的云托管源模型,进行试用。
如图所示,微软还展示了原始模型和经过量化的模型之间的示例,以揭示两者在表现上的细微差异:
广告声明:文中包含的外部链接(包括但不限于超链接、二维码、口令等形式),旨在传递更多信息,帮助用户节省筛选时间,结果仅供参考。
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。