微软拥抱 DeepSeek,Copilot+ PC 本地运行 7B 和 14B 模型
IT之家 3 月 4 日报道,微软正式宣布已通过 Azure AI Foundry 成功集成 DeepSeek-R1 的 7B 和 14B 蒸馏模型,赋予 Copilot+ PC 本地运行这两种模型的能力。
早在今年1月份,微软便透露将把 DeepSeek-R1 模型的 NPU 优化版本带到搭载高通骁龙 X 处理器的 Copilot+ PC 上,而现在这一承诺已经实现。
根据 IT之家从微软官方博客了解到,该模型将首先在搭载高通骁龙 X 处理器的 Copilot+ PC 上实施,接着会扩展到英特尔酷睿 Ultra 200V 和 AMD 锐龙系列设备。
因为模型在 NPU 上运行,所以它能够显著降低对 PC 电池续航和散热性能的影响,同时保持 AI 计算能力,CPU 和 GPU 可用于执行其他操作。
微软强调,利用 Aqua 内部自动量化工具,所有 DeepSeek 模型变体已被量化为 int4 权重。然而,模型的标记速度仍不理想,微软报告指出,14B 模型的标记速度仅为 8 tok/秒,而 1.5B 模型的标记速度接近 40 tok/秒。公司表示,将继续进行优化以提升速度。
开发者可以通过 AI Toolkit VS Code 扩展在 Copilot+ PC 上下载和使用 DeepSeek 模型的 1.5B、7B 和 14B 版本。
广告声明:文中包含的对外跳转链接(包括超链接、二维码、口令等形式)旨在传达更多信息,帮助节省选择时间,结果仅供参考。
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。