SheepNav
新上线今天162 投票

DeepSeek V4 Flash 本地推理引擎:专为 Metal 打造,单机运行千亿参数模型

开源社区近日出现一个名为 ds4.c 的小型本地推理引擎,它不追求通用性,而是专为 DeepSeek V4 Flash 模型量身定制。该项目基于 Metal 框架,可在配备 128GB 内存的 MacBook 或 Mac Studio 上运行,并支持 100 万 token 的超长上下文。开发者称,DeepSeek V4 Flash 在思考模式下的“思考段”长度仅为同类模型的五分之一,且与问题复杂度成正比,使其成为少数能在本地真正可用的大模型之一。

为何单独为 DeepSeek V4 Flash 打造引擎?

ds4.c 的开发者坦言,当前本地推理生态已有 llama.cpp、GGML 等优秀项目,但新模型层出不穷,注意力很快被下一个模型吸引。他们选择了一条“窄路”:一次只针对一个模型,确保与官方实现的对数(logits)一致,并通过长上下文测试和智能体集成验证实际可用性。

DeepSeek V4 Flash 之所以“特殊”,核心在于其 MoE(混合专家)架构 带来的效率优势。相比同等参数量的稠密模型,它每次推理仅激活部分参数,因而速度更快。在思考模式下,如果限制最大思考步骤,其生成的“思考段”长度会大幅缩短——在许多场景下仅为其他模型的 1/5,并且这个长度会随问题难度自动调节。这意味着用户可以在开启思考模式的情况下正常使用,而其他模型在同一条件下几乎无法实际运行。

本地运行千亿参数成为可能

该模型拥有 284B 总参数,但激活参数较少,配合 2-bit 量化(需特殊量化方式),可以在 128GB 内存的 Mac 上运行。KV 缓存的压缩效率极高,支持磁盘持久化,使得本地长上下文推理成为现实。开发者指出,在知识边界附近采样时,284B 参数的优势明显——例如询问意大利电视剧或政治问题时,其回答质量远优于 27B 或 35B 的模型。

项目定位与未来展望

ds4.c 并非通用框架,而是 DeepSeek V4 Flash 专用的 Metal 图执行器,集成了模型加载、提示词渲染、KV 状态管理和服务器 API。项目感谢了 llama.cpp 和 GGML 的贡献者 Georgi Gerganov 等人。开发者预期 DeepSeek 后续会发布 V4 Flash 的更新版本,届时引擎也会跟进适配。

当前,该项目主要面向拥有高端个人电脑或 Mac Studio 的开发者与研究者,提供一种“可信的本地推理”方案——不依赖云服务,数据完全本地化。对于希望深入体验 DeepSeek V4 Flash 能力、或进行长上下文实验的用户来说,ds4.c 提供了一个轻量且专注的选择。

延伸阅读

  1. Perplexity 的个人电脑功能现已向所有 Mac 用户开放
  2. Mira Murati 证词揭开 Sam Altman 被解职内幕
  3. 苹果带摄像头 AirPods 即将量产,AI 功能是核心卖点
查看原文