DeepSeek V4
DeepSeek·CN·开源·文·发布 2026-03-01
开源通用 LLM 标杆,中文强项,成本敏感场景的第一选择
开源推理冠军,极致性价比
思维链推理开源可商用性价比
分类表现
文本
Rank #14
1372
11
代码
Rank #23
1375
4
累计 72,121 次投票
核心亮点
综合能力
MMLU-Pro 80,开源模型中第一梯队
中文强项
C-Eval 85,中文场景稳定
极致便宜
API $0.27/$1.10,比 GPT-5 便宜 30 倍
Apache 2
权重完全开源,商用无限制
代码能力
HumanEval 89,日常开发够用
快速响应
非推理模型,延迟远低于 R2
适用场景
推荐4 项
- ✓中文对话 / 内容生成
- ✓成本敏感的批量处理
- ✓需要完全开源 / 自部署
- ✓通用任务(非极端推理)
不推荐3 项
- ✗多模态需求(纯文本)
- ✗需要深度推理(用 R2)
- ✗超长上下文(128K 上限)
vs 同类竞品
细分 Benchmark
来源:厂商公布 / 第三方评测
MMLU-Pro80 / 100
GPQA Diamond62 / 100
MATH88 / 100
HumanEval89 / 100
SWE-bench Verified56 / 100
C-Eval85 / 100
定价方案
API
$0.27 / $1.10
输入 / 输出 · 每 1M tokens
自部署
免费
GPU 成本自担
企业私有化
联系销售
训练 + 部署支持
规格参数
上下文
128K tokens
输入价
$0.27 / 1M
输出价
$1.10 / 1M
安全与隐私
数据训练
API 数据不用于训练
数据留存
24 小时
合规认证
等保 / 国产合规
数据驻留
中国境内
开源许可
Apache 2
同类相关模型
常见问题
Q1V4 和 R2 哪个更强?
R2 是推理专用,复杂题目胜;V4 是通用,日常 / 速度胜。简单任务用 V4(快+便宜),需要深度推导切 R2。
Q2开源模型质量靠谱吗?
DeepSeek 是开源领域第一梯队。MMLU 仅略低于 GPT-5,代码接近 GPT-4 水平。真实工程场景(SWE-bench 56)比闭源顶级弱,但性价比秒杀。
Q3自部署成本多少?
671B 完整版需 8×H100(约 $24 万硬件)+ 月均电费几千。蒸馏版 1-2×A100 即可。每百万 token 成本约 $0.01-0.05,远低于 API。适合大规模场景。
Q4中文能力对比 Qwen 3?
C-Eval 上 V4 略领先(85 vs 82),综合对话 Qwen Max 更均衡。中文推理选 V4,中文对话选 Qwen。
Q5国内企业能用吗?
完全可用。API 数据境内,符合等保。字节 / 腾讯 / 百度等大厂都在用 DeepSeek 做部分生产。