首页/文本/DeepSeek V4

DeepSeek V4

DeepSeek·CN·开源··发布 2026-03-01

开源通用 LLM 标杆,中文强项,成本敏感场景的第一选择

开源推理冠军,极致性价比

思维链推理开源可商用性价比
分类表现
文本
Rank #14
1372
11
代码
Rank #23
1375
4
累计 72,121 次投票
核心亮点
综合能力

MMLU-Pro 80,开源模型中第一梯队

中文强项

C-Eval 85,中文场景稳定

极致便宜

API $0.27/$1.10,比 GPT-5 便宜 30 倍

Apache 2

权重完全开源,商用无限制

代码能力

HumanEval 89,日常开发够用

快速响应

非推理模型,延迟远低于 R2

适用场景
推荐4 项
  • 中文对话 / 内容生成
  • 成本敏感的批量处理
  • 需要完全开源 / 自部署
  • 通用任务(非极端推理)
不推荐3 项
  • 多模态需求(纯文本)
  • 需要深度推理(用 R2)
  • 超长上下文(128K 上限)
细分 Benchmark
来源:厂商公布 / 第三方评测
MMLU-Pro80 / 100
GPQA Diamond62 / 100
MATH88 / 100
HumanEval89 / 100
SWE-bench Verified56 / 100
C-Eval85 / 100
定价方案
API
$0.27 / $1.10
输入 / 输出 · 每 1M tokens
自部署
免费
GPU 成本自担
企业私有化
联系销售
训练 + 部署支持
规格参数
上下文
128K tokens
输入价
$0.27 / 1M
输出价
$1.10 / 1M
安全与隐私
数据训练
API 数据不用于训练
数据留存
24 小时
合规认证
等保 / 国产合规
数据驻留
中国境内
开源许可
Apache 2
常见问题
Q1V4 和 R2 哪个更强?

R2 是推理专用,复杂题目胜;V4 是通用,日常 / 速度胜。简单任务用 V4(快+便宜),需要深度推导切 R2。

Q2开源模型质量靠谱吗?

DeepSeek 是开源领域第一梯队。MMLU 仅略低于 GPT-5,代码接近 GPT-4 水平。真实工程场景(SWE-bench 56)比闭源顶级弱,但性价比秒杀。

Q3自部署成本多少?

671B 完整版需 8×H100(约 $24 万硬件)+ 月均电费几千。蒸馏版 1-2×A100 即可。每百万 token 成本约 $0.01-0.05,远低于 API。适合大规模场景。

Q4中文能力对比 Qwen 3?

C-Eval 上 V4 略领先(85 vs 82),综合对话 Qwen Max 更均衡。中文推理选 V4,中文对话选 Qwen。

Q5国内企业能用吗?

完全可用。API 数据境内,符合等保。字节 / 腾讯 / 百度等大厂都在用 DeepSeek 做部分生产。