项目简介
DeepSeek V4 是 DeepSeek AI 推���的第四代旗舰模型系列,于 2026年4月24日 正式发布。
基于 MoE(Mixture-of-Experts)架构,支持长达 100万 Token 上下文,最大输出 384K Token。
两个模型都已开源,支持 MIT 许可证商业免费使用。
DeepSeek V4 是开源社区最受期待的大模型之一 — 约1万亿参数的 multimodal MoE 模型,在 NVIDIA 最新芯片上训练优化。
模型对比
| 模型 | 总参数 | 激活参数 | 上下文 | 特点 |
|---|---|---|---|---|
| DeepSeek V4-Pro | 1.6T | 49B | 1M | 最高性能 |
| DeepSeek V4-Flash | 284B | 13B | 1M | 高速低成本 |
如何选择
- V4-Pro — 复杂推理、代码生成、高难度任务
- V4-Flash — 日常对话、摘要、快速响应
API 价格
| 模型 | 输入 (缓存未命中) | 输入 (缓存命中) | 输出 |
|---|---|---|---|
| deepseek-v4-pro | $1.74 / 1M | $0.145 / 1M | $3.48 / 1M |
| deepseek-v4-flash | $0.14 / 1M | $0.028 / 1M | $0.28 / 1M |
API 调用
Python 示例
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.deepseek.com/v1"
)
response = client.chat.completions.create(
model="deepseek-v4-pro",
messages=[
{"role": "user", "content": "你好,请介绍一下DeepSeek V4"}
],
max_tokens=384000
)
print(response.choices[0].message.content)
Model ID
- Pro:
deepseek-v4-pro - Flash:
deepseek-v4-flash
性能表现
- 输出速度 — V4-Pro 可达 150+ tokens/秒/用户
- NVIDIA Blackwell 优化 — 针对最新 GPU 平台优化
- 多模态 — 支持文本、图像、视频输入
- 开源权重 — Hugging Face 可下载
相关资源
DeepSeek V4 是当前最强大的开源模型之一,1M 上下文窗口使其非常适合长文档分析、代码理解和复杂 RAG 场景。
— 完 —
Created with project-researcher skill