Nguồn: DeepSeek API Docs
Tóm tắt
DeepSeek chính thức phát hành DeepSeek-V4 Preview — open-source với hai phiên bản: V4-Pro (1.6T tổng / 49B active parameters) và V4-Flash (284B tổng / 13B active). Đây là mốc quan trọng trong dòng model Mixture-of-Experts (MoE) của DeepSeek, hỗ trợ context length lên đến 1 triệu token với chi phí cạnh tranh.
DeepSeek-V4-Pro được đánh giá ngang ngửa các top closed-source model trong các benchmark toán học, STEM và coding. Trên bảng xếp hạng LamBench (Lambda Calculus Benchmark), model này đạt 53.3% (64/120), trong khi các model frontier như GPT-5.4 và Claude Opus-4.6 đạt 90%+. V4-Flash phù hợp cho use case yêu cầu latency thấp và cost hiệu quả.
Điểm nổi bật về agentic capabilities: DeepSeek-V4-Pro được công bố là SOTA open-source trong agentic coding benchmarks, vượt các model open-weight hiện tại về world knowledge (chỉ sau Gemini-3.1-Pro). Open weights được công bố trên HuggingFace, kèm theo technical report chi tiết.
API được cập nhật ngay ngày ra mắt tại chat.deepseek.com, hỗ trợ Expert Mode và Instant Mode. Đây là bước tiến đáng kể trong cuộc cạnh tranh open-source vs closed-source LLM, đặc biệt với context window 1M token hiếm thấy ở các model mã nguồn mở.