

DeepSeek发布V4预览版,同步开源。
DeepSeek-V4分为Pro与Flash两个版块,均复古百万(1M)token超长崎岖文,两个版块均大幅缩短了对谋划和显存的需求。

公告里有一句话:\"从当今运转,1M(一百万)崎岖文将是DeepSeek通盘官方办事的标配。\"

OpenAI和Google早就复古超长崎岖文了。问题是本钱。Transformer端庄力机制的谋划量随序列长度平淡增长——序列翻倍,算力变四倍——处理100万token在传统架构下确切无法营业化。
期间论说给出了此次架构转变的幅度:在1M token场景下,V4-Pro的单token推理FLOPs惟有V3.2的27%,KV缓存用量惟有10%。


两把刀
设施Transformer的自端庄力,要让每个token跟序列里通盘其他token算有关性权重。这是平淡复杂度,结构性的,不是工程调优能科罚的。
畴昔的移交方法大体分两类:要么切掉谋划规模(滑动窗口只看局部邻居,全局感知随之袪除),要么绕开长文本本人(RAG先检索再喂给模子,检索质料成为新的上限)。还有固定稀少端庄力,东说念主工绸缪稀少模式来跳过部分谋划,但模式是死的,不同任务的信息漫衍各异大,泛化才气有限。
V4的决策是CSA + HCA搀杂端庄力架构。
CSA(Compressed Sparse Attention)科罚的是\"算什么\"。用轻量级索引器先对通盘token对作念粗筛,快速估算有关性排序,再精选出需要圆善谋划的token皆集。要津在于这套稀少结构是可检修的——模子在检修经由中我方学出那里需要高密度端庄力,那里可以稀少。V3.2时期的DSA是雏形,V4在此基础上作念了进一步演化。
HCA(Heavily Compressed Attention)科罚的是\"存什么\"。在V3时期MLA(Multi-head Latent Attention)的基础上络续股东,把KV向量映射到低维潜空间,推理时解压。叠上FP4+FP8搀杂精度——MoE群众参数用FP4,其余用FP8——KV缓存的显存占用再砍一半。
两者重复的抑制,径直体当今那两个数字:27%的FLOPs,10%的KV缓存。换算过来,同等算力下能办事的长崎岖文并发量约莫是蓝本的3到4倍。
期间论说里还有两个细节值得记一下。
mHC(Manifold-Constrained Hyper-Connections)对残差融合作念了流形料理强化,针对的是1.6T参数超深度模子检修时跨层信号衰减的问题。
Muon优化器替代了Adam系列,基于矩阵正交化更新,在超大限度检修里接续更快,更褂讪——Adam在大模子检修里确切是默许确立,milanDeepSeek此次换掉了它。

数字
官方给出了与Claude Opus 4.6、GPT-5.4 xHigh、Gemini 3.1 Pro High的全维度横评。

数学和竞赛推理是V4-Pro进展最卓越的维度。Codeforces评分3206,四家最高(GPT-5.4是3168,Gemini和V4-Flash都是3052)。Apex Shortlist 90.2,跳跃Opus 4.6(85.9)、GPT-5.4(78.1)、Gemini(89.1)。IMOAnswerBench 89.8,仅次于GPT-5.4(91.4)。
Agent才气上,SWE Verified 80.6,Opus 4.6是80.8。Toolathlon 51.8,Opus 4.6是47.2,GPT-5.4是54.6。公告里有一句里面评价:V4已成为职工Agentic Coding的主力模子,\"使用体验优于Sonnet 4.5,托付质料接近Opus 4.6非念念考模式\"。
长崎岖文测评有两个数字要对比着看:MRCR 1M(长文本要津信息检索)83.5,Gemini是76.3,Opus 4.6是92.9。CorpusQA 1M(长文档精确问答)62.0,Opus 4.6是71.7。MRCR侧重检测要津信息是否存在,CorpusQA要在百万token里精确定位并详细分析——两个测评的分化放在通盘,评释的东西当然明晰。
详细常识和科学前沿推理:SimpleQA-Verified 57.9,Gemini是75.6。HLE(前沿科学推理超坚苦集)37.7,四家里最低。
V4-Flash:284B总参数,13B激活,约为Pro版18%的体量,不异复古1M崎岖文和Think/Think Max推理模式。官方说浅显Agent任务上与Pro\"旗饱读终点\"。
DeepSeek把此次发布叫\"预览版\",期间论说标题里写的是\"Towards\"——朝向,还在路上。CSA和HCA的绸缪逻辑今天依然公开,稀少检修机制在不同任务漫衍下奈何进展,是接下来开源社区会告诉咱们的事。
数据起原:DeepSeek官方公告《DeepSeek-V4 预览版:迈入百万崎岖文普惠时期》(2026年4月24日);期间论说 DeepSeek-V4: Towards Highly Efficient Million-Token Context Intelligence
⭐星标华尔街见闻,好施行可以过⭐
本文不组成个东说念主投资提议,不代表平台不雅点,市集有风险,投资需严慎,请独处判断和决策。
以为颜面,请点“在看”

备案号: