> **来源:[研报客](https://pc.yanbaoke.cn)** # DeepSeek-V4 发布总结 ## 核心内容 DeepSeek-V4 是一款在金融文本分析、Agent 能力、超长文本处理等方面表现突出的大型语言模型。该模型通过三大架构创新,实现了对1M(百万)上下文长度的高效处理,显著提升了推理速度和模型性价比。其在金融领域具有广泛的应用潜力,特别是在中文金融专业任务中表现优异,是当前处理金融文本任务的首选模型。 ## 主要观点 - DeepSeek-V4 实现了1M上下文长度的突破,使用 CSA+HCA 混合压缩注意力机制、mHC 流形约束超级连接、Muon 优化器等技术显著优化了模型性能。 - DeepSeek-V4 在知识推理、Agent 能力、金融文本分析等多个方面表现优异,其推理能力接近顶级闭源模型,是开源模型中的佼佼者。 - DeepSeek-V4 在金融文本分类、抽取、生成、翻译等任务中表现突出,特别是在中文金融任务上具有代际领先优势。 - 模型在实际任务执行中展现出较强的结构化信息处理能力,但部分细节仍需人工干预与优化。 ## 关键信息 ### 模型版本与参数 | 模型名称 | 总参数 | 激活参数 | 上下文长度 | 预训练数据量 | 价格优势 | |-----------------|--------|----------|------------|--------------|----------| | DeepSeek-v4-pro | 1.6T | 49B | 1M | 33T | 限时2.5折 | | DeepSeek-v4-flash | 284B | 13B | 1M | 32T | 更高性价比 | | DeepSeek-v3.2 | 671B | 37B | 128K | 15T | - | ### 架构创新 1. **CSA+HCA:混合压缩注意力机制** - CSA(Compressed Sparse Attention)将每4个字压缩为一个 KV 条目,保留最近128个 tokens 的原始 KV 滑动窗口。 - HCA(Heavily Compressed Attention)将每128个 tokens 压缩为一个,适合捕捉极长距离依赖。 2. **mHC:流形约束超级连接** - 通过 Sinkhorn-Knopp 算法将残差映射矩阵约束到双随机矩阵流形上,确保信息传递丰富且稳定,提升推理能力与训练效率。 3. **Muon 优化器替代 AdamW** - 使用自创的“两阶段混合 Newton-Schulz 迭代”提升梯度更新效率,使模型在更短时间内学习到更高质量的知识。 ### 金融文本分析能力 - DeepSeek-V4 在金融文本分类、抽取、生成、翻译等任务中均表现优异,特别是在中文语境下,其在金融公告分类、研报关键指标抽取、专业文案生成、中英金融术语对齐翻译等方面具有显著优势。 - 在 CFLUE 测试集上,DeepSeek-V4 的综合表现优于 Claude Opus 4.7、Gemini-3.1、GPT-5.4、GLM-5.1 等模型。 ### 量化工程实战表现 - DeepSeek-V4 在量化投研场景中表现出色,能够处理 Parquet 数据清洗、金融官网结构化信息抓取、基于 A 股逻辑的因子挖掘与择时回测框架构建等任务。 - 模型具备 Agentic Search 能力,能有效对接投研工作流,提升代码编写与调试效率。 - 在处理 Parquet 数据分析任务时,模型能够完成数据读取、统计分析、图表生成等任务,但部分细节如中文显示问题仍需人工优化。 ### 网络爬虫任务表现 - DeepSeek-V4-Pro 能够准确解析网页结构,识别动态加载内容,并进行结构化信息抽取。 - 输出结果字段清晰,但内容中仍带有 HTML 标记,需进一步处理以确保可读性与实用性。 ## 结构化任务表现对比 ### 金融文本分析任务 | 模型名称 | 金融文本分类准确度 | 金融文本抽取 F1 分数 | 金融阅读理解总得分 | 金融文本生成相似度 | 金融翻译英译中得分 | 金融翻译中译英得分 | |------------------|--------------------|----------------------|---------------------|---------------------|--------------------|--------------------| | DeepSeek-V4 Flash | 75.56% | 53.48% | 55.53% | 25.84% | 16.393 | 24.761 | | DeepSeek-V4 Pro | 77.78% | 55.30% | 58.22% | 30.73% | 19.286 | 31.024 | | GLM-5.1 | 60.00% | 51.64% | 52.08% | 22.82% | 4.450 | 2.880 | | Claude Opus 4.7 | 66.67% | 35.95% | 50.04% | 27.44% | 18.595 | 24.994 | ### 金融应用评估结果 | 任务类型 | DeepSeek-V4 Flash | DeepSeek-V4 Pro | GLM-5.1 | Claude Opus 4.7 | |---------------------|-------------------|------------------|---------|-----------------| | 金融文本分类 | 75.56% | 77.78% | 60.00% | 66.67% | | 金融文本抽取 | 53.48% | 55.30% | 51.64% | 35.95% | | 金融阅读理解总得分 | 55.53% | 58.22% | 44.52% | 37.36% | | 金融文本生成相似度 | 25.84% | 30.73% | 28.12% | 27.44% | | 金融翻译英译中得分 | 16.393 | 19.286 | 4.450 | 18.595 | | 金融翻译中译英得分 | 24.761 | 31.024 | 2.880 | 24.994 | ## 风险提示 - 模型结果基于历史数据统计、建模和测算,历史规律不必然代表未来。 - 市场环境变化可能导致模型失效。 - 策略基于历史数据回测,当交易成本或其他条件变化时,可能导致收益下降或亏损。 - 大模型输出存在一定的随机性和准确性风险。 - 模型输出结果可能因提示词变化而不同。 ## 总结 DeepSeek-V4 在多个维度上实现了技术突破,特别是在金融文本分析和量化投研任务中表现优异。其高效的架构设计显著提升了模型性能与性价比,是当前处理中文金融专业任务的首选模型。虽然在某些细节处理上仍需人工干预,但其整体表现已达到或接近闭源模型水平,具备广泛的应用前景。