更新时间:2026-02-14 15:15 来源:牛马见闻
DeepSeek 网页/ APP 正在测试新的长文本模型结构128K 上下文Conditional Memory via Scalable Lookup:A New Axis of Sparsity for Large Language
<p>2月13日],澎湃新)闻记者获悉,DeepSeek 网页/ APP 正在测试新的长文本模型结构,支持 1M 上下文。其API 服务不变,仍为 V3.2,仅支持 128K 上下文。这也被外界认为,DeepSeek或将在今年春节再次“炸场”发布新模型,复刻去年春节现象级轰动。</p> <p>今年1月12日,DeepSeek曾发布一篇新论文《Conditional<br> Memory via Scalable Lookup:A New Axis of Sparsity for Large Language <br> Models》(基于可扩展查找的条件记忆:大语言模型稀疏性的新维度),梁文锋位列作者名单中,这篇论文为北京大学和DeepSeek共同完成。</p> <p>据分析,这篇论文的核心直指当前大语言模型存在的记忆力“短板”,提出了“条件记忆”这一概念。当时行业就普遍猜测,DeepSeek的下一代模型V4或将在今年春节前后正式发布。</p> <p style="text-align:center;"></p> <p></p>
Copyright ® 版权 所有:吉林日报
违法和不良信息举报邮箱:dajilinwang@163.com 违法和不良信息举报: 0431-88600010
ICP备案号:吉ICP备18006035号 网络经营许可证号:吉B-2-4-20100020
地址:长春市高新技术产业开发区火炬路1518号 爆料电话:0431-88601901