新浪科技讯2月11日晚间消息,多名用户反馈,deepseek在网页端和app端进行了版本更新,支持最高1m(百万)token的上下文长度。而去年8月发布的deepseekv3.1上下文长度拓展至128k。
实测中发现,deepseek在问答中称自身支持上下文1m,可以一次性处理超长文本。提交超过24万个token的《简爱》小说文档,deepseek可以支持识别文档内容。
之前曾有知情人士称,deepseek春节更可能推出的是针对v3系列模型的小幅更新。但该人士同时透露,真正的重头戏仍在路上。deepseek下一代旗舰模型预计将是一款万亿参数级别的基础模型,正因规模大幅跃升,训练速度明显放缓,导致发布进程有所延后。