DC娱乐网

火山引擎发布四款豆包大模型,推出智能模型路由

10月16日消息,在FORCELINKAI创新巡展・武汉站,火山引擎正式发布和升级四款豆包大模型,同时推出国内首个模型智能选择解决方案“智能模型路由”,进一步巩固其在AI大模型领域的领先地位。

此次升级的豆包大模型1.6为国内首个原生支持“分档调节思考长度”的模型,提供四种思考模式以平衡效果、时延与成本,低思考长度模式下可减少77.5%总输出Tokens和84.6%思考时间,效果保持不变。

全新发布的豆包1.6lite模型性价比突出,较1.5pro效果提升14%,0-32k输入区间综合成本降低53.3%。

此外,豆包语音合成与声音复刻模型2.0实现情感精准表达,复杂公式朗读准确率达90%,已覆盖超4.6亿台智能终端。

新推出的智能模型路由支持豆包、DeepSeek等主流模型的智能调用,效果优先模式下可提升14%模型效果,成本优先模式最高能降低70%综合成本。

数据显示,截至9月底,豆包大模型日均Tokens调用量突破30万亿,较5月增长超80%;IDC报告显示,2025年上半年火山引擎以49.2%的份额位居中国公有云大模型服务市场第一。

火山引擎总裁谭待表示,全球AI大模型正朝着深度思考与多模态融合、生产级音视频模型、成熟企业级Agent三大方向发展。(转自AI普瑞斯)