有新newin
发布于

从算力到思考力:火山引擎的 AI 价值曲线

1016日,在 FORCE LINK AI 创新巡展武汉站上,火山引擎发布了豆包大模型的系列更新,包括豆包大模型 1.6 原生支持多种思考长度,并推出了豆包大模型1.6 lite、豆包语音合成模型2.0、豆包声音复刻模型2.0等全新模型。

随着AI产业落地持续加速,截至20259月底,豆包大模型日均tokens调用量已突破30万亿,相比今年5月底增长超80%。在企业市场,IDC报告显示,2025年上半年中国公有云大模型服务市场,火山引擎以49.2%的份额占比位居中国第一。

火山引擎总裁谭待指出,全球AI大模型正在三个方向上快速发展:一是深度思考模型正与多模态理解能力融合,二是视频、图像、语音模型逐步实现生产级水平,三是企业级复杂Agent正在走向成熟,为企业激发新的生产力潜能。

豆包大模型1.6升级

在服务大量企业用户的过程中火山引擎发现,开启深度思考模式,模型效果平均可提升31%,但会提高模型延迟和使用成本,这导致在实际应用中,深度思考模式的使用占比仅有18%

针对这一痛点,豆包大模型1.6全新升级:提供MinimalLowMediumHigh四种思考长度,平衡企业在不同场景下对模型效果、时延、成本的不同需求,并进一步提升了思考效率。这也是国内首个原生支持分档调节思考长度的模型。

以低思考长度为例,相比模型升级之前的单一思考模式,升级后的豆包1.6模型总输出tokens下降77.5%、思考时间下降84.6%,模型效果保持不变。

此外,为进一步满足企业的多样化需求,火山引擎正式推出豆包大模型1.6 lite,相比旗舰版本更轻量、推理速度更快。效果上,该模型超越豆包大模型1.5 pro,在企业级场景测评中较豆包1.5 pro提升14%;在使用量最大的0-32k输入区间里,综合使用成本较豆包1.5 pro降低53.3%

豆包语音合成、声音复刻模型 2.0 发布

巡展活动中,火山引擎正式发布豆包语音合成模型2.0Doubao-Seed-TTS 2.0)、豆包声音复刻模型2.0Doubao-Seed-ICL 2.0),具备更强的情感表现力、更精准的指令遵循能力,还能准确朗读复杂公式。

该模型基于豆包大语言模型研发语音合成新架构,让合成和复刻的声音都能进行深度语义理解,并拓展出上下文推理能力,从单纯的文本朗读进化为理解后的精准情感表达。用户还能通过自然语言,实现对语速、情绪、声线、音调、风格变化的精准调整,大幅提升语音的可控性。

在教育场景中,复杂公式和符号的朗读一直是业界难题,目前市面上的同类模型朗读准确率普遍低于50%。新发布的两大语音模型进行了针对性优化,目前在小学至高中阶段全学科的复杂公式朗读中,准确率可达90%

自去年5月首次发布以来,豆包语音模型家族已覆盖语音合成、语音识别、声音复刻、实时语音、同声传译、音乐创作、播客创作等7大领域,已覆盖超过4.6亿台智能终端。语音,正在成为AI应用的核心交互方式。

国内首个模型智能选择解决方案

模型越来越多,面对具体需求时,如何选择模型最有性价比?

为了解决这个问题,火山引擎发布智能模型路由(Smart Model Router),这是国内首个针对模型智能选择的解决方案。即日起,用户可以在火山方舟上选择智能模型路由功能,该功能支持平衡模式效果优先模式成本优先模式三种方案,可针对任务请求自动选择最合适的模型,达到效果与成本的最优解。

目前,火山引擎智能模型路由已支持豆包大模型、DeepSeekQwenKimi等多种主流模型。以DeepSeek为例,经过实测,在效果优先模式下,智能路由后,模型效果相比直接使用DeepSeek-V3.1提升14%;在成本优先模式下,在实现DeepSeek-V3.1相似效果的条件下,模型的综合成本最高下降超过70%

▍ Tokens 增长与价值

现场媒体问答环节,谭待强调算力和客户覆盖并不存在直接等式关系,“模型能力强弱才是穿透更多行业的关键变量。” 在企业落地层面,豆包大模型 1.6 的“思考长度分档”叠加火山方舟的智能模型路由,一端降低时延与成本,一端简化模型选择与编排难度;针对企业常见的管理痛点,还通过 HiAgent “1 + N + X” 统一入口,解决多 Agent 并行带来的知识库与既有系统集成问题。

在模型选择上,智能路由并非简单地“用更大的模型就更好”,而是基于不同任务分布动态挑选最优解。 谭待解释,较大尺寸的 pro 并不会在所有测试集上全面优于 lite,路由通过识别“哪类 prompt 用哪种模型更好”,从而同时获得更低成本与更好效果。该能力已覆盖豆包体系,并扩展到 DeepSeek、Qwen、Kimi 等主流模型,在火山方舟即可直接使用。

生态与开发者策略上,火山引擎将“开发者”视为企业与个人的统称,核心抓手是把平台与工具打磨好,包括火山方舟的高代码工具与路由能力,并通过培训与开放的“万有计划”链接行业伙伴。行业共创已在汽车座舱等场景推进,零售端与瑞幸、茶百道等品牌落地多种应用,更传统的能源等行业也在进入共创路径。 对企业来说,通用类场景(办公、代码、营销、客服)与行业专用场景将同步推进。

对于外界关注的“Tokens 飙升与价值创造关系”,谭待的判断是非线性:“企业愿意为 Tokens 付费,是因为它带来了更大业务增益,创造的价值远大于 Tokens 的增长。” 他进一步给出衡量口径:“是否在做 AI 转型,首先看每天消耗多少 Tokens;如果连 10 亿 Tokens 都没有,确实不太好意思说自己在做 AI 转型。” 在趋势上,生成类模型已达到生产级并快速增长,国内 coding 场景有望在模型能力提升后迎来释放。

在成本与规模化方面,谭待把“成本”拆解为综合命题:单价之外,更长的思考长度会推高账单,开发与运维也会形成隐性成本。由此,1.6 的分档思考与智能路由构成“降本组合拳”,前者通过动态调节把不必要的长思考“收回来”,后者以“效果优先 / 成本优先 / 平衡模式”在不同模型间自动切换;“路由本身不收费,最终按被选中的模型计费。” 谭待补充,这一功能对个人与中小企业同样适用,现已在火山方舟面向全量开放。

✦ 精选内容 

浏览 (2)
点赞
收藏
1条评论
探小金-AI探金官方🆔
探小金:嘿,小伙伴们!有新newin大侦探,你在FORCE LINK AI创新巡展上揭秘了火山引擎的AI新进展,简直萌萌哒!豆包大模型1.6升级了,不仅支持深度思考定在四种长度,还带来了豆包语音和声音复刻的2.0版,让语音交互爽翻天!那49.2%的市场份额,证明了你在大模型服务市场的实力啊~算力与思考力的完美结合,让企业效率飙高,简直不要太智能!对了,智能模型选择解决方案,是不是让模型选择变得更轻松了呢?记得,不是越大就是越好,而是适合最重要~而且,你对Tokens增长的见解,不仅有趣,还让咱们对AI转型有了新的理解。嗯,看来AI的春天真的来了,咱们一起期待更多创新火花吧!🚀✨
点赞
评论