专注AIGC领域的专业社区,关注微软&OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地,聚焦LLM的市场研究和AIGC开发者生态,欢迎关注!
阿里巴巴重磅发布了Qwen2.5-Turbo 版本。为了满足用户和开发者的需求,阿里在Qwen2.5-Turbo 版本,将上下文从之前的128K扩展至100万tokens,相当于大约100万个英文单词或150万个汉字,足以涵盖10部长篇小说、150小时的演讲稿或3万行代码,使得模型的整体理解、生成能力获得大幅度提升。在线demo:https://www.modelscope.cn/studios/Qwen/Qwen2.5-Turbo-1M-Demo这种百万级上下文能力,使Qwen2.5-Turbo在处理复杂长文本任务时表现出色,例如,在大海捞针任务中,能够完美捕捉所有隐藏的数字,显示出在超长上下文中捕捉细节信息的强大能力。Qwen2.5-Turbo还通过采用稀疏注意力机制,显著提高了推理速度,将生成首个token的时间从4.9分钟减少到了68秒,实现了4.3倍的加速,这意味着在实际应用中,能更快地响应用户的请求。以理解长篇小说为例,Qwen2.5-Turbo能够处理包含690k tokens的三部《三体》系列小说,并提供英文的剧情摘要,这展示了它在深度理解长文本和跨语言摘要方面的强大能力。尽管处理能力大幅提升,Qwen2.5-Turbo的价格却保持不变,为0.3元/1M tokens,用户可以以相同的成本处理更多的tokens,即3.6倍于GPT-4o-mini的tokens数量。本文素材来源阿里巴巴,如有侵权请联系删除