阿里云百炼上线Qwen2.5-Turbo模型:支持100万超长上下文

内容摘要阿里云百炼发布Qwen2.5-Turbo模型,支持超长上下文处理据悉,Qwen2.5-Turbo模型支持高达100万超长上下文,相当于100万个英文单词或150万个汉字。在多个长文本评测集中,其性能表现超越了GPT-4。该模型可应用于多种场

阿里云百炼发布Qwen2.5-Turbo模型,支持超长上下文处理

阿里云百炼上线Qwen2.5-Turbo模型:支持100万超长上下文

据悉,Qwen2.5-Turbo模型支持高达100万超长上下文,相当于100万个英文单词或150万个汉字。在多个长文本评测集中,其性能表现超越了GPT-4。

该模型可应用于多种场景,例如:长篇小说深入理解、代码助手和多篇论文阅读。它能够一次性处理10本长篇小说、150小时的演讲稿或3万行代码。

阿里云百炼上线Qwen2.5-Turbo模型:支持100万超长上下文

具体来说,在1M长度的超长文本检索任务中,Qwen2.5-Turbo的准确率达到100%。在长文本评测集RULER上,其得分达到93.1分,超越GPT-4。

在LV-eval、LongBench-Chat等更接近真实场景的长文本任务中,Qwen2.5-Turbo在大多数维度上超越了GPT-4o-mini。

阿里云百炼上线Qwen2.5-Turbo模型:支持100万超长上下文

除了长文本,Qwen2.5-Turbo在短文本基准上的表现也十分出色,在大多数任务上显著超越了之前上下文长度为1M tokens的开源模型。

阿里云百炼上线Qwen2.5-Turbo模型:支持100万超长上下文

在推理速度方面,该模型利用稀疏注意力机制将注意力部分的计算量压缩了约12.5倍,将处理1M tokens上下文时的首字返回时间从4.9分钟降低到了68秒,速度提升了4.3倍。

尽管如此,长文本任务处理仍面临诸多挑战。未来,阿里云百炼将继续探索长序列人类偏好对齐,优化推理效率和研发更大、更强的长文本模型。

 
举报 收藏 打赏 评论 0
24小时热闻
今日推荐
浙ICP备19001410号-1