阿里雲通義開源長文本模型及推理框架 百萬Tokens處理速度提升近7倍

1月27日凌晨,阿里雲通義開源支持100萬Tokens上下文的Qwen2.5-1M模型,推出7B及14B兩個尺寸,均在處理長文本任務中穩定超越GPT-4o-mini;同時開源推理框架,在處理百萬級別長文本輸入時可實現近7倍的提速。

百萬Tokens長文本,可換算成10本長篇小說、150小時演講稿或3萬行代碼。兩個月前,Qwen2.5-Turbo升級了百萬Tokens的上下文輸入能力。如今,開源社區可基於全新的Qwen2.5-1M系列模型,進行長篇小說或多篇學術論文的解析,或是探索倉庫級代碼的分析和升級。