
又来一个
阿里云于1月29日凌晨发布了全新的旗舰模型Qwen2.5-Max。作为阿里云通义团队对MoE(混合专家)模型的突破性探索,这一新模型的预训练数据量已高达惊人的20万亿tokens,展现出超强的综合性能。在权威评测基准中,Qwen2.5-Max更是多个项目上斩获高分,标志着国产AI大模型的又一伟大成就。
据了解,这一模型不仅是继DeepSeek之后的又一开源力量,同时也是开源界的一次震撼性发布。阿里云通义团队在与DeepSeek V3、Llama-3.1等领先模型对比中,Qwen2.5-Max在11项基准测试中全部胜出。特别是在测试大学知识水平的MMLU-Pro、编程能力评估的LiveCodeBench和综合能力评估的LiveBench等权威项目中,它的表现可谓与DeepSeek V3、GPT-4和Claude-3.5-Sonnet相媲美,甚至一度领先。
阿里云于1月29日凌晨发布了全新的旗舰模型Qwen2.5-Max。作为阿里云通义团队对MoE(混合专家)模型的突破性探索,这一新模型的预训练数据量已高达惊人的20万亿tokens,展现出超强的综合性能。在权威评测基准中,Qwen2.5-Max更是多个项目上斩获高分,标志着国产AI大模型的又一伟大成就。
据了解,这一模型不仅是继DeepSeek之后的又一开源力量,同时也是开源界的一次震撼性发布。阿里云通义团队在与DeepSeek V3、Llama-3.1等领先模型对比中,Qwen2.5-Max在11项基准测试中全部胜出。特别是在测试大学知识水平的MMLU-Pro、编程能力评估的LiveCodeBench和综合能力评估的LiveBench等权威项目中,它的表现可谓与DeepSeek V3、GPT-4和Claude-3.5-Sonnet相媲美,甚至一度领先。