Ofrecen formatos cuantizados compatibles con edge (GPTQ, AWQ) y opciones de parámetros de 3B, 7B y 72B, incluyendo variantes MoE eficientes para uso empresarial.
Estos modelos superan a GPT-4o, Claude-3.5-Sonnet y Llama-3-405B en benchmarks como MMLU-Pro y Arena-Hard. Qwen2.5-Max sobresale frente a DeepSeek V3 en codificación y razonamiento, utilizando entre un 40 y 60% menos de recursos.
Alibaba ha revelado en WeChat que Qwen 2.5 Max ha superado a Llama de Meta y a DeepSeek V3 en pruebas clave de IA.