К марту 2026 года модели Qwen от Alibaba суммарно скачали 942,1 млн раз на платформе Hugging Face, что почти вдвое превышает показатели ближайшего конкурента Llama, у которого 476 млн загрузок. Такие данные содержатся в свежем ATOM Report, опубликованном 8 апреля на arXiv, где проанализировали около 1500 популярных open-source моделей и динамику их использования.
Ещё в сентябре 2025 года Qwen впервые обошел Llama по количеству загрузок — 325,4 млн против 323,7 млн, после чего разрыв стал быстро увеличиваться. В феврале 2026-го Qwen обеспечивал 153,6 млн загрузок в месяц, превращаясь в де-факто стандарт для значительной части сообщества.
Особенно примечательно рост доли Qwen в кастомных файн-тюнах — с 1% в январе 2024 года до 69% в феврале 2026-го. В то же время Llama снизил свою долю с пика в 44% в августе 2024 до 11%. Это свидетельствует о том, что Qwen широко используется не только для экспериментов, но и в реальных производственных задачах.
Американские компании, включая NVIDIA, Ai2 и IBM, вместе набрали около 56 млн загрузок, что значительно уступает одному только Qwen. Авторы отчёта отмечают, что китайские модели обогнали западные аналоги уже летом 2025 года и продолжают увеличивать преимущество.
Ключевыми факторами успеха стали выпуск Qwen 2.5 с разнообразием размеров моделей и открытой лицензией Apache 2.0, а также демонстрация высококлассных возможностей китайских разработок при меньших затратах. Это постепенно сдвигает центр open-source AI с Кремниевой долины в китайские города Ханчжоу и Шэньчжэнь.
Вопрос о том, насколько загрузки превращаются в реальные коммерческие внедрения, остаётся открытым, так как многие крупные компании используют закрытые API и собственные решения, не учитываемые в статистике. Однако высокая доля файн-тюнов на базе Qwen указывает на его важную роль в создании новых продуктов.
P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть», где я рассказываю об искусственном интеллекте с творческой стороны.