GLM-5
GLM-5 — флагманская LLM от Zhipu, ориентированная на сложное программирование и “длинные” агентные сценарии: планирование, выполнение многошаговых задач, работа с инструментами и стабильная генерация кода.
Дата обновления:15.02.2026
Основной функционал
- GLM-5 позиционируется как модель для “agentic engineering” — то есть не только для ответов в чате, а для решения задач, где нужно спланировать работу, выполнить серию шагов, контролировать результат и при необходимости исправляться. На практике это выражается в нескольких ключевых направлениях.
- Кодинг и разработка. GLM-5 сильна в генерации и рефакторинге кода, объяснении чужих репозиториев, написании тестов, миграций и утилит, а также в “пакетных” изменениях по проекту (например, обновить API-клиент, заменить паттерн в нескольких модулях, привести типы к единому виду). Модель подают как конкурентоспособную в задачах программирования и длительных агентных цепочках.
- Агентные сценарии и инструменты. GLM-5 рассчитана на работу “как агент”: получать цель, уточнять ограничения, разбивать на подзадачи, вызывать инструменты/функции и возвращать итог с проверками. В экосистеме Z.ai это связано с IDE-воркфлоу и интеграциями для кодинга.
- Платформенные варианты использования. Есть как минимум два типичных способа “пощупать” GLM-5: через веб-интерфейс Z.ai (чат/ассистент), через API Z.ai (developer platform), где модель вызывается программно и встраивается в продукт. Документация показывает быстрый старт и варианты использования с SDK/запросами.
- Длинные задачи и устойчивость. Отдельный акцент — способность вести “long-horizon” задачи: когда решение не укладывается в один ответ и требует последовательности действий (например: “проанализируй требования → предложи архитектуру → напиши каркас → добавь тесты → проверь типы → сформируй PR-описание”). Это и есть тот класс задач, под который GLM-5 продвигается в официальных материалах и новостях о релизе.
Технические особенности
- С технической стороны GLM-5 доступна как минимум в двух плоскостях: (а) открытая модель/публикация в экосистеме open-source, и (б) управляемый доступ через Z.ai API.
- API и аутентификация. В документации Z.ai описан стандартный подход: API-ключ и Bearer-авторизация в заголовке запроса. Это удобно для серверных интеграций (Next.js/Node, Python-бекенд и т.п.), где вы централизованно контролируете ключи, лимиты и маршрутизацию запросов.
- Модели и режимы вызова. В линейке отдельно фигурирует GLM-5 и вариант, ориентированный на кодинг (например, GLM-5-Code в прайсе документации). Наличие “coding”-ветки обычно означает более предсказуемое поведение в задачах разработки: структура ответов, аккуратность изменений, внимание к синтаксису и типам.
- Цена и кэширование. В прайсе Z.ai упоминаются разные категории стоимости (input/output) и “cached input”, а также пометка “Limited-time Free” для некоторых позиций. Для продакшена это важно: кэширование входа может снижать стоимость повторяющихся промптов (шаблоны системных инструкций, неизменяемые контексты) и повышать стабильность latency/стоимости.
- Ориентация на агентные цепочки. Официальный блог и описание GLM-5 подчёркивают “agentic engineering”: модель проектируется под комплексные системы и многошаговые сценарии. Это косвенно говорит о приоритете на планирование, контроль промежуточных результатов и “инженерный” стиль выполнения задач (список шагов, проверка ограничений, итоговые артефакты).
- Аппаратная и индустриальная рамка релиза. В новостях о запуске отмечалось, что модель и её инференс развивались с опорой на китайскую аппаратную базу (в контексте локальных чипов). Для конечного пользователя это скорее означает, что у провайдера есть мотивация масштабировать инфраструктуру внутри своего региона и поддерживать доступность сервиса при ограничениях на импорт железа.
Тарифы

Кому подойдет
- Разработчикам и небольшим командам, которым нужен помощник для задач “архитектура → код → тесты → правки”, особенно когда работа идёт итерациями и важна последовательность.
- Продуктовым командам, которые встраивают LLM в сервис: чат, автоматизация саппорта, генерация контента, агенты для внутренних процессов — через API Z.ai.
- Создателям инструментов для кодинга/IDE-воркфлоу, где ценится скорость “прикладной” генерации кода и совместимость с экосистемой код-ассистентов.
Бесплатные кредиты
По официальной странице Zhipu упоминается 20.00 million tokens for free (бесплатные токены/триал на старте). Дополнительно в документации по ценам видно, что для некоторых тарифных составляющих (например, cached input) может действовать пометка “Limited-time Free” — это не “вечный бесплатный план”, а временная льгота/акция, которую стоит проверять перед продакшен-расчётами. Также у Z.ai есть механика реферальных кредитов: за приглашённых пользователей начисляются бонусы в виде credits (правила описаны в документации).