← Все проекты
Проект / Python

XxxXTeam/glm2api: glm2api — мост между ChatGLM и OpenAI API

Используйте мощные китайские модели ChatGLM через привычные OpenAI-совместимые инструменты.

Проект превращает веб-интерфейс сервиса ChatGLM в полноценный API, совместимый со стандартом OpenAI. Это позволяет подключать китайские модели к любым инструментам, которые работают с OpenAI — от официального SDK до популярных чат-интерфейсов.

★ 30 Python Форки 0 Issue 0 Оценка 6/10 Карточка проверена

Для кого это

Для разработчиков, которые хотят интегрировать ChatGLM в свои проекты через стандартный OpenAI SDK, и для пользователей Cherry Studio, Open WebUI, LobeChat, которые хотят добавить поддержку альтернативных моделей.

Проблема / задача

ChatGLM предоставляет только веб-интерфейс, а для интеграции в свои приложения или использования с популярными клиентами нужен стандартный API. Этот проект решает проблему несовместимости.

Как это работает

Это локальный прокси-сервер на Python, который принимает запросы в формате OpenAI API и транслирует их на веб-интерфейс ChatGLM. Он работает как промежуточный слой: ваш код думает, что общается с OpenAI, а на самом деле запросы идут в китайскую модель. Сервис автоматически управляет токенами, сессиями и преобразует форматы ответов.

Что видно по README

Проект превращает веб-интерфейс сервиса ChatGLM в полноценный API, совместимый со стандартом OpenAI. Это позволяет подключать китайские модели к любым инструментам, которые работают с OpenAI — от официального SDK до популярных чат-интерфейсов.

Ключевые возможности

Поддержка чат-запросов через /v1/chat/completionsГенерация изображений через /v1/images/generationsАвтоматическое обновление refresh_tokenНастройка модели через конфигурациюПоддержка потоковой передачи (streaming)

Технологии

PythonHTTP-серверOpenAI API совместимостьOpenAI API

Интересный факт

Проект умеет автоматически обновлять refresh_token и записывать его обратно в конфигурационный файл, что избавляет от ручного обновления сессий.

С чего начать

  • Получите refresh_token с сайта chatglm.cn
  • Скопируйте .env.example в .env и вставьте токен
  • Запустите сервер командой uv run .\main.py

Оценка GitRadar

Удобство
7/10
Свежесть
8/10
Перспектива
6/10
Монетизация
4/10
Общая оценка
6/10

Вердикт GitRadar

Стоит попробовать, если вам нужен доступ к ChatGLM через API, а не через веб-интерфейс. Проект решает конкретную проблему и делает это элегантно.

Наблюдения по обновлениям

Проект выглядит свежим и актуальным, решает конкретную проблему интеграции.

Что мы проверили

Карточка собрана по данным GitHub, README и структуре репозитория. Это не официальная документация проекта.

Исходный репозиторий
https://github.com/XxxXTeam/glm2api
Лицензия
GPL-3.0
Создан на GitHub
9 апреля 2026 г.
Последнее обновление репо
9 апреля 2026 г.
Последняя проверка GitRadar
9 апреля 2026 г.
Изученные файлы
README.md, main.py, pyproject.toml, src/glm2api/app.py, src/glm2api/server.py, src/glm2api/services/__init__.py

FAQ

Что это такое?

Прокси-сервер, который превращает веб-интерфейс ChatGLM в стандартный OpenAI API.

Для кого подходит?

Для разработчиков, которые хотят использовать ChatGLM в своих приложениях через привычные инструменты.

Источники

  • GitHub исходный код и активность
  • README описание, ссылки, стартовые материалы

Нужна помощь с XxxXTeam/glm2api?

Если проект подходит под ваш сценарий, можем помочь с установкой, интеграцией, доработкой или аккуратным форком под вашу инфраструктуру.