Что это такое?
Прокси-сервер, который делает локальные AI-модели доступными через стандартный API OpenAI.
Это прокси-сервер с открытым исходным кодом, который превращает локальный рантайм OpenCode (доступ к моделям вроде Kimi, GLM, MiniMax) в шлюз, совместимый с OpenAI API. Есть подробная документация, поддержка Docker и гибкая конфигурация.
Для разработчиков, которые хотят экспериментировать с локальными AI-моделями, но не хотят переписывать свой код под нестандартные API.
Многие современные AI-модели доступны локально или через бесплатные сервисы, но у каждого свой API, что усложняет интеграцию в существующие приложения, заточенные под OpenAI.
Проект представляет собой прокси-сервер на Node.js, который переводит запросы в формате OpenAI API на локальный OpenCode CLI. Он запускает два сервиса: сам прокси и бэкенд OpenCode. Поддерживает стриминг, управление рассуждениями (reasoning) и работает как в Docker, так и в чистом Node.js окружении.
Это прокси-сервер с открытым исходным кодом, который превращает локальный рантайм OpenCode (доступ к моделям вроде Kimi, GLM, MiniMax) в шлюз, совместимый с OpenAI API. Есть подробная документация, поддержка Docker и гибкая конфигурация.
Проект умеет автоматически чистить историю диалогов, чтобы не засорять память, и может работать в изолированном окружении, что полезно для мультитенантных развертываний.
Стоит попробовать, если вы разработчик и хотите быстро протестировать локальные AI-модели в своих проектах, заточенных под OpenAI. Это удобный адаптер, но его жизнеспособность зависит от стабильности самого OpenCode CLI.
Проект молодой (версия 1.0.0), есть структурированная документация и Docker-образ, но звёзд и форков пока мало, что говорит о ранней стадии.
Карточка собрана по данным GitHub, README и структуре репозитория. Это не официальная документация проекта.
Прокси-сервер, который делает локальные AI-модели доступными через стандартный API OpenAI.
Для разработчиков, которые хотят использовать бесплатные или локальные модели, но не хотят менять код, написанный для OpenAI.
Если проект подходит под ваш сценарий, можем помочь с установкой, интеграцией, доработкой или аккуратным форком под вашу инфраструктуру.