← Все проекты
Проект / JavaScript

TiaraBasori/opencode2api: OpenCode2API — мост между локальными AI-моделями и OpenAI API

Позволяет использовать бесплатные локальные модели (Kimi, GLM, MiniMax) через стандартный OpenAI API в любых приложениях.

Это прокси-сервер с открытым исходным кодом, который превращает локальный рантайм OpenCode (доступ к моделям вроде Kimi, GLM, MiniMax) в шлюз, совместимый с OpenAI API. Есть подробная документация, поддержка Docker и гибкая конфигурация.

★ 11 JavaScript Форки 0 Issue 0 Оценка 6/10 Карточка проверена

Для кого это

Для разработчиков, которые хотят экспериментировать с локальными AI-моделями, но не хотят переписывать свой код под нестандартные API.

Проблема / задача

Многие современные AI-модели доступны локально или через бесплатные сервисы, но у каждого свой API, что усложняет интеграцию в существующие приложения, заточенные под OpenAI.

Как это работает

Проект представляет собой прокси-сервер на Node.js, который переводит запросы в формате OpenAI API на локальный OpenCode CLI. Он запускает два сервиса: сам прокси и бэкенд OpenCode. Поддерживает стриминг, управление рассуждениями (reasoning) и работает как в Docker, так и в чистом Node.js окружении.

Что видно по README

Это прокси-сервер с открытым исходным кодом, который превращает локальный рантайм OpenCode (доступ к моделям вроде Kimi, GLM, MiniMax) в шлюз, совместимый с OpenAI API. Есть подробная документация, поддержка Docker и гибкая конфигурация.

Ключевые возможности

Полная совместимость с OpenAI API (chat/completions, responses)Поддержка потокового вывода (SSE)Управление уровнем 'рассуждений' модели (reasoning_effort)Готовая Docker-сборка с автоматическим запуском бэкендаБезопасность: по умолчанию отключены вызовы инструментов (tools)

Технологии

Node.jsExpressDockerJavaScriptOpenAI API

Интересный факт

Проект умеет автоматически чистить историю диалогов, чтобы не засорять память, и может работать в изолированном окружении, что полезно для мультитенантных развертываний.

С чего начать

  • Клонировать репозиторий и скопировать .env.example в .env
  • Задать API_KEY и пароль OpenCode в .env
  • Запустить docker compose up -d

Оценка GitRadar

Удобство
7/10
Свежесть
8/10
Перспектива
6/10
Монетизация
4/10
Общая оценка
6/10

Вердикт GitRadar

Стоит попробовать, если вы разработчик и хотите быстро протестировать локальные AI-модели в своих проектах, заточенных под OpenAI. Это удобный адаптер, но его жизнеспособность зависит от стабильности самого OpenCode CLI.

Наблюдения по обновлениям

Проект молодой (версия 1.0.0), есть структурированная документация и Docker-образ, но звёзд и форков пока мало, что говорит о ранней стадии.

Что мы проверили

Карточка собрана по данным GitHub, README и структуре репозитория. Это не официальная документация проекта.

Исходный репозиторий
https://github.com/TiaraBasori/opencode2api
Лицензия
MIT
Создан на GitHub
11 апреля 2026 г.
Последнее обновление репо
11 апреля 2026 г.
Последняя проверка GitRadar
11 апреля 2026 г.
Изученные файлы
docs/README.md, index.js, package.json, README.md, Dockerfile, docker-compose.yml

FAQ

Что это такое?

Прокси-сервер, который делает локальные AI-модели доступными через стандартный API OpenAI.

Для кого подходит?

Для разработчиков, которые хотят использовать бесплатные или локальные модели, но не хотят менять код, написанный для OpenAI.

Источники

  • GitHub исходный код и активность
  • README описание, ссылки, стартовые материалы

Нужна помощь с TiaraBasori/opencode2api?

Если проект подходит под ваш сценарий, можем помочь с установкой, интеграцией, доработкой или аккуратным форком под вашу инфраструктуру.