Что это такое?
Локальный сервер-агрегатор, который объединяет API множества бесплатных провайдеров больших языковых моделей (LLM) в один простой интерфейс, как у OpenAI.
Это шлюз с открытым исходным кодом, который агрегирует API более чем 14 бесплатных провайдеров языковых моделей (OpenRouter, Groq, NVIDIA, Google Gemini и др.) в один сервер, совместимый с клиентскими библиотеками OpenAI. Вместо работы с десятками разных...
Для разработчиков, инженеров DevOps и исследователей, которые хотят экспериментировать с разными LLM без привязки к одному провайдеру и без больших затрат.
Каждый крупный провайдер ИИ предлагает свой API, свои лимиты и ключи — управлять этим вручную сложно и неудобно. Проект решает проблему фрагментации, объединяя всё в одном месте.
Проект разворачивается как локальный сервер на Python (FastAPI). Вы настраиваете бесплатные API-ключи от разных провайдеров в одном файле .env. Сервер предоставляет единую конечную точку (localhost:8080/v1), которая автоматически маршрутизирует ваши запросы к доступным моделям, отслеживает лимиты, переключается при ошибках и показывает статистику в веб-дашборде.
Это шлюз с открытым исходным кодом, который агрегирует API более чем 14 бесплатных провайдеров языковых моделей (OpenRouter, Groq, NVIDIA, Google Gemini и др.) в один сервер, совместимый с клиентскими библиотеками OpenAI. Вместо работы с десятками разных endpoints и ключей вы используете один URL и один мастер-ключ. Система сама управляет ротацией провайдеров, балансировкой нагрузки и отслеживанием квот.
Проект автоматически подтягивает список новых бесплатных моделей из публичного репозитория awesome-free-llm-apis, так что каталог может расширяться без обновления кода шлюза.
Стоит попробовать, если вам нужен бесплатный и гибкий доступ к множеству LLM для прототипирования, тестирования или образовательных целей. Это удобная надстройка, избавляющая от рутины. Однако для продакшена нужно учитывать, что все провайдеры — бесплатные tier с серьёзными ограничениями.
Проект активный, кодовая база структурирована, есть Docker-образ и продуманная система rate limiting. Однако звёзд и форков пока немного (22 и 5), что говорит о ранней стадии adoption.
Карточка собрана по данным GitHub, README и структуре репозитория. Это не официальная документация проекта.
Локальный сервер-агрегатор, который объединяет API множества бесплатных провайдеров больших языковых моделей (LLM) в один простой интерфейс, как у OpenAI.
Для разработчиков и инженеров, которые хотят тестировать и сравнивать разные LLM без необходимости интегрироваться с каждым провайдером отдельно и без коммерческих подписок.
Если проект подходит под ваш сценарий, можем помочь с установкой, интеграцией, доработкой или аккуратным форком под вашу инфраструктуру.