← Все проекты
Проект / Go

Quorinex/Freebuff2API: Freebuff2API — прокси-сервер для бесплатных AI-моделей Freebuff

Используйте бесплатные модели Freebuff через стандартный OpenAI API без переписывания кода.

Freebuff2API — это open-source прокси-сервер, который делает API сервиса Freebuff (предлагающего бесплатные AI-модели) совместимым со стандартом OpenAI. Это позволяет использовать любые клиентские библиотеки, инструменты и SDK, разработанные для OpenAI, для...

★ 160 Go Форки 29 Issue 0 Оценка 7/10 Карточка проверена

Для кого это

Для разработчиков и DevOps-инженеров, которые хотят интегрировать AI-модели в свои приложения, но не хотят платить за OpenAI API или менять клиентский код.

Проблема / задача

Бесплатные AI-модели Freebuff имеют свой нестандартный API, что заставляет переписывать клиентский код. Прямое использование может привести к блокировкам из-за распознавания автоматических запросов.

Как это работает

Проект поднимает прокси-сервер на Go, который принимает стандартные запросы OpenAI API и прозрачно преобразует их в формат Freebuff. Сервер имитирует поведение официального SDK, ротирует токены авторизации для обхода лимитов и поддерживает работу через HTTP-прокси. Клиенты (SDK, CLI, приложения) подключаются к этому прокси как к обычному OpenAI-серверу.

Что видно по README

Freebuff2API — это open-source прокси-сервер, который делает API сервиса Freebuff (предлагающего бесплатные AI-модели) совместимым со стандартом OpenAI. Это позволяет использовать любые клиентские библиотеки, инструменты и SDK, разработанные для OpenAI, для работы с моделями Freebuff. Проект написан на Go, легко разворачивается через Docker или бинарный файл, поддерживает ротацию нескольких токенов и скрывает...

Ключевые возможности

Полная совместимость с OpenAI APIСкрытное поведение запросов (имитация официального SDK)Автоматическая ротация нескольких токенов авторизацииПоддержка HTTP-прокси для исходящего трафикаПростая конфигурация через JSON или переменные окружения

Технологии

GoDockerExpressOpenAI API

Интересный факт

Проект использует технику «отпечатков клиента» — динамически рандомизирует заголовки и параметры запросов, чтобы они выглядели как запросы от реального браузера или официального SDK Freebuff, снижая риск блокировки.

С чего начать

  • Получите auth-токен на сайте freebuff.llm.pm или через CLI
  • Скачайте и запустите Docker-образ с вашим токеном
  • Настройте ваш OpenAI-клиент (например, библиотеку openai-python) на адрес http://localhost:8080

Оценка GitRadar

Удобство
8/10
Свежесть
7/10
Перспектива
6/10
Монетизация
4/10
Общая оценка
7/10

Вердикт GitRadar

Стоит попробовать, если вам нужен бесплатный доступ к AI-моделям через знакомый интерфейс OpenAI API. Проект решает конкретную проблему интеграции и делает это элегантно. Однако он зависит от стабильности и политик Freebuff.

Наблюдения по обновлениям

Проект активен, использует современный Go 1.23, имеет Docker-образ и понятную документацию. Кодовая база чистая и сфокусированная.

Что мы проверили

Карточка собрана по данным GitHub, README и структуре репозитория. Это не официальная документация проекта.

Исходный репозиторий
https://github.com/Quorinex/Freebuff2API
Лицензия
MIT
Создан на GitHub
18 апреля 2026 г.
Последнее обновление репо
18 апреля 2026 г.
Последняя проверка GitRadar
18 апреля 2026 г.
Изученные файлы
README.md, main.go, go.mod, server.go, go.sum, Dockerfile

FAQ

Что это такое?

Прокси-сервер, который превращает нестандартный API Freebuff в стандартный OpenAI API, чтобы вы могли использовать бесплатные модели с привычными инструментами.

Для кого подходит?

Для разработчиков и инженеров, которые экспериментируют с AI, хотят сэкономить на API или нуждаются в резервном/бесплатном канале для AI-запросов без изменения кода приложения.

Источники

  • GitHub исходный код и активность
  • README описание, ссылки, стартовые материалы

Нужна помощь с Quorinex/Freebuff2API?

Если проект подходит под ваш сценарий, можем помочь с установкой, интеграцией, доработкой или аккуратным форком под вашу инфраструктуру.