← Все проекты
Проект / JavaScript

tolitius/cupel: Cupel — инструмент для сравнения и оценки LLM-моделей

Помогает выбрать лучшую языковую модель для ваших задач, сравнивая десятки локальных и облачных вариантов по качеству ответов и скорости.

Это Python-инструмент с веб-интерфейсом для бенчмаркинга языковых моделей. Позволяет тестировать локальные и облачные модели на пользовательских промптах, автоматически оценивать ответы и визуализировать результаты в дашборде. Проект назван в честь купели —...

★ 16 JavaScript ↑ 1 за 24ч Форки 0 Issue 0 Оценка 7/10 Карточка проверена

Для кого это

Для разработчиков и исследователей, которые работают с языковыми моделями и хотят объективно сравнивать их производительность.

Проблема / задача

Сложно выбрать подходящую LLM-модель среди сотен вариантов — одни медленные, другие дают неточные ответы, а тестирование вручную занимает дни.

Как это работает

Cupel запускает веб-интерфейс, где можно создавать тестовые промпты, выбирать модели из разных провайдеров (Ollama, OpenAI, Anthropic и др.) и запускать автоматическое тестирование. Система использует судью-модель (например, Claude Opus) для оценки ответов по шкале 0-3, строит графики и таблицы сравнения.

Что видно по README

Это Python-инструмент с веб-интерфейсом для бенчмаркинга языковых моделей. Позволяет тестировать локальные и облачные модели на пользовательских промптах, автоматически оценивать ответы и визуализировать результаты в дашборде. Проект назван в честь купели — сосуда для отделения драгоценных металлов от обычных, что отражает его цель: находить «драгоценные» модели среди множества.

Ключевые возможности

Автоматическое создание промптов и критериев оценки с помощью LLMПоддержка локальных (Ollama, LM Studio) и облачных (OpenAI, Anthropic) моделейНастраиваемая модель-судья для оценки ответов по шкале 0-3Визуализация результатов: score vs speed, accuracy по категориямАвтообнаружение локальных серверов на известных портах

Технологии

PythonFastAPIJavaScript (Preact)JavaScriptReactOpenAI APILLaMA

Темы и ключи

llmllm-evaluationlocal-llm

Интересный факт

Название проекта — это отсылка к химическому процессу аффинажа, где купель используется для отделения золота от примесей. Так же и инструмент отделяет «драгоценные» модели от посредственных.

С чего начать

  • Установите через pip: pip install cupel
  • Запустите: cupel — откроется браузер на localhost:8042
  • Используйте примеры данных или создайте свои промпты для тестирования моделей

Оценка GitRadar

Удобство
7/10
Свежесть
9/10
Перспектива
8/10
Монетизация
4/10
Общая оценка
7/10

Вердикт GitRadar

Стоит попробовать, если вы сравниваете языковые модели. Инструмент сыроват (всего 16 звёзд, нет форков), но идея свежая, а интерфейс уже работает. Хорошая основа для кастомизации.

Наблюдения по обновлениям

Проект активно развивается (версия 0.1.65), есть сайт cupel.run, но сообщество пока маленькое.

Что мы проверили

Карточка собрана по данным GitHub, README и структуре репозитория. Это не официальная документация проекта.

Исходный репозиторий
https://github.com/tolitius/cupel
Официальный сайт
https://cupel.run
Лицензия
Apache-2.0
Создан на GitHub
8 апреля 2026 г.
Последнее обновление репо
8 апреля 2026 г.
Последняя проверка GitRadar
8 апреля 2026 г.
Изученные файлы
README.md, pyproject.toml, cupel/cli.py, cupel/server.py, site/index.html, cupel/ui/index.html

FAQ

Что это такое?

Инструмент для автоматического тестирования и сравнения языковых моделей с веб-интерфейсом.

Для кого подходит?

Для разработчиков и иследователей, которые выбирают LLM для своих проектов и хотят объективных метрик.

Источники

Нужна помощь с tolitius/cupel?

Если проект подходит под ваш сценарий, можем помочь с установкой, интеграцией, доработкой или аккуратным форком под вашу инфраструктуру.