← Все проекты
Проект / Shell

elkimek/honcho-self-hosted: Honcho Self-Hosted — приватная память для Hermes Agent

Запустите полноценный слой памяти для AI-агента Hermes на своём сервере, чтобы ваши разговоры и профили пользователей не уходили в облако третьих лиц.

Проект разворачивает полный стек Honcho (API, обработчики, PostgreSQL с pgvector, Redis) в Docker-контейнерах на вашей машине. Вместо проприетарной модели Neuromancer можно использовать любую OpenAI-совместимую модель через API (OpenRouter, Venice) или...

★ 56 Shell Форки 3 Issue 0 Оценка 7/10 Карточка проверена

Для кого это

Для разработчиков и DevOps-инженеров, которые используют Hermes Agent и хотят сохранить контроль над данными пользовательских диалогов.

Проблема / задача

По умолчанию Hermes Agent отправляет все данные памяти в облачный сервис Plastic Labs (honcho.dev), что означает потерю приватности и зависимость от стороннего провайдера.

Как это работает

Проект разворачивает полный стек Honcho (API, обработчики, PostgreSQL с pgvector, Redis) в Docker-контейнерах на вашей машине. Вместо проприетарной модели Neuromancer можно использовать любую OpenAI-совместимую модель через API (OpenRouter, Venice) или локально (Ollama, vLLM). Настройка занимает ~3 минуты через скрипт setup.sh.

Что видно по README

Это конфигурационный проект для самостоятельного хостинга слоя памяти Honcho, который используется в Hermes Agent для долгосрочного запоминания контекста между сессиями. Вместо облачного решения от Plastic Labs вы получаете полный контроль над данными и выбор модели для логических выводов.

Ключевые возможности

Полная изоляция данных на вашем сервереРаботает с любым OpenAI-совместимым провайдеромПоддержка локальных моделей через Ollama/vLLMАвтоматическая настройка через Docker Compose

Технологии

DockerPostgreSQL/pgvectorShell-скриптыShellNode.jsOpenAI APILLaMAPostgreSQL

Интересный факт

Хотя оригинальный Honcho использует специализированную модель Neuromancer (86.9% на бенчмарке памяти), этот проект показывает, что обычные модели с хорошим function calling почти не уступают в качестве, а главная выгода — суверенитет...

С чего начать

  • Запустите setup.sh для автоматической установки
  • Выберите провайдера LLM (облачный API или локальный)
  • Настройте Hermes Agent на localhost:8000

Оценка GitRadar

Удобство
7/10
Свежесть
8/10
Перспектива
6/10
Монетизация
4/10
Общая оценка
7/10

Вердикт GitRadar

Стоит пробовать, если вы уже используете Hermes Agent и беспокоитесь о приватности. Проект решает конкретную проблему минимальными средствами.

Наблюдения по обновлениям

Проект молодой (18 звёзд), но README подробный и архитектура продумана. Активность скромная, но проблема актуальна.

Что мы проверили

Карточка собрана по данным GitHub, README и структуре репозитория. Это не официальная документация проекта.

Исходный репозиторий
https://github.com/elkimek/honcho-self-hosted
Лицензия
GPL-3.0
Создан на GitHub
2 апреля 2026 г.
Последнее обновление репо
2 апреля 2026 г.
Последняя проверка GitRadar
2 апреля 2026 г.
Изученные файлы
README.md, docker-compose.yml, setup.sh

FAQ

Что это такое?

Набор конфигов и скриптов для запуска памяти Honcho на своём сервере вместо облака Plastic Labs.

Для кого подходит?

Для тех, кто использует Hermes Agent и хочет сохранить данные диалогов у себя, не меняя код агента.

Источники

  • GitHub исходный код и активность
  • README описание, ссылки, стартовые материалы

Нужна помощь с elkimek/honcho-self-hosted?

Если проект подходит под ваш сценарий, можем помочь с установкой, интеграцией, доработкой или аккуратным форком под вашу инфраструктуру.