Что это такое?
Middleware на Python/Node.js, который перехватывает и проверяет действия AI-агентов, чтобы предотвратить опасные операции.
Это middleware для поведенческого управления AI-агентами. Проект позиционирует себя как 'инженерия упряжи' — модель думает, а фреймворк обеспечивает безопасность, управление контекстом, контроль затрат и наблюдаемость. Есть три режима работы...
Для разработчиков на Python и Node.js, которые создают AI-агентов с доступом к инструментам (Bash, файлы, API) и хотят избежать случайного вреда.
AI-агенты в демо работают хорошо, но в реальности могут случайно удалить файлы, выдать секреты или выполнить опасные команды — AutoHarness закрывает этот разрыв между демо и продакшеном.
AutoHarness оборачивает клиенты OpenAI или Anthropic и прозрачно перехватывает все вызовы инструментов. Каждый вызов проходит через 8-шаговый конвейер: классификация рисков (65+ паттернов), проверка правилами из YAML-конституции, запуск хуков и финальное решение — разрешить, спросить или заблокировать. Всё логируется в JSONL для аудита.
Это middleware для поведенческого управления AI-агентами. Проект позиционирует себя как 'инженерия упряжи' — модель думает, а фреймворк обеспечивает безопасность, управление контекстом, контроль затрат и наблюдаемость. Есть три режима работы (Core/Standard/Enhanced), поддержка мультиагентности, отслеживание сессий и визуальная панель управления.
Проект поддерживает 8 языков в README, включая русский, и называет момент, когда агент становится надёжным, 'aha moment' — момент озарения.
Стоит попробовать, если вы разрабатываете AI-агентов с доступом к инструментам — это решает реальную проблему безопасности. Однако проект очень молодой (15 звёзд, версия 0.1), документация местами сырая.
Проект активно развивается: недавно выпущена версия 0.1.0 с тремя режимами работы, есть планы для VS Code расширения и облачного дашборда.
Карточка собрана по данным GitHub, README и структуре репозитория. Это не официальная документация проекта.
Middleware на Python/Node.js, который перехватывает и проверяет действия AI-агентов, чтобы предотвратить опасные операции.
Для разработчиков AI-агентов на Python или Node.js, которые дают агентам доступ к командной строке, файлам или API и хотят избежать рисков.
Если проект подходит под ваш сценарий, можем помочь с установкой, интеграцией, доработкой или аккуратным форком под вашу инфраструктуру.