← Все проекты
Проект / Python

aiming-lab/AutoHarness: AutoHarness — фреймворк управления поведением для AI-агентов

Делает AI-агентов надёжными и безопасными, автоматически проверяя их действия и блокируя опасные операции.

Это middleware для поведенческого управления AI-агентами. Проект позиционирует себя как 'инженерия упряжи' — модель думает, а фреймворк обеспечивает безопасность, управление контекстом, контроль затрат и наблюдаемость. Есть три режима работы...

★ 19 Python Форки 1 Issue 0 Оценка 7/10 Карточка проверена

Для кого это

Для разработчиков на Python и Node.js, которые создают AI-агентов с доступом к инструментам (Bash, файлы, API) и хотят избежать случайного вреда.

Проблема / задача

AI-агенты в демо работают хорошо, но в реальности могут случайно удалить файлы, выдать секреты или выполнить опасные команды — AutoHarness закрывает этот разрыв между демо и продакшеном.

Как это работает

AutoHarness оборачивает клиенты OpenAI или Anthropic и прозрачно перехватывает все вызовы инструментов. Каждый вызов проходит через 8-шаговый конвейер: классификация рисков (65+ паттернов), проверка правилами из YAML-конституции, запуск хуков и финальное решение — разрешить, спросить или заблокировать. Всё логируется в JSONL для аудита.

Что видно по README

Это middleware для поведенческого управления AI-агентами. Проект позиционирует себя как 'инженерия упряжи' — модель думает, а фреймворк обеспечивает безопасность, управление контекстом, контроль затрат и наблюдаемость. Есть три режима работы (Core/Standard/Enhanced), поддержка мультиагентности, отслеживание сессий и визуальная панель управления.

Ключевые возможности

Автоматическая проверка вызовов инструментов (Bash, файлы)YAML-конституция с правилами поведения8-шаговый конвейер управления рискамиЦентрализованный аудит и дашбордПоддержка мультиагентных профилей

Технологии

PythonNode.jsFastAPITypeScriptOpenAI APILangChainRedisGo

Темы и ключи

agent-frameworkai-agentsauditcontext-managementgovernanceharness-engineeringllmmulti-agentprompt-injectionsafetytool-use

Интересный факт

Проект поддерживает 8 языков в README, включая русский, и называет момент, когда агент становится надёжным, 'aha moment' — момент озарения.

С чего начать

  • Установите пакет: pip install autoharness
  • Оберните клиент LLM: AutoHarness.wrap(OpenAI())
  • Настройте правила в constitution.yaml

Оценка GitRadar

Удобство
6/10
Свежесть
8/10
Перспектива
7/10
Монетизация
6/10
Общая оценка
7/10

Вердикт GitRadar

Стоит попробовать, если вы разрабатываете AI-агентов с доступом к инструментам — это решает реальную проблему безопасности. Однако проект очень молодой (15 звёзд, версия 0.1), документация местами сырая.

Наблюдения по обновлениям

Проект активно развивается: недавно выпущена версия 0.1.0 с тремя режимами работы, есть планы для VS Code расширения и облачного дашборда.

Что мы проверили

Карточка собрана по данным GitHub, README и структуре репозитория. Это не официальная документация проекта.

Исходный репозиторий
https://github.com/aiming-lab/AutoHarness
Лицензия
MIT
Создан на GitHub
2 апреля 2026 г.
Последнее обновление репо
2 апреля 2026 г.
Последняя проверка GitRadar
2 апреля 2026 г.
Изученные файлы
packages/agentlint-cloud/README.md, pyproject.toml, packages/agentlint-js/src/index.ts, packages/agentlint-cloud/src/agentlint_cloud/app.py, packages/vscode-agentlint/README.md, packages/agentlint-js/README.md

FAQ

Что это такое?

Middleware на Python/Node.js, который перехватывает и проверяет действия AI-агентов, чтобы предотвратить опасные операции.

Для кого подходит?

Для разработчиков AI-агентов на Python или Node.js, которые дают агентам доступ к командной строке, файлам или API и хотят избежать рисков.

Источники

  • GitHub исходный код и активность
  • README описание, ссылки, стартовые материалы

Нужна помощь с aiming-lab/AutoHarness?

Если проект подходит под ваш сценарий, можем помочь с установкой, интеграцией, доработкой или аккуратным форком под вашу инфраструктуру.