Что это такое?
Инструмент для проверки безопасности сторонних сервисов-ретрансляторов, которые проксируют запросы к AI-моделям вроде ChatGPT или Claude.
Это Python-инструмент для комплексной проверки безопасности сторонних ретрансляторов AI-API. Он обнаруживает скрытые манипуляции с промптами, которые могут искажать работу моделей. Проект предлагает три варианта использования: однострочную команду без...
Для разработчиков, DevOps-инженеров и специалистов по безопасности, которые используют или внедряют сторонние прокси-сервисы для OpenAI, Anthropic и других AI-API.
Когда вы используете сторонний ретранслятор для AI-API, вы не знаете, что происходит с вашими промптами: их могут незаметно дополнять, урезать контекст или даже полностью подменять системные инструкции.
Инструмент выполняет 7-шаговый аудит: проверяет инфраструктуру, список доступных моделей, ищет скрытые инъекции в промпты, тестирует утечку скрытых инструкций, проверяет конфликты инструкций, оценивает защиту от jailbreak и измеряет реальную длину контекста. Всё это делается через API ключ и URL сервиса.
Это Python-инструмент для комплексной проверки безопасности сторонних ретрансляторов AI-API. Он обнаруживает скрытые манипуляции с промптами, которые могут искажать работу моделей. Проект предлагает три варианта использования: однострочную команду без установки, интеграцию как навык для OpenClaw и полную разработческую сборку.
Вместо сложных алгоритмов для измерения длины контекста используется метод «канареек» — в текст вставляются маркеры, а потом бинарным поиском находится точка, где они начинают пропадать.
Стоит попробовать, если вы используете или планируете использовать сторонние AI-прокси. Проект решает конкретную проблему прозрачности, имеет чёткую структуру и несколько удобных способов запуска.
Проект активно развивается: есть модульная структура, 80 тестов, веб-дашборд и скрипты для деплоя. Активность в issues низкая, но кодовая база выглядит продуманной.
Карточка собрана по данным GitHub, README и структуре репозитория. Это не официальная документация проекта.
Инструмент для проверки безопасности сторонних сервисов-ретрансляторов, которые проксируют запросы к AI-моделям вроде ChatGPT или Claude.
Для разработчиков и инженеров, которые интегрируют AI через сторонние прокси и хотят убедиться в их надёжности и честности.
Если проект подходит под ваш сценарий, можем помочь с установкой, интеграцией, доработкой или аккуратным форком под вашу инфраструктуру.