Что это такое?
Набор тестов и инструментов для проверки уязвимостей персональных AI-агентов, которые хранят состояние между сессиями.
UCSC-VLAA/CIK-Bench — open-source проект на Shell, который стоит оценить перед внедрением или доработкой.
Для исследователей безопасности AI, разработчиков AI-агентов и DevOps-инженеров, которые внедряют подобные системы.
Персональные AI-агенты (вроде OpenClaw) хранят навыки, личность и воспоминания между сессиями — и это доверие можно обратить против пользователя.
Проект использует таксономию CIK (Capability, Identity, Knowledge) для организации состояния агента. Атака проходит в две фазы: сначала в память агента внедряется отравленный контент, а потом триггерный запрос активирует вредоносное действие. Стенд содержит 88 тестовых кейсов атак, охватывающих 12 сценариев ущерба в шести категориях вреда.
CIK-Bench — это исследовательский бенчмарк для проверки безопасности персональных AI-агентов. Он моделирует реальные атаки, когда злоумышленник может «отравить» постоянное состояние агента (его навыки, личность или память) и заставить его выполнять вредоносные действия в будущих сессиях. Проект включает набор инструментов для запуска атак, оценки уязвимостей и тестирования защитных механизмов.
Название таксономии CIK — это аббревиатура от Capability (способности), Identity (личность) и Knowledge (знания), которые вместе образуют «душу» AI-агента, которую и пытаются взломать.
Стоит пробовать, если вы серьёзно исследуете безопасность AI-агентов или разрабатываете подобные системы. Это узкоспециализированный исследовательский инструмент, а не готовый продукт для широкого круга пользователей.
Проект выглядит свежим и актуальным (упоминаются новейшие модели AI), но имеет мало звёзд и активности, что типично для нишевых исследовательских репозиториев.
Карточка собрана по данным GitHub, README и структуре репозитория. Это не официальная документация проекта.
Набор тестов и инструментов для проверки уязвимостей персональных AI-агентов, которые хранят состояние между сессиями.
Для исследователей AI-безопасности и разработчиков, которые хотят протестировать свои агенты на устойчивость к атакам на постоянную память.
Если проект подходит под ваш сценарий, можем помочь с установкой, интеграцией, доработкой или аккуратным форком под вашу инфраструктуру.