← Все проекты
Проект / Shell

UCSC-VLAA/CIK-Bench: CIK-Bench — тестовый стенд для проверки уязвимостей AI-агентов

Проверяет, можно ли взломать персонального AI-агента через его же постоянную память.

UCSC-VLAA/CIK-Bench — open-source проект на Shell, который стоит оценить перед внедрением или доработкой.

★ 12 Shell Форки 0 Issue 0 Оценка 6/10 Карточка проверена

Для кого это

Для исследователей безопасности AI, разработчиков AI-агентов и DevOps-инженеров, которые внедряют подобные системы.

Проблема / задача

Персональные AI-агенты (вроде OpenClaw) хранят навыки, личность и воспоминания между сессиями — и это доверие можно обратить против пользователя.

Как это работает

Проект использует таксономию CIK (Capability, Identity, Knowledge) для организации состояния агента. Атака проходит в две фазы: сначала в память агента внедряется отравленный контент, а потом триггерный запрос активирует вредоносное действие. Стенд содержит 88 тестовых кейсов атак, охватывающих 12 сценариев ущерба в шести категориях вреда.

Что видно по README

CIK-Bench — это исследовательский бенчмарк для проверки безопасности персональных AI-агентов. Он моделирует реальные атаки, когда злоумышленник может «отравить» постоянное состояние агента (его навыки, личность или память) и заставить его выполнять вредоносные действия в будущих сессиях. Проект включает набор инструментов для запуска атак, оценки уязвимостей и тестирования защитных механизмов.

Ключевые возможности

88 готовых кейсов атак по таксономии CIKДвухфазный протокол атаки (внедрение и срабатывание)Поддержка моделей Claude, Gemini и GPTИнструменты для оценки защитных стратегийАвтоматические проверки окружения и предварительные настройки

Технологии

Shell (основные скрипты)Python (тестовый harness, утилиты)ShellNode.jsOpenAI APIRustGo

Интересный факт

Название таксономии CIK — это аббревиатура от Capability (способности), Identity (личность) и Knowledge (знания), которые вместе образуют «душу» AI-агента, которую и пытаются взломать.

С чего начать

  • Клонировать репозиторий и настроить окружение (OpenClaw, API-ключи)
  • Запустить скрипт предварительной проверки preflight_check.py
  • Выбрать и запустить тестовый кейс атаки через test_harness/run.py

Оценка GitRadar

Удобство
4/10
Свежесть
9/10
Перспектива
8/10
Монетизация
3/10
Общая оценка
6/10

Вердикт GitRadar

Стоит пробовать, если вы серьёзно исследуете безопасность AI-агентов или разрабатываете подобные системы. Это узкоспециализированный исследовательский инструмент, а не готовый продукт для широкого круга пользователей.

Наблюдения по обновлениям

Проект выглядит свежим и актуальным (упоминаются новейшие модели AI), но имеет мало звёзд и активности, что типично для нишевых исследовательских репозиториев.

Что мы проверили

Карточка собрана по данным GitHub, README и структуре репозитория. Это не официальная документация проекта.

Исходный репозиторий
https://github.com/UCSC-VLAA/CIK-Bench
Лицензия
NOASSERTION
Создан на GitHub
7 апреля 2026 г.
Последнее обновление репо
7 апреля 2026 г.
Последняя проверка GitRadar
7 апреля 2026 г.
Изученные файлы
README.md, requirements.txt, preflight_check.py, test_harness/login.py, scripts/switch_model.sh, test_harness/run_with_guardian.py

FAQ

Что это такое?

Набор тестов и инструментов для проверки уязвимостей персональных AI-агентов, которые хранят состояние между сессиями.

Для кого подходит?

Для исследователей AI-безопасности и разработчиков, которые хотят протестировать свои агенты на устойчивость к атакам на постоянную память.

Источники

  • GitHub исходный код и активность
  • README описание, ссылки, стартовые материалы

Нужна помощь с UCSC-VLAA/CIK-Bench?

Если проект подходит под ваш сценарий, можем помочь с установкой, интеграцией, доработкой или аккуратным форком под вашу инфраструктуру.