← Все проекты
Проект / Python

iamsashank09/llm-wiki-kit: llm-wiki-kit — персональная вики для ИИ-агентов с памятью

Дайте вашему ИИ-ассистенту постоянную память, чтобы не объяснять одно и то же в каждом новом чате.

iamsashank09/llm-wiki-kit — open-source проект на Python, который стоит оценить перед внедрением или доработкой.

★ 16 Python Форки 8 Issue 0 Оценка 8/10 Карточка проверена

Для кого это

Для исследователей, разработчиков и всех, кто постоянно работает с ИИ-агентами (Claude, Cursor, Windsurf) и устал каждый раз заново загружать одни и те же материалы.

Проблема / задача

Каждый новый чат с ИИ-ассистентом начинается с нуля: вы снова загружаете те же PDF-статьи, объясняете контекст, теряете время на повторение. Агент не помнит, что вы обсуждали на прошлой неделе.

Как это работает

Проект создаёт структурированную вики-базу знаний, которую поддерживает сам ИИ-агент. Вы загружаете источники (PDF, статьи, YouTube-видео), агент извлекает контент, создаёт связанные вики-страницы и поддерживает перекрёстные ссылки. Вся информация сохраняется в обычных markdown-файлах и индексируется для полнотекстового поиска. При следующем обращении агент ищет ответы в своей вики, а не начинает с чистого листа.

Что видно по README

Это реализация паттерна LLM Wiki от Андрея Карпати — MCP-сервер, который даёт ИИ-агентам постоянную структурированную память. Вместо того чтобы каждый раз заново обучать агента, вы строите с ним общую базу знаний, которая со временем только растёт и становится умнее.

Ключевые возможности

Загрузка из PDF, веб-страниц, YouTube-транскриптов и markdown-файловАвтоматическое создание перекрёстных ссылок между связанными понятиямиПолнотекстовый поиск по вики через SQLite FTS5Проверка целостности вики: поиск битых ссылок и orphan-страницВизуализация графа знаний в интерактивном HTML-форматеРабота с любыми MCP-совместимыми агентами: Claude, Cursor, Windsurf, Codex

Технологии

Python 3.10+MCP (Model Context Protocol)SQLite FTS5 для поискаPyMuPDF для PDF, Trafilatura для веб-страниц, youtube-transcript-api для YouTubePythonOpenAI APISQLite

Темы и ключи

ai-agentknowledge-basellmllm-toolsmcpmcp-server

Интересный факт

Проект реализует идею Андрея Карпати о том, что ИИ-агенты должны сами поддерживать свои базы знаний, как википедию, а не полагаться на контекст одного чата.

С чего начать

  • Установите пакет через pip с GitHub
  • Создайте директорию для вики и инициализируйте её
  • Добавьте конфигурацию MCP-сервера в настройки вашего агента (Claude Desktop, Cursor и т.д.)
  • Начните загружать источники и общаться с агентом, который теперь будет искать ответы в вики

Оценка GitRadar

Удобство
7/10
Свежесть
9/10
Перспектива
8/10
Монетизация
6/10
Общая оценка
8/10

Вердикт GitRadar

Стоит пробовать, если вы активно используете ИИ-агенты для исследований или разработки и устали от потери контекста между сессиями. Это свежая и практичная идея, хотя проект ещё в альфа-стадии.

Наблюдения по обновлениям

Проект активен, имеет чёткую документацию и готовые примеры интеграции с популярными агентами, хотя звёзд пока немного.

Что мы проверили

Карточка собрана по данным GitHub, README и структуре репозитория. Это не официальная документация проекта.

Исходный репозиторий
https://github.com/iamsashank09/llm-wiki-kit
Лицензия
MIT
Создан на GitHub
7 апреля 2026 г.
Последнее обновление репо
7 апреля 2026 г.
Последняя проверка GitRadar
7 апреля 2026 г.
Изученные файлы
README.md, pyproject.toml, src/llm_wiki_kit/core/index.py, src/llm_wiki_kit/cli.py, src/llm_wiki_kit/server.py, src/llm_wiki_kit/core/extractors.py

FAQ

Что это такое?

MCP-сервер, который добавляет ИИ-агентам постоянную память в виде структурированной вики-базы знаний.

Для кого подходит?

Для разработчиков, исследователей и всех, кто регулярно работает с ИИ-агентами (Claude, Cursor) и хочет, чтобы агент помнил обсуждённые материалы между сессиями.

Источники

  • GitHub исходный код и активность
  • README описание, ссылки, стартовые материалы

Нужна помощь с iamsashank09/llm-wiki-kit?

Если проект подходит под ваш сценарий, можем помочь с установкой, интеграцией, доработкой или аккуратным форком под вашу инфраструктуру.