← Все проекты
Проект / Python

m-jalolov/local-ai-assistant: Local AI Assistant — приватный ИИ-помощник без облаков

Полноценный чат-ассистент с долговременной памятью, который работает полностью на вашем компьютере — никаких платных API, подписок и утечек данных.

Локальный ассистент с полным офлайн-стеком: веб-интерфейс, CLI-клиент и REST API. Поддерживает потоковую генерацию ответов, управление сессиями, инструменты для работы с файловой системой и памятью на основе эмбеддингов.

★ 51 Python Форки 1 Issue 0 Оценка 6/10 Карточка проверена

Для кого это

Для разработчиков и технических специалистов, которые хотят экспериментировать с локальными языковыми моделями или создать персонального ассистента с доступом к файлам и заметкам.

Проблема / задача

Платформы вроде ChatGPT хранят ваши данные в облаке, требуют подписки и ограничивают возможности интеграции с локальными инструментами.

Как это работает

Проект использует Ollama для запуска локальных моделей (llama3, mistral, phi3), FastAPI предоставляет REST API, SQLite хранит историю чата, а FAISS реализует семантический поиск по долговременной памяти. Модель может вызывать инструменты для чтения файлов, создания заметок и поиска по памяти, получая доступ к вашим данным.

Что видно по README

Локальный ассистент с полным офлайн-стеком: веб-интерфейс, CLI-клиент и REST API. Поддерживает потоковую генерацию ответов, управление сессиями, инструменты для работы с файловой системой и памятью на основе эмбеддингов.

Ключевые возможности

Офлайн-работу через Ollama без облачных APIДолговременную память с семантическим поиском через FAISSВызов инструментов (читать файлы, писать заметки, искать в памяти)Веб-интерфейс и CLI для работы из терминалаПотоковую генерацию ответов и управление сессиямиЛокальная LLM через Ollama (llama3phi3 и другие) Потоковая генерация ответа (SSE) История чата с хранением в SQLite Долгосрочная память через FAISS (семантический поиск) Вызов инструментов (readfilesearchmemory) Веб-интерфейс (одностраничный чат)phi3 и другие)Потоковая генерация ответа (SSE)История чата с хранением в SQLiteДолгосрочная память через FAISS (семантический поиск)Вызов инструментов (readfile

Технологии

Python 3.11+FastAPIOllamaSQLiteFAISSSentence TransformersPythonLLaMA

Интересный факт

Ассистент умеет вызывать инструменты через специальные XML-теги <tool_call> — модель генерирует JSON с командой, система её выполняет и возвращает результат в контекст, создавая подобие автономного агента.

С чего начать

  • Установите Ollama и скачайте модель (llama3/mistral)
  • Клонируйте репозиторий, создайте виртуальное окружение и установите зависимости

Оценка GitRadar

Удобство
6/10
Свежесть
8/10
Перспектива
7/10
Монетизация
4/10
Общая оценка
6/10

Вердикт GitRadar

Стоит попробовать, если вам интересны локальные LLM и нужен готовый каркас для собственного ассистента с памятью и инструментами. Проект сыроват, но архитектура продумана.

Наблюдения по обновлениям

Проект выглядит активным (51 звезда), код структурирован, но документация минимальна и нет issue/обсуждений.

Что мы проверили

Карточка собрана по данным GitHub, README и структуре репозитория. Это не официальная документация проекта.

Исходный репозиторий
https://github.com/m-jalolov/local-ai-assistant
Создан на GitHub
16 апреля 2026 г.
Последнее обновление репо
16 апреля 2026 г.
Последняя проверка GitRadar
16 апреля 2026 г.
Изученные файлы
README.md, main.py, cli.py, frontend/index.html, app/services/__init__.py, app/services/context_builder.py

FAQ

Что это такое?

Локальный ИИ-ассистент, который работает полностью на вашем компьютере без облачных сервисов и платных API.

Для кого подходит?

Для разработчиков, которые хотят экспериментировать с локальными LLM или создать персонального помощника с доступом к своим файлам.

Источники

  • GitHub исходный код и активность
  • README описание, ссылки, стартовые материалы

Нужна помощь с m-jalolov/local-ai-assistant?

Если проект подходит под ваш сценарий, можем помочь с установкой, интеграцией, доработкой или аккуратным форком под вашу инфраструктуру.