Что это такое?
Локальное приложение для macOS, которое запускает языковые модели и генерацию изображений на устройстве без облака.
Это десктопное приложение для macOS, которое объединяет локальный чат с LLM, IDE с AI-ассистентом и генератор изображений. Всё работает на устройстве через MLX и совместимо с популярными API. Проект позиционируется как приватная альтернатива Claude Code и...
Для разработчиков на macOS, которые хотят приватного AI-ассистента с полным контролем над данными и возможностью работать офлайн.
Зависимость от облачных AI-сервисов, платные подписки, конфиденциальность данных и невозможность работы без интернета.
Приложение использует Tauri для нативного интерфейса и MLX-рантайм для эффективной работы моделей на Apple Silicon. Оно эмулирует API Ollama и OpenAI, поэтому совместимо с большинством инструментов. Встроенный редактор кода, терминал и файловый менеджер превращают чат в рабочего агента, который может читать, писать и выполнять код.
Это десктопное приложение для macOS, которое объединяет локальный чат с LLM, IDE с AI-ассистентом и генератор изображений. Всё работает на устройстве через MLX и совместимо с популярными API. Проект позиционируется как приватная альтернатива Claude Code и другим облачным сервисам.
В проекте есть анимированный SVG-совёнок (талисман OVO), который меняет анимацию в зависимости от состояния: думает, печатает, спит или радуется.
Стоит пробовать, если у вас Mac на Apple Silicon и нужен приватный AI-ассистент для разработки. Проект амбициозный, но ещё сыроват — всего 12 звёзд и мало активности.
Проект очень свежий (всего 12 звёзд), но структура кода продуманная. Есть риск, что развитие замедлится из-за малого сообщества.
Карточка собрана по данным GitHub, README и структуре репозитория. Это не официальная документация проекта.
Локальное приложение для macOS, которое запускает языковые модели и генерацию изображений на устройстве без облака.
Для разработчиков на Mac, которым важна конфиденциальность и возможность работы с AI офлайн.
Если проект подходит под ваш сценарий, можем помочь с установкой, интеграцией, доработкой или аккуратным форком под вашу инфраструктуру.