Что это такое?
Библиотека, которая делает стриминг ответов от AI-моделей (как у ChatGPT) в разы эффективнее, сжимая данные в бинарный формат.
Библиотека перехватывает поток данных от AI-провайдера (в формате SSE/JSON) и переупаковывает его в собственный компактный бинарный формат. На стороне сервера она создаёт прокси-эндпоинт, а на стороне клиента — декодирует бинарный поток обратно в удобные...
Для разработчиков, которые интегрируют стриминг AI-ответов (OpenAI, Anthropic, Cloudflare AI) в веб-приложения, серверы или edge-функции и хотят оптимизировать трафик.
При стриминге ответов от AI-моделей каждый токен (кусочек текста) отправляется в отдельном JSON-объекте, что создаёт огромные накладные расходы на метаданные и замедляет передачу.
Библиотека перехватывает поток данных от AI-провайдера (в формате SSE/JSON) и переупаковывает его в собственный компактный бинарный формат. На стороне сервера она создаёт прокси-эндпоинт, а на стороне клиента — декодирует бинарный поток обратно в удобные события (текст, рассуждения, вызовы функций). Это позволяет передавать только полезные данные, экономя трафик и ускоряя доставку.
Это легковесный TypeScript SDK, который заменяет громоздкий JSON в стриминге AI-ответов на эффективный бинарный протокол. Он работает как промежуточный слой между вашим приложением и любым AI-провайдером с OpenAI-совместимым API (OpenAI, Cloudflare Workers AI, локальные модели). Основная цель — радикально уменьшить размер передаваемых данных при потоковой генерации текста, особенно когда модель выдаёт много мелких...
В тестах синтетический диалог с сотнями мелких фрагментов (текст, рассуждения, вызовы функций) сэкономил более 80 КБ данных — представьте, сколько это сэкономит на длинных диалогах в продакшене.
Стоит попробовать, если вы уже работаете со стримингом AI и хотите оптимизировать производительность и затраты на передачу данных. Проект решает конкретную, узкую проблему очень элегантно.
Проект очень свежий (версия 0.0.3), активно развивается: в планах — поддержка Anthropic API. Пока мало звёзд и активности, но код качественный и идея перспективная.
Карточка собрана по данным GitHub, README и структуре репозитория. Это не официальная документация проекта.
Библиотека, которая делает стриминг ответов от AI-моделей (как у ChatGPT) в разы эффективнее, сжимая данные в бинарный формат.
Для разработчиков, которые встраивают AI-стриминг в веб-приложения или сервисы и хотят ускорить его и снизить нагрузку на сеть.
Если проект подходит под ваш сценарий, можем помочь с установкой, интеграцией, доработкой или аккуратным форком под вашу инфраструктуру.