← Все проекты
Проект / Jupyter Notebook

shitagaki-lab/see-through: See-through — автоматическое разложение аниме-арта на слои

Превращает статичную аниме-иллюстрацию в многослойный 2.5D-макет, готовый для анимации или редактирования.

Система использует каскад нейросетей: сначала определяет семантические части тела (до 24 категорий), затем оценивает псевдоглубину, чтобы понять порядок слоёв, и наконец — дорисовывает скрытые области каждого слоя с помощью диффузионной модели. На выходе...

★ 82 Jupyter Notebook Форки 6 Issue 0 Оценка 6/10 Карточка проверена

Для кого это

Для художников, аниматоров и разработчиков, которые хотят автоматизировать подготовку аниме-персонажей к анимации (например, для Live2D) или модификации.

Проблема / задача

Вручную разбирать сложную аниме-иллюстрацию на отдельные элементы (волосы, глаза, одежду) — долго и трудоёмко. Особенно сложно восстановить скрытые части, которые перекрываются другими слоями.

Как это работает

Система использует каскад нейросетей: сначала определяет семантические части тела (до 24 категорий), затем оценивает псевдоглубину, чтобы понять порядок слоёв, и наконец — дорисовывает скрытые области каждого слоя с помощью диффузионной модели. На выходе получается PSD-файл с полностью восстановленными, независимыми слоями.

Что видно по README

Это исследовательский проект из академической лаборатории, условно принятый на SIGGRAPH 2026. Он предлагает полный пайплайн для декомпозиции одного изображения аниме-персонажа на семантические слои с восстановлением скрытых частей. Включает интерактивный UI на Qt6 для аннотации и управления моделями Live2D.

Ключевые возможности

Автоматическое выделение до 24 семантических слоёв (волосы, лицо, одежда, аксессуары)Восстановление скрытых областей каждого слоя (инпейнтинг)Определение порядка рисования слоёв через оценку глубиныЭкспорт в PSD-форматИнтеграция с Live2D через UI для аннотации

Технологии

PyTorchDiffusion-модели (LayerDiff 3D, Marigold Depth)Сегментационные модели (SAM2, detectron2)Jupyter NotebookQt6 (для UI)Go

Интересный факт

Проект может работать даже с очень сложными и перегруженными аниме-иллюстрациями, где элементы сильно перекрывают друг друга — и всё равно пытается восстановить, что скрыто под ними.

С чего начать

  • Создать conda-окружение с Python 3.12
  • Установить PyTorch с CUDA 12.8 и зависимости из requirements.txt
  • Запустить основной скрипт inference_psd.py с изображением на вход

Оценка GitRadar

Удобство
4/10
Свежесть
9/10
Перспектива
8/10
Монетизация
6/10
Общая оценка
6/10

Вердикт GitRadar

Стоит пробовать, если вы работаете с аниме-артом и готовы разбираться с сырым исследовательским кодом. Это не готовый продукт, а скорее proof-of-concept с мощным потенциалом.

Наблюдения по обновлениям

Проект активный, недавно представлен (условно принят на SIGGRAPH 2026), но код сыроват — много зависимостей, сложная установка, документация фрагментарна.

Что мы проверили

Карточка собрана по данным GitHub, README и структуре репозитория. Это не официальная документация проекта.

Исходный репозиторий
https://github.com/shitagaki-lab/see-through
Лицензия
Apache-2.0
Создан на GitHub
31 марта 2026 г.
Последнее обновление репо
31 марта 2026 г.
Последняя проверка GitRadar
31 марта 2026 г.
Изученные файлы
annotators/lama_inpainter/README.md, README.md, ui/README.md, annotators/README.md, annotators/lang_sam/README.md, annotators/bizarre_tagger/README.md

FAQ

Что это такое?

Набор нейросетевых инструментов, который автоматически разбирает картинку аниме-персонажа на отдельные элементы (слои), дорисовывает скрытые части и определяет их порядок.

Для кого подходит?

Для технических художников, исследователей компьютерной графики и разработчиков, которые хотят автоматизировать подготовку аниме-контента к анимации или редактированию.

Источники

  • GitHub исходный код и активность
  • README описание, ссылки, стартовые материалы

Нужна помощь с shitagaki-lab/see-through?

Если проект подходит под ваш сценарий, можем помочь с установкой, интеграцией, доработкой или аккуратным форком под вашу инфраструктуру.