Изучение основ создания изображений и видео в ComfyUI: от базового до продвинутого уровня
Вы научитесь:
- Установка ComfyUI и управление
- Генерация изображений на основе текста
- Генерация изображений на основе картинок
- Восстановление утраченных участков изображения
- Добавление новых элементов к изображению
- Композиция и работа со слоями
- Работа с апскейлером ESRGAN - увеличение разрешения и четкости.
- Как выбирать и сравнивать модели (SD1.5, SDXL, Flux).
- Особенности работы с моделями Flux Schnell, Dev и Kontext
- Точное управление позой и формой через ControlNet на основе Canny, Depth and OpenPose
- IP-адаптеры для SD1.5, SDXL и Flux - перенос стиля и лиц с референсных картинок
- Stable Video Diffusion (SVD)
- Интерполяция кадров
- Video Helper Suite базовые инструменты для загрузки и сохранения видео.
- ControlNets видео - перенос движения реального человека на ИИ-персонажа.
- ControlNeXt-SVD управляемая видео-генерация
- AnimateDiff Создание анимаций из текста и картинок.
- LTXV создание видео из текста, фото и поз
- Синхронизация разговора в видео.
- Изучаем возможности Wan2.2: T2V, I2V, FLF2V, S2V, VACE и Animate
- Character LoRA Generation: как тренировать и применять микро-модели для своих персонажей.
- Использование языковых моделей для «умного» описания и правки фото.
- Цифровые художники
- Создатели контента
- Креативные разработчики
- Энтузиасты искусственного интеллекта
- Вступление 1:45
- Установка ComfyUI 9:23
- Базовая схема работы (ворклоу) в ComfyUI
- Создание изображения из текста
- Создание изображения на основе другого изображения
- Инпейнтинг (перерисовка отдельных областей внутри картинки)
- Аутпейнтинг (дорисовка краев и расширение кадра)
- Узел для совмещения изображений по маске
- Подграфы (создание вложенных схем для порядка в ворклоу) 5:29
- Установка Менеджера ComfyUI (управление узлами)
- Использование апскейлера ESRGAN для четкости
- Сравнение различных базовых моделей (чекпоинтов)
- Увеличение разрешения картинки
- Работа с моделью видео-диффузии от Stability AI
- Интерполяция кадров (сглаживание видео, добавление FPS)
- Контроль по контурам (линиям)
- Контроль по карте глубины (объему)
- Контроль по позе человека
- Перенос стиля и объектов с картинки-референса
- Управление позой в модели Flux
- Перенос стиля/лиц в модели Flux
- Извлечение данных контроля (поз, линий) из готового видео
- Создание плавной анимации через дообученные модули
- Набор инструментов для работы с видео (загрузка/выгрузка)
- Продвинутый контроль для видео-модели SVD
- Создание видео из текста через модель LTXV
- Создание видео из картинки через LTXV
- Контроль позы с использованием контекстных LoRA в LTXV
- Работа с контекстной версией модели Flux (для правок) (FLUX.1)
- Использование нескольких референсов в Flux Kontext (FLUX.1)
- Видео из текста (Wan 2.2)
- Видео из картинки и управление первым/последним кадром (Wan 2.2)
- Редактирование через модель Qwen: смена ракурсов камеры
- Узел для извлечения линий
- Синхронизация движения губ со звуком (Wan 2.2)
- Редактирование видео через архитектуру VACE (Wan 2.2)
- Замена персонажа на видео через Wan 2.2
- Работа с моделью Flux.2 (версия Klein)
- Создание (тренировка) LoRA персонажа с помощью модели Qwen
- Использование LoRA для управления освещением через Qwen
- Настройка ComfyUI в облаке (Runpod) с постоянным хранилищем данных
- Приложение: Работа в ComfyUI на старых видео картах
По поводу приобретения курса пишите в telegram - @dolinakursov_bot или на почту mail@dolinakursov.ru