
Stable Diffusion & Flux
Девушки на пикнике
Создано с помощью TurboText
Исследователи представили новый способ двигать изображения
Как они сообщили, они вдохновились первой реализацией DragGAN о которой писал ранее. В новой реализации в комплекте идет инструмент который обучается на изображении пользователя создавая минимодель. После чего ее можно подключить и изменять части изображения по своему желанию.
Нельзя сказать что это уже полностью рабочий продукт. Так как пайплайн пока не особо удобный. Но технология очень привлекательная и интересная поэтому я за ней слежу.
Точная и управляемая редакция изображений является сложной задачей, которая привлекает значительное внимание. Недавно была разработана система DragGAN, позволяющая интерактивную редакцию изображений на основе точек и достигающая впечатляющих результатов с пиксельной точностью. Однако, поскольку этот метод основан на генеративных антагонистических сетях (GAN), его общность ограничена емкостью заранее обученных моделей GAN. В данной работе мы расширяем такую систему редактирования до диффузионных моделей и предлагаем DragDiffusion. Используя заранее обученные диффузионные модели большого масштаба, мы значительно улучшаем применимость интерактивной редакции изображений на основе точек в реальных сценариях. В то время как большинство существующих методов редактирования изображений на основе диффузии работают с текстовыми вложениями, DragDiffusion оптимизирует диффузионный латент для достижения точного пространственного контроля. Хотя диффузионные модели генерируют изображения итеративным способом, мы эмпирически показываем, что оптимизация диффузионного латента на одном этапе достаточна для генерации согласованных результатов, что позволяет DragDiffusion эффективно завершать работу по высококачественной редакции. Обширные эксперименты в широком диапазоне сложных случаев (например, множественные объекты, различные категории объектов, различные стили и т. д.) демонстрируют универсальность и общность DragDiffusion.
Как видим из этого описания это уже ближе к тому с чем многие уже привыкли работать. А именно дифузионные модели. Например Stable Diffusion.
Проект доступен на гитхаб. Для запуска рекомендуется видеокарта от NVIDIA. А так же разработчики тестировали код только на linux.
__
Наш чат где генерируем и обсуждаем новости и помогаем друг другу с решением технических проблем
Мой канал с гайдами по Stable Diffusion. Где бесплатно обучаю с нуля и до самостоятельного обучения моделей.
Фэнтэзи латекс
Тута, если интересно, будет выкладываться то что на пикабу не попадает по тем или иным причинам, а так же некоторые фейловые и забавные генерации.
"Frogman in New York" Stable Diffusion
После очередного прослушивания песни Стинга "Englishman in New York" родилось это творение
Промт (плюс апскейл до 2048*3072):
1 anthropomorphic frog, in a top hat on his head and a cane in his hands, city park in the background
Negative prompt: (worst quality, low quality:1.4), child, deformed, malformed, deformed face, bad teeth, bad hands, bad fingers, bad eyes, long body, blurry, duplicate, cloned, duplicate body parts, disfigured, extra limbs, fused fingers, extra fingers, twisted, distorted, malformed hands, mutated hands and fingers, conjoined, missing limbs, bad anatomy, bad proportions, logo, watermark, text, copyright, signature, lowres, mutated, mutilated, artifacts, gross, ugly
Steps: 30, Sampler: Euler a, CFG scale: 7, Seed: 2309696787, Size: 512x768, Model hash: 4199bcdd14, Model: Anime_revAnimated_v122, Clip skip: 2, Version: v1.0.0-pre-1578-g394ffa7b



























