Сообщество - Stable Diffusion & Flux

Stable Diffusion & Flux

4 699 постов 2 289 подписчиков

Популярные теги в сообществе:

Пост удален администрацией (нарушение правил размещения рекламы)

3

Как заменить фон на фото в один клик с помощью нейросети

Заменить задний фон изображения или фото с помощью нейросети поможет сервис Picwish. Можно использовать бекграунд из предложенных шаблонов, либо сгенерировать свой по текстовому описанию. Бесплатно дается 60 кредитов, за генерацию уходит 6. Пригодится для генерации карточек товара для маркетплейсов, например.

Если интересна тема нейроиллюстрации, заходи ко мне в Тг-канал Нейрохудожник, где ежедневно новые посты с промтами и разной полезной информацией о создании нейроиллюстраций.

#нереклама

Как заменить фон на фото в один клик с помощью нейросети
12

Как мы c помощью нейросети Stable Diffusion, решили проблему с визуальным контентом заказчика для интернет-магазина

Что делать, если то самое классное изображение никак не удается найти, а у заказчика пока нет ресурса предоставить нужный контент? Что можно придумать для разделов каталога, когда есть только фото для продуктовых карточек, чтобы это выглядело красиво? Как при этом не забыть о метафорах и ассоциациях бренда и создать необходимое настроение на сайте? Да еще и чтобы заказчик все это согласовал без правок…

Задача

К нам обратился заказчик с задачей создать функциональный интернет-магазин на Тильде для бренда натуральной SPA-косметики «Цветы и море». На этапе дизайн-концепции мы развили мысль о море, песке и цветах до такой степени, что сгенерировали для своих задач 400+ изображений, выделив на это 30+ часов. Как у нас получалось и не получалось, что мы делали и как именно экспериментировали, рассказываем дальше.

И сначала мы расскажем об основных этапах разработки проекта, чтобы ввести вас в контекст. Ну и якорная ссылка для тех, кому нужно скорее читать наш опыт по работе с нейронкой.

Важно — мы не генерировали изображения для товаров, весь визуал в продуктовых карточках настоящий и предоставлен заказчиком.

Сбор информации по проекту: формируем общее видение с заказчиком перед стартом

Как и всегда, мы начали с максимально подробного брифа с заказчиком: задали много уточняющих вопросов, вынесли на обсуждение примеры реализации, обсудили целевую аудиторию и конкурентов, наметили структуру, предложили список сайтов, которые можно использовать в качестве референсов.

  • Какая стоит задача, что заказчик видит на финише?

  • Будет ли виденье заказчика работать для ЦА?

  • Что конкретно важно для целевой аудитории?

  • Как проект будет жить после релиза?

  • Что нужно учесть при разработке и о чем позаботиться заранее, чтобы сайту не нужны были доработки через неделю после запуска?

  • И многое другое

Только после того, как у нас есть четкое видение, мы начали работать над сайтом.

Проектирование — продумываем структуру страниц и закладываем необходимые решения в интерфейс сайта

Мы провели маркетинговое исследование, выявили целевую аудиторию, изучили конкурентов, предоставленных заказчиком. Вдобавок к этому проанализировали лидеров натуральной spa-косметики, составили список сильных и слабых решений.

Далее мы сделали карту сайта и определились со структурой страниц на основании проведенного исследования. Мы выделили преимущества, рассказали о бренде, описали условия для сотрудничества, показали бренды, с кем сотрудничает «Цветы и море». Сняли нагрузку с менеджеров, сделав список частых вопросов и ответов на них.

Сбор информации и подготовка к проектированию

Сбор информации и подготовка к проектированию

Важно было обозначить наличие акций на главном экране, встроить их аккуратно. Решили использовать слайдер с автоплеем, формат которого напоминает интерфейс сторис. Также добавили строку с информацией о бесплатной доставке от определенной суммы.

Прототип будущего интернет-магазина

Прототип будущего интернет-магазина

Еще мы вывели популярные товары бренда на главную страницу вторым блоком, чтобы посетителям сайта не нужно было тратить время и искать любимые позиции в каталоге, а находить сразу.

Мы реализовали возможность дополнительных продаж, предложив добавить в заказ шоколадки и открытки в карточке товара. В корзине добавили поле с возможностью подписать открытку, которое появляется только если в корзине есть эта самая открытка. Реализовали на Тильде такой функционал с помощью написанного скрипта нашим разработчиком.

Корзина в 2 этапа с необходимым функционалом

Корзина в 2 этапа с необходимым функционалом

Проектирование прототипа далось нам без особых сложностей — полный мэтч с клиентом позволил оперативно сделать интерактивный прототип и перейти к поиску дизайн-концепции и отрисовки макета.

Детализированный интерактивный прототип

Детализированный интерактивный прототип

Дизайн: получили тестовую продукцию, отсматриваем визуал заказчика, штудируем премиум-стоки, тестируем нейронки.

Перед тем как мы подробно начнем рассказывать о промт-инженерии для проекта, кратко введем читателя в контекст того, как мы мыслили в плане общего визуала и дизайн-решений.

Мы понимали, что дизайн должен передать эстетику легкости и осознанности, расслабления, отдыха и нежности. Для нашей ЦА важен комфорт и забота о себе, их восхищает бренд, готовы оставлять развернутые отзывы в эстетичных локациях. Бренду также важно передать крафтовость и натуральность, отсутствие массового производства и трепетное внимательное отношение к каждому продукту.

ЦА

ЦА

Мы начали с названия бренда, подумали и собрали ассоциации, приступили к поиску визуальных решений, нашли приятные референсы, которые можно использовать для групп товаров. Подобрали цветовую гамму с учетом товаров, упаковки и фирменного логотипа, предложили шрифтовую пару, которая дополнительно создала необходимые ассоциации и настроение.

Поиск идеи и референсы

Поиск идеи и референсы

В какой-то момент мы уперлись в то, что контент заказчика оказался достаточно «шумным» для фоновых изображений, терялись тексты и важные акцентные элементы интерфейса. Контент подходил только для визуализации каталога товаров + была вероятность дублирования визуала из-за ограниченного количества изображений. Еще мы начали ломать голову над тем, как проиллюстрировать разделы каталога. Ну и в целом контент заказчика был заточен больше под соцсети — видео и фото были предоставлены нам в вертикальном формате.

Контент от заказчика

Контент от заказчика

Мы пошли на фрипик, чтобы найти для себя решение, но уперлись в то, что все-таки делаем интернет-магазин и подобрать что-либо между собой более менее бьющееся по визуалу не представляется возможным. Больше к премиум-стокам не возвращались. Начали смотреть в сторону нейросетей.

Нейронки. Вступительное слово и поехали.

О чем пойдет статья дальше? Важно — это не мануал в привычном в виде с обзором каждой кнопки. Это статья о том, как в реальной коммерческой разработке можно смело экспериментировать и внедрять в работу различные Ai-инструменты и получать довольно качественный результат, параллельно решая распространенную проблему в дизайне – отсутствие визуального контента от заказчика.

Передаем слово нашему дизайнеру — Сергею, который поделится с вами всеми своими наработками в процессе генерации контента для «Цветы и море».

Почему выбрали Stable Diffusion, а не Midjourney

Прочитав несколько обзоров и сравнений генеративных нейросетей, предварительно решили, что нам больше подходит именно Stable Diffusion, так как он оказался достаточно гибким и функциональным для наших задач. Я бы его назвал настоящим комбайном, в котором ограничений практически нет, но чтобы научиться пользоваться всеми возможностями этого инструмента, придется очень сильно погрузиться в технические аспекты.

По Midjourney — думаю, все в него успели поиграться, многие работают на постоянной основе, но я не смог добиться стабильного результата. Полученные изображения были не такими реалистичными, как мы задумали, сделать пак изображений в одном стиле не получалось — при детальном рассмотрении контента нам что-нибудь да резало глаз.

Почему мы выбрали Stable Diffusion?

  1. Редактирование созданных изображений — можно легко менять конкретные элементы на изображении с помощью функции Inpaiting, а с помощью outpaiting возможно наращивание фона в контексте изображения. Эта функция очень нам пригодилась для страниц разделов товаров, далее расскажу подробнее.

  2. Распределение веса по конкретной характеристике в промте — за счет этого можно гибко настроить промт и получить наиболее точный результат.

  3. Установка конкретных моделей, которые нужны тебе. У Stable Diffusion большое сообщество, в сети можно найти крупные каталоги с базой различных моделей и обученных дополнений Lora, которые устанавливаются поверх базовых моделей. Большинство из них находятся в свободном доступе.

  4. Функция img2img — метод создания изображений на основе загруженного референса, благодаря чему появляется возможность сделать сет в одном стиле. Для нас важно, чтобы контент на сайте был в одной стилистике.

  5. Наличие seed у генерируемого изображения. Что это и зачем? Seed — уникальный код или идентификатор изображения, который дает нам возможность вносить в запрос изменения точечно, сохраняя основную композицию, обстановку или объект на изображении. Далее расскажем как пользовались данной фичей.

Технические нюансы, установка, первые результаты.

Первая сложность, с которой столкнулись — сборок для систем на базе Mac практически нет и их не так просто найти, в основном сборки идут под Windows. Я нашел два подробных мануала для развертывания для Mac на github. Вот первый и второй, если делать все по инструкции, заработает без танцев с бубном. Если же что-то не получится, пишите в комментариях, постараюсь помочь.

Установив Stable Diffusion, нужно было установить модель, на основе которой буду генерировать контент. После небольшого ресерча решил поработать с моделью Deliberate_v5 от популярного разработчика моделей Христ. Добавлю, чтобы корректно работали функции outpainting и inpainting, дополнительно сразу скачайте модель с приставкой Deliberate_v5-inpainting. Установка модели довольно проста: просто копируем в папку models, где был установлен Stable Diffusion.

Покопавшись в мануалах и посмотрев несколько обучающих видео, начал пробовать составлять промты и с интересом смотреть что получается. На первых порах не использовали негативные промты.

Так выглядит интерфейс Stable Diffusion

Так выглядит интерфейс Stable Diffusion

План был такой: сначала необходимо добиться более менее качественного результата с генерацией изображения для главного экрана, чтобы понять реально это в принципе для нашей задачи, а дальше генерить остальной контент. В одном из мануалов ссылались на переводчик deepl как лучший вариант составления для промтов, учел эту рекомендацию.

Приступил к составлению промтов из разряда «bath bomb or bath fizzie», «бомбочка для ванны или шипучка для ванны», дело двинулось. Далее стал задавать новые условия: белый/светлый фон, количество, тень и ее резкость, формат изображений, остановился на разрешении 1024х512. Также попробовал распределять вес ключей для более тонкой настройки — «bath bomb or bath fizzie, (A few pieces:1.5), white surface».

Добавлю, что при разрешении 1024х512 и методе txt2img генерация одного изображения занимала 45 секунд на процессоре m2 pro, при более высоких разрешениях доходило до 3-4 минут. В Stable Diffusion есть возможность выставить количество изображений для генерации пакетов изображений, что очень удобно. Выставляем 10 или 20 вариантов генераций, спустя 10-20 минут все готово. Остается выбрать понравившиеся результаты и seed и далее работать уже с ними. Прикрепляю первые результаты.

С каждым новым изображением я лучше понимал алгоритм и логику работы со Stable Diffusion, результат становился все интереснее, но от косяков в виде мутаций, артефактов и различных деформаций пока не мог избавиться.

Расширял промты и добавлял новые условия: «сухоцветы лаванды», «основание из дерева», «мягкие тени», «идеально круглая форма». Потом с помощью Midjourney составил промт, загрузил референс и полученный промт попробовали использовать для Sd, но ничего не вышло — видимо, алгоритмы и промтинг у Stable Diffusion и Midjourney работают совершенно по- разному.

Пример промта, который нам выдал Midjourney:

a box with a bunch of flowers inside of it, pinterest contest winner, private press, reflective lavender ocean water, dried herbs, detailed product image, bath, on parchment, light bloom, branches wrapped, surface hives, blue sunshine, maternal, product label, bubble bath, safehavenhq, nest

А ниже то, что получилось с промтами от Midjourney. В моменте казалось, что вырисовывается что-то симпатичное, но под наши задачи, увы, не подходило.

Генерации на основе промта от Midjourney

Генерации на основе промта от Midjourney

Снова переработал промт, прописал более конкретные условия и добавил негативный промт

9 bath bombs, lying next to each other on a white surface, they are surrounded by small branches of dried flowers

9 бомбочек для ванны, лежащих рядом друг с другом на белой поверхности, их окружают маленькие веточки засушенных цветов.

Продолжал эксперименты с промтами и весом ключей и в какой-то момент получил результат, который нас устроил в качестве версии 1.0.

Версия 1.0

Версия 1.0

Работал в режиме txt2img, промт:

9 bath bombs, bath salts, lying next to each other on a beige surface, they are surrounded by small branches of dried flowers, photo angle from the side, colors of bombs white gray milky

(9 бомбочек для ванны, соли для ванны, лежат рядом друг с другом на бежевой поверхности, их окружают маленькие веточки засушенных цветов, ракурс фото сбоку, цвета бомбочек белый серый молочный)

Негативный промт, чтобы исключить цвета, которые нам не подходили по стилю:

blue, pink

Заданные настройки в интерфейсе SD:

Steps: 20, Sampler: DPM++ 2M Karras, CFG scale: 7, Seed: 2474847976, Size: 955x452, Model hash: 636fe404e3, Model: Deliberate_v5, Version: v1.7.0

На тот момент у нас уже был готов дизайн-макет, известна цветовая палитра, подобраны шрифты. Мы «примерили» полученное изображение и наконец поняли, что попали, результат нас устроил на 9 из 10. Нам захотелось улучшить результат, продолжили работать на качество и детали.

Как улучшить получившийся результат в Stable Diffusion?

Каждое изображение имеет свой уникальный идентификатор — seed. Я использовал seed данного изображения и стал менять промт. Что это дало? Результат теперь получался не рандомным, а очень схожим с оригиналом. Мы могли развивать данное изображение — менять не только промт, но и другие настройки.

Когда я увеличил разрешение изображения с 952х448 до 1560х771, произошел известный баг в Stable Diffusion — дублирование сущностей. И так как мы работали с бомбами для ванной, а не с человеческими головами или руками, нам это пошло только на пользу, увеличив количество элементов с 4-6 до 8-12. Кстати, в сети довольно много мануалов о том, как бороться с дублированием контента в Stable Diffusion при генерации.

Далее составил универсальный негативный промт, воспользовавшись рекомендациями в найденных мануалах на просторах интернета, который бы повлиял на уменьшение количество мутаций и деформаций.

Промежуточный результат

Финальный результат, который нас устроил

Докрутив предыдущий промт на основе прошлого seed, получил наш финальный результат, который отлично вписался на главном экране сайта.

Изображение для главного экрана

Изображение для главного экрана

Режим txt2img, промт:

9 bath bombs, bath salts, lying next to each other on a beige surface, (they are surrounded by small branches of dried lavender:0.9), photo angle from the side, (photorealistic:1.5), detailed, 8k

Негативный промт достаточно универсален и подойдет во многих случаях, так как больше нацелен на борьбу с деформациями и мутациями:

blue, pink, ((((ugly)))), (((duplicate))), ((morbid)), ((mutilated)), [out of frame], extra fingers, mutated hands, ((poorly drawn hands)), ((poorly drawn face)), (((mutation))), (((deformed))), ((ugly)), blurry, ((bad anatomy)), (((bad proportions))), ((extra limbs)), cloned face, (((disfigured))), out of frame, ugly, extra limbs, (bad anatomy), gross proportions, (malformed limbs), ((missing arms)), ((missing legs)), (((extra arms))), (((extra legs))), mutated hands, (fused fingers), (too many fingers), (((long neck))), out of frame, duplicate, watermark, signature, text, ugly, morbid, mutated, deformed, blurry, bad anatomy, bad proportions, cloned face, disfigured, fused fingers, fused limbs, too many fingers, long neck

Заданные настройки в интерфейсе SD:

Sts: 20, Sampler: DPM++ 2M Karras, CFG scale: 7, Seed: 3624831220, Size: 1920x980, Model hash: 636fe404e3, Model: Deliberate_v5, Denoising strength: 0.6, Version: v1.7.0

Генерация контента для групп товаров

Далее нам оставалось в похожей стилистике создать контент для разделов каталога интернет-магазина. Действовал по уже выработанной схеме — использовал ключи прошлых промтов, которые описывают обстоятельства, добавлял необходимые ключи, использовал прошлые seed.

Вот такой интересный результат у нас получился:

Изображения для разделов каталога

Изображения для разделов каталога

Наращивание фона

Последнее, что оставалось — получить из формата 1:1 горизонтальные широкоформатные изображения для hero-секций страниц разделов. Функционал Stable Diffusion позволяет это сделать — нужно использовать outpainting (нейросеть может нарастить фон изображения в любую выбранную сторону исходя из контекста изображения) в режиме img2img. В сети и на ютубе много подробных мануалов, здесь не буду расписывать подробно.

Далее с помощью функции inpaint почистил изображения от артефактов. Оставалось сделать цветкор и дополнительно сделать апскейл.

Результат:

Главные секции страниц разделов

Главные секции страниц разделов

Что думаем насчет всего этого волшебства?

Нейросети могут помочь в решении определенных задач, стоящих перед дизайнерами. Считаем, что каждому в нашей профессии нужно попробовать-потрогать-пощупать и выбрать для себя инструмент, который будет полезен в работе. Использовать нейронки и изучать их функционал важно для развития и большей востребованности на рынке. Надеемся, что наш кейс окажется полезным, вдохновляющим и побуждающим к изучению, экспериментам и созданию крутого контента для рабочих и не очень задач. На текущий момент сайт в боевом режиме, работает и приносит прибыль своим заказчикам.

Суммарно на эксперимент с генерациями по этому проекту было потрачено 30+ часов, получено 400+ изображений, просмотрено и прочитано более 30 мануалов. Ссылка на фигму со всеми вариантами здесь.

Итоговый результат

Полученный дизайн презентовали заказчику, который был принят без правок. Нас поблагодарили за решение и то, как органично встроился сгенерированный контент в общую концепцию. Дизайн сверстали на Тильде в zero блоках, подключили каталог, настроили корзину, написали два скрипта для нестандартных решений, подключили сервис доставки и платежную систему, сделали технические настройки. На текущий момент сайт в боевом режиме, работает и приносит прибыль своим заказчикам.

Расскажите о своем опыте работы со Stable Diffusion и другими нейросетями — поделитесь в комментариях.

Показать полностью 24
20

Вышла Stable Diffusion 3 от Stability AI: Лучшая модель для генерации изображений. Но есть нюанс...

Компания Stability AI анонсировала долгожданный релиз Stable Diffusion 3, включая более быструю версию Stable Diffusion 3 Turbo. Согласно их исследовательской статье, новая модель, основанная на архитектуре Multimodal Diffusion Transformer (MMDiT), использует отдельные наборы весов для представления изображений и языка, что улучшает понимание текста и возможности правописания по сравнению с предыдущими версиями Stable Diffusion. Они заявляют, что Stable Diffusion 3 равна или превосходит современные системы генерации изображений из текста, такие как DALL-E 3 и Midjourney v6, в типографике и следовании промптам, основываясь на оценках человеческих предпочтений. Я собрал для вас лучшие работы созданыне на SD3 с редита, чтобы вы самостоятельно сделали выводы и написали их в комментариях.

Однако, несмотря на значительные улучшения, Stable Diffusion 3 пока доступен только через API на платформе для разработчиков Stability AI, созданной в партнерстве с Fireworks AI. Компания обещает в будущем сделать веса модели доступными для самостоятельного хостинга, но только для членов Stability AI. Это вызывает вопросы о приверженности Stability AI принципам открытости и open-source, которые они продвигали ранее.

Понятно, что всем компаниям нужно зарабатывать деньги, но такой подход к релизу Stable Diffusion 3 выглядит как отход от изначальных идеалов Stability AI. Не идут ли они по стопам OpenAI, которые переключились на закрытые проприетарные продукты? Это настораживающая тенденция для сообщества, которое ценит открытость и доступность ИИ технологий.

Варианты членства в Stability AI

Stability AI предлагает несколько вариантов членства для доступа к своим моделям:

  • Бесплатное членство для некоммерческого использования, включающее доступ к полному набору Core Models, ранний доступ к новым моделям, участие в сообществе и специальные мероприятия.

  • Профессиональное членство за $20 в месяц для коммерческого использования моделей компаниями с доходом менее $1 млн в год. Включает доступ к полному набору Core Models, сообщество для профессионалов и все преимущества бесплатного членства.

  • Корпоративное членство с индивидуальными условиями для крупных компаний, предлагающее доступ к Core Models, коммерческое использование, кастомный биллинг, корпоративные функции.

Компания сотрудничает с Fireworks AI для предоставления быстрого и надежного API, обещая корпоративное решение с 99.9% доступностью сервиса. Они заявляют о приверженности безопасным и ответственным ИИ практикам, стремясь предложить адаптируемые решения для раскрытия творческого потенциала людей и бизнеса.

Будем надеяться, что Stability AI в конечном итоге выпустит Stable Diffusion 3 в открытом доступе, как и предыдущие версии. В противном случае, это может оттолкнуть многих энтузиастов и разработчиков, которые поверили в миссию компании по демократизации ИИ.

Пока же нам остается довольствоваться API и ждать дальнейших новостей о судьбе Stable Diffusion 3.

Чтобы быть в курсе всех новостей и обновлений, подписывайтесь на мои YouTube, телеграм и Бусти. Буду рад вашей подписке и поддержке.

Показать полностью 43
2

Нейро котики в разнообразных стилях Stable Diffusion

Котики сгенерированные в нейросети Stable Diffusion. Для генерации изображений я использовал простой промпт "кот робот сидит за ноутбуком", менял лишь стиль в настройках нейросети. Смотрите что получилось.

🎭 Styles: Illustration

🎭 Styles: Illustration

🎭 Styles: Image

🎭 Styles: Image

🎭 Styles: ComicBook

🎭 Styles: ComicBook

🎭 Styles: ComicBook, Minimalism

🎭 Styles: ComicBook, Minimalism

🎭 Styles: Watercolor

🎭 Styles: Watercolor

🎭 Styles: Cubism

🎭 Styles: Cubism

🎭 Styles: Anime, Kawaii

🎭 Styles: Anime, Kawaii

Вот таких удивительных нейро-котиков я сгенерировал в Телеграмм-боте, используя следующие параметры:

🧩 Модель: SDXL Juggernaut 💠

🔧 Сэмплер: DPM++ 2M Karras.

Надеюсь, что они принесут вам улыбку и радость, и подарят немного вдохновения для творчества. Попробуйте создать что-то совершенно свое, ведь возможности искусственного интеллекта огромны!

Полезные гайды на тему генерации в нейросети:

Как создать логотип в нейросети

Как создать комикс с помощью нейросети

Как создать аватар по фото в нейросети

Показать полностью 8
3

Новая модель от Zovya

Название: Everclear PNY

Ссылка: https://civitai.com/models/341433/everclear-pny-by-zovya

Тип: #Модель

Кол-во скачиваний: 10000+

Последний апдейт: Mar 19, 2024

Базовая модель: Pony

Теги: #BASEMODEL #CARTOON #PHOTOREALISTIC #ZOVYA #PONY #PONYXL

Комментарий разработчика:

Делает все, что может модель PonyXL, но "почти" фотореалистично!

Если вы знакомы с моделями Pony, то они очень специфичны в своих подсказках и фокусировке на предмете. Я сделал эту модель, чтобы она работала так же, но была ближе к фотореалистичной. В ней используются те же подсказки и LoRA, что и в других моделях PonyXL.

Источник - @neurosklad 🤖 - все, что нужно, для твоей нейронки

Показать полностью 6
22

Обновление нейро-интерфейса Automatic1111 версия 1.9.0: что нового и как обновиться?

Привет всем любителям генерации изображений! Недавно вышло обновление популярного интерфейса Automatic1111 для графической нейросети Stable Diffusion.
Хотя заметных нововведений не так много, есть несколько интересных изменений, о которых стоит рассказать.

Одно из самых ярких обновлений - это возможность выбора шедулера (scheduler) прямо в основном интерфейсе рядом с выбором семплера. В большинстве случаев рекомендуется использовать опцию "авто", и подходящий шедулер будет выбран автоматически.

Но что такое семплер и шедулер? Если упростить, семплер - это математический алгоритм отбора данных из латентного пространства, а шедулер - это настройка, определяющая, как часто семплер обращается к модели в латентное пространство. Это очень грубое объяснение, так что не кидайте в меня помидорами, а еще лучше напишите свою версию в комментариях!

В разделе Settings вы найдете вкладку Callbacks, которая позволяет поменять местами порядок вызовов. Это очень удобно для того, чтобы изменить порядок отображения вкладок в интерфейсе. ui_tabs callback priority отвечает за порядок отображение вкладок сверху в основном меню.

Просто выберите желаемый порядок в поле ввода ниже, и вкладки будут расположены соответствующим образом после перезапуска.

Также добавлена поддержка дополнительных видов экстрасетей: LoRa - DoRa и LyCORIS BOFT. Ведут они себя так же как обычные лоры, все форматы кладем в папку LoRa.

А для тех, кто заботится о приватности 😏, предусмотрен новый специальный режим. Достаточно добавить аргумент запуска --no-prompt-history, и история ваших запросов не будет сохраняться, сделаете батник для "особых" генераций.

А теперь давайте подробнее рассмотрим весь список.

Полный список изменений Automatic1111 в версии 1.9.0

Особенности:

  • Переключение на рефайнер теперь основывается времени генерации, а не на шагах семплирования. Это обеспечит более корректную работу.

  • Добавлена опция для отображения старого стиля списка директорий вместо древовидного. Также внесены стилистические изменения для элементов управления сортировкой и поиском экстрасетей.

  • Появился интерфейс для упорядочивания колбэков (callbacks) и возможность указывать порядок колбэков в метаданных расширений.

  • Добавлена поддержка планировщика Sgm uniform для моделей SDXL-Lightning.

  • Теперь выбор планировщика (scheduler) доступен в основном интерфейсе.

Другие изменения:

  • Кнопка "Открыть папку с изображениями" теперь открывает фактическую директорию.

  • Добавлена поддержка инференса сетей LyCORIS BOFT.

  • Описание карточек экстрасетей теперь отображается как обычный текст. При необходимости можно включить HTML-формат.

  • Появилась возможность изменять размер области с экстрасетями.

  • Добавлены аргументы командной строки для санитизации имен файлов в Unix-стиле и ограничения максимальной длины имен.

  • Параметры экстрасетей теперь показываются в виде HTML-таблицы вместо сырого JSON.

  • Реализована поддержка DoRA (weight-decompose) для LoRA/LoHa/LoKr.

  • Можно отключить историю последних запросов с помощью аргумента --no-prompt-history.

  • Предпросмотр обновляется при использовании функции Replace Preview.

  • Обновления загружаются только для активных веток расширений в Git.

  • Интерфейс постобработки при апскейле помещен в аккордеон.

  • Поддержка перетаскивания URL для чтения infotext.

  • Использование библиотеки diskcache для кэширования.

  • Поддержка PNG-RGBA для вкладки Extras.

  • Возможность использовать обложки, встроенные в метаданные safetensors.

  • Более быстрое прерывание при использовании нейросетевого апскейла.

Расширения и API:

  • Разрешено переопределять параметр масштабирования столбцов в ResizeHandleRow.

  • Исправлены проблемы с встроенным расширением extra-options-section.

  • Возможность использовать zoom.js вне контекста веб-интерфейса.

  • Поддержка вариантов имени расширения в metadata.ini.

  • Сделана опциональной перезагрузка скриптов интерфейса при Reload UI.

  • Добавлен параметр request: gr.Request в начало функции img2img, аналогично txt2img.

  • Функция open_folder доступна как утилита.

Исправления ошибок:

  • Исправлена ошибка двойного апскейла при инпейнтинге.

  • Устранена проблема с кнопкой перезагрузки, которая иногда не появлялась для экстрасетей.

  • Исправлен параметр split_threshold, который не работал при разделении изображений большого размера.

  • Исправлено поведение изменения размеров для вертикального макета (мобильные устройства).

  • Улучшен механизм регистрации временных файлов.

  • Исправлены различные ошибки, связанные с функциями emphasis, Soft Inpaint, встроенной системой LoRA, стилями при использовании Hires prompt и многое другое.

Железо:

  • Добавлена поддержка обучения и изменен lspci для Ascend NPU.

  • Обновление до ROCm5.7 и PyTorch.

  • Улучшен обходной путь для Navi1, удален --pre для Navi3.

  • Добавлена страница wiki для Ascend NPU.

Прочее:

  • Обновлен комментарий для Pad prompt/negative prompt v0 с предупреждением об усечении, сделано переопределение реализации v1.

  • Поддержка изменения размера столбцов для сенсорных устройств (планшетов).

  • Использование абсолютного пути для нормализованного пути к файлу.

  • Обработка двойного нажатия в resizeHandle.

  • Флаг командной строки --dat-models-path.

  • Добавлена прямая ссылка на бинарный релиз.

  • Уменьшено ведение журнала в upscaler_utils.

  • Исправлены различные опечатки с помощью crate-ci/typos.

  • Обработка ошибок для неподдерживаемой прозрачности.

  • Добавлено описание модели в искомые термины.

  • Обновлена версия действия.

  • Аннотации PEP 604.

  • Автоматическая установка масштаба по значению при выборе модели апскейла.

  • Перемещено postprocessing-for-training во встроенные расширения.

  • Аннотации типов в shared.py.

  • Обновлен ruff до 0.3.3.

  • Обновлены утилиты PyTorch Lightning.

  • Добавлен параметр Size в сетку XYZ.

  • Использование переменной HF_ENDPOINT для домена HuggingFace с значением по умолчанию.

  • Повторное добавление update_file_entry.

  • Разрешение использования индекса и вызываемого объекта в create_infotext, переработка Hires prompt infotext.

  • Обновление restricted_opts для включения дополнительных опций для --hide-ui-dir-config.

С оригиналом на английском и ссылками на коммиты можно ознакомиться на этой странице.

Как обновиться?

Добавьте аргумент запуска git pull в ваш webui-user.bat, для этого просто откройте файл в блокноте, если не хотите обновляться при каждом запуске (рекомендую оставить), можете после обновления убрать его из файла.

Если у вас портативная версия, то возможно в ней есть update.bat, тогда активируйте его для обновления.

А на этом у меня все, надеюсь, обновление у вас пройдет гладко, и вы сможете насладиться новыми возможностями Automatic1111 версии 1.9.0.

Я рассказываю больше о нейросетях у себя на YouTube, в телеграм и на Бусти. Буду рад вашей подписке и поддержке. Всех обнял. Удачных генераций!

Показать полностью 5
Отличная работа, все прочитано!