Stable Diffusion тред X+72 ====================================== Предыдущий тред >>651244 (OP)https://arhivach.top/?tags=13840 ------------------------------------------ схожие тематические треды - NAI-тред (аниме) >>654632 (OP) - технотред >>639060 (OP) ======================== Stable Diffusion (SD) - открытая нейросеть генеративного искусства для создания картинок из текста/исходных картинок, обучения на своих изображениях. Полный функционал в локальной установке (см. ниже)
⚠️ Стандартные модели stable diffusion (v1.4 - v2.1) от Stability AI значительно отстают по качеству от кастомных моделей (см. ниже). Модели SD XL ставятся и запускаются так же как и любые другие модели SD.
Я хочу нагенерировать картинок для идей под карты для аим тренера. Что-нибудь вроде пикрилейтедов. Куда вообще копать в этой нейросети? Ее можно как-то натренировать для генерации подобного? Или может есть какие-нибудь модели подходящие? С общими моделями ничего толкового генернуть не выходит.
>>656292 Берёшь кучу шотов, тренируешь лору. Но оно тебе выдаст хуйню всё равно.
>>656294 Диффузия тоже не подходит. Да и вообще зачем тебе карты для аим тренера? Его задача тренировать аим, фон там подбирается под какие-то фичи человеческого восприятия, как в аимлабе которую лысый создал на базе экспериментов. А не "шоб красиво".
>>656340 Лягушка незачет. Нет взаимодействия с окружением. Вот со скамейкой в статье огонь. Так ведь можно загрузить фотку чела и написать что его бьёт Вандам по морде? Или например девушка сидит одна на диване на фотке, а написать что вокруг стоят люди? Будет так работать?
>>656358 >Будет так работать? Пока все херово работает. И это после черрипикинга.
Нужно чтобы они нашли способ как разные слои могут генериться вместе а не раздельно, так как тогда они слишком похожи на вставку картинки.
Кажется пока наиболее подходящее применение для этого это для генерации картинок отдельных объектов с альфой, так как они получаются лучше чем при вырезке объекта из уже существующей картинки (к примеру волосы и прочие идеально вытаскиваются, так как по итоге бэкграунд просто не генерится).
Плюс многое зависит от модели, может у SD3 будет лучшее понимает как вставлять объекты в контекст.
Аноны, может не совсем в тему, но вопрос такой. Я искал сервис в интернете для улучшения качества фоток. Перепробовал штук 20 из первой страницы гугла и все, кроме одного, делали полный шлак. Что весьма ожидаемого. Но вот один сервис https://snapedit.app/ru делает и ОЧЕНЬ быстро (буквально 6-7 сек) и СУПЕР круто, что я все фотки с его помощью переделал. Можно ли как-то узнать что они за алгоритм там используют? Можно ли как-то сделать, чтобы SD делал также? Потому что, то что делает рескэйл в SD в по сравнению с этим сервисом — небо и земля просто.
Поскольку моя шпаргалка по замене головы img2img оказалась в самом конце предыдущего треда делаю перезалив с внесением некоторых корректировок. Хочется поделиться с большим количеством анонов и может вы сможете сделать данный процесс ещё проще или значительно подтянуть качество.
В отличии от инпейна лица с помощью рефейса мы будем инпейнтить всю голову нашего персонажа целиком и копировать его детали (форму головы, челюсти, прическу итд.) Что нам понадобится: 1) А1111 + sd 1.5 модели на ваш вкус, я взял 12 версию модели realdream; 2) Controlnet расширение для a1111; 3) Модели для контролнет (inpaint, openpose, ip-adapter, ip-adapter-faceid-plusv2_sd15 и лора ip-adapter-faceid-plusv2_sd15_lora.safetensors). Их очень просто найти, но если будут проблемы - пишите скину ссылки; 4) 4+ фотографии лица персонажа желательно в квадратном разрешении 512х512 или 768х768, не поленитесь и сделайте банальные кропы вручную, так вся обработка будет работать значительно лучше. --------------------------- Делаем: 1) Для начала найдем фотографию в которую будем делать инпейнт и жирно выделяем всю голову персонажа; 2) Ставим разрешение 768х768, masked only, padding pixels 64-92, режим работы с контентом под маской masked content: original (именно он иначе инпейнт будет значительно выбиваться из общей картины и связано это именно с работой одной из моделей controlnet, можете провести свои эксперименты и поделиться с анонами); 3) Далее нам понадобится 3 юнита в controlnet (inpaint, openpose, ip-adapter face id_v2) - выставляю именно в таком порядке, не знаю может ли порядок влиять на результат, требуются доп. тесты; 4) В позитив промпт заносим исключительно лору для ip-adapter face id с весом 0.6, однако уже провел доп. тесты и вы можете заставить вашего персонажа улыбаться или выражать альтернативные эмоции, иногда это выглядит крайне органично. Так же можете менять цвет и стиль причёски. Пробовал так же подцеплять дополнительные лоры к примеру выражение лица ахегао и да это тоже работает, но не со всеми лорами, персонаж так же остается крайне узнаваемым, но вес доп. лоры в большинстве случаев нужно снижать до 0.7-0.8; 5) Настраиваем контролнет как указано на скриншоте обратите внимание на веса тех или иных моделей, если результат сильно выбивается из общей картины для начала попробуйте поменять препроцессор для inpaint модели контронет (+lama в 90 процентах работает хорошо). В зависимости от исходной фотки тот или иной препроцессор делает более мягкий шов. Так же попробуйте другие семплеры, если смена препроцессора не помогла. Лучшее, что я нашел для этой задачи (DPM++ SDE, DPM++ 2S a), если кто-то найдет лучшую универсальную комбинацию - делитесь с анонами.
PS. если лицо получилось слишком темным и выбивающимся из общей концепции фото - можно пройтись мелким денойзом 0.2-0.4 по области которую вы уже запекли в ваш эдит с семплером heun + steps 30 - 50 уже с отключенной controlnet моделью inpaint (ибо именно она вызывает затемнение или перенасыщение инпейнт области), оставив лишь openpose и ip-adapterfaceid_v2.
>>656396 хз, не похоже чтобы было лучше SD. Вообще похоже на то, будто-бы кабанчики преднастроили воркфлоу в SD и продают его как онлайн-сервис.
Даже на их собственных примерах руки и пальцы проебаны, как будто-бы на SD 1.5 все делается.
>что делает рескэйл в SD Рескейл тупо растягивает пиксели в SD. Чтобы реально с этой приложухой, тебе нужно попробовать апскейлить в SD. В прошлем треде тему апскейла тоже поднимали.
>>656402 >хз, не похоже чтобы было лучше SD. по мне так в сотни раз лучше. улучшил фотку, где вообще один шум, при этом не заменил голову на свою, как делает твой сд
мои пикчи с лолями стабильно попадают в шапку. ура! осталось патреон открыть.
никому не интересно, но скажу про тот пик. там много фотошопа. фон выделялся отдельно, размытие и цвета и свет накладывались вручную. можно лучше, конечно. но сд из коробки мало на что способна.
>>656466 Процесс создания описан мной в посте №656398
Сейчас делаю тесты и прихожу к выводу, что препроцессор global harmonious для inpaint модели работает в большинстве случаев лучше, кому интересно могу сделать гридсетки, чтобы облегчить задачу анонам
>>656475 там не все так просто (нужен insightface, да не обычный), советую посмотреть/почитать гайды по установке. В зависимости от того, нужно тебе в Automatic1111 или Комфи список скачиваемых моделей может различаться.
>>656468 Это происходит потому, что используется режим masked only то есть на маску применяется 768х768 разрешение, которое увеличивает плотность детализации в области маски, можно юзать whole picture и соотношение сторон всей картины, тогда нейронка лучше понимает контекст всей пички и общую детализацию объектов, однако тогда падает сходство пик прилагаю.
То есть теперь разрешение на участке соответствует общей шакальности пикчи, теряем детали лица, но глобально получается более приятный переход.
>>656536 Чтобы делать в фотошопе тебе нужен хороший датасет с идентичным focal length и угламу, тут ты можешь сделать персу разные волосы и выражение лица просто добавив в позитив промпт.
Новичок в треде. У кого большой опыт в работе с генерацией и кто использует это в профессиональной деятельности, вопрос в к вам. Есть ли возможность настроить и адаптировать SD таким образом, чтобы он выдал качество и реагировал на промты сопоставимо с MidJourney v6. Использую MJ в работе, но признаться честно дороговато выходит, да и в РФ с этим проблемы. Вот в поисках вариантов пока что. Да, я знаю есть куча аналогов на просторах интернета на своих моделях, но там тоже всё по подписке и такое ощущение, что модели +- основаны на v5, если не ниже.
>>656565 Что такое "лор"? У меня был опыт использования SD в исполнении Fooocus. Ванильный SD я попробовал примерно год назад, посмотрел недавно какие результаты он выдает и больше к нему не возвращался. Касаемо промтов скажу, что складывается такое чувство будто ему вообще похуй че ты там написал, он берет рандомно какие-то ключевые слова из промта и воображает что-то своё. Да, возможно это всё тонко настраивается, но попользовавшись MJ, где всё из-коробки, как-то нет желания ковыряться. Хотя я готов, если результат действительно стоит того.
>>656567 Причем эту (модель) можно вклеивать в любою пикчу независимо от удаления персонажа от камеры, поворота головы, прически которая была на оригинальной фотке. Можете закидать тряпками, но мне кажется это круто, особенно есть подобрать семплер и настройки контролнета.
>>656580 >и больше к нему не возвращался Такая-же хуйня. Да, там охуенный инструментарий, но как говорится, корм да не в коня, при полном отсутствии таковых в фокусе, результат на выходе просто несравнимый. Это еще более некорректно, нежели сравнивать хуй с пальцем)
>>656599 Продукт Дезигн. В основном необходимо генерировать как бы имитации 3d ассетов, мокапов, называйте как угодно. Так же необходимо создавать UI элементы и им сопутствующие.
>>656593 А, это я видел. Но сложилось такое впечатление, что всё замусорено низкокачественными аниме моделями на любой пук. Будто васянам дали возможность тренировать нейронку и они бесконечно создают свои модели. Не знаю насколько это объективная оценка, но общее впечатление именно такое.
>>656603 Делал по гайду, но честно качество чет совсем не такое как на 1.5, в фукусе когда подрубят faceid это будет точно прорыв, ну вот пример, может я рукожоп
1 пик ориг 2 пик метод через фейсID 3 пик можно делать так 4 можно делать даже так
Сэмплеры особо не дрочил, но если их подрочить - можно ещё лучше сделать.
>>656552 > но признаться честно дороговато выходит Есть бесплатный дали, с недавнего времени и широкоформат можно генерить. > SD таким образом, чтобы он выдал качество и реагировал на промты сопоставимо с MidJourney v6 Нет, жди SD3, может там что изменится(нет)
>>656673 Далли не способен генерить НЕ мультики. А я взрослый серьёзный человек, мне такое неинтересно. убогая нейронка, хз где её применять можно, просто по приколу потыкаться и всё
>>656678 Если ты ничего серьезного кроме онлайн генераторов не тыкал то самый лучший вариант это установить fooocus, там все настроено из коробки и выдает при минимальных вложениях достойное качество. СД тоже может дофига и больше, но тут прямо нужно ковыряться и вникать.
>>656706 Простые объекты да, сложные уже нужно подрубать техники, когда речь качается волос и прочей мелочи. Яму можно выкопать чайной ложкой, но лопатой - прикольней.
>>656724 Это тот же самый SD, просто другой интерфейс для него. Правда упрощенный, чтобы тратить меньше времени на изучение. Подойдет тем кто хочет потыкать кнопки туда-сюда без возможности сильно засрать что-либо.
Если хочешь ознакомиться с потенциалом SD, то чекни последние модели https://civitai.com/models. Они каждый месяц обновляются (в целом чаще).
>>656724 За тебя уже все сделали кабанчик, твои проблемы и задачи далеко не уникальны, есть разные модели и лоры, которые будут делать приемлемо по запросу "четка пиздата дизигн". Если фукус не потянешь - то можно ливать с тематики, ибо это даже не уровень входа, а прямо для настоящих аутов сделано, чтобы быстро красиво и не думать сильно.
• fix: sort with casefold, case insensitive by @mashb1t • feat: add early return for prompt expansion when no new tokens should be added by @mashb1t • feat: ignore DS_Store by @charliewilco in #2313 • feat: advanced params refactoring + prevent users from skipping/stopping other users tasks in queue by @mashb1t in #981 • feat: add list of 100 most popular animals to wildcards by @mashb1t in #985 • feat: add advanced parameter for disable_intermediate_results (progress_gallery) by @mashb1t in #1013 • feat: add ability to load checkpoints and loras from multiple locations by @dooglewoogle in #1256 • feat: allow users to specify the number of threads when running on CPU by @maxim-saplin in #1601 • feat: improve bug report and feature request issue templates by @mashb1t in #1631 • fix: correctly create directory for path_outputs if not existing by @mashb1t in #1668 • fix: allow path_outputs to be outside of root dir by @mashb1t in #2332 • feat: add button to enable LoRAs by @MindOfMatter in #2210 • feat: make lora number editable in config by @MindOfMatter in #2215 • feat: make lora min max weight editable in config by @MindOfMatter in #2216 • feat: add array support on main prompt by @flannerybh in #1503 • feat: use consistent file name in gradio by @mashb1t in #1932 • feat: add metadata to images by @mashb1t in #1940 • feat: add jpg and webp support, add exif data handling for metadata by @mashb1t and @eddyizm in #1863 • feat: add docker files by @whitehara and @mashb1t in #1418 • docs: fix typo in readme by @gteti in #2368
>>656728 Сколько места на диске занимает и есть ли вообще смысл ставить на пекарню именно. Вроде на серверах гугла хостятся модели fooocus и можно оттуда юзать.
>>656728 > упрощенный, чтобы тратить меньше времени на изучение Лучше даже перефразировать "чтобы немного поиграться с генерациями и забросить", потому что переучиваться с него на полноценный инструмент хуже, чем сразу разбираться, что к чему в а1111, например. Одна только фраза "я генерил в LCM режиме" из прошлого треда чего стоит.
>>656738 Судя по вопросам анона там нулевая заинтересованность у человека, хотя бы поиграется немного в красивый с нулевой фукус и дальше пойдет в платные онлайн сервисы, ибо все равно уже придрочился к специфике. А1111 за ручку вести не будет, на старте скорее всего лютую дичь на базовой модели 1.5 сгенерит и дропнет.
>>656726 > С точки зрения говноеда - безусловно. Тебя в СД никто не держит, кстати. Все сд треды завалены кривыми, однообразными, убогими пиками, но шизоид увидел шум (соринку) у дали, а бревна в своём глазу не замечает. Вот потеха, удивительная палата больных, уникальные пациенты тут обитают однако.
>>656735 Вроде можно запустить фокус в коллабе, но это изначально локалка. И модели не хостятся, а просто лежат там и скачиваются когда ты в первый раз используешь в нем разные функции.
>>656738 >Одна только фраза "я генерил в LCM режиме" из прошлого треда чего стоит. Это фраза моя и использовал её намеренно, чтоб не писать такое: " шедулер лцм, семплер лцм, цфг равно 1, подключена лора лцм". Я думал здесь умные люди и поймут сами. Пока ты смеёшься, я генерю батю енота в лцм-режиме, в котором можно нормальные оружие и пальцы и соски.
>>656788 > лучше чем пыль насранная на картинку И высрал кривую мыловарню. Болезный, ты бы хоть не позорился выкладывая такие высеры и что-то там пукая про шумы у дали.
>>656736 >какой-то сплошной qol и ничего новенького толком Основной разработчик сосредоточился на forge и хоть и писал, что фокус не забросил, но похоже забил хер на него. >>656828 >НЕ РАБОТАЕТ! >Ебал я такие апдейты. Разработчик так же разрешил самоуправствовать какому-то джуну и тот мержит всё подряд. Всё, что ни попросят мёржит, олень.
>>656844 > заката фокуса Хз, мне нравится как он работает, даже если останется в текущем состоянии - мне более чем норм. Приятные фотокарточки хуярит, а больше мне и не надо. мимо
>>656889 >обновись Пока не будет полной (скачиваемой) сборки, ничего обновлять не буду, да и смысла не вижу. Там обнов вообще нет, кроме форматов сохраняемых картинок, всё тоже самое) А на полтораху я не вернусь, в пизду, как увижу это говнище, так блевать кидат...
>>656968 Лицо пользователя миджорни, когда он заходит в тред и видит генерации в сто раз лучше, чем в его платном сервисе, на который он всю зарплату спускает.
Стабильно ли работает сд в линуксе? Фокус, Комфи и Автоматик. Если чуть медленнее, то на это пофиг. Главное безглючность, стабильность и надёжность. Нвидия.
Посоны, почему моделька пони6xl, без лоры на стили, генерит в автоматике бессвязную чушь и размытые силуэты? Клип хоть 2 хоть 1, разницы никакой, с любым семплером. Как только включаю лору - всё норм, но при уменьшении влияния лоры, качество ухудшается. Насколько я знаю, люди используют эту модель нормально и без лоры.
Посоны, а как вы решаете для себя какой семплер или значение cfg то что нужно? Я вот думал чечас быстренько увижу разницу и выберу что-то одно. Но вот пик с двумя семплерами и двумя значениями cfg. И что-то мне всё нравится. Не могу выбрать. Так и генерю партиями. Но оно долго. Дольше в 4х раза. Блин, муки выбора.
Аноны, а может кто подсказать? У меня есть скриншоты из видео с очень плохим качеством. Как мне их улучшить? Пытаюсь перерисовать с нуля через инпэинт, так он все равно рисует с таким же плохие качеством. То есть я хотел как бы воссоздать изображение с нуля, но по контурам существующего. Как это можно сделать?
Вот что можно сделать на SD в апскейле с помощью тайлового контролнета.
>>657138 тебе нужно сначала проапскейлить картинку до разрешений, на которых может работать SD, потом прогнать ее через img2img чтобы получить более-менее похожую на что-то заготовку, а уже потом инпейнтить.
>>657140 высрал мыло А еще говорит, что в SD много мыла.
>>657146 >Хотел было сказать, что стоит дождаться тайлового контролнета для SDXL и тогда посмотрим, но он уже появился. Так и как сделать, чтобы вот такое получилось то? Что выбирать?
>>657184 Всё так. Еще бы в фордже/автоматике разделить сэмплинг метод на сэмплер и планировщик, чтобы вместо четырех десятков пар, которые барин решил добавить, были два аккуратных параметра.
>>657224 Хотел показать типо апскейл такой же как у тебя. Но если повышать денойз то получается вот так, поэтому я в предыдущем посте запостил картинку с низким денойзом но без заметного апскейла (хотя мне кажется что так аутентичнее было).
>>657146 > тайлового контролнета для SDXL Очень прожорливая штуковина. С USDU и dpmpp_3m_sde karras и 0.6 денойза как-то мутно (пик2). С Tiled Diffusion и dpmpp_2m_sde heun karras и 0.6 денойза сначала вообще не завелось, пока overlap до 32 не снизил (пик3). Оригинал держит вроде чуть хуже 1.5 версии с таким же денойзом.
Аноны объясните плиз, апскейлю не супер шакальную пикчу 512 на 512 на денойзе 0.25. Как поднять детализацию и не потерять узнаваемость? Так же вопрос по тайлам. Если я могу запускать даже 2048 это лучше? Какой padding лучше указывать?
>>656272 (OP) аноны, а как раздеть по-нормальному тянку? я меняю денойзинг в инпейнте и чет как-то не очень все равно выходит. промпт чтоль подбирать? я видел тут кто-то деда раздел быстро, может другие способы есть.
>>657287 Примерно так. А дальше роллить, пока не получится желаемый результат, и шлифовать детали, типа лишних пальцев с меньшим денойзом и более подходящими разрешением и паддингом.
>>657287 Я, как человек, который раздел очень много-много тянок, советую тебе делать через sd-webui-inpaint-anything. Если вдруг найдешь способ проще и легче — расскажи мне плиз. Но только учти, что тянки раздеваются только в самых простых и очевидных позах. Если тянка сидит или что-то заслонено, то может вообще не получиться. У меня много есть фоток, которые ВООБЩЕ никаких образом не получается раздеть. Я не знаю почему так. Если кто вдруг расскажет как это делается, то я скажу спасибо. Я обычно пытаюсь раздеть 3-5 мин. Если не получается, то бросаю.
>>657310 Тоже сожрал на это 4 собаки, есть 2 пути, это использовать инпейнт модель и роллить нормальную анатомию, а потом проходить мелким денойзом удачный вариант. Второй это сразу использовать обычную модель и подрубать inpaint controlnet и возможно даже openpose если ты хочешь сохранить пальцы итд. Опять же решает сколько контекста ты кормишь нейронке, в режиме whole picture ты отдаешь нейронке всю композицию и ей проще сделать адекватные пропорции тела, а если ты используешь only masked то ты отдаешь лишь область которая под маской + разрешение в стороны на размер padding pixels и если инпейнт область супер маленькая то представь, что нейронка получает лишь ту инфу, что под маской и разумеется она вообще не понимает что ты от неё хочешь. Твой вариант не плохой, но я бы так сильно не стремился оставить оригинальные пальцы и подрубал openpose_dw и прямо поверх ещё раз проходится по областям где видна старая одежда.
Вопрос к юзерам comfyui. В нем можно сделать такой трюк: начать генерировать в одной моделью, допустим pony, а на последних шагах переключиться на другую sdxl модель? За одно еще и промпт поменять, убрав шизоскоры.
>>657285 Если апскейлиш на SD 1.5 моделях, то подключи тайловый контролнет.
Если на SDXL, то может canny контролнет поможет.
После подключения контролнета, можно будет повышать денойз.
Если под узнаваемостью ты имеешь ввиду лицо человека, то можно попробовать замену лица после апскейла (через инпейнт с использование одного из методов копирования лица).
>>657295 лора по 1 картинке это к IPadapter больше.
>>657287 Использовать специальную инпейнтинг модель (или inpaint контролнет/foocus). Правильно подобрать промпт и значение денойза.
>>657423 --preview-method auto >>657395 Обычный кастомный сэмплер, у которого сэмплер и планировщик вынесены в отдельные ноды. > в чем прикол Сигмас ноды? Делает практически то же самое, что end/start step в KSampler (Advanced).
А как сделать так, чтобы на лицо, вставленное через IPAdapter, влияли стили из промпта? Увеличение веса стилей не помогает, а уменьшение веса лица просто делает его менее узнаваемым.
>>657685 Второй раз прогоняй, но уже без адаптера, но с референсом картинки до вставки, и с канни/лайнартом картинки с лицом. Шум можно повыше выстаивть. Оно затрет "вставленную" стилистику, но сохранит линии.
white in a swimsuit sweden woman 20 years old, hair in the wind in the shower. in shower room room real skin, nipples, pores, sexy pose, focus on the perfect face, emotive eyes, smiling and aroused, (wide shot)1.4, nikon z 5, award winning photo, sharp focus, ektachrome
NE
china, japan, render, cgi, digital painting, (text)1.2,(logo)1.2, (watermark)1.2, b&w, (cartoon, 3d, bad art, poorly drawn, close up, blurry, disfigured, deformed, extra limbs)1.5. black. southern nationality. anime. non-sexuality. mutant. errors. wrong. ugliness
>>657685 Если тебе нужно лицо на свой стиль перенести, то лучше InstandID используй. Но если ты, как я, сидишь на старом торче, то только IPAdapter, тогда можно частично зафорсить стиль добавлением шума в clip_vision энкод в комфи. Но без дополнительных прогонов, как >>657692 описал, всё равно будет сильно ограничено в стиле.
>>657692 Спасибо. Только я немного другое имел ввиду - у меня нет референса, я добавлял лицо не в готовую картинку, а генерил всё сразу в txt2img. >>657713 У меня в фордже вроде есть, попробую.
>>657676 Акварель (watercolor), а художников всяких намешано, промт вот так выглядит:
<(Digital watercolor Illustration of a summerscape sunset, tropical lagoon, ruins of an old spanish fort on an island, by JB, Waterhouse, Carne Griffiths, Minjae Lee, Ana Paula Hoppe, Stylized watercolor art, Intricate, Complex contrast, HDR, Sharp, soft Cinematic Volumetric lighting, flowery pastel colours, wide long shot, perfect masterpiece:):1.0>, <(detailed matte painting, deep color, fantastical, intricate detail, splash screen, complementary colors, fantasy concept art, 8k resolution trending on Artstation Unreal Engine 5):0.9>
Выделенное курсивом можно менять на что хочешь, оно стиля не касается. Это про первые два пика, у кота никакого стиля и художников нет, просто фентези иллюстрация.
>>657531 Спасибо, анончик, у тебя тоже пейзажи симпатичные, чем-то библейским от них веет или старинно-фентезийным типа Конана.
>>657752 Это да, круто. Но оказалось настоящая задумка автора использовать это с не inpainting моделями, нужно просто mask blur сделать под 30-40. Но не понятно зачем, лучше с inpainting моделями юзать, чтобы удалять края
>>657825 >Расширение replacer Спасибо. А какую модель посоветуешь? Там пишут, что от памяти зависит. И еще, если есть улучшенные(HQ), то зачем обычные?
HQ на 1.25 и Dino на 900. На максимальных у меня иногда OOM выдает, хотя и 12 gb vram. Разница очень мало где. Ну а если у тебя 16 или 24, то смело максимальные качай. Hq позже вышла обычной
>>657837 Ну а лучше - тупо все качай, если жестких проблем с местом нет, и потести сам, что лучше для тебя по памяти, качеству, и скорости. Что такое 10 гб сегодня
>>657825 Спасибо. Посмотрел это расширение. Оно ничем не лучшего моего sd-webui-inpaint-anything. Ну из промта может считывать часть тела и все. У них одна и таже база — segments.
Короче говоря, я перепробовал АБСОЛЮТНО ВСЕ и могу сказать, что по-нормальному интэинтинг не работает. То есть чтобы ввести один промпт на одну целую маску на все тело: red lingerie, black garter belts, black nylon stockings, lacy lace design, hairy pussy, <lora:nsfw-xl-2.1:1> и получить НОРМАЛЬНУЮ картинку — не получается.
Либо рисовать каждую часть тела/одежды по отдельности, что довольно долго, нудно и затратно; либо получается что геометрия частей тела (особенно ног) летит к чертям. Я не знаю, проблема это алгоритмов SD или недостатка модели (я делаю все на juggerxlInpaint_juggerInpaintV8), но у меня лично не получается.
Если кто даст совет как ОДНИМ промтом переодеть ВСЮ тянку в нужную мне одежду, то я буду благодарен. А пока что результаты получаются только как на пикриле.
Поэтому могу сказать, что SD НЕ может сделать, что нужно именно мне и поэтому для меня он как бэ бесполезен. Может в 3/forge/cascade это поправят. А может и нет. Но пока что меня результат не удволитворяет.
>>657981 У нас в аниме-треде ссылка на коллаб есть, а тут, видимо "не палят годноту залётным". После банов коллабов на доске буйным цветом паранойя цвела, был отдельный тред даже, где аноны выёбывались тайным знанием обладания рабочим блокнотом.
>>657887 > Спасибо. > Посмотрел это расширение. Оно ничем не лучшего моего sd-webui-inpaint-anything
Ну как ничем не лучше: - промпт - hires fix - controlnet
Плюс выделение по промпту куда удобнее сегментов. Я пробовал этот самый inpaint anything, и офигел сначала от кривизны, а потом как стал выделять, понял, что выделение по сегментам ни чем не быстрее обычного выделения кистью. Буквально столько же времени занимает, сколько обычный inpaint
Работает только с SDXL и при первом использовании будет скачивать большие модели (несколько ГБ каждая) на каждый тип операции (foreground, background, foreground to background, background to foreground).
Из всего этого, более менее стоящее это только foreground, все остальное похоже на эффект вставки в пэйнте.
>>657966 Ты взялся сразу делать в хард моде. Нужно сначала настроить инструменты в тепличных условиях. Оригинал должен быть в Т-позе с однородным фоном типа такого: woman 30yo in t pose. Сначала лучше в спортивном облегающем костюме, платья потом, позже. И вот когда ты четко выверишь каждый движочек в юи, тогда можно двигаться дальше.
>>657995 кури даунвольтинг, снижение частоты не поможет тупое, надо пиковый вольтаж снижать
краткий алгоритм поиска такой:
1. в msi afterburner заходишь в настройки и врубаешь возможность менять и мониторить вольтаж (1)
2. сохраняешь текущий профиль на 1 например (не забывай после изменений жать галку для применения), далее жмёшь на голову человечка и формируешь свой график охлаждения и уменьшает период изменения до 100-150мс, чем меньше, тем быстрее будет реакция на изменение оборотов (2)
3. теперь вот этот ползунок (3) влево максимально сдвигаешь и проводишь тест на стабильность, например в GPUZ или графонистых играх. обычно всё должно быть ок, но если возникли проблемы, то двигай меньше влево и не забывай применять, если надо сбросить жми кнопку в виде "обновить" или жми на сохранённый профиль (цифру) и применить
4. после пункта 3 у тебя будет график частот-напряжения снижен, твоя задача выставить только максимальную частоту и минимальное напряжение для неё при котором будет всё стабильно работать. тут надо пробовать и тестить на стабильность. можешь не переживать, если что-то подвиснет после перезагрузки всё вернётся на дефолт. ищи, когда найдёшь оптимальную частоту и вольтаж (вольтаж очень сильно влияет на температуру, частота на температуру практически не влияет) поэтому прежде всего ищи вольтаж который устраивает тебя при 100% нагрузке температурами, а потом уже советую апать частоту в поисках стабильности. не забывай нажимать применять. если обосрался сбрасываешь и по новой. надрочишься, будет быстро получаться.
5.как только нашёл нужные настройки, сохраняй на дискетку профиль и цифру и далее ЕСЛИ УВЕРЕН в этих настройках по умолчанию, то нажимай на значок windows сверху окна это будет автоматом применять текущиее настройки при загрузке windows. но я настоятельно рекомендую не ставить это сразу, хотя бы пару перезагрузок врубать свой профиль ручками, а именно: нажал цифру с профилем сохранённым и применил на галку.
в целом из моего опыта даунвольтинг не только не уменьшает производительность, он помогает убирать тротлинг, сброс частоты, игры и стабла работает более стабильно и в моём случае мои ручные настройки дают большую примерно на 10% производительность относительно заводских. это не слишком много, но я добивался относительно тихой работы, на заводских комп просто как самолёт гудел при 100% нагрузке GPU.
>>658061 я не умею читать мысли, но для начала я бы зашёл в настройки и сменил интерфейс, хотя он должен быть другим изначально в новых версиях программы, у тебя устаревший UI где я не вижу многих фич и у тебя не разблокирована смена напряжения видеокарты, это тоже в настройках всё делается, я выше привёл скрин
вообщем итак уже высрал подробную инструкцию, если надо разберёшься. прошу прощения у посетителей треда за лёгкий щитпостинг, не серчайте, дальше будет всё по теме треда
>>658068 >я не умею читать мысли Ползунки недоступны. Максимум что смог нагуглить - через изменение файла профиля чтобы можно было только повышать вольтаж. Да и хз работает ли
>>658063 Он натренирован на 3 миллионах картинок из анимешных боору. Из-за чего он знает больше чем почти любая SDXL модель, но промптинг у него шизический по современным меркам, как у самых первых аниме моделей (но если знаешь что такое booru, то будет легче подбирать теги).
>>658064 Автоматик разделен на основную и dev версию, плюс мелкие фичи, если они не популярны, не сразу пилятся, так как нужно чтобы кому-то захотелось сделать расширение. Ну и сам Автоматик часто бывает пропадает из сцены и не так часто сидит за проектом.
У меня вопрос. Если лайтнинг так хорош, то зачем теперь обычные модели? Ну, максимум в комплекте с лайтнинг лорой. Вот пики на juggernautXL_v9Rdphoto2Lightning сгенерированные за 4 шага без рефайнов, апскейлов и инпеита. Только ролил. На обычном джегернауте и за 30 шагов получается хуже, нет такой четкости, как на лайтнинг. Так еще и разница в скорости в 3 раза в пользу лайтнинг. В чём подвох? Почему лайтнинг не зохватил мир? Почему вы используете обычные модели, а не лайтнинг?
>>658117 > В чём подвох? Почему лайтнинг не зохватил мир? Туго со всем остальным, кроме обычных генераций и хайрез. фикса. Хуже воспринимает кондишен по маскам, шаманский денойз, где нулевая разница между 0.35 и 0.4 или 0.4 и 0.45, из чего вытекает крайне не гибкий инпейнт и прочее. Но в целом да. У лайтнига четкости больше, чем у обычной ХЛ, возможно потому, что изначально без рефайнера задумывался.
>>658089 >Auto cum prod Не понимаю, чел, это че-то значит или ты просто про КАМ шутишь... Вы мне объясните, это так и должно быть, оставить эту хуйню или отключить? Я уже гуглил, и ничего найти не могу по ней, только какие-то непонятные багрепорты с гитхаба, где про саму фичу нихуя не объясняется
Заебал этот фордж, устанавливаю любое расширение и он не может запустить, пишет что у меня нет дохуя чего, а установить в него нельзя ничего. Можно как-то установить всё в систему, а не использовать ебанутый портабл?
>>658575 Какие семплеры посоветуешь для моделей SDXL в a1111, в фукусе там какой то гпушный по умолчанию идет, а что брать тут и сколько шагов на 1024х1024?
>>658578 Я сам в фокусе сижу в основном. В фордж только иногда захожу для опытов. Обычно на цивитай в описаниях модели пишется, какой семплер лучше для нее подходит.
>>658279 > Читать надо же Тот кто писал высер на твоём скрине похоже не читал что авторы пишут. Лайтнинг нельзя использовать с семплерами инжектящими шум. CFG можно любой оставлять, только дурачки сидят на 1, смысл лайтнинга как раз в том что можно как обычно с нормальным CFG сидеть, а не как в LCM/турбе.
>>658669 >>658672 Ну все равно, все что ты показал больше похоже на самый обычный рандом. Это как с руками, иногда они получаются нормально сразу, а иногда и тело нормально не генерится.
Жопа горит когда посмотрю его "внятное хауту". Почему так? https://www.youtube.com/@latentvision Будто это индийца кто то заставляет клепать это непонятное говно
Пока практикуюсь с позингом моделей, гоняю кадры в комфи. Но у моделей и персов есть детали, которые не совпадают. Для персов использую лоры. Собственно вопросы: Есть ли что-то лучше Zoe \ Midas для карт глубины в плане детазизации? Как можно, желательно автоматически, дополнительно прорисовывать делали перса?
>>659011 Детализация там нахуй не нужна. Карта глубины это грубый опорник. Делаешь примитивный риг в 3Д софте (блендер например) из палочек и шариков, и всё будет работать, главное силу контролнета регулируй чтобы оно не так сильно следовало карте глубины. А лучше возьми это, тут можно редактировать пропорции у модельки, пальцы, выражение лица и т.п. https://toyxyz.gumroad.com/l/ciojz
>>659011 Алсо, у карты глубины контролнета всего 8 бит, динамический диапазон говно, и детали там всё равно хуй разберёшь, особенно если у тебя перс с кучей деталей в большом пустом пространстве, поэтому вопрос бессмысленный. Блендырь же (или майя, хуяйя и т.п.) позволяет расколбасить сцену на объекты и рендерить каждому объекту по своей 8-битной карте.
>>658523 >пикрил настройки 1024x768 >пики 2048x1536. Ты вытянул обычный джагернаут из говн. в конф. апскейлером. Покажи оригиналы 1024x768. В оригиналах лайтнинг выигрывает. Главное хорошо проапскейлить. Можно же апскейлить лайтнинг обычным джагернаутом. Короче надурил нас и доволен. Уберите нахуй слово к о н ф е т к а из спам листа!
>>658633 >что авторы пишут >только дурачки сидят на 1, смысл лайтнинга как раз в том что можно как обычно с нормальным CFG сидеть, а не как в LCM/турбе. За слова ответишь? Ты хоть раз генерил в лайтнинг? От 3 начинаются артефакты, а в 6 вообще яркие пятна на всё изображение. Короче, очередной теоретик без компа.
>Do you know why SDXL-Lightning, SDXL Turbo and LCM-LoRA do not use negative prompt or CFG value? These methods already used a CFG value during their training, so there is no need to use it again as it would reduce the quality of the result.
>Знаете ли вы, почему SDXL-Lightning, SDXL Turbo и LCM-LoRA не используют отрицательное значение приглашения или CFG? Эти методы уже использовали значение CFG во время обучения, поэтому нет необходимости использовать его снова, так как это снизит качество результата.
>>659107 Спасибо, смог. Под вечер тупил жёстко. Пытался долго визуал студию подходящую накатить, а оказалось, что надо галочку в опциях поставить и раскопать вкладку опции, вкладку детекция, чтобы обновить список моделей и вебуй наконец-то увидел модель.
>>659220 > За слова ответишь? Да, сижу на лайтнинге 4-шаговом, всегда на 7 CFG. > скрин А потом ты берёшь и открываешь их публикацию, где чётко написано что оно может работать и на 7. С DPM++ естественно у тебя будут артефакты сплошные на 7.
Вот в автоматике и фокусе, если мне понравился результат генерации, то я могу выключить рандом у сида и он не будет меняться. Дальше будет генерация именно того сида что мне понравился. В комфи же... Генерю рандомно, сид вдруг нравится. Я ставлю fixed. И всё равно он делает один рандом! Мой сид, который понравился, теряется. Пробовал в настройках менять - не помогает. Что делать? Так задумано? Зачем это надо. Вот подключенные апскейлеры, например, в режиме mute. Я ролю сид. Нахожу красивый. Unmute апскейлер, fixed sid. А хер там. Сид утерян. Но это к делу мало относится. Как зафиксить сид сразу после генерации? То есть сначала генерация какого-то рандомного сида, я вижу результат и фиксирую его.
>>657207 >>659234 Без VAE модели не может быть. Она по любому там будет (даже когда кастомщики на civitai пишут BakedVAE просто имеется ввиду, что в модель запекли нестандартное VAE). Поэтому тебе нужно при мердже добавить VAE либо от одной из моделей, либо стороннее.
>>659420 Да, в Комфи не так как в Автоматике сделано. Если хочешь использовать сид, который был, ты либо должен загрузить воркфлоу из View History/самой картинки, либо использовать сторонние расширения, которые дают ноды для преждевременной фиксации сида. Как к примеру вот тут https://github.com/rgthree/rgthree-comfy
>>659588 По ссылке Install Python 3.10.6 (Newer version of Python does not support torch), checking "Add Python to PATH". Не поддерживается 3.12, надо 3.10
>>659496 >We follow their approach and use an off-the-shelf, state-of-the-art vision-language model, CogVLM (Wang et al., 2023), to create synthetic annotations for our large-scale image dataset. As synthetic captions may cause a text-to-image model to forget about certain concepts not present in the VLM’s knowledge corpus, we use a ratio of 50 % original and 50 % synthetic captions.
>>659655 А чё бы им самоподдув не включить тогда? Сеть1 генерит картинку, другая делает текстовое описание и сразу же мержить эту картинку в сеть1 с этим описанием. Повторить 1В раз.
>👉 Для новичков - простой в работе WebUI Fooocus >https://github.com/lllyasviel/Fooocus?tab=readme-ov-file#download Ахуеть, я новичок, а как этим пользоваться? Запускаю run.bat, открывается кмд.ехе. Увидел дальше намёком, что можно использовать какой-то inpaint установил inpaint, он не видит файлы .bat че за хуйня мне надо в кмд какие-то комманды вводить?
>>659707 Хз, что ты мне скинул. На страничке гитхаба написано, что >если вы используете inpaint это очевидный намёк, что можно каким-то образом использовать эту хрень каким-то инпаинтом я вообще домохозяйка, я нихуя не ебу как этим пользоваться
>>659749 Ну 27гб еще есть, вроде достаточно же >>659758 Чел, я неиронично нихуя вообще не понимаю Я буквально домохозяйка Если бы написали четкую инструкцию куда жмакнуть, то другое дело
Есть вообще СБОРКА, где можно гененрировать нормальные изображения 3д ассетов? Я сколько не пытался СД не понимает, что значит сет из 9 3д ассетов в таком-то стиле в такой-то проекции. Просто наваливает кучу и всё. Видел как рисуют сначала эских и потом через СД его улучшают для внятного состояния. Почему у Midjouney всё из коробки работает по промту без свистоперделок?
Жопа горит блядь от странных интересов публики. Создаешь натурально шедевр, где все выдержано идеально - стиль, композиция, сюжет. Настоящая картина со сценой, где че-то логичное происходит. Получаешь на неё ноль реакции, буквально НУЛЬ, даже какой-нибудь один мимохуй лайк не поставит. Создаешь рандом хуйню по случайно спизженному промту, получаешь результат ну типа лол вроде прикольно, запощу сразу без обработки, без нихуя, и так сойдет. Внезапно наползают лайки, сначала пара десятков, потом под сотню, потом эта хуета уже в featured images сайта на главной висит, пока я охуеваю от такого "успеха". В это время у картины, ради которой я душу всю выдрочил, чтобы довести до идеала, по-прежнему ноль реакций.
>>659783 > начну Смешно. Я за 2 года сд тредов не увидел тут ни одной генерации которая бы приблизилась к реализму TheRRRealist. Тут одно пиздабольство без результатов.
>>660056 > Какая-то хуета > У того чела получше Кривое ебло, обазанное шумом из фотошопа. Всё понятно с вами, продолжайте генерить кривое месиво, и пиздаболить.
>>660165 Шел тред №3876, год 10119, дауны в треде так и не умеют палить ТОГО САМОГО эзотерического главшиза составляющего тупые гайды и использующего в промте ((very sun)):1,4. спойлер: см. названияприкрепленных картинок
>>660048 чел у тебя на фотках пачка клонированных бимбо унитазов вусмерть уфотошопленных, к тому же. Такое может заходить только при полном отсутствии вкуса
вот еще заявление от создателя одной из лучших моделек. о чем я и говорил.
>Для тех, кому интересно: я не буду поддерживать объединение LoRA, таких как Lightning, которое ускоряет скорость рендеринга при значительной потере качества и гибкости
Де жа вю: Очередное открытие в сфере СД, абсолютно похожее на другое открытие в прошлом.
Если короче, тут сделали метод генерации без ломающейся картинки и многоебла на нестандартных и высоких разрешениях, как уже в прошлом году сделал Kohya в своем Deepshrink.
>>661407 Капец ты даже близко не понимаешь работу кохи хайрезфикса. Тут используются дополнительные веса, по типу как в контролнете, а у кохи просто уменьшение разрешения на первых шагах. У кохи говно полное, надеюсь это получге
>>661722 /ideogram.ai/ очередной отстой, кому нужны буквы, если вся модель кривая картинка по промту: a girl with long red hair walks along the seashore, summer, sunny path on the water, the inscription “XYZ” on the sand, photorealism, high detail background
>>661755 ты прежде чет ЭТО постить, стопы на своем шедевре рассмотрела? Кстати модель не совсем бесполезная, можно на ней эскизы с текстовыми надписями генерить, и дальше в sdxl через img2img и инпаинт допиливать до нормального качества ;)
>>661439 Ну как бы да, но как бы и хуй знает. CFG выше 4 не поставишь. Картинки пиздец все в зерне. Наверное кроме лоры, ему еще и какой-то новый семплер нужен.
>>661880 Позволяет не обсираться с большими пикчами. У моделей при увеличении размера обычно крыша съезжает и они перестают понимать, что к чему, где какие части тела и все в таком духе. А это держит их в узде, благодаря делению на тайлы дает лучшее понимание пикчи.
>>661975 >С семплером LCM и планировщиком karas\exp лучше. Но появляется мыло. Да и пофиг? Апскейли как есть. Не знал твой промпт, написал так RAW photo of a cat girl with a backpack in a field in the mountains. Поэтому такие лица, как бы кошачьи получились.
Сгенерил свое ебало на эпикфотогазме с промптом selfie photo of sexy beautiful young female with makeup, wearing black bra, smiles and looks seductively at the camera <lora:ip-adapter-faceid-plusv2_sd15_lora:1>Шишка встала, я нормален?