Stable Diffusion Flux тред X+106 ====================================== Предыдущий тред >>847486 (OP)https://arhivach.top/?tags=13840 ------------------------------------------ схожие тематические треды - аниме-тред >>849389 (OP) ======================== Stable Diffusion (SD) - открытая нейросеть генеративного искусства для создания картинок из текста/исходных картинок, обучения на своих изображениях. Flux — открытая нейросеть нового поколения для генерации изображений от стартапа Black Forest Labs, основанного беженцами бывшими разработчиками Stable Diffusion. Полный функционал в локальной установке (см. ниже)
Пример промпта (запроса) для sd1.5 или SDXL: an european girl, standing, high quality, soft focus, 8k, photograph by nick nichols Пример промпта (запроса) для Flux: This photo shows a small smiling young caucasian adult woman with blonde hair wearing a pink t-shirt with the words "SD3" and panties sitting on a white couch with her legs crossed in a yoga pose, in the background of the image behind the couch there a several standing large buff african american men wearing white t-shirts with the words "FLUX" and white shorts, they are staring at the blode young woman, the woman is very small in the image allowing the men to tower over her ------------------------------------------ ♾️РАЗЛИЧНЫЕ ХУДОЖЕСТВЕННЫЕ СТИЛИ (С ПРИМЕРАМИ) 👇 https://supagruen.github.io/StableDiffusion-CheatSheet/ https://www.artvy.ai/styles ------------------------------------------ 💻ЧТО ТАКОЕ CONTROLNET И КАК ЕГО ИСПОЛЬЗОВАТЬ https://dtf.ru/howto/1669307-ustanovka-i-obyasnenie-nastroek-control-net-kopirovanie-pozy-kompozicii-i-td ========================================== 🧠 ОБУЧЕНИЕ ПО СВОИМ КАРТИНКАМ 👇 https://dtf.ru/howto/1660668-obuchenie-modeli-s-pomoshchyu-lora https://civitai.com/models/train
Какой промпт нужен, чтобы добиться текста просто как подписи сверху или снизу? Подскажите, пожалуйста, аноны. Через инпейнт, может, как-нибудь?
У меня получается только через "speech bubble", а он стиль насильно скатывает в комиксный, что не всегда нужно. Да и сам этот пузырь не всегда уместно смотрится...
>>851525 Просто напиши, что текст нужен как подпись внизу или вверху. В чем проблема? Или просто в пэинте добавь, епта, добавление "просто текста" совершенно не требует нейрогенерации.
>>851536 photo of a cheap prostitute on a motel room, she is plump and wearing lingerie, stockings and garter belt, she is a mature woman. probably 40-50 years old, there is subtitle on the bottom of an image that says "ITS YOUR MOM"
>>851538 ПАЛЬЦЫ! Посмотри на эти пальцы! Есть у него конечно и брак(процентов 30 по пальцам в шнель). Но я когда увидел эти пальчики, то понял что сдхл в топку. И это шнель! Без негативов.
>>851604 так а разница, если даже во флюксе лица перекосоеблены и надо инпеинтить? или хотя бы хайрез фикс делать. А с ним и сдохля пальцы норм делала уже
>>851699 6 гигов хватит базовую модель в нф4 засунуть если с этих 6 гигов системную отрисовку отрубишь, с постоянным переключением моделек одна генерация это ну секунд 200, оно тебе надо?
>>851713 Ты че дурак, в нф4 весит 5.5 основная модель плюс столько же т5 и прочий кал сопутствующий, оно будет просто свапать мрдели в память карты по очереди
Гайзы, подскажите, какой функционал использовать, что сгенерировать картинку какого-нибудь персонажа с нужным мне ебалом, например моим. Полдня ебусь с controlnet - результат в общем хуйня. Хоть в ту сторону воюю?
>>851794 Как раз пока писал свой пост, качался ip-adapter, его еще не пробовал, ща затестирую. >>851796 Этот вариант оставил на последок, даже фотки уже подготовил, на ночь поставлю обучаться.
Какие же сказочные дауны. Ваши тесты flux это как запустить базовую sd1.5, euler a, steps 10 и после хуйни сказать, что natvis xl - говно. Именно такой уровень теста вы проводите на своем некроговне с идиотскими настройками порезанной модели. Есть куча сайтов, которые генерят на нормальной модели. Даже я со своими 16ГБ/64ГБ не лезу в локальный flux. Есть куча сайтов, которые генерят быстро и бесплатно (вроде как) на полноценной модели. Как минимум можно глянуть и погенерить на https://fluxpro.art/ Пытайтесь не баб своих обоссаных генерить, куколды ебанные, а сгенерить человека в такой-то одежде, на фоне такой-то надписи в таком-то месте, рядом с таким-то объектом, в таком-то состоянии и погоде. А потом попытайтесь это сделать хотя бы в СД3, не говоря уже о чем-то более старом. Пони на флаксе уничтожила бы всё, но её вроде как не будет.
>>851814 >Какие же сказочные дауны Чел, у сддаунов за столько лет исказилось восприятие реальности, что никакие здравые аргументы не помогут. Хоть миллиард пиков и сравнений с сд хламом принеси, ничего не изменится. Смирись. Суть треда - всё что сгенерено не локально на комфе и сд, автоматически говно.
>>851885 Это где такое? Я бы арендовывовал для тренировки лор или может ещё чего погонять. Только не предлагай сервисы, за которые нет возможности заплатить простому Ивану, город Тверь.
>>852019 На удивление - уже. Но обучали пока криворукие говноделы, поэтому половина едва похожи. Но все равно виднеется результат не сильно хуже других подобных лор на хл. Даже анимешные хуесосы уже персонажей обучают. На сд3 до сих пор только треш.
>>852135 Где писали что она всесильная? Я чота в тред зашел в голос проиграл. Им дают новую модель, а они считают что с этого только проиграли, ведь всю жизнь хотели сидеть без прогресса, лишь бы буковки "с" и "д" в названии модели были. И ведь никто не мешает им продолжать сидеть на старых моделях, но у них жопа горит, что остальные пересаживаются на новые. Я не знаю как назвать такое поведение, но во многих сферах жизни наблюдается. Когда находишь себе барина и до последнего его защищаешь, максимально игнорируя все его недостатки, ведь у него есть какой-то враг, который хочет всех поймать, выебать и кала в жопу залить, по их мнению.
Сколько по времени должна генерировать картинку в понихл на эйлера 40 шагов 7 гайданс на 4080? ЧЯДНТ, оно мне по полминуты или даже больше крутит, а с хайрезфиксом все две
>>852175 Т5? Сд3 на т5, елла подключается к полторахе как т5. Генерация в 4 шага? Да хоть в 1 на сд можно. Красивые картиночки из коробки? Лорами и контролнетами и айпиадаптерами обмажь сд и будет тож самое.
Что принес флюкс кроме того что он А) Инферирует дольше Б) Требует больше В) Нихуя не знает, хотя огого ебать 12млрд параметров
>>852178 Силишь как чорт на флюхе жрешь пережаренные файнтюн картиночки тип красивые, везде перешарп, боке в очко тебе пихают. Единственный плюс вижу во флюксе что он может сохранять консистенцию на не нативном разрешении (допустим в 512 на 512 флюх может читабельное и смотрибельное делать и наоборот в 4к можно срать как на каскаде), чего не может сд.
>>852175 > > хотели сидеть без прогресса, > Какой прогресс принес флюх? Никакого. Прогресс принес каскад, все эти сжатия латента в 100500 раз и минимальные требования для железа, что собсно на хуй послали потому что маняпатенты и некоммерческое использование. Вот если бы флюх тож самое запилил для всех бесплатно и без обязательств да еще с т5, да еще и чтобы мультипараметричность (чтобы не насильно тебе 12ккк параметров сували, а ты сам выбирать сколько использовать) - вот это был бы прогресс. А так тупа модель жирная, которую хайпят непонятно почему.
> Сколько по времени должна генерировать картинку в понихл на эйлера 40 шагов 7 гайданс на 4080? ЧЯДНТ, оно мне по полминуты или даже больше крутит
Да вроде ± всё правильно, так оно и должно генерить. Разве что процентов на 10-20 тормозит, у меня на 3060 такая генерация заняла бы 34 секунды, можешь флаг --xformers включить
А так примерно на таком порядке sdxl и генерит, особенно с хайрез фиксом. Если нужно ускорить, то снизь до 30 шагов, а на хайрез можно какую-нибудь lighting/turbo/lcm лору въебать, и сделать 4 шага, только понадобится расширение hires fix tweaker для append для промпта с cfg=1.0
>>852148 Что-то отвалился номер сообщения. Еще м.б. ты семплер какой-то не тот выбрал, есть всякие типа dpm2, которые аккурат в 2 раза замедляют генерацию
>>852214 Косяки, так как они могли бы сделать конвертацию лор на лету. Но вообще в 4 бит - это уже перебор. Нафиг такое надо. Для меня языковые модели меньше 5 бит - это заметно тупые, а тут для картинок, которые даже в fp8 критически деградируют
Я рад, что flux - это опенсорс большая модель, но это не опенсорс для домашнего использования. Он как llama 405b, опенсорс в том смысле, что разные компании хостинга могут конкурировать между собой свободно, и если очень надо, ты можешь хостить свою. Но это не та модель, которая должна работать на домашнем пк, ей место на серверах
>>852145 > пересаживаются на перловку и воду. Напоминаю массовым пересаживателям, стоимость карты, которая возможно должна вытягивать эту ебалу ~120-135 тысяч фублей. Из-за инфляции её стоимость растёт каждый день.Это средний квартальный заработок по психушке. Но ведь нужно что-то еще и есть, и платить за хату. Но это не останавливает ебанутых шизиков, они продолжают орать на всех углах о смерти SD.
>>851814 >Пытайтесь не Ну и нахуй ты трясёшься? Высрал простыню зачем-то. Баб мы генерим для харкача обоссаного, долбоёб. Нахуй нам твои мужики и т.п. Какой нахуй НЕлокальный сдхл/флюкс/любаядругаяхуйня, алё дебил, мы тут не игрульки играем, как ты ребёнок, чтоб перед одноклассниками во втентакле похвастаться. Тут работяги за 500к/наносек делают дело в свфере ии и иногда срут итт, делятся мнением. Ору с дауна. Онлайн генерит всякую еботню и дрочит 24/7
>>852290 >0 концептов Какая базовая модель делает кентавров? Я ткнул сдхл, сд3, аэрофлоу, колорс, плейграунд - никто не справился. >0 понимания компановки >tiger riding centaur girl Што за бред, это не аги, какой компановки ты тут ждешь. Дообучай сначала неизвестным никому фантазиям. Алсо, промптить на русском, это что вообще. Короче, доеб беспочвенный. У флюха есть недостатки если невтерпеж поныть, но нахуя всякую ерунду из пальца высасывать. мимо
>>852294 >Тут работяги за 500к/наносек Тут громко слышно лоурам детишек, которые фрустрируют от требований флюха и придумывают поводы уверить себя и других в его ненужности, чтобы унять жопоболь. мимо
>>852317 Пони (в6) не базовая, она на базе сдхл. В любом случае, пиздеть про "0 концептов" из-за кентавров, когда пойди найди где они есть - это наглое пиздобольство.
>>852318 Я так понимаю опять чмохи косплеят форчок и местных долбоёбов-промыток, из-за которых теперь есть local diffusion и stable diffusion треды, ибо с дебилами в одном загоне сидеть нереально. Надо бы тоже чуть погодя отпочковаться. После того как на флюс норм файнтюн завезут
>>852342 А, ну да, может просто стоять на спине. Это я себе сразу нафантазировал езду одного четвероногого лежа на другом, такое вряд ли у кого-то в датасетах есть. Все равно, нужно сначала дообучать кентаврам даже для стояния. И я подозреваю, что результата будет проще добиться, если промптить не riding, а standing on the back, или типа того.
Ты блять походу вообще не понимаешь что такое компоновка, лол. Вывалил какую-то шизофазию. Зайди хотя бы в википидорию почитай.
Обучение компоновке скорее всего дело непростое. Это художественная база, там "понимание" нужно. Например в профиль портретная голова человека компонуется так чтобы перед его лицом было пространство. Это как бы "пространство для взгляда". Иначе выглядит уебищно, смотреть некомфортно, педагог в художественной мастерской предложит тебе выкинуть этот портрет в окно, инфа 146%>
Знание такой особенности человеческого восприятия сложно (скорее невозможно) вложить в нейронку тупо путём скармливания хорошо закомпонованных портретов. Ей нужно объяснить на базовом уровне саму эту тонкость, чтобы она понимала что к чему.
Разумеется никакой васян никогда не обучит нейронку правильно компоновать. Тут нужен художник с хорошими академическими знаниями. Плюс нужно чтобы и сама нейронеа была способна обучиться таким тонкостям. Нейронки-то наверное уже достаточно мощные для этого, а вот у васянов академических знаний нет.
С другой стороны сами компании создающие нейронки разумеется имеют в штате кучу годных художников. А значит по идее скоро они должны научить роботов правильно компоновать. С третьей стороны компоновку невозможно формализовать до конца, потому что мозг – блэк бокс, и никто до конца не понимает почему какие-то конкретные моменты компоновки нам нравятся. Непонятно даже до конца какие конкретно моменты нравятся. Получается что в каком-то смысле и в каких-то моментах нужно заставить робота делать "то не знаю что". У робота нет человеческого мозга и человеческой способности воспринимать композицию/компоновку, а значит обучить его можно только тем знаниям о композиции и компоновке которые на сегодняшний день удалось формализовать. С четвертой стороны у робота есть мощный козырь – бигдата. А значит анализируя бигдату (бесконечное количество примеров) он сможет выявить какие-то свои хитрые закономерности и тонкие моменты, сможет вычленить те моменты в скормленных ему хороших композициях, которые люди осмыслить не смогли. Тупо с помощью математики. Так что это новый неожиданный фактор. Но насколько эффективно это будет – загадка.
В общем я думаю теперь тебе понятно насколько это сложная и запутанная хуйня
Можешь даже не мечтать о том что какие-то там васи смогут научить нейронку компоновать как положено. В лучшем случае сносно
>>852318 >Пони (в6) не базовая, она на базе сдхл. далбаебина, в6 это базовая модель потому что имеет свой датасет и текстовый енкодер, корректно говорит базовая модель на архитектуре сдхл, ебло тупое
>>852378 >сложно (скорее невозможно) вложить в нейронку тупо путём скармливания хорошо закомпонованных портретов детекчу базовое непонимание работы неёронки, где в реальности: сид это всё а промт ничто.
>>852356 >А ваш флюс так может? Калоежки? Похоже, только пони и знает, остальные модели кал что ли? Модели не знают всего, это нормально, решается лорами. >придется ждать и безответно терпеть, пока сд-гады почем зря наш флюкс обижают. Можно юзать все модели. Зачем себе придумывать поводы отказывать себе в чем-то? Вот отказывать себе - это терпеть. А еще можно полирнуть флюсом.
Уже 2й день так. Это в режиме простоя, т.е. я нихуя не делю сейчас ничего. Что за хуйня? У всех так или проблемы на моей стороне? Чекните у себя плиз, если не трудно.
>>852383 Не понял к чему это. Мой тейк в том что нейронке неоткуда взять человеческое восприятие компоновки и композиции. Для этого нужен человеческий мозг. Ей невдомёк что человеку некомфортно смотреть на профиль обрезанный у самых глаз, это объяснять надо, примеров недостаточно, потому что это затрагивает более глубинные механизмы человеческого восприятия которые в разных формах влияют на композицию и компоновку. Непонимание этого механизма всплывёт и в других местах. Тут нужно детальное объяснение сложной хуйни, а не просто закармливание приметами. А объяснить можно не всё, потому что не всё описано и осмыслено
Так же и во всём остальном что касается компоновки и композиции
>>852378 Просто сначала была претензия к соединению тигра с кентавром, а то что ты расписал, это в нехуйдожниковой среде для узнавания лучше называть композицией, если нет задачи подвыебнуться.
>>852378 Чел блять, есть такое понятие как обобщение при обучении. Нейронка базовой композиции, пропорциям, перспективе учится на ура и никакие учебники и промежуточные построения ей не нужны, это вопрос вкинутого в обучение компьюта, размера сетки, препроцессинга датасета. Эти вещи (особенно перспектива) сейчас сломаны, потому что картиночные сетки слишком маленькие и тупые. Просто для понимания, 12B это игрушечный размер в среде LLM, там кое-какие на триллион тянут, флопсов туда вкинуто овердохуя, и эмерджентные способности у них соотвествующие. Да, конечно, дохуя говорят про планирование и обучение на учебниках (на самом деле это просто синтетика), но для конкретно для той задачи что ты озвучил нихуя не нужно такого, оно улучшается с масштабом само. Особенно глядя как чисто текстовая не мультимодальная сетка при достижении неких масштабов начинает осознавать пространственные отношения и звуки настолько хорошо как будто видит/слышит.
В общем я думаю тебе надо завалить ебальничек если ты не понимаешь в ML нихуя.
>>852400 >Мой тейк в том что нейронке неоткуда взять человеческое восприятие компоновки и композиции. Для этого нужен человеческий мозг. Сорян, но это то больше похоже на типичное хуйдожниконытье. Если ты просто промптишь, то тебе может выдавать как было в обучующих данных на тупо фотках, обрезанных как попало тнями для инсты. Промпти композицию или хуйдожества, мастерписи промпти. Для сдхл также юзают файнтюны, нацеленные на художество.
да блять ты тупой чтоли? датасет пикч у оригинальной сдхл 3 миллиона, у пони 2.5 еще раз - У ПОНИ 2.5 миллиона картинок в датасете, на 500к меньше, чем в базовой сдхл, они полностью несовместимы и даже контролнеты несовместимы + разный текстовый енкодер
то что написано файнтюн, так файнтюн слишком широкое понятие, технически и СДХЛ 2 это файнтюн полторашки, но это не отменяет что она базовая модель
>>852454 > они полностью несовместимы и даже контролнеты несовместимы Хули ты пиздишь, контролнеты от XL работают на пони. И лоры работают, хоть и кривовато. Даже мержатся без проблем, если первые слои не трогать.
>>852454 >еще раз - У ПОНИ 2.5 миллиона картинок в датасете, на 500к меньше, чем в базовой сдхл >датасет пикч у оригинальной сдхл 3 миллиона Еблан полоумный, что ты несёшь. Этого даже близко недостаточно для базовой модели. СДХЛ тренилась на LAION-400M, подмножестве LAION-5B, и это только ансупервайзд часть. Там 400 миллионов пикч, плюс RLHF дообучение на синтетике. Даже дешёвые модели типа пиксарта альфа (тренилась за $28k) юзали сравнимый датасет (свой фильтр LAION + SAM).
>>852459 >Хули ты пиздишь, контролнеты от XL работают на пони 90% не работает, ты че нюфаг чтоли? под пони отдельные контролнеты вообще >И лоры работают, хоть и кривовато Не работают. >Даже мержатся без проблем, если первые слои не трогать. Хуержатся, через дейр тебе и с базовой сдхл модельки мержат, ток это потмоу что архитектурка одинаковая, а прямой мерж соси жопу.
>>852468 Это ты маневрируешь, пони - базовая модель.
SDXL used an internal dataset for pretraining and fine-tuning the model. The dataset consists of 1.8 million images from the ImageNet dataset and 1.2 million images from the OpenImages dataset. The images were resized to 256 x 256 pixels and augmented with random crops, flips, and rotations. The authors also used a subset of the COCO dataset for evaluation.
The ImageNet dataset is a large-scale dataset of natural images that is widely used for computer vision tasks. It consists of over 1.2 million images with 1000 object categories. The OpenImages dataset is another large-scale dataset of natural images that consists of over 9 million images with 600 object categories. The COCO dataset is a popular dataset for object detection and segmentation tasks that consists of over 330,000 images with 80 object categories.
>>852472 >СДХЛ тренилась на LAION-400M, подмножестве LAION-5B, и это только ансупервайзд часть. Там 400 миллионов пикч Это для того чтобы архитектура рабочая была. На голой архитектуре у тебя будут одни шумы генерироваться.
>>852482 Ты долбоёб который повторяет за инфоцыганами, которые сами нихуя не знают. ImageNet и COCO это ручные рисёч датасеты, их используют не для ансупервайзд предтренировки, как в репорте и сказано (для скоринга и прочей вспомогательной поебистики). Там одних RLHF пар в дискорде стабилити наверно набралось больше чем в имиджнете всего есть.
>>852484 Я думаю, что пони можно называть базовой моделью в смысле использования лор, так и делает в реальном использовании цива, например, надо же разделять лоры. Но с точки зрения базовости как "модель без файнтюна", пони не базовая.
>>852492 >А где почитать технические детали пони? Поспрашивай астралоха >Чет ничего не нашел по свой текст энкодер. Он писал что на высоком лернинг рейте (на котором тренилась пони) деградунлись т.н. "знания" сдхл и получился по сути свой уникальный клип со своими векторами.
>>852508 Иными словами у этого дебила случилось катастрофическое забывание при файнтюне (т.к. оригинального датасета у него нет) и он решил оставить как есть.
>>852493 Ты не разделяешь архитектуру и базовую модель. Чтобы сделать архитектуру надо ебический датасет, но пони и не отдельная архитектура, она использует архитектуру сдхл. А что такое базовая модель? Это пикрел. Пони удовлетворяет всем криетриям, а значит она БАЗОВАЯ.
>>852294 >Тут работяги за 500к/наносек делают дело в свфере Обосрался. Пикрилы продаешь? Сд это буквально про кривую анатомию, в то время как флюкс про на каждой пикче мне выдавал идеальные позы. Пока нет дообученных моделей, от него широкого практического применения и не стоит ждать, его можно юзать как отличный генератор эскизов, которые можно обрисовать в других стилях на других моделях. Я не представляю каким нужно быть тупоголовым, чтобы ждать от новых опен-сорс моделей знание концептов. Этим занимаются лоры и файнтюны. Концепты можно ждать только от закрытых далли и мж, черт знает что у них на бекенде, может тоже сотни тысяч лор. >>852266 Нищее говно мриит о том, что все новые модели должны запускаться на его 1660 и злобно запрещает прогресс.
>>852523 >злобно запрещает прогрес Какой прогресс принес флюкскал? По пунктам пожалуйста. Выше было доказано что флюкскал это просто жирная модель на 12млрд параметров без задач полированная сверху дпо чтобы делать квадратноеблых тян в шарпе и с боке для восхищения со стороны нормисов.
>>852529 Не люблю тупоголовым даунам отвечать. Но вот тебе задача: открой базовые модели (не пони как какой-то дебил тут срет) и попробуй С ПЕРВОЙ ПИКЧИ сгенерить пикрил >>838196 → И это был простейший тест в первые минуты знакомства с моделью. Если бы ты не пиздел, а тестил - не возникало бы таких вопросов.
Я думаю нам и правда надо отгораживаться от этих сд "художников". В технотред вроде ещё постят адекваты, не совсем сдох. Нужно отдельный тред пилить, а эти с композициями и архитектурами пусть в сдтреде сидят
>>852552 Попущенка, никакие технологии тебе не помогут если уж ты патологически тупой дурак с туннельным мышлением. Всем прекрасно понятен твой тезис о том что магия математики способна с высочайшей точностью извлекать корреляции из бигдаты и строить впечатляюще мощные модели. Это банальная мысль доступная любому школьнику.
Просто ты тупой и не в состоянии осмыслить мой аргумент, хоть я и расписал его максимально доступно и понятно. В ответ один пердёж
>>852537 Да это ты "особенный", хватит толстить. Он не уникальный, он не то что на архитектуре сдхл, он буквально энкодер сдхл запидоренный файнтюном, чем пони и является. Тебе уже цитату с релиза пони про файнтюн принесли, а ты все кривляешься.
Привлекательность сисек основана на человеческом мозге и человеческом восприятии. У робота нет человеческого мозга и восприятия. Он не понимает привлекательность сисек. Следовательно, он не может нарисовать привлекательные сиськи. Что мы и видим в том же флюксе, кстати. Какие-то обрубки с мыльными сосками.
>>852400 Всё прекрасно она понимает и делает, если тренить на арте. Мидж прекрасно умеет в композ и геометрию, например. Просто ваши реалистик поносы обучаются на расстрельных листах
Обращение к срущему говнами в итт. Как бы ты не срал в тред, люди будут пользоваться тем, что им нравится. Смешно, что ты не можешь осознать, что у тебя нет никаких шансов что-то изменить в выборе каждого отдельного анона. От твоих высеров ничего не изменится. Что ты там пытаешься доказать(себе)? Какие бы ты аргументы не привел они ни на что не повлияют. Тем более в таком стиле, который ты выбрал. Неуважительное коверканье названий программ и моделей, переход на личность. Этим ты автоматически идентифицируешь себя злобным троллем, на которого не стоило обращать внимания, жаль не все это понимают и продолжают тебя кормить.
>>852638 И чем это тебе мешает? Они постят картиночки из флюкса, но козыри-то у тебя. И ты легко перебиваешь своими шедеврами из сдхл. Ведь так? Зачем сраться и спорить? Пости свои сдхл.
>>852620 Реально, какой-то флюксоребёнок срёт по кд, как не зайду. Наверно это тот же даун, что фокус хейтил. В то время как свободные люди пользуются и всеми моделями, всеми гуями когда захотят, у него анальные боли, что все не пользуются тем, что он.
Так я вас понял, 1гёрл не пишу больше (ладно пишу пишу, но не скидываю). Вы просто скажите какой семплер там хуе мое самое то по скорости и качеству, просто базовая полтораха мне норм рисовала уродцев всяких и пейзажи а тут ну ваще уебище какое то, я че зря 30 гигов наебенил контролнетов, ПОНЯ из коробки вообще нихуя не умеет? Вот просто генерация при тех же настройках,на пони и полторахе, сами угодаете че где
>>852709 >>852718 уже по лучше, понял что только тяночек рисовать умеет. Какие то может негативы спецефические нужны для неё? И по настройкам: цфг, семплер и степсы подскажите пожалуйста. а то мутновато долговато
>>852712 >Вы просто скажите какой семплер там хуе мое самое то по скорости и качеству Я долго тестил и пришел к выводу что оптимум это TCD и Euler Dy >я че зря 30 гигов наебенил контролнетов нет стока нетов для поней, ты там 80% на сдхл скачал > ПОНЯ из коробки вообще нихуя не умеет? почему, она дохуя умеет, просто чтобы не ебаться с миллиардом токенов надо упрощать жизнь и юзать лорки стилей ну и стабилизаторы генерации типа PCM
Как же хочется купить 5090 за 5к бачей чтоб 24/7 срать флюсовым калом итт и молиться что тебя в следующем перекате оп в шапку поставит и на сивитаи 14-летние пиздоглазые трусонюхи лайкнули, придя со школы, мммм.
>>853206 >>853212 Ну эта еще более менее по сетке. Пробовал с первой, не получилось. Также нужно индексированные цвета накинуть с какой-нибудь популярной pa палитрой вроде db-32
>>853247 скилишуе если ебальник не медиум шот, то на дефолт размере без учета дпо и всяких пцм турб и тд и тп он всегда будет мыльным, так что вперед и с песней накатывать мокрописьки типа адетайлера
>>853642 Закрась красным под цвет дивана (прямо в автоматике через инпеинт скетч) и низким денойзом пройдись по этой области, чтобы с окружением слить.
>>853658 Если оно уже красным закрашено, то original. Денойза обычно хватает 0.3, а если все равно выделяется, то выдели область побольше. Или вообще whole image включи.
>>852378 >педагог в художественной мастерской предложит тебе выкинуть этот портрет в окно, и получает вечером кислотой в ебало >Знание такой особенности человеческого восприятия сложно (скорее невозможно) вложить в нейронку тупо путём скармливания хорошо закомпонованных портретов. можно, решает качество датасета
А flux schnell и flux dev получается оба 12b модели и требуют одинакового объема видеопамяти? Разница выходит лишь в том, что шнель ставит скорость выше качества, а дев качество выше скорости? Интересно еще что при том что они дистилированы из одной модели, дев не может делать некоторые вещи которые может делать шнель. Особенно это касается регулировки "качества фото" и "фото фильтров" на генерируемом изображении. Например шнель может в CCTV footage и iphone footage, а дев на этом страдает, хоть и качество итоговых изображений на нем в целом лучше. Вроде как я даже тестил прошку и она тоже не смогла нихуя в iphone footage, но могу пиздеть
че-то полный обсёр флюкса, не шмог выдать простой концепт, он даже большой палец не знает и пихает в рот указательный (((
professional photography, woman sucking her thumb with a lot of saliva leaking, drooling
и слюна тоже пиздец какой-то, на одном пике она вообще была вся чем-то красным залита, будто кровью, без каких-либо упоминаний красного цвета или крови, конечно же
>>854513 Дев на третий раз смог выдать что-то более менее (1 пик), но в любом случае не выдает такую крипоту как шнель. Что интересно на всех генерациях одна и та же девушка, видимо прикол этой архитектуры, которая была и в stable cascade, там тоже самое было
>>854513 >>854563 Вообще, то как генерит flux похоже на то как генерит sora, если он и делает какие-то косяки, то это не типичные ИИ косяки, где просто какой-то цифровой винегрет, а идеально срендеренное изображение в котором похерены пропорции или концепция. Если у соры в примерах "плохих генераций" был летающий стул или стакан из которого вода выливается прямо через стекло, то тут вместо слюны какая-то жижа бело-красная, мутировавший язык и губы, короче происходит какой-то пиздец, но реалистичный, из-за чего выглядит максимально стремно.
>>854569 Ну у них и архитектура схожая (диффузионный трансформер), так что и галюны наверно тоже. А вообще это обе довольно большие модели, поэтому артефакты сжатия выглядят убедительней чем в маленьких, очевидно
>>854569 По мне так наоборот, у шнели видно, что это просто глюк какой-то, а у сд как-будто реальная зловещая крипота так и задуманая. Поэтому в данном случае сд интереснее, лол.
>>853038 это все флюск? Если да, то подскажи как ты промптишь всякий грейн и несовершенства картинки как на 3 с моушн блюром. Я пытался из него выжать хотя бы grain, а он тупо все маслом мажет
Шнель на 1, 2, 4 и 6 степов по порядку. На 1-2 еще видно пикселизацию если приблизить, 4 оптимальный вариант как по мне хоть оно в этом случае и всрало глаз но в мелких деталях все уже хорошо, на 6 уже крипота какая-то идет, чем дальше тем хуже. 3-4 короче надо
>>855184 Я даже не понял, что такого в ее примерах. Ну башенки эти пендосские, ну ок, это изображено в несколько спорном контексте, но что вы там цензурить будете? Само изображение башен? Вид из самолета? Хз. В остальном там просто пикачу с автоматом и клоун... что это блядь? Она на оружие триггерится?
>>855187 Для соевого нормискота генерация даже таких пиков уже лютый подрыв пердака, там в твиттере неистово агрятся на Маска.Грозят судебными исками, кароче скандал как в своё время было с дали и Свифт.
>>855280 Нет, конечно. Все эти кванты обратно в fp16 конвертятся перед использованием слоя, все операции в fp16. fp8 самое быстрое, т.к. аппаратная поддержка есть.
>>855285 >в ОЗУ выгрузить за пол секунды это на 6000 мгц и псие5 то? ну ддр5 не у всех есть, ожидать пока оно перданет из рамка в карту, потом заменит т5 на модель это далеко не полсекунды
module 'comfy.sd' has no attribute 'load_diffusion_model_state_dict'
File "\ComfyUI_windows_portable\ComfyUI\execution.py", line 152, in recursive_execute output_data, output_ui = get_output_data(obj, input_data_all) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "\ComfyUI_windows_portable\ComfyUI\execution.py", line 82, in get_output_data return_values = map_node_over_list(obj, input_data_all, obj.FUNCTION, allow_interrupt=True) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "\ComfyUI_windows_portable\ComfyUI\execution.py", line 75, in map_node_over_list results.append(getattr(obj, func)(slice_dict(input_data_all, i))) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-GGUF\nodes.py", line 54, in load_unet model = comfy.sd.load_diffusion_model_state_dict( ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
>>855255 Так суть-то в чём? Это одна сеть которая автоматически различает тип инпута? Говно в том, что некоторые типы инпутов контролнета очень слабо отличаются между собой
>>855414 >Это одна сеть которая автоматически различает тип инпута? да >Говно в том, что некоторые типы инпутов контролнета очень слабо отличаются между собой так они и группируются уровня лайнарт со скриблами, такто у них суть одинакова, просчет разный
Сап нейронный, я валенок, с около нулевым опытом генерации, прошу о помощи, имея вот такую текстуру, что нужно сделать для генерации на ее основе подобных, пока, что пробовал вставить в img2img эту пикчу и написать, scratches, texture, black background, particles... И подобные, сгенерировались хоть и абстракции, но очень слабо похожие на исходник.
>>855507 На ее основе только лору и то из одной пикчи нихуя не выйдет. Скачай лучше общую лору на генерацию текстур и запромпти чтобы она тебе скретчи выдала
Пока не завезут отрицательные промпты - фпизду. Но в целом будет интересно сравнить с тем, что выдает pony realism и есть ли значимый прогресс. SD3 в расчет не беру - это ебаный стыд
>>855686 Похуй, с новым гуем у меня вообще нихуя не работает, и я не собираюсь искать какая нода ломает это говно. И в гите куча жалоб на этот новый кал. От коммита с ленивым вычислением нод тоже наверняка треть нод отъебнёт.
>>855720 > с новым гуем Мне как раз заебца. Пересел на него еще хуй знает когда. А с коммитом я обосрался, вот этот https://github.com/comfyanonymous/ComfyUI/commit/5cfe38f41c7091b0fd954877d9d7427a8b438b1a на самом деле - лютейший вин, который должен починить дохуя всего, включая нормально работающие свичи, который могут сделать выбор не только до начала эксэкьюшн, но и во время, что может сильно сократить число необходимых нод в воркфлоу.
>>855693 Дашь гайд для ньюфага для того как из одной пикчи можно полноценную лору сделать? Ясен хуй нет, ведь это делается при помощи полутора относительно новых технологий у которых максимум есть полупустое описание на гитхабе. И что проще ньюфагу сказать, что лору можно сделать но ты порвешь себе жопу, ведь 99% гайдов про лоры, что есть в интернете, используют полноценный датасет или просто сказать чтоб он не лез?
>>855254 > Чиво блять? Грок это аи от Маска, а флюкс он купил чтобы пользователи твиттера могли картиночки генерить. А, grok - это ии, а groq - это сервер для инференса. Как он придумал ловко, что голову сломаешь
>>855748 >Дашь гайд для ньюфага для того как из одной пикчи можно полноценную лору сделать? Ты дебил? Вон айпиодоптер берешь как выше, что по сути обучение на лету и генеришь себе сколько влезет, какая нахуй лора под конкретный калцепт 2024 год на дворе. >ведь это делается при помощи полутора относительно новых технологий у которых максимум есть полупустое описание на гитхабе Вместо того чтобы завалить ебальник ты начинаешь оправдываться не в тему. >И что проще ньюфагу сказать Проще тебе было изначально не писать тупую хуйню.
>>855747 Опа, фурри с дфц, такое одобряю. Я б еще добавил для сравнения Echo Alpha Tango, тоже неплохая моделька как по мне, хотя и давненько не обновлялась
>>855763 Сразу же пошел в оскорбления == проиграл спор. Какой айпиадаптер когда речь про лоры? Ты сам ответил что можно делать лоры и их можно делать из одной пикчи, но не стандартным способом. >начинаешь оправдываться Потому что это не оправдание, а реально то что я хотел донести. Вывод: обтекай.
>>855778 > Сразу же пошел в оскорбления == проиграл спор. Учтем ваш кукарек (нет).
>Какой айпиадаптер когда речь про лоры? Челу надо было генерить по исходнику, пришел ты хрюкнул что НИВАЗМОЖНА, а потом тебя дважды уринировали.
>Ты сам ответил что можно делать лоры и их можно делать из одной пикчи, но не стандартным способом. Я вообще про лоры не говорил.
> >начинаешь оправдываться > Потому что это не оправдание, а реально то что я хотел донести. Да, донес о НЕВОЗМОЖНОСТИ ГЕНЕРАЦИИ ПО ОДНОЙ КАРТИНКЕ ИСХОДНИКА ты знатно.
>>855800 >ведь это делается при помощи полутора относительно новых технологий >эксперементальный кал Чел блять, это буквально стандартная тренировка лоры. В статье (которую ты судя по всему не читал) есть все демонстрации.
>>855896 Нагота обучается за пару тысяч шагов на 4090 с датасетом в сотню картинок. Вообще не проблема для флакса, он умный и с ним работает то, что с другими моделями не работало до этого.
>>855901 Если бы ты использовал и вообще знал бы про это, ты бы не нёс про новейшие особо секретные эскпериментальные разработки. В технотреде это пиздец сколько раз разжёвывали.
Я вообще блять думаю что тред потупел из-за 2-3 сырков, которые просто несут уверенную хуйню с умным лицом, при этом не подозревая как они выглядят для местных челов, которые всё это разбирали ещё на заре диско диффужена и SD и писали все эти гайды челы тоже хороши, впрочем, кормят уебанов и всерьёз срутся с ними вместо того чтобы ссаными тряпками гонять читать основы, как только рот откроют с умным лицом, как тот полоумный худПТУшник который решил тут полтреда шеренгой построить.
>>851397 (OP) ах красотища-то какая, ляпота. сбылась мечта идиОПа. все шизи покинули тред. осталась одна годнота и никаких плохих картинок и пустого пиздежа
>>855916 Ты сам себе надумал про особые сверхсекретные разработки чел, ну что ты начинаешь? Просто это было обучение не дефолтной LoRa, а какой-то модификации, не заставляй меня искать назыание этой хуйни в истории браузера или файлах на ПК. Тред стал говном из-за срачей о том какая модель лучше и консерваторов которые не могут принять что-то новое, но в данные момент конкретно двое зануд придирающихся к словам и продолжая розжиг срача заполняют его нерелевантным говном. Но ничего я на все твои тейку отвечу, доебывайся дальше.
>>855935 >лора из одной пикчи не выйдет >о, ну гайдов для ньфагов нет >так это только экспериментальные какие-то хуитки >о, ну так я это всегда делал >-- ВЫ НАХОДИТЕСЬ ЗДЕСЬ -- >ну у меня было что-то экспериментальное, я где-то потерял Чел, если ты не разбираешься, то вместо того чтобы советовать кому-то что-то рандомное, сбивая его с толку, лучше промолчи. Иначе ты выглядишь как GPT, уверенно галлюцинирующая что-то похожее на правду, а потом пострационализирующая когда припрут. В треде знающие люди есть и всегда готовы подсказать, если ты чего-то не понимаешь или в чём-то не уверен. И погонят ссаными тряпками, если будешь юлить и изворачиваться, это бесполезные действия. Всё блять, не отвечай мне. Просто если не уверен, так и скажи, нет смысла пиздеть, тебя видят насквозь.
>>856042 Ну и вот как тебе не отвечать если снова меня "пиздуном" назвал? Ладно хоть как тот анон не оскорбляешь. Мне самому себе смысла врать нет, более того вину я свою признал отвечая тебе, я реально не знал что есть более простой способ и реально знал что есть другой способ, но не стал о нем говорить т.к. новичок в нем не разберется. Если тому зануде я отвечал просто чтоб позлить за быдловатое поведение, то тебе лишь пару раз ответил по существу, начав с того что ты прав в том, что "есть такие статьи". Хватит докапываться, у нас итак уже нет предмета спора.
Странно конечно что текущие генерационные модели отлично могут в фотореалистичные изображения, но отвратно могут в примитивный нарисованный контент вроде аниме (именно в кадры из аниме а не красивые отрендеренные арты в аниме стилистике) и прочей 2д анимации, хотя казалось бы это гораздо проще. Это банально из-за того что такого контента мало в датасете? Тот же дали 3 порой отлично может в 2д иллюстрации, даже текстуру кистей передает правильно. Особенно это видно когда большое количество деталей. Понятно что если деталей очень много, то даже при генерации фото получается трешак, но он гораздо меньше чем с 2д рисуночками
>>856214 >темпоральная стабильность Это вообще реально? Очень сомневаюсь. Не представляю какие мощности для такого нужны. Прикинь, модель должна каждый кадр генерить держа в уме предыдущие и выстраивать логику следующих на основе сценария и каждый новый кадр будет создавать эти ветви в геометрической прогрессии. Дешевле будет как сейчас. Фильмы вон уже на смартфон снимают за 300 баксов и нормально.
>>856220 Опять уверенно галлюцинируешь? Для DiT нет принципиальной разницы с чем работать - картинки, видео, звук, текст, траектории механической руки. Просто эмбеддинги и выходные форматы разные.
>>855419 На 3 пикче тут low quality grainy photo of communist buildings, night, low light, forest on the horizon with little moon.
У меня вопрос ко всем флюксерам - вам не кажется, что шнель как будто бы выдает более интересный результат? Кто нибудь тестил на норм промптах в сравнении? У меня дев постоянно пытается нарисовать какую то ванильно-мерзотную сцену с очень сильным боке, тупо пытается все в эту стилистику загнать. Походу в соцсетях этот стиль заходит нормисам и разрабы вставили в датасет только такие пикчи, ничего стилистически интересного не оставили
>>856264 Шнель в принципе может в некоторые вещи которые не может дев почему-то. Дев как будто заточен выдавать только хай кволити контент снятый на профессиональное оборудование, а шнель может в фильтры, различные эффекты, шумы камеры, артефакты и т.д.
>>856269 То-то я смотрю у меня какой-то миджорни получается. Цвета приятные, но всё как нарисовано, нехватает реализма. Можно добавить как-то на dev или нужно перекатываться на шнель? Шнель пока не тестил
>>856284 Хотя они же обе дистилят из одного и того же, если подумать. И не уверен я что шмель может в фильтры. "MPEG-2 video", слева шмель, справа дев. Дев явно ближе.
>>856269 Да там такое есть, шнель может быть некрасивым по запросу, если тебе надо. Дев очень сильно тяготеет к глянцу. A state vagon car standing at the edge of glimmering swamp Первые две пикчи шнель с 4 шагами, третья и четвертая это дев с 20 шагами. Да, в деталях и в общем смысле дев как будто выдает более реалистичную воду и траву, но как же в нем читается что оно сделано нейронкой изза этой примелькавшейся композиции, боке и прочей херни.
>>856283 >>856293 Говорят, что у дев есть негатив. Ебаните туда по вкусу из этого: bokeh, blur, blurry, blurred, out of focus. Это против боке. Похожим образом, приевшуюся художественность можно попробовать давить дозированным весом, например, artistic, в негативе. Ну и раз нам предположительно задрали high quality, можно и с ним в негативе поиграться.
Что в комфи, что в фордже какая-то хуйня с этим flux. Генерирует нормально, примерно минуту. Но после написания нового промпта все начинает пердеть, виснуть, вешать намертво пеку. И такая хуйня длится минуты 3-4, а потом снова все быстро генерирует. Как это этой говны избавиться? Раньше такая хуйня с XL была, но потом она пропала
>>856195 >>856208 >coepbiant betfese in on uct ious?. >Sellf by farwenellt sbace tnsuedeou's ghoppees bes cheusother. Sade tntne consgusoduld. >Wll dene wel't less comine of ffer i tsé alworind in lfoct bel goage. >Yhu dgot be yo. - souitter?
А судя по субтитрам - ещё и язык создадим. Возможно, стоит в соседнем треде по LLM-кам поинтересоваться, подойдут ли они для генерации подобного романо-германского суржика.
Подскажите плиз. Как мне на картинке заменить лицо, так чтобы оно было более реалестичным, как на тех нейронках со Скабеевой и Симонян? Делаю через реактор и ставлю в денозинге "0", выглядит всрато, плюс макияж на лице меняется, губы там, текстура и прочее.
>>856395 Гугл и Яндекс переводчики уже знают этот язык. >Коепбиант делает ставку на успех? >Продано фарвенеллом, чтобы убедить тебя в том, что это не так. Сад, я согласен. >Это определит не меньшее значение, чем то, что я всегда делаю в центре внимания. >Ты будешь таким же, как ты. - Таким же?
>>856369 При изменении промта заново подгружается и/или считывается с диска текстовая модель, поэтому дольше. Чтобы стало быстрей надо дохуя ОЗУ, а чтобы вообще быстро жесть дохуя ВРАМ
>>856304 >>856297 Господи, да когда вы дебилы поймёте, что промпт в 2 слова с Т5 хуёво работает? Пиздец, продолжают как дегенераты хуярить промпт как с SDXL
>>856511 Спроси у тех кто его делал нахуя тренировать на простынях сгенерированного текста. Но если ты по пунктам и предложениям распишешь он почти всё сделает. Вот, чмо не могло еврея сделать бегущего в лосинах с принтом космическим. По итогу все дело было в том, что он также в одно предложение писал. Когда я расписал нормально в 100% случаев попадание стало.
>>856438 >что промпт в 2 слова с Т5 хуёво работает? ну че ты песдишь то епт?
хуево работает с флюхом только, потому что там узкий вектор инферирования генерится по дефолту на настроечках воркфлоу базовых, защита от дебилов которым надо картинку красиво вместо процесса думания смотрите видос карочи https://www.youtube.com/watch?v=tned5bYOC08
в сд3 можно микропромтить и оно там тебе высрет как надо да в любой сетке с т5 можно
>>856511 да он пиздит в захисте флюха, надо настроечки поменять у этого кала просто
>>856541 Поставь гудбайдпи, антизапрет в виде расширения или накати фришных носков через некорей на пк /некобокс на ведре, вот тебе носок болгарский ss://YWVzLTI1Ni1jZmI6UzdLd1V1N3lCeTU4UzNHYQ@213.183.63.69:9042#%F0%9F%87%A7%F0%9F%87%AC42%40shadowsockskeys
>>856395 Частично, и то не все, а только те что пишут хорошо. Проблемы в основном с артефактами токенизации, т.к. слова не из букв состоят. мимо из соседнего треда
Ну, что сколько уже времени прошло и кто-то наверняка догадался что там используется под названием flexy(не путать с flux)? Давайте сюда свои дедуктивные выводы. Что там? Сд1.5? Что как-то слишком шикарно для 1.5