>>849505 Спасибо конечно, но с каких пор знание всех буровских тэгов стало обязательным мерилом олдфажества? Ну да ладно, я другое искал и это был bandaids on %подставить нужное%.
>>849562 Может я ещё должен у себя держать ту самую модель капусты и хранить её как зеницу ока? Или быть ветераном войны с истеричкой, когда он всех по загонам распихивал и срал 24/7 в /d/, чуть не угробив весь NAI тред, распугав всех своими визгами кстати, где этот клоун? Че там ещё было? Нюдсы пчелы?
Ну кажется, что флакс анимешным стилям обучается более-менее спокойно. Пока тестил только на небольшом датасете с обучением в 512х512 (на данный момент такое разрешение рекомендуют). Явно недообучил, но это выправляется очевидным способом.
>>849765 >512х512 Лул, это же как в 1.5 не проще тогда просто зафайнтюнить 1.5 со всякими плюшками для понимания промта, которые выпустили за последнее время?
>>849771 На 4090. Взял SimpleTuner, 512x512, bs4, adamw_bf16, rank 16. Сейчас буду с prodigy пробовать.
>>849800 Так он успешно переносит на другие разрешения выученный стиль. Тренировал так, потому что по слухам так проще сходится. Сегодня вечером буду пробовать с 1024х1024 на арендованной А100.
>>849802 >4090. Взял SimpleTuner, 512x512, bs4, adamw_bf16, rank 16. Сейчас буду с prodigy пробовать. Пока звучит достаточно демократично. БС уменьшить, а разрешение поднять бы
>>849800 > не проще тогда просто зафайнтюнить 1.5 со всякими плюшками для понимания промта, которые выпустили за последнее время? Да чето не особо. 1.5 довольно деревянная и при примерно том же объеме вычислений что затрачено на XL (т.е. кратно большем числе эпох и т.д.) она усвоила меньше. Хз, может нужно особый подход к тренировке юзать. >>849802 > 512x512 Деградации качества от подобного не заметил? >>849842 В симплтюнере фулл-скейл файнтюн если завезли, можешь просто пустить и глянуть пускается ли и влезает оно в 80гб?
>>849846 > Деградации качества от подобного не заметил?
Если инференсить без настоящего кфг - то нет деградации. А вот с настоящим кфг иногда мутные картинки выходят (но не всегда, что интересно).
> В симплтюнере фулл-скейл файнтюн если завезли, можешь просто пустить и глянуть пускается ли и влезает оно в 80гб?
Я до этого слышал, что без трюков на одну 80гб не залезет. Надо найти, есть ли у кого-то гайд под это, потому что в документации только про лоры сказано.
>>849851 Там уже в репе все есть, автор молодец > 3x A100-80G (Full tuning, DeepSpeed ZeRO 1) Ясно понятно, пальцем в небо его зафайнтюнить не менее 8к выйдет, скорее всего больше. > 1x A100-80G (Full tuning, DeepSpeed ZeRO 3) Содомиты
Он конечно большой, но врядли в жирную лору поместится анатомия и релейтед, печально. Ну, надо будет все равно попробовать пошатать.
>>849871 На реддите был анон, который тренировал кастомное вае для SDXL тоже на 16 каналов. Правда я не знаю чем все закончилось. Так что теоретически это не преимущество флюкса
>>849920 Ну его не проблема поставить и оно в wsl легко ставятся вместе со всеми зависимостями. Деталь разве что в том, что т.к. модель квантуется в рам, то нужно 64гб.
>>849765 Сколько тренил то? >>849851 > Если инференсить без настоящего кфг - то нет деградации. А вот с настоящим кфг иногда мутные картинки выходят (но не всегда, что интересно). В дев флюксе же нету настоящего кфг, ты через dynamicthresholding? >>849874 Охуенно конечно, но кто модели то перетренивать будет? >>849910 Это небось такое адище будет, учитывая как всл работает с фс
>>849950 > но кто модели то перетренивать будет Там вроде и задумка чтобы под вновь тренируемое. Офк базовую модель врядли заменит но точно может внести улучшения. Только размер получающийся латентов может стать проблемой, это будет около 1мегабайта на пикчу, большие датасеты будут террабайтами. > такое адище будет, учитывая как всл работает с фс Вэнв и репу во внутренней памяти и все быстро. А с датасетом чтобы были затруднения это он уже десятками тысяч и более должен исчисляться, чего для флакса на десктопе не будет, сохраняет модели во внешнюю память тоже быстро.
>>849950 > В дев флюксе же нету настоящего кфг, ты через dynamicthresholding
Ну на слабом настоящем cfg (~2.0) флакс может работать и без dynamicthresholding. А так есть он и, например, AdaptiveGuider.
>>849765 > Сколько тренил то? Час и сорок минут на 4090 с 350вт тдп лимитом, чекпоинт каждые 100 шагов, валидация каждые 250.
> Это небось такое адище будет, учитывая как всл работает с фс Я как раз под wsl это делал, прошло нормально, но всё для обучения было в линуксовой фс, не в виндовой.
>>849967 > Там вроде и задумка чтобы под вновь тренируемое. Офк базовую модель врядли заменит но точно может внести улучшения. Когда xl только появился я по ошибке натренил его с 1.5 вае и оно работало с ним, будто всё время и тренилось, буквально просто одна лора давала возможность вае от полторашки работать без артефактов, хз баг или фича, может уже такой финт и не прокатит >>849973 > Ну на слабом настоящем cfg (~2.0) флакс может работать и без dynamicthresholding. А так есть он и, например, AdaptiveGuider. Сколько не крутил в сэмплере, ноль разницы, отдельная нода гайданса вот да, работала точно, послойно я конечно не сравнивал, но на глаз не видно, а вот с динамиком заработали негативы хотя бы. Ты про это кстати? https://old.reddit.com/r/StableDiffusion/comments/1enxcek/improve_the_inference_speed_by_25_at_cfg_1_for/ интересно решили скорость увеличить > Час и сорок минут на 4090 с 350вт тдп лимитом, чекпоинт каждые 100 шагов, валидация каждые 250. А не мало? Пожарю ка я её тоже часов 6 бурудебильными тегами с пёздами и жопами, вдруг просветлеет, но надежд мало без какого нибудь аниметюна на буре > Я как раз под wsl это делал, прошло нормально, но всё для обучения было в линуксовой фс, не в виндовой. Ну тогда норм, да. Много пердолился пока завёл всё нормально?
> А не мало? Мало, поэтому сейчас на вдвое большом числе шагов проверяю.
> бурудебильными тегами Я бы все же описывал бы обычным текстом, кажется что теги на эту модель плохо повлияют.
> Много пердолился пока завёл всё нормально? Нет, под wsl все встало мгновенно без особых проблем, но у меня там cuda свежая стояла уже давно. Но её тоже без проблем ставил.
>>850012 > Про вот это. https://github.com/IdiotSandwichTheThird/ComfyUI-Adaptive-Guidance-with-disabled-init-steps Первые степы пропускают, а то что я нарыл наоборот последние, лол, и что лучше? Для композиции с сд первые степы были самые важные, дальше похер какими деталями напердит обычно, всё равно уже не перерисует сильно, а тут хз как. > Я бы все же описывал бы обычным текстом, кажется что теги на эту модель плохо повлияют. Такую модель всё равно тоже хочется иметь, желательно не с полным уничтожением предыдущих знаний, как сделали с пони и наи, расписывать простыню или подключать ещё лишнюю ллм такое себе удовольствие. > Нет, под wsl все встало мгновенно без особых проблем, но у меня там cuda свежая стояла уже давно. Но её тоже без проблем ставил. У меня вот как раз старая куда была в линуксе, пришлось немного пердолиться с консолькой и битсэндбайтс.
Вопрос к ComfyUI юзерам, подскажите пожалуйста как можно реализовать функционал, в аутоматике я генерирую например банчами потом листаю из них те которые понравились и нажимаю на кнопку (пик 1) и оно мне хайрезит , очень удобно, как можно сделать подобное в ComfyUI ?
>>850115 Есть вроде плагины, чтоб нажимать кнопку и пропускать одну из картинок сгенерированных в батче дальше по ходу генирации. Название незнаю, иди перебирай всё подряд, потому что это может быть просто большой сборник нодов в котором такое видел и просто в поиске по описанию хрен найдёшь.
>>849996 > по ошибке натренил его с 1.5 вае и оно работало с ним, будто всё время и тренилось, буквально просто одна лора давала возможность вае от полторашки работать без артефактов Ну ею ты по сути только подкорректировал выходные матрицы чтобы они работали с конкретным вае, они с 1.5 вообще похожи, работоспособны в стоке и даже различимую картинку выдает. Другое дело что лорой скорее всего оно будет далеким от совершенства и при ближайшем рассмотрении там будут траблы с детализацией, мелкие косяки, артефакты и прочее. Так-то в теории тот кто делает 16 канальное вае должен небольшой трейн сделать чтобы оно вообще работало. При дальнейшей тренировке перфоманс в теории должен повыситься. > вдруг просветлеет Поделись как там выходит. С сд3 такой фокус не проходит, работает вариант подкинуть энкодеры от анимушной модели и вжаривать, сисик и вареник появляются но пикчи выглядят уродскими, намек просветление возникает только после продолжительной тренировки, но конечные перспективы туманны.
>>850140 > С сд3 такой фокус не проходит Да забудь про этот высер просто, оно вообще нежизнеспособным вышло >>849765 У тебя кстати есть что нибудь в файле all_caption_files.json? А то есть подозрение что я вообще сейчас без кэпшенов вжариваю
>>850193 > оно вообще нежизнеспособным вышло Оно тренабельно на обозримом железе в обозримые сроки, и база сама по себе не так уж и плоха. Забить можно будет только если сделают годное добавление t5 к sdxl. Исключение может быть только если флакс будет очень легко и эффективно трениться, тогда уже с ним. Иначе ждать@ждать@ждать или что хуже скидывать деньги варебухам, чтобы получить уступающее 1.5 one more epoch please, или копрофикацию анимца под платным доступом через дискорд от шизика-конееба.
>>850227 > Ну в итоге с prodigy и 2к шагов стало приятнее. Ну он обычно получше, там был пр для разделения лров кстати, но хз насчёт актуальности для чего то кроме 1.5 > Так выглядит multidatabackend.json Ну да, походу обосрался и тегами берутся имена пикч, пиздатый дефолтный конфиг, что тут ещё сказать, после кохьи неудобно этим пользоваться, но вообще я про output/all_caption_files.json спрашивал. Можешь тогда уж и основной конфиг скинуть посмотреть? Который config.env >>850238 > ждать@ждать@ждать Что трень, что не трень, всё равно придётся это делать без внушительных мощностей и с большим датасетом, а оживлять абслютно мертвые веса, ну такое, ну пробуй если компьют тайма не жалко
Это стиль кантоку по его артам 2016-2017 годов. У меня просто именно для него готов датасет пригодный под 512х512 обучение. Для всего остального, что я обычно пробую нужно чтобы обучение с разными aspect ratio нормально работало, но для SimpleTuner мне пока лень это настраивать.
Мини-отчет по результатам тренировок. 1024x1024 работает неплохо на А100, но кажется, что реально медленнее сходится и для аниме можно тех же результатов быстрее на 512х512.
Попробовал ещё быстро запечь ещё одну лору на 512х512 в этот раз на целиком синтетическом датасете по моим старым генерациям. Пример собственно приложен к посту. Успешно сошлось за два часа. Из интересного: действительно, если не включать в обучение примеры написания текста, то модель постепенно теряет эту возможность. Так что рекомендую в каждый датасет добавлять картинки с текстом.
>>850880 > сошлось Как замеряешь? И как оно вообще меняется по мере тренировки? Было бы очень круто если бы сделал подробный отчет. Где арендуешь кстати? >>850886 Срунич спокнись, надергал умных терминов но уместность их использования так и не уловил.
Давно не был в треде, какой сейчас положняк? Флюкс новая БАЗА? Покатал немного дев-версию, вроде бы в целом аниме стилистику может. Но завелась только версия с отдельными весами. Мерджи с цивитаи какого-то хуя заводиться не хотят, выдают Out.Of.Memory, несмотря на 24 гига видеопамяти. Хотя в описании обещалют работу на 12 Гб картах, какого хуя?
>>850984 Я не испугаюсь вашу сою в бору. Ел я эту соевую колбасу. Некоторые сорта очень даже ничего. Почти такие же плохие, как современная колбаса "по-докторски". Должно быть, та готовится из смеси остатков от ампутаций и абортивного материала.
>>850140 > Поделись как там выходит. Ну оно даже как то работает, писик конечно так не обучишь, про него вообще ноль инфы походу было, но сисик попроще, анатомия тоже по пизде часто когда лешды промптишь, при переходе к нлп стиль исчезает почти, если так тренить, то и промптить впоследствии надо буру тегами
Он не супер чистый, т.к. я туда сюда между prodigy и другими оптимизаторами переключался в ходе экспериментов, но работать должен. Это то, что я запускал на 2к шагов с продижи локально на 4090 под WSL.
>>850887 > Как замеряешь? Лосс стабилизировался, град норм пошел уменьшаться. Там наверное можно было ещё дальше идти, но по тестам оно уже очень хорошо стиль скопировало.
> И как оно вообще меняется по мере тренировки? Ну я редко validation image делаю, так что заметны только большие скачки в стиле.
> Где арендуешь кстати? runpod или vast, смотря где дешевле будет в зависимости от того, что арендую. В обоих беру только secure cloud, потому что у независимых часто соединение отвратное.
>>851409 Без лор, чисто из коробки тоже норм выдает, 12B параметров всё же. Я помню ванильный сд 1.5 совсем мусор генерил. Интересно, как бы какая-нибудь 405B моделька рисовала.
>>851641 Он может нарисовать что-то относительно сложное, если общо задать сцену. Например: >anime screencap of a woman athelete serving in a badminton game Но, очевидно, для лучшего контроля понадобятся всякие контролнеты.
>>849491 Там добавлено такого типа "dark themed background, very dark and scary horror vibes, scary horror metal music vibe" >>849640 Модель netaArtXL_v20, лоры th3rm4lXLP и schizophrenia-XL
>>849680 Лора на cessa не включена, только "by cessa" в промте.
>>851647 Вряд ли, там небось уровня 12B, если не меньше, учитывая, что им надо обслуживать миллионы пользователей. Это у текстовых щас триллионы параметров идут, но там другая технология.
>>851611 > чисто из коробки тоже норм выдает Ну как, у тебя уровня SD3 пикчи. Норм только что может в простой аниме стиль из коробки, но не более, там других фич хватает. >>851647 Далли врядли больше флакса, по крайней мере значительно, и на релизе был хуже него. Сейчас подтянули но хз даже кто кого. >>851676 3 хорошо получилась, попердолило но поза кайф.
>>851857 В квикстарте SimpleTuner: ⚠️ 512-pixel training is recommended for Flux; it is more reliable than high-resolution training, which tends to diverge.
Ну и мой эксперимент. Я же кантоку лору делал ещё и на 1024, ну она раза в два-три дольше готовилась, а результат такой же, если не хуже. Для реалистичных изображений может по другому будет, но для аниме пока кажется, что 1024 оверкилл.
Я ньюфаг. Решил попробовать пони и столкнулся с проблемой. Почему модель не видит "asuka langley from evangelion"? Помню, когда я только начал генерить на одной из первых картинок распознавала а потом просто взяла и перестала.
https://github.com/kohya-ss/sd-scripts/tree/sd3?tab=readme-ov-file#flux1-lora-training-wip В кохя-скриптах добавили экспериментальную поддержку флюкса, ветка sd3. У меня на 24 GB VRAM максимум влезает 768x768 с bs=1 на дефолтных параметрах из readme. Тренилось три часа и всё равно не дожарилось - вес лоры приходится вверх выкручивать, чтобы эффект был заметен.
>>852121 Что-то не очень. С узорами на рукавах даже полтораха справлялась, а тут на несколько десятков траев ни разу нормально не воспроизвелось. Вероятно, надо дим выше дефолтного крутить.
Да и как кепшны делать не имея какого-то базового аниме-чекпоинта на буру-тегах тоже не очень понятно.
>>852121 > экспериментальную поддержку флюкса Отличные новости! Скоро значит уже и нормальные аниме-стили натренят. Просто массой возьмут и у кого-то получится нормальная комбинация настроек, чтобы потом дальше от них идти.
Кто обладает инфой, каким токеном можно добиться такого чтобы грудь тянки не соприкасалась с футболкой (т. е. было простроанство) когда она наклонена вперед используя "bent over" Какой нибудь "cleavage" не особо подходит т.к. даёт просто вырез на футболке ну и подчеркивает ложбину между грудями
*прикрепил пик чтобы примерно понимать о чем речь, лучше не нашел
>>851594 Типичный завсегдатай /ai выглядит (или выглядел в молодости) скорее так. >>851746 Лол, SD 1.6 (не путать с 1.5) в списке, я думал, эту стюардессу закопали давно. >>851979 Правильно затегать не пробовал? souryuu asuka langley
Как вы юзаете лоры на флюксе? Я юзаю прикл, а комфи срёт в консоли: lora key not loaded: transformer.transformer_blocks.9.attn.to_out.0.lora_A.weight lora key not loaded: transformer.transformer_blocks.9.attn.to_out.0.lora_B.weight lora key not loaded: transformer.transformer_blocks.9.attn.to_q.lora_A.weight lora key not loaded: transformer.transformer_blocks.9.attn.to_q.lora_B.weight lora key not loaded: transformer.transformer_blocks.9.attn.to_v.lora_A.weight lora key not loaded: transformer.transformer_blocks.9.attn.to_v.lora_B.weight
>>852323 Использую дефолтную ноду "Load LoRA". Технически подключать CLIP к ней не должно иметь какого-либо смысла, но без этого валится с ошибкой: "LoraLoader.load_lora() missing 1 required positional argument: 'clip'".
>>852347 Боюсь, что это может быть особенностью лоры, т.к. там бОльшая часть пикч в датасете без беков на белом фоне. Как-либо специально промптом в комфи я это не задавал.
>>852316 На гелборе вики по тэгам есть, есливчо. Пошарься там, походи по ссылкам, найдешь. Их вроде даже два было, в зависимости от глубины, на которую заглянуть можно.
>>852380 В общем-то, я поэтому и ушёл с комфи на фордж по итогу - возни много, а толку мало.
Чтобы сделать что-то серьёзное, надо ставить кучу плагинов, которые периодически конфликтуют друг-с-другом и падают при апдейтах. Тот же аналог ADetailer я так и не смог реализовать - просто ноды, связанные с object detection, кидали CUDA ошибки, которые, судя по гуглу, означали, что моя видеокарта (4090) не поддерживает какие-то там инструкции и я не смог это пофиксить.
А для чего-то простого комфи использовать смысла нет - ведь есть тот же автоматик/фордж. Комфи использую только чтобы какие-то недоступные на других UI фичи типа ELLA или SD3/Flux посмотреть.
>>852449 > При том что там есть готовые ноды детайлера, в том числе однокнопочный SAM. Однокнопочные ноды адитейлера тоже пробовал, там аналогичная ошибка была.
>>852466 > UltralyticsDetectorProvider Там ONNX надо ставить. Но есть и ноды с Yolo на торче. Или всегда можно взять ноду и просто получить bounding box из маски SAM, если совсем не можешь Yolo завести. Или есть куча других моделей для детекта объектов, даже VLM типа Florence могут выдавать боксы объектов.
>>852449 Дело не в сложности, а в душности. В автоматике люди ебутся с тем чтобы сделать красиво, в Комфи ебутся с ножами и их подключением. Комфи двольно хуёвое предложение для тех, кому нужны картинки зато хорошее для сторонников "ебли программы ради ебли программы"
>>852466 >>852475 Мимо тоже пробовал какую то простую sam ноду и этот детейлер в комфи вообще не детейлер как будто, по сравнению с автоматиком вообще не накидывает деталей на лица, но точнее маску делает
>>852466 > UltralyticsDetectorProvider > SAM Не для осуждения, но у них простой код с примерами, если тебе конвейер для какой-то обработки то проще и удобнее написать скрипт чем пердолиться с лапшой. >>852475 > VLM типа Florence Пробовал? Насколько оно в целом хорошо и может детектить различные объекты на 2д картинках? Йола суперлегковесная, быстрая и можно обучить на что угодно. Здесь бонусом сразу и бокс, и маска, и капшны, но вопрос в точности и гибкости.
>>852398 Отчасти согласен, каждый инструмент хорош по своему. Даже стили фокуса в итоге оказались полезны для флюкса, на этапе тестирования базовой модели практически заменяют лоры. А что, модель умная, умеет и сама под разные стили подстраиваться, если промпт подходящий. Но комфи гораздо лучше подходит для экспериментов. Например тот же Флюкс на моей Р40 не очень-то шустро работает. Но если уменьшить число шагов и прилепить апскейл на XL модели - выходит намного быстрее. Хотя с деталями флюкс конечно лучше работает
>>852478 > В автоматике люди ебутся с тем чтобы сделать красиво, в Комфи ебутся с ножами и их подключением Лучше не сказать, спасибо. Автоматик - инструмент, который быстро становится продолжением рук. Комфи - постоянно развивает чувство выученной беспомощности.
Анон, подскажи, пару месяцев уже не генерил. До этого генернил на 3060 ноутбучной в форже ХЛ модели, сейчас есть 4070 супер. Что установить, фордж или что то другое ? Что то изменилось за последние месяцев 3-5 сильно ? На каких моделях сейчас генерит большинство ?
>На каких моделях сейчас генерит большинство ? Все активно щупают Флюкс, но он вроде пока что только в комфи работает. Да и видеопамяти много надо, но попробовать можешь тут: https://replicate.com/black-forest-labs/flux-dev
BREAK Разочаровался во Флюксе. Я думал это новая база, позволяющая генерить любые сюжеты из моей башки без всяких ЛОР, а на деле тянка в вертолёте выглядит так...
>>852711 Какие теги? С анимцом все просто и понятно, допустим, но и меховых вся система теггинга иная. Как относительную милоту или приемлемое и дохуя анатомичное отличить от крипотного уродства и мерзости? >>852874 Также как автоматика, на папки с моделями можешь софтлинки бахнуть или задать в настройках путь до моделей.
Из интересного про лоры флакса. Вернуть базовые нсфв концепты можно очень легко - достаточно 10-20 картинок с хорошими подписями. Потом где-то 2000 шагов с бс4 и готово. Второе - надо быть очень осторожными с синтетическими датасетами и/или художниками которые косячат. Модель легко учит артефакты и косяки с руками.
>>852749 Комфи - хорош, если нужно/хочется писать кастомные ноды и приложения вокруг генерации. Тот же krita-ai-diffusion (он с комфи апи работает) плагин для криты божественен и удобнее любых других интерфейсов, если чуть-чуть в его код залезть и пару нод в комфи под него добавить.
От форджа и а1111 вайбы корпоративных приложений из 00х, с тысячью менюшек, табов, под-меню и т.п.
>>852792 Пробнул сэмулировать твою сцену, реально непросто. Ну 12B это мало для логики. Большинство параметров на само рисование уходит. Вон у текстовых сеток в сотни раз больше параметров, которые уходят на понимание мира только.
> А ты же какой то скрипт юзал чтобы батчем их на картинки сгенерить? Добавь это в конец их app.py https://rentry.org/hw3hchg5 и убери из app.py spaces декоратор и импорт всяких huggingface_hub штук
> Ну и модель небось не лама же обычная? Обычная ллама 3.1 как они указали.
Ну и деталь: эта VLM очень неплохая, но её надо рассматривать как первое приближение, потому что она часто путается в деталях, в духе кол-во людей на заднем плане, размер груди и т.п. и добавляет ничего не значащие фразы. С этим всем можно через промпт бороться, но проще потом глазами просмотреть.
>>853218 > Добавь это в конец их app.py https://rentry.org/hw3hchg5 и убери из app.py spaces декоратор и импорт всяких huggingface_hub штук Спасибо, вроде норм, оно кстати замедляется в разы, если не ограничить видимость одной картой, хз у тебя несколько или нет, но оно в стоке модель просто по картам разбрасывает, судя по жору памяти на них. > С этим всем можно через промпт бороться, но проще потом глазами просмотреть. 250 файлов как то не проще совсем, так и оставляешь просто три абзаца после всего этого дела в кэпшенах?
>>852994 > Глазами Жизни не хватит. Как-то сортировал около 2к по специфичным концептам, та еще боль. > У понимоделей Это тоже интересно, он их автотегером гонял или разрабатывал/использовал конвертер их тегов. >>853022 > Вернуть базовые нсфв концепты можно очень легко Покажи!
>>853307 >Жизни не хватит. Как-то сортировал около 2к по специфичным концептам, та еще боль. Тогда страдай, потому что если не использовать глаза, то потом не удивляйся, что будет два ануса и три пупка, один из которых моргает.
>>853323 Много чего натренил? С лорой на сотню пикч раз в неделю можно потерпеть, а когда масштаб растет ручной труд неприменим если ты не мегакорпорация. > два ануса и три пупка Это или явные косяки тренировки, или трешанина которая легко отсеивается визуальными моделями а то и вовсе метадатой с бур. Создавать подобные инструменты для фуррей скипая хотябы первое приближение из заведомо хороших артистов - нерационально.
> Жизни не хватит. > 250 файлов как то не проще совсем
Я делаю поиск по ключевым фразам в которым я знаю, что влм может косячить (размер груди тот же). И сразу смотрю что она сделал для сложных кадров (где куча людей на фоне, например). Для простых картинок я не смотрю что она придумала, т.к. обычно нормально работает.
> оно кстати замедляется в разы
Оно вообще не очень быстрое, там видимо надо подключать flash attn или ещё что-то, чтобы оно быстро было.
Да там ничего особенного, интереснее рецепт как я это сделал относительно дешево.
Рецепт такой: где-то четверть датасета: крупные и дальние планы с разным количеством одежды. Ещё четверть - крупные и очень крупные планы на белом фоне разных частей тела с разных ракурсов. При этом на кадрах с которых крупные планы обрезаны, персонаж в разных позах - стоит, сидит, лежит и т.п. Лучше брать разнообразных персонажей под это и следить, чтобы описания им точно соответствовали.
То есть условно из 75 изображений, где-то 35 уходят под это. Для каждого проверены подписи - что там точно все правильно описано. И подробно описываются где какие части тела находятся относительно тела в общем. Если брать сильно меньшее соотношение - то кажется, оно эти концепты не выучит, в духе тот же кантоку датасет имел где-то 5-10% под это и оно не особо вышло, хотя в целом анатомию все равно улучшило.
>>853381 Спасибо что делишься опытом. В конце недели или на следующей тоже попробую с этой штукой поиграться, если что будет удачное, поделюсь результатами и рекомендациями. > Да там ничего особенного Хотябы уровень оценить что там, кривой вареник как в 1.5 и намек на соски или достаточно детализированное тело.
ФБР будет сильно в дверь стучать. А если пеймент позволяет запускать онлайн, то и отмазаться можно "сэр офицер, мы честные разработчики, это всё детомедведи виноваты, вот их логи и карты оплаты, мы не при делах"
Скорее всего много противоречащих другу другу запросов. Ты скорее всего накручиваешь новой хуйни вместо того чтобы почистить старую вот он тебе такое и рисует. Помнится в автоматике есть скрипт "test my prompt" который тестирует влияние разных частей промпта на результат.
>>853668 Найс, давно таких не было >>853724 Стилизуй и последуй совету другого анона, также адетайлер и апскейл. >>853728 Кайф. Можно моар small breasts на не-лоли.
>>854002 Ждем лоры, контролнеты и будет збс. А из коробки он даже очертание письки не может нарисовать. И постоянно в 3д скатывается, нужен еще аниме-файнтюн. Но потенциал есть.
>>854017 >От автоматика, кстати есть какие апдейты/новости о вводе флекса в поддержку Это хз, я на сайте чисто затестил его. Ждем полгодика, чтобы созрела среда.
Пытался тянку в большими сиськами, одетую только в пончо на поне сгенерить. Выяснилось, что понь концепта "пончо" не знает совсем. Начал экспериментировать со всякими плащами и прочим. Тухло вообще. Либо сиськи, либо плащ. Зато breast curtains - сразу и без проблем. Эх...
>>853935 Заколка найс >>854048 > хвост только мешает немного Она ведь может сесть "наоборот" если не инсталляция идея для арта >>854287 Какими буру тегами вызывал? И напомни что за стиль такой.
>>854584 >Какими буру тегами вызывал? Какими только не вызывал. Не работает нифига. Полчаса убил, всякое перебирая. А стиль - wpt, lakf, vum, Но это на аутизме, на чистом поне иначе будет, скорее всего.
>>854731 Ппскейлер ESRGAN или производные. Хочешь сохранить оригинальный пик - денойз 30-40; больше деталей - больше денойз, но не больше 50 иначе насрёт. Бонусом можешь отправить в i2i и через ванильный скрипт SD upscale, опять же с денойзом в районе 30-40, ещё чутка улучшить
>>854786 >через ванильный скрипт SD upscale Устарел. В последнем автоматике (и форджах) тайловый апскейл включается автоматически. Размеры тайлов можно в настройках задать, если потребуется. Оптимизация!
>>854782 Мля братан. Давай как то в едином стиле. На околообъемное тело лепить плоский 2д аниме ебальник такое себе. Прекращай. Это не красиво в плане совместимости и бросается в глаза.
>>854816 Блять чел, сначала разберись что это а потом пиши, увидел знакомые названия и пошел дезинформировать. Эта херня не имеет вообще никакого отношения к диффузии, это режим работы ган апскейлеров. Стыдоба!
>>854824 Ничо не знаю. Когда на 0 ставишь - информация в консоли про тайловый апскейл не идет, скейлит одним тайлом. В автоматике так вообще в ООМ может в таком режим выбить.
>>854836 Чувак, когда ты апскейлишь пикчу ганом и прочими - не смотря на малый размер самой сетки на расчеты они жрут опиздохуя врам. Чтобы для апскейла до 4к не требовалось 96гб врам пикчу делят на тайлы с некоторым оверлапом, каждый тайл апскейлится отдельно, потом хайрез склеивается. Это только увеличение пикчи другой нейронкой перед дальнейшей обработкой диффузией, или вообще сама по себе если делать во вкладке экстраз. > информация в консоли про тайловый апскейл не идет Это пишет про тайлы гана, вообще убрать из выдачи нахуй надо.
Нехуй плодить ересь, это никакого отношения к тайловому апскейлу не имеет и лучше вообще не трогать.
>>854789 Интересное сочетание, жаль 3-го не знают модели, это не пони. Нужно именно пончо в классическом вариенте, а не современные тактикульные плащи? >>854863 Держи
poncho очень курсед тег на бурах, обрывков одежды или каких-то мелких фоновым персонажей в нем чуть ли не больше чем годных, неудивительно что пони не знают даже если астрахуй его специально не ломал. Можно вызвать если приподнятое в сочетании с нижним бельем, например, хотя и это что-то плащеобразное.
>>854924 >обрывков одежды(,) начало уточнения >или каких-то мелких фоновы(х) ну очевидно >персонажей(,) конец уточнения >в нем чуть ли не больше(,) чем Запятая перед чем > годных(?) Годных кого? Я знаю, что есть годный как подлежащие, но обычно из контекста понятно кого годных. А тут получается, что в пончо много обрывков одежды, а так же много годно обрывков. Ебантяйство какое-то.
>неудивительно что пони(?) не знают(?) Ошибка согласования, не ясен контекст, легко спутать винительный падеж единственного женского и именительный множественного. Тут и "кто? пони не знают (как какать)", так и "кого пони не знают (на краучане)" >даже если астрахуй его специально не ломал. Запятая перед даже.
>Можно вызвать(,) если приподнятое(,) Уточнение. >в сочетании(,) с нижним бельем например, Обособленный оборот с например выделяется вместе с оборотом. Можно вызывать в (каком-то) сочетании с нижним бельём например >хотя (и это что-то) плащеобразное. Выебал синтаксис. Хотя это что-то и плащеобразное.
>>854905 >Нужно именно пончо в классическом вариенте, а не современные тактикульные плащи? Нужен был буквально кусок ткани, закрывающий плечи, верх рук, и грудь. Можно и пониже, хоть до колен, но опционально. И чтоб оно формы под ним подчеркивало, а не наружу всё выставляло.
Пончо - самое близкое. Capelet и cloak что-то такое тоже могут, но там обычно всегда разрез спереди.
>>854922 Ты в твиттер не заходил, наверное. В 18 году познакомился с девчонкой, сидящей там, и просто охуел от её стиля общения без запятых в ненужных местах. То есть если знаки препинания необходимы для понимания смысла, то они их ставят.
>>855002 1. У автоматика есть плагин на небольшую редактуру. Считай тот же фотошоп точнее пейнт, но на вкладке. 2. Никак азазаза все надписи последних дней это флюкс.
Я только сегодня вкатился в это ваше нейхрохудожество. Поставил Дифужен по гайду, протестил, всё как надо. Поставил модельку пони и теперь получается мазня. Я всё правильно делаю и теперь не надо научиться в промт? А как тогда научиться? Пните ножкой в нужную сторону.
Короче, нафиг. Уже начал с одеялами и простынями извращаться. Даже пытался sheet ghost использовать. Типа, похоже на пончо должно быть прикрыто. Но его понь из коробки тоже не знает.
>>854971 Красава, как в старые добрые! > начало уточнения Нет уточнения, перечисление. И вообще на все уточнения авторские знаки. > Годных кого? Я знаю, что есть годный как подлежащие > легко спутать винительный падеж единственного женского и именительный множественного Ты на бордах и из контекста суперочевидно о чем речь. > Хотя это что-то и плащеобразное Поехавший чтоли, что за надмозг сочинил? Эта часть как раз понятна. В остальном по делу. >>854981 Блин, такая ерунда а не делается. Возможно нужно попердолиться с промтом больше или подобрать сочетания где будет явно. База sdxl выдает только большое полное пончо на все тело, с буру тегов (пока) плохо похватывается. Animagine наиболее похожие вещи выдал, пик 3-4. >>854997 Хорош, как сделал? >>855002 Использовать сетку, энкодер которой это позволяет. У тех что т5 это вообще базовая фича.
Скажите, а Auto1111 должно работать сильно медленнее чем ComfyUI? Поставил оба, но разница по скорости раза в 2, от чего задумался, это так и есть или я что-то не так установил?
>>855031 Хмммм. Попробуй сделать с huge breasts и теми стилями, если не лень >>854789 На лолях или обычных девушках с другими стилями действительно само получается.
Зря пиздел на буру теги получается, все усваивается.
Заметил, что благодаря де_генерациям я подтянул английские слова, которые бы и в голову не пришло учить так, чтобы писать без ошибок. Как те же thihghighs, например.
>>855022 >Нет уточнения, перечисление. Это вообще нахуй сложноподчинённое предложение! Нахуевертел говна, а потом сиди и по астрологическим прогнозам выясняй какая хуйня к какой хуйне относится. >>855034 >1024 Чел. а. Если это апскейл с 512, то возьми разрешение побольше. Хотя бы от 768. б. Если не апскейл, то апскейли хайрез фикс нажми. Латенты для большого денойзы, ерганы для маленького.
>>855039 Должно, но не в 2 раза. Пропиши в .bat запуска set COMMANDLINE_ARGS= --xformers >>855051 А если action scene использовать?
>>855062 > Пропиши в .bat запуска set COMMANDLINE_ARGS= --xformers
Спасибо, стало заметно быстрее. Но все равно вижу, что в Авто1111 у меня видяха хоть и нагружена на 100%, почти не греется, темпа до 60 градусов. А в Комфи греется как печь до 80, зато быстрее откровенно
>>855068 Да можно и на больших, там какая-то комба неудачная. На понях врядли выйдет сделать, только если обучится в лисобачем файнтюне. >>855069 kate fox (недотрененная)
>>855076 Считай это рейтингом качества как на ИМДБ. up означает "и выше". Не работает как задуманно, но работает в целом. Привыкай, у нас тут нейросети, никто в треде не понимает как это работает. Мы буквально колдуем на чипах.
>>853381 > Оно вообще не очень быстрое, там видимо надо подключать flash attn или ещё что-то, чтобы оно быстро было. Ну вроде пару секунд на картинку, если использовать только одну гпу, если дать ей самой разбивать модель автоматически это вырастает в 20+ секунд, или что то типо того, точно уже не помню, хз почему. > Да там ничего особенного, интереснее рецепт как я это сделал относительно дешево. Покажешь хоть как оно в нсфв тогда перформит?
Что то оно вообще артефачить начало, причём неважно как я поменяю параметры тренировки или какое разрешение поставлю, может вообще в сэмплинге проблемы или хз, скетчевого художника плохо усвоило, как будто всратый файнтюн на хл выглядит.
>>855107 > То есть если новый шикарный проц, он всё равно будет генерить хуже чем древнючая видяха? Если есть NPU, то, по идее, должен на уровне GTX 1050 генерить. Без него — будет анальная боль.
>>855363 В картинке у тебя все пишется. Либо в PNG-инфо ее кидай, и оттуда в т2и/и2и, либо прям в строку с промптом, и жми галку справа. Это если ты на автоматике, конечно.
>>855099 >Жаль, что колаб работать не хочет Рабочий колаб до сих пор валяется в теме "Колаб всё?" Для тех кто не осилил его найти есть колаб Фокуса, заточенный под XL
>>855287 Кратность апскейла (конечное разрешение) главное не задирай, тогда не придется снижать денойз теряя детализацию и ловить поломки. >>855430 loli milk уже было, нужен новый продукт! >>855512 Этот господин знает толк
>>855569 Ну я уж не совсем дурачишка. Обычно ничего не происходит. Иногда появляются их пенисы и вот это всё, просто из воздуха. Очень редко одна из тянок становится фурри нечистью. Но именно собак и лошадей не появляется даже если писать промпт с нуля. Мне нужны не антро, ни фури, а просто кони и собакены.
>>855572 Для защиты от нечисти нужно anthro добавить в негатив. Короче, я щас потестил, и правда выходит, что если просто написать собакена без бабы, то хуй его получишь, рисуется какая-то дефолтная бабень вместо собаки. Но я разработал для тебя промт специально, чтобы надежно рисовать соло собак, если такая у тебя цель. Вот он:
>>855512 > by Jeremy Lipking, by Antonio J. Manzanedo Воистину древнее зло пробудилось. >>855527 > шотако? Нужно подумать над именем бренда, но вариант солидный. >>855591 > нужно anthro добавить в негатив Выходит фурри теги есть в понях, может оно просто в разнобой общей кучей? Надо попробовать их промтинг.
>>855633 Ну, в этом плане, хороши следующие модели, в порядке убывания качества: 1) zonkeyRealism_v50 2) chacolrealponyworldm_v10 3) osorubeshiPonyReal_y Именно Y, всё что выше уже не умеет нормально 4) ponyRealism_v21MainVAE
>>855765 я в целом так и делаю, но у меня вопрос тогда следующий: например я хочу загенерить персонажа в прозрачном тонком зеленом платье, мне надо через запятую каждую особенность указывать или можно плейн текстом в одно? Типа transparent dress, green dress, silk dress или же transparent silk green dress, ?
>>855775 Пони лучше понимает отдельными тэгами. Но какое-то слабое понимание человеческого языка она тоже имеет, так что может и одним описанием сработать. Но если не работает, то лучше дробить, да. И для прозрачности, по-моему, see-through лучше работает.
>>855623 Речь о том что пони знают 621-специфичные теги, которые не совпадают с бурами. При чем тут реалистик модели? >>855750 Рили хтонический ужас, но детализация хорошая.
Да что не так с этим комфи? Стоит только убрать из фокуса командную строку, как генерация останавливается. Блять, поставил на бесконечную генерацию, свернул, отошёл на 10 минут, прихожу, а там на нуле стоит, ни одной пикчи не сгенерило. Только выделил мышью cmd как тут же генерация запустилась и начало срать. Чё за хуйня? Раньше не было такого.
>>856250 Кривые руки, мыльные ебала и глаза - это проблемы низкого разрешения + кривого VAE у сд1.5/сдхл. Чтобы их решить - либо хайрез фикс, либо перегенери нужные части изображения в большем разрешении, либо делай крупный план всегда.
>>856259 Это ещё зависит от стилей и лор. На одной лоре всё четко, от оригинала не отличишь, можно хоть на рабочий стол ставить. На другой лоре полная моча. Насчёт низкого разрешения не уверен, видел очень четкие картинки и без хайрез фикса. Алсо дрочить разные настройки в хайрезе это целое искусство. Никак не найду золотую середину, у тебя что выставлено?
>>856271 У меня это флукс с моей лорой (она портит детали, т.к. чисто синтетика) с минимальным хайрез фиксом в комфи (апскейл латент в 1.25 и второй проход самплером с денойзом в 0.35 и потом даунскейл обратно).
Построил пару гридов по обученным в последние дни лорам на флаксе, делюсь первыми впечатлениями по гиперпараметрам. Взял датасет на 120 картинок, 331 повтор на эпоху.
AdamW8bit вообще не жарит на 1e-4. Просто за 20 эпох обучения надо отличия под лупой сидеть рассматривать. Более удачный вариант с прожаркой продиджи до румяной корочки на 20-40 эпох.
На нищебродских 24 GB VRAM для кохя-скриптов приходится выбирать либо между высоким разрешением тренировки, либо между высоким дим (вроде как в SimpleTuner этот момент получше оптимизирован). Варианты с высоким дим (resolution: 512x512, dim: 16) выглядят лучше варианта с высоким разрешением (resolution: 768x768, dim: 4). На низком диме иногда прям сильно видно, что персонаж не похож на себя или картинка заметно ломается.
По поводу того, делать ли капшны для датасета в буру-стиле, NLP или их комбинации, пока не определился. Хочу попробовать NLP на 40 эпох пожарить и сравнить ещё раз 20/40 эпох и booru/nlp.
Могу ещё отметить, что, в целом, варианты лор на буру-тегах выглядят вполне ок даже если делать запрос через NLP. Я предполагаю, что, благодаря мощному TE, разные варианты запросов могут эффективно обобщаться, так что NLP везде работает, хоть обучение лор, по большей части, делалось на буру-тегах. На последних двух гридах сделал два похожих запроса - один на NLP, а другой просто на буру-тегах. Я бы не сказал, что последние две колонки (обученные на NLP) как-то заметно отличаются от первых.
>>856427 Кстати, не смотря на похожесть, НО чёлки разные, носы и глаза немного отличаются, у третьей цвет волос светлее. Я бы сказал, что это систрёнки, но точно бы не сказал, что это клоны. Ты несправедлив.
>>856450 Там вариатор до конца не заглушен и вибрирует, вот незначительные детали и добавляются в процессе. Хорошо, пусть будут весёлыми четвероняшками.
Какую посоветуете связку между бейз моделью и стилем попробовать, чтобы не генерить не типичный анимешный стиль, а что-то более уникальное (но тоже анимешное)?
>>856792 Посоветую выбрать нравящегося автора и сделать лору под него. Начать генерить. Потом найти ещё другого автора, который нравится. Сделать лору. Закомбить подобрав веса. Продолжать пока промт не кончится
>>856915 Nyantcha? Его ник можно просто в промт вписать или надо ещё дополнительно хуйню скачивать? Или как это работает? Может есть инфа на какой платформе то все делается?(Учитывая массовость подобного стиля, предполагаю, что есть какой-нибудь сайт с которым очень просто взаимодействовать и там присутствует его стиль) Бтв, novelai норм тема? Не видел в треде ничего о нем
>>857045 >Nyantcha? Да, точно, кажись он. >Его ник можно просто в промт вписать или надо ещё дополнительно хуйню скачивать? Нужно скачивать, из Пони намеренно выпилены все авторы, а другие модели о таких авторах даже не подозревают. >есть инфа на какой платформе то все делается?(Учитывая массовость подобного стиля, предполагаю, что есть какой-нибудь сайт с которым очень просто взаимодействовать и там присутствует его стиль) Есть, civitai называется. Там можно и себе скачать, и прямо на сайте генерить. > Бтв, novelai норм тема? Не видел в треде ничего о нем Платная параша, работает наверное хорошо, но я же не буду деньги им платить, чтобы проверить.
>>857096 Ясно, спасибо. А есть какой-нибудь сайт крупный где есть картинки сгенерированные и в описании сразу их промпт написан?(В курсе, что подобное реализовано на civitai, но там nsfw контента маловато)
>>857110 >подобное реализовано на civitai, но там nsfw контента маловато) Шутишь, что ли? В настройки посмотри, может у тебя отключен показ НСФВ или ограничен как-то. Там этого навалом на любой вкус и цвет. И другого такого сайта я не знаю.
>>857350 Ну что бы промежуточный цвет волос получить еще можно морфить конечно но мне лень, просто разный цвет проще написать и он сделает типа оттенок промежуточный , повторы мне нужны вместо повышения весов, иногда так лучше работает у меня, промты большие делаю потому что с маленьким результаты хуже у меня, по этому стараюсь все описать что мне надо а нейронка пускай уже выкручивается