📃 Стандартные модели stable diffusion (v1.4 - v2.1) от Stability AI значительно отстают по качеству от кастомных моделей (см. ниже). Модели SD XL ставятся и запускаются так же как и любые другие модели SD.
Суп, антуаны. Месяц никуда не заходил, коллабы реально всё? У меня игровой ноут 2017 с некровидюхой, ничего больше околоколлабного не существует для таких, как я? Жесть, конечно, корпорация добра, сука.
Еще заметил, что их телега (локализаторов коллаба) пропала, никто не помнит?
>>523485 > прогресс Отрицательный? XL лица даже не может на уровне полторашки нарисовать, а ты про прогресс говоришь. Какой-то сплошной шум и мыло вместо детализации.
>>523503 Коллабоущерб или амудешник может? Клоузапы тут не уважают, а так повозил бы пяточиной по "мылу". Морды - самая пожалуй исправленная часть генераций в xl (конкретно в кастомах 200%)
>>523516 > Клоузапы Так ты и высрал пару штук их, а там пиздец вместо лиц. > тут не уважают Да-да, ты бы мог показать как XL может, но не станешь, знаем эти мантры.
Подскажите промпт что бы 3 девахи ехали верхом на коровах, каждая на своей корове, вот мой промпт с тщетной попыткой это сгенерировать
best quality, raw photo, cinematic lightning, realistic, extreme detailed, smooth corners, image clarity, rounded corners, wide angle, three beautiful girls with long hair in a white dress saddled three cows and ride them, smile on faces, European facial features, pale skin, blue eyes, blonde hair, narrow shoulders, feminine shoulders, beautiful face, beautiful eyes, beautiful nose, beautiful mouth, beautiful legs, perfect face, perfect eyes, perfect nose, perfect mouth, perfect legs, five fingers, <lora:add_detail:0.5>, <lora:improve_backgrounds:0.5>
>>523546 Великоваты, автор модели перетренировал ее на каком-то говне видимо. Но для антроморфных животных пойдет.
>>523528 three girls riding 3 cows photograph from 1920s three girls riding 3 cows photograph from 1960s three girls riding 3 cows photograph from 1980s three girls riding 3 cows photograph from 2000s
>>523528 У тебя в промпт только что не насрано. Это всё можно, конечно, но ты сначала пиши главное. А уже потом свои реалистик мастерписи. А ещё лучше - отхуярь всё, кроме мякотки и постепенно добавляй, пока не получишь, что хочется.
По какой причине при обучении лоры в Kohya может зависнуть на 1м шаге? Уже минут 20 держится на 0%, настраивал все по гайдам, карта 3070, пробовал разные оптимайзеры
>>523600 То есть на 3070 на 1 шаг будет тратиться условно по часу? Тогда обучение буквально будет полгода длиться. По гайдам тренировка должна идти 5-20 минут по идее. Причем Adam8bit ошибку пишет, а просто Adam стоит на 0%. Какая-то хуйня, не понимаю что не так
Есть сцена из аниме, я хочу запилить её фотореалистичную версию. Юзаю анимешную в качестве инпута для контролнета, но проблема в том, что анимешные персонажи имеют нереалистичные пропорции (глаза, нос, размер головы и т.п.), а контролнет следует им буквально, в результате получается байда. Что можно в этом случае сделать, кроме как вручную править препроцессенный скетч для контролнета?
>>523630 Тем не менее, это самый простой и качественный способ для анона с днокартой попробовать генерировать своих вайфочек. Бинговская хуйня заебала спамить собакой и требует впн.
>>523613 Драйвера недавние которые вышли вместе с киберпанком, коха портабл от XpucT https://github.com/serpotapov/Kohya_ss-GUI-LoRA-Portable 3-4 месячной давности. Я полный ноль в питоне и портабла Стейбла мне хватало и все работало, а с кохай какая-то хуйня.
Еще заметил что отключен xformers, при попытке их использщовать при обучении пишет Enable xformers for U-Net Traceback (most recent call last): File "D:\Kohya_ss-GUI-LoRA-Portable-main\library\train_util.py", line 2457, in replace_unet_modules import xformers.ops ModuleNotFoundError: No module named 'xformers'
During handling of the above exception, another exception occurred:
Traceback (most recent call last): File "D:\Kohya_ss-GUI-LoRA-Portable-main\train_network.py", line 1009, in <module> trainer.train(args) File "D:\Kohya_ss-GUI-LoRA-Portable-main\train_network.py", line 230, in train train_util.replace_unet_modules(unet, args.mem_eff_attn, args.xformers, args.sdpa) File "D:\Kohya_ss-GUI-LoRA-Portable-main\library\train_util.py", line 2459, in replace_unet_modules raise ImportError("No xformers / xformersがインストールされていないようです") ImportError: No xformers / xformersがインストールされていないようです Traceback (most recent call last): File "D:\Kohya_ss-GUI-LoRA-Portable-main\python\lib\runpy.py", line 196, in _run_module_as_main return _run_code(code, main_globals, None, File "D:\Kohya_ss-GUI-LoRA-Portable-main\python\lib\runpy.py", line 86, in _run_code exec(code, run_globals) File "D:\Kohya_ss-GUI-LoRA-Portable-main\venv\Scripts\accelerate.exe\__main__.py", line 7, in <module> File "D:\Kohya_ss-GUI-LoRA-Portable-main\venv\lib\site-packages\accelerate\commands\accelerate_cli.py", line 47, in main args.func(args) File "D:\Kohya_ss-GUI-LoRA-Portable-main\venv\lib\site-packages\accelerate\commands\launch.py", line 986, in launch_command simple_launcher(args) File "D:\Kohya_ss-GUI-LoRA-Portable-main\venv\lib\site-packages\accelerate\commands\launch.py", line 628, in simple_launcher raise subprocess.CalledProcessError(returncode=process.returncode, cmd=cmd) subprocess.CalledProcessError: Command '['D:\\Kohya_ss-GUI-LoRA-Portable-main\\venv\\Scripts\\python.exe', './train_network.py', '--pretrained_model_name_or_path=D:/ComfyUI/ComfyUI/models/checkpoints/deliberate_v2.ckpt', '--train_data_dir=C:/playrix', '--resolution=512,512', '--output_dir=out_kohya', '--network_alpha=128', '--save_model_as=safetensors', '--network_module=networks.lora', '--text_encoder_lr=5e-05', '--unet_lr=0.0001', '--network_dim=128', '--output_name=Name', '--lr_scheduler_num_cycles=1', '--no_half_vae', '--learning_rate=8e-05', '--lr_scheduler=constant_with_warmup', '--lr_warmup_steps=170', '--train_batch_size=2', '--max_train_steps=1700', '--save_every_n_epochs=1', '--mixed_precision=bf16', '--save_precision=bf16', '--seed=1', '--cache_latents', '--optimizer_type=AdamW', '--max_data_loader_n_workers=1', '--bucket_reso_steps=64', '--xformers', '--bucket_no_upscale', '--noise_offset=0.0', '--wandb_api_key=False']' returned non-zero exit status 1.
Если попытаться установить через pip install xformers
>>523639 Если ты криворучка - да. У меня поначалу пикрил постоянно был. И да, даже если один раз она выдаст норм результат, то потом может быть калище. Увы.
>>523610 Там же дохуя настроек. Можно накрутить так, что и на 4090 будет год тренироваться. https://pastebin.com/mRjwUxP8 Вот вроде рабочие настройки, закинь в пресеты и попробуй.
>>523643 > Драйвера недавние которые вышли вместе с киберпанком Все драйвера, что позднее 531 будут лезть в шейред мемори а не оомится и замедлять работу после выхода потребления за границы твоих 8гб. > коха портабл от XpucT Ох блять... Я понятия не имею что у него там, лучше или вручную ставить или вот это https://github.com/derrian-distro/LoRA_Easy_Training_Scripts
Господа, в автоматике поймал странный глюк - лора сама прописывается в промпт, хотя собственно в окне промпта её нет. Приходится таки прописывать её с силой 0, чтобы вырубить - иначе засирает генерацию. Как вылечить?
>>523655 Все кое-как установил, поставил 3.10 питон как требовалось(был новее), все должно быть на месте так как сначала update врубил, потом install, потом опять update, потом жму run. Но выдает такое
Failed to train because of error: Command '['C:\\Users\\Admin\\LoRA_Easy_Training_Scripts\\sd_scripts\\venv\\Scripts\\python.exe', 'sd_scripts\\train_network.py', '--config_file=runtime_store\\config.toml', '--dataset_config=runtime_store\\dataset.toml']' returned non-zero exit status 1.
Мое ебало от ебли с сетями даже представлять не надо
>>523711 Вроде разобрался со временем, спасибо за прогу. Не помню последовательность действий, но в какой-то момент были другие ошибки и Easy более понятно их пишет чем коха. Только из-за этого заметил что у некоторых файлов разрешение было меньше на несколько пикселей при отключенном бакете, теперь наконец заработало и с неплохой скоростью. Коха обычно писала какую-то билеберду которая даже не гуглилась
И ещё вопросик, можно ли повредить нейроны нейросети? Вот тут в промте названия роботов всяких (robocop, terminator, r2d2, c3p0) и ни одного упоминания 1girl, но до этого считай только сисиков и генерил, вышел видеорил
>>523655 >будут лезть в шейред мемори Так это ж заебись, нет? Если раньше у тебя была бы просто ошибка нехватки памяти, то теперь худо-бедно, но сгенерируется.
>>523896 >можно ли повредить нейроны нейросети? У тебя модель фиксированная на диске лежит. Как ты ее повредишь? Ты ж тренировку не производишь (сам). Другое дело, что файнтюны и мерджи могут производиться с очень большим количество картинок типа "1girl", что заставляет нейронку считать это за норму и некий "контент по умолчанию". Погенери чего-нибудь на пустом (или почти пустом) промпте - сам увидишь.
Лоры еще могут влиять, даже если ты триггер-слова на которых тренировка шла в промпт не заводишь - они все равно влияние оказывают.
>>523906 >>523936 >>523939 Спасибо анончи, попробую другую модель, поковыряюсь как засунуть пачку картинок в адетейлер, чтобы не сильно он там всё исказил. А анимейтдифф хуйня на 15 кадров
>>523949 > У меня вот с че-то около в 1.2 раза быстрее в среднем стало. Надо конвертить ближе к используемым параметрам. Тогда около 1600х1600 получишь в два раза увеличение скорости, куртка правду говорит. С батчами даже больше двух раз на 4090.
А увеличение скорости оно только для версии Автоматика1111 на TensorRT, а им пользоваться муторно, так как на каждое разрешение с апскейлом нужно строить свой engine и не подключить контролнеты.
Ну что-то ж с этим желать надо. Странно что скорость не возвращается при освобождении памяти. Плюс надо жать разработчикам определить, хотят ли они видеть поведение с oom. Судя по тому, что автоматик ничего еще не сделал, значит не дают. (Хотя с другой стороны всякие adobe как-то справляются)
Вообще если Nvidia в блоге пишет про автоматик, значит должны заметить и помочь ему. Что ж еще не разобрались
>>524002 > надо жать разработчикам определить, хотят ли они видеть поведение с oom Пусть сами чекают доступную физическую память, а не просто выделяют пока всё нахуй не крашнется. Куртка не при чём когда разрабы ленивые пидорасы.
>>523904 Ну если ты готов подождать значительно подольше, то да, заебись. Это костыль появился в аккурат с выходом 8гиговых обрубков по типу 4060. >>523947 Он профили при хайрезе меняет долго, итераций и правда минимум х2 даёт, но смена профиля для хайреза занимает слишком много времени, по крайней мере у меня.
>>524040 >подождать значительно подольше Так я вижу общий расход памяти в районе 37 гигов. Либо RTX6000 за 400к рублей, либо ждать немного дольше. С одной стороны, куртка молодец, что запилил фичу. С другой стороны пидорас, что не доложил памяти изначально. С третьей стороны, ебёт контроллеры памяти и шину, а шину он тоже часто не докладывает. А контроллеры, вроде, у красных хуже, чем у синих, так что куртка и сам ебёт конкурентов.
>>523904 Это костыль на самый крайний случай, и надо бы его так и обыграть, отдельной опцией. По нормальному избегают утечки памяти как в medvram и lowvram, не загружая всю модель сразу в vram. И с помощью tiled vae
>>524051 >с помощью tiled vae Включил, пишет в консоль, что тайлы тайни и ничего тайлить не надо. Окей, выкрутил размер тайлов вправо. Пишет в консоль, что тайлы тайни и тайлить не надо. Выключил.
>>524047 > Так я вижу общий расход памяти в районе 37 гигов Что ты там такое делаешь с таким расходом, 8к тайлом апскейлишь? > С одной стороны, куртка молодец, что запилил фичу. С другой стороны пидорас, что не доложил памяти изначально. Если бы просто оставили возможность регулировать количество shared memory, или хотя бы возможность галочкой отключить это в драйвере, было бы всё куда проще.
>>524061 >8к тайлом апскейлишь? Да похуй. Даже с генерацией 1024 картинок без лор на XL - я бы соснул со своим обрезком на 12 гигов. На пике вот генерация приатаченной картинки. Если включить апскейл, то расход памяти будет ещё выше. >регулировать количество shared memory А оно настраивается на уровне приложения. Причём от ноля. https://docs.nvidia.com/cuda/cuda-c-programming-guide/index.html#shared-memory-9-0
>>524133 Меня медврам не спасёт, даже с ним на XL нужны девяностые видеокарты. Я в своё время зажопил немного денег, а сейчас уже нахуй надо что-то менять. Плюс не до конца понятно, что именно делает медврам, но с ним количество попердоленных картинок выше с неродным разрешением.
>>524206 может просто сделать перерыв, дать пекарне отдохнуть (на пару недель/месяцев/лет) и погулять в парке, выучить китайский, что угодно только не эти ai-высерки из папки с мусором на удоление
>>524313 Нет. Это же доска для аишных высеров. Тем более, раз уж они подрывают чей-то пукан - это лишний повод их постить. >из папки с мусором на удоление Смысл хранить аишные пикчи? Дрочить на них, чтоли?
>>524438 В этом и лулз был, я кормил автоматик строчками из песни, а он ёбу дал. >>524458 Прикольные пикчи, но самое интересное, как ты на xl получаешь глубокий фокус, а не бесконечное мыло. >>524459 Тебя анимешники обидели, чтоли? Хотя картун это не только маняме.
>>524465 Приходится выдрючиваться, с мылом индус мягко говоря поднасрал или насрал конкретно скорее. Играть с негативами только и остается defocus, DOF, soft, клоузапы убирать и прочее. Раньше ставил камеры, углы, свет,... в промпт, но xl сама делает лучше и не надо ей указывать иначе получается трэш
>>524189 >Чё так ебала-то корёжит. Они на отдалении всегда будут корежится, пока на них не будет приходится как минимум более 300x300 пикселей, но такое можно сделать в инпейнте, он позволяет насыпать пикселей на регион маски, чтобы нейронка могла сделать локальный апскейл с последующим даунскейлом.
>>524695 Вот результат полторашки, какой выходит у этого анона >>523872 на чистом 512x768. Выделил лицо в пэйнте, чтобы показать, что на него приходится 100x100 пикселей (99x99)
>>524702 Гарантирую, с таким же промптом, если он напишет closeup, лицо сгенерится нормально. А значит проблема не в промпте, а пикселях, которые можно легко насыпать на область через only masked во время инпейнта, что потом даунскейлится, но уже в обработанном виде. Как тут >>524681 на первом пике у меня.
>>524693 Зачем проходить SDXL, если пик и так сгенерирован и апскейльнут на 1.5?
>>524717 >Зачем проходить SDXL, если пик и так сгенерирован и апскейльнут на 1.5? Не понимаю, что ты спрашиваешь. XL апскейлит отдельно, выдавая другой результат. К тому же XL не может в пышных тёток и это один из методов обхода такой проблемы. Самый лучший метод я бы сказал, так как контролнет слишком ограничивает, а лору нормальную нужно ещё найти, если самому делать не придётся.
>>523273 (OP) А че refiner можно с sd1.5 использовать? Видел на форче онемэ лолей со страрушъими лицами пишет типа AOM3_orangemixs+epicrealism_naturalSinRC1VAE (пикрил1).
>>524767 >я нихуя не понимаю в промптинге. ладно, как скажешь.
>>524771 Да, можно. Только понятное дело моделями XL рефайнить 1.5 не получится. Прикол рефайнера в том, что он подхватывает генерацию и продолжает шаги на другой модели. То есть он сначала определенное количество шагов генерит на аниме модели, потом оставшиеся шаги на реалистик модели без декодинга латента. Раньше, до SDXL, люди просто делали img2img.
>>524778 Понятно >>524783 Спасибо что объяснил. >моделями XL рефайнить 1.5 не получится Ну, у того чела 2д-аниме лопаты превращаются в фотореалистичные лица. Мне кажется это впечатляющий результат, не?
>>524831 >результат был хороший Как раз с этим всё плохо, стены шизойдного пиздежа, жонглирование смыслами и терминами, а результаты с гулькин хуй. У этих долбаёбов так всегда)
>>524681 >300x300 пикселей Что-то дохуя. Вроде, раньше меньше нужно было. Но у меня скорее была претензия к теням под глазами, разным глазам на одном ебале и вот этому всему. >можно сделать в инпейнте Да, это хороший способ.
>>524702 У меня всегда очень простые промпты. Но хуй знает. Проверять не буду.
Всрал третий пик, вылезли голубые артефакты и качество упало, почему? Первые 2 были сделаны почти на тех же настройках, поменял промт чтобы добавить кинжал в руку, как пофиксить это?
Аноны, весьма странный вопрос, но все же, может кто подскажет. В те времена, когда колаб двача работал, в автоматике вроде в 1.5.1 версия была галочка "исправление лиц". Так вот что это было? Какая-то ранняя версия Adetailerа?
>>525383 Пиздец ты неосилятор. Автоматик и так самое простое по установке серверное приложение. Там из зависимостей только git и python, ничего мудреного
>>525387 да, но почему то через несколько месяцев сбилась зависимость но заработало всё после удалнеие всех папок в REPOSITORIES
Тупые SD Шизы, стали очередной изолированной кастой, а разрабы долбоёбы выпустили софт который трубует обучения на доках минимум 10 часов. Сделали очередную хуйню по типу сложного блендера. Сделали софт который качает 20 гб из сети 5 часов. Что за нахуй? где ONE CLICK TO EXE без питона и GIT?
щас найду видео вы охуете с того, как деграднул прогресс ебанный
Для справки, кто проспал всю тусу и был дурачком у SD есть инструмент контроля тела. и любой позиции. в перввых версиях вы могли крутить маникен и легко делать позы, в 1 клик потом эти долбоёбы продублировали 30 раз функции и интерфейс напоминает кал библиотекаря. без 15 галок хуй в запустить, кал библиотекаря
это open pose расширение для control нет. сцук ебланы, усложнили так что даже джуны парятся с этой хуйней вместо 2 кнопок. пиздец мрази ебанные. сделали, панель запуска челнока, хуй пойни куда, ебланы, бля. сцук. щас видео найду, оно покажет что все они долбоёбы. ебал макак, собак и делала из них солбасу с такой хуйни. дедушка, ебантяй, ты зачем в умирающей деревне бродячих собак, прикармливал, потом отмывал, а потом ебал и ел? - так как мясо непозволительная роскошь. ЗАЧЕМ? ВЫ ЕБАНУЛИСЬ? ЕБАНУЛИСЬ...........
>>525404 Я конечно не знаю, что там у тебя и как Но опенпоз сейчас работает крайне просто же? Либо в самой вкладке контролнета неплохо считывает с фото, либо в отдельной вкладке расширения (установка 1 мин) можно самому манекенчиков-болванчиков расставлять
>>525136 Это была старая технология, на основе GFPGAN и Codeformer. Проблема была в том, что она не использовала SD и делала все более примитивно, что было заметно, так как GFGGAN и SD генерят лица по разному.
Убрали (скрыли в настройках) потому что с инпейнтом уже не нужно, плюс неосведомленные нубы продолжали его использовать, портя свои генерации примитивной заменой лица.
>>525329 >Sheogorath Нейронка о нем просто не знает, остается только тренировать Лору на него. (лол, даже DALL-e 3 о нем не знает, но там не натрениш)
>>525409 Раньше было просто сейчас они сделали 20 галок если 10 галок не поставишь рисовать не будет. ВОобще охуели. идиоты гайды читать что бы что?ещё к open pose Надо качать модель на 2 гига. и если хочешь НАЧАТЬ НАДО ВКУРИВАТЬ И ВСПОМИНАТЬ БЛЯДЬ
В прошлом (вроде бы) треде кто-то упоминал, что есть способ получить доступ к ныне недоступному clipdrop.co/stable-diffusion через другой сервис. Если это правда, прошу помощи, подскажите, где этот сервис найти?
>>525329 Без лор узнаваемый образ хуй сделаешь. Даже мегапопулярных персонажей пердолит.
>>525383 Даже я, со всей своей лютой ненавистью к питону, справился в пару кликов. Хотя, гит у меня уже был установлен, это избавило от установки. И был установлен питон, из-за чего пришлось его удалять и переустанавливать. Но тут не беда автоматика, просто питон по дизайну кал говна.
>>525492 Таки да, чекпойнт RPG v5, что-то пытается изобразить по запросу The Daedric Prince of Madness Sheogorath. Бороденка и прическа вполне узнаваемые. Возможно, еще стоит заморочиться с описанием шмота и прочего.
>>525514 На рефайнер там подсказка когда наводишь мышкой. Хотя при 0.8 он вроде не работает или там шанс срабатывания, не важно в общем, не нужно пока. Я ночью только вкатился. Понимаю так что хайрезфикс по тем же принципам разбития по тайлам работает, только без тонкой настройки. А сдапскейл более адвансед.
>>525513 SD upscale использует тайлы, то есть кропает картинку на части и проходит по каждой из них. Hiresfix просто проходит повторно по растянутой картинке, как если бы это было img2img. Поэтому для него требуется гораздо больше VRAM (на автоматике1111, но не на ComfyUI, где есть tiled VAE в данном процессе).
>>525514 Быстрофикс, не постить говно это реально не так сложно
>>525527 >Hiresfix просто проходит повторно по растянутой картинке Как тогда он фиксит дубль голов при повторном проходе? Я думал он как-то хитро расставляет тайлы сам. >ComfyUI Это я тоже посмотрел. Там вместо сд апскейла - ультимейт сд апскейл. Ультимативность вся в том что в два раза дольше работает без причины.
>>525530 При умеренном денойзе, не будет дубля голов. Можешь сам поэкспериментировать, растяни картинку (а еще лучше апскейлни через Extras) и прогони ее через im2img с денойзом меньше чем 0.5.
>>525533 >Только вопрос, как этой хуйней пользоваться? А, никак... Ты же никак не пользуешься той хуйнёй, что уже есть, так что для всех вас, рукожопов убогих, ничего не поменяется, ровным счетом...
>>525527 >на автоматике1111, но не на ComfyUI, где есть tiled VAE в данном процессе Так в автоматике есть тайлед вае. Просто все эти тайлы не работают на XL
>>525533 > как этой хуйней пользоваться? Вставить между моделью и ксэмплером, как FreeU. На моих микро разрешениях со всеми оптимизациями разницы никакой. Может тем, похоже это только для тех, кто без костылей генерит.
>>525533 > которой еще нет в Автоматике Первая ссылка в гугле на HyperTile - реализация в автоматике две недели назад. Выглядит как говно, хуже мультидифьюжена.
>>525640 > Дай определение мыловарни. Термин "мыло" в сд треде — это либо отсутствие 4к текстурки прыщавой кожи у бабы, либо эффект боке. Если сдшиз видит это "мыло" на пике, значит модель или другая нейросеть уже не котируется и сдшиз таким пользоваться не будет. Остальные параметры: понимание промта, построение композиции, достоверность окружения, узнаваемость объектов и персонажей значения для сдшиза практически не имеют.
>>525650 > Ну, как-то так... Если ты не знал, в сд треде это уже традиция — постоянно пиздаболить что всё остальное говно, мыло, цензура и т.д., и рассказывать какой сд охуенный, что можно сгенерить любой пик, лоры-хуёры, инпейнты и прочая залупа, только примеров тупо нет. НОЛЬ контента. Всегда.
На CivitAi в примерах картинок, в каждом втором негативном промте BadHands v4 или хуй знает какая там v , при этом на самой картинке в лучшем случае более мене количество пальцев правильно. Что это за хуйня, действительно помогает это дополнение, или это все ставят, потому что так модно как 1girl?
>>525905 https://civitai.com/models/16993/badhandv4-animeillustdiffusion Вот эта хуита. Я себе ставил, гонял вечер, каких-то улучшений вообще нихуя не заметил. Гораздо больше зависит от самой модели. >1girl В чём проблема с 1girl? Ставлю, когда нужна, внезапно, одна девушка. Все эти инструменты для автоматической проставки тегов очень любят ставить 1girl, так что для модели это сильный тег, который она знает.
>>525438 Я чёт думал она из интернета картинки ищет и на основе их делает лица, странно что она знает кто такой Фокс Малдер из x files хотя сериалу лет 20 уже , а Шеогарата не знает(
Подскажите,что это за такое? Третий раз ставлю автоматик портейбл от христа, и каждый раз это заканчиваеться тем,что всё виснет,я перезагружаю ,и вижу что диска D нет. На нём и был SD. Пробывал создать отдельный том на диске,думал что снесёт только этот логический диск,нифига....полное уничтожение... В чём это может быть дело?
>>526238 Так x-files это ёбаная легенда. А тес это так, местечковый мем. Картинки в интернете ищет чел, который тренирует чекпоинт. Если он решил не добавлять - то и чекпоинт ничего знать не будет про этих шеогоратов. Арты по нему в изжопном качестве частенько, так что не удивительно, что он не попадает в датасет. Смотри анимешные чекпоинты, а лучше лоры.
>>526334 Каким же надо быть долбоёбом, чтобы делать репаки фришного софта. А кем надо быть, чтобы эти репаки качать, я даже представить не могу. В лучшем случае твоему жёсткому диску просто пизда пришла. Автоматик довольно активно ебёт диск на этапе загрузки чекпоинтов, так что твоему полудохлому пенсионеру могло поплохеть. В худшем случае васян, который делал твой "репак" заразил тебя компьютерным спидораком и теперь фармит бетховины на твоём флоппи-дисководе.
Подскажите, как можно в SD сделать надпись а-ля Escape From Tarkov. Чтобы на самом тексте были вырезаны фрагменты каких-нибудь объектов. Пробую через canny в ControlNet - выходит не то, а идея как еще можно в голову не приходит.
Пусть даже фон не будет черными и вырезанные куски тоже, это легко поправить в фш.
Аноны помогите ньюфагу, не могу раздеть свою тяночку. Скачал "Uber Realistic Porn Merge (URPM) [LEGACY Version]", выбрал его в настройках, ввел промты, перехожу в img2img, затем в inpaint. Там выставляю такие настройки, выделяю ее сиськи понятное дело, и тяночка остается одетая. Что не так?
>>526478 Да, прописал и позитивный и негативный: naked body, white skin, small boobs, beautiful pussy, beautiful ass
(deformed, distorted, disfigured:1.3), poorly drawn, bad anatomy, wrong anatomy, extra limb, missing limb, floating limbs, (mutated hands and fingers:1.4), disconnected limbs, mutation, mutated, ugly, disgusting, blurry, amputation
Мне даже 0.90 не помогло я хз, на коллабе все работало, а поставил локалку и он нихера не раздевает (просто ничего не меняет). Хотя обычные картинки генерирует и все ок
Аноны, сижу с карточкой пятилетней давности, удалось потрогать немного счастья но хочется больше. Какие есть сервисы где можно свои модели использовать?
>>526510 >Что за проблема? >У тебя неподходящий. Картинку пердолит прямо как её пердолит при использовании VAE от 1.5 на XL моделях? Ты переключил VAE?
>>526632 На что ты вообще возбудился? В пустыне в платке = исламист? Не обязательно. На полумесяц на одной из фоток? В исламе он по-другому расположен и там ещё звезда рядом полагается. >>526638 Потому что могут. Не нравится - нагенери то, что тебе нравится.
>>526496 Не по адресу, вот если бы она собственную отрезаную голову под мышкой держала, вот это было-бы охуенно, вот это-бы зашло! А, так, скукотища... )
>>523273 (OP) Git вместо установки выдаёт ошибку >Cloning into 'stable-diffusion-webui'... >fatal: unable to access 'https://github.com/AUTOMATIC1111/stable-diffusion-webui.git/': schannel: next InitializeSecurityContext failed: Unknown error (0x80092013) У меня включен брандмауэр windows. Может, нужно добавить какой-то exe файл в исключение? Помогите.
>>526870 Ты ж понимаешь, что у меня денойз стоял вообще в нулях? С другой моделью, другим VAE, другим семплером, стоит его поднять хоть немного и внешний вид полностью уедет, а на чём ты генерировал - вообще неизвестно. Можешь ещё отдельно себе накатить какой-нибудь ESRGAN, должен нормально апскейлить.
>>526900 У тебя с браузером беда какая-то, видео рабочее.
Я вас умоляю, дорисуйте своими нейросетями мне пикчу плис чтобы можно было на телефончик обои поставить. Надо верх и низ обрамлением из цветов или продолжение бедра в доспехе Я слишком тупой чтобы это сделать самому, я просто не представляю все эти настройки нейросетей и прочее. Саму пикчу спиздил из треда в б и апскейлил на каком то сайте Просто слезно Вас молю
>>526941 Надо было и апскейлить сразу, что такое 576х1024, у телефонов минимум х2 по каждой стороне. >>526980 Возможно, можно как раз восстановить промты из картинки, а потом resize&fill. Модель - да любая не реалистик. Самому проверять лень.
>>526985 Если я хочу сгенерировать похожую но другую картинку с нуля, а не увеличивать уже нарисованную человеком, какой промпт, Sampling method и модель нужно использовать? Какая модель наиболее качественная и разноплановая? Чем отличаются sampling methods друг от друга?
>>527013 > похожую но другую картинку с нуля Clip interrogate поможет примерно представить, что должно быть в промпте. Референс контролнет еще немного поможет, как и InstructP2P контролнет. А дальше уже подбирать промпт по вкусу, но будь готов к кривому оружию. Еще IP-Adapter можешь попробовать, но у меня он не работает, поэтому нет возможности проверить. > модель наиболее качественная и разноплановая Обычно либо одно, либо другое. Просмотри топ civitai.com, выбирай, что тебе больше подходит. > какой промпт Посмотри на civitai промпты под картинками со страницы модели, скопируй из них дополнительную хуйню типа highly detailed и добавь в начале промпта то, что тебе нужно на пикче. > Sampling method Я чаще всего dpm++ 3m karras использую. Многим Euler a нравится. Проверь на каждом, может тебе что-то другой зайдет.
X/Y/Z plot скрипт в автоматике поможет эффективно прогнать генерации с разными семплерами/промптами/моделями и другими параметрами для сравнения.
1: (The old sideboard from the outside, as well as from the inside, reminds me of Notre-Dame de Paris. In the depths of the sideboard there is darkness. A mop and stole will not erase the dust. The thing itself, as a rule, does not try to overcome the dust, does not strain the eyebrow. For dust is flesh time; flesh and blood.) Steps: 20, Sampler: Euler a, CFG scale: 7, Seed: 1581161256, Size: 512x512, Model hash: bbd2621f3e, Model: AbyssOrangeMix_base, Denoising strength: 0.7, Hires upscale: 2, Hires upscaler: R-ESRGAN 4x+, Version: v1.6.0
2: Old buffet outside same way, how from within, reminds me Notre Dame de Paris. There is darkness in the depths of the buffet. Mop, stole dust will not erase. Itself thing, usually, dust does not try to overcome, does not strain an eyebrow. For dust is flesh time; flesh and blood. Steps: 20, Sampler: Euler a, CFG scale: 7, Seed: 3721876112, Size: 512x512, Model hash: bbd2621f3e, Model: AbyssOrangeMix_base, Denoising strength: 0.7, Hires upscale: 2, Hires upscaler: R-ESRGAN 4x+, Version: v1.6.0
Старый буфет извне так же, как изнутри, напоминает мне Нотр-Дам де Пари. В недрах буфета тьма. Швабра, епитрахиль пыль не сотрут. Сама вещь, как правило, пыль не тщится перебороть, не напрягает бровь. Ибо пыль — это плоть времени; плоть и кровь.
>>527158 >epicphotogasm_xPlusPlus Ты с VAE на ней генерируешь? У меня эта модель с VAE сыпет ошибки NAN тензоров. С другими моделями такого, очевидно, нет. И понимание промпта, конечно, своеобразное.
>>527177 > У меня эта модель с VAE сыпет ошибки NAN тензоров Там стандартный vae-ft-mse-840000-ema-pruned вшит, не знаю откуда там ошибки могут быть. Или ты свой подключаешь? Можешь попробовать --disable-nan-check в запуск добавить. > своеобразное А никто и не обещал тонкого понимания промпта, кроме автора в предыдущих версиях модели. Она сильно переучена для генерации баб. Но эти ограничения можно обойти генерацией на другой модели и хайрезфиксом на этой.
>>527191 >vae-ft-mse-840000-ema-pruned Ёбана. А я сую свои sdxl_vae и думаю, хули ошибки со всех щелей, блядь. >А никто и не обещал тонкого понимания промпта У меня в промпте был назгул в таверне. А получил, ну, что-то получил.
>>527234 попробуй начать с интеррогатора, например вот этого: https://llava.hliu.cc/ Закидываешь сюда эту картинку, жмешь "Send" , тебе напишется описание. Дальше, в зависимости чем ты генеришь, модифицируешь это описание. Пример на твоей пикрил: Сервис описал как " The image depicts a serene scene of a forest at night, with a body of water surrounded by trees. The water appears to be a swamp or a lake, and the trees are tall and lush, creating a dense and dark atmosphere. The scene is further enhanced by the presence of a full moon, which casts a soft glow over the landscape. The combination of the moonlight, the water, and the trees creates a captivating and peaceful ambiance"
Для SD сокращаешь примерно до вот этого: "Digital art of a forest at night, swamp around tall and lush trees, dark atmosphere, moonlight, complex background"
После первой генерации - модифицируешь промт, можно добавить стиль by %художникнэйм% , который больше всего подходит под задачу, например отсюда : https://lib.kalos.art/
>>527444 Открой цивитай, и выбирай любую модель из топа, где есть что-то кроме "фото" среди картинок от автора. Штук пять-десять скачай и прогони X/Y/Z plot с ними. Только ты можешь определить, какая модель больше подходит для того, что тебе нужно получить. Ну и опять же, крайне желательно выяснить, что в твоем промпте не лишнее, а остальное удалить, т.к. полотнами текста ты загоняешь sd в угол.
>>527547 > denoise 0.02 Вае менял? С таким денойзом ничего, кроме вае и латентного апскейла менять пикчу не должно. >>527548 > Nearest Exact Или ты таки латент используешь, а не модель?
>>527551 Я от души не ебу, я только сегодня решил поэкспериментировать с AI. Поставил по гайду автоинстарллятор и скачал CetusMix. Сделал настройки как на странице cetus и вбил промпт и всё.
>>527547 Хайрезфикс подключают, чтобы апскейлнуть картинку, поэтому ставить 1x на upscale by не имеет смысла, поставь хотя-бы 1.5 для начала.
Денойз 0.02 тоже полностью убивает любой толк от хайреза. Тебе нужно чтобы хайрез мог доработать картинку, а значит нужно поставить денойз выше. Ставь сразу 0.5.
>>527300 >Dreamshaper Скачал его в формате safetensors. В webui он сразу не загрузился, я выбрал его вручную. После этого диффузия очень долго его загружала, а потом я увидел как скачивается какой-то файл на 10 гигов.
>>527612 Ты SDXL версию скачал. >>527607 Может быть, но учитывая, что на интерфейсе нигде не видно выбора вае, похоже уже используется вшитое, которое вполне может быть поломанным, хотя судя по >>527577 там дело возможно в игноре модели апскейла и латентном апскейле.
>>527612 Ты как-то криво делаешь. Тяни с цивиты 7-ю версию, она весит 2 гига. 8-я как-то больше под гиперреалистичные арты заточена, стилизации там так себе. https://civitai.com/models/4384?modelVersionId=109123 И да, после того как закидываешь модель в папку с моделями, жмякай на Restart UI.
>>527625 Мне не понравилось, что он без спроса начал качать с интернета огромный файл (models--openai--clip-vit-large-patch14, model.safetensors). Так и должно быть? Чем SDXL отличается от обычных моделей?
>>527626 > Чем SDXL отличается от обычных моделей? Как минимум тем, что используется еще и models--openai--clip-vit-large-patch14 помимо обычного, который 1.5 использует. Поэтому и начал качать.
>>527632 >>527631 Спасибо за помощь. Сначала он этот файл не закончил скачивать, скачал только 2 гига из 10, а теперь ничего не скачивая быстро переключился на dreamshaper_8.safetensors.
Либо я неверно ввёл промпт, либо диффузия не умеет рисовать нестандартные сцены. Я хотел изобразить девушку, привязанную к палке над ритуальным костром индейского племени, а получилась девушка стоящая или сидящая возле костра, измазанная в крови.
girl, South American Indian village, nude, (muscular:0.4), (slim belly:0.6), thin belly, thin waist, thin hands, thin legs, best quality, (cute face:1.2), Bonfire of cannibals, Ritual sacrifice, Girl tied to a stick over a fire, Despair on girl's face, (teenager:0.5) Negative prompt: loli, petite, child, infant, toddlers, chibi, sd character, fat, adult, senior, big breast Steps: 20, Sampler: Euler a, CFG scale: 10, Seed: 3391345355, Size: 512x512, Model hash: 879db523c3, Model: dreamshaper_8, Denoising strength: 0.4, Hires upscale: 2, Hires upscaler: ESRGAN_4x, Version: v1.6.0
>>527661 В технотреде это постили. Прикольная штука. Грубо говоря, они запекают работу семплера в ещё одну дополнительную нейросетку, что позволяет решать стохастический дифур гораздо быстрее чем за типичных 12-20 итераций (даже в 1 присест иногда, а не 4). Идея не нова, но они нашли кучу оптимизаций как тренировать эту нейросетку за 30+ А100-часов, а не полтора месяца как раньше.
Лора как таковая на этих моделях не сработает, потому что траектория уже запечена в нейросетку. Работает только полноценный файнтюн предложенным ими методом. Может ещё что придумают, как пишет автор в дискорде.
>>527661 Модель конечно кал. Странно что они дримшараер выбрали. Надеюсь на этой неделе завезут для нормальных моделей, как бы для них не вскрылось, что метод говно. Но скорость очень впечатляет
>>527791 > Надеюсь на этой неделе завезут для нормальных моделей, как бы для них не вскрылось, что метод говно. Никто не будет нихуя делать, умрёт так же как и предыдущие "ускорения" семплинга. Оно генерит мыльно, всё блеклое, рандома очень мало в генерациях, на длинных промптах пиздец начинается. Это как будто шаг в сторону ванильной полторашки по качеству генераций.
>>527799 Я не вижу того что ты говоришь. Да и в общем метода не предполагает того что ты говоришь. >умрёт так же как и предыдущие "ускорения" семплинга Это какие умерли? Большая часть хаков попала в продакшен и используется. Вот только это не хак, а дополнение к архитектуре, фундаментальное, уровнем не ниже квантизации в трансформерах, контролнета или лоры. Как обучишь, так и будет работать.
>>527834 >За хайрезом приходи, когда с этим разберешься. Пока я экспериментировал, заметил, что хайрез превращает мыльную нечёткую даже не картинку, а мусор, в приемлимый арт. А если увеличить параметры хайреза, то картинка получается ещё красивее.
>>527840 Ну значит с основами хайрезфикса ты уже разобрался. Дальше только эксперименты с подменой сэмплера/модели и вычисления минимальных шагов достаточных для приемлемого результата.
>>527850 > сильно отличаются от 2M? В среднем лучше. Можешь смело делать в голове автозамену 2m из видео на 3m, в большинстве случаев это будет правдой. Но на всякий случай сам проверь, может у тебя сложится другое мнение.
>>527850 Все эти семплеры нахуй не нужны на практике, лишний выбор только сбивает с толку. Можно было выбрать один фиксированный и не париться. Большинство из них находятся в списке лишь потому что они были во внешнем фреймворке, который использовался в коде, это чистая математика и к визуальной части отношения не имеют. Но всякие интересные личности начинают играть в плацебо и видеть шаблоны у себя в воспалённом воображении.
Семплеры отличаются только скоростью сходимости, после достижения которой картинка практичкески не меняется. (скоростью в шагах, но и шаги могут быть длинные или короткие по времени).
Если видишь в названии SDE (стохастический) или a (ancestral, наследный) - эти семплеры никогда не сходятся, они мутируют картинку на каждом шаге. Не используй их, если не играешь в гачу - они просто делают подкрутку параметров невозможной, ибо невозможно сравнивать когда у тебя при малейшем изменении получается совершенно другая пикча.
>>527866 А вот и интересные личности. Сейчас начнёт задвигать про то как один семплер делает красиво, а другой некрасиво. Выше уже один такой был >>527799
Одна пиздаболия, все такие эксперты, спорят о семплерах, об очередных гейченджер костылях, ищут волшебные промты уже который год... А контента тупо НОЛЬ. Тред Стабильных Пиздаболов.
>>527874 Теперь это охуительных советов тред? Потратить полгода на курение теории, чтобы потом пердеть в треде про то, какое у всех говно, так и не сгенерировав ни единой картинки? Чел, не все настолько сильно ненавидят жизнь.
>>527942 > Классно будет для всяких AI-Text-RPG-рогаликов. А че на там на счет 448х640?
Норм, можно любой размер в пределах 768x768. Вообще пока что расширение для автоматика - это адаптированная демка с HF, работает в своей вкладке, имеет свои настройки. Даже основную модель не выгружает, нужно ручками в настройках выгружать, если памяти не хватает. И негативных промптов нет. Нужно ждать развития
>>527799 Ничего страшного. Вот начнётся с года на год третья мировая война, уничтожат заводы на Тайване, индустрия откатится на 10 лет, и будет актуальным генерить пикчи на картах уровня GTX 750 - GTX 780 🙂
Инпеинт что-то не работает. Пробовал на разных моделях и с разными настройками ползунков. Зона инпеинта вначале нормально генерируется на превьюхе, а после 50% отваливается нах и картинка остаётся неотличима от оригинала. Кто-нибудь сталкивался с подобным? Версия сд амд-шная.
>>528111 Стилей-то у тату дохуя. Кто его знает, что ты там хочешь, примитив-котика, аниме-кошкожену, трайблы-тарантины или реалистичный портрет Енотовой в рождественском венке. В любом случае, модель должна уметь в арт.
>>528111 Тренируй лору на татухах если хочешь получить конкретный стиль, готовых не знаю. Но кольщик тебе 100% скажет что ты притащил дерьмо, потому что SD не может в лайн, тем более под тату, там свои соображения
>>527915 Коляска, какой контент тебе нужен? Оглянись, тут не инстаграм, не пикабу и не фишки ебать их в сраку нет. Нужен контент - иди на https://civitai.com/images
>>528077 > плодить охуительные теории, обычно не имеющие отношения к реальности Примерно, как тут >>527864 ? Реальность какой-либо теории проверяется практикой. Но если только изучать матчасть, строить теории и пердеть в тред про "нет контента", то можно целый год верить в охуенность своей теории, достаточно просто не запускать СД, а то не дай бог теория не подтвердится экспериментами.
>>528217 >Примерно, как тут >>527864 ? Что "тут"? Сэмплинг так и работает, пространство поиска сужается с каждой итерацией, пока картинка не станет практически статичной. Если конечно сэмплер не вносит шум как это делают ancestral семплеры например. Что конкретно ты имеешь против, кроме >пук?
>а то не дай бог теория не подтвердится экспериментами Ты по ходу слабоумный. Берёшь прямо сейчас делаешь матрицу на 5, 10, 15, 20, 25 и т.п. шагов с каждым сэмплером из тех что сходятся. Наблюдаешь что каждый ряд перестаёт меняться, а пикчи одни и те же, с вариациями между группами сравнимыми со сменой сида. Охуеть эксперимент, да? Ты мне ещё что-нибудь про магические сиды попизди, которые лучше остальных, или ещё подобную чушь, аудиофил хуев.
>пердеть в тред про "нет контента" Это дебил какой-то, я такого не пишу.
>>528217 >Реальность какой-либо теории проверяется практикой. Если ты будешь разбираться "что такое деноиз" лишь генерируя матрицы и смотря на выхлоп говна, ты станешь разбираться в сортах говна, но так и не поймёшь что это такое и на что влияет.
>>528288 > делаешь матрицу на 5, 10, 15, 20, 25 и т.п. шагов с каждым сэмплером из тех что сходятся А теперь сделай такую же матрицу, но со всеми сэмплерами на 30 шагов и посмотри, где лишних рук больше, где меньше, а где их почти не встречается. Ах да. Сэмплеры же все одинаковые, в теории.
Лично мне вообще похуй, как оно внутри работает, если результат разный. Берёшь, генерируешь пару-тройку пиков и понимаешь, какой семплер тебе подходит. Под разные задачи нужны разные семплеры, для рисованных тот же euler a или DPM++ 2M Karras хорошо подходят.
>>528365 А шо, не должен? Всегда понимал, хоть и паршиво. Тебя же не удивляет что GPT понимает дохуя языков?
SD это CLIP (который мультиязычен) и сопоставление LAION, в котором теги в том числе и на русском, т.к. оба получены скрейпом всей сети, в том числе и рунета. Но естественно объемы меньше чем на английском, в дополнение к тому что LAION это мусорный датасет, а CLIP это мусорная модель. Так что что-то он может, но нахуя? На английском больше возможностей.
>>528357 Херовая лора, раз без лоры выдает медицинские диаграммы получше.
>>528356 >>528365 Да интересно, но для тренировки SD использовался датасет LIAON, который известен своей неконсистентностью в тэггировке картинок, поэтому SD 1.5 и такой, какой он есть. Вот, если интересно, можешь ознакомиться с использованным датасетом по этой ссылке https://laion-aesthetic.datasette.io/laion-aesthetic-6pls/images (только не ищи там маленьких голеньких девочек, они там есть)
>>528368 Человеку может быть интересна сама возможность использования русских слов и потенциальный эффект от них. Можно и не переводить, можно даже использовать смайлы.
>>528359 Смысл срать бесконечно картинками? Ах да, ведь в Далли нечего даже обсуждать, ведь нет никакого контроля и нечему учиться.
>>528378 >датасет LIAON, который известен своей неконсистентностью в тэггировке картинок Глядя на этот шлак, я изначально вообще был поражён что эта херня работает. Сработало это видимо только потому что там 3 ёбаных миллиарда пикч (тех что были отобраны для обучения). Я надеюсь, больше такого не будет - теперь есть мультимодальные модели, которые могут довольно неплохо тегировать картинки. В том же pixart alpha этим воспользовались и сделали качественный датасет на всего лишь 25 млн пикч, при этом заявляя результат на уровне SDXL при всего лишь 600 млн параметров и затратах на обучение в 10 раз меньше чем SD 1.5.
>>528410 Никак, эти имбицилы даже не выпустили саму модель, это пока только предъявы. Может быть они пиздят, может быть нет, но тренд очевиден. (DALL-E 3 например тоже пользуется улучшенным датасетом)
>>528426 Это же T5, используемый для понимания промпта, имбицил. Он же используется в DeepFloyd IF, которая тоже неплохо понимает промпт. А весов самой модели нет. (пока что, если верить авторам)
>>528434 Попахивает пиздаболией, может это дистилляция какая-нибудь? Откуда дровишки? Но даже если и нет, их предъявы выглядят в общем убедительно. Не стоит удивляться что датасет с охуенными тегами будет генерировать заебатую модель. SD был плохо оптимизирован в процессе обучения, тупо пробный камень. >требует 24gb памяти гпу Неудивительно, ноль оптимизона плюс большой трансформер без квантизации (T5) на входе. Для справки, SD 1.3 требовал 12ГБ VRAM без оптимизона. Но сама их диффузионная модель должна быть маленькой.