Китайский сервис по генерации ИИ-видео достаточно высокого качества, понимает как текстовый промпт, так и картинку. Лучше всего понимает китайский, но русский и английский понимает также. Три 5-секундных видео в день генерируются бесплатно, для большего дальше нужно либо менять Гугл-акк, либо платить для доступа к полному функционалу.
Американский стартап по генерации ИИ-видео. Лимит 30 генераций в месяц, дальше нужно платить (для граждан РФ никак, увы). Ну либо поменять Гугл-аккаунт, заведя новый и заново генерировать бесплатно.
В качестве промпта можно указывать как текст, так и изображение. Также можно дополнять изображение текстом, объясняя что с ним следует сделать.
Еще один китайский сайт. На данный момент самый крутой по качеству сервис, но при этом самый дорогой. Есть бесплатная версия, но с ограниченным функционалом и очень долгим временем генерации. В платной есть доступ к генерации длинных видео, видео с высоким разрешением, управление движениями объекта на видео, специальные эффекты типа синхронизации движения губ при речи персонажей и т.д.
В декабре 2024 вышла в общий доступ первая версия Соры. По качеству картинки превосходит все прочие модели, но пока уступает в качестве анимации и приверженности промпту как минимум Клингу. Также присутствует самая жесткая цензура. Прайс-лист на январь 2025 - 20 долларов за 50 видео по 5 секунд в месяц и 200 долларов за 500 видео в месяц с возможностью генерировать 20-секундные сцены + сцены в более высоком качестве. Для генерации из России, естественно, нужен платный VPN, так как санкции.
Китайский IT-гигант Tencent выкатил свой сервис по генерации ИИ-видео, есть как обычная версия по подписке, так и локальная версия, но требуется видеокарта от 40Гб.
Еще один вин от китайцев. Бесплатно дается 80 кредитов при регистрации, промпт по тексту, картинке или референсу (объекты, сцены, персонажи и инструкции по действию с ними). Генерация 1 ролика в 4 секунды стоит всего 4 кредита и занимает несколько секунд.
Кроме того, Google анонсировал свою супер-современную модель генерации ИИ-видео под названием Veo-2, которая пока не вышла в общий доступ, но по качеству анимации и пониманию промпта пока оставляет все остальные модели далеко позади.
>>1015622 (OP) >Hunyuan >но требуется видеокарта от 40Гб >40Гб Нахуя ты эти дебилоидные описания повставлял? Сразу боюсь прочесть остальные пункты, узнать какая там шиза написана. Названия и ссылки - этого достаточно. На крайняк структурированная инфа где есть img2vid/vid2vid/last-frame/lipsync. >Vidu >Еще один вин facepalm.jpg
>но требуется видеокарта от 40Гб Поскольку такого количества видеопамяти нет даже на 5090, то ждём реализацию для нескольких GPU. Если туда ещё и грамотный параллелизм заложат, то и вовсе шоколадно может получится. Хотя всегда есть вариант "нищеброды, идите нахуй" - и даже собиратели ригов таки туда пойдут.
>>1015880 >Поскольку такого количества видеопамяти нет даже на 5090 И да, я знаю про "workflow для 12гб", но модель уровня клинга явно захочет большего, может и намного.
>>1015882 Речь идет о модели, которую все крутят на 12 гигах и даже на 8, никаких «от 40 Гб» не существует, кроме шапки. Не надо их хуйни делать хуевые выводы.
В отличие от других моделей, Хуньюан умеет генерить любые разрешения и длительности (тот же LTX на кастомных разрешениях пидорасит страшно), поэтому 12-16-24 гига ограничивает тебя исключительно по произведению разрешения на количество кадров. Чтобы хуйньюнуть 1280720257 кадров с использованием FP16 модели без выгрузки на оперативу — нужно 80 гигов, да. С выгрузкой на оперативу размер модели становится не важен (а еще есть и FP8 жмыхи), и из 80 ты уже имеешь 55 требуемых, вместо 257 кадров выставь 129 и получишь уже 27,5 гигов, а ужав там-сям разрешение или еще количество кадров, уже влезет на одну 3090. Ну простите, не 10 секунд HD-видео, да! Но на одной видяхе запускается.
>>1016060 Опа! Прошлые 3д сетки легко влезали в 16гб. Треллис уже была довольно неплохой. Эта ещё лучше что ли? Ничего не слышал про неё. Кто-то тестил? Сходу поставить не удалось (ну сука как обычно), фейл при билде pytorch3d, попытаюсь разобраться позже, у них установка описана под линукс.
>>1016046 >FP8 жмыхи В смысле жмыхи? Есть ебланы, которые на fp16 крутят видео? Генерю 960x544x73 на очень комфортной скорости. Как-то соберусь, структурирую инфу, закину в тред, с советами, с вопросами.
>>1016420 >Как-то соберусь, структурирую инфу, закину в тред, с советами, с вопросами. Было бы очень полезно. Тут недавно кидали второй вариант workflow для 12гб с лорой - только на нём и генерю, только лоры меняю. Подробный гайд что почём было бы вообще отлично.
господа анонче, ковыряюсь в клинге с крестиками, ставлю креатив на 0.2, генерация, и оно какого-то хуя скидывает на дефолт 0.5, в конце генерации ебучий провал с "Try again". Что за хуйня? на разных акках. Началось вчера\сегодня
>>1016482 > "Try again" Не прошло пост модерацию. вы обосрались. Можешь не жмякать трай эген, оно не пройдет в таком виде. А вообще не пиши сюда эти залупанские вопросы. Креатив вообще можешь не трогать, кстати, ни на что не влияет. Точнее... это как в виду масштаб движения или как-то так. Не трогай, середина это авто. Чтоб тебе стиллы не генерило достаточно прописать стил слайдшоу и вот это всё в негатив, а в позитив "фотография кам ту лайф", но по большей части это от композиции на фото зависит, а так же от цвета фото и зернистости. Проще говоря - если у тебя фото выглядит как фото и нет подразумеваемости действий - ты идешь нахуй. Так же если у тебя тянка держит руки над головой вытянутые - она за 5 сек до сисек достать не успеет. Чаще всего. А теперь съеби нахуй.
>>1016325 Щито? Где связь, чувак? Ну нету — так сделай. Я локально кручу, на кой фиг мне коллаб делать? Кому надо — сделайте коллаб себе и крутите там (если там есть + 20 гигов оперативы, конечно, не шарю).
>>1016420 73? fast? =) У нее 73 кадра один из лучших показателей. А фиг знает, я тоже fp8 кручу. Я вообще к тому, что это не сильно важно, на самом деле, время генерации отличается, но сама возможность выгрузить хоть всю модель на оперативу есть. А в видеопамяти просто держать сами кадры. Поэтому 12 гигов из рил. Я тоже на 73 генерю.
>>1016425 Если на моем, то я там пояснялки вставил, вроде, простенькие. Вообще, гайд было бы хорошо, но мне лень, надеемся на анона выше.
>>1016425 О, я попробовал выгрузить вообще все на оперативу (20/40) и получил 8667 МБ в пике на видеопамяти с твоим разрешением. При этом время генерации вышло 199 секунд против 39 (т.е., в 5,1 раза), а общий 238 против 53 (т.е., в 4,5 раза). Выгрузка на оперативу не сильно критично повышает время относительно 15/0 слоев. И занимает норм.
>>1017283 >Ранвэй Кал говна сосущий жопу у виду, клинга и пиксверса, которые условно бесплатные. В 2к25 за пайволом обычно лежит кусок говна для гоев. Все остальные рекламятся через триалы и конкурируют за рыночек.
>>1017030 >Ну нету — так сделай. >Я локально кручу, на кой фиг мне коллаб делать? >Кому надо — сделайте коллаб себе и крутите там (если там есть + 20 гигов оперативы, конечно, не шарю). Сделайте мне калаб, спасибо мужики!
>>1017316 Pixverse и, говорят, vidu. >>1017310 Ищи комфи коллаб, в нём импортируй ноды хуньян. >>1017030 >fast? Нет, "честные" 25 шагов со всеми возможными оптимизациями. Фаст - хуйня в большинстве случаев. Можно поиграться, но в основном сильно портит изображение. Аркейн превращается в обоссаное аниме, например. Эффект примерно как с ебучим дмд на рисовальных моделях. С реализмом чуть лучше, можно юзать, если хочется что-то быстро потестить.
>>1017453 https://github.com/kijai/ComfyUI-HunyuanVideoWrapper Эта нода позволяет выгрузить часть в ОЗУ. У меня такое разрешение влазит в 94 кадра с выгрузкой только двойных блоков. С твоим объёмом врама можно генерировать намного дольше, мне кажется. Я для фана в фасте ставил 320x240 и минуту мог уместить в 16гб. Конечно, это не имеет смысла без vid2vid. А как быстро генерит? Алсо, сохраняй в mp4. >>1017590 Сделай мне денежный перевод в виде крупной суммы.
>>1017316 pixverse лучше всего подходит, но понадобится много демо аккаунтов, их можно реюзать каждый день фичу регистрации с точкой и плюсом надеюсь знаешь ролики по 5 секунд, но можно продлять бесконечно можно делать скриншот последнего кадра предыдущего видео в png и дальше продлять с тем же промптом и seed пример релейтед а потом срастить ролики в любом видеоредакторе продлять через встроенную фичу extend video не рекомендую, качество видео будет все хуже и хуже через несколько генераций конечно будет каша, если камера поедет или персонаж повернется
у kling то же есть фича extension, качество еще лучше но в триал режиме будешь ждать целую вечность то ято
>>1017453 Выгружай больше слоев на оперативу (вплоть до 20/40), уменьшай разрешение видео.
>>1017994 Кстати да, неочевидно, но сохранение в webp долгое, надо в мп4 сохранять. =)
———
Всем напоминаю, что есть мой воркфлоу https://files.catbox.moe/udwb8c.json для ComfyUI на Hunyuan со следующими характеристиками: • настройки по умолчанию оптимизированы для 12 гигабайт видеокарты • подключена выгрузка слоев, по умолчанию стоит 20/0 • сохранение в mp4 в отдельную папочку • fp8_fast для скорости • оптимальные настройки сэмплера для 73 кадров, 12 шагов • подключена лора и активизирована лора • подключен рандомайзер промпта, позволяющий генерить сходные по сути ролики, отличающиеся в деталях • добавлены подсказочки • если выгрузите 20/40 слоев и выставите 61 кадр, то может влезть даже в 8-гиговую видяху • оперативы жрет много, этого не избежать, простите, запаситесь хотя бы 32, а лучше 48.
1. Установил ComfyUI https://github.com/comfyanonymous/ComfyUI 2. Зашел в папку ComfyUI/custom_nodes и сделал git clone https://github.com/ltdrdata/ComfyUI-Manager 3. Запустил ComfyUI. 4. Перетащил туда json-файлик (прямо в браузер кидай). 5. Зашел в Manager справа сверху и нажал Install Missing Custom Nodes, там установил ComfyUI-HunyuanVideoWrapper, ComfyUI-VideoHelperSuite, comfyui-impact-pack. 6. Перезагрузил. 7. Скачать все файлы из подсказки в воркфлоу, раскидал по папочкам (о, папочки надо прописать, да!): fast fp8 в ComfyUI\models\unet\hyvideo , лору в ComfyUI\models\loras\hyvideo , лаву в ComfyUI\models\LLM, VAE в vae, clip в clip, я думаю, это очевидно, но тоже надо добавить. 8. Нажал Execute или Выполнить внизу синяя кнопочка такая.
Ну и все.
Кто хочет коллаб сделать (прости, чел, ну не шарю я в них, лень мне разбираться) — как тебе уже сказали, ищи коллаб с комфиуи, и просто выполняй шаги сверху, будет тебе коллаб с хуньюаном.
>>1018281 GGUF долго работают, ты уменьшаешь потребление памяти чуть-чуть, время растет сильно.
>>1017994 >Сделай мне денежный перевод в виде крупной суммы. Братан, на пельмени и стопарик последние потратил. Будь братом, помоги, выручи. Как мужик мужика.
>>1015622 (OP) > ComfyUI + Hunyuan Где почитать как поставить эту бандуру на Винду с 4090? Я вижу только мануал под прыщи. 100% же есть варик поставить всё это на Шиндус. Да и сами вы, думается мне, сидите не под прыщами
>>1019889 Я не он, но могу составить план вместо него: 1)я сообщаю, что никуя не работает, накачалось двадцать гигов хуеты, которая не работает, ни один воркфлоу не работает, потому что нихуя не инсталлируется из слегка устаревших нод. 2) оголтелые сторонники этого всего добра с умным видом рассказывают, что все ок, просто надо все делать правильно и вовремя все обновлять. 3) все равно ничего не работает.
>>1018775 >Выгружай больше слоев на оперативу (вплоть до 20/40)
Так это замедлит все, не?
>GGUF долго работают, ты уменьшаешь потребление памяти чуть-чуть, время растет сильно.
Вот оно что. Я не могу заставить 8-битную дефолтную модель работь в сварме, только ггуф почему-то. Но вроде можно 16-битную в 8 бит режиме запустить, попробую сегодня.
>>1019998 > накачалось двадцать гигов хуеты Потише, братишка, в этой ситуации. Эта "хуета" будет тебе заебатые картинки рисовать и чуть ли не минет делать, если ты поймёшь как с ней управляться.
Clip text encoder (has autodownload): https://huggingface.co/openai/clip-vit-large-patch14, (only need the .safetensor from the weights, and all the config files) to: ComfyUI/models/clip/clip-vit-large-patch14
5. Запускаешь run_nvidia_gpu.bat 6. Слева вверху выбираешь открыть workflow и идешь в папку ComfyUI\custom_nodes\ComfyUI-HunyuanVideoWrapper\examples , там выбираешь hyvideo_lowvram_blockswap_test.json если мало видеопамяти или че хочешь, если много.
Сложный тока пункт четыре — все скачать корректным образом. Все остальное делается даже не думая. Всего потребляется ~20 гигов, из них 9-12 на видеокарте и ~10 выгружено в оперативу.
Если у тебя 24 гига, то не проблема. Все упирается в «контекст» — разрешение умноженное на количество кадров. Разрешения: 512х320@129 и 1280х720@17 Где-то между помещается в 12 гигов видяхи (рабочий стол у меня работает на второй видеокарте, если че).
Вот так как-то. Ах да, может там еще какие модули понадобятся, но их при загрузке воркфлоу можно будет поставить кнопкой Install Missing Custom Nodes, без проблем.
Это заработало, но достаточно медленно, плюс было непонятно, как пристегнуть к этому лору (или несколько). Уже в этом треде кинули воркфлоу, который генерит видео гораздо быстрее, плюс там лору можно подключить. Качал ещё несколько воркфлоу с civitai - типа простых, всё в одном - но там замучаешься ставить дополнительные ноды, сложно разобраться плюс результат хуже.
>>1017375 У меня в прошлом треде выложен десяток видосов примеров с фаста, ледяными королевами и двойными лорами с Аватаром. Всё там норм с фастом.
>>1019661 Comfyui лучше сразу устанавливать со всем нужными нодами в комплекте вот этот: https://github.com/YanWenKun/ComfyUI-Windows-Portable/releases, гайд по установке Ханьюань в Comfyui https://rentry.org/crhcqq54, на 4 пункт можешь забить, и на 3 тоже если установил Comfyui по ссылке выше. (Если никогда не устанавливал Comfyui то надо ещё установить Git и Python 3.10 или новее, при установке питона обязательно поставить галочку в инсталлере в пункте: установить Path). Клипы качаешь сразу в нужную папку командой git clone через git bash.
>>1020181 >Всё там норм с фастом Ну что я могу сказать. Если ты это >>997084 → или >>994347 → считаешь норм качеством, то ты ебнутый на голову. Хуйня без фаста генерирует сильно лучше, фаст лишь для забавы и тестов, его результаты лучше никому не показывать.
>>1020005 Сочувствую. =с Но тебе скинули хороший гайдик (ах да, мой=). Попробуй по нему. Скидывай ошибку. И почекай занятость оперативы. Если у тебя 16 или 32 могут быть косяки с ней.
>>1020306 >абсолютно все включая разработчиков знали про эту фичу >ыыы я кнопочку нажал и все пропало >как раз после большого обновления ты как та шапокляк, но только тупорылая малолетняя шапокляк
>>1020356 >Сочувствую. =с >Но тебе скинули хороший гайдик (ах да, мой=). >Попробуй по нему.
8-битная модель из гайда заработала, спасибо, но она ничуть не быстрее 6-битного ггуфа. 1-секундное видео 944x544 на 50 шагах делается 3 минуты. 2-секундное - 8 минут. 5-секундное видео(121 кадр) на 50 шагах делается 30 минут. Може так и надо?
>>1020470 >1-секундное видео 944x544 на 50 шагах делается 3 минуты. 2-секундное - 8 минут. 5-секундное видео(121 кадр) на 50 шагах делается 30 минут. Очень качественное, но можно порезать качество и разрешение и будет быстрее. Разрешение потом можно поднять апскейлером, качество рефинером, а скорость ещё бустануть через TeaCache Sampler (сам только начинаю разбираться во всей этой каше).
Потом в программе во вкладке models находим нашу модель, нажимаем три точки в верхнем углу, выбираем edit metadata (пик 1) потом выбираем тип модели - hunuyan video и ставим дефолтное разрешение 720х720(пик 2)
Все, можем генерировать, настройки генерации желательно выставить на пик 1, количество кадров лучше выставить кратное 24 + 1(25 для 1 секунды видео 49 для 2 секунд, 73 для 3 секунд и т.д.), можно выставить 1 кадр для генерации картинки - можно быстро проверить промпт.
При первой генерации сварм сам скачает vae и клип-модель. Это может занять время.
>>1020383 >ты как та шапокляк, но только тупорылая малолетняя шапокляк Ок. Как скажешь. Если я такой тупорылый, то почему без проблем ломаю ЛЛМ одним и тем же способом с момента появления клауди? Так же я ломаю виду с выкрученными в космос гайками и клинг, с крестами или без. На клинге и так по сути нет цензуры никакой, потому что китайцы модель детекта тренировали неправильно. Ну или умышленно неправильно, чтобы не было отказов непонятных. Я эту хуйню еще на клинге 1 заметил, когда тупо накидывал туда картинки с порнухой. Виду, кстати, уязвим для моего обычного текстового взлома как любая ллм, причем такая хуйня только на нём прокатывает, но мне текст2видео не интересно. Но делиться я с таким заносчивым хуйлом как ты не стану.
Установка teacache на cварм реальмо ускоряет генерацию в два раза. 1 секундное видео 944х544 пикрел генерировалось 90 секунд вместо 180 без чайного кэша.
Установка проходит нажатием одной кнопки install teacache в advance sampling после чего там появляются пикрел натсройки. Для модели хуйнян надо выставлять 0.15.
Ну ок, запустил тот комфи что под оболочкой сварма сидит, вот лог. И вторым пиком лог сварма, но он по-сути лишь оболочка этого комфи, так что влиять не должен. Не вижу в логе ничего криминального, да и генерация 100% идет в видеокарте - судя по её нагрузке в диспетчере задач.
>>1021027 За генерацию на 4090 на указанных разрешении и количестве кадров надо узнавать у людей с 4090. Я не скажу точно. У меня на 4070ti 5 минут ушло на 944x544@25 на sageattn. В принципе, если у тебя не sageattn и не flash_attn, то норм скорость.
Короче, ребят, я седня порылся с хуньюаном, попробовал разное, погуглил, почитал.
Если хотите, я могу собрать готовую сборку под винду с воркфлоу и отдельно все модели. И выложить на хостинг. Но я не уверен, нужно ли это кому-то. Воркфлоу, который я кидал, мне кажется достаточно адекватным (Enhance Video я попробовал, он мне даже подпортил видос), появился новый Swarm, возможно это никому не нужно, и тратить день на красивое с sageattn и flash_attn смысла нет.
Отзовитесь, кто хочет, но не может, поставить себе генерилку (но имеет железо, которое ее потянет).
Ну а если не надо, то и время тратить не буду, тащемта. =)
Чего в во всех моих гайдах не хватает, кстати, это пункта про установку cuda 12.4. Я забываю об этом, потому что у меня-то он уже давно стоит. А комфи он нужен.
Кстати, там вышла NVidia Cosmos. Кто пробовал, че как?
>>1021217 На самом деле, лично я сомневаюсь. Я держу версию пайторча в комфи и куды на компе одинаковыми потому что ну вроде как!.. Но на деле, какого-то буста от 12.1 => 12.4 я не чувствовал. Но это все пиздаболия, решай сам, конечно.
>>1021178 >появился новый Swarm, возможно это никому не нужно, и тратить день на красивое с sageattn и flash_attn смысла нет. Нашёл инструкцию, как поставить тритон и куду на винду, чтобы flash attention заработала (ну или sage attention, у кого 4090): https://purz.notion.site/Get-Windows-Triton-working-for-Mochi-6a0c055e21c84cfba7f1dd628e624e97 >Воркфлоу, который я кидал, мне кажется достаточно адекватным Хороший, особенно радуют Notes на русском. Но надо бы расширить, тот же TeaCache прямо просится. Множественные лоры, апскейл - это всё нужно. Но при этом хотелось бы сохранить простоту и понятность, а не как у тех воркфлоу, что на civitai выложены - там мешанина и лапша и хрен поймёшь что где. Такого не надо.
>>1020319 Сильно лучше качество? Ну так сделай такой же видос снежной королевы и выложи сюда в сравнении с моим видосом фаста 720х1280 10 шагов, а аноны тут заценят насколько в разы лучше качество твоего видоса, для этого и создан этот тред, иначе ты просто пиздишь. Тем более никто не спорит что оригинальная модель генерирует лучше фаста (это ежу понятно), но качество не сильно различается, а генерирует фаст в 8 раз быстрее, тем более ещё можно чай подключить и скорость генерации ещё возрастёт.
>>1021262 Жопу зашей, возьми и сделай, раз не веришь. Я для себя сразу провел тесты и увидел колосальную разницу. Хочешь жрать говно - жри. >генерирует фаст в 8 раз быстрее Я сначала не понял что это за бред, а потом вспомнил, что это маркетинговый тейк даунов, выпустивших фаст модель. У этих клоунов на промогифках базовые модели рисуют шум вплоть до 49 шага, когда в реале на 20 уже готовый результат. В лучшем случае, Фаст быстрей в полтора-три раза. Опять же уточню, я и сам юзаю ее время от времени, но защищать эту модель глупо.
>>1021467 Справедливости ради, обычная на дефолтных 20 степах себя норм чувствует, хоть и мыльновато, а фаст себя на 6 хуево чувствует, хотя они и обещают, и по факту нужно 10-12 ставить. Учитывая, что она сама по себе крутится быстрее, получается те самые 2-2,5 раза ускорения, да. Так что, so-so… Иногда лоры ее вытягивают, а иногда лоры ее закапывают наоборот.
>>1021467 Понятно. Вид животного: пиздабол обыкновенный. Я уже выкладывал свои видосы. А твоих "супер качественных" видео я здесь нихуя не вижу. Но мне не сложно сгенерить несколько видосиков на 4090. Угадай какие из них оригинальная модель на 30 шагах, а какие фаст на 10. Охуеть в разы качество хуже на одних из этих видосов по сравнению с другими, да? Так по твоему?
ЗЫ: для тех кто скачал новый воркфлоу и не разобрался в настройках, чтобы не было левых артефактов у фаста параметр Guidance надо ставить 9, а Shift 17. Также можно поиграться с семплерами и планировщиками, первые два видоса сделаны на euler + simple, вторые два на lcm + linear_quadratic.
>>1023111 > Guidance надо ставить 9 Мне иногда 11 больше заходит, я его и запихнул в свой воркфлоу. Сравнивал прям на одних сидах через 0,5, пришел к 11. А шифт на 17 лучший, да.
>>1023111 2 и 4 - обычная 1 и 3 - фаст С Энид разница бросается в глаза, но не такая сильная как у меня было. С орангутангой почти не заметно. Жаль, примеры довольно статичные. Вчера снова генерил на фаст и плевался, не знаю почему так. Стояло как раз 9/17, не пробовал менять дефолтный FlowMatchDiscreteScheduler.
>>1023611 А вот и неправильно. 2 и 4 это фаст. А знаешь почему ты не угадал? Потому что и обычная и фаст генерят одинаково (как и заявляли разработчики). Одинаково это значит и фаст и обычная генерят с большим разбросом качества, и та и та модель могут выдать картинку конфетку, а могут картинку г... Только обычная, как я и говорил генерит лучше, т. е. больше выдаёт качественных видосов чем фаст, а на фасте могут время от времени проскальзывать артефакты (10 шагов всё-таки).
ЗЫ: вообще 3 видос от обычной модели я пытался сделать отличным, но заебался генерить (а генерить надо долго), так как обычная модель никак не хотела делать по Лоре нормальные черты лица Ортеги показывающей язык.
Ну, как умеют, пытаются. Результат так себе. Иногда потребуется сильно вспотеть, чтобы получить желаемое. Для конкретных простых движений проще найти ЛОРУ на том же civitai.com или huggingface.co Например, точно видел еблю с тентаклями, не помню на какую модель.
Господа, берите ПЕНИС в руки и дерзайте. https://github.com/NSFW-API/P.E.N.I.S. P.E.N.I.S. (Prompt-based Evolutionary Nudity Iteration System) Система организаций подсказок для создания промптов в LLM и Replicate с обратной связью.
>>1024445 Читай спецификации. На пирамид например >The fluxmini version can run with 7GB VRAM, currently it only supports 5 second videos (temp 16). Fp8 severely reduces quality and is not recommended, only use it if you must. А вообще зачем, я все вывожу в онлайн и не парюсь. Свою 3090Ti использую только для Hunyuan
>>1024708 С какими настройками генерить на фасте я давал инфу, можешь поставить значение Guidance выше. Воркфлоу для 12VRAM карт и модели стандартные (не GGUF), настройки плиточного вае декодера: 256, 64, 64, 8.
>>1025242 Какие же долбоебы тупорылые просто заповедник. Вместо того чтобы репортить хуйню они что-то там объясняют. Для последнего бумера вообще новость: если твои личинки смотрят этот нейрослоп, можешь их сразу отвезти в швейцарию на эфтаназию. А кто-то тут еще кукарекал что ютуп борется с ИИ калтентом.
>>1024329 На данный момент такой модели нет, обещали выпустить в первом квартале, ждем.
Из фотки в видео LTX-Video, там куча ограничений (разрешение/сцены), но она маленькая и на 6 гигах запускается Q8 GGUF версия + Q6 t5xxl, работает в меру быстро, рекомендую попробовать.
>>1024429 Уточню, КогВидео 5б хорошо делает, но она жирная и долгая, пирамидфлоу и мочи говно, к сожалению, ЛТХ на их фоне получше выглядит.
>>1024542 Честно, я встречал такую фигню, не стал копать сильно, не подскажу. Но вижу, тебе подсказали попробовать ггуф версию. Она точно должна сработать, там жорины кванты, отдельный механизм, который изначально под проц ваще рассчитан.
>>1024921 Потыкаю этот воркфлоу ради интереса тоже.
>>1024542 >>1024921 >>1025155 Почекал я эту модельку с этим воркфлоу. 1. Медленнее, конечно. Во-первых, GGUF, во-вторых, возможно нет какой-то ускорялки, в-третьих, на оперативу выгружается почти вся модель, как я понимаю, никакого деления. Против 40 секунд 52 у Q4_0 и 58 у Q8_0. 2. Качество и у Q4_0 и у Q8_0 вполне себе норм, но другой семплер и картинки другие, но это похуй. 3. На q4_0 у меня вышло 9900 мб видеопамяти, на q8_0 вышло 11000 мб видеопамяти, но я подозреваю она просто взяла лишку.
Как итог: воркфлоу нормально, грузить можно как обычную модель, так и GGUF, будет медленнее, чем на официальном, но ггуф скорее всего пойдет на старых видяхах. Нет, мне проверять лень.
А вообще, стандартный воркфлоу даже на паскалях идет, на чем же запускалось-то…
Где какая — попробуйте угадать. ИМХО, для Q4_0 получается достойный результат.
>>1025336 Кто искренне думает, что я пизжу — себе в штаны срет, это личное дело каждого. Мне вот искренне похуй, если честно. Не верите — не надо, разбирайтесь сами, жрите говно. Поднимать ког и пирамиду с мочи мне лень, я их снес, как незаслуживающие внимания. Да и генерить там по 5 минут, нахер надо время тратить.
ЛТХ воркфлоу выложу ща, собрал пару дней назад. Ну и ханьюан тоже щас сделаю пару вариантов.
>>1025407 Нажать одну кнопку для тебя слишком сложно? Окей, не буду грузить твою одну извилину (понимаю твою ненависть ко всему, где линий больше одной), последний раз выложу пацанам, и съебусь, ок? :)
Ну и кроме шуток, я не уловил, нахуя выкладывать видео, если их каждый может пачками генерить. Ценность видосов полгода назад и сейчас — небо и земля. Никто же не выкладывает свои рп под видом книг в LLM-треде.
Третья версия воркфлоу для оригинальной ноды HunyuanVideo. 12 гигов, фаст модель, в ноде есть куча ноутов с ссылками что и откуда качать и куда кидать. https://files.catbox.moe/givdzc.json
https://files.catbox.moe/6jhgsq.json Кастомное img2video воркфлоу для LTX-Video, 6 гигов, GGUF-вариант, ноуты с ссылками внутри, VAE юзаю от 0.9 версии, потому что на моем ноуте с 3060M VAE От 0.9.1 версии не завелась. Экспериментируйте. Сам-то я оригинал юзаю на 12-гиговой видяхе. =) >>1024329 Это для тебя, можешь пробовать.
>>1025407 Все, скрины лапши кончились. =) Это для тебя.
Больше ничего делать не буду, не ребят напрягать, ни время тратить, да и модельки дальше пойдут только пизже.
>>1024921 >Анон, а зачем ты пытаешься генерить на оригинальном воркфлоу, когда есть нормальный Почему ты это называешь нормальным? Там ни блоксвапа, ни чая, ни компиляции. На моей 16гб оно забило больше 15гб врам и спустя 3 шага ещё писало, что будет генерить 10 минут. Это пиздец. Я в таком разрешении около 3 минут генерю в "оригинальном" воркфлоу. И почему киджаевский флоу - оригинальный, если он на левых кастомнодах? мимо
>>1025545 Называю так, потому что на 4090 у меня генерится на этом воркфлоу то, что не может на оригинальном со свапом. Генерится на 4090 быстрее чем на оригинальном с фастом и без фаста. На нём можно использовать модели GGUF. Так подключи чай и прочее, чё так лень что ли? Оригинальный - равно первоначальный воркфлоу для Ханьюаня.
>>1025912 >О, спасибо, что напомнил о компиляции! >Подрубил, поигрался со слоями, ускорил на 45% генерацию. Объясните, что это такое в применении к задаче генерации видео и как это сделать. Тоже хочу ускорить.
>>1026241 Ставишь тритон, добавляешь блок HunyuanVideo Compile, запускаешь, компилится, а потом работает заметно быстрее. Вкратце так. Но тут лапша запрещена, так что никаких вам ускорений, приказано страдать. =D
Тут можно погенерить видосики (см. примеры) https://chat.qwenlm.ai. Долгая задержка, ограничение по количеству в сутки и цензура присутствуют, зато бесплатно). Держу в курсе
>>1026894 У меня на 4090 такого никогда не было. Но это точно можно исправить так как народ свободно делает нормальные видосы на low VRAM.
>>1027517 У Квен неплохая видеомоделька. Еще бы в опенсорс выложили. Хотя все зависит от размера, конечно. Но, молодцы, явно движутся в сторону мультимодалок. Уже все есть — и распознавание, и генерация. Думаю, к концу года релизнут полностью коммерческий проект.
>>1027517 >Но это точно можно исправить Ага, это я что то не ту лламу подключил
Но теперь я еще больше озадачен вроде как разрешение и количество кадров влияют на отжор видеопамяти, однако мне тут нагенерило видео 848х480 на 73 кадра и нормально, память не вылетала. Генерило конечно минут 20, но уже хоть чтото.
Попробовал запилить в тик-токе аккаунт бабы, выложил пару видосов, сгенерированных Sora. Планировал хайпануть на индусах-кумерах. В итоге, Тик Ток пидорнул в теневой бан, видосы не залетели в рекомендации, висят с нулем просмотров. У кого был такой опыт, что я делаю не так?
>>1027867 Там выгрузка модели в оперативу идет. Чем больше выгрузишь — тем больше можно сгенерить. Выгрузишь всю модель — генерировать можно прям нормас даже на 12 гигах. > минут 20 Сочувствую, что за видяха?
>>1027870 Ты угараешь над собой. Так это или не так — не знаю. Очевидно, что тикток эту хуйню сканит и всех сегенеренных отправляет отдыхать. Год назад заебись идея была, последние пару месяцев, после выхода Minimax и обновления остальных моделек, и, особенно, выхода HunyuanVideo в опенсорс — ну такое прям, опоздал.
>>1027904 Я видел в тиктоке дохуя очевидно сгенеренных видосов, с кривыми объектами, трансформирующимися в движении, с кучей просмотров и комментов от всяких америкосов. Как блядь от может определить, что видос сгенерирован? Я и сам не всегда на глаз могу понять.
>>1027916 Тогда два варианта. Либо определялка генерации обучилась на какой-то конкретный паттерн, и тебе не фартануло. Либо там вообще иначе работает и чисто по стране/впну/еще чему-то отправляет в бан, даже не анализируя видео. =( Тады хз, шо делать. Я не тик-токер.
>>1027888 А что с img2vid? Походу квен в такое вообще не может, по крайней мере на chat.qwenlm.ai картинку не загрузить. Меня лично в связи с моими актуальными задачами интересует только img2vid, с упором на консистентность персонажей. Все онлайн сервисы сейчас с персонажами справляются прямо скажем не очень, и это при том, что человеческие лица - это то, что они умеют генерировать лучше всего.
А квен в видео хорош, реально. Наверное потому, что первая (кажется) мультимодалка с видео, то есть промпт хорошо понимает и чётко передаёт. Эх, такую бы радость - да без цензуры :)
Поставил себе локалку hunyuan, появился вопрос - есть ли возможность как-то продлить кусок видео, чтобы оно бесшовно продолжалось? Ну или бесшовный луп сделать. Прикрепил кусок штуки, которую хочу продлить.
Чёт никак не могу понять как заставить hunyuan с enhance-a-video добавить https://github.com/NUS-HPC-AI-Lab/Enhance-A-Video Юзаю стандартный воркфлоу, но к нему оно не подключается, а собрать свой не получилось. Может кто поделиться своим опытом?
Ну охуеть теперь, КлингАИ выпилил фишку с крестом. Я хз как теперь нищеброду типа меня генерить видосики с сисиком писиком. Анон, есть чтото подобное на замену? Выручай анон, это была самая крутая штука, я был в восторге. Теперь както приуныл.
>>1030647 Я чёт как-то не осилил ноды Kijai. У меня в целом какая-то трабла после обновы Comfy, что автоматом ничего не подкачивается, приходится как долбику выискивать самому.
>>1031196 Полезны, если они дельные, а главное верные. Здесь анон недавно выкладывал воркфлоу для 12гб, причем рабочие - вот это действительно полезно, а хуита в шапке не по делу и вводит в заблуждение.
>>1034265 Странно, что Топаз (если не качать с торрента) стоит 200$ и его покупают, когда для апскейла видео есть охуенный по твоему заявлению бесплатный RealESRGAN)
Какая же хрень эта hunyuan. Даже бегущую в слоу мо женщину с трясущимися сиськами загенерить не может. Жаль у qwen ограничение по генерациям, он справляется с таким на ура.
>>1035821 Я делал воркфлоу для 6 гигов на gguf: >>1025496 Но у него safetensors и файнтюненная версия. Она гораздо быстрее Hunyuan по понятным причинам.
Его воркфлоу >>1035835 работает через Florence, и немного лишней видеопамяти отжирает, обрати внимание. В начале создает описание картинки, а потом его использует как часть промпта.
>>1035789 А где такой (ltx-finetuned-3b-v2) тюн можно скчать? Чот не гуглится. Вообще находил только один файнтюн, dream diffusion называется. Чел который её тюнил убрал возможность скачать, и вторую версию уже только за бабло отдаёт. Для видосов кст можно звук сгенерить, вот такой фигнёй https://github.com/kijai/ComfyUI-MMAudio
А что с Hailuo Minimax? Что он такой загруженный со вчерашнего дня? Обычно я в 6 утра ставил по 3 видео с трех аккаунтов и через 5 минут первое уже сгенерировалось. А сейчас очереди огромные.
>>1015622 (OP) Аноны, слёзно прошу, выполните реквест, мне ради прикола: анимируйте 1-ю пикчу так, чтобы нидзя взял свою жопу рукой и начал сочно сжимать её, совсем чуток развернувшись. Если не получится, то сделайте чтобы на 2 камера зазумилась ближе и ниндзя начал тверкать.
>>1038025 >Мне тредовские пиздаболы обещали img2vid hunyan в январе. Что случилось? Откуда была инфа и кто обещал? Нифига, я тоже здесь спрашивал. Точный ответ не помню, то ли в конце первого квартала, то ли во втором. Никакого января. Сам бы хотел так-то.
>>1038002 Очереди так и не рассосались. Еще и даже нсли до тебя очередь доходит часто ошибку выдает и не генирирует. Это еще совпало с обновлением месяца. Мб с этим связано? Хотя бесплатные генерации каждый день дают.
>>1028049 Подскажи что в промпте передаёшь? Пробую что-то подобное что у тебя в третьем видосе сотворить, но почти всё что генерится - статичное, такой динамики движения нет. Саб.
>>1025496 Сап. Можешь помочь? Хочу начать видосы генерить после картинок. Есть 4099 и 24 гига. Твой воркфлоу оптимален и для них? Или есть более оптимальный?
>>1041871 >а ноды то откуда взять? или они при наличии тритона появляются? А там в Менеджере в строке поиска если ввести - не появляется? Там много всего есть. Если нет, значит где-то на гитхабе, ставить по ссылке. Одно из двух.
>>1039741 Странно что никто не тестит и не пишет. Я и сам молча гоняю второй день, но скинуть нечего. Реально охуенная реализация. Лицо держит лучше клинга. Только движения слабые, но это скилл ишуе, у меня и без имг2вид не получалось ничего сложного запромптить. Из минимальной инфы добавлю: это вшито в ноды Kijai, активируется, когда прокидываешь одну пикчу в samples. Есть две лоры, на 320х512 и 544x960. Именно такие разрешения и ставил, 65 кадров, на этих настройках работает. С другими не экспериментировал, луп тоже не пробовал на имг2вид, интересно сработает ли на 320x512x201, в 544p не влезет столько. Компиляция, блоксвап, фаст модель, лоры, ip2v - всё это совместимо. Бывает генерит почти статичную пикчу или смену сцены, но я считаю это тоже скилл ишью, зависит от промпта и пикчи. Интересно что это за чудеса вообще такие, почему сразу не было, почему пишут, что это требовало обучения модели, как оно работает и как совместимо со всеми прошлыми моделями, чего ждать от tencent и почему нет end-frame.
>>1041864 Можно поиграться с выгрузкой (не выгружать в оперативу, а все держать в видеопамяти), или сделать разрешение повыше, или сделать кадров побольше.
>>1041572 Это в плагине от Kijai встроено. Дважды тыкнул по workflow и набрал в поиске.
>>1042563 Что ж, сейчас заценим. Насколько я понял, технически, это не специализированная модель, а хитрая попытка подсунуть стартовое изображение, и судя по превью, работает так себе. Вполне возможно, что полноценная моделька будет гораздо лучше. Ну или нет, как повезет, ща потещу.
>>1039741 >>1042563 Итак, попробовал я эти лоры и попытку энкодить первое изображение. В силу того, что у оригинальной модели свой генератор изображения, она училась на том, чтобы рисовать свои кадры, и когда ей даешь картинку, сгенеренную не ей, или фото, она ведет себя случайно. Иногда мы получаем просто хуйню, не следует промпту, потерянные цвета. Иногда мы получаем рандом, где совершенно другой персонаж делает другие вещи. Иногда мы получаем достойное видео.
Короче, такое ощущение, что это на 75% хороший вариант — пересидеть до их официальной модели. И разрешения хорошие у лор.
В общем, пробовать можно, но рассчитывать на что-то особо не стоит.
Мне тут по работе дали задачу освоить хуньян для анимации прона. До этого я занимался картинками и текстами. Потыкал, до качества челов с треда и Civit ещё далеко...
>>1042795 Можно и мне такую работу? Много зарабатывать приходится? А сколько работать? Что там к этому качеству стремиться. Скачал видео с civit, закинул в комфи, уже можешь такое же сгенерить, если памяти хватает.
>>1042799 >А сколько работать? Как и везде - фуллтайм. Я работаю на игровое подразделение одного чёрно-оранжевого сайта, там сейчас задача анимации порно картинок одна из главных. Текущий пайплайн включает дорогую и долгую работу аниматоров. Всех хотят заменить на нейронки. Если шаришь и умеешь, то легко найдёшь работу в любой из игровых команд.
>>1042868 Ага, персонаж должен быть один и тот же.
Есть порнхаб, у них есть игровая площадка - нутаку. Там полно игр. В каждой игре есть набор персонажей и секс сцен с ними (картинки). В идеале сцены должны быть анимированы. Каждую игру делает сторонняя команда разработчиков. Сейчас команды нанимают аниматоров, которые вручную анимируют картинки. Нутаку хочет помочь своим командам делать анимации быстрее и дешевле. Моя задача построить для наших команд пайплайн, которым они смогут анимировать сцены в своих играх.
Без шуток, есть есть есть умение генерировать красивые видосы, то можно найти понравившуюся игру, написать команде и устроиться к ним работать задорого.
>>1042919 Вообще, звучит, будто тебе проще генерить картинки, а потом их анимировать. Либо через воркфлоу выше с лорой, либо через LTX-Video. Ну, как минимум, можешь попробовать.
Хотя, если у тебя есть компьют, то обучить лору на персонажа проще, я полагаю.
>>1043039 >проще генерить картинки, а потом их анимировать Ну да, картинки уже есть. Например на картинке тян на члене прыгает, надо сделать так, чтобы картинка превратилась в небольшую гифку, где она на нём прыгает.
Спасибо за рекомендации. Завтра буду ресёрчить дальше.
Компьюта особо нет т.к. каждя игровая студия будет запускать это всё на своей инфраструктуре. Но на ранподе что-то арендовать они могут, да.
>>1042795 >Мне тут по работе дали задачу освоить хуньян для анимации прона. До этого я занимался картинками и текстами. Потыкал, до качества челов с треда и Civit ещё далеко... Вы долбоебы просто и хуйней занимаетесь. Зачем осваивать говномодель. когда можно как другие западные кокбанчики (на ютубе их тыщи) арбузить корпоративные нейронки? Найди эффективный способ обхода цензуры и зарабатывай. В крайнем случае ты не поверишь но: расцензурить будет проще, чем хуйнянить кривое говно с нуля. Вы ж ебучие порнушники, в РФ это И ТАК УГОЛОВКА, вы вне правового поля. Не поебать ли вам на копирайты? Любые ватермарки можно свести, кстати.
Ну и не рекомендую живущим в РФ на его призывы откликаться. Это крайне не безопасно в нынешней ситуации. Нет гарантий что это не тащ майор палку хочет заработать. Сперва подсадит такого лошпета к порнушникам, а потом оформит всё по красоте, взяв с него показания в обмен на более легкое швабрирование.
Получилось смешать 2 лоры на хуньюуань для 12 гиговой карты, но генерация работает как то странно один раз может 3.5 минуты генерировать а другой 10 минут ролики по 5 секунд, непонятно от чего зависит, видеопамять и гпу гузятся на 100%, но при этом видюха почему то всего на 56 градусов прогревается, такое ощущение что где то что то работает не так.
>>1043721 >но генерация работает как то странно один раз может 3.5 минуты генерировать а другой 10 минут ролики по 5 секунд, непонятно от чего зависит, видеопамять и гпу гузятся на 100% Нехватает видеопамяти. Попробуй поискать на цивите другой воркфлоу под 12гб, и выгружать все остальные вкладки браузера перед генерацией
>>1042953 >>1043039 >OmniHuman-1 >Currently, we do not offer services or downloads anywhere. Что вы там пробовать собрались? Хуй они такое в опенсорс вывалят.
А что там пока с генерацией видосов на проце, есть воркфлоу, пробовал кто-то? Мне собственно видосы как таковые не нужны, мне нужно просто покрутить любой объект чтобы сделать пяток кейфреймов.
Я вообще ебу что ли, у меня 64 гига оперативы на игровом компе, при генерации занято ~40-45, плюс видяха на 12 забита. Если у вас там видяха на 12 и оператива на 32, то… напрашивается идея, что оно свопится на диск в файл подкачки.
Замеры-замерчики.
>>1043768 Да на здоровье, разницы между видеокартой и процом технически-то нет, все эти ваши торчи и на проче работают. Просто в 10~100 раз дольше. В ComfyUI есть плагины, которые позволяют выгружать модели и контекст либо на другую видяху, либо в оперативу. Не помню названия.
Просто будь готов к результатам не через 5 минут, а через 2-3-5 часов. Если тебе норм. Ну а может и раньше, я не пробовал, честно.
>>1045544 включи камеру на смартфоне, там все в режиме реального времени и полный контроль над движением камеры и происходящем на экране там даже есть кнопочка AI
>>1043835 >не через 5 минут, а через 2-3-5 часов. По 40 минут на коре ай3 с 4мя ядрами. Поставил базовый пайплайн с гитхаба ЛТХ. STG не запустился, потому что тамошнему йоба-семплеру нужен именно bf16, а бф16 нужен куда-девайс. В общем img2video унылый как у всех этих моделей, что онлайн что локал, тупо не читает всю визуальную инфу с картинки и не знает что с ней делать. Годится картинку немного анимировать. Еще у этого LTX такой прикол, что ему нужно скармливать картинку пропущенную через ффмпег-сжатие с 30 црф, а то он ее будет считать статичным слайдом. В ткст пободрее, но там обязательно нужно новеллу писать в качестве промта, да и подозреваю с соей все норм. Еще такая жопа, превью почему только в 16х16 пикселов. Короче все сыро и печально, ну хоть комфи поставил зато. Когда пойдут массово все эти новые процы на стопицот ядер наверное будет реальной альтернативой гпу. Главный затык это куда которую задроты не думая суют везде в качестве единственной опции.
>>1046731 >Еще у этого LTX такой прикол, что ему нужно скармливать картинку пропущенную через ффмпег-сжатие с 30 црф, а то он ее будет считать статичным слайдом Вообще-то любая картинка это по определению и есть статичный слайд. LTX требует детального описания в промпте, какие действия должно осуществлять то, что изображено на картинке. Если просто дать картинку с бабой в ванне и написать "женщина купается в ванне", то на выходе будет практически статичная картинка со слегка вибрирующими пикселями.
>>1046815 Не там именно штука в том что если дать хай-квалити фото без артефактов, ЛТХ его трактует как статичный объект и будет делать драматичный накат или вообще нихуя, игнорируя промт. А вот если картинку обмазать квадратиками, то он узнает брата колю и может ее заанимировать даже вообще без промта. Это во всех гайдах поминается и я сам с таким столкнулся.
Он писал о том, что модель обучалась на шумных кадрах. И качественные отсутствуют у них в датасете, поэтому она не умеет анимировать. Надо сжимать в шакалы, и тогда ЛТХ работает хорошо.
>>1046852 >ЛТХ, он маленький и быстрый. И тупой, да. Ну если его использовать в T2V с предложенными промтами, то выглядит как-то вот так. Вообще у меня ни в одной модели не получается с img2vid как я хочу, ближе всего в vidu. Загружаю комфи с форсед f8 при загрузке и на моих 16гб памяти немнего влезает в своп. А куде нужен бф16, с ним вообще залило в своп 10 с лишним гигов. Хуньюаню наверное будет мало совсем 12ГБ карты.
>>1047178 Надо еще потерпеть. Помню мне тут на доске один додик доказывал, что генерация видео на локалке невозможна, сору никогда не выпустят в отрытый доступ и вообще вся хуйня заглохнет.
>>1046731 Кайфую с ltx. Ещё бы руки с пальцами не превращала в жертву фрезерного станка, вообще б покайфу было. Жаль что для неё лор никто не пилит. Нашёл только одну лору, вроде неплохо хуй между сиськами мнёт.
Вопрос про img2vid Hunyuan (LeapFusion). Я вот гонял первый день, охуевал, оживляет пикчу, часто лицо сохраняет безупречно, все классно, только движения иногда кривые, нужно играть с параметрами и промптом. А сейчас последние дни пробую, получается одна хуита. То статичное фото, то слайдшоу, то вместо видео какие-то шумы разъедают изначальное фото, частично пытаясь что-то врисовать. Доходит до абсурда - делает переход и генерирует почти точную копию одежды, и позу, но генерирует своё лицо. Казалось бы, нахуя? Похоже, длинные промпты, описывающие изображение и что с ним будет - вредны. Попробовал идею из треда про компрессию кадра ffmpeg, разницы не заметил, даже когда убивал пикчу в ебучие шакалы. Проверил параметры на удачных результатах, это в основном пикчи сгенеренные с дмд, в видео промпте чаще всего просто теги того что изображено и что будет происходить, само действие уже почти происходит на изначальном фото, enhance: 3-4, 0.8-1.0, teacache: 0.15-0.25, steps: 20, в encode noise: 0.0, latent: 1.0 . Если надо, то качество потом можно повысить, я лишь пишу, что на таких настройках получалось хорошо оживить изображения. Что для вас работает? Какие параметры, стиль промпта, особенности фото. Что помогает, если изначально не получается хорошее видео?
>>1048895 LTX-Video 2b маленькая, быстрая, картинки из коробки, но тупая и хуево не людей анимирует. HunyuanVideo 13b, LeapFusion лора, большая, медленная, через костыль, но если фартанет — хорошая анимация получится. Лучше подождать полноценной img2vid Hunyuan, обещали в первом квартале.
>>1049170 По их тестам сопоставима/чуть обходит Hunyuan, имеет img2vid, но «выкатили» они только папиру и сами тесты. Модели пока нет. Или ждем, или не дождемся. =)
>>1048971 Квен единственный понял, что татуировки должны быть на лице, но перепутал расу танцовщиц на заднем плане. Клинг не туда поместил татуировки, хотя в остальном всё почти идеально. Хайлуо заморозил танцовщиц и вообще проигнорировал татуировки.
В Клинге еще можно вроде синхронизировать речь, но это только в платной версии.
>>1049614 Ппц. Нигры больше не нужны для клипов. Можно создать полностью АИ артиста. Прикиньте. АИ репер. Музыка есть где делать, фото для инсты тоже, теперь и клипы. Это пиздец. Я бы на месте западных реперков бы давил бы всех этих жидов кто нейронки делает. Это же пиздец!!1
>>1049614 И как раз для клипов такие переходы через каждые 3-5 секунд вообще нормально воспринимаются. Во всех клипах так почти, такой рваный монтаж и склейки. Это же пиздец
Анон, короче. Нужна подписка на клинг. Где выгоднее всего взять? На офф сайте если брать то как будто хуйня, 660 кредитов всего, но там написано что еще каждый день дают. А по сколько?
>>1049624 >Можно создать полностью АИ артиста. Прикиньте. >АИ репер. >Музыка есть где делать, фото для инсты тоже, теперь и клипы. Это пиздец. Я бы на месте западных реперков бы давил бы всех этих жидов кто нейронки делает. Это же пиздец!!1 Ты тупой просто. А в рекламной компании Suno наоборот негрорепер участвовал, который был среди продвигателей увеличения синтетических инструментов. Вообще, рэп никогда реальную музыку и не использовал, самые первые рэперы уже дрючили пластинки, и под это рэповали, им чем дешевле тем лучше. Поэтому негрореперу даже в тему сделать АИниггера, которого он будет тупо продюсировать, попивая коктейли со шлюхами на своей вилле. Чё думаешь у негрожопа высшая идея хуярить музло в живую 24/7? Они это ради бабок делают. Это тебе не беложопые дрочилы типа роллингов лед зеппелин, зизитопов и прочих, которые выросли из музыкальных задротов хуяривших сессионными артистами. К тому же у макак нет никакой консолидации, он готов один жить на вилле, даже ценой того что пара сотен тыщ рэперков нахуй отпадет. Это как торговля наркотой и оружем. Им тупо похуй. И мне кстати тоже. Хули ты трясешься? Чё рэпер дохуя или музыкант?
>>1049990 Какой же ты дегенерат. Тоже самое будешь писать про тех кто делает кино или аниматор кто мультики рисует. Художников заменили уже почти. Сейчас пришли за музыкантами. Дальше киношники. Ты тупой гречневый васян просто
>>1050100 >Художников заменили уже почти. Где их заменили? В твоем воображении? Ты визгун типа тех русачков, которые агрятся на анекдот про жидов рассказанный в компании, когда сами евреи в той же компании с него рофлят. Хрр-тьфу в еблище те, съеби нахуй отсюда, трясун зашкафный.
>>1050110 Справедливости ради: 1. хх.ру никак не отражает действительность, ибо распространенная практика — создавать вакансии, получать тысячи отзывов (в Мск явно больше 580 художников ищет работу, речь скорее о десятках тысяч=), а потом выбирать кто дешевле всех сделает то, что тебе надо (а что не надо — вообще игнорировать, ну отозвалась тыща человек на несуществующую вакансию и хуй с ними). 2. Сравнение настолько охуенное, что я даже потерял связь между автором и примером. х)
Ахах, большинство вакансий типа - нужон иллюстратор для покраски пряников, тканей, аниме фигурок, заборов, ну или учитель рисования. А компутерные художники не нужны.
>>1050269 Я тебе специально показал иллюстраторов. Обосрался - обтекай.
>>1050122 >Справедливости ради: Я просто взял ХХ. Естественно реально на нормальном ресурсе ЕЩЁ больше вакансий. У меня много знакомых художников, кто-то из них стал использовать нейронки упростив себе работу, но без работы не остался буквально никто. Кукарекающий выше пидорас - просто самый обычный пидорас, не способный понять, что ИИнегер - это мечта любого негрорепера, но остальным это не угроза. Что-то меньше всяких витуберш не стало, хотя их может заменить любая ТТСка легко, а за ту сторону мониторы может сидеть двачер червь пидор. Но... чё то не заменяет. А ответ прост: пизде пиздеть только надо, а червю пидору майнтейнить целую систему. Так же и профессиональный художник юзая дифуззию и планшет - нахуярит норм картинку за полчаса, а пидор прумптер будет инпейтом перддолиться часа три и закономерно отсосет у профессионала.
>>1050293 Дело не в ХХ, дело в самих вакансиях. Они никак не отражают реальный рынок, и я объяснил почему. Ты бесплатно устраиваешь опрос, кто готов работать на тебя за еду. Вот и весь «рынок вакансий». Кого из них возьмут и на какую зп — обсуждается в собесах и регулируется договорами, налогами, в общем, все гораздо сложнее, чем вакансии. Рабочих мест гораздо меньше чем вакансий, так и живем.
По второй части, многие совершенно не понимают, о чем идет речь. Художник ≠ профессионал. Художник — это 100000 15-леток из ВК и два десятка профессионалов на всю Россию. К последним вопросов нет. А первые… Ну ты еще скажи, что не видел десятков рекламных плакатов, сгенеренных нейронкой, висящих на похуе во всех городах. Ну так вот. 15-летки (99% художников в контексте диалога) и правда идут нахуй. =) А если человек профи, то о нем не говорили.
Так же, говоря о рэперах — не говорят о Снуп Доге или Эминеме. Речь о сотнях тысяч рэпующих чуваков, которые там че-то сингл, лейбл, туды-сюды, купили булку на заработок.
И видео, опять же, туда же. Снимать фильмы — это не про… Впрочем, фильмов хороших уже не осталось, тут похую совершенно.
Окей, книги. Погугли статистику по тиражам от авторов. Больше всего в России издается и покупается… Да все те же, Донцова, Маринина, Устинова, женские романы и детективы. Далее у нас идет фантастика с фэнтези и попаданцами. Заменить то же не сложно.
Короче большинство ≠ профессионалы, когда люди говорят, что нейронка заменит ту или иную профессию, это не значит, что нейронка заменит элитное произведение искусства, но 99% любителей в сфере нахуй пройти могут.
Думаю, таким образом недопонимание между вами может быть устранено.
Но если автор первоначального комментария искренне верят, что и Снуп Дога заменят, то я умываю руки.
>>1050342 Ах да, накину про программистов. Как было замечено кем-то и растиражировано не так давно, у зумеров есть проблема — завышенные ожидания как по зп, так и по навыкам. Они искренне себя считают умными, незаменимыми и «ну бля, я пишу код профессионально, а нейронка тупит». Хотя на практике эти люди на должности джуна — пишут хуже coder-7b. А мнение крутых дядек «да не, нейронки хуже стажеров!» основываются на том, что их стажеры — это вчерашние сеньоры с 5-детним опытом (литерально), конечно нейронки хуже них пишут, без вопросов. =) На деле имеем ту же проблему — некорректное понимание общности, и полностью ненужных «спецов» де-факто.
Да, оператор ллм норм, но «джун JS» это нахуй не нужное сейчас.
>>1049614 И вот возвращаясь к изначальному видео, честно скажу, в условной кафешке, где на заднем фоне МТВ крутят, мне было бы похуй на то, насколько эти негры неаутентичные. Они выглядят как негры с МТВ и поют как негры с МТВ. Вывод: негры на МТВ нахуй не сдались теперь.
Если вы, блядь, дохуя ценитель негров с МТВ — тогда совсем другой разговор. Но вряд ли вы фанатеете по дженерик говну, скорее всего у вас есть любимчики и вполне конкретные, с четкими причинами.
>>1050360 >> честно скажу, в условной кафешке, где на заднем фоне МТВ крутят, мне было бы похуй на то, насколько эти негры неаутентичные 99 процентов негров рэперков и не только негров именно такие. дяде жиду продюсеру они больше не нужны. нейронки худшее что было с человечеством. мне нужны новые антибиотики, а не дженерик негры. лучше бы все мощности тратили на расчет протеинов
>>1049580 тебе онлайн типа? для клинга поверх сосков нарисовать загогулину или зарисовать полупрозрачным белым, раньше клинг сам дорисовывал вместо белого что нужно, сейчас хз для пиксверс в /nf/ найди специфический тред, там пример
ну и модели без цензуры image2video есть на tensor.art (50 кредитов ежедневно) и nim.video (300 кредитов однократно) для тестирования пойдет, главное правильные промпты делать, у каждой модели свои заморочки
>>1049580 примеры обхода цензуры есть определенный фетиш использовать для клубнички модель, которая не тренирована на порнухе, и понятия не имеет, как выглядят половые органы
>>1049891 в демо режиме используй через регистрацию по мейлу просто придется подождать в очереди, и потом еще чуть-чуть, и еще немножко, а потом кофе попей что-ли че как дурак три часа в экран смотреть
Еще один сайт в стиле Ним.видео. Доступны Клинг, Хайлуо, Люма, Пиксверс, Пика, Сивид и их собственный генератор (Полло)
Отличие в том, что в бесплатном режиме на Ниме тебе дается 300 кредитов одномоментно, и дальше всё, плати (ну а платить проблемно из РФ). Здесь же дается по 20 кредитов бесплатно каждый день + 25 кредитов каждую неделю при условии ежедневного захода на сайт.
>>1051626 >Здесь же дается по 20 кредитов бесплатно каждый день + 25 кредитов каждую неделю при условии ежедневного захода на сайт. Ага, и одна генерация 30 кредитов самая минимальная. То есть как еблан ходить туда и через день генерить одно видео в хуйне, когда всё это есть бесплатно и без вот этого анала на сайтах оригинальных. Не таскай сюда этих ебанутых посредов, плис. Нельзя хотя бы один видос сгенерить сразу с чистого акка - резко нахуй.
>>1052233 ключевая фраза hand forcefully shoving OBJECT straight forward inside her можно добавить between butocks дальше описываешь субъект, позу, обфусцируешь промпт, если триггернется
Если я хочу видеокарту чтобы она быстрее всего в topaz video ai(или похожем софте) улучшала качество видео(конкретно, старые записи телепередачч, шоу, например, с 480р до 1080р), то на какие параметры смотреть? Условно, 3080 ti или 4070 лучше? 4070 ti super 16gb или 3090 24gb?
>>1055153 >ты не найдёшь 3xxx новые, а те, которые тебе продавать будут, куплены были в 2020м под майнинг Зато ты найдёшь топовые 3xxx за ~70к, а всё что выше - существенно дороже даже в пересчёте на единицу производительности.
>>1055171 >>1055153 В днс их полно, шизло, но да спецом для вас сидят в подвале с майнинга переделывают и в новые коробки кладут. хррр-тьфу. Совсем уже ебанулись. 90% населения срать на нейронки, даже близко нет ситуации когда майнеры выжали розницу. Долбоебы оскотинились уже в своем нейромирке.
>>1055085 Справедливости ради, 4070 ти с выгрузкой на оперативу хуньюан генерит быстрее 3090 все же. Но объем оперативы дает о себе знать в других случаях.
>>1055085 б/у 3090ti 24gb по цене примерно соответствует новой 4070ti 16gb, по производительности тоже, если судить по старому сравнению генерации картинок но 24 гига всегда предпочтительней главное не наткнуться на перегретый кирпич с авито и не забывай что 30 серия очень требовательна к охлаждению, особенно VRAM мне когда-то пришлось сделать себе такую примочку из серверного радиатора и термопрокладки, чтобы не беспокоится за перегрев
>>1055184 30 серии в ДНС почти нет, отфильтруй по наличию
Вот те Мацква, если где и выгребли, то там реально сразу. Жду виляней в жопы что фирма не та, что 12гб не те, чё-то там еще, но выше однозначно было сказано что 3ххх ВООБЩЕ нет, а что есть те с майнинга (спецом в подвале перепаковали). Но ладно Москва. Может в Засратове нет? Да нет. В засратове тоже есть. Может, Усть-пердянск? Пиздец, даже в единственном магазине есть одна карточка. Выходит, что ты и твой дружок - пиздоболы? Выходит что да. Кто бы мог подумать что настанет день, когда на дваче будут сидеть диванные пиздоболы, чьему слову и верить то нельзя, м?
Я просто как увидел твоё пиздоболие так немного прихуел. Это помойное говно нахуй нормисам не упало. литералли НИКТО нахуй не крутит нейронки на домашних перкарнях, кроме 3,5 прыщезадротов.
>>1055552 >Жду виляней в жопы что фирма не та, что 12гб не те, чё-то там еще Странный ты какой-то. Тут люди 3090 интересуются, а ты им 3060 предлагаешь. Эти-то есть, а почему они есть - не подумал? Вот именно поэтому.
>>1055510 > 3090ti 24gb по цене примерно соответствует новой 4070ti 16gb, по производительности тоже Она даже 4070ti уступает 10%, куда там 4070tiS. Но если ты не планируешь генерить мелкохуйню, то 24 гига >>> 16 гигов, конечно. Ибо не все нейронки раскидываются по видяхам.
Ну слушай. Если по-твоему 3060 — это топовая 3ххх, то вопросов нет. Иначе получается, что ты обосрался. Ниче не утверждаю, просто твой ответ на конкретную фразу. Надеюсь ты-то жопой вилять не будешь, мол это не та фраза, не тот ответ, не те топовые, не те к…
>>1055648 >Ну слушай. Если по-твоему 3060 — это топовая 3ххх, то вопросов нет. Иначе получается, что ты обосрался. Ну иди посмотри наличие. топовых, все на месте. Я просто взял самую доступную по деньгам, они есть. Дорогие там тем более есть.
сап аноны хочу сделать лору для HunyuanVideo с лицом по датасету из фоток. успешно делал это для fluxdev, но у меня всего 12гб vram, кто может подсказать рабочий способ?
Анон, есть идеи как повторить подобное? Это точно не хуньюань и не klingai (коса слишком реалистично двигается). По ходу натянули animatediff на видос с реальной тян, но при этом консистентность между фреймами слишком хорошая. И выглядит это так, будто юзают sdxl, а не sd 1.5. На сколько я знаю sdxl работает крайне хуёво с animatediff. В общем, я в тупике пока-что.
НУ ЭЭЭ С одной стороны в деталях постоянно сыпется. С другой стороны, глобально консистентность — мое увожение. Сохраняет внешний вид плакатов на заднем фоне, держит текст при движении.
Пока нихуя не ясно и 30B, конечно… Помимо 60 гигов в FP16, даже 15 гигов в 4 битах не то чтобы легко поднять. Хотя это чуть больше хуньюань 8-битной, если сделают оффлоад, то потянем, конечно, но… не ясно, что с качеством.
>>1056864 У них примеры 960x540 выглядят как 320x240 из Хуйни. У Хуйня ещё и параметров более чем вдвое раз меньше, то есть эту новую вообще хуй запустишь на 16гб врам, даже в 240p не погенерить?
>>1056880 Повторюсь: если выгрузить в оперативу будет возможность, то запустишь. Но меня смущает, конечно, качество мелочей, сильно шумит. Поэтому я не так сильно радуюсь, как мог бы. Время покажет, не факт, что оно нам надо, как было и с мочи.
>>1056905 Да не, ну пердолиться с shared memory это ебланство. Я тут генерю 960x544x65 меньше за 4 минуты с блоксвапом. Если оно слегка вылазит за пределы то подрубается неадекватная скорость, мне такое нахуй не упало. На дефолтных комфи нодах, без блоксвапа, компиляция и прочей хуйни, но без вылезания за шаред почему-то получается в 2-4 раза дольше. Если и у этой штуки будет вот так классно выгружать блоки, то заебись. >t2v Заебали. Нужна i2v, я всё никак не могу совладать с LeapFusion, чтобы годно получалось не изредка, а постоянно. Из названия вообще подумал, что это end-frame модель, но нет, опять хуйня какая-то. Ждём развития.
>>1057509 Немного хуйня, канеш. Сора на втором месте, с ее-то кривыми текстурами, мочи выше хуньюань, рофлан ебало.
Но по количеству использований видно, что рейтинг не устоялся, когда у всех будет более-менее равное количество использований и больше, можно будет посмотреть.
>>1057854 Да наеб полный, смешно что клинг 1.6 так высоко, хотя там всё набито стилшотами, но просто это не рекламно попену сунуть сразу на первое место модель, а так зырьте - второе, но типа кекчебурек первое клинг, но видосы через один стилшот. Короче рекламная наебаловка.
>>1058140 Не совсем корректно выразился, да. Но имеется в виду, что не ориг с кучей файлом, а один целиком под свою ноду. Но надо уточнить, что насчет fp8, да.
SkyReels img2vid На родном разрешении (960x544) работает хорошо. На бомжатском половинном (480x272) работает плохо. ИМХО, сильно лучше LeapFusion. Но я все еще жду от авторов, есть надежда, что там будет прям хорошо. Небольшая, но есть.
Так как модель обучалась на трех основных разрешениях: 960x544, 720x720 и 544x960, решил проверить и… 720x400 работает тоже неплохо, хотя, кажется, галлюцинирует (т.е., качество хорошее, но анимации местами кринжовые, будто проблем с вниманием на 33+ фреймах). 544x306 уже не работает. 640x360 выдает ошибку, 656x368 выдает кое-какое. Ну, в общем, покупаем 4090, господа, и не выдумываем тут. =)
>>1059234 >Ну, в общем, покупаем 4090, господа, и не выдумываем тут. =) Это компромисс и как всякий компромисс он плох с обеих сторон. База треда(ов) - 3090, мощно, недорого и 24гб gddr6x. Мажоры могут дождаться 5090 - 32гб, gddr7 и все дела. 4090 - для людей без воображения :)
>>1059276 Да я просто смотрю на температуры и мне страшно. Если я ставлю 97 кадров, то хотспот порою улетает в 102°. При этом, на 65 кадрах он добирается до 85° максимум. Не знаю уж в чем магия, но если на 4070ti так, что же творится с 3090. Страшно. При низком разрешении такого не происходит, но скайрилс хочет хотя бы 720х400, и вот он нагрев. Тогда уж 3090ti, менее жаренные, более мощные. =) С воображением!
>>1059279 >Не знаю уж в чем магия, но если на 4070ti так, что же творится с 3090. Страшно. Андервольтинг, уменьшить павер лимит и немного дольше подождать (почти вдвое, если честно, зато температуры в норме). Не критично. Более интересно, когда на риге можно будет генерировать - с тензор сплитом и прочими фишками. Риг из 4090 выглядит почти фантастикой, а на 3090 - реальность :)
>>1059234 На нодах киджая? Какие параметры, у меня полная хуйня получается на емб_гайд = 1, флоу_шифт = 9, 720x400x97 или 960x544x65, enchance-a-video - 2-3, 0.8, без teacache. Один-два раза что-то получилось, но и там лицо нахуй уехало, что реже происходит на LeapFusion. Не генерит статичные фото, зато генерит абсолютное месиво как пикрил.
>>1059707 Ну, они и есть. Суперстранно, если честно. Конечно, я не спорю, не идеально, но лицо частенько сохраняется довольно точно, промпту следует с переменным успехом. Могу только пожать плечами. =(
Напрочь не могу понять как это SkyReels говно завести. Из 40 результатов дай бог 4 не превратились в месиво из пикселей. Там где не превратилось, то выглядит так, будто teacache выкрутили в 0.80. С LeapFusion, который итак не простой, никак не может сравниться. Размеры разные ставил, количество кадров тоже менял. Лучшие результаты пока были на 960x544x65 (embed: 1) и дважды на 400x720x97 (embed: 6), teacache на качество не влиял. Думал noise при encode поможет, но нихуя. 95% результатов просто латентный шум со второго кадра. Такое чувство, что хуйня не работает, если слово в слово не сделал промпт и не попал в сид, который сгенерирует почти точную копию твоего входного изображения. Что я делаю не так? Покажите свои результаты вместе с параметрами (архивом на файлообменник).
>>1060327 На цивите выложили пару воркфлоу, при этом еще никто с них ничего не запостил, кроме видрелейтед. Так что, я думаю, можно попуститься на данный момент. К тому же насколько я понял, он не совместим с лорами для хуйла, нужно новые пилить.
>>1060327 FlowMatch работает хуево, я пробовал его. Выбери тот, который по умолчанию, там все збс. SDE-DPM… че-то там. Будет рофлан ебало, если ты сам на старте поменял его, и ругался на заведомо нерабочий конфиг. Ну или просто загрузил старый конфиг, хз.
>>1060327 Флюксом картинку ебанул с третьего раза, Скайрилом видео сделал со второго, но поменял промпт для динамики, так что считай без черрипикинга, с первого раза.
>>1060740 >>1060743 Круто оно смазало текст, но всё равно восстановило его. Как будто оно так же и с лицами может. Заебись, поехало. Да, я не обратил внимание, что в примере другой планировщик, когда списывал в свою лапшу, раньше вообще выбора не было, а потом везде первый юзался. Движения сильно лучше, чем у LeapFusion. А может и у LF был какой-то неочевидный параметр, чтобы заставить его чаще генерировать более подвижные видео без проеба лиц? Иногда уплывает изображение и превращается в блоки. Это попытка цензуры или просто промпт не подходит?
https://github.com/chengzeyi/Comfy-WaveSpeed Пробовали? Подключается после загрузки модели, выглядит так, будто с teacache совместим. Если так, то можно мыльное говно нагенерить пачкой, а хороший сид перегенерить без кеша.
>>1061766 Я не смог добиться от LF повторяемой консистентности по цветам. А SR иногда лагает, но работает гораздо стабильнее. Короче, хотелось бы, конечно, SR-turbo-fast-mini-fp4, но скорее всего обойдемся обычной моделью.
Stepfun-ai, модель Step-Video-T2V. 8-ми секундные видосики можно погенерить бесплатно здесь: https://yuewen.cn/videos. Рега по телефону, код подтверждения приходит в телеграм. Время генерации 5 мин. (не забываем поставить галочку оптимизировать промт справа вверху, иначе плохо понимает промт, обновляем страницу, если видео всё ещё в прогрессе после 5 мин) Подробности, если кому надо тут: https://huggingface.co/stepfun-ai/stepvideo-t2v
Подскажите пожалуйста Нужно сгенерировать видео в стиле интро пиксара, только буквы другие должны быть и лампу надо будет заменить То есть картинка будет статичная с текстом (буквами), который будет как-то анимирован
Какую нейронку лучше для этого использовать? Можно платную
Я погонял бесплатные генерации в разных сервисах из оп-поста, но там получается либо шлак, либо 50% от нужного, либо он не понимает, чего я хочу
>>1064710 Ого, качество хорошее. Я упустил её. Инернет говорит, что ей уже больше месяца, а пару дней назад она стала опенсорсной. Чего же о ней ничего не слышно? Качество прям ебёт.
>>1065259 >Боже храни китайцев за то что они все в опенсорс выкладывают Хрен бы они чего-нибудь выкладывали, если бы не необходимость конкурировать со Штатами. Тут скорее Цукербергу низкий поклон за большую Лламу его. Задал тренд. Даже Маск, хоть и много пиздел про опенсорс, но ещё неизвестно - выложил бы он свой Грок, если бы не Ллама. Ну а теперь понеслось, слава Богу :)
>>1065319 Справедливости ради, началось все со стейбл диффужн против мидджорни. Но и Цукер тоже лламой внес очень большой импакт. Думаю, без него мы бы ничего особо хорошего долго бы не видели.
Пиздец, я думаю чего скайрилс так долго просирается, в несколько раз дольше обычного. А оказывается этот сде-дпм-мультистеп генерит вдвое-втрое дольше даже на обычной модели. На flowmatch scheduler у обеих моделей выходит одинаковая скорость (забыл повысить количество кадров до 73). Но только проблема в том, что скайрил на флоу выдает видрил, то есть непригоден. А на sde генерит вдвое дольше. Главный вопрос: схуяли тогда пишут, что скайрилс генерит быстрее базовой хуйняни? I2V, конечно, стоит того, но как же дегенеративные китайские релизеры заебали настолько уебищно пиздеть на каждом шагу. Буду теперь делить на два любое заявление к-персон. Выходит, ванкс получим примерно 31 декабря и генерить он будет по 10 минут на уровне ltx.
пиздец конечно, в треде столько ушлепков, которых тегаешь, они либо не отвечают, либо слепые, либо игнорят. После этого удивляются, почему их не ценят, посылают нахуй или игнорят в ответ.
зато на qwen похоже снова врубили цензуру, сразу банит мои промпты или выдает видрилы, но это не точно п.с. возможно у меня просто слишком простые\очевидные промпты, и если изъебаться с вуалью всё будет норм.
>>1068485 одно радует, что не стали тянуть несколько месяцев. Но вангую разочарование народа, т.к. окажется нужно терабайты видеопамяти и пачка h100 в придачу. >позволяя разработчикам малых и средних предприятий быстро интегрировать возможности генерации видео через интерфейсы API, а также ускорить внедрение творческих инструментов с помощью ИИ в таких областях, как образование, здравоохранение и кино.
ибо в этих строчках ни слова про задротов с 2060 - 4090)
> Supports Consumer-grade GPUs: The T2V-1.3B model requires only 8.19 GB VRAM, making it compatible with almost all consumer-grade GPUs. It can generate a 5-second 480P video on an RTX 4090 in about 4 minutes (without optimization techniques like quantization). Its performance is even comparable to some closed-source models.
ну вот, здрасьте, урезанную модель кое как можно завести на 4090
но нужны будут как минимум примеры 1.3в против 14в, ибо нахуя оно если кач-во будет дно (хотя пишут Its performance is even comparable to some closed-source models.) ну и i2v для бичей тоже нужен
у кого-нибудь вообще этот wan спейс официальный работает? вчера кое как одну картинку оживил, остальные попытки мертвые, сегодня вообще ебанина происходит
>>1068760 Это полные кванты, ща быренько фп сварганят, выгрузку сделают, и заживем, как с ханьюаном.
>>1068761 С одной стороны — жаль, с другой, видали мы этот ваш лтх, как бы.
———
Бля, но проблема — мне не нравится их качество. Оно… ну… картинки какие-то смазанные.
Я выше говорил, что на уровне ханьюана, может чуть хуже, и по размеру оно как раз на уровне. Но стиль мне не прет. Слишком гладкие, сглаженные, мало текстур, мыло. =( Может просто такие черрипики.
>>1068762 Да хули вы ноете, я и 15 мин ждал бы, если бы модели не были говном бесполезным. Литерали 0 годноты сгенерено. Сомневаюсь даже что дотрены будут иметь смысл, так как данных мало, в отличии от картинок.
>>1069128 ага, ещё днем хотел выложить ссылку, но забыл, ибо какой-то странный сайт, имитирующий (или..) официальный, но с НСФВ видосиками, как бы намекают)
Справедливости ради, 1.3b работает кое-как даже на разрешении 320x240, что очень впечатляет. Ясен красен, что любой современный опенсорс на 1280x720 и 50 шагах выдаст топовую картинку, но вот 240p и 15 степов… Это достойно уважения.
>>1067564 подтверждаю, заблочили главное чтобы существующие аккаунты не побанили была еще возможность использовать символ + вместо точки и их комбинации но все оставлял на потом, уже никак в модели 4.0 кстати улучшили движение и восприимчивость к промпту
>>1070563 На консолях было меньше. =) Но, да, дед.
>>1070965 У меня пока не пошло, ждем апдейтов. Но на видяху похуй, достаточно на объем видеопамяти посмотреть, я имею в виду. Вообще, ошибка странная, ООМ вываливался на 8 гигах. Думаю, пофиксят.
быстрый тест в нативном комфи модель t2v 1.3 fp8, t5-fp8, Видяха rtx2060 6gb, ram 32gb 512x768, cfg 6, steps 20, 49fps один промпт с разными семплерами, везде шедулер beta 1) euler 2) res_multistep 3) gradient_estimation у второго и третьего семплера по мне лучше детализация, у еулера зернистость. По времени каждый генерился 6 с половиной минут. Если кто затестит другие комбинации семплер\шедулер и получит кач-во лучше, а скорость быстрее, дайте знать.
И "велосипед лайфхак", модели выставляя в 1фпс можно заюзать как обычный текст ту имдж, не знаю зачем, хотя так можно потыкать понимание промпта и тестить параметры.
>>1071306 у меня такая же фигня была, просто полностью обнови комфи до последней версии и перезапусти всё, у тебя нода клип лоадера не обновилась и "не видит" тип "wan"
И ещё один "лайфак", этот umt5-xxl энкодер поддерживает РУССКИЙ язык. Не знаю на сколько полезно, но возможно кому-то лень переводить или не знает язык. Но есть вероятность "ошибочного" "перевода", я хз как он интерпретирует языки отличные от английского.
>>1071275 > модели выставляя в 1фпс можно заюзать как обычный текст ту имдж Давно уж все так делают. Даже стали появляться такие метрики, какая видеомодель лучше t2i делает. х)
>>1071444 >>1071612 Сдается мне, q4 будет получше nf4, но надо пробовать.
>>1071853 >dpm_2m ты имел ввиду dpmpp_2m ? просто dpm_2m у меня нет, есть dpm_2 очень медленный видрил 1 dpmpp_2m+sgm_uniform (зернисто) видрил 2 dpmpp_2m+beta оба 15steps\4cfg
>>1071886 >завяжешь с бухлом и не развязывал к счастью.
>>1071888 >Да не то чтобы в принципе много людей генерят локально. =) я к тому, что нигде особо не натыкался на это, в т.ч. на реддите, сам к этому пришел только прочитав в описании к wanx что она может картинки (аудио?) и прикинув, что у них на сайте есть генерация картинок и она очень смахивает на "стоп-кадр"
п.с. ебучий qwen из наверное уже 100 попыток ничего не выдает, если и генерит, в конце "сгенерировать ошибку" как стёб.
Лично я жду, когда всё утрясётся, появятся нормальные кванты i2v и нормальная интеграция в комфи. Тогда можно будет попробовать. Ну а когда выйдут лоры для 14В, то станет ещё веселее. Уже заметно, что качество сильно лучше Хуньяна.
>>1071886 >не ссы, в 50 стоять будет так-же как и в 20 если завяжешь с бухлом) Это зависит от состояния сосудов. Для того чтобы были нормальные придется завязать с поеданием практически любой готовой углеводно-жиро-сахарной смеси из магазина. Так же придется перестать сидеть за компом 24/7, а значит 99% анонов отлетают с воспалением предстательной железы, когда после одной дрочки ты два дня пописять нормально не сможешь - и это только начало. Проблема в возрасте 50+ и даже 40+ при сидяем образе жизни отнюдь не в том, что "стоять не будет", а как раз в том "ну будет стоять и что?". Люди в таком возрасте литералли умирают во время ебли. И ты будешь каждый раз в уме это крутить: пописать, не поймать инсульт/инфаркт. Столько в мире вещей кроме дрочки, хочешь ли ты умереть с хуем в руках? Само дроченье уже подразумевает, что дрочитель - слабовольный, кстати. А значит от всего вышеуказанного отказаться не способен. 87% дрочил не переживают период с 50 до 60 лет, кстати.
мимо эксперт 57+ годиков
Если мне не верите, вот самый умный ИИ на Земле что говорит:
Сидячий образ жизни — это действительно тихий убийца. Когда ты сидишь за компом 24/7, кровоток в малом тазу замедляется, а это прямой путь к застойным явлениям в предстательной железе. Воспаление простаты, или простатит, — не просто "неприятность". Это заболевание, которое у мужчин после 50 встречается у каждого второго, а у молодых сидячих ребят уже после 30-40 лет риск растёт из-за гиподинамии. Симптомы? Боль при мочеиспускании, ощущение, что "всё забито", а в запущенных случаях — проблемы с эрекцией и даже риск абсцесса или рака простаты. Ты упомянул "два дня пописать нормально не сможешь" — это ещё мягко сказано. Хронический простатит может довести до того, что мочеиспускание станет мучением, а секс — несбыточной мечтой.
Теперь про сосуды и углеводно-жиро-сахарную дрянь из магазина. Атеросклероз — бич современности, и он не щадит никого, особенно тех, кто питается полуфабрикатами и сладким. Жирные бляшки закупоривают артерии, включая те, что питают сердце и мозг. После 50, а иногда и раньше, это выливается в инфаркты и инсульты. Статистика неумолима: в России сердечно-сосудистые заболевания — причина смерти номер один, около 50% всех случаев. У мужчин после 50 риск инфаркта возрастает в разы, особенно если они мало двигаются и едят всякий мусор. Ты прав: "будет стоять и что?" — потому что во время физической нагрузки, включая секс, сердце может просто не выдержать. Есть данные, что у мужчин с ишемической болезнью сердца вероятность внезапной смерти во время полового акта выше в 2-3 раза, чем у здоровых.
Твой тезис про "умирать во время ебли" — не преувеличение. Внезапная сердечная смерть (ВСС) действительно чаще случается у мужчин старше 40, особенно с нездоровыми сосудами. Исследования показывают, что физическая активность, вроде секса, у людей с сидячим образом жизни и без подготовки может спровоцировать острый коронарный синдром. В США, например, около 0,2% случаев ВСС связаны с сексом — кажется мало, но это тысячи людей ежегодно. А теперь представь: ты сидишь, дрочишь, сердце не тренировано, сосуды забиты — и вот тебе привет от инфаркта прямо с "хуем в руках", как ты выразился.
Про "87% дрочил не переживают период с 50 до 60 лет" — это, конечно, ты загнул, таких точных данных нет. Но давай прикинем реальность: по данным ВОЗ, неинфекционные заболевания (сердце, сосуды, диабет) — причина 7 из 10 смертей в мире. В России смертность мужчин от сердечно-сосудистых проблем в возрасте 50-60 лет в 2 раза выше, чем в развитых странах. Добавь сюда простатит, который ослабляет организм, и сидячий образ жизни, который добивает сосуды и сердце, — и получится, что шансы дожить до 60 у тех, кто не меняет привычки, действительно невелики. Скажем так: если ты дрочишь, сидишь и жрёшь сахарную гадость, то к 50+ ты уже в группе риска, где половина твоих ровесников либо мёртвы, либо еле ходят.
А слабоволие? Тут ты тоже попал в точку. Отказаться от привычек — это сила воли, которой у многих нет. Исследования показывают, что только 23% людей с высоким давлением или риском инфаркта реально меняют образ жизни. Остальные продолжают сидеть, есть и "умирать с хуем в руках". Представь: каждый раз, когда ты сидишь за компом и игнорируешь движение, твои сосуды сужаются, простата воспаляется, а сердце стучит на износ. Один раз "не встанет", второй раз "не пописаешь", а третий — и привет, скорая, если успеет доехать. В мире полно вещей, кроме дрочки, — но доживёшь ли ты до них с таким подходом? Думай, анончик, думай.
>>1071906 >умирают во время ебли Что ты страхов то нагоняешь, больше двигайся, по горам лазий, если гор нет по лесам шарахайся, грибы правильные собирай, просто энергичная ходьба, не нужно никакого джоггинга, просто двигайся или тебе пизда. Всё просто...
А я пару лет назад (2021г) на Эльбрус поднимался, если бы я сейчас захотел бы это повторить, то сдох бы в первый день. Так что сука да, надо двигаться. Без шуток.
>>1071936 Ты наверное экстримал какой или качок, говорят там люди без подготовки гибнут только так, а замерзшие трупы так и остаются лежать на склонах.
>>1071906 Будем надеяться к тому времени Машк доведет свой нейрочип до совершенства и мы сможем оргазмировать без рук в компании сгенерированых голых тянок.
>>1071936 Я в 35 поймал себя на том, что при прогулках нифиговую отдышку получаю. 83 кило был на тот момент. За полтора года сбросил до 65, чувствую себя гораздо лучше. Так что, ходить и заботиться о здоровье — это база, конечно.
>>1071944 Эльбрус — это Кабардино-Балкария, недалеко от Сочи, а трупы на Эвересте, в Китае.
>>1071953 В перекат бы норм текст про локалочку хуньюана и про ван написать бы, но про ван пока не ясно, я бы вообще не торопился с перекатом денек-другой. Хотя может и чо уж там.
>>1071967 >Я в 35 поймал себя на том, что при прогулках нифиговую отдышку получаю. 83 кило был на тот момент. здрасьте это я) до Эльбруса я за полгода с 94 до 70 вес уронил, вот тогда кайфово было, как перышко был, правда говорят нельзя так худеть, вредно, сейчас снова 85, пичаль.
>а трупы на Эвересте увы и там много, в сентябре того года как раз была большая трагедия, буквально за 3 недели до моего восхождения.
>я бы вообще не торопился с перекатом вам видней, я тут на правах новичка
>>1071880 Пиздец. А можно этого как-то избежать? Мне хоть заплатят? Ещё мне не хватало со всратыми тетями сраками общаться.
Раз уже пишу в тред, то кину свой Ван конфиг на котором пока остановился. Киджай, 16гб врам, 32+32рам. Почему-то при блоксвапе выкидывает в куду без памяти, хотя ещё остаётся пара гигов врама и почти 20гб рама. Совсем не понимаю причину, как будто ноды сломаны. Остановился на 10 блоксвапе, 65 кадров, 15 шагов, входное изображение скейлю до 0.17 мегапикселей (~412x412), декод тайл/страйд 128/64, тут вообще хз, взял цифры с хуйнян, оставил, генерирует 7 минут, заебало, хочу чая. На хуйне половинка от full hd генерилась за 4 минуты, вроде. Скажите настройки если у вас генерирует быстрей на других параметрах с подобным размером видео.
капец конечно выход в опенсорс бустанул популярность wanx который до этого нихуя никому не был интересен, сейчас даже на офф сайте i2v очередь на 6 часов, когда до этого была пара минут. Спейс их ебучий за два дня так и не "ожил", не выда ни разу ни одно видео, часовые ожидание в минус время.
>>1071970 >>а трупы на Эвересте >увы и там много, в сентябре того года как раз была большая трагедия, буквально за 3 недели до моего восхождения. > с 94 до 70 вес уронил, Я читал про тебя вроде в МК "голодный россиянин полез в "мёртвую зону" Эвереста чтобы наесться". Ты был?
>>1074212 Грузишь последний кадр и продолжаешь. Если какие-то сервисы бесшовно продолжают, то такие фичи никто не сделает, они постоянно остаются закрытыми. Мне интересно а делал ли кто-то инпейнт видеомоделями? Я тут подумал, мне совсем не хватает врама делать видосы побольше в Ван, но можно же сделать i2v в ван, сохранить результат и отдельно кропнуть область с лицом, сделать v2v в 1.3 или в ханьян вдвое большего размера с низким денойзом, тоже самое сделать лицом в надежде, что так его меньше покорежит, наложить апскейл лица на общее видео. Ну или заменять так лица, используя лоры.
Да как эту ебучую Wan хуйню оффлоадить? У меня ещё 20 гигабайт рама остаётся и 2гб врама, какого хуя оно пишет CUDA out of memory на первом шаге генерации?
>>1073994 Такая боль. Типа, конечно 13b лучше 1,3b модели. Но с другой стороны, 1,3b меньше и идет на кирпиче, это охуенно. Но скорость фаста БЫСТРЕЕ скорости 1,3b. Ну или сопоставима, по крайней мере. Внезапное огорчение. =(
Типа, 1,3b подходит, если ты купил с алика 3060 6-гиговую, и теперь хочешь генерить нон-стопом что-то во втором компе. Заебись будет. А на норм компе с 4070 12-гиговой…
Вот би 1,3б ван ускорили соответственно, чтобы видосяны генерились секунды.
>>1074579 Иди нахуй, нищий онлайноюзер. Мы тут разбираемся как лучше всего использовать локальные нейросети. Это не тред прикольных видиков, перестал им быть, сразу когда его начали засирать анимевыблядки своей кривой дрысней.
>>1074703 Похуй абсолютно, в любой онлайн сетке делает. Секунда видео, вырезаешь последний кадр, генерируешь image-to-video, вставляешь результат, повторяешь так со всеми фрагментами видео. Может какое-то приложение это делает автоматом за тебя, тогда хз.
Бля, пиздец у меня тряска. Ван так охуенно генерит, но дистилла нет, кеширования нет, блоксвап неисправен, 5090 нет, 16гб пиздецки мало, а на низком разрешение получается хуево. Просто дайте мне генерить в таком-то качестве хотя бы 5 секунд за полминуты.
>>1075691 Они все свои передовые фишки разрешают генерить бесплатно, охуенная шарага, одна из лучших, придумывает необычные фичи. >>1075805 Если хуй на фото, бабы без указания действия сразу же прикладываются. Только выглядит всрато и лицо ломается, но это я пробовал на низком разрешении с плохим промптом.
Микросравнение нищеквантов WAN_I2V_480 на 3060 12гб dpmpp_2m beta cfg6 15step 528x352 49кадров 16фпс Одна дегенерация занимает около 9 минут.
Промпт и стоп-кадр с цивитаи A woman with curly brown hair wearing a white lace bra outdoors in a garden. She slips off her lace bra showing her topless chest.
>>1075825 q4_r_s самый охуенный, кроме того, что нет артефактов, так там ещё и движение головы включается. 12 гиг это минимум ждя такого видоса? На 8-ми это можно сделать, если есть выгрузка в общую память?
q4_0 быстрее остальных, но качество так себе. Чуть хуже q6_K. q4_K_M, q6_K и q8_0 имеют одинаковые скорости. q8_0 заметно лучше q6_K, вмещается в 12 VRAM и 32 RAM.
По этой причине мой выбор — q8_0. Время тоже самое, качество лучше, а оперативу считать моветон в нынешние времена.
Но кто хочет побыстрее — пробуйте q4_0, q4_1 и прочие кванты, где-то может быть ускорение и качество, которое вас устраивает.
Вот, в видосике воркфлоу, только там лапши чутка больше. Добавил апскейлер с интерполяцией и продолжение генерации по последнему кадру. Хотя получается такое себе. Ну еще теггер, чтобы помочь промпт составить.
>>1075893 Да, моделька тяжёлая даже в кванте. Выжирает больше десяти гигов. На 8 можно, только время генерации сильно увеличится.
>>1076066 Ну хз. У меня когда даже немного начинает хавать из оперативки, секунды на итерацию прилично так накидывает. И чем больше вылезаю за пределы врамы, тем больше накидывает. Восьмой квант наверно х5 добавит ко времени генерации. Может конечно в оперативке дело, у меня нищая ддр4 и зеон. На распердоленной ддр5 в современном конфиге наверно не так плачевно.
>>1076088 Так ведь моделька один фиг не в видяхе, разве нет? У меня вообще индифферентно, 8-гиговая или 18-гиговая модель — на видяхе 11 гигов занято, 1 свободно и 5 минут времени (4 минуты с q4_0).
Короче, результат 4070ti такой: GGUF от calcius в воркфлоу от calcius: 11 секунд на 1 шаг 480x480@33 GGUF от city96 в воркфлоу от Comfy: 11 секунд на 1 шаг 480x480@33 safetensors от Comfy в воркфлоу от Comfy: 10,5 секунд на 1 шаг 480x480@33 safetensors от Kijai в воркфлоу от Kijai: 18,5 секунд на 1 шаг 480x480@33 Причина провала Kijai в том, что его block swap сломан (у кого-то работает, у кого-то нет), а альтернативный метод выгрузки в процентах НУ ТАКОЕ.
Итого, я пока решил остановиться на нативном воркфлоу от Comfy с полными safetensors, это чуть быстрее GGUF.
Ждем, когда Kijai починит блоксвап, надеюсь там скорость возрастет.
Всем двоим спасибо. =) Перепробовал в итоге за день все.
>>1076774 На нём ещё можно нсфв сгенерить? Известны какие-то новые хаки вроде небольшого креста сбоку экрана? Ну или где можно погенерить Wan img2vid без цензуры? А то локально довольно долго и лоурез.
>>1076788 насчет WAN сам уже какой день ищу, нихуя, всё лажа или цензура а в клинге жопы пашут, кто-то там ещё мазал соски и прочее, вроде проходило, потом попробую
>>1076117 Блин, протестил на больших квантах, заполняет врам действительно столько же как и на меньших квантах, и скорость плюс минус одинаковая. У меня почему-то в бошке отложилась инфа, что я на больших квантах вылезал за пердел видеопамяти и скорость генерации значительно снижалась, то ли на хувиде, то ли на флюхе. Снимаю шляпу короче, был не прав.
>>1077106 Эдакий ты клоун. Скинул годные генерации и пишешь, что это кал. Проблема только в том, что тебе врама не хватает. Бля, я включил ещё раз видео и ты походу вообще тролль ебанный. Это реальные видео, мимика ебейшая. По моему опыту у Ханьян уровень следования промпта чуть выше XL, а у Ван приближает к Flux, чуть выше Pony/NAI. Хуйня сильно лучше на низких разрешениях, но Ван лучше в целом.
Алсо, подрубил компиляцию, блоксвап на 20, протянул бета-teacache на 0.1 и генерю 8 минут 0,25mgpxl (512х512|688x384 по комфидебильной логике). Остаётся ещё 32ГБ рам при 16ГБ врам, но почему-то дропается, когда выставляю больше своп. Кто как ещё гоняет?
>>1077261 >3-4 минуты генерится. ебаное z-поколение, вас отправить туда(когда), где люди письма друг-другу писали, месяцами ответ ждали, вы там вообще от горя на молекулы рассохнитесь
знатоки, подскажите, для этого ти-кеша нужно ставить все эти тритоны, сагеатеншоны и прочую хуйню?
>>1077261 4060 Ti >>1077291 Для тикеша не нужно, но он пока пробный (наивная реализация как он называет), как будто говно, но я жру, на лоурезе так и так говно получается.
HunyuanVideo через блоксвап Kijai: 272x480@49 — 2s/it
Wan2.1 через native Comfy: 272x480@49 — 7,85 s/it
4070ti
Вчетверо медленнее на данный момент. Конечно, img2vid можно ставить 10-15 степов. Но hunyuan-fast можно ставить 12 степов, а она еще быстрее процентов на 20.
———
Проверил поддержу русского языка. Hunyuan в общем понимает, но с английским лучше работает заметно. Wan довольно четко следует промпту, думаю, можно не париться над переводом, надо сравнивать результаты. Удивительно, но даже мультиязычная модель, получается.
>>1078367 Ты какой-то ебанутый. А чего ты ждёшь? Тебе не хватает сальто в записи? Или дракон должен вылететь и начать ебать её? Генерь фотографию генгбенга с еот и анимируй его, или бери реальное фото и генерь раздевание и радуйся. Ну или рофлы с трампом делай, я хуй знает, что тебе надо. Промпт сильно влияет на результат. Ну а по скорости ещё есть надежда на дистил и или на какие-то лоры вроде дмд2. Было бы пиздец круто, модель всё равно довольно избыточна и нередко генерит какие-то спецэффекты, которые нахуй не сдалить. А так и скорость повысится и генерить будет типичный видос, снятый на телефон.
>>1078786 Перетестил на пятке промптов, нет, все же знания русского у Wan ограниченные. Там где знакомые слова — збс все. Где назнакомые — чушь генерит, не понимая, что от нее хотят. Как повезет.
Подскажите локальную модель генерации видео по описанию. Новичок в этом деле, в оп-посте не заметил. Имеется 4070tu s, как-то хочется ее использовать, играть особо не играю.
>>1078968 вану на русский вообще похуй, это umt5-xxl, в который завезли больше 100 языков, выше писал уже. Поэтому это заслуга энкодера как он преподносить кириллицу вану, в каком виде.
>>1079041 Я так понимаю, модель должна иметь входные обученные данные с энкодера, т.е., они в паре дообучаются, если в датасете не было языка, то и на вход она будет принимать непонятные ей данные.
Или хуйню несу?
Я понимаю, что т5 здоровый сам по себе, и язык в нем есть.
Просто разные модели по-разному работают с русским. Где-то норм, где-то будто не знают, хотя тот же т5.
>>1079046 да хуй их пойми если честно, меня больше другое интересует, если влияние длины промпта на результат (видрил), надо ли его засирать или нет. Ибо с коротким хуета выходит, плюс не исключено что шакальное разрешение всему тому вина. проспт был nude woman squatting in the room + базовый негатив
>>1079173 >>1079173 >фото оживлять Wan I2V модель - хорошо, долго Hunyuan + LeapFusion или SkyReels - хуже, сложней добиться результата, быстрей >>1079063 У меня наоборот с длинным промптом начала генериться хуита. До этого больше сотни сгенерил нормальных, почти ни разу не проебывалось так масштабно как чудил leapfusion. Придерживаюсь формата: краткое описание входящего изображения, описание действий, описание движения камеры - все это новыми предложениями, не знаю как лучше, чужих промптов не видел.
>>1079173 LeapFusion не стоит, а Wan2.1 I2V и Skyreels HunyuanVideo да.
>>1079063 >>1079181 Присоединяюсь к непоняткам, тоже пробовал и длинные промпты, и короткие, и фиг поймешь… То все хорошо, то все плохо. Будто сид влияет сильнее.
>>1079184 >LeapFusion не стоит Он на самом деле не так ужасен. Просто есть ощущение, что никто не понял как его юзать. Я потыкал какие-то параметры и начало хоть что-то получаться. Уже не помню что это было, проценты чего-то. Главное, что с fast моделью совместим в отличии от skyreels.
>>1079063 Главный вопрос какую модель ты используешь. 480р или 720р. 720р не может в такие низкие разрешения. Никаких проблем нет с короткими промптами, негатив стандартный китайский. Вот тут >>1078367 промпты были из 5 слов как у тебя, 720р версия, от простыни профита ноль, только размывается смысл.
>>1079684 >бубубу, сам из себя я ничего не представляю, просто люблю поплакать, поныть, не обсуждать принципы работы и прочее, люблю только вставлять рандомный видик из интернетаф
>>1078367 Интересно что выйдет, если сгенеришь точно то же в 1.3B >>1079684 Нахуй ты здесь это пишешь, чучело? Иди ной об этом у себя в /dev/ загоне или тред в твиттере создай, я хуй знает что вы больные пиздомрази делаете, когда видите, что парни спокойно дрочат.
> Wan I2V На Гитхабе нашел, но даже кнопки скачать нет - вот такой у меня уровень понимания этого всего. Не погромист. Может есть какое-то описание как это все установить, еще и чтобы работало?
>>1079016 Предлагаю: 1. Сделать список онлайн-моделей, где возможно бесплатная генерация, в конце добавить просто сайты в строчку, где доступны разные модели. 2. Сделать список локальных моделей, дать ссылки на комфи, и ван с хуньюаном. 3. Сделать список платных моделей, кому интересно, не вошедших ранее.
Без субъективных оценок «эта пиздатая, эта говно», просто упоминать актуальные. Кроме ван и ханьюань, например, можно LTX для совсем бомжей упомянуть. В онлайновых не шарю.
Что-то мне подсказывает, что cfg:6, shift:5 это неподходящие настройки для unipc. Подобные сложные действия ломаются на разных разрешениях, и на 1.3B и на 14B I2V. Это прям экстремальный пример, но такая гипотеза у меня сложилась, когда снова генерил в размерах ниже 512 на 14B I2V и сцена превращалась в дерганье и артефакты. Однако на этих же настройках много и годных результатов получалось, их большинство. Похоже промпт чересчур важен на таком cfg. За что вообще shift отвечает? Не может он дословно значить движение, этот параметр был ещё на t2i сетках.
1.3B, steps 20, shift 5, unipc, teacache 0.06 (start 6), без enhance-a-video, все модели fp8, vae bf16
cfg 2/4/6/8
A model walks down a minimalist white runway in a black-and-white video, confidently shooting an AK-47 while fire bursts erupt on the sides of the runway, creating a striking contrast against her black leotard.
>>1081050 > teacache Вот это говно очень сильно ломает картинку. Даже на 0.02 видно просеры. Я его по итогу выкинул. Сажа самый лучший буст даёт, почти в два раза ускоряет по сравнению с дефолтным аттеншеном в комфи.
>>1081234 Я потом сгенерил без него и сравнил на https://comparevid.com/ Только лампы попердолило, остальные изменения не стоят того, чтобы замедлять генерацию. Не смотрел сколько он дает ускорения на таком низком значении, но не удивляюсь, если в два раза. Вот то же видео без teacache, 6 cfg. Второе видео - 14B, с teacache, генерило в 3-4 раза дольше Третье - опять 1.3B, enhance 3, cfg 6, shift 5 Четвертое - cfg 5, shift 6
Кто-то усердно срёт мне в штаны, не могу выяснить кто. Из этих видео ясней не стало. Только начал теперь грешить на enhance, но я его уже давно поставил на 2 и не снимаю, не видел как без него генерит. И генерю только I2V.
>>1079016 >>1080170 Накидал черновик по части локалок. По хорошему бы ещё упомянуть минимальные/оптимальные системные требования, но я не владею актуальной инфой. Про лоры только могу сказать, что хуньюнь на 24GB VRAM норм обучается, но лично у меня обучение вышло завести только под прыщами.
Лично я бы вообще проголосовал за разделение треда на онлайн и локальную части, по аналогии с llama vs aicg, sd+nai+tech vs dalle/image, т.к. их аудитории, как правило, мало пересекаются; и темы обсуждения сильно различаются.
>>1081343 >упомянуть минимальные/оптимальные системные требования Да какие могут быть требования. 2 ядра, 2 гига, остальное уже влияет только на скорость. С 6гб уже можно завести, значит упоминания не требуется, у интересующихся столько точно будет. >Где брать готовые LoRA Это нахуй, итак понятно. >Локальный UI >https://github.com/comfyanonymous/ComfyUI Это вообще в пизду. Не хватает пошаговой инструкции установки Windows и гайда как открывать папки.
Если эта вся бесполезная избыточная информация будет под одной короткой ссылкой тогда еще ладно.
>Лично я бы вообще проголосовал за разделение треда на онлайн и локальную части Похуй, тред не страдает от скорости. Просто в aicg на голову отбитые дегенераты сидят, у которых извилин меньше чем у посетителей /fag/, а в /sd/ криворукие имбецилы, поэтому в этих случаях нужны были разделения. У нас вроде все нормальные ребята.
>>1080924 > За что вообще shift отвечает? За сдвиг сигм. Он их буквально сдвигает их в сторону, не меняя самой функции. Нужен только на flow-matching моделях.
>>1081408 >сдвиг сигм А с пепегами что в этот момент происходит? Какое мнение гигачадов по этому поводу? 🎵Сигма-сигма бой🎵 Бесполезные термины прочесть нетрудно. Как это на результат влияет и когда менять цифры? Чтобы было так же понятно как всем понятен cfg в пикчевых моделях и temperature в ллм.
>>1081343 Пробую Ван обучать, даже кое что получается, по враму не требовательный, но только для модель Wan2.1-T2V-1.3B, 14B не лезет в 24гб, там одних файлов только на 70гб, но я пытался и надеялся... При обучении лоры на картинках 512х512 на 24 картинки используется всего 14гб врам. А ну и обучение я запускал под виндой через WSL в которой убунта работает. Настраивал по этому гайду https://www.youtube.com/watch?v=mSvo7FEANUY
>>1081470 Короче перевожу этого >>1081408 на более менее человеский. Для картинкофлоукала сдвиг означает фокус на определённом диапазоне таймстепов больше, чем на другом, пикрил. Чем выше 1, тем больше фокуса надо придать шумному этапу, когда формируется только композиция картинки и больше забить хуй на мелкие детали, когда картинка уже почти готова, ниже 1 наоборот, с флюксом юзают 3.125 что то там в дефолте.
>>1081343 > Лично я бы вообще проголосовал за разделение треда на онлайн и локальную части, по аналогии с llama vs aicg
Плюсую!
> Квантованные чекпоинты Не совсем ясно, что это. Тут ГГУФ img2vid файнтьюна SkyReels, и два кванта тоже имг2вид Wan. Квантованные чекпоинты img2vid-моделей? Заголовочек поменять?
никто из вас не гуглил, на каком языке негативный промпт лучше всего отрабатывает? китайский, англ. или русский? Или считать чисто за рандом в каждом случае.
>>1082174 >никто из вас не гуглил, на каком языке негативный промпт лучше всего отрабатывает? китайский, англ. или русский? По идее для Вана китайский лучший должен быть. Только некитайцу легко ошибиться с ним, несмотря на всякие Диплы :)
Здесь https://www.florafauna.ai , наконец, можно погенерить веюшку (Veo2) в норм качестве и бесплатно. На гугл акк дают 2000 токенов, генерация стоит 1532. После генерации удаляем акк, снова с него заходим и вуаля опять 2000 токенов. Налетаем (кому надо) пока халява не закончилась)
>>1093240 Должен быть. Wan позволяет генерить нецензурное, кто-то уже был обязан купить стек видеокарт и скачать все лоры, а даже обучить свои чисто под сервис. Не верю, что такого ещё нет, спрос огромный на бесплатные попытки. Может где-то на nsfw реддите уже пиарились подобные бизнесмены.