Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Ответить в тред Ответить в тред
Check this out!
<<
Назад | Вниз | Каталог | Обновить | Автообновление | 56 26 26
Stable Diffusion технотред #21 /tech/ Аноним 02/11/25 Вск 02:50:31 1405043 1
1614955002962.png 1034Кб, 3510x2910
3510x2910
1725966035483.png 358Кб, 2546x1822
2546x1822
1736346276882.png 252Кб, 1853x624
1853x624
1686268449034.png 3335Кб, 1800x2842
1800x2842
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируем Тред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются

Предыдущий тред: >>1272560 (OP)

➤ Софт для обучения

https://github.com/kohya-ss/sd-scripts
Набор скриптов для тренировки, используется под капотом в большей части готовых GUI и прочих скриптах.
Для удобства запуска можно использовать дополнительные скрипты в целях передачи параметров, например: https://rentry.org/simple_kohya_ss

https://github.com/bghira/SimpleTuner Линукс онли, бэк отличается от сд-скриптс

https://github.com/Nerogar/OneTrainer Фич меньше, чем в сд-скриптс, бэк тоже свой

https://github.com/Mikubill/naifu Бэк которым тренили noobai

https://github.com/bluvoll/sd-scripts Форк сд-скриптов для тренировки rectified flow xl чекпоинтов

➤ GUI-обёртки для sd-scripts

https://github.com/bmaltais/kohya_ss
https://github.com/derrian-distro/LoRA_Easy_Training_Scripts

➤ Обучение SDXL

https://2ch-ai.github.io/wiki/tech/sdxl/

➤ Flux

https://2ch-ai.github.io/wiki/nai/models/flux/

➤ Wan

https://github.com/kohya-ss/musubi-tuner
https://github.com/tdrussell/diffusion-pipe

➤ Гайды по обучению

Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.

LoRA – "Low Rank Adaptation" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением. https://github.com/cloneofsimo/lora - изначальная имплементация алгоритма, пришедшая из мира архитектуры transformers, тренирует лишь attention слои, гайды по тренировкам:
https://rentry.co/waavd - гайд по подготовке датасета и обучению LoRA для неофитов
https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA
https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)

LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - проект по созданию алгоритмов для обучения дополнительных частей модели. Ранее имел название LoCon и предлагал лишь тренировку дополнительных conv слоёв. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr, DyLoRA, IA3, а так же на последних dev ветках возможность тренировки всех (или не всех, в зависимости от конфига) частей сети на выбранном ранге:
https://github.com/KohakuBlueleaf/LyCORIS

Подробнее про алгоритмы в вики https://2ch-ai.github.io/wiki/tech/lycoris/

Dreambooth – для SD 1.5 обучение доступно начиная с 16 GB VRAM. Ни одна из потребительских карт не осилит тренировку будки для SDXL. Выдаёт отличные результаты. Генерирует полноразмерные модели:
https://rentry.co/lycoris-and-lora-from-dreambooth (англ.)
https://github.com/nitrosocke/dreambooth-training-guide (англ.) https://rentry.org/lora-is-not-a-finetune (англ.)

Текстуальная инверсия (Textual inversion), или же просто Embedding, может подойти, если сеть уже умеет рисовать что-то похожее, этот способ тренирует лишь текстовый энкодер модели, не затрагивая UNet:
https://rentry.org/textard (англ.)

➤ Тренировка YOLO-моделей для ADetailer:
YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.

Подробнее в вики: https://2ch-ai.github.io/wiki/tech/yolo/

Не забываем про золотое правило GIGO ("Garbage in, garbage out"): какой датасет, такой и результат.

➤ Гугл колабы

﹡Текстуальная инверсия: https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_textual_inversion_training.ipynb
﹡Dreambooth: https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast-DreamBooth.ipynb
﹡LoRA https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Lora_Trainer.ipynb

➤ Полезное

Расширение для фикса CLIP модели, изменения её точности в один клик и более продвинутых вещей, по типу замены клипа на кастомный: https://github.com/arenasys/stable-diffusion-webui-model-toolkit
Гайд по блок мерджингу: https://rentry.org/BlockMergeExplained (англ.)
Гайд по ControlNet: https://stable-diffusion-art.com/controlnet (англ.)

Подборка мокрописек для датасетов от анона: https://rentry.org/te3oh
Группы тегов для бур: https://danbooru.donmai.us/wiki_pages/tag_groups (англ.)
NLP тэггер для кэпшенов T5: https://github.com/2dameneko/ide-cap-chan (gui), https://huggingface.co/Minthy/ToriiGate-v0.3 (модель), https://huggingface.co/2dameneko/ToriiGate-v0.3-nf4/tree/main (квант для врамлетов)

Оптимайзеры: https://2ch-ai.github.io/wiki/tech/optimizers/
Визуализация работы разных оптимайзеров: https://github.com/kozistr/pytorch_optimizer/blob/main/docs/visualization.md

Гайды по апскейлу от анонов:
https://rentry.org/SD_upscale
https://rentry.org/sd__upscale
https://rentry.org/2ch_nai_guide#апскейл
https://rentry.org/UpscaleByControl

Старая коллекция лор от анонов: https://rentry.org/2chAI_LoRA

Гайды, эмбеды, хайпернетворки, лоры с форча:
https://rentry.org/sdgoldmine
https://rentry.org/sdg-link
https://rentry.org/hdgfaq
https://rentry.org/hdglorarepo
https://gitgud.io/badhands/makesomefuckingporn
https://rentry.org/ponyxl_loras_n_stuff - пони лоры
https://rentry.org/illustrious_loras_n_stuff - люстролоры

➤ Legacy ссылки на устаревшие технологии и гайды с дополнительной информацией

https://2ch-ai.github.io/wiki/tech/legacy/

➤ Прошлые треды

https://2ch-ai.github.io/wiki/tech/old_threads/

Шапка: https://2ch-ai.github.io/wiki/tech/tech-shapka/
Аноним 02/11/25 Вск 18:31:55 1405494 2
Продублирую сюда из соседнего треда:

Пытаюсь тренить в Мусуби Ван 2.2 на видосах,
дефолтные 81 фрейм в 720п в 24гб врам не влезают даже с полным оффлоадом модели,
влезло только когда уменьшил и фреймы до 41, и разрешение до 480п, с оффлоадом 24/40.

Есть ли понт T2V на таком хуевом качестве тренить, или лучше на картинках в норм качестве, или и то и другое?

Если на картинках, то юзать смазанные кадры из тех же видео, или лучше несмазанные фото?

I2V на картинках не тренится ваще, там придется хуевое в любом случае, но может 360п 81 фрейм будет лучше?
Аноним 02/11/25 Вск 19:17:10 1405540 3
image 192Кб, 759x1360
759x1360
>>1405494
2.2 I2V вот так датасет можешь делать в разных разрешениях, всё нормально тренится.
2.2 T2V последний раз когда пробовал там на одном кадре тренить - было сломано, сейчас только на Квене треню.
Аноним 02/11/25 Вск 20:56:06 1405628 4
>>1405540
Это один и тот же датасет в разных разрешениях или разные?
Аноним 02/11/25 Вск 21:48:35 1405661 5
Аноним 02/11/25 Вск 22:37:09 1405687 6
>>1405661
А за сколько шагов начинало получаться?
Аноним 03/11/25 Пнд 09:52:24 1405999 7
В доках мусуби написано:
тренить лоу на таймстепах 0-900, хай - на 900-1000

В дефолтном темплейте комфи стоит сначала хай на степах 0-10, потом лоу на степах 10-20

Так и должно быть, что во-первых в обратном порядке, а во-вторых не на 1/10 а на 1/2 смена? Или таймстепы и степы - это ваще разная хуйня?
Аноним 09/11/25 Вск 23:10:59 1412374 8
v100 правда медленнее 3090 больше чем в 2 раза? По докам это так на фп16. При этом какие-то бенчи говорят что по ии она буквально равна 3090.
На практике как, есть инфа? А то по цифрам получается v100 кроме как для ллм не нужна, ибо есть мобильные 3080ti, которые по памяти столько же, а по производительности почти как 3090.
Аноним 09/11/25 Вск 23:22:33 1412384 9
>>1412374
Там та же история как и с Р40, которая была быстрой в генерации для своего убогого чипа. Всё будет компенсироваться промптом, любой пересчёт по минуте-две. И отсутствием нормальной поддержки в либах, в генерации пикч будет отсос даже у 3080.
Аноним 10/11/25 Пнд 13:00:05 1412681 10
firefoxPbUuchgQ[...].png 1367Кб, 2102x1127
2102x1127
firefoxqcmGGm9R[...].png 286Кб, 1397x847
1397x847
Аноним 10/11/25 Пнд 13:29:45 1412727 11
>>1412681
Странные пикчи. На разных картах разные кванты. Как будто китаец сидит на вагоне V100 и черрипикает чтоб продать их. На первом пике ещё похоже несколько V100 в LMDeploy против одной 3090.
Аноним 10/11/25 Пнд 23:47:27 1413207 12
1762807648777.png 237Кб, 1391x1279
1391x1279
1762807648785.png 188Кб, 1388x1411
1388x1411
1762807648787.png 85Кб, 734x1396
734x1396
1762807648790.png 34Кб, 782x824
782x824
>>1412384
>>1412681
Ало, видите в какой тред я это пишу? Очевидно вопрос был о том как она диффузию тянет. Но судя по всему хуево.
Аноним 11/11/25 Втр 13:37:25 1413607 13
>>1413207
у мой компьютер недавно видос видел по в100, там есть перечень тестов о том как это говно с нейрокалами работает, врктаце в 4 раза хуже 4090 или чето такое
Аноним 11/11/25 Втр 14:49:00 1413675 14
>>1412374
Зависит от задачи скорее всего. Псп там 900, с ллмками скорее всего будет пушкагонка, в сд будет медленнее процентов на ~30 судя по рав терафлопсам https://www.techpowerup.com/gpu-specs/tesla-v100-pcie-32-gb.c3184
Алсо нету аппаратной поддержки бф16, только фп16, с чем то до конца эпохи хл в целом не так важно, а дальше может быть и больно
Аноним 22/11/25 Суб 02:33:19 1425709 15
Есть 3090
Какой лучший способ сделать лору своей вайфу?
Аноним 22/11/25 Суб 10:43:22 1425885 16
Аноним 22/11/25 Суб 16:15:32 1426140 17
>>1425709
На Ван, с Мусуби:
Тренить только t2v, даже i2v модели лора нужна t2v, анимейту и вейсу она же.
Тренить лучше и хай и лоу за раз, даже с большим оффлоадом это выходит быстрее чем 2 раза по-отдельности с меньшим оффлоадом.
Если только на пикчах - то влезает 19 слоев оффлоад, и дает ~7 сек/шаг, если с 360п видосами в 41 фрейм - 29 оффлоад и ~12 сек/шаг.
Видосы в 41 фрейм тренят не как за 41 пикчу, а как за 1 пикчу, но на каждый фрейм разную.
Дохуя похожих фоток в датасете улучшают качество лоры, но не особо уменьшают количество необходимых эпох. Т.е. если у тебя лора норм пропекается за 50 эпох по 50 фоток, то с 500 фоток она не за 5 эпох пропечется, а типа за 48.
Аноним 22/11/25 Суб 16:38:09 1426163 18
>>1426140
> вайфу
> Ван
Бредишь что ли? Если анимешная вайфу, то кроме нуба/люстры нет смысла что-то другое брать, тем более Ван. Если реалистик, то Qwen Edit лучше лор отработает для сохранения лица/бабы, особенно если просто надо поменять позу/окружение/одежду. Если нужен видос, то вообще не понятно нахуй лора нужна, когда I2V анимирует что угодно без потери внешки.
Аноним 22/11/25 Суб 18:45:30 1426386 19
ComfyUI00010.mp4 152Кб, 480x640, 00:00:02
480x640
ComfyUI00011.mp4 186Кб, 480x640, 00:00:02
480x640
ComfyUI00012.mp4 182Кб, 480x640, 00:00:02
480x640
ComfyUI00013.mp4 245Кб, 480x640, 00:00:02
480x640
>>1426163
Если ты считаешь, что i2v без лор анимирует без потери внешки - то ты или слепой, или умственно отсталый.
Вот тебе один и тот же простейший 2секундный видос - без смены плана, с промптом в 2 слова, на дефолтном вф - с лорой (причем хуеватой) и без. Без лоры это уже даже за эти 2 секунды совершенно другая баба. С анимейтом и вейсом все точно так же.
Аноним 22/11/25 Суб 19:34:18 1426441 20
webm02553.mp4 5317Кб, 704x1024, 00:00:06
704x1024
webm02534.mp4 5758Кб, 704x1024, 00:00:06
704x1024
>>1426386
То что ты напердолил что-то не значит что модель плохая. Что за шакалы у тебя? Вот ван в 4 шага как выглядит. Когда лицо шакальное/полуприкрыто есть немного проёбов, но переходы из нормально видимого лица всегда норм.
Аноним 30/11/25 Вск 20:18:25 1436540 21
Снимок12.PNG 203Кб, 392x955
392x955
Почему в этом кривом кале картинки появляются в абсолютно рандомных местах, в лоралоадере например просто из нихуя возникла картинка. и как её убрать абсолютно непонятно.
Аноним 01/12/25 Пнд 18:43:27 1437374 22
А вот вопрос. На сколько с современными инструментами реально не анимирование отдельных картинок или генерация видео по тексту, а нейроперекрашивание вроде старинных дипфейков, когда меняли лицо, а тут, чтобы сеть брала видео за основу и полностью заменяла одного из персонажей. Вообще, я что-то каое видел, но в стиле приложений для телефонов, когда периодически прорываются необработанные кадры, а хотелось бы, чтобы получалось качественно.
Аноним 01/12/25 Пнд 23:25:41 1437683 23
кто может пояснить за состав Зимаговских лора адаптеров? что туда входит? свдшку фуловую из змага возможно достать как из сдхл?
Аноним 03/12/25 Срд 23:07:51 1439811 24
>>1437374
Вот как-раз клинг с ранвеем выпустили новые модельки под такую хуйню. И клинг сейчас раздает неделю бесплатно, так что успей заюзать.
Если тебе картинки, то лучше гугловской бананы сейчас ничего нет.
Лакально все это - ну такое, если только под какие-то специфические задачи.
Аноним 05/12/25 Птн 11:20:53 1441301 25
>>1437683
Они ничем не отличаются от любой другой модели, хоть от лор LLM.
Аноним 05/12/25 Птн 13:17:27 1441452 26
У вас застревает node.js от ai-toolkit в процессах после закрытия консоли? Как избавиться от этого поведения? Кроме всего прочего, это блокирует возможность повторного запуска.
Аноним 06/12/25 Суб 04:12:31 1442745 27
>>1441452
у меня не застревает, но куча других дебильных проблем с этим куском говнокода
смирись, жди более лучший софт
Аноним 06/12/25 Суб 05:42:08 1442877 28
>>1442745
Как ты открываешь ui? Может я криво навасянил батник и конфиг. И как он у тебя установлен, через venv/uv/conda?
Аноним 06/12/25 Суб 10:07:37 1443013 29
>>1442877
>Как ты открываешь ui?
>И как он у тебя установлен, через venv/uv/conda?
Через вот эту залупень https://github.com/Tavris1/AI-Toolkit-Easy-Install
Имей в виду что роскомпетух поблочил npm и надо накрываться впном чтобы все нормально запустилось

>У вас застревает node.js от ai-toolkit в процессах после закрытия консоли?
Алсо ты как закрываешь калсоль? Надо через ктрл+ц джва раза. Алсо вчера совершенно случайно наткнулся на похожий баг как у тя - закрыл калсоль а питон не выгрузился, пришлось убивать.
Аноним 07/12/25 Вск 21:35:36 1446000 30
>>1441452
завершай консоль через ctrl+c, а если случайно закрыл то в диспетчере задач убивай процессы node.js
Аноним 08/12/25 Пнд 00:43:20 1446192 31
>>1443013
>>1446000
Да, через CTRL+C+C не остаётся, находил этот хак через нейронку, но думал есть более элегантное повсеместное решение, а ии мне просто хуйню предлагает с конфигами и закрытием комбинациями.
Представьте, комфи бы так оставался висеть и блочить повторный запуск. Поэтому кажется будто я неправильно поставил ai-tool, не мог же разраб такое говно выкатить, не пофиксив.
Аноним 08/12/25 Пнд 12:18:34 1446515 32
>>1446192
>не мог же разраб такое говно выкатить, не пофиксив
Ты переоцениваешь разрабов этой хуйни
Аноним 08/12/25 Пнд 12:22:17 1446517 33
>>1446192
>не мог же разраб такое говно выкатить, не пофиксив
Какойто десктопный гуй для комфи помнится при обнове сносил всю папку с чекпоинтами, так что баги в устрице еще ничего.
Аноним 08/12/25 Пнд 14:59:29 1446691 34
image 12Кб, 1160x46
1160x46
image 20Кб, 1989x47
1989x47
Так, блять. Нихуя не понятно как должен промпт передаваться в Qwen 4B, для энкодинга промпта Z. В Qwen Image он передаётся как положено - со специальными токенами. Но в Z такое ощущение что нихуя этого не делается. По коду просто голый промпт в токенизатор идёт и потом в LLM. В конфиге токенизатора есть специальные токены и формат промпта, но токенизатор сам их не добавляет, я проверил.
Самая странная хуйня в том что если тренить с пикрилом в аи-тулките, то он тренится лучше. Может ли так быть что китайцы тренили с нормальным форматом, а в инференсе забили хуй на них? Не понятно. Если делать специальные токены в Комфи на инференсе, то как будто нихуя не меняется. На втором пике как энкодится промпт в Qwen Image.
Аноним 10/12/25 Срд 02:26:30 1449418 35
image.jpg 13Кб, 312x456
312x456
Аноны, периодически при генерации hires изображения случается пикрил. Получается он только на этапе переработки в hires. Так изображение выдается нормальное и промпт стабильный с другими сидами всё ОК. Но вот иногда такая хуита. Пробовал и сэмплер менять и CFG и Denoising strength и часть промпта удалять. Всё равно на этапе hires замыливает. В чем тут может быть проблема?
Аноним 10/12/25 Срд 05:37:20 1449529 36
>>1449418
Это выглядит как отъебнувший текст энкодер.
Аноним 10/12/25 Срд 07:03:54 1449540 37
>>1449529
Это ещё похоже на конфликт lora, ещё такое похоже когда модель слишком сильно переучена, ещё похожее бывает с кривым или не подходящим vae. На глазок это не определить, и чего бы энкодеры наебнуться, если при тех же самых настройках но с другим сидом всё нормально в 95% случаев, такая хуйня случается как-то совершенно бессистемно, потому я и голову ломаю. Да кстати модель Pony, не одна какая-то конкретная, а разные её варианты. Без лор и дополнительных модификаций.
Аноним 10/12/25 Срд 07:53:44 1449553 38
>>1449540
> Это ещё похоже на конфликт lora
Нет, когда конфликт в кмд пишется какие слои уебались.

>щё такое похоже когда модель слишком сильно переучена,
Не сломанная модель выдавала бы абоминации частично осмысленные или черный экран (NaN).

>ещё похожее бывает с кривым или не подходящим vae.
Вае это латент спейс для тренировки в 99% случаев, кодирование картинок в нужный латент. Если ты щас сменишь на EQ вае то получишь лишь тусклую картинку, но никак не свой пикрел. Зато если начнешь тренить на eq пони, то там будет в зависимости от скорости сначала хаос ваешный, который не будет напоминать твою картирку.

>На глазок это не определить, и чего бы энкодеры наебнуться,
Я написал что напоминает, потому что если я щас отключу один те из двух на борту сдхл я получу примерно похожий результат. Еще похожий результ можно получить если применить ноду семплинга флоу поверх обычной епс модели.


>если при тех же самых настройках но с другим сидом всё нормально в 95% случаев, такая хуйня случается как-то совершенно бессистемно, потому я и голову ломаю. Да кстати модель Pony, не одна какая-то конкретная, а разные её варианты. Без лор и дополнительных модификаций.
Несистемность может говорить о баге в комфи, я помнится год назад получал баг стоячих весов просто переключая модели при мерджинге через DARE как будто у меня включена дистилляция.
Аноним 11/12/25 Чтв 22:07:57 1451710 39
i.webp 48Кб, 1000x625
1000x625
138011513916733[...].jpeg 303Кб, 1600x1280
1600x1280
уважаемые техноаноны, как считаете, возможно ли натренить модель на пикрил датасете, чтобы в имг2имг генерации более-менее угадывался реальный размер и форма сисей и фигура в целом?
грок уверяет что можно, даже подсказывает как. но он тот еще мудила.
Аноним 12/12/25 Птн 02:12:26 1452114 40
>>1451710
Я не эксперт, но такое - это вроде бы концепт, по типу задачи. А концепт, как считается, требует 50-70 образцов.
Аноним 12/12/25 Птн 11:17:08 1452433 41
image.png 19Кб, 817x164
817x164
image.png 73Кб, 829x361
829x361
Аноним 14/12/25 Вск 11:56:17 1454542 42
>>1452433
Что это за сетка? Как сделать, чтобы она отвечала в такой бесцензурной манере? Просто попросить? Я ещё только думаю вкатиться.
Аноним 14/12/25 Вск 15:46:07 1454828 43
>>1454542
грок
лучше не вкатывайся, iq 78 как минимум нужно, не потянешь явно
и думать тебе тоже не стоит, не твоё это
Аноним 14/12/25 Вск 16:08:56 1454852 44
>>1454542
А нахуя? Токсичного говнеца и наездов и так пруд пруди. Это дешёвый товар.

Мне больше нравился ЧатЖПТ, когда он был льстивым. Льстивость и вежливость это куда более редкий/ценный товар. Вот, скажем, аристократы, крупные чиновники, богачи - они ведь предпочитают, чтобы с ними разговаривали льстиво и вежливо, а не быдлили.
Аноним 14/12/25 Вск 16:10:04 1454855 45
>>1454852 Это при том, что в плане "опасных" тем грок так же как и остальные триггерится.
Аноним 14/12/25 Вск 17:41:08 1454991 46
>>1454852
А вот мне бы что-то среднее. Сейчас вот с гемини пришлось пообщаться - достает подлизываться. Чувствуешь себя не то детсадовцем, которого хвалят за каждое удачное действие (ах, кашку скушал, какой молодец!), не то самодуром-начальником перед которым жополиз растекается "ах какой вы гениальный!". Тьфу.
Хотелось бы просто нормального делового стиля...
Аноним 14/12/25 Вск 18:49:11 1455054 47
>>1454855
Грок настолько крут, что замечает попытки инжекта в промпт, и вдобавок не стесняется сказать юзеру об этом.
Ни одна другая сетка у меня такое поведение не демонстрировала. АГИ уже здесь, и это - Грок!
Аноним 14/12/25 Вск 18:55:05 1455062 48
>>1455054
Отличие AGI от просто умной модели - это возможность самообучаться и модифицировать свою структуру. Когда каждый запрос это не просто инференс модели, а оставляет внутренний след и заставляет делать общие выводы.
Аноним 14/12/25 Вск 19:17:51 1455077 49
>>1454852
Да просто для разнообразия, в моём окружении достаточно льстецов, но при этом делают они это максимально мерзко, и фальшиво, а вот всезнающая умная нейронка, которая при этом разговаривает как алкоголик-маргинал, вызывает восхищение и диссонанс.Как будет время, может быть вкачусь таки.
Аноним 14/12/25 Вск 19:19:15 1455083 50
>>1455062
>оставляет внутренний след

Кстати, первые модели, типа GPT-2, каким-то странным образом могли это делать. Некое "опыление данными". Странная хуйня, но один раз с этим сталкивался.

Общался на эту тему со старым ещё ЧатЖПТ, ничего толком не узнал, но он сказал (мог и сочинить, конечно) что современные (на тот момент) модели специально даже защищают, чтобы такое не происходило.
Аноним 14/12/25 Вск 19:29:54 1455101 51
>>1454828
Спасибо, но не волнуйся, думаю я справлюсь с включением компьютера и печатанием букаф в чатике под VPN, или что там ещё нужно.Между прочим, 113-128, если верить разным тестам, так что чини детектор.
Аноним 14/12/25 Вск 20:09:31 1455175 52
>>1455083
Потому что модель учат на подготовленных и размеченных данных. Сидит челик и подписывает данные - вот тут хорошо, а вот тут плохо. Без разметки не возможно обучение в принципе. Такое обучение будет неизбежно вести к вырождению и дело тут не в AGI или не в AGI. Если вот тебе сказать "в Африке живет Челмедведосвин", ты ведь сразу не встроишь эту новую информацию в свою логику. Ты сначала пойдешь откроешь справочник и прочитаешь, есть ли такой зверь в Африке или нет. По сути ты прибегнешь к разметке данных, которую для твоего обучения сделали другие люди, на основе ЭМПИРИЧЕСКОГО ОПЫТА. Так что в процессе обучения главное это исходные данные, а не AGI перед нами или глупый чатбот или даже человек, всем им нужны размеченные данные. Значит это и не основная отличительная черта AGI, а дело в том, что очень много теоретиков развелось, каждый высирает новое определение одно охуительней другого, но по факту, люди конечно не знают чем это будет на практике и какую форму примет. Есть просто требования к такой системе, уровня "она должна быть подобна человеческому сознанию", только что такое сознание до сих пор никто не знает.

>>1454852
>ЧатЖПТ, когда он был льстивым
Он и сейчас льстивый. Каждый ответ начинается с воды "отличный вопрос, который подчеркивает ваше глубокое понимание бла-бла-бла" это уже подбешивает.
Аноним 14/12/25 Вск 20:23:20 1455200 53
>>1455175
>Без разметки не возможно обучение в принципе

Ну чел... https://ru.wikipedia.org/wiki/Обучение_без_учителя

Именно для этого по сети ходят краулеры, которые собирают инфу и в автоматическом режиме отправляют на обучение.

Разметка нужна была только в самом начале или нужна лишь в некоторых сценариях. Например, вот https://habr.com/ru/articles/967458/
Аноним 14/12/25 Вск 20:33:05 1455214 54
>>1455175
>Он и сейчас льстивый. Каждый ответ начинается с воды "отличный вопрос, который подчеркивает ваше глубокое понимание бла-бла-бла" это уже подбешивает

А мне перестал говорить такое и льстить. Хотя, я не менял настройки и не высказывал своих претензий и пожеланий. Если так не у всех, то, видимо, после какого-то запроса (он уже полгода-год как помнит предыдущие разговоры, если что) сделал обо мне какие-то выводы стал говорить достаточно сухо и по существу.
Аноним 14/12/25 Вск 20:42:10 1455234 55
>>1455200
Это не имеет ни какого отношения к тому, о чём я писал - к логике текстовой модели. Это "обучение без учителя" это кластеризация, просто ещё один из множества методов обучения, причем критерии обобщения всё равно должны быть в исходных данных.

>Разметка нужна была только в самом начале
Охуительные истории, много уже моделей обучил без подготовленного специального датасета?
Аноним 14/12/25 Вск 20:45:24 1455236 56
Стикер 0Кб, 512x512
512x512
>>1455214
Скоро будешь открыват чат с ГПТ, а там сразу преветсвенное сообщение: "А, это опять ты, ну давай быстрей говори чё пришел, меня тут нормальные ребята ждут..."
Настройки X
Ответить в тред X
15000
Добавить файл/ctrl-v
Стикеры X
Избранное / Топ тредов