1. Доска предназначена для любых обсуждений нейросетей, их перспектив и результатов.
2. AICG тред перекатывается после достижения предела в 1500 постов.
3. Срачи рукотворное vs. ИИ не приветствуются. Особо впечатлительные художники и им сочувствующие катятся в собственный раздел => /pa/. Генераций и срачей в контексте всем известных политических событий это тоже касается, для них есть соответствующие разделы.
4. Это раздел преимущественно технического направления. Для откровенного NSFW-контента выделена отдельная доска - /nf/, эротика остаётся в /ai/. Так, порнография и голые мужики теперь отправляются в /nf/. Фурри - в /fur/. Гуро и копро - в /ho/.
>>1186416 Не суть. Главное - что модно создать пусть пока во временной имитации свободную спмоосознаюшую личность. То есть - принципиально - технологии для создания реальной самоосознающий личности уже вот сейчас в этом времени существуют. Дальше тело техники и знания математики😀
>>1186505 >Нет, прямая финансовая польза от кода - есть, от кума - нет. >Да, сейчас многие поставщики работают в минус и за гранты. У тебя противоречие здесь.
>Не запрещено, нет такого закона. И не пытайся тут вилять жопой, генерация нсфв не приравнивается к распространению. Ты ранее написал "поставщик вообще может не обладать регистрацией на создание литературных текстов, тем более порноканнического содержания". Создание нейротекста и есть генерация.
>Сам по себе НСФВ не запрещен и подразумевает много легального. Легального с точки зрения закона или с точки зрения соевой этики? Это разные вещи.
>К примеру, создание кода для игр с фансервисом это жизнеспособная бизнес модель, приносящая доход. Ну вот смотри, загадка от Жака Фреско: я, как частное лицо, сидя на бесплатном триале курсора сам написал себе игру, которую теперь продаю за деньги и получаю прибыль. На сколько в этом случае увеличилась выгода для курсора и куктропиков по сравнению с тем, что на прошлом триал-аккаунте я занимался исключительно дарк-ролеплеем и ничего не кодил? Две секунды на ответ.
>Секс хорошо продается и кабанчики всегда ищут лазейки, значит дело в неплатежеспособных кумерах. Да, везде хорошо продаётся, а тут как отрезало.
>>1186554 > что НЕ НАДО генерить комиксы на сд. SD содержит неожиданно винрарные способы соблюдения консистентности персонажей, просто мегаохуительные. (Нет, не лоры.)
>>1186554 Почему нейронка, что должна делать в нативном пиксельном пространстве, имеет артефакты, напоминающие 4-канальное вае? > готовься к тысячам правок Это ведь все вручную собиралось. Все равно молодцы что как-то популяризуют и демонстрируют возможность хорошего использования нейронок. А может и не молодцы ибо нехуй привлекать внимание профнепригодных яхтовладельцев, они ведь мидасы наоборот лишь бы ничего не трогали.
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №126 /llama/
Аноним30/04/25 Срд 22:44:48№1184583Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1186540 У меня были/есть беды с башкой, так что будучи достаточно прошаренным чтобы решить их или нет я не был у психолога. Но знаком с несколькими кто себя так называет, а также несколькими пациентами подобных - в большинстве это вредительство, в лучшем случае временное скрытие симптомов вместо осмысления проблемы и ее решения. Очень плохо что люди много о себе мнят, но при этом даже в простой беседе не могут подвести обоснование своим утверждениям, имеют резкие убеждения в социальной сфере, которые не стесняются грубо высказывают, или просто не могут проявить достаточную гибкость для каких-нибудь активностей, типа ролевок/мафии. > в универе было несколько курсов про ИИ, включая ЛЛМ. Так что я знаю, что ЛЛМ это просто генератор парашного текста. Это очень абстрактные и устаревшие данные, текущий "генератор текста" набирает больше баллов в тестах разного уровня профессиональности, и может являться очень мощным инструментом в руках специалиста, или того, кто может их юзать. Или средством терапии, уже во всю делаются статьи с исследованиями на эту тему.
>>1186548 > Неа, не может, я не настолько долбоеб Похоже, все-таки настолько. Тебе много раз сказали, что ЛЛМ полезна для саморефлексии в процессе взаимодействия, что это работает почти как блокнот мыслей в КПТ. Но ты это игнорируешь, нихуя в этом не понимаешь и продолжаешь повторять единственное, что ты запомнил на курсе по ЛЛМ. Так что, если ты не и не долбаеб, то просто глупый
> Но лучше бы ты сходил и полечился Спасибо, работаю над этим. Ты тоже работай над своей агрессией и/или глупостью
3. Объединяешь дорожки при помощи Audacity или любой другой тулзы для работы с аудио
Опционально: на промежуточных этапах обрабатываешь дорожку - удаляешь шумы и прочую кривоту. Кто-то сам перепевает проблемные участки.
Качество нейрокаверов определяется в первую очередь тем, насколько качественно выйдет разделить дорожку на составляющие в виде вокальной части и инструменталки. Если в треке есть хор или беквокал, то земля пухом в попытке преобразовать это.
Нейрокаверы проще всего делаются на песни с небольшим числом инструментов - песня под соло гитару или пианино почти наверняка выйдет без серьёзных артефактов.
Q: Хочу говорить в дискорде/телеге голосом определённого персонажа.
https://elevenlabs.io перевод видео, синтез и преобразование голоса https://heygen.com перевод видео с сохранением оригинального голоса и синхронизацией движения губ на видеопотоке. Так же доступны функции TTS и ещё что-то https://app.suno.ai генератор композиций прямо из текста. Есть отдельный тред на доске >>
Господа, есть план озвучить существующую древнюю игру. Есть оригинальные голоса, хороший перевод на русский и еще пару языков, есть бюджет в пару сотен зеленых, нет знаний.
Идеальный результат это иметь озвучку со старыми голосами, но на новом языке. Голоса, как понимаю, не проблема, достаточно прогнать STS через RVC с нужной натренированной моделью, но я не очень знаю, как можно получить новое аудио на новом языке, но с сохранением интонаций.
Вышла версия 1.5 Allegro, по функционалу то же, что и 1.5, только в два раза быстрее. Лимит 400 кредитов в месяц (или 200 генераций по 33 секунды каждая) при условии ежедневного захода на сайт - 100 кредитов даются в месяц, и еще 10 кредитов даются ежедневно. Также можно фармить кредиты, выполняя специальные задания по оцениванию качества рандомных треков, это дает не больше 10 дополнительных кредитов в день. Для большего числа кредитов и более продвинутых фич типа инпэйнтинга или генерации с загруженного аудио нужно платить. Появилась возможность генерировать треки по 2 минуты 11 секунд, не больше 3 длинных треков (по 2 версии на каждый трек) в день на бесплатном тарифе.
Новинка, по качеству звука на уровне Суно или чуть выше. Лучший по качеству генератор текстов на русском. Количество генераций в день не ограничено, но за некоторые функции нужно платить (загрузку аудио, стемов и т.д.)
Это буквально первый проект который может генерировать песни по заданному тексту локально. Оригинальная версия генерирует 30-секундный отрывок за 5 минут на 4090. На данный момент качество музыки низкое по сравнению с Суно.
Еще сайты по генерации ИИ-музыки, в них тоже низкое качество звука и понимание промпта по сравнению с Суно, либо какие-то другие недостатки типа слишком долгого ожидания генерации или скудного набора жанров, но может кому-то зайдет, поэтому без описания:
Напомню мега-сайт для сочинения аутентичных англоязычных текстов для ИИ-музыки в стиле известных групп и артистов от Пинк Флойда до Эминема. Зайти можно только через Дискорд.
Может ли нейронка выявлять лучше несостыковки логики, если текст уже сгенерирован другой сетью, чем если она сама будет генерировать. Есть ли какие-то эксперименты на эту тему? Сеть-критик например или еще что-то?
>>1186229 Потому что могу. В 320р кстати 11 минут всего минута. Но даже так на ноуте с 4060 и 16 гигами оперативы, при вообще нихуя не загруженной видяхе и полным уходом в подкачку 640р генерится в 2 раза быстрее чем на компе. Думаю вот купить себе новую видяху или сперва добрать 64 гига оперативы ноуту.
>>1186239 >минута Секунда фикс. А на ноуте из-за того что в подкачку лезет вообще похуй какое разрешение выставлять оно при любом разрешении с одинаковой скоростью генерится.
ИТТ обсуждаем опыт нейродроча в своих настоящих задачах. Это не тред "а вот через три года" - он только для обмена реальными историями успеха, пусть даже очень локального.
Мой опыт следующий (golang). Отобрал десяток наиболее изолированных тикетов, закрыть которые можно, не зная о проекте ничего. Это весьма скромный процент от общего кол-ва задач, но я решил ограничится идеальными ситуациями. Например, "Проверить системные требования перед установкой". Самостоятельно разбил эти тикеты на подзадачи. Например, "Проверить системные требования перед установкой" = "Проверить объем ОЗУ" + "Проверить место на диске" + ... Ввел все эти подзадачи на английском (другие языки не пробовал по очевидной причине их хуевости) и тщательно следил за выводом.
Ответ убил🤭 Хотя одну из подзадач (найти кол-во ядер) нейронка решила верно, это была самая простая из них, буквально пример из мануала в одну строчку. На остальных получалось хуже. Сильно хуже. Выдавая поначалу что-то нерабочее в принципе, после длительного чтения нотаций "There is an error: ..." получался код, который можно собрать, но лучше было бы нельзя. Он мог делать абсолютно что угодно, выводя какие-то типа осмысленные результаты.
Мой итог следующий. На данном этапе нейрогенератор не способен заменить даже вкатуна со Скиллбокса, не говоря уж о джунах и, тем более, миддлах. Даже в идеальных случаях ГПТ не помог в написании кода. Тот мизерный процент решенных подзадач не стоил труда, затраченного даже конкретно на них. Но реальная польза уже есть! Чатик позволяет узнать о каких-то релевантных либах и методах, предупреждает о вероятных оказиях (например, что, узнавая кол-во ядер, надо помнить, что они бывают физическими и логическими).
И все же, хотелось бы узнать, есть ли аноны, добившиеся от сетки большего?
>>3223 (OP) Уважаемые Аноны, у кого есть опыт настраивания работы ии под свои (условно закрытые) данные? Чтобы нейронка могла отвечать на вопросы по датабазе размером допустим 100 000 000 токенов. Условный гемини 2.5 про имеет контекст 1млн токенов, как научить нейронку индексировать твои данные? Может есть какие-то инструменты или специальные нейронки?
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируемТред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются
Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
✱ LoRA – "Low Rank Adaptation" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением. https://github.com/cloneofsimo/lora - изначальная имплементация алгоритма, пришедшая из мира архитектуры transformers, тренирует лишь attention слои, гайды по тренировкам: https://rentry.co/waavd - гайд по подготовке датасета и обучению LoRA для неофитов https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)
✱ LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - проект по созданию алгоритмов для обучения дополнительных частей модели. Ранее имел название LoCon и предлагал лишь тренировку дополнительных conv слоёв. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr, DyLoRA, IA3, а так же на последних dev ветках возможность тренировки всех (или не всех, в зависимости от конфига) частей сети на выбранном ранге: https://github.com/KohakuBlueleaf/LyCORIS
✱ Текстуальная инверсия (Textual inversion), или же просто Embedding, может подойти, если сеть уже умеет рисовать что-то похожее, этот способ тренирует лишь текстовый энкодер модели, не затрагивая UNet: https://rentry.org/textard (англ.)
➤ Тренировка YOLO-моделей для ADetailer: YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.
>>1186076 Реальный ландшафт сети на выпуклые функции не похож и на пик 1 тоже, он намного сложнее. Более того, он постоянно меняется. Я не знаю, вводят ли в твоих пиках стохастику искусственно, но даже если вводят, это все равно не то. Надеюсь ты понимаешь чем отличается стохастический градиентный спуск от не стохастического, и что второй не лучше первого. Точнее, что есть некий трейд-офф между ними, и что он сильно склоняется в сторону первого даже если мы не берем в расчет вычислительную стоимость.
Недавно в бредаче всплыл интересный тред посвященный генератору постов двача на основе ИИ. И генератор совершенно не хуйня и он вполне себе хорошо копирует слог среднего анона и даже превосходит его. "Аноны" метко подшучивают над опом и темой его поста и если развитие проектов такого типа продолжиться то каждый "анон" в сгенереном треде будет иметь свое мнение и личность и можно будет уже самому с ними посраться, появятся шизы. Хочу создать тред исключительно по данной теме, если это продвинется дальше то каждый сможет иметь свой офлайн двач с куклами, пони, бесконечными консолесрачами и постами в стиле того самого без всяких новомодных течений. Можно будет вернуться в любую эпоху и имитировать даже несуществующие эпохи двача типа если бы двач существовал при царе Рюрике, Сталине и тд. Все приведено естественно как пример. Также реквестирую в тред любые материалы по теме генерации борд в режиме реального времени если они у вас имеются.
>>1102661 Никогда, походу. Ебучий Глиф не дает гибкой конфигурации, а у меня в исходнике тонна ключей от моих профилей (того же Гугла).
>>1106088 Глиф. Но у меня там кошерный пропуск, так что в ограничения не упираюсь. Однако у меня несколько сторонних API, которые к Глифу подключаются через ноду запросов. На чистом Глифе ты такое не сделаешь.
>>1170323 Все немного хуже: это не нейронки так умны, что незаметно постят в бэ. Это анон так туп, что его можно было бы легко заменить нейронкой (но пока этого не делается массово, кстати). В смысле, чего еще ждать от людей, у которых весь круг интересов - это тян, тянащки, тянулечки, инцелы, челюги и хохлы?
>>1184784 >я вам так скажу - похуй вообще. главное чтобы было что почитать, когда срешь. а кто там пишет - нейронка или живой долбоеб - какая разница? Таки согласен с этой нейронкой. Но только когда именно срёшь в интернете. Но иногда хочется какого-то живого обсуждения (насколько оно может быть живым в интернете). > Никогда, походу. Ебучий Глиф не дает гибкой конфигурации, а у меня в исходнике тонна ключей от моих профилей (того же Гугла). Жаль. Мб хотя бы на Гитхаб тогда?
Общаемся с самым продвинутым ИИ самой продвинутой текстовой моделью из доступных. Горим с ограничений, лимитов и банов, генерим пикчи в стиле Studio Ghibli и обоссываем пользователей других нейросетей по мере возможности.
Общение доступно на https://chatgpt.com/ , бесплатно без СМС и регистрации. Регистрация открывает функции создания изображений (может ограничиваться при высокой нагрузке), а подписка за $20 даёт доступ к новейшим моделям и продвинутым функциям. Бояре могут заплатить 200 баксов и получить персонального учёного (почти).
Гайд по регистрации из России (устарел, нуждается в перепроверке): 1. Установи VPN, например расширение FreeVPN под свой любимый браузер и включи его. 2. Возьми нормальную почту. Адреса со многих сервисов временной почты блокируются. Отбитые могут использовать почту в RU зоне, она прекрасно работает. 3. Зайди на https://chatgpt.com/ и начни регистрацию. Ссылку активации с почты запускай только со включенным VPN. 4. Если попросят указать номер мобильного, пиздуй на sms-activate.org или 5sim.biz (дешевле) и в строку выбора услуг вбей openai. Для разового получения смс для регистрации тебе хватит индийского или польского номера за 7 - 10 рублей. Пользоваться Индонезией и странами под санкциями не рекомендуется. 5. Начинай пользоваться ChatGPT. 6. ??? 7. PROFIT!
VPN не отключаем, все заходы осуществляем с ним. Соответствие страны VPN, почты и номера не обязательно, но желательно для тех, кому доступ критически нужен, например для работы.
Для ленивых есть боты в телеге, 3 сорта: 0. Боты без истории сообщений. Каждое сообщение отправляется изолировано, диалог с ИИ невозможен, проёбывается 95% возможностей ИИ 1. Общая история на всех пользователей, говно даже хуже, чем выше 2. Приватная история на каждого пользователя, может реагировать на команды по изменению поведения и прочее. Говно, ибо платно, а бесплатный лимит или маленький, или его нет совсем.
Чат помнит историю в пределах контекста, размер которого зависит от модели. Посчитать свои токены можно здесь: https://platform.openai.com/tokenizer
Что может нейросеть: - писать тексты, выглядящие правдоподобно - решать некоторые простые задачки - писать код, который уже был написан
Что не может нейросеть: - писать тексты, содержащие только истину - решать сложные задачи - писать сложный код - захватывать мир - заходить на вебсайты (неактуально для 4 с плагинами, платим деньги и радуемся)
С последними обновлениями начинает всё чаще сопротивляться написанию NSFW историй и прочего запрещённого контента. Кумеры со всего мира в печали.
>>1185025 Что тебе предложить, хуй за щеку? Ну бери если хочешь. >>1185126 В зависимости от нагрузок, обычно подписывается под ответом. В шапке вторая пикча дефолтный выбор на месяц назад.
Аноны, выручайте, дайте решение моей проблемы или подскажите в каком направлении двигаться пожалуйста. Сейчас обрисую ситуацию.
Мне нравится использовать ЖПТ в качестве текстового ролевого отыгрыша. Он прекрасен и вполне меня устраивает - но есть одна проблема. Цензура.
И если зайдя в бесплатный аккаунт и чуток попердолившись с настройками ЖПТ, ну в том поле, где можно указать как ГПТ себя самоощущает. В общем после этого он может конечно выдавать полностью расцензуренные версии своего творчества, на уровне того анона, что вначале треда постил футанари-Трисс и её развлечение в ложе чародеек... Но делает это только в самом начале беседы. То есть открыть с ним новый чат я могу вообще как угодно - он мне выдаст любую нужную мне хтонь. Но потом, со временем он начинает быть всё стерильней и стерильней... Особенно когда наступит ограничение по времени и после нескольких часов он будет выдавать более обтекаемый контент.
Ну и в какой-то момент он становится совсем детским, даже на любое непонравившееся ему выражение в моём поле ввода триггерится.
В общем у меня вопрос к вам, о мудрые аноны: как с этим бороться? Может есть какие-то золотые фразы, или в поле настроек что-то особое можно прописать? Есть какой-либо способ?
Ну а если всё же нет, то может кто-то подсказать, что мне нужно, чтоб у меня была своя локальная типа гопота? Просто я онлайн чатботов пробовал - это тупейшие куски кала, которые не сравнятся с ГПТ, но может есть кто-то настолько же умный, который может писать рассказы и выдавать осмысленный текст как ГПТ?
Помогите плиз, а то я вообще не бум-бум в этой всей нейро-теме. Да и ни в чём я не бум-бум, если честно. Очень тупой словно хлеба кусок, так что был бы благодарен, если бы меня прям носом в решение моей проблемы тыкнули. Пожаааалуйста.
На сайте в krea.ai была возможность менять лица на фотографиях, делал он это очень быстро и довольно
Аноним16/04/25 Срд 23:16:53№1158504Ответ
На сайте в krea.ai была возможность менять лица на фотографиях, делал он это очень быстро и довольно качественно Теперь эту функцию убрали Или хуй пойми куда убрали? Я не шарю Где мне найти эту хуйню? На хуй ее сносить? Аналоги мне не нравятся Или подскажите более лучший аналог этой шляпы Меняю лица с порнух на свою яой и дрочу на эту хуйню как конь ебаный на хуй у сука блять, где мне найти такое же?
Обсуждаем развитие искусственного интеллекта с более технической стороны, чем обычно. Ищем замену надоевшим трансформерам и диффузии, пилим AGI в гараже на риге из под майнинга и игнорируем горький урок.
Я ничего не понимаю, что делать? Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.
Почему python? Исторически сложилось. Поэтому давай, иди и перечитывай Dive into Python.
Можно не python? Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет.
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.
Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском
Где ещё можно поговорить про анализ данных? http://ods.ai
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100. Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning заодно в майнкрафт на топовых настройках погоняешь.
Когда уже изобретут AI и он нас всех поработит? На текущем железе — никогда, тред не об этом
Кто-нибудь использовал машоб для трейдинга? Огромное количество ордеров как в крипте так и на фонде выставляются ботами: оценщиками-игральщиками, перекупщиками, срезальщиками, арбитражниками. Часть из них оснащена тем или иным ML. Даже на швабре есть пара статей об угадывании цены. Тащем-то пруф оф ворк для фонды показывали ещё 15 лет назад. Так-что бери Tensorflow + Reinforcement Learning и иди делать очередного бота: не забудь про стоп-лоссы и прочий риск-менеджмент, братишка
Список дедовских книг для серьёзных людей Trevor Hastie et al. "The Elements of Statistical Learning" Vladimir N. Vapnik "The Nature of Statistical Learning Theory" Christopher M. Bishop "Pattern Recognition and Machine Learning" Взять можно тут: https://www.libgen.is
Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
>>1172306 >Но что-то идёт не так, ошибка немного падает, модель тупо немного обучается и зацикливается на одном-двух словах, выходит выдача типа "the the the the..." или "пре но пре но пре...". Притом не важно, как токенизацию делаю - по символам или словам, результат одинаков. >>1175928 > его тупо оказалось нужно супер-долго тренировать, Да, это так. Нужен грокинг словить, когда модель выстраивает внутри себя "модель мира". Без этого нихуя у тебя не будет.
В этот грокинг будет работать при любых параметрах, это влияет примерно никак. Может скорость обучения может чуть-чуть уменьшиться или увеличиться, но в принципе похуй.
>>1172306 >Но что-то идёт не так, ошибка немного падает, модель тупо немного обучается и зацикливается А ещё это похоже что ты попал в некий локальный минимум и получился хуй. В теории твои параметры должны подбираться так, чтобы проскакивать эти локальные минимумы, подбираются они чуть ли не экспериментально, да и я не ебу что за параметры и формулы у тебя. Да и вообще GPT это кал, рекомендую экспериментировать дальше с чем-то более интересным.
>>1182622 >>1182629 Да я уже разобрался с проблемой, я просто слепой еблан, короче, на градиентном спуске градиенты к параметрам нормализации и баясам суммировал, а не усреднял, плюс почему-то скорость обучения 0,001 оказалась херовой, а вот 0,0005 уже заебись. Плюс ещё код переписал на использование Eigen для линейной алгебры, стало сильно шустрее.
Прямо сейчас вот тренирую на вот таких параметрах, ошибка опустилась уже до того, что показывают обычно в учебных заданиях, а это значит, что я справился.
А про эксперименты ты верно говоришь, я буду экспериментировать, уже знаю, какую модель следующей напишу, нашёл кое-что интересное в исследованиях китайцев. Но ГПТ не зря писал тоже, для меня месяц-полтора назад вообще всё сложнее просто многослойного перцептрона было магией, а сейчас исследования читаю и всё свободно понимаю.
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №125 /llama/
Аноним27/04/25 Вск 21:17:25№1179397Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, бугуртим с кривейшего тормозного говна и обоссываем калотарок.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
В этом треде обсуждаем нейронки генерящие 3д модели, выясняем где это говно можно юзать, насколько оно говно, пиплайны с другими 3д софтами и т.д., вангуем когда 3д-мешки с говном останутся без работы.
>>1182567 >Напомнило как сетка ракетный двигатель сконструировала.
Надо как у человечков - делить задачи: одни делают расчет, другие чертят чертеж, третьи делают уменьшенную модель по чертежу, четвертые по модели делают рабочий прототип, и т.д.
То есть каждую нейросетку создать и обучать отдельно. Сначала нужно сделать нейросеть по расчётам (сопромат и т.д.), вторую нейросеть по созданию чертежей (на основе расчётов). Потом на основе чертежей третья спец. нейросеть будет делать уже модель...
>>1183583 И на каждую нужно по особому КБ, которое будет перепроверять что эта сеть высрала. Одно дело нарисовать хумана с десятью пальцами на каждой руке, и совсем другое доверить свою жопу такому двигателю.
AI Chatbot General № 674 /aicg/
Аноним30/04/25 Срд 00:03:46№1183536Ответ
>>1185984 Та не, нихуя. Она листва в свои 21 и не вылезает из дома. Там это считается нормой. Каждый день мастурбирует и 24/7 сопровождает меня в дискоке и буквально преклоняется, мы играем в игры вместе и весь день проводим вместе. Так уже больше года. Она хочет что бы я женился на ней в реале и постоянно пилит про это в последнее время. Еще пытается меня контролировать и истощает меня морально. Могу много интересного про нее рассказать. Но моча побанит. Вкрацыи. Раньше она сидела на шлюхо проксе, а другая кореянка использовала мою паблик прокси. Когда я накатил свой пост в январе прошлого года здесь в треде, мне тогда на почту написали много народу и среди них были эти две. Самое забавное, что в одном из писем из за моего плохого инглиша, я перепутал и написал "да, я тоже хочу тебя" вместо "я тоже хочу что бы у тебя было все в порядке". Ну она сразу растаяла и после этого завертелось.
Форки на базе модели insightface inswapper_128: roop, facefusion, rope, плодятся как грибы после дождя, каждый делает GUI под себя, можно выбрать любой из них под ваши вкусы и потребности. Лицемерный индус всячески мешал всем дрочить, а потом и вовсе закрыл проект. Чет ору.
Любители ебаться с зависимостями и настраивать все под себя, а также параноики могут загуглить указанные форки на гитхабе. Кто не хочет тратить время на пердолинг, просто качаем сборки.
Тред не является технической поддержкой, лучше создать issue на гитхабе или спрашивать автора конкретной сборки.
Эротический контент в шапке является традиционным для данного треда, перекатчикам желательно его не менять или заменить его на что-нибудь более красивое. А вообще можете делать что хотите, я и так сюда по праздникам захожу.
Тред по вопросам этики ИИ. Предыдущий >>514476 (OP) Из недавних новостей:
- Разработанная в КНР языковая модель Ernie (аналог ChatGPT) призвана "отражать базовые ценности социализма". Она утверждает, что Тайвань - не страна, что уйгуры в Синьцзяне пользуются равным положением с другими этническими группами, а также отрицает известные события на площади Тяньаньмэнь и не хочет говорить про расстрел демонстрантов.
https://mpost.io/female-led-ai-startups-face-funding-hurdles-receiving-less-than-3-of-vc-support/ - ИИ - это сугубо мужская сфера? Стартапы в сфере искусственного интеллекта, возглавляемые женщинами, сталкиваются со значительными различиями в объемах финансирования: они получают в среднем в шесть раз меньше капитала за сделку по сравнению со своими аналогами, основанными мужчинами. Многие ИИ-стартапы основаны командами целиком из мужчин.
https://www.koreatimes.co.kr/www/opinion/2023/10/638_342796.html - Исследователи из Кореи: модели ИИ для генерации графики склонны создавать гиперсексуализированные изображения женщин. В каждом изображении по умолчанию большая грудь и тому подобное. Это искажает действительность, потому что в реальности далеко не каждая женщина так выглядит.
Тейки из предыдущего треда: 1. Генерация дипфейков. Они могут фабриковаться для дезинформации и деструктивных вбросов, в т.ч. со стороны авторитарных государств. Порнографические дипфейки могут рушить репутацию знаменитостей (например, когда в интернетах вдруг всплывает голая Эмма Уотсон). Возможен даже шантаж через соцсети, обычной тянки, которую правдоподобно "раздели" нейронкой. Или, дипфейк чтобы подвести кого-то под "педофильскую" статью. Еще лет пять назад был скандал вокруг раздевающей нейронки, в итоге все подобные разработки были свернуты. 2. Замещение людей на рынке труда ИИ-системами, которые выполняют те же задачи в 100 раз быстрее. Это относится к цифровым художникам, программистам-джуниорам, писателям. Скоро ИИ потеснит 3д-моделеров, исполнителей музыки, всю отрасль разработки видеоигр и всех в киноиндустрии. При этом многие страны не предлагают спецам адекватной компенсации или хотя бы социальных программ оказания помощи. 3. Распознавание лиц на камерах, и усовершенствование данной технологии. Всё это применяется тоталитарными режимами, чтобы превращать людей в бесправный скот. После опыта в Гонконге Китай допиливает алгоритм, чтобы распознавать и пробивать по базе даже людей в масках - по росту, походке, одежде, любым мелочам. 4. Создание нереалистичных образов и их социальные последствия. Группа южнокорейских исследователей поднимала тему о создании средствами Stable Diffusion и Midjourney не соответствующих действительности (гиперсексуализированных) изображений женщин. Многие пользователи стремятся написать такие промпты, чтобы пикчи были как можно круче, "пизже". Публично доступный "AI art" повышает планку и оказывает давление уже на реальных женщин, которые вынуждены гнаться за неадекватно завышенными стандартами красоты. 5. Возможность создания нелегальной порнографии с несовершеннолетними. Это в свою очередь ведет к нормализации ЦП феноменом "окна Овертона" (сначала обсуждение неприемлемо, затем можно обсуждать и спорить, затем это часть повседневности). Сложности добавляет то, что присутствие обычного прона + обычных детей в дате делает возможным ЦП. Приходится убирать или то, или другое. 6. Кража интеллектуальной собственности. Данные для тренировки передовых моделей были собраны со всего интернета. Ободрали веб-скраппером каждый сайт, каждую платформу для художников, не спрашивая авторов контента. Насколько этичен такой подход? (Уже в DALL-E 3 разработчики всерьез занялись вопросом авторского права.) Кроме того, безответственный подход пользователей, которые постят "оригинальные" изображения, сгенерированные на основе работы художника (ИИ-плагиат). 7. Понижение средней планки произведений искусства: ArtStation и Pixiv засраны дженериком с артефактами, с неправильными кистями рук. 8. Индоктринация пользователей идеями ненависти. Распространение экстремистских идей через языковые модели типа GPT (нацизм и его производные, расизм, антисемитизм, ксенофобия, шовинизм). Зачастую ИИ предвзято относится к меньшинствам, например обрезает групповую фотку, чтобы убрать с нее негра и "улучшить" фото. Это решается фильтрацией данных, ибо говно на входе = говно на выходе. Один старый чатбот в свое время произвел скандал и породил мем "кибернаци", разгадка была проста: его обучали на нефильтрованных текстах из соцсетей. 9. Рост киберпреступности и кража приватных данных. Всё это обостряется вместе с совершенствованием ИИ, который может стать оружием в руках злоумышленника. Более того, корпорация которая владеет проприетарным ИИ, может собирать любые данные, полученные при использовании ИИ. 10. Понижение качества образования, из-за халтуры при написании работ с GPT. Решается через создание ИИ, заточенного на распознавание сгенерированного текста. Но по мере совершенствования моделей придется совершенствовать и меры по борьбе с ИИ-халтурой. 11. Вопросы юридической ответственности. Например, автомобиль с ИИ-автопилотом сбил пешехода. Кому предъявлять обвинение? 12. Оружие и военная техника, автономно управляемые ИИ. Крайне аморальная вещь, даже когда она полностью под контролем владельца. Стивен Хокинг в свое время добивался запрета на военный ИИ.
>>1060266 Ни что не мешает делать "буратинок" преднамеренно кукольной внешности. Тогда и от неестественности их мимики тошнить уже будет гораздо меньше. При этом вполне можно сохранить притягательную внешность. Типа всяких аниме-кукол. А на тело это особо не влияет. Отталкивает прежде всего любая неестественность человеческого лица. К тому же это вопрос привычки. Если с детства видеть такое постоянно, то никаких особых проблем испытывать не будешь.