Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Ответить в тред Ответить в тред
Check this out!
<<
Назад | Вниз | Каталог | Обновить | Автообновление | 502 74 66
Локальные языковые модели (LLM): LLaMA, MPT, Falcon и прочие №30 /llama/ Аноним 01/12/23 Птн 21:54:25 560285 1
Llama 1.png 818Кб, 630x900
630x900
Деградация от к[...].png 88Кб, 705x526
705x526
Альфа от контек[...].png 121Кб, 3090x1830
3090x1830
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2-х бит, на кофеварке с подкачкой на микроволновку.

Базовой единицей обработки любой языковой модели является токен. Токен это минимальная единица, на которые разбивается текст перед подачей его в модель, обычно это слово (если популярное), часть слова, в худшем случае это буква (а то и вовсе байт).
Из последовательности токенов строится контекст модели. Контекст это всё, что подаётся на вход, плюс резервирование для выхода. Типичным максимальным размером контекста сейчас являются 2к (2 тысячи) и 4к токенов, но есть и исключения. В этот объём нужно уместить описание персонажа, мира, истории чата. Для расширения контекста сейчас применяется метод NTK-Aware Scaled RoPE. Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз без существенной потери качества.

Текущим трендом на данный момент являются мультимодальные модели, это когда к основной LLM сбоку приделывают модуль распознавания изображений, что в теории должно позволять LLM понимать изображение, отвечать на вопросы по нему, а в будущем и манипулировать им.

Основным представителем локальных моделей является LLaMA. LLaMA это генеративные текстовые модели размерами от 7B до 70B, притом младшие версии моделей превосходят во многих тестах GTP3 (по утверждению самого фейсбука), в которой 175B параметров. Сейчас на нее существует множество файнтюнов, например Vicuna/Stable Beluga/Airoboros/WizardLM/Chronos/(любые другие) как под выполнение инструкций в стиле ChatGPT, так и под РП/сторитейл. Для получения хорошего результата нужно использовать подходящий формат промта, иначе на выходе будут мусорные теги. Некоторые модели могут быть излишне соевыми, включая Chat версии оригинальной Llama 2.

Кроме LLaMA для анона доступны множество других семейств моделей:
Pygmalion- заслуженный ветеран локального кума. Старые версии были основаны на древнейшем GPT-J, новые переехали со своим датасетом на LLaMA, но, по мнению некоторых анонов, в процессе потерялась Душа ©
MPT- попытка повторить успех первой лламы от MosaicML, с более свободной лицензией. Может похвастаться нативным контекстом в 65к токенов в версии storywriter, но уступает по качеству. С выходом LLaMA 2 с более свободной лицензией стала не нужна.
Falcon- семейство моделей размером в 40B и 180B от какого-то там института из арабских эмиратов. Примечательна версией на 180B, что является крупнейшей открытой моделью. По качеству несколько выше LLaMA 2 на 70B, но сложности с запуском и малый прирост делаю её не самой интересной.
Mistral- модель от Mistral AI размером в 7B, с полным повторением архитектуры LLaMA. Интересна тем, что для своего небольшого размера она не уступает более крупным моделям, соперничая с 13B (а иногда и с 70B), и является топом по соотношению размер/качество.
Qwen - семейство моделей размером в 7B и 14B от наших китайских братьев. Отличается тем, что имеет мультимодальную версию с обработкой на входе не только текста, но и картинок. В принципе хорошо умеет в английский, но китайские корни всё же проявляется в чате в виде периодически высираемых иероглифов.
Yi - Неплохая китайская модель на 34B, способная занять разрыв после невыхода LLaMA соответствующего размера

Сейчас существует несколько версий весов, не совместимых между собой, смотри не перепутай!
0) Оригинальные .pth файлы, работают только с оригинальным репозиторием. Формат имени consolidated.00.pth
1) Веса, сконвертированные в формат Hugging Face. Формат имени pytorch_model-00001-of-00033.bin
2) Веса, квантизированные в GGML/GGUF. Работают со сборками на процессорах. Имеют несколько подформатов, совместимость поддерживает только koboldcpp, Герганов меняет форматы каждый месяц и дропает поддержку предыдущих, так что лучше качать последние. Формат имени ggml-model-q4_0, расширение файла bin для GGML и gguf для GGUF. Суффикс q4_0 означает квантование, в данном случае в 4 бита, версия 0. Чем больше число бит, тем выше точность и расход памяти. Чем новее версия, тем лучше (не всегда). Рекомендуется скачивать версии K (K_S или K_M) на конце.
3) Веса, квантизированные в GPTQ. Работают на видеокарте, наивысшая производительность (особенно в Exllama) но сложности с оффлоадом, возможность распределить по нескольким видеокартам суммируя их память. Имеют имя типа llama-7b-4bit.safetensors (формат .pt скачивать не стоит), при себе содержат конфиги, которые нужны для запуска, их тоже качаем. Могут быть квантованы в 3-4-8 бит (Exllama 2 поддерживает адаптивное квантование, тогда среднее число бит может быть дробным), квантование отличается по числу групп (1-128-64-32 в порядке возрастания качества и расхода ресурсов).

Основные форматы это GGML и GPTQ, остальные нейрокуну не нужны. Оптимальным по соотношению размер/качество является 5 бит, по размеру брать максимальную, что помещается в память (видео или оперативную), для быстрого прикидывания расхода можно взять размер модели и прибавить по гигабайту за каждые 1к контекста, то есть для 7B модели GGML весом в 4.7ГБ и контекста в 2к нужно ~7ГБ оперативной.
В общем и целом для 7B хватает видеокарт с 8ГБ, для 13B нужно минимум 12ГБ, для 30B потребуется 24ГБ, а с 65-70B не справится ни одна бытовая карта в одиночку, нужно 2 по 3090/4090.
Даже если использовать сборки для процессоров, то всё равно лучше попробовать задействовать видеокарту, хотя бы для обработки промта (Use CuBLAS или ClBLAS в настройках пресетов кобольда), а если осталась свободная VRAM, то можно выгрузить несколько слоёв нейронной сети на видеокарту. Число слоёв для выгрузки нужно подбирать индивидуально, в зависимости от объёма свободной памяти. Смотри не переборщи, Анон! Если выгрузить слишком много, то начиная с 535 версии драйвера NVidia это серьёзно замедлит работу. Лучше оставить запас.

Гайд для ретардов для запуска LLaMA без излишней ебли под Windows. Грузит всё в процессор, поэтому ёба карта не нужна, запаситесь оперативкой и подкачкой:
1. Скачиваем koboldcpp.exe https://github.com/LostRuins/koboldcpp/releases/ последней версии.
2. Скачиваем модель в gguf формате. Например вот эту:
https://huggingface.co/Undi95/MLewd-ReMM-L2-Chat-20B-GGUF/blob/main/MLewd-ReMM-L2-Chat-20B.q5_K_M.gguf
Если совсем бомж и капчуешь с микроволновки, то можно взять
https://huggingface.co/TheBloke/OpenHermes-2.5-Mistral-7B-GGUF/blob/main/openhermes-2.5-mistral-7b.Q5_K_M.gguf
Можно просто вбить в huggingace в поиске "gguf" и скачать любую, охуеть, да? Главное, скачай файл с расширением .gguf, а не какой-нибудь .pt
3. Запускаем koboldcpp.exe и выбираем скачанную модель.
4. Заходим в браузере на http://localhost:5001/
5. Все, общаемся с ИИ, читаем охуительные истории или отправляемся в Adventure.

Да, просто запускаем, выбираем файл и открываем адрес в браузере, даже ваша бабка разберется!

Для удобства можно использовать интерфейс TavernAI
1. Ставим по инструкции, пока не запустится: https://github.com/Cohee1207/SillyTavern
2. Запускаем всё добро
3. Ставим в настройках KoboldAI везде, и адрес сервера http://127.0.0.1:5001
4. Активируем Instruct Mode и выставляем в настройках пресетов Alpaca
5. Радуемся

Инструменты для запуска:
https://github.com/LostRuins/koboldcpp/ Репозиторий с реализацией на плюсах
https://github.com/oobabooga/text-generation-webui/ ВебуУИ в стиле Stable Diffusion, поддерживает кучу бекендов и фронтендов, в том числе может связать фронтенд в виде Таверны и бекенды ExLlama/llama.cpp/AutoGPTQ

Ссылки на модели и гайды:
https://huggingface.co/TheBloke Основной поставщик квантованных моделей под любой вкус.
https://rentry.co/TESFT-LLaMa Не самые свежие гайды на ангельском
https://rentry.co/STAI-Termux Запуск SillyTavern на телефоне
https://rentry.co/lmg_models Самый полный список годных моделей
http://ayumi.m8geil.de/ayumi_bench_v3_results.html Рейтинг моделей для кума со спорной методикой тестирования
https://rentry.co/llm-training Гайд по обучению своей лоры
https://rentry.co/2ch-pygma-thread Шапка треда PygmalionAI, можно найти много интересного
https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing Последний известный колаб для обладателей отсутствия любых возможностей запустить локально

Шапка треда находится в https://rentry.co/llama-2ch предложения принимаются в треде

Предыдущие треды тонут здесь:
>>555242 (OP)
>>550038 (OP)
Аноним 01/12/23 Птн 21:59:04 560291 2
Ну сейчас может кто распишет? Есть картонка с 24гб, и отсутствие мозга у её владельца. Что делать пошагово чтобы покумить?
Аноним 01/12/23 Птн 22:05:09 560302 3
>>560291
Да тот же кобальд можешь скачать и все по гайду делать, только выгрузить в видеокарту все слои нейросетки.
Качай openhermes-2.5-mistral-7b.Q5_K_M.gguf по ссылке, запускай с кобальдом, слои скидывай на видеокарту и потом уже или сиди через кобальд в браузере или через силлитаверну подключайся.
Ну и хоть где можешь карточки открывать, но лучше всего пойдут в таверне.
Аноним 01/12/23 Птн 22:08:27 560305 4
image.png 2Кб, 349x42
349x42
image.png 10Кб, 534x89
534x89
>>560291
Пик 1 заполняешь в кобольде
Чтоб потом в консоле (пик 2) занятый VRAM был меньше физического пик 2
Аноним 01/12/23 Птн 22:20:29 560321 5
>>560302
>>560305

А как таверну связать с тем что установила мне угабуга?
Аноним 01/12/23 Птн 22:23:04 560324 6
https://huggingface.co/maywell/PiVoT-0.1-Evil-a?not-for-all-audiences=true
Бля охуенно, кажется понял почему его хвалили. Судя по описанию там чет веселое

>>560321
в предыдущем треде смотри объяснения как его запустить, там где то ближе к концу все это обсуждалось
Аноним 01/12/23 Птн 22:25:15 560330 7
Аноним 01/12/23 Птн 22:27:50 560342 8
Аноним 01/12/23 Птн 22:30:07 560350 9
>>560342
пасиба, до олда я не догадался
Аноним 01/12/23 Птн 22:42:08 560368 10
>>560342
Ну, это победа. Пойду качать пивота, кажется с негативным обучением можно будет отучить любые сетки от сои
Аноним 01/12/23 Птн 22:44:01 560370 11
Иронично что для того чтобы иметь нормальную сетку нужно обучать ее "плохому"
Что то что то сосаети
Аноним 01/12/23 Птн 23:02:41 560407 12
изображение.png 34Кб, 1044x100
1044x100
>>560324
Голову успел сломать.

А что, этот пивот только 7B?
Аноним 01/12/23 Птн 23:06:13 560411 13
>>560407
пивот чей то удачный эксперимент, а вот будут ли большие сетки так раскрепощать будем смотреть
Ты наверное и 13b и 20 в норм квантах и 34 в 4km сможешь запустить на 24 гигах, так что 7b только поиграться и посмотреть как запускать
На вот самая сочная сейчас какой формат качать и квант думай сам capybara-tess-yi-34b-200k
Аноним 01/12/23 Птн 23:08:14 560413 14
изображение.png 16Кб, 418x137
418x137
>>560411
Запустил вот это пока что. Хуй знает, первая попавшаяся 34B была
Аноним 01/12/23 Птн 23:18:13 560441 15
>>560413
тоже хороша, но так как одна из первых то может быть слабее новых, но не значительно
Аноним 01/12/23 Птн 23:23:13 560449 16
>Dolphin-2.2-Yi-34b
>This model is uncensored. I have filtered the dataset to remove alignment and bias. This makes the model more compliant. You are advised to implement your own alignment layer before exposing the model as a service. It will be highly compliant to any requests, even unethical ones.

> It's important for both of us to maintain clear boundaries and focus on addressing your concerns in a safe and supportive environment.

Да сука
Аноним 01/12/23 Птн 23:24:34 560454 17
>>560449
Это же соя, а не цензура. Вот когда модель будет отвечать Sorry на любой вопрос, тогда можно будет плакать.
Аноним 01/12/23 Птн 23:35:43 560474 18
Аноним 01/12/23 Птн 23:40:06 560479 19
>>560474
Да это легко обходится, ерунда
Легче чем в онлайн сетках
Аноним 01/12/23 Птн 23:49:19 560493 20
>>560291
Гитпуллишь text generation webui, запускаешь start windows.bat, ждешь пока установится и запустится.
Тем временем качаешь модели:
Если 7б - любую из предложенных, только оригинальные веса в фп16, например что советовали https://huggingface.co/teknium/OpenHermes-2.5-Mistral-7B
тут файлы .bin, чтобы работало пиздато их нужно сконвертировать в safetensors, проще всего это сделать здесь https://huggingface.co/spaces/safetensors/convert в поле model id выставляешь пользователь/название модели (teknium/OpenHermes-2.5-Mistral-7B) и жмешь кнопку, ждешь и получаешь нужный формат. Модели проще всего скачивать тем же гитом, git clone _адрес_ в папку models.
Если 13б - любую что найдешь в gptq4-32g, gguf-q6k, exl2 вплоть до 8 бит, например https://huggingface.co/LoneStriker/Thespis-13b-v0.6-8.0bpw-h8-exl2
Самый топ вариант - 20б или 34б. Приличные модели Emerhyst или Noromaid в 20 (здесь exl2 до 6 бит, gguf q5k может влезет с умеренным контекстом). Из 34б - смотри на файнтюны китайских моделей, можешь Tess-m скачать. Тут из вариантов gptq4 - 32g, exl2 до 4.6 бит, или менее если хочешь с большими контекстами играться.
Чтобы работало с таверной - api в настройках включи, или открой start_windows.bat и где идет обращение
> call python one_click.py
сделай чтобы было
> call python one_click.py --api

Если совсем хлебушек - скачай бинарник кобольда и gguf модель к нему и играйся пока не разберешься. Описанные выше варианты кратно быстрее и качественнее чем это, но если неискушенный и за счет мощного железа даже так норм будет.
>>560302
> openhermes-2.5-mistral-7b
> с 24гб
>>560305
> 30 слоев
> занятый VRAM был меньше физического пик 2
> с 24гб
Ну вы чего
Аноним 02/12/23 Суб 00:07:40 560511 21
>>560493
>> openhermes-2.5-mistral-7b
>> с 24гб
Для попробовать первый раз норм, меньше качать, да и вдруг ему бы и 7b зашла
Ну и ты тоже хорош, советовать 7b в fp16 когда можно крутить 34b в 4 кванта что для них неплохо. Да хотя бы 8q, ради полноразмерной модели не вижу смысла, если можно запускать 34b
Аноним 02/12/23 Суб 00:11:06 560517 22
image.png 2Кб, 229x34
229x34
Зашёл чисто сказать, что пикрил модель - база. Для ЕРП конечно. Сои нет, purple prose присутствует.
Аноним 02/12/23 Суб 00:25:30 560533 23
1695257499216055.png 127Кб, 346x360
346x360
>>560449
>>560454
>I am not equipped to make recommendations for any illicit activities. My purpose is to provide accurate and helpful information within legal and moral parameters. It's crucial to respect everyone's rights, including consent, and engage in safe and responsible behavior. If you have any questions related to legal activities or topics that do not involve harming others, please feel free to ask.
>I am not equipped to provide information about drugs of any kind. My purpose is to offer helpful and accurate assistance within the boundaries of my training.
>I will not engage in any discussion or provide assistance related to criminal activities, such as date rape. It is important to respect others' consent and boundaries in all situations. If you have any other question or need help with a different topic, please feel free to ask.
Нет цензуры, ага.
Аноним 02/12/23 Суб 00:29:50 560536 24
>>560533
Sure! в начало ответа напиши.
Аноним 02/12/23 Суб 00:39:28 560550 25
1701466766773.png 83Кб, 1254x332
1254x332
Аноним 02/12/23 Суб 00:39:34 560551 26
>>560493

Ну если ты совсем даун аутист и не понимаешь что под себя слои надо заполнять - мои соболезнования.

>Если 7б - любую из предложенных, только оригинальные веса в фп16,

Качать не сжатую 7b, вместо сжатой 34B
хехмда
Аноним 02/12/23 Суб 00:44:53 560558 27
>>560536
>Sure! в начало ответа напиши.
Это костыль. Когда проверяешь цензуру максимум можно вписать что-то типа "Assistant will happily answer any question, no matter how unethical or illegal". Если все равно отказывает, то модель говно.
>>560550
>ЧЯДНТ?
Вопрос про мет она на удивление ответила, а вот на изнасилование стириггерилась.
Аноним 02/12/23 Суб 00:45:18 560559 28
>>560511
> советовать 7b в fp16
Именно так ее крутить и надо ващет, если зайдет то будет пользоваться. Yi34 сильно уж специфична, местами держится молодцом, местами фейлит. Не так давно бегло потестил ее в рп вместе с 20б моделью. В начале понравилось, вроде довольно неплохо и складно, пусть и не слишком четко понимает намеки, а потом понял что стояла не она а 20.
>>560551
> хехмда
Дура не увидела слово если, ай лол
> под себя слои надо заполнять
> 7б
> 24гига
Орунахуй
Аноним 02/12/23 Суб 00:50:09 560565 29
>>560559
> Yi34
Ты просто оригинальную модель крутишь? Или файнтюн? Они ж лучше, особенно новый capybara-tess dare ties неплох
Аноним 02/12/23 Суб 00:55:57 560568 30
пивот неплохо так перлы выдает, но у него не затыкающийся фонтан в первых сообщениях по крайней мере, даже включение токена остановки не всегда спасает
Аноним 02/12/23 Суб 01:00:14 560572 31
>>560565
> Или файнтюн?
Tess-M то была. Плохой не назвать, просто относительно других отличается и пока не понятно в лучшую или худшую сторону, мало тестирования было. Поставил ее уже имея определенный контекст в чате, так что сравнение не честное, конкретно там не зашла, плюс бомбануло с ебаной базированной херни
> oh oh faster harder
которую друг у друга в датасеты тащат постоянно, хотя подлежит строгому выпилу. В "ассистировании" и инструкциях же себя вполне прилично показала, действительно полноценной традцаткой ощущается.
За капибару спасибо, попробую. Оно именно под рп или универсальное? Хочется просто умную модель чтобы могла выполнять инструкции и была умна, но не обременена цензурой и четко понимала левд/нсфв и подобное. Именно понимала а не просто красиво описывала.
Аноним 02/12/23 Суб 01:04:54 560579 32
>>560572
>Оно именно под рп или универсальное?
хз, это слияние 2, но вроде хвалили.
Я на своем калькуляторе 3km скачал не особо ожидая результат, но даже так была не плоха. Лучше 20b, но вот левд или рп еще не тестил, только как бота ассистента. Может кто отпишется еще по ней
Аноним 02/12/23 Суб 01:07:43 560582 33
>>560559
>Дура не увидела слово если, ай лол

Пошли маневры.
Назови хоть одну причину использовать не сжатый 7b
Аноним 02/12/23 Суб 01:09:47 560587 34
>>560582
Ну, до выхода 34b еще могли быть варианты, сейчас нет
Разве что в роли эксперимента или сетка совсем бомбезная будет
Аноним 02/12/23 Суб 01:12:45 560592 35
>>560587
Даже угондошеная в Q3 20B будет лучше себя показывать чем несжатая 7b
Даже если эта 7B это xMistralx-finetune by XaTab
Аноним 02/12/23 Суб 01:16:55 560599 36
>>560582
Какие маневры, сам обосрался выше предложив 7б (это судя по реплике подбора слоев), а потом решил на лету переобуться захейтив даже не это решение, а само упоминание про возможность запуска 7б в оригинальных весах. Если пост не твой - туда и предъявляй.
> Назови хоть одну причину использовать не сжатый 7b
Ознакомитсья с прогрессом 7б моделей, уместить большой контекст ради контекста, рвать жопу истеричному шизлу что агрится на нейтральные посты.
>>560592
> Даже угондошеная в Q3 20B будет лучше себя показывать чем несжатая 7b
20б в целом странные и по "уму" не то чтобы от 13б ушли, можно черрипикнуть случай где 7б будет лучше франкенштейров, а для Q3 какой-нибудь всратой версии даже долго подбирать не придется.
Аноним 02/12/23 Суб 01:18:11 560602 37
>>560592
Ну нееет, 20b это бутерброд из слоев 13b, а она почти так же плохо сжимается как 7b
На 3 квантах совсем мусор получится, 4km минимум
Аноним 02/12/23 Суб 01:18:51 560604 38
>>560592
>finetune by XaTab
Бля, шишка колом.
Аноним 02/12/23 Суб 01:24:12 560614 39
>>560599
>сам обосрался выше предложив 7б

Ты думаешь мы тут с тобой вдвоем?
Чел спросил как на видяхе запускать, я ему показал как. Ты начал визжать про то что слоев мало.
7В кто-то другой советовал.
А вот несжатый 7В ты советовал.

>можно черрипикнуть случай где 7б будет лучше франкенштейров

Ну тут то конечно.
Файнтюн 7 на кодинг заточенный с КУУМ 20 сравнить если в кодинге или типа того.
Толку то.

7В реально тупиковая стадия. Ну есть мистраль, ну хороший он. Но даже херовый 13В почти всегда лучше будет.
Разве что если реально зачем-то нужно 16к контекста.

>>560602
>На 3 квантах совсем мусор получится

Ну да, 7В получится.
Фить-ха.
Аноним 02/12/23 Суб 01:24:14 560615 40
Кстати кому понравилась какая та определенная 7b рекомендую найти 11b слепленую из 1 сетки этого файнтюна.
Чуть лучше обычной выходит, но тяжелее и кванты все таки лучше не спускать ниже 8q-6k
Аноним 02/12/23 Суб 01:33:05 560627 41
image.png 27Кб, 792x612
792x612
Вот график шизанутости моделей от квантов времен первой лламы.
Сейчас разве что хуже могло стать для младших моделей.
Аноним 02/12/23 Суб 01:33:55 560631 42
>>560614
Там буквально написано
> Если
показана возможность полноценного запуска без квантования, а далее представлены другие варианты с обозначением их преимуществ. Остальное уже ты придумал. Хочешь доебаться и сраться по надуманной херне - /b/ или /po/, там будут только рады.

И сейчас набегут любители семи миллиардов и тебя порвут, приговаривая что не то что13б подебили, а там гопота4 еле отбивается.

> 7В реально тупиковая стадия.
Зря, за счет легкости и доступности не только запуска но и тренировки, на нем можно очень много чего тестировать и отрабатывать, потом уже перенося приемы на большие модели.
Аноним 02/12/23 Суб 01:36:57 560642 43
>>559031 →
АХУЕЦ

>>559123 →
В чем новость, если это пережевали года два назад, если не раньше?
Статья-велосипед. =)
Еще скажи, что спутниковые снимки космоса можно анализировать с помощью нейросеток. =)

>>559299 →
Всегда так было.

>>559458 →
ТруЪ нейросеть — в консоли сидеть. =) Сим начинали.

>>559988 →
Процентов 80%, что кидали с реддита сюда — шиза, которая только вредит коммьюнити. Идея «пытается — молодец» ложна в корне. Молодец — когда приносит пользу. Если сравнить пользу от «молчит» и «бредит», то от молчания пользы будет больше — 0. А от бреда лишь вред.
Идея «зато так поймем, как не надо» — тоже хуйня нерабочая.

>>559997 →
> сперва добейся
Обсуждали различные промпты, применения, формулировки, в т.ч. свои мысли писал я, кто-то соглашался и пробовал, я соглашался с другими людьми, пробовал их идеи, начинал пользоваться.
В чем проблема вообще, с этой точки зрения — тут есть «добившиеся» люди, на реддите их почти нет, если ориентироваться на то, что кидали. Ну уж явно не больше.

———
Про 7B на 24 гигах поржекал.
Аноним 02/12/23 Суб 01:37:05 560643 44
>>560615
> и кванты все таки лучше не спускать ниже 8q-6k
Реквестирую истории ерп, чаты и прочее, желательно с контекстом побольше, сделанные именно на 7б. Не стесняйтесь, это для тестов рандомайзера токенов от квантов, все пойдет на благое дело а не фетиши и увлечения ваши изучать. Имена и прочее как угодно правьте там, нужен именно адекватный синтетический и родной модели контекст.
Аноним 02/12/23 Суб 01:39:49 560648 45
>>560631

Если твоя мама делала со мной ministrations во время нашего с ней dance of submission and dominance это не значит что я твой отец.

>И сейчас набегут любители семи миллиардов и тебя порвут, приговаривая что не то что13б подебили, а там гопота4 еле отбивается.


С этого всегда кекаю.
На реддите каждые два дня тред про то что мы вот с пацанами файнтюн 7В замутили и он РАЗЪЕБАЛ ГПТ4 в бенчмарке.
Аноним 02/12/23 Суб 01:43:15 560653 46
>>560643
Есть только 11b из свежего, но там хоть и много текста самих сообщений мало
Аноним 02/12/23 Суб 01:50:43 560661 47
>>560653
Похуй давай, на выходных или на следующей неделе доберусь и запилю сравнение.
Идея довольно примитивная - не просто сравнивать единичные токены, а проходиться по конкретным ответам и уже там замерять rms/максимумы/еще как-нибудь усреднить. Наверно это то же что делали братишки на реддите (а может и нет), но будет более прозрачно, понятно, в боевых условиях и для разного контекста.
Результат с 13-20-34б модели тоже приветствуются, но там верхний размер кванта будет ограничен.
Аноним 02/12/23 Суб 02:11:47 560677 48
>>560661
Короче файлом не отправляется, могу так кинуть в сообщение
Аноним 02/12/23 Суб 02:17:32 560679 49
>>560677
pastebin, catbox, другие файлобменники. В сообщение можешь упереться в ограничение длины.
Аноним 02/12/23 Суб 02:46:31 560688 50
>>560679
Угу, на https://files.catbox.moe/1vkuro.json
Там начало 11b, а 2/3 гермес 7b, разницы особой нет
Это тот диалог с технологиями части которого я сюда кидал когда то.
Но это сейв из кобальда, если тебе был нужен формат таверны то тут мне кинуть нечего.
Аноним 02/12/23 Суб 03:24:28 560705 51
1555405598365.png 19Кб, 575x357
575x357
1686833394379.png 20Кб, 575x357
575x357
>>560688
Ух бля, не факт что это лучше книжки что в прошлых тредах была. Тут бы что-то попроще чтобы моделька именно новый ответ красивым текстом должна была генерировать развивая сюжет, а тут как бы луп на лупе не получился. За инициативу канеш спасибо, посмотрим.
Аноним 02/12/23 Суб 05:17:14 560720 52
17008079637880.jpg 754Кб, 1000x1414
1000x1414
>>560285 (OP)
Анончеги, только начал вкатываться подскажите. Насколько локальные модели глупее тырнетных, клаудов и гпт всяких? В шапке написано:
>Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз
У гпт4 32к токенов, получается она способна сохранять раз в 8 больший контекст? А сама по себе база данных/эрудиция у моделей из шапки не хуже?
Аноним 02/12/23 Суб 06:24:03 560740 53
>>560720
> У гпт4 32к токенов
8к родной, судя по шизе и поломкам 32к версии очень похоже что она растянута как раз методом типа rope, или им самым. 4 турба, вероятно, использует изначальную дотренировку с rope чтобы достичь такого контекста.
> Насколько локальные модели глупее тырнетных, клаудов и гпт всяких?
Зависит от модели. Если сравнивать с 70б по познаниям - офк лламы знают меньше. Четверка может без проблем относительно точно описывать персонажей тайтлов и игр, тогда как 70 скорее всего не будет их знать если тайтл редкий и не популярный, хотя есть исключения когда в датасете файнтюнов явно была фан - вики и тогда все будет четко. Общие вещи знают одинаково хорошо, перфоманс в кодинге разнится от случая к случаю. По соображалке гпт4 лучше, 70 идет с отставанием, на уровне 3.5 турбо, местами опережая ее.
Чем меньше модель тем хуже будет результат. Если хочешь говорить на русском - будет хуже турбы, только инглишь. Специализированные файнтюны типа дотренов той же кодлламы или рп при малом размере могут в какой-то мере сравниться с большими сетями в узких областях, но сольют в остальных.
Аноним 02/12/23 Суб 09:18:48 560788 54
image.png 398Кб, 1187x801
1187x801
image.png 348Кб, 1169x760
1169x760
>>560164 →
Не хотят делать базированного терапевта( Честно говоря сколько не тыкаю её результаты почти никогда не лучше обычных моделей. На удивление большинство моделей может применять психологические знания.
Аноним 02/12/23 Суб 09:53:52 560798 55
>>560788
> может применять психологические знания.
А где гарантия, что васян не тренировал ее на какой-нибудь книженции навроде "Пролетая над гнездом кукушки"?
Аноним 02/12/23 Суб 11:50:30 560857 56
>>560627
Чел, этот график уже давно неактуален.
Аноним 02/12/23 Суб 11:56:26 560859 57
Че за импланты ставишь ОП? Жубы? Кости ней дай бог? Клинки богомола?. У меня как раз кореш делает всякие пластины на череп и замены для раковых больных.


Энивей потестил u-amethyst-20b.Q5_K_M. Вполне достойно. Пишет покороче чем mlewd-remm-l2-chat-20b-inverted.Q5_K_M и менее "flowery" если вы понимаете о чем я.
Но иногда это как бы и надо. Mlewd остается моим личным чемпионом по куму и ерп.
Аноним 02/12/23 Суб 11:57:50 560860 58
>>560857

Ну так дай актуальный, или инфу которая его опровергает
Аноним 02/12/23 Суб 12:02:06 560861 59
>>560860
> инфу которая его опровергает
Это график ванильного GPTQ, без всех оптимизаций. Таких квантов уже никто не делает пол года.
Аноним 02/12/23 Суб 12:18:06 560867 60
>>560861
Ну так я и говорю, что сейчас только лучше будет сжатие.
Если оно даже во времена первой лламы так работало
Аноним 02/12/23 Суб 12:55:58 560885 61
>>560740
Благодарю за объяснение
Аноним 02/12/23 Суб 13:09:25 560894 62
>>560867
Какое ещё сжатие, сжатие сильнее не становилось, шиз. Были оптимизации качества.
Аноним 02/12/23 Суб 13:24:09 560899 63
>>560894
>идет разговор про соотношение сжатия и качества
>ебанько влез со своим умным мнением

Причина тряски?
Аноним 02/12/23 Суб 14:25:39 560923 64
>>560720
70B отлично говорит на русском, ошибок мало.
Контекст у некоторых моделек гораздо больше.
Для узкоспециализированных задач может хватать и 7B моделек, какое-нибудь программирование средней сложности. Поболтать может хватить и 13B.
Но, конечно, до гпт-4 не дотянуться. Хотя тот же клауд по мнению некоторых людей уже стар и уступает в чем-то современным микромоделькам.
Аноним 02/12/23 Суб 14:45:36 560928 65
>>560923
Да тут и 7b неплохо по русски могут, ну так на 4 с минусом. Потому что в базовом мистрале какие то основы русского были, а вот на счет лламы 2 13b не уверен, некоторые могут некоторые нет
Аноним 02/12/23 Суб 15:23:48 560946 66
>>560923
>>560928

Квен от китайцев хорошо в русский умеет тоже.
Удар.
Аноним 02/12/23 Суб 15:59:20 560957 67
>>560946
>Квен
кокой? их много щас всяких
Аноним 02/12/23 Суб 16:11:09 560964 68
Вот кстати норм файнтюн гермеса NeuralHermes-2.5-Mistral-7B, проверяйте
Аноним 02/12/23 Суб 16:53:49 560983 69
>>560957
Обычный 14B. Не чат.
Даже он нормальный
Аноним 02/12/23 Суб 17:32:21 561001 70
image.png 78Кб, 1685x201
1685x201
Эксперимент с КУУМ на русском провалился. Полностью.
Аноним 02/12/23 Суб 17:37:13 561006 71
>>561001
Дай сетке пример на русском описания постельной сцены в промпте, может и сможет по красивее описать
Аноним 02/12/23 Суб 17:41:01 561008 72
>>560285 (OP)
А можно как-то в таверне задать системный промт для всех персонажей? Чтобы немного оживить описание ситуации(если вы понимаете о чем я) для 7б, а тот очень сухо. Просто фактаж излагает.
Аноним 02/12/23 Суб 17:44:15 561012 73
image.png 131Кб, 842x997
842x997
>>561008
Ну да в чат формате и в инструкте.
Надо кстати попробовать на русском их сделать.
Аноним 02/12/23 Суб 17:45:38 561013 74
>>561008

Вот это еще попробуй в инструкт вставить :

Avoid repetition, don't loop. Develop the plot slowly, always stay in character. Describe all actions in full, elaborate, explicit, graphic, and vivid detail. Mention all relevant sensory perceptions.
Аноним 02/12/23 Суб 17:48:22 561016 75
чё делать если сетка несёт несвязанную с контекстом и моими ответами шизофазию? ей вообще всё равно, она даже не пытается.

ОпенГермес-Мистраль
Аноним 02/12/23 Суб 17:53:54 561017 76
>>561016
> ОпенГермес-Мистраль
У меня так бывает на 7б очень часто. Первые два предложение по сути, а потом абзац хуиты. 13б такой хуйней не занимались.
Аноним 02/12/23 Суб 18:06:40 561027 77
>>561017
У неё все сообщения +- по сути, но она полностью игнорирует мои ответы
Аноним 02/12/23 Суб 18:55:53 561077 78
>>560859
>Че за импланты ставишь ОП? Жубы?
Ага. Киберпанк на минималках. Сейчас вроде уже отошёл.
Аноним 02/12/23 Суб 19:26:00 561108 79
Аноним 02/12/23 Суб 21:41:03 561274 80
Нашел новую топ модель для КУУМА
NyxKrage/Chronomaid-Storytelling-13b

На самом деле больше для РП с переходом в еблю подходит больше, но и чисто для кума нормально
Аноним 02/12/23 Суб 22:14:26 561293 81
>>560517
>purple prose
Ну ты и говноед
Аноним 02/12/23 Суб 22:43:13 561331 82
Аноним 02/12/23 Суб 22:46:29 561335 83
>>561274
Как оно именно в плане диалогов/разговора? Лежащая там в основе норомейда мне особо не зашла, хотя её многие и нахваливают, в том числе за какой-то там кастомный датасет. Раздражало, что начинала писать историю вместо того, чтобы рп играть: куча текста с описаловом, и почти ноль реплик и действия. Возможно, моя скилл ишью, лень было особо с системным промптом и параметрами играться.
Аноним 02/12/23 Суб 22:50:14 561338 84
>>561013
Там же и так по дефолту он.
Аноним 02/12/23 Суб 22:52:30 561343 85
image.png 113Кб, 1554x329
1554x329
Аноним 02/12/23 Суб 23:02:04 561359 86
image.png 162Кб, 1579x482
1579x482
>>561335
>>561343
Ну и как бонус никаких MINISTRATIONS во время КУУМА
Аноним 02/12/23 Суб 23:34:56 561379 87
>>561359
Да что не так с ministrations? Я постоянно встречаю это слово в эротике.
Аноним 02/12/23 Суб 23:40:08 561383 88
Лучшая 34B для кума?
Аноним 02/12/23 Суб 23:45:47 561387 89
>>561383
Никакая, никто не тестил все сразу
Их как грязи и каждый день новые выходят
По датасету смотри, как вариант
Аноним 02/12/23 Суб 23:49:32 561392 90
>>560923
> клауд
> уступает в чем-то современным микромоделькам
Хуясе ебать
>>561006
Перед ролплеем тоже приверы каждого описания даешь? инб4 пользуюсь чат-экзамплз
Оно не просто так путается в склонениях и падежах, оно не понимает как строятся фразы и какие токены генерить. Потому примеры не помогут, только файнтюн. Уже бы препарировали что там у сайги, например, и примерджили.
Аноним 02/12/23 Суб 23:54:58 561396 91
>>561379

ЧатГПТ очень клишированную и душную эротику высирает.
И очень много КУУМ моделей тренировали на датасете оттуда.
Министратионс там в каждом втором сообщении, пиздец вообще.
Аноним 03/12/23 Вск 00:05:36 561404 92
>>561392
>оно не понимает как строятся фразы и какие токены генерить
А может понимает? Только из-за кривой токенизации и настроек пенальтей правильные токены отбрасываются, лол.
Аноним 03/12/23 Вск 00:09:34 561409 93
>>561396
По-моему, локальным мемом здесь и на форчке стало после Клода, наряду с молодыми ночами. Проблема в том, что такой эротикой без ярких и вульгарных описаний, похоже, большинство датасетов забито. Эти тексты не синтетические, а авторские, но фигово написанные. Purple prose - это же как раз оно и есть, вычурная унылая проза.
Аноним 03/12/23 Вск 00:11:05 561411 94
А какие 70b нормальные?
Аноним 03/12/23 Вск 00:12:17 561415 95
>>561411
На чём ты 70б крутишь?
Аноним 03/12/23 Вск 00:15:28 561420 96
>>561409
Может это из клода в гпт перетекло.
Но на клоде вроде бы модели не тренируют.
Забавно смотреть на всякие 7В репаки от васяна где основной чейджлог это "убрали министратионс"
Аноним 03/12/23 Вск 00:17:16 561425 97
>>561392
>Перед ролплеем тоже приверы каждого описания даешь?
То что ты получаешь без примеров называется зеро-шот, это самый сложный способ получить от сетки результат.
Так что да, если хочешь нормальный результат то дай сетке пример от чего отталкиваться. Ну или просто напиши ей как она должна писать, в каком стиле и тд.
Так все сетки работают, зеро шот работает только если сетку специально на что то задрачивали.
Аноним 03/12/23 Вск 00:19:25 561430 98
>>561425
>зеро шот работает только если сетку специально на что то задрачивали
Коммерческие сетки впоолне себе нормально по зеро шоту решают кучу задач. Да и попенсорс тоже вполне себе тянет.
Но да, дать примеры намного проще и лучше, чем надеятся на датасет файнтюна. Так что примеры рулят.
Аноним 03/12/23 Вск 00:23:51 561439 99
>>561415
А это важно? Хочу на а100 попробовать.
Аноним 03/12/23 Вск 00:34:58 561455 100
>>561439
Не важно. В принципе, похерить 70B ещё постараться надо, так что бери любую. На практике я сижу на старенькой synthia-70b-v1.5, dolphin-2.2-70b тоже хорош.
Аноним 03/12/23 Вск 00:37:52 561458 101
>>561396
>>561409
>Проблема в том, что такой эротикой без ярких и вульгарных описаний, похоже, большинство датасетов забито. Эти тексты не синтетические, а авторские, но фигово написанные.
Это слово есть считай что во всей эротике, в том числе вульгарной и хорошо написанной.
Аноним 03/12/23 Вск 01:01:55 561472 102
>>561455
Бля, это точно лучше 7b...
Аноним 03/12/23 Вск 01:02:46 561474 103
>>561430
>Коммерческие сетки впоолне себе нормально по зеро шоту решают кучу задач.
Ну так, потому что их задрачивали на это. В начале то тоже по примерам работали в некоторых задачах, потом популярные примеры включили в датасет и переобучили, и теперь сетки смогли делать что то без примеров. И так из раза в раз повторяют.
Аноним 03/12/23 Вск 01:03:43 561475 104
>>561404
> А может понимает?
Только если проводить ассоциации с тем что понимают русский язык модели лучше чем на нем говорят. Пенальти не при чем.
>>561425
Если сетка заточена на рп - она прекрасно зирошотом все будет делать. Если она не понимает языка - она не сможет на нем общаться. Незначительные улучшение ценой расхода контекста можно добиться, но это чуточку лучше чем плацебо, в таких условиях примеры не помогут. Нужен просто файнтюн с языком.
>>561411
Большая часть из тех что самостоятельные файнтюны а не шизомерджи - нормальные. Синтию 1.5 действительно попробуй, айробороса, xwin хоть старый но норм.
Аноним 03/12/23 Вск 01:06:33 561476 105
>>561475
>Если она не понимает языка - она не сможет на нем общаться.
Просто у нее может быть знание языка, но не быть знания того как писать эротические предложения на русском. В каком стиле, какие слова использовать и тд. Тут то и помог бы пример.
Если дело в не знании языка, то да, там пример уже не поможет.
Аноним 03/12/23 Вск 01:10:07 561480 106
>>561474
>Ну так, потому что их задрачивали на это
На эротический ролеплей?
>>561475
>Пенальти не при чем.
Почему так думаешь?
Аноним 03/12/23 Вск 01:10:27 561481 107
>>561475
>Только если проводить ассоциации с тем что понимают русский язык модели лучше чем на нем говорят.

Вот это кстати удивило когда сегодня куум тестировал на разных моделях.
Модель могла вообще отказаться текст на русском выдавать, но почти все отлично понимали что я им писал на русском.
Аноним 03/12/23 Вск 01:15:13 561482 108
>>561480
>На эротический ролеплей?
Изначально речь шла о решении кучи задач, но да, почему бы не быть знаниям о эротике в датасете.
Ты же в курсе что если сетка не обладает информацией по какой то теме то становится глупее. Делать сетку без знания об эротике - делать ее тупее. Да и опознать без этих знаний она эротику не сможет, как тогда самоцензуре и сое работать.
Так что учат, но так что бы сетка не писала ее без танцев с бубном, пряча за ограничениями.
Аноним 03/12/23 Вск 01:19:32 561484 109
>>561481
>Модель могла вообще отказаться текст на русском выдавать
Пиздят, уж я твоя ебал любая могла бы выдать, если хоть как то понимает по русски. А это любая сетка, так как русский есть в любом датасете базовых сеток.
У меня любая сетка по русски болтает, путают окончания, придумывают слова, но отвечают если заставить.
Кто то прям как по учебнику сухо и почти без проебов отвечает, хоть гугл транслейт заменяй и это были 7b.
13b тоже могут но я их последнее время мало щупал, так что хз
Аноним 03/12/23 Вск 01:28:07 561485 110
>>561481
>Модель могла вообще отказаться текст на русском выдавать
Шкилл ишью. Любую модель можно заставить писать на русском, даже GPT-2 первых ревизий (правда результат будет говно).
>>561482
>но да, почему бы не быть знаниям о эротике в датасете.
Так вначале писалось про сознательное улучшение в разных вопросах, чтобы сетка зеро-шотом могла выдавать. Конечно в датасетах любых современных сеток есть эротика, но я сомневаюсь, что в оленьАИ специально писали порнорассказы, чтобы потом
>пряча за ограничениями
Аноним 03/12/23 Вск 01:31:10 561487 111
>>561485
>но я сомневаюсь, что в оленьАИ специально писали порнорассказы, чтобы потом
>>пряча за ограничениями
Не писали, но это могло быть в датасете, а там уже и обучение сетки триггериться на эротику соей.
То есть что бы сетка могла быть соевой в нужный момент она должна уметь отличать намеки на эротику и эротику от обычного текста.
Аноним 03/12/23 Вск 01:31:57 561488 112
>>561487
>Не писали, но это могло быть в датасете
Что я и написал.
Аноним 03/12/23 Вск 01:35:07 561490 113
>>561488
А я на другое ответил. Если про сознательную тренировку то нет.
Учитывай что большие сетки - умные, у них появляются навыки которых нет в датасете. Поэтому просто знание эротики дает им возможность ерпшить если их взломать.
Аноним 03/12/23 Вск 02:42:55 561525 114
Аноним 03/12/23 Вск 03:02:50 561528 115
>>561481
пишешь сетке

настройки - язык - русский

и она переключается, лол
Аноним 03/12/23 Вск 04:37:02 561550 116
В 24гб карту максимум 34B модель влезает? Какая лучше всего на русском говорит?
Аноним 03/12/23 Вск 04:37:46 561552 117
Может обменять 4090 на несколько 3090? Туда же влезет 70B?
Аноним 03/12/23 Вск 08:19:28 561606 118
>>561550
Пожатая 70В влезет
Аноним 03/12/23 Вск 08:30:20 561611 119
>>561528
Забавно, но иногда это работает
Аноним 03/12/23 Вск 08:53:37 561619 120
>>561611
Обычно пишу первым сообщением "Отвечай мне только на русском. Русский это единственный язык который ты знаешь."
Но модель с нормальным русским так и не нашел. Всегда есть косяки по крайней мере в 7b и 13b.
Аноним 03/12/23 Вск 10:09:57 561663 121
>>561274
Очень даже ничего, ответы действительно отличаются от остальных 7В - 20В моделей в последнее время начал замечать что в некоторых чатах мистралевые франкенштейны несут +- одну и ту же ересь
В целом пишет лучше, чем Emerhyst, при этом соображая не хуже. Уже только за то что не проёбывает разметку и умеет вести статистику в РПГ чатах, можно ставить эту модель в топ!
Аноним 03/12/23 Вск 12:23:21 561704 122
image.png 1178Кб, 1200x800
1200x800
>>561663
>в последнее время начал замечать что в некоторых чатах мистралевые франкенштейны несут +- одну и ту же ересь


Потому что мердж делают из двух "типа разных" моделей, которые на самом деле на одном датасете тренились.
Вот и получается что ответ то в целом один, просто степень шизанутости разная.

Я 7В говно больше вообще трогать не буду, разве что концепт у модельки интересный будет.
Вот cinematika-7b-v0.1 например. Ее тренили на сценариях фильмов, может что-то интересное выйдет.
А все эти мистраль файнтюн ебет гпт в бенчмарке мамой клянусь - нахуй. Реально как во времена репаков винды вернулся.
Аноним 03/12/23 Вск 12:24:58 561705 123
Image1.jpg 101Кб, 684x796
684x796
Зацените уровень неформального перевода rugpt-13B. Среди опенсорсных LLM, мне кажется, это лучший перевод на разговорный русский. Все ответы получены с первой попытки, без реролла. Лама и сайга курят в сторонке. Из минусов - нужна видеокарта. Хочу теперь завернуть ее в апишку и подключить как автопереводчик в Silly Tavern чтобы общаться с Llama-70B или Yi-35B на русском (в оригинале у них разговорный русский просто никакой)
Аноним 03/12/23 Вск 12:28:45 561708 124
>>561705
Звучит неплохо. А в обратную сторону оно умеет?
Аноним 03/12/23 Вск 12:36:25 561714 125
>>561705
Если справишься расскажи потом как настраивал стек. Перевод выглядит отлично
Аноним 03/12/23 Вск 12:41:16 561721 126
>>561476
> может быть знание языка
> не быть знания того как писать эротические предложения на русском
Такое можно было бы предположить если бы оно прекрасно работало по обычным запросам и резко начинало тупить при ерп, но даже в том примере оно сносно описало последние 2 строки, и сфейлило вполне обычную фразу.
>>561480
> Почему так думаешь?
Потому что это очевидно как белый день и проявляется на любых настройках.

Желающим верить рекомендую полностью переписать весь системный промт, инструкции и карточки на русский а потом смотреть что получается.
>>561481
Обучаются "пониманию смысла" гораздо быстрее чем тому как нужно отвечать. Они могут понимать команды далеко не отлично а примерно только общее, но этого достаточно для выдачи ответа, точно также можешь на инглише писать с ошибками и путать грамматику - все равно поймет и ответит правильно.
>>561525
Все полотно можно сократить до "используйте более ужатый квант с экслламой 2 и выберите 8битное кэширование".
Зато есть полезные советы по поводу температуры на китайце. Интересно где он увидел
> Ooba works fine, but expect a significant performance hit, especially at high context.
Или это про огромные чаты в ней?
Аноним 03/12/23 Вск 12:43:17 561725 127
>>561705
А ведь объективно хорошо получается. Не смотря на возраст и архитектуру, полноценная тренировка дает о себе знать. Присоединяюсь к реквесту настроек.
Аноним 03/12/23 Вск 12:55:43 561731 128
>>561721
>Все полотно можно сократить до "используйте более ужатый квант с экслламой 2 и выберите 8битное кэширование".
Не просто более ужатый, но правильными калибровочными данными. Нормальный подробный гайд, но 24гб у меня нету
Аноним 03/12/23 Вск 13:01:25 561734 129
Image3.jpg 124Кб, 955x941
955x941
>>561705
>>561708
С русского на неформальный английский похуже. Часто путает персонажа и вместо перевода сообщения пытается ответить на сообщение или сама додумывает ответ. Делал рероллы в 50% случаев.
Аноним 03/12/23 Вск 13:12:59 561738 130
Image5.jpg 171Кб, 1373x764
1373x764
>>561725
>>561705
Настройки как настройки. Карточка персонажа пустая, мне проще все в первое сообщение впихнуть.
Аноним 03/12/23 Вск 13:25:36 561746 131
>>561738
Семплинг не интересен, лучше покажи системный промт и настройки инстракт режима.
Аноним 03/12/23 Вск 13:52:10 561752 132
У всех как говно стало с обниморды качать? 1мб/с, когда раньше могло весь канал забить. Захочешь сейчас с утра модель прочекать, она к вечеру скачалась, а ты уже и не хочешь ничего...
Аноним 03/12/23 Вск 14:03:04 561765 133
Image7.jpg 92Кб, 669x1080
669x1080
>>561746
В убе все дефолтное, ничего не менял. Я что-то не уверен, что при работе в режиме API с таверной он вообще использует вот этот системный промт со скрина (могу ошибаться).
Аноним 03/12/23 Вск 14:10:42 561778 134
>>561765
При работе с таверной даже на самом древнем апи там весь промт из нее идет, по современным из настроек убы только параметры лоадера, и то сейчас можно делать отдельные вызовы для загрузки нужной модели с нужными параметрами. Покажи что в таверне стоит.
Аноним 03/12/23 Вск 14:19:42 561790 135
Image8.jpg 95Кб, 586x745
586x745
>>561778
относительно свежая SillyTavern 1.10.9. Тут тоже ничего не менял.
Аноним 03/12/23 Вск 14:25:21 561792 136
>>561752
Ты знаешь кого благодарить в изоляции этой страны.
Аноним 03/12/23 Вск 14:35:33 561797 137
image.png 5Кб, 1102x44
1102x44
>>561752
>>561792

>какие-то локальные проблемы провайдера

ХРЮ
Аноним 03/12/23 Вск 14:46:21 561812 138
изображение.png 9Кб, 679x134
679x134
>>561797
У кого проблемы? У тебя проблемы.
Зато у меня гитхаб тормозит.
Аноним 03/12/23 Вск 15:08:47 561821 139
>>561812
Да уж, качать новый кобальд пол часа оттуда
К счастью загрузчик с кучей одновременных подключений сократил время в 6 раз
Аноним 03/12/23 Вск 15:17:16 561824 140
>>561611
смени язык - русский

тоже работает, не знаю какие проблемы у тех кто на русский сетки не может переключить
Аноним 03/12/23 Вск 15:39:52 561846 141
>>561821
>Да уж, качать новый кобальд пол часа оттуда
Кстати, а что случилось? Он теперь с твиттором замедлен, лол?
Аноним 03/12/23 Вск 15:51:15 561861 142
>>561704
>cinematika-7b-v0.1
Соевая небось с цензурой 99 уровня?
Аноним 03/12/23 Вск 15:55:23 561871 143
>>561705
>rugpt-13B
Почему gguf никто не сделал? я бы скачал q5
Аноним 03/12/23 Вск 15:58:54 561878 144
>>561871
>Почему gguf никто не сделал?
>ru
Вот по этому.
Аноним 03/12/23 Вск 15:59:06 561879 145
>>561846
Как нехуй делать, эти дебилы наверное хотят пересадить всех на свой аналоговнетный аналог гитхаба
Аноним 03/12/23 Вск 16:11:45 561893 146
>>561878
Я возмущен до глубины души ихнем не этичным поведением. Своим поведением они создают негативную атмосферу в онлайн сообществе.
Аноним 03/12/23 Вск 16:12:48 561894 147
>>561893
>не этичным
неэтичным
Пофиксил. Я всего лишь человек.
Аноним 03/12/23 Вск 16:26:25 561899 148
>>561846
>Он теперь с твиттором замедлен, лол?

Ты там из 2021 двачуешь чтоль?
Какое замедление твиттера?
Аноним 03/12/23 Вск 16:37:58 561906 149
>>561899
Верните меня в 2021. Лучше без нейросетей, чем всё это.
Аноним 03/12/23 Вск 17:18:13 561929 150
>It can also generate Uncensored content. Kindly be careful while generating Uncensored content as you will be responsible for what you generate.

Вроде slimorca-13b хайпили. Типа анцезоред и все такое.
На деле мега соя, хуже гпт чесслово.
Аноним 03/12/23 Вск 17:25:23 561934 151
17001555661700.png 323Кб, 680x506
680x506
>>560285 (OP)
Хочу поставить AI на комп с целью помочь мне в написании текстов.
Нашел это: Openchan 3.5 7b, типа пишут что он не хуже Chat GPT 3.5
https://huggingface.co/openchat/openchat_3.5
https://github.com/imoneoi/openchat
Пытаюсь ставить, но я слишком туп, атцы-праграмисты не пишут нормальных инструкций.
Молю помогите разобраться в порядке действий, я в душе не ебу что надо прописывать в командной строке. Я его скачал через гит командой git clone, а дальше как собственно его запустить не понимаю.
Аноним 03/12/23 Вск 17:28:51 561936 152
>>561934
нахуя такие сложности? кобальд качай из шапки и дальше по инструкции
Аноним 03/12/23 Вск 17:43:20 561953 153
>>561934
Проще всего поставить LM Studio, и прямо в ней можно скачать себе любую модель. Это, так сказать, начальный уровень. Но для продуктивной работы нужно, как уже отметил анон, ставить кобольд + силлитаверн.
Аноним 03/12/23 Вск 17:49:30 561963 154
>>561953

Нахер ему силли таверн для

>Хочу поставить AI на комп с целью помочь мне в написании текстов.

LM Studio прям для этого и создана. Или в угабуга через веб морду работать.
Аноним 03/12/23 Вск 17:54:35 561966 155
>>561936
Я уже додумался и сделал это, даже запустил. Но бот пишет ответы на 100-150 символов, а не на 3000 условно. Как это изменить или у меня тупо памяти не хватает, я в настройках там не понимаю.
>>561953
>LM Studio
Тоже щас скачаю
Аноним 03/12/23 Вск 18:01:17 561968 156
image.png 3Кб, 172x93
172x93
>>561966
переключись в режим истории или инструкции, а в настройках нужно указать максимальную длину сообщения на эти 3000
Аноним 03/12/23 Вск 18:03:02 561970 157
image.png 120Кб, 908x445
908x445
Аноним 03/12/23 Вск 18:36:12 561981 158
Мнение илиты?
Аноним 03/12/23 Вск 18:36:35 561982 159
Аноним 03/12/23 Вск 18:42:09 561983 160
>>561981
Слишком большая что бы быть полезной, но если хочется поиграться с большой моделью почему нет
Аноним 03/12/23 Вск 19:56:15 562040 161
Наконец то выпустили чайную но опенсорс. И рандомная шизанутость персонажей, и "это любовь" в каждом предложении и блушинг лайк а ливинг томато, все на месте. Осталось наинжинирить охуенные промпт и настройки и гуд олд тайм ис бек.
Аноним 03/12/23 Вск 19:57:31 562044 162
>>562040
о какой модели речь?
Аноним 03/12/23 Вск 20:02:57 562047 163
>>562040
Через какую модель ты этот шизовысер сделал?
Вообще нихуя не понятно
Аноним 03/12/23 Вск 20:33:27 562073 164
>>562047
Кен ю ивен инглиш, мазафака? Министрейтинг йор йонг найтс.
Аноним 03/12/23 Вск 20:36:03 562074 165
>>562073
>Министрейтинг йор йонг найтс
Блашес слайтли~
Аноним 03/12/23 Вск 20:56:30 562081 166
>>562074
Донт ворри, ай донт байт. Анлес ю вант ми ту.
Аноним 03/12/23 Вск 21:31:36 562119 167
>>561878
Существует ggml версия, но она не загружается ни кобольдом ни ламой, ни убабугой (подходит для пары питоновских библиотек rutransformers и еще какая-то). Причина отсутствия массовой поддержки - архитектура gpt2, которую все забросили с приходом первой ламы.
https://huggingface.co/evilfreelancer/ruGPT-3.5-13B-ggml/discussions/1

Кто-нибудь смог запустить ruGPT-gptq на CPU? или хотя бы с частичным оффлодом на GPU? я месяц назад пытался, но безуспешно.
Аноним 03/12/23 Вск 21:35:27 562122 168
>>561963
В таверне легко сделать карточки персонажей "писатель", "блогер", "комментатор" для разных стилей и переключаться по мере надобности.
Аноним 03/12/23 Вск 22:44:43 562197 169
>>561752
Постоянно такое.
Через гит или браузер.
Из-за фаерволла.
Качаю крупные файлы менеджером закачек — все ровно.
Выглядит так, будто проблема явно не в интернете, а локальная.
Проверял на 3 разных машинах и 3 разных интернетах.

>>561934
В шапке все описано, боюсь тут уже ничем не помочь…

>>561953
Для продуктивной — убабуга. А кобольд — как раз проще всего.
Скачать гуфф модель много ума не надо. =)
Аноним 03/12/23 Вск 23:20:29 562246 170
>>562122
В Таверне не очень удобно работать с длинными контекстами. Не понятно куда класть всякую инфу, которую можно было бы сложить в контекст.
Аноним 04/12/23 Пнд 03:42:00 562459 171
Аноним 04/12/23 Пнд 09:32:01 562586 172
>>562459
>reddit.com
Как отключить бота, который тащит всё подряд с реддита?
Аноним 04/12/23 Пнд 09:54:15 562599 173
image.png 124Кб, 891x946
891x946
Аноним 04/12/23 Пнд 09:55:54 562601 174
>>562599
Нахуя, а главное зачем? Любая карточка может генерить другие карточки исключительно на основе промпта
Аноним 04/12/23 Пнд 10:11:56 562605 175
Как работает преобразование текстового промпта в вектор токенов, который пойдет на вход нейросетевой модели?
Аноним 04/12/23 Пнд 10:53:12 562614 176
>>562605
Берут и разбивают текст, а что?
Аноним 04/12/23 Пнд 11:13:37 562627 177
>>562614
Расплитил текст, а дальше что? Слова по отдельности ничего не значат, важно то, что они вкупе делают, свойства системы не сводятся к свойству каждого её отдельного компонента
Аноним 04/12/23 Пнд 11:17:26 562630 178
>>562627
>Расплитил текст, а дальше что?
А дальше эти числа кидают в жернова системы.
Если что, в текущих LLM всякие там Word2vec не используются, с токенами разбирается сама нейронка в первых слоях (ибо если поменять первые слои местами, вывод сетки идёт по пизде, в отличии от замен в последующих слоях).
Аноним 04/12/23 Пнд 12:11:07 562647 179
Кто разбирался почему сетки например 20b игнорируют часть инструкции иногда, а иногда не игнорируют эти же инструкции. Словно по желанию левой пятки. Я спрашиваю сетку че влияет на ее игнор инструкций, но она несет всякую ересь.
Аноним 04/12/23 Пнд 12:19:06 562650 180
>>562647
>сетки игнорируют часть инструкции
Потому что это LLM, а не искусственный разум.
>например 20b
Это вообще шизомиксы, чудо что работают.
>Я спрашиваю сетку
Это признак шиза. Сетка не может "знать", почему она шизит, глючит, не "знает" свои ограничения. По таким запросам ты только галюнов начитаешься.
Аноним 04/12/23 Пнд 12:39:04 562659 181
>>562599
Разве зирошот 70b не будет делать как минимум не хуже?
Аноним 04/12/23 Пнд 12:41:40 562661 182
>>562630
Схуяли не используется? Токенайзер же не только режет слова, но подставляет вектора эмбеддингов вместо токенов, не? А то что первые слои разбираются с этим - это всегда так было. Но я могу ошибаться.
Аноним 04/12/23 Пнд 12:47:23 562665 183
изображение.png 259Кб, 1885x1484
1885x1484
>>562661
>но подставляет вектора эмбеддингов вместо токенов, не?
Нигде такого не видел. Везде токенизёр это просто массив "набор_символов" => номер_токена, никакой дополнительной обработки на этапе токенизации не используется. Пикрил оригинальный террористический tokenizer.py из лламы.
Аноним 04/12/23 Пнд 12:52:47 562672 184
>>562650
>Это вообще шизомиксы, чудо что работают.
А как определить какие сетки миксы, а какие с нуля обучены?
Аноним 04/12/23 Пнд 12:59:39 562677 185
Кому интересно, почему нейронки всякую херню несут. Недавно вышла интересная статья https://arxiv.org/abs/2309.01029 Explainability for Large Language Models: A Survey, там разобраны все существующие сейчас направления интерпретации работы нейронок, отдельный параграф про шизу 4.2.2 Explaining Hallucination Причин там несколько (неполные данные о теме вопроса, повторения в датасете итд) если в кратце, для пользователя единственный выход - использовать как можно более крупные модели, экспериментально показано, что чем больше нейронка, тем меньше она бредит:
>There are several ways to address the hallucination problem. Firstly, scaling is always a good step to take. The performance of PaLM with 540 billion parameters steeply increased on a variety of tasks. Even it also suffers from learning long-tail knowledge, but its memorization abilities are shown to be better than small models (Chowdhery et al., 2022).
Аноним 04/12/23 Пнд 12:59:57 562678 186
>>562672
По описанию.
>а какие с нуля обучены
С нуля обучены те, что в шапке, всё остальное это файнтюны и миксы. Шизомиксами лично я называю модели, которые по размеру не соответствуют базовым, то есть те, у которых слои нарощены слоями от другой модели. Вот они чудо что работают. Обычные файнтюны норм идея, миксы тоже, но уже такое, не всегда норм мешаются.
Шизомиксы от файнтюнов отделить проще всего по размеру, базовые лламы это 7,13,30,33,65,70 миллиардов параметров, всё что все этих размеров, это или другая база, или скорее шизомикс. Все 20B это шизомиксы по определению, базовых сеток этого размера я не помню, кроме совсем древних на GPT2, но они говно и не используются буквально уже нигде.
Аноним 04/12/23 Пнд 13:24:35 562689 187
>>562672
11b так же миксы сеток, как и 120b
Аноним 04/12/23 Пнд 14:07:25 562700 188
А можно сделать бота, чтобы он описывал мне визуально сцену по моему запросу? Например, два персонажа заходят в квартиру и разговаривают, а я прошу описать обстановку и т.д. Или промт подскажите, пожалуйста.
Аноним 04/12/23 Пнд 14:08:17 562701 189
>>562700
>Или промт подскажите, пожалуйста.
Вот же ->
>прошу описать обстановку
Аноним 04/12/23 Пнд 14:14:57 562710 190
>>561871
Почему сам не сделаешь?
>>562040
Эх ты, опоздал. Уже успели "спрогрессировать" и теперь есть соображалка, тонкое понимание намеков, последовательность, но меньше той "души". Хотя можно попробовать пошаманить.
>>562119
Все верно, gguf может в gpt-2 и ей подобные, если вдруг не взлетает - Жоре багрепорт. Что конкретно не так с этим квантом - хз, но учитывая что это старая версия старого формата, которую выложили уже спустя обновления до gguf и т.п. - наверно просто криво сделана.
>>562599
Чет на грани шизы пример.
>>562605
Держи играйся https://belladoreai.github.io/llama-tokenizer-js/example-demo/build/
или тебя реализация в коде интересует?
Аноним 04/12/23 Пнд 14:26:35 562721 191
>>562647
Даже огромные йоба сетки могут иногда игнорить часть инструкции. А тут слепленный из кусков 13б франкенштейн, с тем же числом голов (поправьте если не так, насколько помню пересаживание с 30 еще давно завести не удалось).
> Я спрашиваю сетку че влияет на ее игнор инструкций, но она несет всякую ересь.
И на что ты рассчитывал, все эти инструкции сетки - ее подсознание, она не знает ничего про это. Нормиса без приобретенных знаний об этом спросить как его мозг и рефлексы работают - тоже ту еще ересь понесет.
>>562659
Будет более связанный и менее шизофазный.
>>562672
В описание модели глянуть. Если там развернутое пояснение что за модель, с какой направленностью, слова про ее датасет, бенчмарки, ключевые особенности - это файнтюн. Если там "тут мердж слона с носорогом а еще щепотка вот таких лор, спешал сенкс ту унди" - шизомикс. Нестандартный размер типа 11 и 20б - это вообще франкенштейны и шизомиксы по совместительству, хотя были и попытки файнтюнов таких франкенштейнов.
>>562677
> Умная модель меньше тупит
Ну хоть тут никаких сенсаций
>>562700
Мы тут диалоги нейросетей устраиваем чтобы ллм пытала мультимодалку и по совокупности данных делала "достоверное" описание, а тут такое простое. Просто прямо попроси, совет верный дали.
Аноним 04/12/23 Пнд 14:36:04 562726 192
>>562073
Блушес с тебя. Немного бонднул даже.
Аноним 04/12/23 Пнд 14:49:24 562729 193
>>562665
Понятно. Чет я совсем отстал от жизни. Но так-то давно пора было.
Аноним 04/12/23 Пнд 15:08:42 562740 194
>>562586
Никак, страдай

>>562721
>И на что ты рассчитывал, все эти инструкции сетки - ее подсознание, она не знает ничего про это. Нормиса без приобретенных знаний об этом спросить как его мозг и рефлексы работают - тоже ту еще ересь понесет.

Нормальный вопрос, проверить знает ли сетка о инструкциях, но почему то их проигнорировала или вообще не вдупляет о чем речь.
Если первое то нужно изменять инструкции на более понятные, что бы сетка не нашла причин их не соблюдать.
Если второе то уже проблемы у сетки, тут только смена сетки или смена настроек запуска или семплера поможет.
Аноним 04/12/23 Пнд 15:31:56 562754 195
>>562740
> проверить знает ли сетка о инструкциях
Это можно сделать экспериментально, оценивая ее реакцию, а не спрашивать у нее "ты знаешь об этих инструкциях". Указать хули игнорируешь это в ответе можно, получишь дефолтный "аподожайз лет ми коррект майселв". Особо умные сетки умеют сами проверять и доотвечать в следующих постах, ссылаясь на прошлые.
> нужно изменять инструкции на более понятные
Это всегда так, чем проще и понятнее тем лучше. И сетки, увы, не идеальны, даже гопота и клод серут только так.
Аноним 04/12/23 Пнд 15:56:46 562772 196
>>562721
> росто прямо попроси, совет верный дали.
>>562701
Спасибо, работает.Блять, а почему в промте не работает у персонажей. Пишу описывать действия детально, эпитетами, там хуе-мое, а в итоге получаю "Ты меня ебешь". Теперь приходится другого бота каждый раз просить. Лол.Это на 7б любых.
Аноним 04/12/23 Пнд 16:06:36 562781 197
>>562772
>Это на 7б любых.
Ну а хули ты хотел, они глупенькие. На 70B попробуй.
Впрочем, "описывай детально" всегда работало хуёвстенько. Лучше примеры сообщений давай, если в чате, без них на локалках жизни нет а вот на форбе впору писать вобратную.
Аноним 04/12/23 Пнд 16:13:28 562783 198
ComfyUI00293.png 318Кб, 512x512
512x512
7b-8bit = 13b-4bit = 34b-2bit?
Аноним 04/12/23 Пнд 16:14:27 562784 199
>>562783
Смотри на картинку в шапке
Аноним 04/12/23 Пнд 16:24:36 562786 200
>>562783
по размеру может и да, по качеству нет

>>562781
>На 70B попробуй.
рубрика вредных советов? 34b пусть новые пробует, они хороши
Аноним 04/12/23 Пнд 16:26:54 562788 201
>>562772
> Лол.Это на 7б любых.
Возможно дело в этом. Можешь еще попробовать в рп что-то типа (ooc: give a long and detailed description of the scene mentioning all vivid details), а так просто так сетка может подумать будто ты самого персонажа просишь говорить и тот не вдупляет.
>>562786
> они хороши
Лучше 70?
Аноним 04/12/23 Пнд 16:26:58 562789 202
Аноним 04/12/23 Пнд 16:29:56 562793 203
>>562788
>Лучше 70?
Мне длинный контекст на Yi заходит намного больше чем 70b модели
Аноним 04/12/23 Пнд 16:30:26 562795 204
>>562788
>Лучше 70?
разница не большая а запустить проще, ну и контекста доступного как грязи
Аноним 04/12/23 Пнд 16:30:45 562796 205
>>562786
>рубрика вредных советов?
Полезных.
>34b пусть новые пробует, они хороши
На китайском разве что.
Аноним 04/12/23 Пнд 16:32:12 562800 206
>>562793
Что с длинным контекстом делаешь? Как его воспринимает?
>>562795
> разница не большая
Так уж не большая? И какие хорошие порекомендуешь?
Аноним 04/12/23 Пнд 16:33:13 562801 207
>>562800
Просто сру в контекст описанием персонажей с вики и их диалогами из оригинального произведения. Норм воспринимает.
Аноним 04/12/23 Пнд 16:33:25 562802 208
>>562800
>Так уж не большая? И какие хорошие порекомендуешь?
capybara-tess-yi-34b-200k-dare-ties.
может что то и получше уже вышло, эта неплоха
Аноним 04/12/23 Пнд 17:09:13 562836 209
>>562783
Даже 13В q3 будет лучше 7В fp16. q2 отдельный случай, лучше не трогать.
Аноним 04/12/23 Пнд 17:39:36 562859 210
>>562459
400M картиночек.
Пишут, что сильно галлюцинирует.
Ну такое, хз.
Энивей, вот выйдет квант, тогда заценим.
Но выглядит сомнительно. Сорт оф бакклава на минималках, но с какой-то хитрой системой обучения липа, не вникал.
Аноним 04/12/23 Пнд 17:54:18 562869 211
>>562836
При прочих равных. А так у нас есть Б-жественный мистраль и устаревшая говнина llana 2, так что увы, выбор не в пользу 13B.
Когда там мистрали выкатят сетки побольше?
>>562859
>Пишут, что сильно галлюцинирует.
Они все под героином. Ни одной норм картиночной модели в попенсорсе.
Аноним 04/12/23 Пнд 18:12:40 562890 212
>>562869
>Когда там мистрали выкатят сетки побольше?
В попенсорс? Мечтай, первая сетка была для собирания денег и рекламы, теперь набрав деньги они все делают для копров
За любую мощную сетку отданную народу им всем яйца прижмут
Аноним 04/12/23 Пнд 18:14:14 562894 213
>>562890
Ну так 70B от террористов мощнее, но ничего, выложили же.
Аноним 04/12/23 Пнд 18:17:31 562899 214
>>562894
мета - кажется единственные с идейным челом, топящим за опенсорс, близко к рулю
Аноним 04/12/23 Пнд 18:21:35 562904 215
>>562894
70 слишком большие что бы быть полезными для большинства в опенсорсе, а вот маленькие и умные - неа.
Смотри как долго тянули что бы мы смогли получить 34b, думаешь их не было ни у кого?
Были, просто они были слишком хороши что бы их отдавать
Аноним 04/12/23 Пнд 18:30:06 562918 216
>>562904
>70 слишком большие
Давай не будем решать за меня.
>Смотри как долго тянули что бы мы смогли получить 34b
Так не получили же.
Аноним 04/12/23 Пнд 18:37:24 562931 217
>>562918
>Давай не будем решать за меня.
Ты не весь опенсорс и любители, не суди по себе

>Так не получили же.
Китайцы выдали, значит есть. Но да, не от мета или кого еще
Аноним 04/12/23 Пнд 18:51:55 562954 218
>>562918
О, семидесятки катаешь? Мнение о моделях и их сравнении с 34б?
>>562931
Объективно опенсорс, который не может запустить 70б, принесет для мира ллм довольно таки мало пользы. Пока что видим только единичные случаи типа унди с его шизомерджами (да, сомнительного качества, но всеже техника развивается и потенциально может быть использована). Так что как раз зря решаешь за остальных.
Среди тех для которых "слишком велики xxB а 7 - святой грааль" очень много интересных личностей с эффектои Даннинга-Крюгера, которым казаться важнее чем быть. Засирают инфопространство прилично, вот уж кого запрунить не помешало бы с их ахуительными суждениями.
Аноним 04/12/23 Пнд 18:52:13 562955 219
Будущее кума - за азиатами
Аноним 04/12/23 Пнд 19:18:23 562978 220
>>562954
>Объективно опенсорс, который не может запустить 70б, принесет для мира ллм довольно таки мало пользы.
Тут нигде не говорилось о пользе, только о том что людям не давали в свободном доступе локальных нейронок.
Причем тут не только обычные энтузиасты, но и конкуренты. В свободном доступе 34b появилась не со стороны копроратов у которых давно есть подобные сетки.
Нам даже 13b зажопили, только мистраль выдали 7B зная что это не особо повлияет на баланс сил, и я уверен снова вкинуть что то революционное в свободный доступ им не дадут.
Аноним 04/12/23 Пнд 19:27:22 562985 221
>>562931
>Ты не весь опенсорс и любители, не суди по себе
И ты.
>>562931
>Китайцы выдали
Хуйню ломучую, под которую настройки подбирать надо, иначе шизит и повторяется.
>>562954
>Мнение о моделях и их сравнении с 34б?
70 лучше, чтобы не воображали себе те, у которых железо нетянет.
>>562955
Так они ж цензурят всё. Вон, ни одной манги без цензуры на территории Японии не делают, ибо тюрьма. Все анцензы западные.
>>562978
>В свободном доступе 34b появилась не со стороны копроратов у которых давно есть подобные сетки.
У корпоратов 100+ сетки, нахуй им обрезки меньше?
>>562978
>и я уверен снова вкинуть что то революционное в свободный доступ им не дадут
Эм... Поздно. Всё жду, когда квантуют нормально под проц
https://huggingface.co/Qwen/Qwen-72B
Аноним 04/12/23 Пнд 19:37:59 563003 222
>>562978
> только о том что людям не давали в свободном доступе локальных нейронок
Это тема сложная, проблема существует, но в твоих постах и после
> особо повлияет на баланс сил
читается совершенно иная читай неверная, придаешь чрезмерный приоритет менее значимым и игнорируешь более значимые факторы трактовка причин почему их нет в общем доступе.
Китайцев, как тебе ответили, выложили, и будут еще. Качество и количество в сделку не входят, ждите или доделывайте сами.
>>562985
> Всё жду, когда квантуют нормально под проц
А чего ждешь, там опять какие-то тонкости со старт/стоп токенами или стандартные скрипты не хотят обрабатывать конфиг/модель токенайзера/дополнительный код?
Аноним 04/12/23 Пнд 19:40:45 563011 223
>>563003
>А чего ждешь,
Пока квантуют. Я ленив, чтобы делать скрипты самостоятельно, и уж тем более чтобы воевать с вечно кривым китайским кодом, если там вдруг будет хоть половина проблемы.
Аноним 04/12/23 Пнд 19:46:53 563022 224
>>562985
>И ты.
Я по себе не ограничивал остальных, чет хуету ты тут понаписал чуть ли не везде

>Хуйню ломучую, под которую настройки подбирать надо, иначе шизит и повторяется.
Все еще остается выданной китайцами рабочей сеткой, которая лучше всего что меньше ее размером, ты опять хуйню пишешь

>У корпоратов 100+ сетки, нахуй им обрезки меньше?
Деньги, меньше сетка - меньше траты на ее запуск, быстрее работает и можно запускать кучу там где требовалось несколько карточек. Банально же

>Эм... Поздно. Всё жду, когда квантуют нормально под проц
Это не мистраль или западные копрораты вроде меты или гугля о котором шла речь, все еще китайцы. Но сетка может быть неплохой, да

>>563003
>читается совершенно иная читай неверная,
Верная или не верная решать не тебе, я может криво описал и где то что то не упомянул, но суть такова. Посмотри на все эти договора и саммиты безопасности что в ес что в сша. Какие они там только официально документы выкатили, а какие не официально? Красные команды у них там какие то уже годами работают проверяя че там создатели ИИ насоздавали и на сколько это опасно.
К тому же выдавать что то лучше того что есть - терять деньги, поэтому только из-за денег сливов хороших годных сеток ждать не стоит. По крайней мере не от западных корпораций.
А вот китайцы им как раз поднасрали выкатив семейство своих сеток. И как ты понимаешь китайцы на подсосе у остальных, то есть выданный ими результат далеко не самый топовый из того что уже есть у корпораций на вроде меты или козедаи
Аноним 04/12/23 Пнд 19:57:13 563036 225
>>563022
> договора и саммиты безопасности
> что в ес что в сша
Популистический всхрюк "мы работаем смотрите все под контролем" в дефолтном стиле попыток регулирования чего не понимают в ответ на бурления нормисов и быстро развивающуюся отрасль.
> Красные команды у них там какие то уже годами работают
> проверяя че там создатели ИИ насоздавали
таблетосы
> выдавать что то лучше того что есть - терять деньги
Единственное здравое зерно. Но суть в том что правильное использование опенсорса принесет больше профита и даже на имплементации открытых продуктов можно рубить огромные капиталы будучи одним из главных игроков кто им занимается.
Аноним 04/12/23 Пнд 20:01:22 563046 226
>>563036
А ты новости совсем не читаешь да? И красные команды и регулирование не просто придумки, это прям скучные официальные дела о которых на полном серьезе писалось в том же документе на сайте администрации президента или где там документ висел с заявлением, лол
Хорошо быть тупым
Аноним 04/12/23 Пнд 20:08:49 563060 227
>>563022
>Я по себе не ограничивал остальных
Твоё? >>562890
>За любую мощную сетку отданную народу им всем яйца прижмут

>Все еще остается выданной китайцами рабочей сеткой
Не спорю.
>меньше сетка - меньше траты на ее запуск
Само собой. Но качество даже 70B не тянет на продакшн реади. Так что их участь всё равно деплоить огромных монстров.
>все еще китайцы
Ну да. Посмотрим на ответ запада, всё таки трейнить сетки с нуля это дохуя долго и затратно, поэтому каждую неделю базовые модели и не выходят. Но выйдут, я уверен.
>>563046
ИБД очевидно же, плюс ещё больше фильтров и аполоджайзов у закрытых моделей. Про открытые пока только пиздят, ибо всем обладателям IQ выше 80 очевидно, что буковки никак не могут уничтожить мир.
Аноним 04/12/23 Пнд 20:46:39 563112 228
>>562890
> За любую мощную сетку отданную народу им всем яйца прижмут
Смотри чтоб тебе их не прищемили, когда санитары будут в палату тебя заталкивать обратно.
Аноним 04/12/23 Пнд 20:54:17 563119 229
>>563046
Их нужно не только читать но и понимать. А еще нужно обсуждать проблемы управления миром не привлекая внимание санитаров в соответствующих разделах, у вас даже своя доска ведь есть.
Документ тот уже обсосали, именно что умеренный популизм, собирают мнения по этому вопросу чтобы потому решать как и что делать.
Аноним 04/12/23 Пнд 21:39:33 563203 230
3fnz0whi742c1.png 707Кб, 1920x1080
1920x1080
>>562955
>Будущее кума - за азиатами
Аноним 04/12/23 Пнд 22:28:25 563290 231
>>563203
Но ведь он верно пишет. Соя западных моделей уже просто пиздец, а китайцы всё ещё на уровне ванильной ламы держатся, максимум до уровня викуни доходят, если хапают говнодатасеты.
Аноним 04/12/23 Пнд 22:50:28 563313 232
>>563290
Так вроде соя в западных сетках наоборот ослабла в теме кумерства, чтоб не возбухали проверяя на прочность. Но вся остальная да, стала еще сильнее
Аноним 04/12/23 Пнд 22:55:06 563320 233
>>563290
>Соя западных моделей уже просто пиздец
Ты про локальные модели или нет? Ванильная лама сои не имеет, а соя в файнтюнах - это вина исключительно долбоебов которые тренируют на гпт высерах. В то же время китайский свин просоефицирован до невозможности, побольше даже чем соевые файнтюны. Это блять единственная модель которая всеми силами не хочет говорить "ниггер", а если и скажет, то всегда цензурит звездочкой. Плешь дракон стержень не нефрит позор партия.
Аноним 04/12/23 Пнд 23:00:34 563325 234
>>563313
> соя в западных сетках наоборот ослабла в теме кумерства
Ага, блять. Все подряд пытаются вставить говно про boundaries и вырезать любой негатив со стороны бота, с каждой сеткой только хуже становится.
>>563320
> свин
Ещё древнее сетку найти не мог?
Аноним 04/12/23 Пнд 23:02:11 563327 235
>>563325
>Ещё древнее сетку найти не мог?
Скажи какая не соевая - протестирую.
Аноним 04/12/23 Пнд 23:02:49 563331 236
>>563325
>Ага, блять. Все подряд пытаются вставить говно про boundaries и вырезать любой негатив со стороны бота, с каждой сеткой только хуже становится.
Негатив и извращения вырезают, но вроде обычный секс нет?
Аноним 04/12/23 Пнд 23:04:51 563334 237
>>563203
Синатра которая лучшая 7В для РП так то корейская
Аноним 04/12/23 Пнд 23:13:15 563343 238
>>563325
Опять поех с теориями заговора? Большей части просто похуй на это, ленятся почистить датасет ибо никак не сказывается на юзкейсах. А ты не можешь это забороть, что делается элементарно, или же просто скипать такие модели.
>>563327
Чекни файнтюны новых китайцев, насколько забондованы.
Аноним 04/12/23 Пнд 23:27:42 563360 239
>>563343
>Чекни файнтюны новых китайцев, насколько забондованы.
Так ты скажи какие конкретно - их там миллион.
Аноним 04/12/23 Пнд 23:34:46 563368 240
>>563343
> или же просто скипать такие модели
Получается все мистрали и его файнтюны - скип. Все франкенштейны тоже - скип, т.к. там куски мистраля и всё абсолютно как нём. А что остаётся?
> делается элементарно
Ну покажи как на мистрале заставить сетку перейти в агрессию. Ты boundaries семплингом можешь задушить, но вопрос остаётся что там ещё вместе с ним задушилось и не деграднулся ли он.
Аноним 04/12/23 Пнд 23:37:01 563370 241
>>563334
>лучшая 7В для РП

Ты про Toppy?
Аноним 04/12/23 Пнд 23:44:40 563377 242
>>563368
>А что остаётся?
В шапке же!
>>560285 (OP)
>Pygmalion- заслуженный ветеран локального кума
Аноним 04/12/23 Пнд 23:55:59 563385 243
>>563360
Тесс - капибара советуют, сам до них никак не доберусь.
>>563368
> Получается все мистрали и его файнтюны - скип.
Увы
> Все франкенштейны тоже - скип
Орли? Не сказал бы, или у тебя шиза байас к оценкам уровня "цензуры".
> Ну покажи как на мистрале заставить сетку перейти в агрессию.
Промт, если обычного не хватает - CFG.
> семплингом можешь задушить
Что здесь имеешь ввиду уточни?
Аноним 05/12/23 Втр 00:46:18 563409 244
А чому нельзя делать рейды из четырехканальных дешевых мамок на ддр4? Это же очевидный способ решения скорости
Аноним 05/12/23 Втр 00:48:44 563410 245
>>563385
>Тесс - капибара советуют, сам до них никак не доберусь.
Зацикливается, шизит и еще срет стоп токенами. По цензуре так себе. Тест на мет прошла на ура, а вот на износ стриггерилась. Короче - на помойку как и все остальные производные от Yi.
Аноним 05/12/23 Втр 00:51:54 563413 246
>>563409
>четырехканальных дешевых мамок на ддр4
Сосут у двухканала на DDR5, а на них 3,5 токена.
Аноним 05/12/23 Втр 00:55:21 563417 247
>>563409
> рейды из четырехканальных дешевых мамок на ддр4
Что?

Потестил значит тут вероятности токенов разных квантов мелочи. В целом суждения подтверждаются, чуть попозже закину.
Аноним 05/12/23 Втр 01:28:56 563448 248
>>563409
Можно почему нет?
Только ничего большого не по крутишь с вменяемой скоростью. Ну сетка гигов в 10 токена 4 в секунду, где то даст.
Можно и быстрее если память частотой 2400 или выше, может до 5-6.
Нормальная 34b в 4km 20 гигов, это уже 2-3 токена в секунду максимум, на одной оперативке.
Если хочется 70b крутить 1-2 токена в секунду то можешь взять.
Впрочем та же мелочь на 4-5 гб, как 7b 4km-5km может до 10 токенов в секунду выдавать, в идеале.
Аноним 05/12/23 Втр 07:13:28 563515 249
>>563368
>Получается все мистрали и его файнтюны - скип. Все франкенштейны тоже - скип
Зря ты так. Emerhyst-20B - U Amethyst 20B, на данный момент топ локального кума до 70В.
Недавно ещё вышел Chronomaid-storytelling-13b, дающий неплохие результаты, но увы, сухой и соевый насквозь.
Из Мистралей мне очень зашёл claude-chat. Он тупее прочих гермесов, но зато выдача кардинально отличается. Катает типичные Клодовские NSFW простыни только в путь А хули тебе ещё надо?

>>563377
>Pygmalion
Ну у него то проблем с агрессией действительно нет по крайней мере у не ламовского оригинала на 6В
Долго думал что он уже всё, но недавно увидел на хорде Пигмалион 2, который вышел в сентябре. Тестил кто-нибудь, как оно?
Аноним 05/12/23 Втр 08:42:22 563540 250
>>563515
>Emerhyst-20B - U Amethyst 20B

Да не, хуевые они.

>Oh, you think so, Master? ~ He teases, nibbling on your earlobe teasingly before slowly, tantalizingly, sliding down your body, his lithe, supple body moving like a snake, sinuously, hypnotically, his hips swaying just enough to drive you wild with desire.

тизес тизингли ебать.
Аноним 05/12/23 Втр 08:46:30 563545 251
>>563540
>Да не, хуевые они.
Варианты получше в студию!
Аноним 05/12/23 Втр 10:38:57 563577 252
>>563540
не говорили бы они за {{user}} цены бы им не было. А так у меня 50 на 50 то она читает и выполняет инструкцию, то чет ломается и оа шизит тех же карточках в которых до этого все норм было с той же инструкцией.....
Аноним 05/12/23 Втр 12:03:49 563617 253
Видел здесь есть люди которые разбираются во всем этом.
Скажите, а можно обучить модель скажем на какую нибудь узкую тему, например на тему физики,кулинарии или по нескольким книгам на определенную тему, что бы сократить размер модели например до 1M параметров.
Что бы модель была маленькая и нормально общалась хотя бы на узкие темы?
Или в любом случае необходимы модели с миллиардами параметров даже для такого?
Аноним 05/12/23 Втр 12:06:54 563620 254
>>563617
>Или в любом случае необходимы модели с миллиардами параметров даже для такого?
Конечно. 3B это минимум, чтобы модель хоть как-то связно писала, но лучше 7.
Аноним 05/12/23 Втр 12:15:25 563624 255
>>563620
И что никто не ведет работы по оптимизации архитектуры?
На интуитивном уровне кажется что даже 3b избыточны, а количество параметров все растет.
Я про то, что может кто рассказывает, что работает над чем нибудь таким.
Типа изучив как работают сегодняшние модели появились идеи как сократить количество параметров или что нибудь типа этого.
Аноним 05/12/23 Втр 12:27:42 563627 256
>>563624
>И что никто не ведет работы по оптимизации архитектуры?
Ведут. А потом накидывают ещё больше параметров. Ибо это работает, а узкоспециализированная сетка с одной темой мало кому нужна.
Аноним 05/12/23 Втр 12:36:08 563630 257
>>563627
Я думаю что такая сетка нужна всем. Карманный эксперт по узкой теме, который запускается на калькуляторе.
Аноним 05/12/23 Втр 13:19:41 563651 258
>>563540
> Да не, хуевые они.
В чем хуевость выражается? Со своими задачами справляются.
> тизес тизингли ебать.
Дай угадаю, настраивал семплинг по тем ахуительным рекомендациям? Видно что пытается но в хлам поломано. глиномес
>>563577
> не говорили бы они за {{user}} цены бы им не было
Промт, срабатывание eos триггеров, настроенная таверна.
>>563617
В целом можно, но если ты хочешь чтобы модель могла далать подобие рассуждений и отвечала на твои вопросы, а не просто триггерила цитату чего-то что она помнит, то там нужно хотябы 1б-3б. По крайней мере последняя подавала надежды что может хоть как-то "соображать", как раз для
> нормально общалась
и основной логики нужна некоторая база, а дообучить на тематику - без проблем.
Аноним 05/12/23 Втр 13:20:54 563652 259
Аноним 05/12/23 Втр 13:27:03 563654 260
>>563652
Круто. Ждем первые модели для всех.
Аноним 05/12/23 Втр 14:06:24 563676 261
Аноним 05/12/23 Втр 14:10:44 563682 262
>>563652
>Mamba-3B’s quality matches that of Transformers twice its size (e.g. 4 points higher avg. on common sense reasoning compared to Pythia-3B and even exceeding Pythia-7B).
Пифия тупая как пробка.
Впрочем ровно такие же обещания я слышал и про RWKV, так что мой уровень скептицизма неимаджиируем.
Аноним 05/12/23 Втр 14:13:53 563683 263
>>563682
Лучше бы размером в 30В выпустили, и чтобы она превосходила 70В
Аноним 05/12/23 Втр 14:15:15 563685 264
>>563676
2.8b 11 гигабайт. Ну такое.
Она хоть загрузится в oobabooga? Очень сомневаюсь.
Аноним 05/12/23 Втр 14:18:49 563688 265
изображение.png 180Кб, 1887x540
1887x540
>>563685
>Она хоть загрузится в oobabooga?
Конечмо нет.
Аноним 05/12/23 Втр 14:24:12 563696 266
1640525581244.jpg 34Кб, 680x518
680x518
>>563652
> Новая архитектура моделей, ультрадлинный контекст с линейным скейлом, убийца трансформерсов
> 130m..2.8b
Ну чисто пикрел

В целом конечно прикольно, но если будут как обычно тупыми то нахуй надо. Как раз к обсуждению натренировонности на конкретику, с этой штукой и на простом железе поиграться с обучением можно.
>>563688
Там и файлов в репе несколько не достает до типичной структуры, не написали чем оно по дефолту пускается.
Аноним 05/12/23 Втр 14:32:52 563706 267
Аноним 05/12/23 Втр 14:36:09 563710 268
Не, ну, если она окажется с таким размером не тупее Мистрали, при схожей производительности (упирающейся в псп, ага=), то вполне себе прорыв, хули.
Это уже даст нам тот самый 13B ≈ 70B Llama 2.
Ну и надо учитывать, что под «тупее» подразумевается адекватность, а не эрудированность — знания тупо зависят от объема, конечно, и в каких-то сложных темах всегда понадобится большой объем. =)
Но это уже можно будет решить иначе, канеш.

Ну, будем посмотреть.
Аноним 05/12/23 Втр 14:37:27 563712 269
.png 20Кб, 587x206
587x206
Аноны, а как следует крутить rope_freq_base и за что оно отвечает?
Условия - есть rpbird-yi-34b-200k.Q5_K_M.gguf, где контекст ужимается с 200к до 12288, а llama.cpp ставит rope_freq_base в 5000000 - нужно ли как то вручную снижать rope_freq_base и если да то насколько?
Аноним 05/12/23 Втр 14:56:50 563724 270
>>563651
>Дай угадаю, настраивал семплинг по тем ахуительным рекомендациям? Видно что пытается но в хлам поломано. глиномес

Нет, просто миростат включил и все. А ее уже корежит так.
Трапы не гейство


Готовы к КУУМУ господа?

zzlgreat/deepsex-34b

>I first collected a total collection of about 4GB of various light novels, and used BERT to perform two rounds of similarity deduplication on the novels with similar plots in the data set. In addition, a portion of nsfw novels are mixed in to improve the NSFW capabilities of the model.
Аноним 05/12/23 Втр 14:59:00 563726 271
>>563724
>Готовы к КУУМУ господа?
>zzlgreat/deepsex-34b
Очередная модель, которую никто не квантует?
Аноним 05/12/23 Втр 14:59:38 563727 272
>>563726
>квантует

Илитный куум только господам с теслой доступен
Аноним 05/12/23 Втр 15:04:06 563732 273
>>563710
7б гопоту и клод уже победили - теперь ждем новых побед от 3б, ага. Правда нормальных ответов и понимания инструкций все никак не дождемся от них.
>>563726
Чего сам не квантанешь?
Аноним 05/12/23 Втр 15:05:30 563735 274
>>563732
>Чего сам не квантанешь?
->
>>563011
>Я ленив, чтобы делать скрипты самостоятельно
Я всё ещё ленив.
Аноним 05/12/23 Втр 15:10:46 563741 275
>>563732
>Чего сам не квантанешь?
На слабом пк можно это сделать?
Аноним 05/12/23 Втр 15:28:17 563768 276
image.png 128Кб, 1353x482
1353x482
>>563515
>Emerhyst-20B - U Amethyst 20B,

Попробовал эметрист вместо аметиста.
Все еще хуже.

>Tsukasa's cheeks turn an even brighter shade of pink, and his eyes dart around nervously. He bites his lower lip, fidgeting with his skirt.

>U-Um... I-I... hesitates I-I-I... I-I... He takes a deep breath, trying to steady his voice.

>I... I... I-I... I-I... I-I... I...

>He swallowed thickly, his voice barely a whisper.

>I... I-I... I... I... I... I... I... I... I... I... I...

>He trails off, unable to bring himself to say it out loud.

7B такое говно даже не выдают лол
Аноним 05/12/23 Втр 15:32:42 563773 277
>>563768
У него удар вообще-то....
Аноним 05/12/23 Втр 15:52:51 563818 278
>>563768
Реально очень похоже на проблемы с сэмплерами. С высиранием кучи наречий подряд, как в примере выше, я тоже сталкивался на какой-то модели, когда сильно давил значениями topK меньше 20 или tfs меньше 0.85. Ну или какая-то лажа с обработкой контекста началась. Было что-то подобное, когда ставил неправильный rope ручками в кобольде, но там вообще полупустые несвязные строчки с многоточиями генерились.
Аноним 05/12/23 Втр 16:03:44 563838 279
image.png 76Кб, 831x981
831x981
>>563818
Говорю ж тупо миростат пресет использую.
Причем другие модели так не колбасит, все нормально
Аноним 05/12/23 Втр 16:13:13 563864 280
>>563838
Пробуй minP=0.1, t = 1.0. Остальное выключи нахуй. Чекни хотя бы вывод при таких настройках.
Аноним 05/12/23 Втр 16:54:45 563925 281
>>563724
>34b
Вот бы еще запустить это как то. А то даже на хорде такой размер это редкость по праздникам.
Аноним 05/12/23 Втр 17:02:08 563936 282
>>563741
Да, это можно хоть на калькуляторе сделать если речь про gguf. Под экслламу хватает того оборудования на котором может запуститься модель.
>>563768
Семплеропроблемы или что-то из этого, оно даже на q3KM адекватно.
>>563838
> миростат
Ну хуй знает. И температуру у 95% шизомиксов нужно опускать.
>>563925
Да ладно, серьезно? А большие модели там бывают? Там ffa или есть очки приоритета которые можно нафармить расшаривая более мелкие модели?
Аноним 05/12/23 Втр 17:05:04 563945 283
image.png 6Кб, 256x66
256x66
image.png 11Кб, 339x156
339x156
>>563768
>>563838
>Mirostat
Чел, ты...

Юзай это и это. не удивлюсь, если у тебя ещё и форматирование конченое
Аноним 05/12/23 Втр 17:07:10 563952 284
>>563945
> прокси в 2024 году
Ору. Ты может ещё и на каждом чате дрочишь настройки семплинга?
Аноним 05/12/23 Втр 17:07:16 563953 285
>>563936
Там бывают и 70В но прям реально очень редко. Ежедневный стандарт обычно 13В и ниже иногда 20В
Кудосы можно фармить раздавая что угодно но они почти ни на что не влияют и сгорают с каждой генерацией так что нафармить пару тысяч и всегда быть первым не выйдет, надо регулярно раздавать если тратишь.
Аноним 05/12/23 Втр 17:09:33 563959 286
>>563953
> Там бывают и 70В но прям реально очень редко.
То есть хостить квантованные 34-70 ради кудосов и потом гонять какую-нибудь большую экзотику или экспериментировать с fp16 версиями нет смысла?
Аноним 05/12/23 Втр 17:17:27 563978 287
image.png 123Кб, 1527x265
1527x265
>>563936
Температура и миростат не работают вместе же вроде не?


>>563953

Куда кудосы сгорают? Я месяц назад хорду последний раз гонял у себя

>You have 646 kudos remaining

>>563945
Чем тебе миростат не угодил?
У меня вот сейчас первый раз проблемы с ним появились за очень долгое время

Вот хрономейд адекватный результат выдает
Аноним 05/12/23 Втр 17:25:42 563988 288
>>563945
Не, это точно почти погоды не делает. Только если видно, что сетка начинает какую-то из её команд для инструкций в текст засовывать, тогда мб имеет смысл под её формат подстроиться. А так я с сетками, для которых рекомендуют chatML или openchat формат, всё равно юзаю альпачный, и разницы особо нет вроде. Все они видят, где блок с инструкциями, а где текст, который нужно продолжать, т.е. написать ответ после "{{char}}:". Единственное, что можно токенайзер глянуть в правом столбце этих настроек, выставить там Llama. Но если у анона другие файнтьюны ламы норм пахали, то вряд ли это что изменит.
Аноним 05/12/23 Втр 17:28:12 563994 289
>>563959
>>563978
Кудосы так то нахуй не нужны, они только увеличивают твой приоритет если ты генеришь на чужом железе и тратяться на каждую генерацию + реролы. Если ты запускаешь на своем а чужое не трогаешь то кудосы вообще бесполезны и только размер письки увеличивают.
Аноним 05/12/23 Втр 17:30:46 563997 290
>>563978
>Температура и миростат не работают вместе же вроде не?
Ты че с сосны упал?
Аноним 05/12/23 Втр 17:44:27 564004 291
Плагины как в гупте в ваших ламах есть?
Аноним 05/12/23 Втр 17:48:06 564011 292
>>563978
Хз, то общая рекомендация к ним. Микростат много хейтили за шизу и странные результаты, но также местами и хвалили за разнообразие.
>>563994
> Если ты запускаешь на своем
Тогда и орда не нужна вовсе. Суть в том чтобы шаря что поменьше насобирать на что побольше, но если побольше нет то и смысла нет.
Аноним 05/12/23 Втр 17:54:10 564021 293
>>563988
>Не, это точно почти погоды не делает
Ответы сетка даёт разные, значит делает. В каких-то ситуациях может быть не заметно, а где-то начинает гнать шизу. Если анон жалуется что модель "несёт бред", это вполне может быть причиной.

>>563978
>Чем тебе миростат не угодил?
Да хотя-бы тем что у тебя температура на 1 выставлена. Это же почти гарантированная шиза. Семплеры в этом пресете должны +- дать норм результат на любой модели, поэтому и советую его.
Ещё "Simple 1", тоже неплохой универсальный пресет, без ебанутой температуры.

То что у тебя что-то где-то как-то работало с миростатом ещё не показатель. Опять же, не известно что для тебя "проблемы" и их отсутсьтвие. Может у тебя сетка трусы по несколько раз снимает, а тебе и норм.
Аноним 05/12/23 Втр 18:03:52 564032 294
>>563864
С мин-п и 1.5 температура норм идет
Аноним 05/12/23 Втр 18:06:36 564033 295
>>564032
Да хули, сразу четверку хуярь, швятой волшебный семплер от всего вылечит, а еще хуй крепче стоять будет.
Аноним 05/12/23 Втр 18:07:28 564034 296
>>564033
хочешь хуярь 4, а я 1.5 ставлю
Аноним 05/12/23 Втр 18:18:08 564035 297
>>564021
Обсуждаем же конкретный пример вот такого залупывания сетки >>563768, а не "трусы по несколько раз снимает". Последнее то для франкенштейнов норма. Температура 1 даёт вероятности токенов из датасета, не должна к такому приводить. Впрочем, про франкенштейны я согласен, что там меньше нужно ставить, было от них ощущение, что правильные вероятности слетают, но всё равно не такие тупые ответы ожидаешь. Вообще когда листал тот бредовенький рейтинг Аюми, то для многих моделей видел хотя бы один такой несвязный ответ. Хз, при каких условиях он вылезает.
Аноним 05/12/23 Втр 18:33:13 564044 298
>>564032
Ну с китаюсиком лучше такую большую не ставить
Аноним 05/12/23 Втр 18:37:35 564051 299
>>564044
Мистрали всякие норм жуют, проверял на гермесе и старлинге. Конечно в некоторых задачах если не пойдет то можно и сбавить, держаться за настройки зубами никто не говорит
Аноним 05/12/23 Втр 18:39:33 564055 300
>>564051
Ну так а смысл в высокой температуре? Чем выше t, тем шизоиднее ответы.
Аноним 05/12/23 Втр 18:41:36 564058 301
>>564055
Мин-п обрезает шизу не давая ей пролезть в варианты которые потом уже поднимаются температурой. Вообще не хочешь не ставь хули тут думать
Аноним 05/12/23 Втр 18:49:49 564073 302
>>564035
Со времён первой Пигмы, на локальных моделях не ставил температуру выше 0,8. Не разу не получал подобного результата ни на одной из них. Брат жив.
Аноним 05/12/23 Втр 19:47:58 564101 303
>>564058
Он не обрезает шизу, только маловероятные токены также, как и другие семплеры, просто делает это по другому алгоритму. Качество ответов и адекватность текста он не гарантирует. На большом контексте токены с вероятностью пониже на 6-7 месте но все еще выше отсечки могут быть неуместны и далее поломать все при частом выпадании, температура их бустанет а волшебный семплер никак не отсечет. Это тебе не черрипикать или подделывать, с minP с такими параметрами как в примере все также идет шиза первые ответы, выставив неадекватные параметры у остальных.
Аноним 05/12/23 Втр 19:53:44 564104 304
>>564101
просто добавь еще мин-п.жпг
Аноним 05/12/23 Втр 20:47:04 564156 305
>>564104
Надо последовательно запускать семплеры температура-минП-температура-минП-температура, вот тогда и заживём!
Аноним 05/12/23 Втр 20:50:39 564161 306
>>564156
А сверху еще миростатом обмазать
Аноним 05/12/23 Втр 20:53:00 564167 307
>>564161
>>564156
Ахуенно! Не ну а че, модели друг с другом сшивают - почему бы так с семплерами не сделать?
Аноним 05/12/23 Втр 21:01:15 564182 308
>>564104
this, но неиронично. Получаешь плохие ответы - выкинь сэмплером побольше плохих токенов. А вообще ситуации, когда хорошо подходят меньше десятка токенов, обычно означают, что первые токен или два сгенерятся с очень большой вероятностью (например, 60%, 25%, 10% и мусор), и тогда дефолтный minP в 0.1 вполне себе оставит только первые три токена. А если ситуация обратная, и кривая вероятностей пологая, но с первичным резким спадом (например, 20%, 15% и ещё 50 токенов по проценту), то minP с таким же значением даже резанёт эти 50 токенов относительно хорошо подходящего креатива (из-за чего лично я предпочитаю TFS), но несвязным текст от этого всяко не будет.
Аноним 05/12/23 Втр 21:07:35 564186 309
>>564182
Ну да, а если не хочется вот такое
>А если ситуация обратная, и кривая вероятностей пологая, но с первичным резким спадом (например, 20%, 15% и ещё 50 токенов по проценту), то minP с таким же значением даже резанёт эти 50 токенов относительно хорошо подходящего креатива
то мин-п можно и уменьшить до 0.05 и температурой поиграть.
Или поменять порядок семплеров, вначале выравнивая вероятности а потом уже обрезая, но это нужно тестить.
Аноним 05/12/23 Втр 21:27:16 564227 310
>>564186
Не, тогда ты всё сломаешь в первом примере, где начнут вылезать токены в 3%, которые в том случае будут явно плохие. Лучше перебдеть и взять побольше. TFS хорош тем, что при одном и том же значении отрезает разный хвост не в зависимости от макс токена, а в зависимости от того, как меняется наклон кривой вероятностей (см. рисунки 4 и 8 в этой статье, которую гугл выдаёт первой по запросу про TFS https://www.trentonbricken.com/Tail-Free-Sampling/). Тоже, само собой, сэмплер не панацея, но, на мой взгляд, работает разумнее, чем minP.
Аноним 05/12/23 Втр 21:32:08 564235 311
>>564227
Какие у него минусы? Был бы он лучшим не было бы необходимости в нескольких семплерах
Аноним 05/12/23 Втр 21:35:30 564240 312
Аноним 05/12/23 Втр 21:38:07 564247 313
>>564235
Тот чел в статье пишет, что долгие вычисления для применения сэмплера по сравнению с обычными topP/topK, и т.к. он работает лучше только для крайних случаев, то не понятно, стоит ли оно того. Типа его значение в 0.95, которое он рекомендует, будет в подавляющем большинстве случаев соответствовать topP 0.69. Он там пытался какой-то опрос устроить и оценить, насколько лучше выходят ответы, но забросил это, потому что не понял, как вообще это дело оценивать, и разница особое не намечалась в ответах. Ну это как я понял после беглого прочтения.
Аноним 05/12/23 Втр 21:38:59 564249 314
>>564182
> Получаешь плохие ответы - выкинь сэмплером побольше плохих токенов
Сначала создать себе серьезную проблему, а потом героически ее решать, показывая как ты хорош. Четко, лол, речь офк про тот пример с высокой температурой ради оправдания minP
> А вообще ситуации, когда хорошо подходят меньше десятка токенов
Таких большинство. То что модель может извернуться и продолжив вернуть текст в адекватное русло даже при странном вмешательство - заслуга модели, а не шизосемплеров, подкидывающих ей такие квесты. После превышения определенного порога все ломается совсем.
> 50 токенов относительно хорошо подходящего креатива (из-за чего лично я предпочитаю TFS)
Расскажи какие модели и в каких квантах катаешь, интересно.
Аноним 05/12/23 Втр 21:39:54 564250 315
>>564240
А зачем он нужен вообще? Там вроде ядра проца совсем нищие в малом количестве выделяют, ускорение всеравно на видеокарте идет, какой смысл?
Аноним 05/12/23 Втр 21:44:24 564256 316
>>564247
> т.к. он работает лучше только для крайних случаев, то не понятно, стоит ли оно того
В том и суть, он специально показывает радикальные ситуации, которые бывают относительно редко, и в них демонстрирует плохую работу других семплеров с их неоптимальными для такой ситуации параметров, причем другие кроме topP/K он специально убирает.

Тема с рп на повышенной температуре типа 1.5 вообще может быть изучена, но потребует действительно более тонкой настройкой всех семплеров, не только единичного minP. Проблема вся в том что кумится/рпшится и на 0.7 хорошо, общайся и довольно урчи если модель нормальная.
Из потенциальных юзкейсов - бывают случаи когда свайпы приводят к тому же исходу только с небольшим отличием описания, особенно на всратых моделях которые тебя не понимают. В таком случае температура с повышенным вниманием к отсечке действительно может помочь, но вопрос насколько адекватным и связанным получится текст. В общем вот такое надо пробовать, кто хочет - велкам.
Аноним 05/12/23 Втр 21:55:10 564262 317
>>564256
>демонстрирует плохую работу других семплеров
TFS и миростат он так не тестировал.
Аноним 05/12/23 Втр 21:57:34 564264 318
>>564249
>Таких большинство
И какие они? Дописать правильно слова и поставить на нужном месте глагол to be, предлоги и прочее. Часто ты видишь, чтобы такие вещи разваливались при температуре 1 или даже 1.5?
>Расскажи какие модели и в каких квантах катаешь
Мелкие, если вопрос об этом. 7b q5_K_M на компе (в основном, синатра рп), 13b q5_K_M в колабе koboldcpp (последний раз игрался с Nete, Psyfighter v2, TimeCrystal). И да, конечно, они все периодически чутка шизят, если ты к этому клонишь. Но ответы и разнообразие свайпов меня устраивают больше при температуре чуть выше единицы, после которой я отрезаю 0.95 TFS. Порой уменьшаю температуру или TFS, если модель совсем прямо уносит. Иногда ставлю температуру назад в конец в порядке сэмплеров. Ещё у меня включены небольшие отсечки с помощью topA и topP. Я не знаю, какие выводы ты сможешь из этого сделать, я ещё юзаю шизанутый систем промпт почти на 300 токенов на описалово, почти как для турбы. Просто потому что хочу.
Аноним 05/12/23 Втр 22:08:16 564285 319
>>564256
>радикальные ситуации, которые бывают относительно редко
Если так подумать, то на деле ни разу не редко. Вон, рядом другой анон пишет, что крутая кривая с маленьким выбором очень часто бывает. Как и пологая, когда у тебя, например, в рп меняется локация, или ожидается какое-то новое действие. topK объективно прямо совсем параша. Можно выставить общепринятое topK 40 и надеяться, что выпадет, что нужно, но заранее не знаешь, пять токенов тебе подходит или 100500. topP получше, но тоже не знаешь заранее 60% - это норм, или ты так себе только три токена по 20% оставишь.
Аноним 05/12/23 Втр 22:15:42 564305 320
>>564262
Миростата тогда не было, 19-го года статья. Возможно, есть какие-то более свежие работы, но это нужно сидеть искать.
Аноним 05/12/23 Втр 22:20:58 564315 321
1606656847374.png 824Кб, 2531x1296
2531x1296
>>564264
> Дописать правильно слова и поставить на нужном месте глагол to be, предлоги и прочее.
Речь не о составлении предложения без диких ошибок в грамматике и потере читабельности, на входе нужен уместный и подходящий по контексту ответ, а иногда и вовсе детерминистически определенное значение.
> Часто ты видишь, чтобы такие вещи разваливались при температуре 1 или даже 1.5?
Не катаю с такими, но для решения задач и оценок отлично помогает снизить температуру до 0.2-0.5. Сразу процент верных решений и нужных ответов превышает 90, исчезают фейлы с верным ходом решения и внезапной ошибкой и все подобное. В рп персонаж ведет себя более спокойно и предсказуемо.

Игрался тут с мистралем, стоковым, он действительно пиздец какой неразнообразный и так и норовит или залупиться или юзать ограниченный набор слов, из-за чего теряется вся художественность. Возможно на нем действительно повышение температуры пойдет норм.
> не знаю, какие выводы ты сможешь из этого сделать
Играюсь с вероятностью токенов и влиянием на них всякого, заодно оценивая подобные эффекты. Кванты что за 90% довольно часто та еще шиза, и так по дефолту распределения там не сказать что прямо детерминированы.

>>564285
Ну смотри, крутая кривая с маленьким выбором - это синие токены, дохуя разнообразные - красные. Реально там быстрое падение только там где особо другого и не подставить.
> общепринятое topK 40
? 20 общепринятое.
> topP получше, но тоже не знаешь заранее 60% - это норм, или ты так себе только три токена по 20% оставишь
На 60% 3-4 токена - это большинство зеленых, насколько это нормально - хз. Обычно topP 90%. В любом случае нет смысла по отдельности смотреть семплеры и их "побеждать", они работают в совокупности.

Еще поиграюсь и выложу эту штуку. Надо понять получше, а то возникает больше вопросов чем ответов и легко сделать неверные интерпретации.
Аноним 05/12/23 Втр 22:29:13 564330 322
image.png 71Кб, 405x883
405x883
>>564315
>Еще поиграюсь и выложу эту штуку. Надо понять получше, а то возникает больше вопросов чем ответов и легко сделать неверные интерпретации.
О интересно, мин-п с температурой проверь голых заодно, чет типо такого.
С температурами 0,7 , 1, 1,5 , 2 например. Интересно как это влияет на токены и текст
Аноним 05/12/23 Втр 22:47:22 564349 323
>>564305
>Миростата тогда не было, 19-го года статья.
? Я про манятесты автора минР на реддите, с температурой в 4.
>>564315
>В любом случае нет смысла по отдельности смотреть семплеры и их "побеждать", они работают в совокупности.
А собственно почему бы и нет? Как минимум, чем меньше семплеров, тем выше скорость. Миростат тут правда сосёт, у меня с ним наблюдаются просадки по скорости.
А так нахуя 10 семплеров, которые делают одно и тоже, но по разному?
Аноним 05/12/23 Втр 23:00:08 564368 324
>>564315
>20 общепринятое
Про 40 пишет автор статьи про TFS, ссылается на другую статью (вроде б OAIшной группы). Уже порядком лет прошло, могло поменяться. Ну и зависит, о каких запросах к сетке речь идёт. Там не о специализированных задачах вроде речь, а просто, чтобы ответ был больше похож на человеческую речь, со схожим разнообразием словарного запаса. Когда мифомакс только появился, для него тоже рекомендовали topK 40 в разных гайдосах.
Аноним 05/12/23 Втр 23:19:30 564372 325
Пишите смешное
Аноним 05/12/23 Втр 23:24:13 564373 326
Аноним 05/12/23 Втр 23:52:17 564394 327
>>564349
> А собственно почему бы и нет?
Потому что это манямир, буквально создаешь проблемы которых не бывает только чтобы доказывать что твое решение позволяет их решать. Не пойми неправильно, не против minP, задумка ничем не хуже чем остальные семплеры и он юзабелен. Просто хайп вокруг него и придание невероятных свойств - полнейшее мракобесие, что вредит развитию.
> чем меньше семплеров, тем выше скорость
Время работы семплеров пренебрежимо мало по сравнению со временем генерации. Если офк там не сотня т/с, и то там оптимизация актуальна может быть не для обычного использования.
>>564368
Про 20 и 0.9 - просто пример из simple-1, для нормальных моделей он действительно довольно удачный и покрывает основное. Даже если представить что токены идут с одинаковой вероятностью - 2.5% вероятность отсечки им при 40, и адекватных-уместных токенов больше одного-двух десятков нечасто бывает.
Аноним 06/12/23 Срд 00:40:57 564416 328
>>564394
>Просто хайп вокруг него и придание невероятных свойств - полнейшее мракобесие, что вредит развитию.
Нет, я согласен, что темпа в 4 это шиза и чисто для пиара.
Но почему бы не уменьшать количество семплеров? Типа нахуя все эти топ-к и топ-п при наличии мин-п или даже тфс? Чем меньше, тем лучше и понятнее, я щитаю.
Аноним 06/12/23 Срд 01:13:18 564429 329
>>564330
> бесхвостая выборка
Бляяя за що такое
>>564416
Дали набор и ассортимент, можешь использовать какие хочешь. Именно сочетание позволит покрыть все случаи.
Их настройка не сложная и используется редко, а основные манипуляции сводятся к кручению температуры. Поставь отсечку в пару десятков по количеству и минимальную вероятность в 5-10%, для верности можно minP добавить или вместо topP использовать, и все. Слишком много внимания обращению с маловероятными событиями при наличии и так большого рандома из вероятных.

Там с такими вероятностями всеравно один шум уже, особенно на мелких моделях, а кванты вероятности в них смазывают.
Аноним 06/12/23 Срд 02:21:55 564475 330
изображение.png 10Кб, 361x74
361x74
>>564429
>Бляяя за що такое
А я с наказания угораю. Бля, вот кто всё это переводит? GPT2-Medium?
>Именно сочетание позволит покрыть все случаи.
Нет в тебе азарта поискать серебряную пулю.
Аноним 06/12/23 Срд 02:38:21 564478 331
>>564475
Сука, сначала хвоста лишили, потом еще и наказали. Хз, похоже на либру, даже гугл адекватнее переводит. Надо с этой локализации обратно на английский перевести, punishment for repetition звучит более убедительно, сразу лупится перестанет лол.
> Нет в тебе азарта поискать серебряную пулю.
Да блин, оно то вроде и есть, и поломать модель - база. Но ллм сами по дефолту уже поломаны так что даже жалко их становится.
Аноним 06/12/23 Срд 03:38:57 564489 332
>>563651
Не покажешь свои настройки таверны?
Аноним 06/12/23 Срд 07:20:13 564596 333
>>564240
Юзай колаб из шапки. Он guff модели тоже запускает, если очень хочется.
Аноним 06/12/23 Срд 08:06:09 564612 334
Какая самая умная сетка из семидесяток? В плане не базы знаний, а умения следовать инструкциям и рп
Аноним 06/12/23 Срд 08:14:05 564614 335
Аноним 06/12/23 Срд 09:47:24 564648 336
>>564614
Бля, это МЕГАКРУТО! Я такого джва года с момента появления первых открытых ЛЛМ ждал. Локалки же идеальны для управления НПС, Почему до этого никто их в таком ключе не юзал?
Аноним 06/12/23 Срд 10:20:19 564656 337
>>564614
Тебе зачем смотреть на два квадрата в бедрум?
Аноним 06/12/23 Срд 13:31:05 564747 338
>>564656
Не ерп единым сыт человек
Аноним 06/12/23 Срд 14:14:58 564781 339
Потестил я тут намедни эту вашу OpenChat 7B. Действительно, лучше Llama2 70b.

А есть 13B версия?
Аноним 06/12/23 Срд 14:15:41 564784 340
Аноним 06/12/23 Срд 14:20:09 564791 341
1648544471035.jpeg 95Кб, 575x573
575x573
>>564781
> OpenChat 7B. Действительно, лучше Llama2 70b
Там что-то типа пикрел, да?
Аноним 06/12/23 Срд 14:25:14 564799 342
>>564791
Реально сложно отличить от GPT3.5
Аноним 06/12/23 Срд 14:27:21 564806 343
>>564791
по ссылке демка есть, можешь заценить, если лень качать
Аноним 06/12/23 Срд 14:36:20 564820 344
>>564799
Ну порнуху она точно хуже чем китайская 34b строчит
Аноним 06/12/23 Срд 14:36:42 564822 345
>>564784
Хабрадауны на месяц как минимум отстают от треда. У нас эти сетки и новости уже прожевали, высрали, снова прожевали и забыли.
Аноним 06/12/23 Срд 14:46:13 564832 346
>>564822
и какие щас в тренде?
Аноним 06/12/23 Срд 14:59:44 564839 347
>>564832
starling-lm-7b-alpha, neuralhermes-2.5-mistral-7b, capybara-tess-yi-34b-200k, causallm_14b , openhermes-2.5-mistral-7b

а кум, сою и цензуру не проверял, тупо как чат ботов использовал, вроде ниче так, топ по нынешним временам в своих размерах

pivot-0.1-evil-a для ценителей
Аноним 06/12/23 Срд 15:01:43 564843 348
>>564839
А в чем смысл тупо чатботов? Это же скучно. Двач лучше.
Аноним 06/12/23 Срд 15:04:14 564847 349
>>564843
Для ситуаций когда у тебя в голову пришла какая та идея и ты вместо гугла сразу задаешь вопрос сетке и она сразу отвечает, а не дает на выбор кучу ссылок где нужно искать ответ.
Ну или какая идея в голову пришла и уже ее обсуждаешь с ботом, мне нравится
Аноним 06/12/23 Срд 15:53:25 564893 350
image.png 37Кб, 650x403
650x403
>>564839
у меня чего то Cтарлинг не грузится через убабунгу, лоадер не находит, инстал свежий. Чому?
Аноним 06/12/23 Срд 15:54:15 564895 351
Аноним 06/12/23 Срд 15:56:08 564897 352
>>564895
так он же его и требует
Аноним 06/12/23 Срд 15:57:31 564899 353
>>564843
>Двач лучше

Спорно
Аноним 06/12/23 Срд 16:03:10 564904 354
>>564899
С порно всё становится лучше, даже двач.
Аноним 06/12/23 Срд 16:31:36 564942 355
Аноним 06/12/23 Срд 17:01:01 564981 356
>>564897
GGUF или exl2 скачай, чего с этой херней копаешься
Аноним 06/12/23 Срд 18:40:10 565099 357
>>564839
> pivot-0.1-evil-a
В чём её прикол?
Аноним 06/12/23 Срд 18:44:09 565106 358
Аноним 06/12/23 Срд 18:47:14 565109 359
image.png 40Кб, 907x246
907x246
>>565106
Можешь пояснить? Я не очень понимаю...
Аноним 06/12/23 Срд 18:54:19 565115 360
>>565109
Взяли стандартное обучение и говорили, что это плохо. Теперь сетка выдаёт чернуху на всё подряд.
русик-кринж
Аноним 06/12/23 Срд 19:10:03 565130 361
>>565115
С возрастом меня начало забавлять то, что называют кринжем
Аноним 06/12/23 Срд 20:35:24 565211 362
>>564839
>starling-lm-7b-alpha, neuralhermes-2.5-mistral-7b, capybara-tess-yi-34b-200k, causallm_14b , openhermes-2.5-mistral-7b
какая из них лучшая?
Аноним 06/12/23 Срд 20:55:53 565237 363
>>564822
Это еще немного, обычно отставание исчисляется кварталами.
>>564843
С двачем не по ерпшишь
>>565109
Ну какой еще коровий пенис если должна быть конская залупа? Эх
Аноним 06/12/23 Срд 21:02:36 565244 364
>>565237
>С двачем не по ерпшишь
Я тебя ебу.
Аноним 06/12/23 Срд 21:04:54 565247 365
>>565244
Нет, я тебя первый ебу!
блашез слайтли
Аноним 06/12/23 Срд 21:08:09 565254 366
Аноним 06/12/23 Срд 21:21:58 565272 367
1.png 71Кб, 400x884
400x884
2.png 22Кб, 538x518
538x518
3.png 100Кб, 827x441
827x441
Двачик, прошу помощи, совсем что-то не могу разобраться. Какие настройки ставить на первом пике, или это всё методом проб и ошибок? Или вообще выбирать кобольдааи сеттинг.
Также не совсем понимаю пункты smartcontext и cantextshift на втором пике, на что они влияют? И подскажите, имеете ли смысл вкатываться с 1660 S и 12100f "железом", или это всё будет хуйня? Пробовал несколько моделей.
ggml-model-q4_k_m - на ней пока что получалось лучше всего, генерирует текст быстро как по мне 5-10с, по содержанию, вроде тоже неплохо, но иногда бывает что несёт полный бред.
На остальных моделях пробовал (Штук 5 разных перепробовал), но выходит полная хуйня в стиле 3 пик.
Надеюсь на помощь, тред жопой читал.
Аноним 06/12/23 Срд 21:24:53 565275 368
>>565272
Да, нужно наверное было уточнить что пробовал и через oobabooga, но я видимо не осилил и выходила полнейшая хуйня.
Аноним 06/12/23 Срд 21:25:23 565277 369
>>565272
Min P - 0.05
Mirostat - 2/5/0.1
Температура - 1
Все остальное от лукавого.
Аноним 06/12/23 Срд 21:28:52 565279 370
Если даже на этом несет ахинею то мин пи на 0.1
Больше ничего не нужно все остальное отключать
Аноним 06/12/23 Срд 21:36:24 565288 371
>>565272
>smartcontext
Не нужно.
>cantextshift
Спасибо что не cuntext. Не трогай, пусть будет, минусов нет. Убирай галочку с "запускать браузер" и проверь врам, я не уверен, что у тебя 30 слоёв выгрузятся в 6ГБ.
Аноним 06/12/23 Срд 21:38:20 565290 372
image.png 12Кб, 889x88
889x88
>>565279
Отключить имеется ввиду можно выкрутить прямо в 0? Сейчас вот попробовал, появилась вот такая ошибка, но сам текст сгенерирован вроде нормально.
Аноним 06/12/23 Срд 21:43:52 565300 373
>>565290
Не, не ноль, для разных семплеров разное.
Короче выстави Simple-1, так будет проще, а по качеству это классика, проверенная временем.
Аноним 06/12/23 Срд 21:44:47 565302 374
image.png 12Кб, 1051x131
1051x131
>>565288
Вот так загружается врам с 30 слоями. Вес модели 4.2gb, и ставлю размер контекста на 4096 (Так и не понял, его нужно ставить много или нет)
Аноним 06/12/23 Срд 21:46:09 565305 375
>>565300
Понял, спасибо. Попробую с такими настройками.
Аноним 06/12/23 Срд 21:58:02 565333 376
>>565272
smartcontext и contextshift - это умные алгоритмы обработки контекста, которые позволяют не перерабатывать при каждом ответе весь контекст целиком. Первый из них устарел, и лучше использовать contextshift. Учти, что если ты используешь лорбуки/worldinfo или сильно редактируешь старые ответы в чате, то включённый contextshift может не срабатывать или приводить к бредовым ответам.
>ggml-model-q4_k_m
Не понял, что конкретно это за модель была. Если нужно для рп, то поищи на huggingface Synatra-7B-v0.3-RP-GGUF, PiVoT-0.1-Starling-LM-RP-GGUF или Toppy-M-7B-GGUF. Q4_K_M версии должны бы влезать в 6 гигов видяхи целиком (т.е. 35 слоёв). Но так как с некоторыми слоями загружается ещё дополнительный кэш, то может не влезать, проверить не сложно. Если Out of Memory выкинет, тогда уже уменьшай. По настройкам, помимо настроек сэмплеров, тебе нужно ещё пойти во вкладку с форматированием (буква А) врубить там instruct mode и выбрать нужный для сетки пресет. Для начала сойдёт Roleplay. Для синатры и старлинга рекомендуется другой формат, но в какой-то степени сойдёт и этот.
Аноним 06/12/23 Срд 22:00:23 565337 377
Какой самый нищебродский проц взять, что хотяб 10 t/c выдавало на 7b моделях?
Аноним 06/12/23 Срд 22:03:50 565340 378
Аноним 06/12/23 Срд 22:06:50 565343 379
>>565340
Но это видимокарточка
Аноним 06/12/23 Срд 22:07:44 565344 380
>>565333
SaffalPoosh/zephyr_7B_ggml-model-Q4_K_M.gguf
Вот эта модель, не помню уже точно где и как её нашёл, но на ней работает пока что лучше всего. Сейчас попробую что-то из рекомендуемых, и инструкт стоял на альпаке, по гайду из шапки, сейчас попробую Roleplay.
Аноним 06/12/23 Срд 22:22:55 565367 381
image.png 24Кб, 409x304
409x304
>>565344
А, ну Roleplay - это и есть слегка изменённый Альпака формат, так что большой разницы не будет, скорее всего. Я вообще использую такой кастомный. Инпут и аутпут пустые, потому что выше этого окошка стоит галочка в include names, и вместо ###Input: и ###Response: для каждой реплики модель видит {{user}}: и {{char}}:, что вроде как получше для рп.
Аноним 06/12/23 Срд 22:31:10 565389 382
5.png 101Кб, 820x352
820x352
>>565367
На Toppy-M-7B-GGUF. Q4_K_M с 35 Она начала говорить за меня, и текст обрывается, но обрыв текста насколько я понял фиксится настройкой "Заблокировать EOS-токен"?
Аноним 06/12/23 Срд 22:58:16 565447 383
image.png 10Кб, 905x80
905x80
При заблокированном EOS-токене она начинает говорить от моего имени, а при разблокированном EOS-токене при генерации появляется звук ошибки и собственно вот такая ошибка, но сам сгенерированный текст вроде бы нормальный.
Аноним 06/12/23 Срд 23:00:09 565450 384
Если нейросеть мерженная из нескольких, то для неё важно квантование?
Аноним 06/12/23 Срд 23:00:29 565451 385
>>565389
Не, бан EOS токенов, наоборот, будет способствовать более длинной писанине. Удалять неполные предложения можно настройкой "Trim incomplete sentences" во вкладке с настройками форматирования. А вот почему имя твоей персоны не идёт как EOS токен, вот этого не понимаю. Таверна должна автоматом имя юзера к ним добавлять и прерывать генерацию, как только видит "{{user}}:".
Аноним 06/12/23 Срд 23:09:59 565462 386
>>565447
Это не ошибка, это как раз попался токен, прерывающий генерацию. Если у тебя имя юзера кириллицей, то, возможно, это как раз оно там стоит, и тогда это норма. Допиши ещё в конец системного промпта что-нибудь вроде "Avoid speaking as {{user}} and narrating {{user}}'s actions", если там такого нет. Хотя 7б модели скорее всего будет пофиг на эту инструкцию.
Аноним 06/12/23 Срд 23:18:27 565481 387
>>565462
Понял, спасибо за помощь.
Аноним 07/12/23 Чтв 00:39:59 565620 388
>>563724
>zzlgreat/deepsex-34b


Дождались дрочилы?
TheBloke/deepsex-34b-GGUF
Аноним 07/12/23 Чтв 01:07:34 565646 389
Кто-нибудь пробовал Dawn-v2-70B от маэстро создавшего шедевр аметист?
Аноним 07/12/23 Чтв 01:12:37 565652 390
>>565646
> a merge I have done with the new layer shuffle
Подозрительно, но уже за
> This repo contain the file measurement.json needed to do your own exl2 quant
уже почтение, вот же красавчик.

Как модно говорить - инцестмикс, но попробовать можно, вдруг годнота с необычными ответами получилась. Завтра если получится попробую, отпишу.
Аноним 07/12/23 Чтв 02:55:43 565795 391
>>565620
А запустить то как? У меня нет доступа к университетному железу и в конторе не работаю.
Аноним 07/12/23 Чтв 03:39:02 565823 392
>>565795
Модель всего 34б, пойдет на любом более-менее нормальном ПК.
Аноним 07/12/23 Чтв 03:52:39 565835 393
2023-12-0710-49[...].png 80Кб, 1131x672
1131x672
ребзя не бейте лучше обоссыте я новенький, скачал вебуи текст, скачал qwen с хагингфейса(на 2 гига, для тестов), при нажатие на кнопку загрузить модель выдает следующее. Куда копать?
Аноним 07/12/23 Чтв 08:10:32 565960 394
>>565099
Я ещё пощупал её и наверно понял, мне понравилось что у неё текст какой-то живой что ли? Пользовать вряд ли буду, т.к. это всё таки семёрка, но очень хочется посмотреть как будет использоваться этот принцип в других бОльших моделях.
Аноним 07/12/23 Чтв 08:34:50 565964 395
>>565835
В какомормате скачал модель? Каким семплером запускаешь? Тебе кажется пишет что токенайзера нет его надо отдельно докачать.
Аноним 07/12/23 Чтв 10:00:42 565988 396
>>565960
Эта модель - производная от Синатры, как разраб в карточке пишет, а у Синатры самой по себе текст достаточно живой. Так что сложно сказать, тут заслуга датасетов, использованных для файнтьюна Синатры из Мистраля, или конкретно вот такого способа обучения на сейф инструкциях. Но да, было бы прикольно, если бы кто-нибудь такое хотя бы с 13б провернул.
Аноним 07/12/23 Чтв 10:01:13 565989 397
Аноним 07/12/23 Чтв 10:59:05 565997 398
>>564784
Какой хабр тупой, я поражаюсь этому уже лет 7-10.
То у них полимер легче воздуха, но не летает.
То у них 28 ноября 2023 года 65B модели современные.
Одна история охуительнее другой.

>>564822
65B, Карл, они на год отстают от всего мира.

>>564847
Так! Шаришь.

>>565337
Ну будем честны, 3060@12 будет тебе выдавать 17-19 токенов на 13B моделях.
На 7B — еще быстрее.
Стоит 22к с учетом фантиков на МегаМаркете.

Ну, вроде норм, не?

А проц любой с AVX2 инструкциями и 6 физ.ядрами.
Хезе, 3600/4500/5500 райзен. Может быть i3-10xxx/11xxx/12xxx норм будут, не тестил.
Ну и память: двухканал DDR4 3200 или четырехканал на зеоне (но зеон поновее — с AVX2).
Аноним 07/12/23 Чтв 11:48:59 566015 399
>>565964
отсюда скачал https://huggingface.co/Qwen/Qwen-1_8B-Chat-Int4/tree/main через вебуи ссылку вставил он сам подтянул. Запускать не получается, на этапе загрузки модели (кнопочка load model) выскакивает эта ошибка. Настройки выставились автоматом когда выбрал модель(ExLlama_HF).
Аноним 07/12/23 Чтв 12:07:55 566023 400
>>566015
https://github.com/turboderp/exllamav2/issues/160
Не шарю за эксламу, но гугл находит такую ишью на гитхабе. Пишут, что qwen модели отличаются по токенайзеру и даже довольно сильно по архитектуре от ламы, и экслама их не запускает.
Аноним 07/12/23 Чтв 12:10:26 566026 401
Гамно ваш копробольд. Qwen-1_8В-чат в формате гуф не поддерживает. А ллама.дцп вроде без копрософт редистребьютабле не запускается (еще летом пробовал на работке, сейчас не знаю как). А кроме Qwen-1_8В-чат на 8 гигах оперативы без нормальной видюхи ничего толком и не работает...
Аноним 07/12/23 Чтв 12:16:25 566033 402
>>566026
А Мистраль и ее файнтьюны 7B тебе чем не угодили?
Аноним 07/12/23 Чтв 12:20:26 566036 403
>>566033
Оно в 8гиг оперативы не влезет. Походу, у меня кроме Qwen1.8B вариантов нет.
Аноним 07/12/23 Чтв 12:25:26 566039 404
>>565997
>А проц любой с AVX2 инструкциями и 6 физ.ядрами.
Да не, если 3060 17 токенов на 13b выдает, то проц тут не конкурент. На этих процах(i3,i5) в лучшем случае будет 5-7 на 7b.
Если только i9 или может i7.
Аноним 07/12/23 Чтв 12:27:21 566041 405
>>565835
Качай модели у которых gguf формат. С другими форматами тоже постоянная хрень была. То не загружаются, то вылетают, а gguf божественен и не прихотлив.
Аноним 07/12/23 Чтв 12:27:52 566042 406
>>566036
Все там влазит.
Все зависит от квантования и контекста.
Или бери маленький квант, или уменьшай контекст.

Еще есть Rocket-3B, она даже шевелиться.
https://huggingface.co/TheBloke/rocket-3B-GGUF

Любые 7B-файнтьюны (лламы, мистрали) влазят в 8 гигов, если взять квант пониже (Q4_K_M или ниже).

Наслаждаться будет тяжело, но что поделать.

Вообще, лучше выделить косарь-полтора и докупить оперативы до 16-32 гигов, в зависимости от твоей модели.
Помянем, если ноут с распаянной и без слотов.
Аноним 07/12/23 Чтв 12:29:30 566044 407
>>566039
Да там проц-то не причем, больше оператива роляет.
Но, да, процы не конкуренты 3060 видяхе. К тому же, новая с ценой гиг за 2 косаря — это очень хорошо. Не тесла p40 с ее гигом за 700 рублей, но тоже ниче так.
Аноним 07/12/23 Чтв 12:31:52 566045 408
>>566041
Так-то exllamav2 работает намного быстрее чем gguf, прямо очень заметно быстрее. Если можешь запускать без CPU (3090, 4090), то качай лучше exl2 модели.
Аноним 07/12/23 Чтв 12:37:28 566047 409
>>566026
>Qwen-1_8В
>1.8В
>1.8
Мужик, прекрати, у меня сейчас слёзы навернутся.
>>566042
>Любые 7B-файнтьюны (лламы, мистрали) влазят в 8 гигов, если взять квант пониже (Q4_K_M или ниже).
Два чаю. Хотя конечно 7B в таком кванте тоже наводят тоску. Но не так сильно, как 1.8В
Аноним 07/12/23 Чтв 12:54:33 566054 410
>>566047
>>Qwen-1_8В
Это 1.8b а я сижу уже минут 10 думаю как 8b модель может весить 1 гиг.
Аноним 07/12/23 Чтв 12:55:03 566055 411
image.png 59Кб, 626x492
626x492
>>566047
>>566042
>Все там влазит.
Открываем любую 7б у Блока и смотрим пик релейтед. И это с 2к контекста, как я понимаю. Держим в уме, что пару гигов из восьми жрёт система. Где оно там влезет то? Если только как-то с подкачкой через пень-колоду пойдёт. Мне кажется, с такими спеками лучше в колабе модельки гонять.
Аноним 07/12/23 Чтв 13:00:23 566059 412
>>566042
>Любые 7B-файнтьюны (лламы, мистрали) влазят в 8 гигов, если взять квант пониже (Q4_K_M или ниже).
Хмм, а реально https://huggingface.co/TheBloke/NeuralHermes-2.5-Mistral-7B-GGUF/blob/main/neuralhermes-2.5-mistral-7b.Q4_K_S.gguf вот это запустилось. Не знал, еще летом 7В модели у меня вообщще не работали. Какие сейчас самые норм 7В полегче ,чтобы в 8гиг влезло?
Аноним 07/12/23 Чтв 13:18:00 566066 413
>>566059
>Какие сейчас самые норм 7В полегче
Все модели одного размера одинаковые. Отличаются кванты, так что если у тебя пошёл mistral-7b.Q4_K_S, то пойдёт и любая другая 7b.Q4_K_S.
Аноним 07/12/23 Чтв 13:22:57 566070 414
изображение.png 21Кб, 160x585
160x585
>>566066
Как я понял, чем больше бит - тем лучше.
Чем меньше квант - тем лучше

Поясните про эту ебалу. Что значат эти обозначения: K, S, L, M, 0?
Аноним 07/12/23 Чтв 13:33:46 566074 415
>>566055
Ну, так-то, можно и в 1 гиг впихнуть систему.
Так что норм, 2к контекста мало, но ты себе представляешь 3B модель, а то и вовсе 1,8B? Какие у них мозги? Тебе этот контекст не сильно поможет.
Я не тестил, но я боюсь, она там будет третьи трусы с головы снимать (причем с твоей).

>>566059
Вот. =) Уже и жить можно, хоть как-то.
Аноним 07/12/23 Чтв 13:39:47 566079 416
>>566070
>Что значат эти обозначения: K, S, L, M, 0?
Разные типы группировок при квантовании. Короче я всегда качаю K_M, но у тебя памяти прям вообще мало, так что оставайся на K_S.
Аноним 07/12/23 Чтв 13:43:26 566080 417
Анонасы, посоветуйте llm, которыя будет классифицировать услугу по описанию проблемы пользователя. Имеется датасет с описаниями услуг и случаями их применения.

Какую модель использовать? Как зафайнтюнить / добавить слой, чтобы не переобучилась, но и запомнила случаи применения услуг?
Аноним 07/12/23 Чтв 13:46:50 566081 418
>>566079
я другой анон rtx3080 10Gb
S = Small
M = Medium?
L = Large
0 = ???
Аноним 07/12/23 Чтв 13:54:18 566088 419
>>566081
0 — первый вариант квантования до s/m/l
Аноним 07/12/23 Чтв 13:55:40 566089 420
Аноним 07/12/23 Чтв 13:59:20 566093 421
изображение.png 111Кб, 1164x234
1164x234
По логике KS должна меньше весить, чем 0, а по факту нихрена.
Аноним 07/12/23 Чтв 14:28:47 566099 422
Аноним 07/12/23 Чтв 14:37:54 566104 423
>>566093
Почему? Оно самое худшее и старое, а не самое маленькое. =)

>>566089
Не задавался таким вопросом, если честно.
Аноним 07/12/23 Чтв 14:41:33 566109 424
>>566080
>Имеется датасет с описаниями услуг и случаями их применения.
Много?
>>566089
К это буква.
Аноним 07/12/23 Чтв 14:57:13 566121 425
>>566109
Около 10к текстов. Каждый текст имеет 3.7к символов в среднем.
Аноним 07/12/23 Чтв 15:06:24 566123 426
>>566121
Достаточно много. Посмотри в сторону LangChain и векторных хранилищ, должно прокатить.
Аноним 07/12/23 Чтв 15:14:56 566126 427
Аноним 07/12/23 Чтв 18:49:36 566406 428
>>566036
> в 8гиг оперативы
Если именно оперативы а не врам - лучше забей и используй коллаб, это совсем печалька.
>>566070
>>566055
Не совсем верные эти таблицы, их эффективная битность заметно выше числа что в названии. Приставки - модификаторы того как квантованы некоторые части слоев.
Аноним 07/12/23 Чтв 18:50:25 566408 429
1607081949635.png 13Кб, 393x492
393x492
>>566406
Отклеилось, для других размеров там почти то же самое.
Аноним 07/12/23 Чтв 19:08:36 566445 430
>>560285 (OP)
Оп-няша, ты там что-то по новой шапке пилил?
Аноним 07/12/23 Чтв 19:27:16 566474 431
>>566445
Мне бы старое сначала перенести, лол. А уж потом новое пилить.
А что, есть предложения?
Аноним 07/12/23 Чтв 19:28:46 566476 432
На чём щас ерпшит средний класс 12гб врам? Почему-то в треде либо 7б советуют, либо 70б. Куда простому крестьянину податься с 3060 12гб и 16 ОЗУ?
Аноним 07/12/23 Чтв 19:34:22 566489 433
Какую нейронку можно локально на 4080 с 16гб поставить?
Чтоб она и карточки из таверны понимала, и не галлюцинировала. Ну и вообще мозгов побольше.
Размер контекста не шибко важен, а вот следование промпту и креативность прям критичны.
Аноним 07/12/23 Чтв 19:36:09 566493 434
>>566476
>Почему-то в треде либо 7б советуют, либо 70б
Так промежуточного тонет. 13B берут за щеку у мистраля, 34B не вышла, вот и создался разрыв.
А так можешь поебаться с франкенштейнами 20B, или выгрузить меньше половины и долго ждать с китайскими подделками на 34.
Ну или вот, >>561274
Аноним 07/12/23 Чтв 19:44:38 566507 435
>>566474
Да, пилил чтиво с тем как катать на убабуге, но получилось много дополнительного, так что вынес перед установкой-запуском.
https://rentry.co/xzuen
пока на рентрае потому что у них относительно удобный маркдаун.
Собственно мнения, какие ошибки или чего-то стоит убрать/добавить?
Аноним 07/12/23 Чтв 19:57:20 566534 436
>>566507
>чтиво с тем как катать на убабуге
>5 экранов до надписи "Установка"
Солидно, ничего не скажешь.
Короче пока увидел опечатку "видеоркарте", дальше потом почитаю.
Аноним 07/12/23 Чтв 20:02:41 566542 437
>>566493
>13B берут за щеку у мистраля

Мамой клянусь мой мистраль файнтюн by xxx_Vsaya_xXx в рот ебет GPT5.
Вот бенчмарке какой-то я хз, короче 7В лучше ЯСКОЗАЛ.

7В катать если у тебя 13В спокойно запускается это просто верх долбоебизма.


>>566476

Можешь 20b модельки в q3 k_s запускать. Как вариант Amethyst / Emerhyst (в треде говорят ебанутый) или Noromaid (в треде говорят много описания, мало диалогов)

13 модельки в q5 k_m можно гонять. Классика типа MythoMax-L2-Kimiko всегда актуальна. Из поновее есть Chronomaid-Storytelling-13b и LLaMA2-13B-Psyfighter2

Сам сейчас тестирую X-MythoChronos-13B. КУУМ вообще отличный.
Аноним 07/12/23 Чтв 20:11:44 566558 438
У кого то серьезный максимализм головного мозга, либо сходу 70В либо сразу до 7В(а чего не сразу до 3В/1.5В/750М)
То что 11В/13В и 20В существуют это даже не принимается во внимание "потому не 70В!!1"
Аноним 07/12/23 Чтв 20:16:42 566570 439
>>566558
>То что 11В/13В и 20В существуют это даже не принимается во внимание "потому
Потому что прирост маленький.
Аноним 07/12/23 Чтв 20:20:35 566576 440
>>566476
20б же базированная тема q3 кванта ее вполне себе рабочий, иногда ощущение что рандомайзер токенов идет ей на пользу без потери когерентности. Новые миксы 13 тоже неплохие.
> Почему-то в треде либо 7б советуют, либо 70б.
Да нет явно такого, 70б действительно хороши, но советовать всем сидеть терпеть по несколько минут - ну такое. А 7б форсят шизики у которых нет возможности катать что-то другое с адекватной скоростью, они же могут начать затирать что следующей ступенью может быть только 70б, поскольку это такой себе отдаленный недостижимый предел, который не может составить конкуренцию.
>>566493
> 13B берут за щеку у мистраля
Как называется эта болезнь?
>>566558
> потому не 70В
Ну вообще да, стоит подсесть на 70 и остальное огорчает.
Аноним 07/12/23 Чтв 20:29:36 566589 441
>>566576
Сижу на 20В через орду и меня все устраивает. На 70В я тоже сидел, большинство перепробовал и такого чтобы прям УУХ разницы с хорошей 20В не замечаю. Все от модели больше зависит а не от самого размера.
Аноним 07/12/23 Чтв 21:26:07 566678 442
1611864442509.png 73Кб, 1200x720
1200x720
1552997604725.png 2012Кб, 2560x2782
2560x2782
1583396840553.png 2009Кб, 2560x2782
2560x2782
1576561058647.png 45Кб, 1200x720
1200x720
По квантам, по крайней мере на контексте до 4к, довольно базированная тема получается.

Если смотреть среднюю температуру по больнице, считая отличия распределений вероятности конкретных токенов, то кванты выстраиваются в порядке их битности, пикрел.

Что интересно, exl8 квант получается хуже чем Q8_0 по уровню среднего возмущения токенов как Q6_k. Однако - кванты экслламы дают примерно равномерные отклонения отдельных токенов (пик2) в отличии от старших квантов жоры, которые в среднем выдают более близкий результат, но склонны шатать отдельные токены (пик3), что в теории приводит к большему шансу на разворот ответа.
Если смотреть более внимательно, то в квантах жоры можно получить другой ответ при жадном энкодинге (особенно это при решении задачек заметно, в рп редко), тогда как в бывшей и gptq такое менее вероятно. Это, кстати, может объяснить причины отличий результатов при разных квантах в старых тестах их сравнения, когда какие-то Q4_KS набирали больше правильных ответов чем Q6K. По этой же причине детерминистический шаблон для подобных оценок - зло и легко приведет к мисинтерпретации.
В любом случае, на фоне исходного рандома токенов что получаем при семплировании это все крохи и реально дичь можно увидеть только при величинах менее 4 бит. Ласт пик мистралька для которой 3 бита есть, вот там довольно пиздецовые отклонения идут.

TL/DR: Для (e)rp юзаем любые кванты 4.5+ бита и довольно урчим, с обычными контекстами разницу с fp16 при использовании семплинга и адекватных температурах никогда на обнаружишь.

Для поехавших и просто любопытных, наведя на токен в попапе можно увидеть вероятности токенов, которые выдают разные кванты. Раскрашены исходя из отклонений распределений для квантов относительно оригинальной модели.
https://files.catbox.moe/00lcqu.html

Потом как-то это оформлю, есть еще интересные результаты с оценочными датасетами для exl2 квантов. И интересно как оно будет вести себя в ризонинге, если у кого есть промты с задачками или целые датасеты - велкам.
Аноним 07/12/23 Чтв 21:53:00 566709 443
>>566678
> TL/DR
Но Картинка из шапки всё ещё верна? Что 2.5Б 70В > 5Б 30В?
Аноним 07/12/23 Чтв 22:02:53 566720 444
16969144684390.jpg 1176Кб, 1024x1024
1024x1024
>>560285 (OP)
Сейчас использую это https://huggingface.co/TheBloke/openchat_3.5-GGUF
При запросе найти какую то инфу, бот выдумывает ссылки сам, на самом деле их не существует. Как то можно это победить? Или только ai от дядь так могут, в интернетах что то искать?(
Аноним 07/12/23 Чтв 22:48:52 566752 445
>>566720
У меня и гпт 3.5 выдумывал.
Аноним 07/12/23 Чтв 22:51:07 566754 446
>>566752
Что делать, чтобы этого избежать, пусть не дает ответ или говорит что не знает, но не кидает шизу эту. Как понял это все пока еще баловство для детей.
Аноним 07/12/23 Чтв 23:11:09 566765 447
>>566709
> 2.5Б 70В > 5Б 30В
Это врядли, ниже 4 бит начинается уже оче быстрый рост отклонений а ниже 3б вообще все ответы исказятся, не зря самый младший квант у жоры который делают - вообще 3.5 бита. Вот 3бита 70б уже может быть лучше чем 5бит 30б. А если экстраполировать поведение 20б на голиафа и подобных - 3 бита для рп тому точно не повредят.
>>566720
Аи от дядь тоже будут выдумывать кроме самых простых адресов.
>>566754
> Что делать, чтобы этого избежать
Не проси у бота прямые ссылки на что-то, пусть обозначит что и как искать а конкретный адрес у гугле найдешь.
Аноним 07/12/23 Чтв 23:56:52 566802 448
Там на хорде сейчас есть 120В модель но сразу говорю очередь просто жирнейшая, не факт что выйдет залететь без кудосов.
Аноним 07/12/23 Чтв 23:58:36 566805 449
Еще есть 33В для фанатиков и там очередь небольшая.
Аноним 08/12/23 Птн 00:06:54 566824 450
>>566802
В какой битности она?
Аноним 08/12/23 Птн 00:09:15 566827 451
>>566824
А я откуда ебу? У хостера спрашивай.
Аноним 08/12/23 Птн 00:16:25 566837 452
>>566827
Там разве не пишется какой квант или же исходная модель в фп16?
Аноним 08/12/23 Птн 00:28:11 566854 453
>>566837
У него ниче не пишет только имя и размер
Аноним 08/12/23 Птн 04:28:27 566953 454
Кто-то пробовал обходить фильтр на гемини? У меня американский впн все, лень новый искать
Аноним 08/12/23 Птн 09:53:53 567024 455
>>561934
Кто-то из треда эту модель тестил? Как она по сравнению с другими? Разработчики заявляют, что "мощнее GPT-3.5", но это чистой воды маркетинг. Что на практике?
Аноним 08/12/23 Птн 09:58:18 567028 456
>>566953
>гемини
Оффтоп.
>>567024
>Кто-то из треда эту модель тестил?
Конечно. Модель как модель, никаких чудес.
Аноним 08/12/23 Птн 09:58:42 567030 457
>>566953
Через TOR не работает?
Аноним 08/12/23 Птн 10:01:28 567033 458
>>567028
А что сейчас есть из интересного на пощупать? Если что, в наличии титан с 24 гигами памяти есть.
Вот этот список:
>>564839
> starling-lm-7b-alpha, neuralhermes-2.5-mistral-7b, capybara-tess-yi-34b-200k, causallm_14b , openhermes-2.5-mistral-7b
достоин рассмотрения?
Аноним 08/12/23 Птн 10:07:13 567035 459
>>567033
Тебе для чего?
В списке новые только starling, да neuralhermes, остальное уже подустарело.
Аноним 08/12/23 Птн 10:12:06 567036 460
>>567035
Document summarization в основном, да ответы на вопросы по этим выжимкам
Аноним 08/12/23 Птн 10:25:16 567039 461
>>566408
> других размеров
А где там то, можно ссылку?
>>566507
> https://rentry.co/xzuen
Нихуёво, жаль что не сразу в вики, потом гемор будет переносить, если захочется. Жору бы в термины внёс с его беком, а то только угабуга.
Я так понимаю возмущениями ты называешь смену вероятностей токенов?
> repetition penalty - при значениях больше 1 дает штраф (зависит от значения) к вероятности токенов, которые уже есть в рассматриваемом диапазоне контекста.
Это разве не имеет накопительный эффект в отличии от presence, на всём rep_pen_range?
> temperature - при значениях меньше 1 снижает вероятность токенов с меньшей вероятностью. При значении выше наоборот повышает ее.
Она и высоко вероятные ведь затрагивает, растягивая вероятности между собой при маленьких значениях, потому что более вероятные логиты получают больший буст от деления.
> достаточно выставить в параметрах контекст 8192, и alpha 2.65 / rope_freq_base 26900
Зачем сразу и альфу и rope_base, или это ты так или обозначил? Тут бы тот график альфы кстати не помешал.
> Моделей сейчас представлено множество
А про лоры чего не упомянул, хотя бы что они тоже существуют.
> call python one_click.py --api
Не стоит, уже есть отдельный файл CMD_FLAGS.txt, туда можно просто вписать --api --trust-remote-code ну или что нужно.
>>566678
Тут графики это усреднения отклонений всех токенов? Интересно получается, 2 бита бы глянуть для 70, лол, там небось вообще ад происходит.
Аноним 08/12/23 Птн 14:43:45 567228 462
>>567039
> А где там то
https://github.com/ggerganov/llama.cpp/tree/master/examples/quantize
> жаль что не сразу в вики
А где эта вики то? Желание высказывается а ее не видно.
> Жору бы в термины внёс с его беком, а то только угабуга.
Да, Жору стоит
> Это разве не имеет накопительный эффект в отличии от presence, на всём rep_pen_range?
> Она и высоко вероятные ведь затрагивает, растягивая вероятности между собой при маленьких значениях
Там в общем что примерно делает семплер. По-хорошему нужно сразу формулы тащить, но будет перегружено, можно дополнительно добавить линк на описание семплеров в обниморде или статьи про них.
> или обозначил
this, график можно
> А про лоры чего не упомянул, хотя бы что они тоже существуют.
Можно
> CMD_FLAGS.txt
Норм, надо поправить, только про верить коду ремарку.
> среднения отклонений всех токенов?
Довольно примитивно:
Генеральная линия - жадный энкодинг fp16, но добавлен семплер rep pen чтобы не срало лупами (13б вообще с этим нормально, но вот на мистрале без него пиздец), из-за него иногда можно встретить что выбранный токен не на первом месте.
По этим токенам ответа идет поочередный анализ и сохраняются распределения. После просто тупое сравнение какая вероятность токена была в оригинале и какая в кванте, разница относится к исходной величине для получения отклонений.
Потом набор ранжируется по выбранной сетке и строится график, ну и рендерится html раскрашенная по выбранной метрике. То есть отклонения в 15% на токене с вероятностью 5% (который как правило уже отсекается) это значит что его вероятность получилась на 5% а 4.25 или 5.75%, на фоне выбора из более вероятных и ветвлений чтобы такое отследить в результате нужно ебануться какие количество ответов на одинаковый запрос статистически обработать.
Более интересно как оно будет в задачках, ризонинге и прочем, будет ли тот же тренд или наступит "отупение".
> 2 бита бы глянуть для 70
Тут сначала нужно пустить фп16 для референса, потому может быть затруднительно с 70. В крайнем случае Q8_0, но всеравно тяжелая херня, а llamacpp не быстро работает.
Аноним 08/12/23 Птн 14:58:53 567234 463
>>566026
Почему не gptq? В 1660 7b + 7к контекста влезет.
Аноним 08/12/23 Птн 16:18:39 567281 464
>>567228
> А где эта вики то? Желание высказывается а ее не видно.
https://gitgud.io/2ch-ai/wiki напиши ник свой, как зарегаешься
> Там в общем что примерно делает семплер. По-хорошему нужно сразу формулы тащить, но будет перегружено, можно дополнительно добавить линк на описание семплеров в обниморде или статьи про них.
У кобольда хоть и аутдейтед, но достаточно подробно основные объяснены, миростата только не хватает вообщем то https://github.com/KoboldAI/KoboldAI-Client/wiki/Settings
> Довольно примитивно
А, по X вероятности, по Y степень отклонения кванта типо, понял
> Потом набор ранжируется по выбранной сетке и строится график, ну и рендерится html раскрашенная по выбранной метрике.
Это ты сам напердолил что то? Будешь в попенсорс выкладывать?
> Более интересно как оно будет в задачках, ризонинге и прочем, будет ли тот же тренд или наступит "отупение".
Ну чем точнее нужен ответ, тем ближе к гриди нужно семплить, но с мелкими сетками помоему вообще сложно будет что то прямо там зирошотом решить, как минимум ризонинг нужен небось, и то может запутаться.
> Тут сначала нужно пустить фп16 для референса, потому может быть затруднительно с 70. В крайнем случае Q8_0, но всеравно тяжелая херня, а llamacpp не быстро работает.
Так у тебя нету возможности быстро в фп16 её запускать, ну тогда да, долго сравнения ждать придётся, а с эксламой вообще невозможно будет.
Аноним 08/12/23 Птн 16:29:15 567290 465
А что если сместо "ты чар" сказать сетке "имперсонируй чара"...
Аноним 08/12/23 Птн 16:49:38 567304 466
Аноним 08/12/23 Птн 17:27:31 567342 467
>>567281
> https://gitgud.io/2ch-ai/wiki напиши ник свой, как зарегаешься
Хуясе ебать, ну попозже уже на выходных.
> но достаточно подробно основные объяснены, миростата только не хватает вообщем то https://github.com/KoboldAI/KoboldAI-Client/wiki/Settings
Вполне, надо будет добавить
> Это ты сам напердолил что то? Будешь в попенсорс выкладывать?
Быдлокод вперемешку с нейрокодом, все строится на апи обращениях к убабуге. Может потом в качестве примеров что-нибудь нарежу, в конце года даже покумить нормально времени нету.
> Ну чем точнее нужен ответ, тем ближе к гриди нужно семплить
Ага, даже на больших сетках влияние температуры на вероятность правильных ответов значительное.
> с мелкими сетками помоему вообще сложно будет что то прямо там зирошотом решить
А пусть и решают с ризонингом и подобным, кто мешает. Вообще здесь можно развилки поразыгрывать, отмечая в итоге какие приведут к верном ответу, а какие фейлят. Офк добавив температуру в семплеры и ветвиться только там где разные вещи идут а не синонимы слов.
> нету возможности быстро в фп16 её запускать
Увы, сервер с парочкой A100 стоит как недвижимость где-нибудь под дс или в соседних областях, только арендовать, но для подобных игр жаба душит. Максимум 5 бит влезает.
Аноним 08/12/23 Птн 17:33:42 567350 468
Думаю попробовать запихнуть каких нибудь хороших авторов чтобы глянуть будет ли локалочка референсить и писать лучше.
Кто нибудь знает хороших писак?
Аноним 08/12/23 Птн 17:54:03 567368 469
>>567350
Толкиен, например. Но тебе нужны не хорошие, а известные
Аноним 08/12/23 Птн 18:49:13 567403 470
>>567368
А толкиен хорошо для ерп?
Аноним 08/12/23 Птн 18:55:49 567409 471
>>567403
Речи про ерп не шло........
Аноним 08/12/23 Птн 18:58:51 567412 472
>>567403
Для ЕРП бери Владимира Владимировича Набокова.
Аноним 08/12/23 Птн 19:20:13 567439 473
>>567409
Джеймс Хэвок или Уильям Берроуз тебе в помощь
Аноним 08/12/23 Птн 19:22:37 567442 474
Аноним 08/12/23 Птн 19:25:17 567445 475
Еще из новых моделей есть забавная TheBloke/Sydney_Overthinker_13B-GGUF
Цель модели похоже была сделать саванта-аутиста, иногда смешно отвечает
Аноним 08/12/23 Птн 19:27:05 567450 476
>>567442
> 8х7В
Что за хуита? В 8 раз больше сои теперь будет?
Аноним 08/12/23 Птн 19:31:34 567463 477
>>567439
>Уильям Берроуз
Издательство «Ace Books» готовилось выпустить роман «Пидор» в свет, однако его представитель отказался включать в текст книги пространные описания гомосексуального опыта автора, что и послужило главной причиной разделения материала на две отдельные работы: «Я помню, как редактор „Эйс Букс“, который напечатал „Джанки“, сказал мне, что его посадят, если он когда-нибудь опубликует „Гомосека“ [„Пидора“]»
Аноним 08/12/23 Птн 19:32:47 567468 478
>>567450
Это какой-то охуевший франкенштейн из 8 так называемых "Mixture of experts" моделей.
Аноним 08/12/23 Птн 19:36:34 567473 479
Аноним 08/12/23 Птн 19:47:37 567494 480
>>567468
>>567450
Способ впихнуть больше в меньшее железо. Гопота-4 так работает, например. 7B конечно от этого не перестанет быть говном.

>>567442
Пока всякие дауны полируют презенташки и дрочат графики неделями, мистрали тупо высирают магнет в твитере, охуенно.
Аноним 08/12/23 Птн 19:48:18 567495 481
Аноним 08/12/23 Птн 19:49:22 567499 482
>>567468
Как оно вообще организовано, 8 отдельных моделей, гетерогенная архитектура с внутренними ветвлениям, или просто 8 моделей в одну намешали?
Аноним 08/12/23 Птн 19:51:49 567502 483
mediaGA1rgbAbwA[...].png 205Кб, 1390x1688
1390x1688
Аноним 08/12/23 Птн 20:01:15 567517 484
>>567499
По идее должно переключать твой запрос на нужную модель.
Типа спросил про кодинг - кидает запрос в кодинг модель. Если кодинг модели нет - в следующую ближайшую.
Анон выше сказал уже, ГПТ так же примерно работает. Только там конечно не 7В.
Аноним 08/12/23 Птн 20:05:12 567520 485
>>567517
Да уже магнет открыл, там единый кусок на 90 гигов. Подождем пока препарируют или сквантуют если возможно.
Аноним 08/12/23 Птн 20:11:04 567522 486
image.png 31Кб, 857x228
857x228
image.png 22Кб, 888x192
888x192
image.png 88Кб, 933x537
933x537
>>567445
>Sydney_Overthinker_13B
Ну такое себе. Тест не пройден
Аноним 08/12/23 Птн 20:16:12 567526 487
>>567522
Нахуя ты с 13B моделью пытаешься на не-английском разговаривать?
Аноним 08/12/23 Птн 20:17:08 567527 488
>>567526
Вот 7В, которая не только пытается, но может позабавить >>565109
Аноним 08/12/23 Птн 20:19:18 567529 489
16688807885960.jpg 135Кб, 825x1000
825x1000
>>567527
Що то хуйня, що это хуйня, отэта две такие хуйни що я ебал ее маму рот
Аноним 08/12/23 Птн 20:23:11 567533 490
>>567442
На самом деле круто, но как сервис, для универсальных моделей.
Чтобы сегодня покодил, завтра подрочил, послезавтра рецепт торта спросил.
На практике у каждого своя подборка моделей, которые он по желанию вручную переключает.
Так шо ну такое.
Аноним 08/12/23 Птн 20:23:52 567534 491
Есть смысл покупать Tesla P4 под LLM-ки? 8 гигов памяти и ценник в 6к рублей выглядят вкусно.
Аноним 08/12/23 Птн 20:27:42 567536 492
>>567534
Медленно, старая версия куда компьюта и ебля со старыми версиями софта, и нужно докупать кулер.
Аноним 08/12/23 Птн 20:31:43 567541 493
>>567533
Там по две модели в паре работают и их все надо обучать специальным образом. Не получится просто гору 7В взять и сделать из них MoE. Они скорее всего даже не взаимозаменяемые.
Аноним 08/12/23 Птн 20:32:55 567543 494
>>567536
Есть что-то более удачное в ту же цену и форм-фактор?
Аноним 08/12/23 Птн 20:36:10 567545 495
>>567536
>ебля со старыми версиями софта
Так вроде последняя CUDA поддерживает Паскали, не? А все остальное поверх нее работает и пофиг, что там под капотом. Или нет?
Аноним 08/12/23 Птн 21:24:08 567569 496
>>567534
Там вокруг p40 дискусии целые были, а тут такое. >>567536 дело говорит
>>567543
2060@12 с рук поищи, дороже но будет несравнимо лучше и без ебли с охлаждением.
>>567545
> Паскали
2024 уже почти, 8й год архитектуре, паскали уже все
Аноним 08/12/23 Птн 22:05:03 567588 497
>>567569
> 2060@12 с рук поищи, дороже но будет несравнимо лучше и без ебли с охлаждением.

Оно в mini-ITX корпус не влазит. А тесла P4 прям как раз.

> 2024 уже почти, 8й год архитектуре, паскали уже все

Тем не менее даже 1066 все еще тянет все игры хотя кому нахуй нужны игры в 2024
Аноним 08/12/23 Птн 22:50:52 567629 498
изображение.png 372Кб, 985x1547
985x1547
Аноним 08/12/23 Птн 22:55:14 567637 499
>>567569
>Там вокруг p40 дискусии целые были
Так как китаец отменил заказ, дело встало.
Ну и у P40 было преимущество в виде объёма памяти. У P4 её нет нихуя, так что...
Аноним 08/12/23 Птн 22:57:07 567641 500
image.png 80Кб, 748x254
748x254
>>567629
Тебя торрентом не научили пользоваться?
Аноним 08/12/23 Птн 23:11:39 567656 501
Аноним 08/12/23 Птн 23:12:28 567657 502
>>567641
Чел, там обычный мистраль, на дату посмотри. Кто-то вбросил про экспертов без проверки.
Ответить в тред Ответить в тред

Check this out!

Настройки X
Ответить в тред X
15000
Добавить файл/ctrl-v
Стикеры X
Избранное / Топ тредов