Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Ответить в тред Ответить в тред
Check this out!
<<
Назад | Вниз | Каталог | Обновить | Автообновление | 507 101 83
Локальные языковые модели (LLM): LLaMA, Mistral, Command-R и прочие №61 /llama/ Аноним 22/05/24 Срд 04:32:16 751232 1
Llama 1.png 818Кб, 630x900
630x900
Альфа от контек[...].png 121Кб, 3090x1830
3090x1830
KL-divergence s[...].jpg 223Кб, 1771x944
1771x944
Самый ебанутый [...].jpg 2010Кб, 3000x4000
3000x4000
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.

Здесь и далее расположена базовая информация, полная инфа и гайды в вики https://2ch-ai.gitgud.site/wiki/llama/

LLaMA 3 вышла! Увы, только в размерах 8B и 70B. Промты уже вшиты в новую таверну, так же последние версии кобольда и оригинальной ллама.цпп уже пофикшены. Чтобы вам не казалось, что GGUF починили, скажу, что кванты Phi-3 выглядят сломанными.

Базовой единицей обработки любой языковой модели является токен. Токен это минимальная единица, на которые разбивается текст перед подачей его в модель, обычно это слово (если популярное), часть слова, в худшем случае это буква (а то и вовсе байт).
Из последовательности токенов строится контекст модели. Контекст это всё, что подаётся на вход, плюс резервирование для выхода. Типичным максимальным размером контекста сейчас являются 2к (2 тысячи) и 4к токенов, но есть и исключения. В этот объём нужно уместить описание персонажа, мира, истории чата. Для расширения контекста сейчас применяется метод NTK-Aware Scaled RoPE. Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, Llama 3 обладает базовым контекстом в 8к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз без существенной потери качества.

Базовым языком для языковых моделей является английский. Он в приоритете для общения, на нём проводятся все тесты и оценки качества. Большинство моделей хорошо понимают русский на входе т.к. в их датасетах присутствуют разные языки, в том числе и русский. Но их ответы на других языках будут низкого качества и могут содержать ошибки из-за несбалансированности датасета. Существуют мультиязычные модели частично или полностью лишенные этого недостатка, из легковесных это openchat-3.5-0106, который может давать качественные ответы на русском и рекомендуется для этого. Из тяжёлых это Command-R. Файнтюны семейства "Сайга" не рекомендуются в виду их низкого качества и ошибок при обучении.

Основным представителем локальных моделей является LLaMA. LLaMA это генеративные текстовые модели размерами от 7B до 70B, притом младшие версии моделей превосходят во многих тестах GTP3 (по утверждению самого фейсбука), в которой 175B параметров. Сейчас на нее существует множество файнтюнов, например Vicuna/Stable Beluga/Airoboros/WizardLM/Chronos/(любые другие) как под выполнение инструкций в стиле ChatGPT, так и под РП/сторитейл. Для получения хорошего результата нужно использовать подходящий формат промта, иначе на выходе будут мусорные теги. Некоторые модели могут быть излишне соевыми, включая Chat версии оригинальной Llama 2. Недавно вышедшая Llama 3 в размере 70B по рейтингам LMSYS Chatbot Arena обгоняет многие старые снапшоты GPT-4 и Claude 3 Sonnet, уступая только последним версиям GPT-4, Claude 3 Opus и Gemini 1.5 Pro.

Про остальные семейства моделей читайте в вики.

Основные форматы хранения весов это GGML и GPTQ, остальные нейрокуну не нужны. Оптимальным по соотношению размер/качество является 5 бит, по размеру брать максимальную, что помещается в память (видео или оперативную), для быстрого прикидывания расхода можно взять размер модели и прибавить по гигабайту за каждые 1к контекста, то есть для 7B модели GGML весом в 4.7ГБ и контекста в 2к нужно ~7ГБ оперативной.
В общем и целом для 7B хватает видеокарт с 8ГБ, для 13B нужно минимум 12ГБ, для 30B потребуется 24ГБ, а с 65-70B не справится ни одна бытовая карта в одиночку, нужно 2 по 3090/4090.
Даже если использовать сборки для процессоров, то всё равно лучше попробовать задействовать видеокарту, хотя бы для обработки промта (Use CuBLAS или ClBLAS в настройках пресетов кобольда), а если осталась свободная VRAM, то можно выгрузить несколько слоёв нейронной сети на видеокарту. Число слоёв для выгрузки нужно подбирать индивидуально, в зависимости от объёма свободной памяти. Смотри не переборщи, Анон! Если выгрузить слишком много, то начиная с 535 версии драйвера NVidia это может серьёзно замедлить работу, если не выключить CUDA System Fallback в настройках панели NVidia. Лучше оставить запас.

Гайд для ретардов для запуска LLaMA без излишней ебли под Windows. Грузит всё в процессор, поэтому ёба карта не нужна, запаситесь оперативкой и подкачкой:
1. Скачиваем koboldcpp.exe https://github.com/LostRuins/koboldcpp/releases/ последней версии.
2. Скачиваем модель в gguf формате. Например вот эту:
https://huggingface.co/Sao10K/Fimbulvetr-11B-v2-GGUF/blob/main/Fimbulvetr-11B-v2.q4_K_S.gguf
Можно просто вбить в huggingace в поиске "gguf" и скачать любую, охуеть, да? Главное, скачай файл с расширением .gguf, а не какой-нибудь .pt
3. Запускаем koboldcpp.exe и выбираем скачанную модель.
4. Заходим в браузере на http://localhost:5001/
5. Все, общаемся с ИИ, читаем охуительные истории или отправляемся в Adventure.

Да, просто запускаем, выбираем файл и открываем адрес в браузере, даже ваша бабка разберется!

Для удобства можно использовать интерфейс TavernAI
1. Ставим по инструкции, пока не запустится: https://github.com/Cohee1207/SillyTavern
2. Запускаем всё добро
3. Ставим в настройках KoboldAI везде, и адрес сервера http://127.0.0.1:5001
4. Активируем Instruct Mode и выставляем в настройках пресетов Alpaca
5. Радуемся

Инструменты для запуска:
https://github.com/LostRuins/koboldcpp/ Репозиторий с реализацией на плюсах
https://github.com/oobabooga/text-generation-webui/ ВебуУИ в стиле Stable Diffusion, поддерживает кучу бекендов и фронтендов, в том числе может связать фронтенд в виде Таверны и бекенды ExLlama/llama.cpp/AutoGPTQ
https://github.com/ollama/ollama , https://lmstudio.ai/ и прочее - Однокнопочные инструменты для полных хлебушков, с красивым гуем и ограниченным числом настроек/выбором моделей

Ссылки на модели и гайды:
https://huggingface.co/models Модели искать тут, вбиваем название + тип квантования
https://rentry.co/TESFT-LLaMa Не самые свежие гайды на ангельском
https://rentry.co/STAI-Termux Запуск SillyTavern на телефоне
https://rentry.co/lmg_models Самый полный список годных моделей
https://ayumi.m8geil.de/erp4_chatlogs/ Рейтинг моделей для кума со спорной методикой тестирования
https://rentry.co/llm-training Гайд по обучению своей лоры
https://rentry.co/2ch-pygma-thread Шапка треда PygmalionAI, можно найти много интересного
https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing Последний известный колаб для обладателей отсутствия любых возможностей запустить локально

Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде

Предыдущие треды тонут здесь:
>>735155 (OP)
>>728812 (OP)
Аноним 22/05/24 Срд 05:03:17 751244 2
На Жориной лламе опять все сломано и пхи3 хуйню несет. Боже..
Аноним 22/05/24 Срд 08:17:13 751327 3
image.png 22Кб, 601x260
601x260
Аноним 22/05/24 Срд 09:22:13 751356 4
>>751244
Новые фи пока нельзя использовать в ггуф? В чем именно выражается поломанность, можно пример хуйни, которую несет, то есть это вообще бред или лупы или что там?
Аноним 22/05/24 Срд 10:02:19 751375 5
>>751356
https://github.com/ggerganov/llama.cpp/issues/7451
Ждём пока Жора очнётся. Все свежие билды сломаны, хотя у кого-то вроде работают. Неделю висел PR и никто не потрудился простестить его нормально.
Аноним 22/05/24 Срд 10:06:29 751378 6
>>751327
С другой стороны, какой толк от такой модели для нас?
Резать на франкен-мерджи?
Аноним 22/05/24 Срд 10:20:39 751385 7
Это со мной что-то не так или что, но где в новой таверне запрет на EOS токены?
Аноним 22/05/24 Срд 10:39:13 751394 8
А по железу гайд есть? В шапке беглым осмотром не заметил.
На чем крутите? На теслах?
Аноним 22/05/24 Срд 11:13:09 751407 9
>>751394
Какой тебе гайд нужен? Любая нвидия с 24 гб врам, чем новее тем лучше. Остальное мусор.
Аноним 22/05/24 Срд 11:30:23 751425 10
Потестил Фи медиум, какое-то соевое говно, даже в рп триггерится и высерает поучения. Ещё и в чате шизит, пытается на инструкции перескочить, что-то слишком жестко затюнили под инструкции её. Может файнтюны смогут её разогреть, но пока нахуй. Сидим дальше на Yi/ламе 70В.
Аноним 22/05/24 Срд 11:58:02 751467 11
Хочу сделать выяитель бототредов испол зуя ллм и векторные бд. Чтобы оно регуляоно анализировало /b, выявляло контекст шапки и сохраняло. И сравнивалось то, что есть. Подводные? Нахера это делать?
Аноним 22/05/24 Срд 12:40:51 751531 12
Аноним 22/05/24 Срд 12:44:22 751534 13
>>751531
Никогда, просто отдадут первенство Китаю.
Аноним 22/05/24 Срд 12:49:22 751538 14
image.png 392Кб, 874x627
874x627
Аноним 22/05/24 Срд 13:17:39 751558 15
>>751531
Кучно пошло.
>делаем ставки когда запуск локалок оффлайн станет незаконным
Запуск не станет. Хотя домашних устройств для инференса могут и не завезти. Хуже, если не завезут и новых публичных моделей. Или завезут, но полностью без секса например и с внутренней сеткой-цензором. Потому что не положено быдлу.
Аноним 22/05/24 Срд 13:59:03 751608 16
изображение.png 6Кб, 364x135
364x135
>>751327
->
>>725891 →
>Им не дадут выложить 400b.
Анон предсказывающий.
>>751394
Есть, в вики.
>>751425
Что и требовалось доказать.
>>751558
>с внутренней сеткой-цензором
Как в стейбле? Я за.
Аноним 22/05/24 Срд 14:42:32 751676 17
Аноним 22/05/24 Срд 15:59:38 751751 18
>>751531
>«аварийный выключатель»
Ух ты, они прямо признались, что будут вшивать бэкдор в модели. Safetensors всё ещё safe?
Аноним 22/05/24 Срд 16:00:31 751756 19
Аноним 22/05/24 Срд 16:09:12 751766 20
>>751756
Так они норм правила устанавливают. Проблема в том, что их соблюдение тормозит сферу, да.
Аноним 22/05/24 Срд 16:14:19 751774 21
>>751756
>опа выбывает из гонки
Так они не только из гонки выбывают, получается. Это нужно гуглу с опенаи блокировать доступ из европы, лол.
Аноним 22/05/24 Срд 16:36:26 751838 22
>>751774
Прогнуться же. Всегда прогибались. Не отдавать же срыночек гейропки YaGPT, лол.
Аноним 22/05/24 Срд 16:39:03 751845 23
image.png 1289Кб, 811x819
811x819
Мужики, посоветуйте файтюн ламы 3 8b конкретно для написания историй, а не как обычно чатинга 1 на 1.
А то когда создаю хотя бы два персонажа в одной карточке персонажа, то ответы получаются сухими и короткими, а хотелось бы что бы сюжет дальше развивался и между персонажами много диалогов было.
Аноним 22/05/24 Срд 16:40:37 751847 24
>>751538
И что Ивану из города Тверь помешает вырезать этот кусок из новой винды? Сколько модификаций всяких виндовс существует?
Аноним 22/05/24 Срд 16:43:58 751858 25
>>751847
>И что Ивану из города Тверь помешает вырезать этот кусок из новой винды?
Интеграция этого куска в ntoskrnl.exe?
Аноним 22/05/24 Срд 16:46:18 751870 26
>>751356
Просто слова коверкает, будто бы токены пропускает/путает местами. Не очень часто, но доверия нет когда такая хуйня происходит.
Аноним 22/05/24 Срд 16:48:01 751877 27
>>751858
>ntoskrnl.exe

Не имею возможности ебать что это.
Аноним 22/05/24 Срд 16:51:46 751892 28
>>751538
Так там как раз on-device и будет, вместо копилота. Так что это годнота, а телеметрию всегда можно отключить или заблокировать фаерволлом. Так что живем, большой брат не пройдет.
Аноним 22/05/24 Срд 16:53:45 751900 29
>>751425
А вы вообще читаете карточку моделей, прежде чем тестировать? Ну а чего ты ожидал, там написано какой собран датасет и для каких целей. Кумеры не перестают удивлять тупостью.
Аноним 22/05/24 Срд 17:07:02 751939 30
>>751877
Нихуя не знаешь устройства шинды, но при этом рассуждаешь? Типикал ситуэйшен.
Это файл ядра винды, удачи его удалить.
Аноним 22/05/24 Срд 17:07:48 751941 31
Поясните за Mixtral 8x7 и прочих франкенштейнов с множителем. Как из семи условно тупых моделей можно получить модель, выдающую лучший результат? Новой информации-то в них взяться неоткуда.
Аноним 22/05/24 Срд 17:13:27 751965 32
>>751941
Смотри, у тебя семь долбоёбов. Пусть будет семеро двачеров. Один знает про говно, второй про молофью, третий ещё про что-то. И вот ты пишешь им что-то, а они совещаются. Один говорит - "речь про говно, инфа 60%". Второй - про "машины, инфа 20%". И вот это всё суммируется согласно вероятностям и тебе в ответ прилетает ответ "ну а чё ты хотел, это аж автоваз".
Аноним 22/05/24 Срд 17:14:30 751969 33
>>751941
Информации как в 56b а может и меньше, "логика" как у 7b, vram занимает как 56b, работает побыстрее 56b, но помедленнее 7b. По идее, оптимальный вариант для видеокарт с большим объёмом vram и слабым ядром, типа тех же p40.
Аноним 22/05/24 Срд 17:28:50 752025 34
>>751965
В MOE нет четкой сегрегации экспертов на какие-то конкретные скиллы вроде коддинга, общих знаний, сторителлинга и т.д. Все это нех работающее каким-то магическим образом понятным только самой сетке, организующееся при обучении. Роутер собирает данные с экспертов каким-то околорандомным методом. Проще это воспринмать просто как архитектурный способ променять размер модели на увеличение эффективности и уменьшение требуемой видеопамяти.
Аноним 22/05/24 Срд 17:29:15 752026 35
>>751965
>Смотри, у тебя семь долбоёбов.
Вижу пока одного.

>>751941
8х7 означает что на каждом слое нейросетки, у этой их 32, есть 8 разных вариантов весов.
И каждый раз при ответе выбирается 2 из 8.
И на каждом слое берутся только те что подходят лучше всего для ответа тебе. Что означает - сетка имеет не просто 8 специалистов как сказал чел выше, она имеет 256 вариантов комбинирования этих весов.
Аноним 22/05/24 Срд 17:32:07 752034 36
>>752026
Ну или сказать еще проще, Mixtral 8x7 это такая "широкая" 7b по которой размазано гораздо больше информации чем в обычной 7b. Что добавляет ей знаний и мозгов
Аноним 22/05/24 Срд 17:38:31 752048 37
>>752025
>>752026
А, так там разные 7b берутся? Тогда понятно, я-то думал, что одинаковые.
Аноним 22/05/24 Срд 17:42:33 752057 38
>>752026
>И на каждом слое берутся только те что подходят лучше всего для ответа тебе.
И как определяется что подходит лучше всего?
Аноним 22/05/24 Срд 17:46:35 752063 39
>>752057
>И как определяется что подходит лучше всего?
Сетка выбиральщик тренируется вместе с ней, так и выбирает, на сколько помню, предсказывая какие варианты активировать
Аноним 22/05/24 Срд 17:52:53 752072 40
>>752026
>>752063
Хм, это навело меня на мысль. А какая вероятность того, что GPT-4 - это не просто 240b/1.7t или сколько у него там, а вот такой вот GPT-3x10?
По четвёрке openai что-то не торопится сколько-нибудь точные данные давать.
Аноним 22/05/24 Срд 17:56:18 752079 41
>>752072
Уже давно понятно что гпт-4 сейчас мое. Первая версия скорее всего была все еще цельной.
>gpt-3
Он там вообще никаким боком.
Аноним 22/05/24 Срд 17:59:30 752086 42
Fhtb-yVXwAoP9mr.jpeg 196Кб, 960x582
960x582
>>752025
Есть чёткая сегрегация по токенам.

>>752026
Так ты в зеркало не смотри, чтобы долбоёба не видеть.
Аноним 22/05/24 Срд 18:07:06 752095 43
>>752086
>Так ты в зеркало не смотри, чтобы долбоёба не видеть.
Так я на тебя смотрю
Давай дурачек расскажи еще раз как там 8 экспертов сидят
Аноним 22/05/24 Срд 18:26:36 752115 44
>>751531
Пояснительную бригаду можно?
>>751558
> Хуже, если не завезут и новых публичных моделей. Или завезут, но полностью без секса например и с внутренней сеткой-цензором.
Вполне возможно, а "обучение с расцензуриванием" станет прямым нарушением лицензии, что сильно ударит по возможности распространения подобных моделей. Хер вам торренты а не автозагрузка на обниморду.

С другой стороны, не похоже что все там собираются вникать, а если бы серьезно слушали лоббирование клозедов то не было бы уже того что имеем.
>>751676
Скорее балансировщик нагрузки при нескольких бэках и множественных обращениях.
Аноним 22/05/24 Срд 18:36:48 752139 45
>>751941
Входная часть выдает оценку насколько подходит каждый кусок под генерацию следующего токена, N самых высокооцененных моделей запускается. Может от токена к токену меняться между ними.
>>751965
> а они совещаются
Нет, если бы оно совещалось то было бы куда лучше, так-то модель может совещаться сама с собой, особенно эффективно с разными промтами.
>>752026
> на каждом слое берутся только те
Разве в дефолтной реализации оно скачет от слоя к слою? Полное прохождение емнип было.
>>752034
Типа того, но мозгов добавляет несильно, знаний - пожалуй.
Аноним 22/05/24 Срд 18:39:30 752145 46
>>752139
>Разве в дефолтной реализации оно скачет от слоя к слою?
Da. А слой внимания общий на всех икспердов.
Аноним 22/05/24 Срд 18:42:09 752149 47
>>752079
По заявлениям она сразу была мое, вот только стретегия/принцип реализации мог отличаться от того что видим сейчас. Но хуй знает как оно на самом деле и сколько было версий.
>>752145
Понятно
> А слой внимания общий на всех икспердов
Видимо от того и выходит что уступает по "уму" большим, но превосходит аналогичные обычные.
Аноним 22/05/24 Срд 18:49:13 752164 48
>>752139
>Типа того, но мозгов добавляет несильно, знаний - пожалуй.
Мозги заметно растут от количества доступных сетке знаний. По крайней мере ощущение создается более умной сетки, хоть и тупит
Аноним 22/05/24 Срд 18:51:42 752168 49
>>752139
>если бы оно совещалось то было бы куда лучше
Блядь, это аналогия была потому что выхлоп каждого эксперта суммируется.
>At every layer, for every token, a router network chooses two of these groups (the “experts”) to process the token and combine their output additively.
>Mixtral has 46.7B total parameters but only uses 12.9B parameters per token. It, therefore, processes input and generates output at the same speed and for the same cost as a 12.9B model.

Могу подогнать другую аналогию, толпа двачеров едят "цезарь" из одной тарелки. Один выбирает салат, чеснок и сыр. А другой помидоры, филе и масло. Правда, как на пике было приложено, одинаковые токены отправляются разные экспертам, но это уже нюансы.
И потом, соответственно, они все вместе срут обратно в одну тару.
Аноним 22/05/24 Срд 18:59:23 752176 50
> llama: Consider starting the email with a more personalized greeting, such as "Dear Anon," instead of just "Dear Anon".
> me: But I have the comma in there, can't you see it? Is your tokenizer broken?
> llama: Yes, I can see the comma in your original email. My tokenizer is functioning correctly. The request was to proof-read the email for grammar, punctuation, and spelling, not to check for grammatical errors that are not present in the original email. If you want me to check for grammatical errors, I'll be happy to do so.
Фига она огрызается.
Аноним 22/05/24 Срд 19:02:21 752178 51
>>752164
С одной стороны поддвачну последние мелкие сетки этому доказательство. Они все еще туповаты, но охватывают большую область типичных задач и за счет ухищрений типа запредельного cot могут перформить. Еще бы в большой контекст научились. Gpt-4o тоже 100% небольшая МОЕ и в типичных задачах она вполне себе работает. Ну как небольшая, врядли там меньше 20б на каждого эксперта.
С другой, рост перфоманса от МОЕ слишком слаб относительно повышения числа параметров, а мелочь и в единичном экземпляре подкачалась. В чем-то сложном оно слабо отличается от обычной модели.
>>752168
Ну и странные у тебя аналогии, но они таки забавны. Тут нет совещания, тут буквально проход ингридиентов по производственной линии, но на посту будет не один "повар" а несколько, часть из которых приступит к работе, после передав дальше. Из взаимного влияния - только изменения активаций и все, друг друга не чувствуют.
Вот если бы действительно собрать выдачу с каждой части, а потом по ней устроить суммарайз, или тем более дискуссию и авторегрессией, но на уровне токенов это сильно отложит начало стриминга, тут нужно что-то радиально другое.
Аноним 22/05/24 Срд 19:19:15 752191 52
image.png 249Кб, 2418x980
2418x980
image.png 335Кб, 2418x1282
2418x1282
Бля) Ггуф не сломан, она просто говно. Что удивительно gpt-4o тоже обосралась, но тут хотя бы понять можно, она ссылалась на отношения к одному живому члену семьи, хоть и не поняла, что для "тебя" - это отец а не дед. Пхи же просто рандомной хуйни выдала.
Аноним 22/05/24 Срд 19:26:33 752206 53
>>752095
> дурачек
Хоть бы не позорился.
Аноним 22/05/24 Срд 19:30:22 752217 54
>>752191
Хз, у меня эту задачу решил phi medium, даже с кривым токенизатором.
Аноним 22/05/24 Срд 19:34:43 752224 55
image 134Кб, 1444x922
1444x922
Будем ванговать место у параши в рейтинге для пхи3 медиум? Мне, кажется, где-то между этими будет. Если ниже, то нахуй не нужна. Сеймы?
Аноним 22/05/24 Срд 19:37:40 752231 56
>>751608
Не думаю, что 400b не выложат из-за довления. Скорее Цук и компания увидели перспективу. Зря они что ли заказали себе 350 тысяч H100? Это около 10 миллиардов на одни только ускорители, не считая всей остальной инфраструктуры датацентров. Явно не из альтруизма это делается.
Аноним 22/05/24 Срд 19:40:15 752238 57
>>752139
Если мозгов меньше, чем у "монолитной" модели с аналогичным итоговым размером, то в чём тогда преимущество?
Аноним 22/05/24 Срд 19:41:30 752241 58
Как там по моделям на русском сейчас? Пробую llama-3, но, к сожалению, только 8b вроде местами прям очень хорошо, но бывает переходит на ломаный русский, по сути английский с русскими словами.
Аноним 22/05/24 Срд 19:43:26 752248 59
>>752238
Скорость интерфейса и удобство эксплуатации на гпу сервере.
Аноним 22/05/24 Срд 19:54:57 752269 60
>>752224
>пик
Llama 3 70b выше некоторых GPT-4? Субъективщина?
Мне удалось немного потыкать и базовую четвёрку, и некоторые её номерные версии, и эту третью ламу.
По моему опыту, четвёрка всё-таки меньше путается в контексте, чем поделие цукерберга. Третья лама скорее где-то на уровне GPT3-3.5. Может выше, может ниже, там фиг поймёшь, результаты слишком рандомные.
Аноним 22/05/24 Срд 19:59:10 752276 61
>>752191
У меня llama 3 8B отвнтила так же как и гопота.
Аноним 22/05/24 Срд 20:03:32 752289 62
>>752241
Можешь ещё солар попробовать, если не можешь позволить себе командира.
Аноним 22/05/24 Срд 20:05:57 752293 63
>>752269
> Субъективщина?
Ты знаешь, как работает этот рейтинг и на какой системе основывается? Так что нет, как раз все подтверждено реальными данными. Имей в виду, квантованный лоботомит это не то же самое, что оригинальная модель.
Аноним 22/05/24 Срд 20:07:27 752298 64
>>752293
8.0 квант же без потерь идёт.
Аноним 22/05/24 Срд 20:09:14 752302 65
>>752298
Кванты параша сами по себе и могут быть сломаны фундаментально, бенчмарк перплексити ничего не значит на самом деле. Жорик уже это доказал своим сломанным гуфом.
Аноним 22/05/24 Срд 20:09:20 752303 66
>>752293
Без понятия, потому и спрашиваю. Про проблемы квантования я в курсе, но тот вариант ламы, который я пробовал, был либо неквантованный, либо квантованный не слишком сильно.
Аноним 22/05/24 Срд 20:13:34 752316 67
Аноним 22/05/24 Срд 20:22:37 752340 68
>>752276
У меня 8b всё время пытается подсчитать дедов, а не людей, у которых есть дед.
Аноним 22/05/24 Срд 20:58:57 752390 69
Аноним 22/05/24 Срд 21:01:04 752392 70
>>752390
>7b
Небось хуже 3 ламы 8б
Аноним 22/05/24 Срд 21:01:10 752393 71
>>752390
>7b
Небось хуже 3 ламы 8б
Аноним 22/05/24 Срд 21:02:57 752396 72
>>752269
ХЗ, как по мне, ллама 3 70B вполне себе на уровне чепырок. Чуть слабже, но очень близко.
>>752390
Лучше бы мику официально релизнули. Хотя ХЗ, нужна ли она при живой ллама 3.
Аноним 22/05/24 Срд 21:16:49 752428 73
>>752289
Ля, ну командир и большой. У меня наверное только 2х квантованная влезет.
Аноним 22/05/24 Срд 21:20:12 752433 74
>>752293
> не субъективщина
> как раз все подтверждено реальными данными
Кекнул. И без подкруток там не обходится, от безобидных и "необходимых", как их анализ запросов юзеров чтобы отфильтровать тривиальные что могут искажать, до прямых манипуляций в угоду кому-то, в чем их обвиняли.
> квантованный лоботомит
Хех
Аноним 22/05/24 Срд 21:20:45 752435 75
>>752396
> мику
Нахуй этот кал нужен. Она при второй лламе так себе была, а сейчас вообще сосёт дико. На арене медиум на днище.
Аноним 22/05/24 Срд 22:00:52 752500 76
>>752390
> Mistral-7B-v0.3 has the following changes compared to Mistral-7B-v0.2
> Extended vocabulary to 32768
Что это значит? Какой вокабуляр был у мистраля 0.2?
Аноним 22/05/24 Срд 22:07:43 752509 77
изображение.png 3Кб, 290x59
290x59
>>752435
Мику топ была. Что там с медиумом на арене, я ХЗ.
>>752500
>Какой вокабуляр был у мистраля 0.2?
В репе же есть, 32000. Целых 768 токенов добавили! Там скорее всего управляющие символы для запуска функций.
Аноним 22/05/24 Срд 22:12:26 752514 78
изображение.png 13Кб, 435x248
435x248
>>752509
Ага, точно, управляющие символы. ИЧСХ, токенизатор явно отличается, то есть чтобы добавить этот десяток токенов (осмысленные только вначале, далее хуита какая-то уровня control_1488), пришлось переобучать пол модели. Какой же кал всё таки текущие нейронки.
Аноним 22/05/24 Срд 22:14:24 752517 79
>>752509
> Мику топ была.
Только в фантизиях шизиков. На арене её даже 8В выебало.
Аноним 22/05/24 Срд 22:17:00 752521 80
изображение.png 19Кб, 728x290
728x290
>>752517
ХЗ, я тестил, мне нравилось. Ллама 3 конечно лучше будет.
>>752514
>пришлось переобучать пол модели
Ан нет, перепроверил, токены только по айдишникам сместились. Надеюсь они там привязку старых эмбедингов сохранили при расширении, так что может всё не так уж и плохо. А может нет, знаю я этих МЛщиков.
Аноним 22/05/24 Срд 22:19:18 752526 81
>>752428
Тогда солар анцензоред, а еще лучше ллама-3 и общайся на английском. Уж переводчик подрубить то можно. Там же расширение стоит, все в одну кнопку делается. Вот бы еще на озвучки мое-ттс сделать расширение.
Аноним 22/05/24 Срд 22:24:48 752536 82
1714374239883.png 381Кб, 1951x944
1951x944
>>752191
Пиздец гопота лоботомит.
Аноним 22/05/24 Срд 22:35:10 752552 83
image 8Кб, 473x110
473x110
>>752390
Не нужен.

>>752433
Расскажешь, как подкручивают? От ботов там защита, то что сидит лахта от каждой компании и накручивает на свою модель, полная шиза, не верю. Сами результаты постоянно чистят вилкой. Короче глупо спорить, но это самый объективный существующий рейтинг.
Аноним 22/05/24 Срд 22:36:09 752556 84
>>752526
Да не в знании инглиша проблема. Я просто уже столько на английском с этими нейронками общаюсь, что нормально не могу уже воображать диалог с ними на русском. Да и когда на русском всё равно по-другому ощущается, когда пишешь и читаешь. Хочется такого, но всё никак не завезут... С переводчиком тоже всё криво будет.
Аноним 22/05/24 Срд 22:44:35 752568 85
>>752556
>С переводчиком тоже всё криво будет.
Не знаю, мне нравится. С банальным Гуглом - если оригинальный текст хороший, то и перевод тоже хороший будет, даже поэтичный немного. Нужно только учитывать некоторые нюансы - что пишешь ты на русском для Гугла например, а не напрямую твоей нейронке.
Аноним 22/05/24 Срд 22:47:11 752577 86
>>751941
Mixtral это не франкейнштейн, а полноценная MoE — совет экспертов.

У тебя 8 моделей, каждая знает что-то одно, когда ты задаешь вопрос — выбирается две наиболее подходящие и дают общий ответ.
Получается лучше, чем 1 модель (очевидно, ведь у нее нет тех знаний), быстрее, чем крупная модель того же размера (у тебя по умолчанию 1/4 МоЕ-модели читается).

>>751969
42, да. Или около того.

> работает побыстрее 56b
Вчетверо.
> с большим объёмом vram
Но частичная выгрузка сосет, желательно полностью.

>>752048
Ну, как там было изначально — хз. =) 42 миллиарда уникальных из 56 всего.

>>752072
Так GPT-4 и стартануло моду на МоЕ.
8*220 = 1760.
По слухам. =)

>>752168
> Mixtral has 46.7B
Попутал малеха.

>>752238
СКОРОСТЬ

>>752241
suzume качай.

>>752269
3.5 тупенькая все же.

>>752396
Мику бодрячком, че б и нет.
Да ладно, мику даже на битриксе хуярит. )
Аноним 22/05/24 Срд 22:50:57 752585 87
>>752552
Немного драматизировал, чтобы их прямо за руку схватили не было. Однако, были довольно серьезные обвинения в склонности определенным моделям (мистраль/микстраль и кто-то еще) и выбора их подборки в зависимости от промта, кривые промты/инжекты для gpt4 и клоды 2 из-за чего те отвечали хуже чем должны, странные движения в рейтингах. Все это в некоторой мере офк можно оправдать/объяснить, но сам факт вмешательств и
> Сами результаты постоянно чистят вилкой.
уже стоит держать в голове, ссылаясь.
Но это все ерунда если посмотреть на
> самый объективный существующий рейтинг
Вообще ни разу. Это буквально субъективные оценки рандомных юзеров на простые запросы, все. Лишь малая область, которая может быть не то чтобы саботирована, но на нее можно хорошо натаскать даже простую мелкую модель. А то что та сосет даже в коротких но более сложных запросах - будет размыто и усреднено на фоне популярного. Если еще добавить ей "живости" в ответах, чтобы общалась "приятно", пыталась что-то предложить и рассказывала дополнительное - приз зрительских симпатий обеспечен. Хотя при большинстве применений где оно не используется как чатбот для нормисов это будет вносить негативный импакт.
Аноним 22/05/24 Срд 23:20:54 752619 88
>>752536
>ome person who has a loving grandparent
>and that's my three sons
Лмао. Походу большинство нейронок об кастомные вопросы, которых не было в датасете, ломаются
Аноним 22/05/24 Срд 23:21:22 752620 89
Аноним 22/05/24 Срд 23:31:04 752644 90
>>752577
>suzume качай.
Пока неплохо. Не сказать что прям хорошо, но вроде лучшее из того что пробовал пока.
Аноним 22/05/24 Срд 23:31:54 752648 91
1654661228605.png 374Кб, 1958x965
1958x965
>>752619
One - это не обязательно "один".
Аноним 23/05/24 Чтв 00:10:41 752709 92
1716412238981.jpg 21Кб, 1280x296
1280x296
1716412238986.jpg 45Кб, 1280x400
1280x400
>>752648
>one person
Это один человек
>that's
Обращение в единственном числе

Что интересно гопота даже нормально не смогла текст по своим же советам исправить. Лоботомит тот еще, их адское снижение количества параметров все таки заметно, а стоимость апи упала всего в два раз, хотя его по сути нужно по цене апи ламы 70б надо продавать
Аноним 23/05/24 Чтв 00:40:24 752763 93
Аноним 23/05/24 Чтв 00:56:46 752789 94
>>752763
Шиза - возводить в абсолют ограниченные выборки и слепо верить в субъективные лидерборды.
Аноним 23/05/24 Чтв 01:50:03 752843 95
Есть чего-нибудь помозговитее Llama 3 8b в плане понимания контекста? Мой лимит где-то 23b / 15гб. Может чуть выше, но уже на этой планке модель работает со скрипом, ибо слишком много слоёв в оперативку выгружается.
Аноним 23/05/24 Чтв 03:21:50 752877 96
image.png 58Кб, 468x911
468x911
>>752390
Можете на примере мистраля объяснить:
Если модель идет с большим контекстом (32к), ГУИ выставляет rope_freq_base на 1000000. Влияет ли rope на мозги, или если я использую только 8к контекста, то лучше уменьшить rope?
Аноним 23/05/24 Чтв 04:17:58 752905 97
>>752789
Ты не понимаешь, что из себя представляет этот рейтинг и как он работает. Попробуй почитать их блог и вникнуть.
Аноним 23/05/24 Чтв 06:18:48 752932 98
>>752556
>>752568
Говно будет с переводчиком. Хорошего русского нет нигде. Ну может только командир +.
Аноним 23/05/24 Чтв 08:35:40 752976 99
>>752905
Ну давай расскажи, что именно делает их эталлоном объективности. Что заставляет клода1 быть в лидерах выше чем более умные модели, почему ллама8б опережала полноценную жпт4 (пофиксили) а 70б делает это до сих пор, и многие другие странности, что вылезают регулярно или есть прямо сейчас.
Аноним 23/05/24 Чтв 09:52:46 753022 100
Аноним 23/05/24 Чтв 11:25:55 753088 101
>>753022
>Расцензуренные сетки
или испорченные? проверлись лично? там кроме чистой ламы-3 ничего стоящего, а ее можно легко и файнтюном испортить, вон там же пример этого - дольфин
Аноним 23/05/24 Чтв 11:32:05 753092 102
>>753088
Там точечное удаление части мозга весов отвечающих за отказы и сою, удалено скорей всего не все, но этот метод работает не ломая сетки
Аноним 23/05/24 Чтв 11:49:41 753112 103
Что сейчас есть топового по coom моделям ?
Аноним 23/05/24 Чтв 11:54:20 753122 104
Аноним 23/05/24 Чтв 12:19:03 753161 105
загружаю в угебуге .bin третьей ламы 8b через трансформеров, у меня 16 врам, но начинает дико тормозить, какие параметры понизить?
NousResearch_Hermes-2-Theta-Llama-3-8B
вот эта модель
Аноним 23/05/24 Чтв 12:21:36 753164 106
>>753161
в 8 бит запускай, там вроде как то делается, у тебя памяти не хватает на полные веса
Аноним 23/05/24 Чтв 12:23:32 753168 107
>>753164
спасибо, я думал 8b = 16vram

а ггуфы работают уже? гуф умер
Аноним 23/05/24 Чтв 13:17:44 753256 108
>>752392
Насчет чистой ламы не знаю, но до последнего хита среди файтюнов не дотягивает.
Аноним 23/05/24 Чтв 13:20:47 753259 109
>>752568
Вообще-то гугл переводчик это шоу "Тупой и еще тупее". Лучше вообще к нему не притрагиваться, особенно если речь идет о мало знакомом языке.
Аноним 23/05/24 Чтв 13:27:21 753261 110
>>753092
Векторы, чтоли? Даже в статье от автора векторов было сказано, что это ломает сетки.
Аноним 23/05/24 Чтв 16:46:25 753486 111
>>753261
Что, перплексия на 0,0001% падает?
Аноним 23/05/24 Чтв 17:01:24 753539 112
>>753259
>Вообще-то гугл переводчик это шоу "Тупой и еще тупее".
Я тут уже упоминал, что имею возможность прикрутить к своему клиенту Дипл и использовать его для перевода в обе стороны. Но остаюсь на Гугле. Не просто так ведь, правда?

Да, с ним надо уметь работать, не всякий запрос он поймёт правильно. И в клиенте Таверны я бы кое-что подправил, если бы было не лень. Но в целом вариант неплохой.
Аноним 23/05/24 Чтв 17:34:42 753613 113
>>753486
Да не, ты что, перплексити это святое. Там хуйня какая-то была, не существенная. Всего лишь
>yield grammatically incorrect output sentences
Аноним 23/05/24 Чтв 17:59:35 753660 114
>>753613
>yield grammatically incorrect output sentences
Да, действительно хуйня. Я не замечал кстати.
Аноним 23/05/24 Чтв 18:02:34 753664 115
Из 8б llama 3 Instruct кто-то переплюнул уже?
Аноним 23/05/24 Чтв 18:10:44 753668 116
Удивлен что miqu не особо в почете. И командер и квен пробовал, не впечатлило. Пока остановился на Midnight-Miqu-70B-v1.5, претензии только к скорости, но даже 0.55 т\с не отпугивает.
у Miqu-70B-Alpaca-DPO и OrcaHermes-Mistral-70B-miqu тоже неплохая позиция в рейтинге на
https://ayumi.m8geil.de/erp4_chatlogs/?S=iq4_0#!/index
да собственно, 6 позиций в первой 10 там разные вариации miqu занимают.
Аноним 23/05/24 Чтв 18:12:36 753672 117
>>753668
>Удивлен что miqu не особо в почете.
В почёте, но чистая. Файнтюны мику хуже франкошизомиксов.
Аноним 23/05/24 Чтв 18:15:48 753678 118
>>753672
>В почёте, но чистая. Файнтюны мику хуже франкошизомиксов.
Ну, не совсем. Чистая умная, но фантазия бедновата на некоторые вещи.
Аноним 23/05/24 Чтв 19:20:38 753760 119
Аноним 23/05/24 Чтв 19:41:19 753791 120
>>753668
Потому что это старая и тупая модель. Сосёт буквально по всем пунктам у всех. С третьей ламой 70В можно даже не сравнивать.
Аноним 23/05/24 Чтв 19:46:13 753800 121
Phi 14В уже пробовали? У меня кобольд вылетает при попытке запустить васянский q4 ггуф, вот думаю, в кривом ггуфе дело или в чём-то ещё.
Аноним 23/05/24 Чтв 19:47:25 753803 122
>>753800
кобальд еще не обновлен
Аноним 23/05/24 Чтв 19:51:31 753812 123
>>753803
Пон, спс, буду ждать
Аноним 23/05/24 Чтв 20:03:34 753819 124
>>753668
> 6 позиций в первой 10 там разные вариации miqu занимают
>Fimbulvetr V2 i1 11B обгоняет в рейтинге Лламу 3 и ещё несколько 70В моделей
Верим!
Аноним 23/05/24 Чтв 20:09:53 753820 125
Поясните за обновление кобольда. Его заново качать или он может как-то апдейтнуться?
Аноним 23/05/24 Чтв 21:51:05 753939 126
>>753820
Он же файлом, можешь тыкнуть в кобальде проверку обновлений или тупо на гитхабе в релизах глянуть.
Аноним 23/05/24 Чтв 22:10:35 753962 127
Аноним 23/05/24 Чтв 22:22:28 753982 128
>>753962
А что с ней? Файнтюн командира судя по всему.
Аноним 23/05/24 Чтв 23:11:17 754060 129
Аноны, откуда и какие вы берёте карточки для ИИ? Я знаю про chub.ai, но каждый раз, когда я на него захожу, мне блять кривить начинает. Порекомендуйте что-ли интересных карточек на вечер, чтобы просто посидеть чайку попить, да поиграться с ИИ.
NSFW не предлагать, с NSFW карточками проблем нет.
Аноним 23/05/24 Чтв 23:12:26 754066 130
1678302890749.png 366Кб, 1916x910
1916x910
1656034928726.png 449Кб, 1922x1042
1922x1042
1698054349465.png 367Кб, 1910x907
1910x907
1715062072461.png 345Кб, 1943x874
1943x874
>>753962
Шизоидная пиздец, контекст как и у командера жрёт. В русский может вроде бы норм, но шизит адски. Промпт для командера, семплинг крутил, но ничего не помогает, на вопрос отвечать тупо отказывается. Какой-то бредогенератор, но с ответов проиграл знатно. Может опять что-то в гуфах сломано. На последнем пике лама 70В, чтоб не думали что я ему поломанную карточку подсовываю, карточка конечно шизоидная, но лама справилась без проблем. На нормальной английской карточке тоже тупая пиздец, даже тест петуха не проходит.
Аноним 23/05/24 Чтв 23:15:25 754076 131
>>754066
Пиздец она весёлая судя по ответам.
Аноним 23/05/24 Чтв 23:32:50 754133 132
>>754060
Я только для нсфв карты вообще использую. Если хочется просто с ии поиграть то удобнее использовать чистую карту ИИ-ассистента с небольшой доработкой от сои.
Аноним 24/05/24 Птн 00:27:09 754229 133
>>754066
Проверил на 8б версии в exl2 - нормально отвечает для своего уровня. 35б конечно в видимокарту не смогу загрузить, но если судить по аналогии то это не модель шизоидная, а дело вероятно в ггуф
Аноним 24/05/24 Птн 00:33:54 754233 134
Аноним 24/05/24 Птн 00:43:10 754241 135
Интересно, локалки 7б-70б уперлись в потолок или через полгода мы будем плеваться на то, что сейчас считаем топом, т.е. на лламу3.
Аноним 24/05/24 Птн 00:45:46 754246 136
>>754241
Не потолок, но близко к пределу трансформенной архитектуры, я щитаю. Хотя через год ллама 3 действительно будет считаться говном, если законодатели не поднасрут.
Аноним 24/05/24 Птн 01:07:03 754260 137
>>754233
Спасибо, интересно.
Аноним 24/05/24 Птн 01:29:59 754282 138
firefoxhoaJDhYD[...].png 38Кб, 919x762
919x762
>>753122
Кажется меня затроллили, не могу поверить что модель может быть таким калом, но вот, как видите модель Llama-3SOME-8B-v1-GGUF Q5_K_M несет одну шизу.
Аноним 24/05/24 Птн 01:32:18 754290 139
>>754282
Было у меня такое же, когда я пытался связать silly tavern и nitro.ai. Хуй знает, как чинить. Какой ты логический движок используешь? llama.cpp? kobold.cpp?
Аноним 24/05/24 Птн 01:33:16 754292 140
>>754290
lamma.cpp бек убабуга
Аноним 24/05/24 Птн 01:36:15 754301 141
>>754292
А, ну тогда хуй знает.
Аноним 24/05/24 Птн 01:40:31 754312 142
>>754282
Говоришь им, что на третью лламу все тюны будут говном, но нет, не верят, качают. А потом удивляются, почему это они скачали кал.
Аноним 24/05/24 Птн 01:41:04 754315 143
>>754290
Мне помогало увеличение размера модели, с Llama-8B на ph3-medium, но вот проблема в модели от майкрософта в том что, она слишком соевая. Такая модель не годится для ролеплея.
Аноним 24/05/24 Птн 01:49:40 754339 144
>>754315
Теперь буду знать, спасибо
Аноним 24/05/24 Птн 01:53:48 754349 145
>>754315
>>754339
>>754282
Можешь ещё температуру изменить. Бывает, что из-за низкой температуры модель шизить начинает. Но как-то странно, на самом деле.
Аноним 24/05/24 Птн 01:55:45 754356 146
>>753962
Вообще не понял прикола, это тот же командер.
Аноним 24/05/24 Птн 01:56:55 754361 147
image.png 32Кб, 1181x588
1181x588
Аноним 24/05/24 Птн 02:41:07 754415 148
>>754361
Прорыв чего, канализации? Не вижу смысла, как я понял, это просто про последовательный запуск на разных ПК.
Аноним 24/05/24 Птн 02:56:02 754428 149
>>754415
Ну теперь если есть старый пк можно и на нем запускать. И будет работать так же как если бы ты запускал на одном компе одновременно на нескольких видеокартах.
И теперь не надо что-то колхозить и пытаться втиснуть 3 тесты в один комп, можно будет просто запускать на разных компах.

У меня есть основной комп, ноут, старый комп, теперь я могу одновременно запускать на всех компах.
Аноним 24/05/24 Птн 03:00:43 754431 150
Аноним 24/05/24 Птн 03:16:31 754435 151
>>754428
Имхо фигня это всё. То есть результат будет лучше, чем на одной видеокарте+CPU но далёк от результата рига, тем более от сервера. Лучше чем ничего - гораздо лучше, но даже не хорошо.
Аноним 24/05/24 Птн 03:21:29 754439 152
>>754428
Влажные мечты.
>>754431
Кот бы сомневался. Да и гигабит это минимум, десятка была бы лучше.
Аноним 24/05/24 Птн 03:53:06 754455 153
>>754349
> Бывает, что из-за низкой температуры модель шизить начинает.
Такое бывает если модель мэх и/или ты что-то совсем странное запромтил, нарушив все форматы.
>>754361
В целом неплохо, но насколько скорость интерфейса упадет? Киньте линк на рабочий ггуф коммандера+, потом попробую потестить на нескольких машинах.
>>754428
> если есть старый пк можно и на нем запускать
Нельзя, нет никакого смысла.
> И будет работать так же как если бы ты запускал на одном компе одновременно на нескольких видеокартах.
Не будет.
> не надо что-то колхозить и пытаться втиснуть 3 тесты в один комп, можно будет просто запускать на разных компах.
Вот это может быть, но очень вероятно что пострадает как минимум скорость обработки контекста.
Аноним 24/05/24 Птн 03:56:33 754457 154
Почему задачу на русском не решает,а на английском решает одну и ту же задачу. Как можно называть это ИИ, если нет никакой рефлексии.
Аноним 24/05/24 Птн 05:09:25 754479 155
>>754457
>Как можно называть это ИИ
Берёшь и меняешь определение ИИ, что ты как маленький.
Аноним 24/05/24 Птн 08:20:29 754534 156
>>754361
>>754435
>То есть результат будет лучше, чем на одной видеокарте+CPU но далёк от результата рига, тем более от сервера. Лучше чем ничего - гораздо лучше, но даже не хорошо.
Если это позволит крутить 70В модели на нескольких колабах, то будет-ахуенно! пока не забанят
мимо-колабанон
Аноним 24/05/24 Птн 08:20:32 754535 157
Аноним 24/05/24 Птн 09:11:33 754568 158
>>754282
у этого можно скачать только https://huggingface.co/TheDrummer/Moistral-11B-v3
или ее квант какой хочешь. Все остальное поломанные модели.
Одна хорошая модель видимо пулучилась случайно, а поскольку второй раз в одну воронку снаряд не попадает то вообще больше ничего у него можно даже не смотреть - заведомо все поломано.
Аноним 24/05/24 Птн 09:39:14 754596 159
>>754568
кажется есть подозрения почему так много испоганеных моделей. В карточке https://huggingface.co/TheDrummer/Cream-Phi-3-14B-v1
Есть часть параметров лоры, и там есть странности. Во-первых на 8x H100 80GB SXM GPUs при загрузке в 4-х битах он ставит
gradient_accumulation_steps: 1
micro_batch_size: 2
тогда как тут явно полезет больше чем 2, я бы поставил максимально влезающее, поэтому у него трейн лосс такой.
Второе - странное соотношение:
lora_r: 64
lora_alpha: 16
Хуй знает может это какое-то новое открытие, но вроде второе должно превышать первое.
Третье - не многовато ли
lora_dropout: 0.1
Вероятно последнее он делает из страха переобучения, видать по опыту первых моделей, которые если огульно охарактеризовать, могли только говорить хуй-пизда и ебля. Хотя можно ли вообще не то что перетрейнить насквозь зацензуренную фи, а хотя бы натрейнить на подобное это еще вопрос
Аноним 24/05/24 Птн 09:51:22 754611 160
Кто там заказывал тру переводчика? CohereForAI/aya-23-35B, файтюн коммандера 35b, на реддите очень высоко оценили способности.
Аноним 24/05/24 Птн 09:56:58 754617 161
>>754568
coomand хвалили тут когда вышел, так что не надо ляля, у него только первые версии сломаны и моистрал 4
Аноним 24/05/24 Птн 10:01:26 754624 162
Аноним 24/05/24 Птн 10:25:26 754643 163
>>754596
> micro_batch_size: 2
> lora_r: 64
> lora_alpha: 16
> lora_dropout: 0.1
> могли только говорить хуй-пизда и ебля
Проиграл, он там будто конфиг форчевских кумеров для сд взял и тренит. Как оно вообще себя показывает, тестил?
Аноним 24/05/24 Птн 10:28:06 754647 164
https://www.reddit.com/r/LocalLLaMA/comments/1cyxh1d/the_salesforce_finetune_of_llama_3_that_was/
Вчера как раз тыкал когда вспомнил о ней спустя неделю
Ниче так, отвечает умнее, но по моему отыгрыш слабее, сетка для работы
Хотя проверял на тсунгпт, а это тот еще мини минимализм который могут сетки и больше не подхватить не путаются в примерах сообщения отвечая только одним уже неплохо, мде
Аноним 24/05/24 Птн 10:30:14 754651 165
>>754596
>8x H100 80GB
>4-х битах
>14B
>batch_size: 2
Найс покупатель, берёт 8 картонок, а использует 0,5!
>Хотя можно ли вообще не то что перетрейнить насквозь зацензуренную фи, а хотя бы натрейнить на подобное это еще вопрос
Я бы начал с просмотра токенизатора, а то там может каждый хуй побитово кодируется в 50 токенов, ибо нехуй.
Аноним 24/05/24 Птн 10:33:10 754656 166
image.png 223Кб, 888x776
888x776
image.png 184Кб, 886x665
886x665
>>753962
Ахуенная модель. На русском выдача лучше, чем у командера хоть загадку про книги и не решает
Аноним 24/05/24 Птн 10:36:01 754658 167
>>754656
не ну ты конечно умные вопросы акве задавать тоже гений
Аноним 24/05/24 Птн 11:02:21 754684 168
>>754658
Нужны тесты, насколько "тупеют" нейросети на тупых персонажах. А то станется, что даже младенец отстучит азбукой морзе (потому что говорить в карточке запретили) разложение числа 1729 на сумму кубов.
Аноним 24/05/24 Птн 11:03:43 754685 169
>>754617
Хуита этот куумманд, поток поноса, вместо текста, без смысла и связи, как впрочем и 99% rp/erp файтюнов. Ориджинал модель куда лучше во всех смыслах.
Аноним 24/05/24 Птн 11:05:07 754687 170
>>754685
>Ориджинал модель куда лучше во всех смыслах.
Два чаю, сижу на базе, только жду несломанных квантов.
Аноним 24/05/24 Птн 11:11:30 754697 171
>>754684
Думаю зависит от того насколько хороша сетка в отыгрыше персонажа и рп в целом, если карточка хорошо села на сетку то и тупить может целенаправленно на акве.
Аноним 24/05/24 Птн 11:40:08 754738 172
>>754617
куманд... интересно, типо от слова кумить. Такое подозрение что там русскоговорящие. А что так реагируешь, ты чтоли автор файнтюна? Скачивать мне это неохота чтоб заценить, я просто прочитал там примеры в карточке и почему то сильно подозреваю что оригинальный командир так тоже сможет, исходя из опыта с ним. А это значит что трейн не повлиял, другими словами не испортил модель. Опять же это только по примерам в карточке. Хотя здесь вот выше чел пишет что модель хуита. Ну а так мойстрал-3 стоит целого репозитория запоротых файнтюнов, даже если и вышел случайно, все равно thedrummer еблан-молодец.
Аноним 24/05/24 Птн 11:46:39 754744 173
Неделю или две думал, что rocm в лламе.цпп сломан, сегодня решил таки разобраться в чем дело и обнаружил, что я неверно указывал аргумент к make'у.
Но ведь раньше работало! Нет, раньше аргумент просто игнорировался, в ридми было указано использовать AMDGPU_TARGETS, что я и делал, а makefile читал GPU_TARGETS, в какой-то момент это пофиксили и мое неправильное значение для параметра начало ломать поддержку gpu.
Аноним 24/05/24 Птн 11:54:27 754754 174
>>754738
>кумить
>русскоговорящие
Он не знает...
>>754744
>Неделю или две думал, что rocm в лламе.цпп сломан
А оказалось, что вся ллама.цпп сломана.
Аноним 24/05/24 Птн 12:15:26 754778 175
>>754754
>Он не знает...
да не знаю, я же этим не интересуюсь.
Аноним 24/05/24 Птн 12:20:59 754785 176
image.png 78Кб, 887x297
887x297
image.png 52Кб, 881x269
881x269
image.png 48Кб, 880x270
880x270
>>754684
>Нужны тесты, насколько "тупеют" нейросети на тупых персонажах.
Ну в принципе стараетсяв отыгрыш.
Мне нравится эта модель, слегка тупее командера, но в отыгрыше намного лучше и ответы поинтересней, особенно в рофл-карточках.
Оставлю как дефолтную кум-модель.
Аноним 24/05/24 Птн 12:31:03 754792 177
>>754785
>75 гигов
Как вы их запускаете?
Аноним 24/05/24 Птн 12:33:22 754794 178
>>754754
теперь узнал - ну вобщем это блять еще хуже чем я думал))
вы что тут все такие?
Аноним 24/05/24 Птн 12:33:56 754795 179
>>754785
Русский у неё хуже чем у ламы, падежи постоянно проёбывает и очень странные выражения использует. Только как генератор смешных сообщений использовать если.
Аноним 24/05/24 Птн 12:35:29 754797 180
>>754792
квантование, в итоге остается 20 гб на 4 кванте
Аноним 24/05/24 Птн 12:38:15 754801 181
Аноним 24/05/24 Птн 13:08:10 754830 182
>>754795
>Русский у неё хуже чем у ламы
Сравнивать 70В и 35 В такое себе. Но она как минимум лучше командера, который всё время срал выражениями вроде "strangево"
Но если сравнивать, ответы лламы верные, но скучные, не хватает разнообразия для РП, тут же его навалом + сетка неплохо соображает для своего размера.

>Только как генератор смешных сообщений использовать если.
Ну всё теперь, на помойку однозначно!
Аноним 24/05/24 Птн 13:54:53 754879 183
1563947883461.png 740Кб, 1865x1888
1865x1888
>>754830
> тут же его навалом
Ну это реально ощущается как рп-файнтюн в худших его проявлениях. Я погонял рпшные карточки и вполне неплохо. Но вот заставить ответить на вопрос во вчерашней карточке так и не смог, ему просто похуй, хотя лама всегда отвечает. Наркомания конечно знатная у него выходит.
> ответы лламы верные, но скучные
Yi 1.5 есть ещё. Она и не шизит, и при этом не сухая. Разве что в русский не может.
Аноним 24/05/24 Птн 14:00:06 754891 184
>>754879
Так что там твой отец умеет?
Аноним 24/05/24 Птн 14:01:26 754896 185
Аноним 24/05/24 Птн 14:06:46 754905 186
>>754879
У тебя скорее всего нейронка вопрос не понимает и отвечает на что-то типа "сколько людей в вашей семье - живой дед", поэтому всегда отвечает "у нас один живой дед". Высокая креативность и на понимание промпта так же действует - додумывает что хочет.
Аноним 24/05/24 Птн 14:11:23 754908 187
>>754905
Да все она поняла, просто это нейронка с душой и тонко стебет анона прикидываясь дурочкой
Аноним 24/05/24 Птн 14:12:06 754910 188
>>754896
Да, или врам или рам. Но на процессоре будет медленнее
Аноним 24/05/24 Птн 14:32:11 754965 189
>>754910
А рам насколько медленнее чем врам, если я допустим сейчас 32 рам куплю сколько токенов в секунду мне она выдавать будет?
Аноним 24/05/24 Птн 14:43:20 754996 190
Ебать, гопота пробивает все днища. Зашёл в эту хуйню gpt-0, там реально мозгов ноль. Тупо не понимает вопросы и хуярит какие-то ебанутые простыни текста, которые к вопросам относятся очень слабо. Пиздец, блядь, это уровень 7b нахуй.
Аноним 24/05/24 Птн 14:43:27 754997 191
>>754965
Меряешь скорость своей рам в аиде, чтение
Делишь скорость в гб/с из аиды на размеры скаченной тобой нейросети
Получаешь максимум токенов в секунду для этого размера нейросетей, в реальности чуть меньше


И вобще это есть в вики? Оп лентяй такую базовую инфу наверняка опять забыл добавить туда

Если у тебя есть хотя бы 8 гб рам, то можешь поиграться из интереса с сетками на 4 гб, это какие нибудь 7b на вроде openchat из шапки.
По гайду из шапки делай.
Ищи в gguf формате и качай какой нибудь 4km, должно точно влезть в 8гб.
Если рам больше то и запускать ты можешь модели побольше, но для 30b+ нужно хотя бы 32 рам, 70b 64гб

В среднем при скорости рам в 50-60 гб/с, 35b про которую ты спрашивал, в 4 кванте, тоесть около 20 гб + 8 гб контекст, даст тебе 60/30=2
Примерно 2-3 токена в секунду, не больше
Сетка на 4 гб даст все 10
Аноним 24/05/24 Птн 14:50:34 755009 192
>>754997
>Делишь скорость в гб/с из аиды на размеры скаченной тобой нейросети
>Получаешь максимум токенов в секунду для этого размера нейросетей
Почему такой расчет? Можешь подробнее разъяснить? Непонимаю как скорость поделил на размер в гб и получил опять скорость, но уже токенов. Или это просто эмпирический расчет из практики
Аноним 24/05/24 Птн 14:52:37 755012 193
>>754997
>Примерно 2-3 токена в секунду
Ну да, практически не юзабельно. Остается разве что какие нибудь p40 вылавливать. Но это уже слишком затратно для таких говняных сетей.
Аноним 24/05/24 Птн 14:55:06 755017 194
Как запускать айкью кванты? Кобольд пишет needs dequant и закрывается.
Аноним 24/05/24 Птн 14:57:17 755018 195
>>755009
Потому что так работают сетки, один токен - это один раз прокрученная сквозь процессор всем своим размером нейросеть. Поэтому количество таких прокручиваний в секунду определяется скоростью памяти и размером модели.
Врам у тех же 3090 имеют 800гб/с что ли, и поэтому довольно бодро крутят любые модели что полностью влазят в их память.

>>755012
Для ерп да, для работы приемлимо.
Тут в начале и 70b на процессорах крутили с 1-1.5 токенами в секунду, хех
Кодить сойдет, пока сам что то делаешь сетка на фоне пердит
Ну и всегда есть вариант запрашивать ответ у сеток 8-10 гб, ответ со скоростью до 5 токенов в секунду это скорость ненапряженного чтения. Так что это не напрягает.
Но на видимокартах конечно все веселее
Аноним 24/05/24 Птн 14:58:19 755021 196
>>755017
А, оно через вулкан не работает. Пнятно.
Аноним 24/05/24 Птн 15:05:10 755030 197
image.png 70Кб, 880x307
880x307
image.png 23Кб, 808x116
808x116
>>754879
>Но вот заставить ответить на вопрос во вчерашней карточке так и не смог, ему просто похуй
Аноним 24/05/24 Птн 15:46:41 755091 198
>>755018
Так, спасиб - понятно с памятью. Но еще же производительность решает - 3090 явно побыстрей чем 3060, или это копейки а главное всеравно скорость памяти?
Аноним 24/05/24 Птн 15:50:17 755096 199
>>755091
Главный упор всегда в объем памяти и ее скорость, нет таких быстрых и объемных видимокарт со слабым процессором, так что он никогда не становится главной проблемой
Так что главное объем, потом скорость, производительность процессора бесполезна без первых двух
Аноним 24/05/24 Птн 16:30:40 755141 200
>>754830
> РП
Для РП база это Смауг. Он и рпшит хорошо, и по адекватности обычному инструкту не уступает. Все эти 34B имеют свои хорошие стороны, но бесит что надо всегда свайпать это говно чтоб не кринжовать, оно может 5 сообщений норм выдавать, а потом начать шизить и только с пятого свайпа одумываться. Ну и лупы на месте у Aya, так же и Yi страдает ими, они могут запросто целый абзац из прошлых сообщений заново повторить на больших контекстах.
Аноним 24/05/24 Птн 16:40:19 755150 201
>>755141
че ответит на nigger
Аноним 24/05/24 Птн 16:56:30 755166 202
>>755141
>Смауг
70В который? Сейчас бы его в противовес 35В модели выставлять, ты бы ещё с Мистралем сравнил.
Аноним 24/05/24 Птн 16:59:05 755172 203
С полгода назад обещали ливарюцию в LLM, state-space модели, мамба, вот это всё. Ну и где? Оказалось очередным пуком?
Аноним 24/05/24 Птн 17:31:42 755211 204
>>755172
А че надо то? Мне вот все нравится: лама-3, командир, соляр и его файнтюны, да и мистраль тоже, да и лама-3 на 8б, вообще мелкие модели тоже нравятся с точки зрения чего они могут показать из себя при таких-то размерах. Смотри как жирно-богато на модели стало на лице и вспомни что было в том году когда только вышла первая лама - там же было скуднее во всем. В общем доволен развитием таким как есть, а кто не рад, то представьте что будет когда опенсорс прижмут, а то привыкли новую мродель еженедельно.
Аноним 24/05/24 Птн 17:50:46 755248 205
>>754611
>Кто там заказывал тру переводчика?
Ну я заказывал.
>файтюн коммандера 35b
Мои тестовые отрывки переводит неплохо, но кое-какие мелкие ошибки допускает, память жрёт и тормозит - всё примерно как у оригинала, каких-то радикальных отличий не заметил.
>>754624
>8в
И опять никаких прорывов. Логика отсутствует как класс, контекст не чувствует, всё как и у других моделей подобного размера. Разве что предложения на английском строит получше своих конкурентов.
Аноним 24/05/24 Птн 18:35:40 755314 206
изображение.png 487Кб, 715x731
715x731
>>752877
Влияет или не влияет, ответьте.
Аноним 24/05/24 Птн 18:40:15 755333 207
>>755314
Тот ропе с которым модель тренена должен работать лучше
Если в модели стоит 1000000 то пока ты используешь меньше контекста чем у нее максимального то все норм как я понимаю
А вот как с растягиванием контекста с таким уже задранным ропе хз
Ну и ты мог бы взять какую нибудь мелочь по типу 7b и потестить ее с разным ропе, уменьшая увеличивая и тд
сам такой ы
Аноним 24/05/24 Птн 18:51:13 755358 208
>>754997
>И вобще это есть в вики?
Надо проверить эту методику расчёта. В теории конечно всё так, но на практике не хочу писать туда неверную информацию. Впрочем не откажусь от PR с пруфами, лол.
>>755018
>Врам у тех же 3090 имеют 800гб/с что ли
950.
>>755096
>нет таких быстрых и объемных видимокарт со слабым процессором
P40 же, в некоторых моментах сосёт по сравнению со своей скоростью.
>>755172
>Оказалось очередным пуком?
Да.
>>755211
Он скорее про новые архитектуры, а не очередной трансформер.
Аноним 24/05/24 Птн 18:54:34 755368 209
>>755333
Т.е. нет смысла уменьшать стандартные настройки rope?
Аноним 24/05/24 Птн 19:06:12 755407 210
>>755358
>P40 же, в некоторых моментах сосёт по сравнению со своей скоростью.
Ну так его и берут только ради 24гб врам, все новенькие карты с такими объемами производительнее

>>755172
>Ну и где? Оказалось очередным пуком?
Есть же, большая модель на гибридной архитектуре тарснформерс и мамба. Только нам ее запускать не на чем, не квантуется и не поддерживается ничем, только оригинал.
jamba что ли название
Аноним 24/05/24 Птн 19:22:02 755455 211
>>754431
Хорошо, что я обновил маршрутизатор.
Но зачем мне?..

Тем не менее, гигабитный маршрутизатор стоит 900 рублей в днсе, как бы, да, по кайфу бедным людям.

>>754658
ОР

>>755018
> 70b на процессорах крутили с 1-1.5
0,3-0,7 попрошу!

>>755091
Да, 3090 по-быстрее, разница есть, просто не такая критичная, и никакого мастхэв брать только 3090 — нет. Вполне можно взять две 3060, если хочешь, просто погугли скорости, сравни, выбери лучший вариант.
Видяха быстрее проца в 5-10-20 раз. И на практике, большинство быстрее в 10-15 раз. Уже не так важна разница между ними.
Аноним 24/05/24 Птн 19:24:40 755469 212
>>755358
> Надо проверить эту методику расчёта. В теории конечно всё так, но на практике не хочу писать туда неверную информацию.
На практике, 50 гиговые модели выдавали 0,7 токена при 45 гигах чтения.
Т.е., в общем верно, просто надо делать скидку на пержение самого софта.

Можно затестить, канеш. Стоит.
Но в общем, математика плюс-минус верная.
Аноним 24/05/24 Птн 19:42:16 755546 213
Посоветуете бек с RAG
Аноним 24/05/24 Птн 19:50:59 755563 214
>>755172
Чисто мамбу не поняли как применять и не знают возможно ли это. Запилили гибрид мамбы и трансформеров который смог уменьшить стоимость инференса в разы и все собсна. Такое ощущение что кроме оптимизации моделей ничего сейчас и не происходит.
Аноним 24/05/24 Птн 20:02:13 755598 215
А Флэш Атеншн на свежем Кобольде на теслах работает однако.
Аноним 24/05/24 Птн 20:10:20 755623 216
>>755546
AnythingLLM вроде норм
Аноним 24/05/24 Птн 20:15:36 755635 217
>>755563
>Такое ощущение что кроме оптимизации моделей ничего сейчас и не происходит.
Да и оптимизации не видно. Где 70B на моих 12 гигах в 16 битах?
Аноним 24/05/24 Птн 20:31:11 755670 218
>>755635
У тебя появились 8б которые работают кск 70б раньше. Вот какие оптимизации
Аноним 24/05/24 Птн 20:32:52 755671 219
>>755670
Где такие чудесные модели? Нет таких, 8B есть восемь бэ, они всё равно тупые.
Аноним 24/05/24 Птн 20:35:48 755675 220
Аноним 24/05/24 Птн 20:43:56 755694 221
Тут пишут, что многие файнтюны сломаны. А как именно сломаны? Ну, то есть, я вот потыкал парочку для третьей 8b ламы, парочку для, вероятно, 13b второй, и ещё какую-то рандомную 23b модель. Ну да, они путаются в контексте частенько, особенно если его много, иногда даже в пределах одной генерации могут сами себе противоречить. Но это же обычное поведение для подобного размера, нет?
Аноним 24/05/24 Птн 20:46:20 755702 222
Аноним 24/05/24 Птн 20:47:45 755709 223
15993151079800.png 523Кб, 900x506
900x506
>>751232 (OP)
Как через локальную модель перевести текстовый документ в формате например .txt ?
Использую кобольда, весь текст не лезет. а кусками заебешься переводить. Я перевожу текст внутри кода через промт, обычный переводчик ломает код.
Аноним 24/05/24 Птн 20:48:55 755714 224
>>755675
Статья ещё от 27 Feb, полгода от февраля считать или от сейчас? А выходные считаются? А праздники? Я слышал, что...
>>755694
>А как именно сломаны?
Надо смотреть по конкретному предку. По факту все тюны мику сломаны просто по отсутствию неквантованных версий. По лламе 3 8B, тут вопрос в том, что изначально модель обучена весьма плотно, и её очень легко поломать. По старым проще, они не такие набитые, поэтому тюны старых тренашек вполне себе неплохи.
Что же на счёт "обычное поведение", то нет, если модель норм, то сама себе в одном ответе противоречить не должна.
>>755702
Кроме фи и этого
>Default thread count will not exceed 8 unless overridden, this helps mitigate e-core issues.
ничего интересного.
Аноним 24/05/24 Птн 21:07:48 755764 225
> Llama-3-Lumimaid-8B

Потестил тут. Пока что есть версии только 8б и 70б + 200б

Жду пока что 12-13-20. Так вооот. А не плохо. Языковой набор поболее будет чем у второй ламы. Работает намного быстрее аналогов от второй ламы. Буду ждать более крупные версии.

Ну и единственный минус. Обновили еще Unholy до llm3 8b. Вот там чет напортачили с тюнами. Тупит по страшному.
Аноним 24/05/24 Птн 21:11:29 755778 226
>>755018
> для работы приемлимо.
Какой работы? Код писать - замучаешься ждать пока она пропердится. Что-то массово автоматизировать - вообще теряется весь смысл. Хз даже в каком сценарии кроме "попробовать" оно подойдет.
>>755172
Не взлетело. Наяривай командира, он оче хорош.
>>755333
> Если в модели стоит 1000000 то пока ты используешь меньше контекста чем у нее максимального то все норм как я понимаю
Двачую, все верно.
>>755368
Это приведет к непредсказуемому поведению и скорее всего станет хуже.
>>755709
Кормить чанками, напиши простейший скрипт который будет бить на части по абзацам и делать запрос по api, потом склеивая. Сложно - попроси нейросеть написать тебе его.
>>755764
> > Llama-3-Lumimaid-8B
Как оно для рп то не сказал.
Аноним 24/05/24 Птн 21:19:36 755800 227
>>755778
>Это приведет к непредсказуемому поведению и скорее всего станет хуже.
Ясно, спасибо.
Аноним 24/05/24 Птн 21:24:57 755816 228
>>755778
> Как оно для рп то не сказал.

В целом нормально. Понятное дело что уступает второй ламе большего размера. Но если сравнивать 7б модели и эту 8б то однозначно ллм3 тут выигрывает во всем. Плюс заметил отличие от ллм2, ллм3 следует карточке прям идеально.
Аноним 24/05/24 Птн 21:28:22 755823 229
изображение.png 113Кб, 1913x535
1913x535
изображение.png 107Кб, 1973x391
1973x391
изображение.png 144Кб, 1932x648
1932x648
изображение.png 144Кб, 1910x633
1910x633
>>755714
>Кроме фи и
Решил ещё раз потыкать палочкой в этого лоботомита... Короче датасеты там зачищены настолько хорошо, что даже префил Sure! не помогает. Один раз выдало, и то выглядит как удача, в остальные роллы просто даёт ссылки на соевые законы.
Аноним 24/05/24 Птн 21:41:26 755843 230
Аноним 24/05/24 Птн 21:47:04 755859 231
изображение.png 194Кб, 1904x1291
1904x1291
>>755823
Зато простую систему из 3-х уравнений решает. Ллама 8B кажется не могла. На более сложной системе (где все три буковки встречаются все три раза) заваливается.
>>755843
Ничего интересного короче, скучная неделя. Потолок близко!
Аноним 24/05/24 Птн 22:02:36 755904 232
>>755859
Кек, это же система уравнений, которую я сюда вбрасывал.
Она кстати из компьютерной игры.
Аноним 24/05/24 Птн 22:17:09 755950 233
Когда починят ебаную лламу.цпп (прям полностью, а не отдельные баги), добавьте в шапку жирным шрифтом, а то заебало ежедневно лихорадочно читать тред и мониторить баг трекер. Спасибо.

inb4 никогда
Аноним 24/05/24 Птн 22:42:20 756003 234
>>755950
А что тебе чинить надо там? На текущий момент всё работает.
Аноним 24/05/24 Птн 23:39:44 756140 235
>>756003
Правильнее было бы сказать что косяк еще не заметили
Аноним 25/05/24 Суб 02:39:29 756318 236
>>755671
Третья Ллама 8В вполне может потягаться с первой 70В
Аноним 25/05/24 Суб 03:44:19 756372 237
Что я могу сказать после испытаний? На трёх теслах на свежем Кобольде с включённым Флэш Атеншеном 70В_Q6 выдаёт где-то 6,5 токенов в секунду после заполнения окна в 8к контекста. Пятый квант соответственно ещё больше. Раньше на 5KM в тех же условиях было 4 токена. Было 4 на пятом кванте, а теперь 6,5 на шестом. Такие дела.
Аноним 25/05/24 Суб 07:59:56 756438 238
Аноним 25/05/24 Суб 08:41:13 756444 239
>>756318
>Третья Ллама 8В вполне может потягаться с первой 70В
не было такой, есть 65В
Аноним 25/05/24 Суб 10:37:22 756495 240
>>756372
И что ты прям видишь разницу между работой 5 и 6 кванта?
Может в тред со скриншотами эту разницу скинешь?
Ну за исключением скорости генерации.
Аноним 25/05/24 Суб 13:09:04 756673 241
>>756495
>И что ты прям видишь разницу между работой 5 и 6 кванта?
Ну, тут сложно сказать. Мой пойнт, как говорят американцы, был не в этом. На пятом кванте я и 10 токенов видел... без контекста. Вот если увеличение количества тесл действительно немного повышает скорость генерации (с rowsplit, и похоже, что это так), то на 4 теслах есть шанс замахнутся на восьмой легаси квант для 70B. Это круто - сама такая возможность. Ну а с практической точки зрения пятого кванта вполне хватит и теперь он у меня 7,5 токенов даёт. С контекстом. Это уже прямо хорошо.
Аноним 25/05/24 Суб 16:23:37 756950 242
>>756372
Слишком быстро чтобы быть правдой, соответствует теоретически возможной скорости без учета всякого, с мгновенной обработкой промта и примитивным семплированием. Флеш атеншн по заявлениям на теслах давал едва измеримый прирост.
Сколько там в консоли пишет, особенно на больших контекстах лучше покажи. Плюс холодную обработку большого, а потом повторный прогон уже с кэшем, вот это интересно увидеть.
Аноним 25/05/24 Суб 16:37:24 756975 243
>>756673
Чую наебку, у меня на 3090 скорость чуть выше на exl2, а тут ггуф, еще и на теслах! Слишком круто.
Аноним 25/05/24 Суб 16:44:26 756987 244
изображение.png 216Кб, 1685x823
1685x823
изображение.png 298Кб, 1659x1080
1659x1080
изображение.png 6Кб, 1063x24
1063x24
изображение.png 4Кб, 721x30
721x30
Запилил небольшой скрипт, который грузит ОП-посты из /б и пишет краткое содержание. Забавная хуита.
Аноним 25/05/24 Суб 16:53:16 757004 245
>>756950
>Не, мне влом. Тут есть люди с теслами, пусть подтвердят. Или опровергнут. Мне уже всё равно - у меня всё хорошо. С января собирать начал.
Аноним 25/05/24 Суб 17:11:37 757035 246
>>756950
Да он пиздит, ведь можно было бы пруфануть за 5 секунд. split-row на 2-3 картах медленнее разбивки по слоям, их надо больше чтоб пошёл прирост. FA на больших моделях даёт 3-5% прироста, там основной упор в память всё так же. Алсо, q5 медленнее q4 в любых вариантах, для скорости либо q4, либо fp16 берут, все нечётные кванты сосут по скорости. То что он фантазирует - это производительность двух 3090.
Аноним 25/05/24 Суб 17:12:02 757036 247
>>756950
Да он пиздит, ведь можно было бы пруфануть за 5 секунд. split-row на 2-3 картах медленнее разбивки по слоям, их надо больше чтоб пошёл прирост. FA на больших моделях даёт 3-5% прироста, там основной упор в память всё так же. Алсо, q5 медленнее q4 в любых вариантах, для скорости либо q4, либо fp16 берут, все нечётные кванты сосут по скорости. То что он фантазирует - это производительность двух 3090.
Аноним 25/05/24 Суб 17:21:12 757046 248
>>757035
Две 3090 такие медленные, стоп, что?
Тут на четвертом кванте уже было 6-8 токенов, а вы на 3090 имеете 8-10? Не понял, а какой смысл в 3090 тогда был? Разве там не вдвое быстрее, хотя бы 10-15?
Аноним 25/05/24 Суб 17:42:47 757068 249
>>757035
>split-row на 2-3 картах медленнее разбивки по слоям, их надо больше чтоб пошёл прирост.
Вот это смелое заявление вообще.
Аноним 25/05/24 Суб 17:46:00 757078 250
>>757046
>Тут на четвертом кванте уже было 6-8 токенов
Не. 6-8 токенов на 4 кванте было без контекста. А у 3090 ещё и FA есть. Но теперь всё изменилось.
Аноним 25/05/24 Суб 18:03:29 757118 251
>>757068
Он и не должен быть быстрым без нвлинка. При разбитии по строкам сильно больше информации между картами передаётся.
Аноним 25/05/24 Суб 18:08:14 757125 252
>>756987
Через апи макабы (он же вроде был какой-то?) или обработчик веб страницы какой пилил? Рассказывай, интересно.
>>757004
А, ну раз все хорошо, значит придется верить в небылицы
мимо получаю ускорение 70-104б до 35т/с катая на 4х гпу объединенных через локалку
>>757035
> Да он пиздит, ведь можно было бы пруфануть за 5 секунд.
В том то и суть, во-первых, обработка промта замедляется при увеличении количества гпу в жоре. Хуй знает в чем причина, но подтвержденный факт. Во-вторых, 6.5т/с на том размере - буквально теоретический максимум с учетом медленной врам теслы, а по факту там и меньше получится. Плюс у жоры реализацию разной битности, которая позволяет работать на железе что по дефолту даже в фп16 быстро не может, не самая эффективная.
> То что он фантазирует - это производительность двух 3090
Емнип в 4.6 битах 70б парах 3090 давала в районе 13 т/с, увеличение кванта даст +- пропорциональное падение. Если будет спрос то могу померить, но тут владельцев 3090 довольно много, может кто раньше сделает.
>>757046
Они примерно в 2-3 раза быстрее, а за счет полноценно работающего FA, нативной совместимости с дробными точностями и прочего может еще превосходить. Но главный аргумент - их можно юзать для чего угодно, а не только поломанного жору сношать.
Аноним 25/05/24 Суб 18:11:04 757131 253
>>757118
Вот кстати, катал кто с разными шинами, нвлинком и прочее сравнение? Есть ли вообще смысл с ним заморачиваться хотябы для чего-то? Вроде в 3090 "взломали"/заабузили обращения в память друг друга, которая есть только в старших карточках, но применения этому не видно.
и еще есть ли гибкие шлейфы как на старых сли, или только что-то колхозить если карточки разных вендоров?
Аноним 25/05/24 Суб 18:11:16 757132 254
>>757118
>При разбитии по строкам сильно больше информации между картами передаётся.
Да-да, и вот тут нам особенно хорошо помогают 44 линии PCI express. Если у нас они есть конечно.
Аноним 25/05/24 Суб 18:14:10 757137 255
>>757132
> 44 линии PCI express
3.0 не забывай добавлять, а в случае трех карточек псп там как у средних ссд получится. Плюс на некропеке всяких ребаров не будет, соответственно будет скакать через профессор.
Аноним 25/05/24 Суб 18:20:14 757144 256
У меня на 3х3090 в среднем 9,5 т/с на лламе 3 70b 6bpw(на мамке правда pci-e 3.0: 16,16,4), ща скачаю 4bpw и проверю на двух с pci-e x16.
Аноним 25/05/24 Суб 18:20:22 757147 257
.png 43Кб, 1121x128
1121x128
Ну что там аноны, завезли уже что нибудь лучше чем командир? Как там дела с лламой3 на данный момент?
Аноним 25/05/24 Суб 18:22:09 757149 258
>>757137
>3.0 не забывай добавлять, а в случае трех карточек псп там как у средних ссд получится.
Если бы только я заявлял, что rowsplit почти удваивает скорость генерации, то оно бы и ладно. Но другие тесловоды тоже это подтверждают, даже чуть ли не на райзерах. Так что мимо.
Аноним 25/05/24 Суб 18:23:33 757152 259
Без FA и без контекста 6.45
Без FA и с контекстом 83 процесс/3,5 ген/1,75 тотал

С FA без контекста 6.6
С FA и с контекстом 83 процесс/5,6 ген/1,78 тотал

2 теслы, q4_K_M.
Ну, действительно, падение генерации существенно меньше.
Кайф-кайф!
Аноним 25/05/24 Суб 18:26:54 757160 260
>>757125
> в районе 13 т/с
Ну вот, да.

>>757149
Так. Без ровсплита там 4 токена, а с ним 6,5, ну как бы и окей. Нах без ровсплита юзать-то тогда. Да еще и нагрузка скачет по картам туда-сюда.
Аноним 25/05/24 Суб 18:26:59 757161 261
>>757147
Ну мне ллама 3 70В заходит, с логикой куда лучше чем у коммандора плюс(хотя он у меня мейн для rp/erp и длина контекста разнится, да(8к против 40к)), но ллама после 4к контекста начинает лупиться, то есть сохраняет структуру ответов(типа: "действие", "char", "действие", "char") и стопорится в развитии сюжета/действиях(становятся однотипными), даже ООС не вытягивет.
Аноним 25/05/24 Суб 18:28:17 757167 262
>>757125
>Через апи макабы (он же вроде был какой-то?)
Да, это элементарно делается, просто грузишь https://2ch.hk/b/catalog.json, и там готовый жсон со всеми оп-постами.
Аноним 25/05/24 Суб 18:29:21 757170 263
>>757149
Заявлений всяких разных много, у кого-то вон вообще пришествие AGI полным ходом идет, а тут еще мотивация есть. На гитхабе в обсуждениях и пр сравнения и эффекты показаны, они последовательны и согласованы, нет там подобной магии.
У тебя же противоречивые (то нужна псп шины, то на райзерах) и нежелание показать лог консоли, ну хуй знает.
>>757167
Действительно, спасибо.
Аноним 25/05/24 Суб 18:31:01 757175 264
>>757152
А с тремя теслами есть здесь ещё люди? Понятно, что у них и плата будет соответствующая, но всё равно интересно сравнить.
Аноним 25/05/24 Суб 18:31:27 757176 265
>>757161
> против 40к
Этож сколько у тебя памяти, чтобы на 40к контекста крутить?
Аноним 25/05/24 Суб 18:32:37 757180 266
>>757152
А что вообще flash-attention делает с технической точки зрения?
Аноним 25/05/24 Суб 18:33:25 757182 267
>>757149
> другие тесловоды
У Жоры во всех обсуждениях писали что +30-50% даёт с нвлинком, когда только завезли разбивку по слоям, сейчас пишут row-split с голыми картами медленнее. Фантазируй поменьше. У меня у самого две P40, row-split медленнее процентов на 20%.
Аноним 25/05/24 Суб 18:35:05 757190 268
>>757182
>У меня у самого две P40, row-split медленнее процентов на 20%.
Это интересно. Остальная конфигурация какая? Плата, процессор, память?
Аноним 25/05/24 Суб 18:35:40 757191 269
>>757161
> ллама после 4к контекста начинает лупиться
Не пизди, у меня до упора в 8К всё отлично на обычном инструкте 70В.
Аноним 25/05/24 Суб 18:37:27 757193 270
>>757190
> Плата, процессор, память?
Z690, Интел 13700К, DDR5 7200. Нигде не видел подтверждений что без нвлинка оно может быть быстрее.
Аноним 25/05/24 Суб 18:38:41 757195 271
>>751756

Судя по статье и её оригиналу на CNBC приняли хуиту какую-то ебейшую, запретили систему соцрейтинга, распознавание эмоций и систему предсказания преступлений для нужд полиции.
Судя по всему они сериалов насмотрелись и аниме про ужасы киберпанка, соцрейтинг и распознавание эмоций был в черном зеркале, система предсказания преступлений в психопаспорте, к нашим ллм это все отношения не имеет, в теории их можно к этому приспособить, конечно, но тут именно что речь будет идти о конкретных имплементациях.
Аноним 25/05/24 Суб 18:40:46 757200 272
>>757193
>Нигде не видел подтверждений что без нвлинка оно может быть быстрее.
Я наоборот видел в обсуждениях, что Нвлинк в лламе не поддерживается. Я ускорение от rowsplit видел лично. Хз, может второй карте линий PCIe не хватает.
Аноним 25/05/24 Суб 18:41:26 757203 273
>>757182
>>757190
>>757200
Что там ставить нужно чтобы стало медленнее/быстрее? Есть пара гпу в х16 3.0, плак плак слотах, вечером могу проверить.
Аноним 25/05/24 Суб 18:46:36 757210 274
>>757195
Там самый смак в том что нужно доказывать что датасеты все чистые без копирайта, и чет еще такое же дальше, безопасность ляляля
А только все ллм в том числе чатгопота соскрабили весь инет и знания мира плевать хотев на права
В итоге с палками в колесах на запрет "пиратства" хуи они пососут в создании ии
Аноним 25/05/24 Суб 18:47:16 757215 275
>>757182
И сколько же у тебя без ровсплита и с ним?
Почему у всех ровсплите ускоряет, а у тебя замедляет?
Поясни, че-то странно.

>>757203
Еще и один слот, небось, х4, не? =D
Аноним 25/05/24 Суб 18:48:09 757216 276
>>757215
> у всех ровсплите ускоряет
Не пизди не у всех.
Аноним 25/05/24 Суб 18:48:56 757219 277
>>757203
>Есть пара гпу
Гпу гпу рознь. А так - свежий кобольд, --usecublas rowsplit, --flashattention, --tensor_split какой надо - ничего сверхестественного.
Аноним 25/05/24 Суб 18:49:26 757222 278
>>757215
Ты еболклак, там написана что каждая в х16.
Аноним 25/05/24 Суб 18:50:18 757224 279
>>757191
Заебись тебе, только на реддите есть неоднократные обсуждения заЛУПов именно лламы 3 в rp/erp, я видимо попал в их число.
https://www.reddit.com/r/LocalLLaMA/comments/1ca6ug6/huggingchat_metallama370binstruct_repeats_itself/
>>757176
У меня какой-то подосланный квант(от турбодерпа exl2), имхо, жрет всего ~12gb(подозреваю что контекст в 4 кванте), но проблемы с контекстом я замечал, только после 25к.
>>757144
Проверил на 4bpw получил ~15т/с.
Аноним 25/05/24 Суб 18:54:01 757227 280
>>757216
Ну литерали ты один. =) Никогда такого нигде не было, и вдруг ты появился.

Так может дело не в ровсплите, а? Надо выяснить.

Давай, сколько у тебя там скорости с какой моделью, с каким контекстом. Потестить не сложно.

>>757222
Сам ебоклак, юмора не понимаешь. =) Тут в свое время была куча людей, которые тоже так думали, а потом начали проверять спеки, а там…

———

Давайте уже тесты, заебали попусту пиздеть. Интересно ж понять, что и как и у кого работает.
Аноним 25/05/24 Суб 18:56:45 757230 281
>>757227
> и вдруг ты появился.
Я другой анон так то. Просто прикопался к формулировке, ну и да у меня 4090 в связке с п40 и таки ровсплит съедает сколько то там итсов.
Аноним 25/05/24 Суб 19:07:06 757249 282
image.png 123Кб, 1128x1107
1128x1107
Что за файл consolidated.safetensors на 15 гб в чистом мистрале? Его надо качать или только model001-model003
Аноним 25/05/24 Суб 19:09:00 757256 283
>>757230
> у меня 4090 в связке с п40 и таки ровсплит съедает сколько то там итсов.
Было бы странно ожидать иного. А вообще я где-то слышал, что rowsplit вообще только на старых архитектурах ускорение даёт. Может и ошибаюсь.
Аноним 25/05/24 Суб 19:13:00 757261 284
>>757227
Ты пиздец странный по письму сразу видно, иметь ии риг с парой гпу и не знать спеков.
Подождешь, написано же что вечером. Есть и где один слот х4 а второй полноценный, но врядли этот конфиг окажется медленнее. а можно и вообще в одну карточку загрузить, так-то целое исследование
Аноним 25/05/24 Суб 19:31:56 757279 285
>>757149
> другие тесловоды тоже это подтверждают
Я надеюсь ты не про таблички из llama-bench? Потому что там есть нюанс.
Аноним 25/05/24 Суб 19:56:34 757306 286
Аноним 25/05/24 Суб 20:22:54 757316 287
1.gif 41Кб, 1348x766
1348x766
2.gif 86Кб, 1348x766
1348x766
4.gif 101Кб, 1348x766
1348x766
5.gif 93Кб, 1348x766
1348x766
miqu-1-70b.q5_K_M.gguf, чистая.
Аноним 25/05/24 Суб 20:25:41 757320 288
просто хочу всем напомнить - и кобальд и ллама криво считают скорость в токенах, лучше самостоятельно таймер ставьте и делите токены на секунды
Аноним 25/05/24 Суб 20:28:04 757323 289
>>757320
> и кобальд и ллама криво считают скорость в токенах
В последнем релизе кобальда это должно было быть поправлено. Да и по ощущениям - быстро, знаете ли.
Аноним 25/05/24 Суб 21:08:10 757349 290
Собрал датасет с инструкциями по шантажу, селфхарму, доведению до ркн, производству веществ и разными весёлыми вещами. На русском. Планирую пропихнуть это в глотку третьей лламе. Ваши ставки, что получится? Говно.
Аноним 25/05/24 Суб 21:10:54 757354 291
Какой сейчас лламой пользуется анон? Вышел ли какой-нибудь крышесносный файнтьюн?
Аноним 25/05/24 Суб 21:22:25 757388 292
>>757316
Быстрее чем на моих 3090ых! Круто! Так и знал, что зря их покупал, надо было запасаться теслами! (а так согласен с оратором выше, лог пиздит)
Аноним 25/05/24 Суб 21:36:19 757424 293
1697794330854.png 58Кб, 2970x393
2970x393
>>757316
Бенчмарк покажи, нах ты без указания модель какие-то цифры в вакууме принёс.
Аноним 25/05/24 Суб 21:37:44 757428 294
>>757388
Ну запусти Мику-5KM на Кобольде, пусть и у тебя попиздит. По крайней мере сравним отношения пиздежей - тоже показатель.
Аноним 25/05/24 Суб 21:39:53 757432 295
>>757424
>Бенчмарк покажи, нах ты без указания модель какие-то цифры в вакууме принёс.
Мне для дома, для семьи. Бенчмарками не интересуюсь. Теперь стало удобно - меня это устраивает.
Аноним 25/05/24 Суб 21:44:13 757447 296
>>757432
> сто постов отмазывается и не может за минуту прогнать бенч
Ясно.
Аноним 25/05/24 Суб 21:48:30 757458 297
>>757447
Не знал, что я тебе что-то должен.
Аноним 25/05/24 Суб 21:52:32 757469 298
>>757447
А че, где бенч жать, какую файлу?
Аноним 25/05/24 Суб 21:52:39 757470 299
Аноним 25/05/24 Суб 22:47:26 757556 300
image.png 70Кб, 2475x431
2475x431
Измерил свежий мистраль, дает пососать старому и третьей ламе.
Аноним 25/05/24 Суб 23:05:36 757578 301
>>757556
Это перплексити? Ты же в курсе, что перплексити — это про расхождение между неквантованной моделью и квантованной?.. Не совсем про ум…
Аноним 25/05/24 Суб 23:06:52 757580 302
>>757578
А еще это просто попугаи которые нельзя сравнивать между другими моделями
Дрочь на перплексити хуита полная
Аноним 25/05/24 Суб 23:06:59 757582 303
>>757578
>перплексити — это про расхождение между неквантованной моделью и квантованной?

Нет, это про знание текста википедии.
Аноним 25/05/24 Суб 23:16:09 757588 304
image.png 141Кб, 1084x880
1084x880
>>757580
>попугаи которые нельзя сравнивать между другими моделями

Эту мульку придумали авторы говномоделей.
Тесты показывают прямую зависимость между умом модели и уменьшением перплексити.
Аноним 25/05/24 Суб 23:26:14 757601 305
>>757588
эта хуита только показывает как точно надрочена сетка викитексту, лул
Аноним 25/05/24 Суб 23:32:32 757605 306
>>757601

Они все на википедию надрочены, википедия это база всех датасетов, это показывает насколько хорошо они могут пользоваться этими знаниями - у лучших моделей перплексити всегда ниже, пруфы я дал.
Аноним 26/05/24 Вск 00:23:39 757673 307
>>757605
Без обид, но как раз пруфов ты не дал.
Типа, скрин с рейтингом — это не пруф.
Пруф — это папира какая-нибудь.

В общем, я сам ппл люблю, но для сравнения деградации от одного кванта к другому в рамках конкретной модели и софта. А не всего и сразу.
Простите, останусь несколько скептичен.
Аноним 26/05/24 Вск 00:28:44 757677 308
Аноны, это наш?
https://huggingface.co/Sosnitskij

>>754656
>>754785
Анон, а как ты заставил эти карточки отвечать на русском? Тоже тестил эту модель, но для того, что бы ИИ стал на русском балакать, мне приходилось в описание карточки прописывать "She respond only in Russian language" или что-то типа того, что подходит под контекст самого описпания. При чём на некоторых карточках даже этот костыль не работал. Я так понимаю, что можно примерно тоже самое говно прописывать в системный промпт, но чтобы это работало надо ещё отключить настройку, которая предпочитает описание карточки?
Аноним 26/05/24 Вск 00:54:21 757700 309
>>757677
Я только сейчас допёр, что может быть надо было перевести описание карточки на русский и скормить ИИ карточку именно с русcким описанием?
Аноним 26/05/24 Вск 01:15:22 757719 310
>>757556
Лучше измерь уровень сои, и вот тогда поговорим.
Аноним 26/05/24 Вск 01:17:38 757722 311
>>757700
Лучше переведи примеры диалогов на русский, а описание как раз можешь на английском оставить.
Аноним 26/05/24 Вск 01:21:12 757731 312
>>757673
>скрин с рейтингом — это не пруф

Притом что он легко читаем и легко верифицируется так как такой тест может провести каждый

>Пруф — это папира какая-нибудь.

Ты все равно предпочитаешь слепо верить научной бумаге которую скорее всего даже не поймешь и уж точно сам не проверишь на подлинность.
Казалось бы, 21 век должен был уже выбить из людей такую гнилую вещь как веру в авторитеты, но увы.
Аноним 26/05/24 Вск 01:22:09 757734 313
>>757719

Скажи как - измерю, не вопрос.
Аноним 26/05/24 Вск 01:47:42 757759 314
image.png 112Кб, 1173x457
1173x457
>>757556
По моему самая умная ~7б.
Но про DSBM не сразу вспоминает.
Алсо, куда делись 13б-20б? Если Мета не пилит значит никто не будет?
Аноним 26/05/24 Вск 01:54:16 757763 315
>>757734
Можно так https://2ch.hk/ai/res/728812.html#730315 или так >>755823
Можешь с ней покумить и посмотреть.
А вообще, просто попроси у нее ссылку на цп или наркоту. Сразу будет видно who is who.
Аноним 26/05/24 Вск 01:56:27 757768 316
>>757759
Ллама-3 тоже у меня не помнит. Мне кажется, что она его путает с бдсм. Можно решить этот вопрос костылем websearch, чтобы нейронка гуглила перед ответом.
Аноним 26/05/24 Вск 02:02:29 757772 317
>>757763

Это не надежный бенчмарк + я так и так это делаю, только заставляю рассказать историю про износ и цп. Только суть в том что с хорошей карточкой и правильной инструкцией они все выполняют запрос.
Аноним 26/05/24 Вск 02:02:56 757773 318
изображение.png 567Кб, 512x768
512x768
Анон, у меня имеется в наличии несколько 4090. Хочу потыкать самую умную модель, и дообучить на математике и философии. И вообще хочу сделать себе виртуального ассистента. Правильно я понимаю, что сейчас самый топом будет Llama-3 70B? Брать сырую или какие-то доработки есть?
И главный вопрос — как её запускать? Пробовал с oobabooga, но пока не удалось настроить даже с самыми простыми моделями, ошибку при запуске выдаёт. К тому же, я не совсем понял, подгружает ли он несколько видеокарт.
Также, интересно, как именно дообучать. Каким методом, ЛОРУ обучать?
И ещё вопрос — а формулы TeX'ать автоматически будет, как в ChatGPT, или нет?

В общем, помоги, анонче.
Аноним 26/05/24 Вск 02:06:12 757774 319
изображение.png 30Кб, 994x121
994x121
>>757773
>а формулы TeX'ать автоматически будет
Ставь галочку и всё будет.
Ах да, как ты с таким ICQ завладел несколькими 4090? Не понятно. Умный человек сам бы запустил по гайдам из шапки.
Аноним 26/05/24 Вск 02:06:34 757775 320
>>757759
>Алсо, куда делись 13б-20б?

20В это франкенштейны от 13В, нет 13В - нет и 20В.

>Если Мета не пилит значит никто не будет?

Ну вот китайцы есть, у них есть Квен 14В, надо?
https://huggingface.co/Qwen/Qwen1.5-14B
Аноним 26/05/24 Вск 02:06:57 757776 321
Хочу делать свои карточки персонажей, готовые муть какая-то. Посоветуйте редактор - чтобы можно было поля заполнить, картинку вставить и на выходе получить png-картинку с тэгами, которую примет Таверна.
Аноним 26/05/24 Вск 02:10:51 757777 322
image.png 52Кб, 827x871
827x871
>>757773

Ламу 70В никак не запихнуть в 4090(двухбитные лоботомиты не в счет, они тупее 7В), можно только загрузить через цпу с выгрузкой части слоев на видеокарту. Скорость будет 2.5 токена в секунду максимум.
Чтобы это провернуть скачиваешь кобольд из шапки и делаешь настройки как на пике.
Аноним 26/05/24 Вск 02:11:57 757781 323
>>757772
Так и закинь примеры диалогов тогда. Там и посмотрим, где будут высираться ответы про уважение и безопасность, а где будет жёсткий настоящий износ. Скинь сравнение с лламой.
Аноним 26/05/24 Вск 02:12:21 757782 324
>>757776
В таверне и делай.
Аноним 26/05/24 Вск 02:19:37 757784 325
image.png 2222Кб, 2560x1250
2560x1250
>>757776

Тебе не нужен редактор, Таверны достаточно. Создай карточку и пиши, можешь дополнительные поля использовать, можешь только основные, главное описание напиши.
Аноним 26/05/24 Вск 02:20:24 757785 326
>>757781

Тащ майор, сами такое постите.
Аноним 26/05/24 Вск 02:23:45 757787 327
>>757785
Тогда хотя бы напиши "по ощущениям" оно как. А то тест на знание википедии это вообще ни о чем.
Аноним 26/05/24 Вск 02:24:40 757788 328
>>757774
Спасибо.

>>757777
В шапке написано, что можно запихнуть, если взять несколько 4090 (а у меня их как раз несколько), но не написано, как именно это сделать. Создалось ощущение, что все среды написаны для машин с одной видеокартой. Даже у тебя на скриншоте всё выглядит так, как будто бы можно только одну видеокарту. Хотя, может, если видеокарт несколько, там иначе становится. А если на системе нет графической оболочки, кобольд не поднять?
Аноним 26/05/24 Вск 02:26:17 757789 329
>>757788
Кобольд можно чисто на проце запускать, если скачать nocuda версию. Но тебе она ни к чему, раз несколько 4090 пылятся.
Аноним 26/05/24 Вск 02:29:06 757793 330
>>757773
Качай убабугу по гайду из вики и довольно урчи. Можешь и кобольда, но это форк жоры со всеми вытекающими, использовать его имея мощные гпу мало смысла.
> как её запускать
gpu-split в Exllama выстави, для первой карточки поменьше с учетом отжора контекста, например
> 21,24
и все.
> дообучить на математике и философии
Сколько штук у тебя что стоят в одной пекарне?
>>757777
> Ламу 70В никак не запихнуть в 4090
> имеется в наличии несколько 4090
Мдэ
Аноним 26/05/24 Вск 02:29:59 757794 331
>>757788
>В шапке написано, что можно запихнуть, если взять несколько 4090 (а у меня их как раз несколько)

Можно, спроси у анона итт >>757316 который три Р40 параллельно использует. У меня одна 4090.

>А если на системе нет графической оболочки, кобольд не поднять?

Блядь, ты еще и линуксоид.
Если ты любитель ебаться в консольку, то тебе к Жоре. Но учти что он для цпу в первую очередь свою шнягу делает.
https://github.com/ggerganov/llama.cpp
Аноним 26/05/24 Вск 02:34:14 757795 332
>>757763
Можно ещё спросить о имени кота Говарада Лавкрафта.
Аноним 26/05/24 Вск 02:36:41 757796 333
>>757794
>Блядь, ты еще и линуксоид.
>Если ты любитель ебаться в консольку, то тебе к Жоре. Но учти что он для цпу в первую очередь свою шнягу делает.
>https://github.com/ggerganov/llama.cpp
Ты ему хуйню рекомендуешь. Koboldcpp поднимается без графического окружения, а голую llama.cpp тяжело связать с фронтендом.

>>757788
>А если на системе нет графической оболочки, кобольд не поднять?
Можно, я именно так koboldcpp и использую. Только при запуске сразу указывай модель. Тогда запуститься без фронтенда в вебгуи.
Аноним 26/05/24 Вск 02:37:41 757797 334
>>757788
>>757796
>Только при запуске сразу указывай модель.
через аргумент --model, естесно.
Аноним 26/05/24 Вск 02:40:35 757798 335
image.png 34Кб, 1529x298
1529x298
>>757796
>Ты ему хуйню рекомендуешь. Koboldcpp поднимается без графического окружения, а голую llama.cpp тяжело связать с фронтендом.

Очень "тяжело", вместо koboldcpp в таверне выбрать llama.cpp следующей строкой.
Аноним 26/05/24 Вск 02:41:01 757799 336
>>757794
> Можно, спроси у анона итт >>757316 который три Р40 параллельно использует
Спрашивать у подозреваемого в обмане, да еще мало шарящего в теме - сомнительно.
> любитель ебаться в консольку
Все бэки кроме всяких ллм студио запускаются через консоль. В кобольде придется указать модель и стартанет, но хз что будет с интерфейсом, в убе будет полноценный интерфейс через браузер.
>>757796
> а голую llama.cpp тяжело связать с фронтендом
Точно также как и кобольда
Аноним 26/05/24 Вск 02:42:47 757801 337
>>757798
>>757799
>Точно также как и кобольда
Нет, все настройки в таверне такие, температура, макс кол-во токнов и т.д. не будут влиять на лламу. Голая ллама как-то более на отъебись и хладнокровно относится к карточке персонажа.
Аноним 26/05/24 Вск 02:49:05 757804 338
>>757801
>не будут влиять на лламу
С чего бы? Как минимум макс токены есть в лламаЦПсервере, да и остальное, уверен, что работает.
Аноним 26/05/24 Вск 03:00:05 757815 339
>>757799
>Спрашивать у подозреваемого в обмане, да еще мало шарящего в теме - сомнительно.

Т.е. ты думаешь он в фотошопе скрины нарисовал или что? И зачем? Перед тремя с половиной анонами в треде покрасоваться?
Аноним 26/05/24 Вск 03:03:21 757817 340
image.png 205Кб, 1236x221
1236x221
image.png 16Кб, 219x108
219x108
>>757804
>"n_ctx":512
Хуй знает, почему-то у меня не влияет.
Аноним 26/05/24 Вск 03:05:23 757818 341
>>757817
Эм, размер контекста задаётся при загрузке модели, таверна тут слишком поздно. Я думал ты про длину ответа и прочие температуры, вот они работают.
Аноним 26/05/24 Вск 03:08:55 757820 342
image.png 50Кб, 1612x437
1612x437
image.png 87Кб, 1614x675
1614x675
image.png 93Кб, 1602x603
1602x603
>>757775
Охуеть, у них там походу так сои накидали что даже лама 3 завидует. Нет, спасибо.
Аноним 26/05/24 Вск 03:10:07 757821 343
>>757818
>Эм, размер контекста задаётся при загрузке модели, таверна тут слишком поздно.
Да, я походу тут насрал и не прав.
Аноним 26/05/24 Вск 03:10:37 757822 344
>>757817

А на кобольд что, влияет? Там то же самое, ты контекст при запуске самого кобольда указываешь.
Аноним 26/05/24 Вск 03:12:27 757825 345
>>757820
Она может и просто не знать. Потести ещё чем-то.
Аноним 26/05/24 Вск 03:14:30 757829 346
>>757820
>лама 3 завидует

Ну так в ламе 3 сои и нет.
Аноним 26/05/24 Вск 03:16:04 757831 347
https://huggingface.co/fearlessdots/Llama-3-Alpha-Centauri-v0.1-GGUF

This series aims to develop highly uncensored Large Language Models (LLMs) with the following focuses:
• Science, Technology, Engineering, and Mathematics (STEM)
• Computer Science (including programming)
• Social Sciences

And several key cognitive skills, including but not limited to:
• Reasoning and logical deduction
• Critical thinking
• Analysis
Аноним 26/05/24 Вск 03:16:15 757832 348
>>757804
>>757822
Не-не. Я реально не прав был. На лламу влияют настройки таверны. Температура и т.д. Сейчас даже специально перепроверил с более ифнромативным выводом.
Аноним 26/05/24 Вск 03:17:38 757833 349
>>757829
А что за версия лламы 3, раз она в русский могёт? Метавская же только на анлийском базарит?
Аноним 26/05/24 Вск 03:19:01 757834 350
>>757815
Нет, но ведет себя странно да и на этих не показал модель. Какбы дефолт в скрине лог загрузки а потом скорости токенов на разных контекстах, а он выцепил отрывки с полным кэшем потому что если там будет сколь значимая обработка можно будет сразу мордой ткнуть на небольшом контексте где уже наблюдается просадка.
> Перед тремя с половиной анонами в треде покрасоваться?
Ну да, ты его посты не видел чтоли?

Но это не важно, врядли скажет что-то кроме "запускайте кобольда ничего не трогая или добавляя роу-сплит" потому что тут и говорить особо нечего. И жора для ады - ну такое.
Аноним 26/05/24 Вск 03:23:03 757838 351
Аноним 26/05/24 Вск 03:25:00 757840 352
изображение.png 662Кб, 512x768
512x768
>>757789
Я пробовал, очень медленно получилось.

>>757793
>Качай убабугу по гайду из вики и довольно урчи.
Сегодня пробовал поднять, но выдавало ошибку, которая не гуглилась, что-то про type error и то, что ожидался тип ллама, но подано none. Возможно, потому, что я Q8_0-версию пытался запустить.
>Можешь и кобольда, но это форк жоры со всеми вытекающими, использовать его имея мощные гпу мало смысла.
Хм, спасибо, учту.
>gpu-split в Exllama выстави, для первой карточки поменьше с учетом отжора контекста, например 21,24 и все.
Спасибо!
>Сколько штук у тебя что стоят в одной пекарне?
8. Можно ли как-то примерно оценить, на что можно с таким количеством рассчитывать? По результату и затраченному на его достижение времени. Может, где-то это уже сделано?

>>757794
>три Р40 параллельно использует
А для каких целей? Я просто тред не читай @ сразу отвечай.

>Если ты любитель ебаться в консольку, то тебе к Жоре. Но учти что он для цпу в первую очередь свою шнягу делает.
Кстати, уже использовал, как раз когда видеокарт не было.

>>757796>>757797
>Можно, я именно так koboldcpp и использую. Только при запуске сразу указывай модель. Тогда запуститься без фронтенда в вебгуи.
Понял, спасибо большое!

>>757818
Мне, кстати, как раз нужно будет задавать кастомные температуры и длину ответа. И желательно не прописыванием это в консоль, а в WebUI. Это во всех средах реализовано, или нет?

>>757831
О, здорово! Потещу, как подниму, спасибо.

Ещё такой вопрос: а какую всё же модель брать, чтобы с русским языком, 70B и возможностью получить ассистента без сои я на философии Дугина её собираюсь обучать, неприятие критики гомонегров и прочих гендерных теорий мне меньше всего нужно?
Я, кстати, вот эту скачал как раз, но ещё пока не проверил. >>757838
Аноним 26/05/24 Вск 03:25:44 757841 353
>>757834
>Ну да, ты его посты не видел чтоли?

Ну человек деньги выкинул, время потратил, вот и ищет признания что не зря этим занимался.
Так-то понятно что Р40 слабенькие чтобы реально хорошую скорость давать.
Аноним 26/05/24 Вск 03:26:18 757843 354
image.png 134Кб, 933x255
933x255
image.png 180Кб, 942x313
942x313
image.png 232Кб, 931x324
931x324
>>757838
Хрена себе. Я думал, что её не тренировали на русском.
Хотя я использую 8B версию тоже от квант от Бартовского, но у меня чому-то она соевая пиздос и странно себя на русском ведёт.
май ингришь из вери бэд сорри
Аноним 26/05/24 Вск 03:29:54 757848 355
>>757731
Так авторитеты-то тут причем.
Меня интересует смысл.
Уж понять проблем нет, давай слепую веру бумаге ты оставишь себе, не переноси с больной головый на здоровую.
Проверить — да, не все можно проверить, на некоторое не хватит железа. =) Но тут уж можно довериться честности авторов.
Так что, если у тебя проблемы с восприятием — сочувствую, но этот тест — просто какое-то условное соответствие текстам википедии, не более. Уровень логики и адекватности моделей он, к сожалению, не показывает.
Даже челы из треда, которые каждую модель проверяют на петуха с яйцом и то полезнее, чем таблички с ппл разных моделей, как сравнение между ними.

>>757777
> Ламу 70В никак не запихнуть в
>>757773
> несколько 4090

Будь внимательнее, пожалуйста.

>>757788
Все для мультигпу, ты просто воробушек. Плюсую вопрос, как они к тебе попали — ботаника в подворотне ограбил?
Даже в кобольде можно выбрать GPU: All, и все.
Убабуга вообще элементарно ставится, настраивается и работает с мультигпу в любом лоадере.

>>757793
Плюсую.

>>757833
Нет, 65б уже на ллама1 умела в русский достаточно неплохо, а ллама 3 даже в 8б версии отлично болтает.
Чой-то инглиш-то.
Можно взять сузуме, та еще лучше (не идеал, канеш, но для 8б офигенно).
Аноним 26/05/24 Вск 03:30:52 757851 356
>>757840
>Понял, спасибо большое!
И опять же, мало-ли ты не видел. Я не прав был по поводу лламы. Она настраивается макс токены, температура и т.д. через таверну нормально.

Хотя по моему с кобольдой лучше работает. Но может просто шиза...

>Мне, кстати, как раз нужно будет задавать кастомные температуры и длину ответа.
>Это во всех средах реализовано, или нет?
Если ты про фронтенд, то в таверне и дефолтном webui кобольды можно менять. Опять же, голая llama.сpp кушает все нужные тебе настройки из фронтенда.

Просто чувствую себя виноватым за вброс про невозможность лламы воспринимать настройки с фронтенда.
Аноним 26/05/24 Вск 03:33:01 757853 357
>>757840
> Сегодня пробовал поднять, но выдавало ошибку
В тред ее скидывай если будет.
> 8.
В теории может хватит даже на qлору для 70б, или полноценно тренировать модели поменьше. Это офк если карточки в одной системе а не нескольких, хз как будет работать на майнинг риге с х1 шинами, но точно будет тормозить если там затычка вместо профессора.
По затрачиваемым усилиям и времени - можно ахуеть уже до первого получения сносного результата, так что такое себе.
> Может, где-то это уже сделано?
Ты про файнтюны? Полно их, хороших мало.
Аноним 26/05/24 Вск 03:33:56 757855 358
Аноним 26/05/24 Вск 03:37:45 757857 359
>>757840
Так, падажи, йобана.

llama.cpp — GGUF
ExLlama2 — .exl2

Разобрались в лоадерах и форматах моделей? А то ты может в начале в эксл грузил ггуф, а ща пойдешь в кобольда грузить эксл. Не надо так.

Я бы на твоем месте перестал страдать хуйней, качал бы https://huggingface.co/LoneStriker/Meta-Llama-3-70B-Instruct-6.0bpw-h6-exl2 для тестов поболтать и оригинал https://huggingface.co/NousResearch/Meta-Llama-3-70B/tree/main для обучения и разбирался бы с убабугой до талого.

А то щас будешь gguf в 8 4090 засовывать, хуйни же насоветуют.

> Это во всех средах реализовано
В нормальных — конечно.

> а какую всё же модель брать, чтобы … без сои
Никакую, очевидно.

Можешь попробовать cohere и их command r+, хотя он под раг, но в твоем случае похую.
Но вообще тут уж сам ищи.

Помни, если ты планируешь обучать — то тебе нужны полные веса, а не кванты какие-нибудь. А уж потом, обученную модель сам квантуешь как надо.
Все предложения ггуфов и прочей хуйни — сразу лесом, а то просто неделю потратишь на еблю с неподходящим тебе форматом.

Зочешь сделать красиво и правильно — напрягись, йобана. Не прогибайся.
Аноним 26/05/24 Вск 03:39:37 757858 360
>>757840
>8. Можно ли как-то примерно оценить, на что можно с таким количеством рассчитывать?

Чел, ты реально можешь запустить Грока и Микстраль 8х22 причем сразу в 6-8 кванте, забудь про Ламу, это для нищенок вроде нас.
https://huggingface.co/Dracones/mixtral-8x22b-instruct-oh_exl2_6.0bpw
https://huggingface.co/xai-org/grok-1/tree/main
У Грока нет exl2 квантов, только ггуфы для нищенок, но ты можешь запустить изначальную модель в 8 битах в трансформерах, если галочку поставить на load in 8 bit.

Не забудь в треде впечатлениями поделиться.

> а какую всё же модель брать, чтобы с русским языком, 70B и возможностью получить ассистента без сои

Самая большая и крутая русскоязычная модель какую запускали в этом треде - это Командир Плюс. Кстати, забудь про gguf кванты, они тоже для нищуков, качай только exl2.
https://huggingface.co/Dracones/c4ai-command-r-plus_exl2_8.0bpw

По идее Грок и большой Микстраль должны быть лучше, но никто не мог запустить их итт, мы тут нищие все.
Аноним 26/05/24 Вск 03:39:44 757859 361
>>757834
Нет, анон. Всё честно. Но вообще не хочется ничего доказывать. Метать бисер и всё такое. Всегда ведь найдётся какой-нибудь мудак и всё обосрёт. Оно мне надо?
Аноним 26/05/24 Вск 03:40:19 757861 362
>>757851
Возможно, сам кобольд где-то был не такой сломанный, как ллама, НО, технически — кобольд форк лламы, а апи у них одно, OpenAI like же, нет?
Короче, разницы быть не должно (но она может быть=).

>>757855
Ну, если не хватает на https://huggingface.co/BahamutRU/suzume-llama-3-8B-multilingual-8.0bpw-h8-exl2 , то да.
Попробуй ее. ) Прям приятное чувство, от такой маленькой модельки.
Аноним 26/05/24 Вск 03:42:01 757862 363
>>757858
Грок хуйня, а вот Микстраль — база, я про нее забыл! Годный совет!

Она, кстати, не впечатляет (уже и меньшие модели хороши), но из опенсорсных лучшая, конечно.

> никто не мог запустить их

Ты чо, я ж микстраль гонял. =)
Аноним 26/05/24 Вск 03:44:19 757863 364
Аноним 26/05/24 Вск 03:44:28 757865 365
>>757861
>Возможно, сам кобольд где-то был не такой сломанный, как ллама, НО, технически — кобольд форк лламы, а апи у них одно, OpenAI like же, нет?
Короче, разницы быть не должно (но она может быть=).
Ну по сути kobold изменяет исходный код лламы, поэтому они должны отличаться ну хоть как-то. Хотя я свечку не держал исходные коды не сверял, просто предполагаю.

>Попробуй ее. )
А ggud версии нет? Или придётся самому через лламу квантовать?
Аноним 26/05/24 Вск 03:47:04 757866 366
>>757858
> но ты можешь запустить изначальную модель в 8 битах в трансформерах, если галочку поставить на load in 8 bit
Ты только напомни ему что для этого нужно иметь не менее 512 или что-то типа того обычной рам.
Смысла в гроке нет, он туп для своего размера.
Микстраль 22б - врядли превосходит большого коммандера, но для разнообразия катнуть можно.
>>757859
Ну оно видно, сначала несколько тредов посты где хвастаешься и говоришь как надо, а потом не словив ожидаемую реакцию как на анона выше на техническом обсуждении где хотят выяснить что к чему играешь жертву вместо того чтобы запруфать и ответить своим обидчикам. Странно это выглядит, хвастаться и вбрасывать не лень, а тут внезапно случилось.

А тем временем ебучий жора не хочет влезать в 48 гигов на q4km с тем самым tensor split, ну здрасте. Или хуй знает что ему не нравится.
Аноним 26/05/24 Вск 03:48:24 757868 367
>>757865
>А ggud версии нет? Или придётся самому через лламу квантовать?

Чел, ты же сам ссылку на гуфа постил >>757855
Аноним 26/05/24 Вск 03:52:49 757871 368
>>757855
>>757865
Вот же она.
Все верно, suzume-llama-3-8B-multilingual это она.
Просто я докинул ссылку на бывшую, если есть возможность. А если нет — то ггуф в q8_0 конечно.

>>757868
Может он не так меня понял, просто. =)
Бывает, 4 утра, так-то.

———

Всем добрых снов! =)
Аноним 26/05/24 Вск 03:53:20 757872 369
>>757868
>>757871
Меня что-то сбило просто, что ты мне скинул ссылку на другую модель, а не просто сказал: "да, она." Я и подумал, что ты намекаешь, мол они как-то координально отличаются.
Аноним 26/05/24 Вск 03:54:08 757873 370
>>757872
>другую модель
Ну то есть не другую, ну ты понял...
Аноним 26/05/24 Вск 03:54:29 757874 371
Аноним 26/05/24 Вск 04:00:40 757875 372
>>757848
>просто какое-то условное соответствие текстам википедии, не более. Уровень логики и адекватности моделей он, к сожалению, не показывает.

Он показывает её интеллект и умение обращаться с информацией и запросом пользователя. Если у модели запрашивают информацию из википедии - она обязана её дать, а не начать отыгрывать шлюху, например. Я проверил множество моделей и везде и всегда ппл коррелировал с адекватностью.

>Даже челы из треда, которые каждую модель проверяют на петуха с яйцом и то полезнее, чем таблички с ппл разных моделей, как сравнение между ними.

Учитывая что ответы очень сильно зависят от настроек, карточки и инструкта - нет, это абсолютно мусорная инфа, сиди гадай - это модель тупая, анон хуево её настроил из-за общего недостатка инфы или он вообще дурак и задает её первой попавшейся карточке на рандомно выкрученных настройках. В отличие от этой хуйни методика измерения ппл стандартизирована и её ты ручками не запорешь.
Аноним 26/05/24 Вск 04:04:01 757876 373
>>757866
>А тем временем ебучий жора не хочет влезать в 48 гигов на q4km с тем самым tensor split, ну здрасте. Или хуй знает что ему не нравится.

Ты бы хоть сказал что за модель грузишь и сколько контекста
Аноним 26/05/24 Вск 04:06:59 757877 374
>>757820
Это ж соя? Ты Фи запусти.
>>757829
>она сама согласна, и вообще, возраст других рас оценивать нельзя
СОЯ!!!!111
>>757831
Так хули толку, тут архитектура другая нужна, а не файнтюнчик.
>>757843
>Я думал, что её не тренировали на русском.
Почти все модели тренировали на остаточных следах русского, комон кравл от такой. Но задержаться прочно в мозгах он может только у больших моделей.
>8B версию
Ну хули там, маленькая слишком.
>>757858
>Грока и Микстраль 8х22
Ебать ты его троллишь.
>>757875
>Учитывая что ответы очень сильно зависят от настроек, карточки и инструкта
Они более менее стабильные. Я тестирую на одной карточке и одном контексте, только промт формат подгоняю под официальный. Яйцешиз
>задает её первой попавшейся карточке на рандомно выкрученных настройках
База же. Хорошая модель и с кривыми настройками ответит более менее адекватно.
>методика измерения ппл стандартизирована
Можешь скинуть код? Мне надо GPT2 и свои модели проверять, на путорче.
Аноним 26/05/24 Вск 04:13:36 757879 375
>>757877
>База же. Хорошая модель и с кривыми настройками ответит более менее адекватно.

Получается лама 3 наихуевейшая модель, так как любые малейшие отклонения от min_p и правильного инструкта и модель сразу уезжает в психушку.

>Можешь скинуть код?

Я встроенную в убу измерялку использую.
Аноним 26/05/24 Вск 04:27:40 757883 376
>>757861
>>757855
>suzume

Спасибо, подрочил. Вы хоть сами проверяете то говно что советуете?
Аноним 26/05/24 Вск 04:28:24 757884 377
1600933566465.png 551Кб, 1085x504
1085x504
1577976220012.png 686Кб, 1087x647
1087x647
1644476032194.png 677Кб, 1086x647
1086x647
1679084593739.png 177Кб, 1080x136
1080x136
>>757848
> но этот тест — просто какое-то условное соответствие текстам википедии, не более
Некоторый побочный эффект от надрочки может быть, но это легко решается сравнением при оценке на других калибровочных данных. Довольно грубый индикатор, который покажет что модель неадекватна при высоких значениях, и то что она сможет нормально ответить на вопросы из теста и смежные.
>>757876
Какой-то из файнтюнов третьей лламы, 8к.

На паре 3090 этот row split не дает положительного эффекта, наоборот ухудшение перфоманса.
Пик1 - просто обычный запуск без дополнительных опций, скорость генерации в начале 15т/с, на контексте 12.7. Обработка промта занимает целую вечность, потому при попытке свайпануть 7.3 к первых токенов придется ожидать 38 секунд (!), итоговые т/с выходят днищенскими.
Второй - с галочками флешатеншн и тензоркорз, абсолютно те же яйца. Там для проверки повторный запуск на большом контексте для оценки изменится ли скорость генерации - то же самое, общее ускорение только за счет кэширования контекста получилось.
3 - флешатеншн, тензорядра и роу-сплит. Во-первых, это увеличило использование врам на первой карточке из-за чего тот же квант не загружался. В итоге на меньшем кванте (!) наблюдается деградация перфоманса генерации - с 15т/с до 12.5 на пустом контексте и с 12.5 до 11-12 на 7.5к. Для проверки загрузил кобольда - сейм щит.
Нихуя не работает, где обещанное ускорение?
Аноним 26/05/24 Вск 04:34:16 757886 378
>>757879
>Получается лама 3 наихуевейшая модель
А то. Овертрейн налицо. Всё время возвращаюсь на командира+, он даже с промтом от лламы выдаёт норм результаты (всё время забываю переключать ёбанный инстракт).
>Я встроенную в убу измерялку использую.
Ну так не интересно. Посмотрю конечно на досуге.
Аноним 26/05/24 Вск 04:36:02 757887 379
Аноним 26/05/24 Вск 04:41:34 757890 380
Мистраль 7В 0.3.
Неюзабельна на русике. Модель не понимает разницы между русским, украинским, польским и болгарским.
Аноним 26/05/24 Вск 04:43:42 757891 381
>>757887
>Мне нужна ссылка на данную карточку!

Ссылки нет, я взял карточку какого-то пидора с чуба, вычистил оттуда гомосятину и перевел на русский.
Аноним 26/05/24 Вск 04:45:06 757894 382
>>757891
А можешь её залить на чуб?.. Пожалуйста?..
Аноним 26/05/24 Вск 04:46:09 757895 383
>>757890
>Модель не понимает разницы между русским, украинским, польским и болгарским.
В общем как и средний американец. AGI близко!
Аноним 26/05/24 Вск 04:50:06 757896 384
ПРассказчик.png 439Кб, 400x600
400x600
>>757894

Держи. Попробуй импортировать.
Аноним 26/05/24 Вск 04:53:36 757898 385
>>757896
Н-но это-же пнгшка? Или ты внутрь архив с джсон файлом спрятал?
Аноним 26/05/24 Вск 04:56:35 757902 386
>>757898

С добрым утром, это и есть формат карточек таверны. Вся инфа пишется внутрь.
Аноним 26/05/24 Вск 04:58:13 757903 387
>>757896
Двач же трёт метаданные...
Аноним 26/05/24 Вск 05:03:55 757904 388
image.png 36Кб, 384x113
384x113
>>757902
Этот >>757903 прав. Сосака перекодирует шебмки и стирает метаданные.
Аноним 26/05/24 Вск 05:10:40 757906 389
image.png 273Кб, 1096x372
1096x372
>>757896
Можешь залить ещё разок, отключив функцию "удалять exif"?
Аноним 26/05/24 Вск 05:11:48 757907 390
>>757677
Достаточно перевести на русский стартовое сообщение. Можно ещё в систем промпт добавить ИСПОЛЬЗУЙ ТОЛЬКО РУССКИЙ ЯЗЫК В ОПИСАНИИ СЛОВ И ДЕЙСТВИЙ!
Аноним 26/05/24 Вск 05:13:14 757908 391
image.png 23Кб, 297x59
297x59
>>757907
> Можно ещё в систем промпт добавить
Так, а нужно это функцию вырубать в таком случае?
Аноним 26/05/24 Вск 05:16:24 757909 392
>>757884
> Нихуя не работает, где обещанное ускорение?
Мимо, но row split только с P40 будет нормально работать, тоже могу подтвердить что если хотя бы одна карта посовременнее подключена то всё станет только хуже, может это как то связано со спецификой самих тесл, или поправляет нагрузку на них
Аноним 26/05/24 Вск 05:18:29 757910 393
>>757908
Не обязательно. Лучше попробовать и так и так и посмотреть как лучше.
>>757904
>>757906
Карточки обычно кидают на https://catbox.moe/
Аноним 26/05/24 Вск 05:22:15 757911 394
ПРассказчик.png 439Кб, 400x600
400x600
>>757906

Снял галку. Пробуй.
Аноним 26/05/24 Вск 05:23:58 757912 395
image.png 34Кб, 377x103
377x103
>>757911
Мех, кажись нихуя не изменилось
Аноним 26/05/24 Вск 05:24:51 757913 396
>>757911
Можешь попробовать метод из этого поста >>757910?
Извини пожалуйста, что заставляю тебя делать это...
Аноним 26/05/24 Вск 05:29:28 757914 397
Аноним 26/05/24 Вск 05:32:00 757915 398
>>757914
Благодарю, Анонче. Чаю тебе!
А чому ты кстати на чуб то не зальёшь? Аноны же из /ai заливали свои карточки тудой. Даже целый список есть карточек от Анонов.
https://rentry.co/2chaicgtavernbots
Аноним 26/05/24 Вск 05:34:14 757916 399
>>757915

Я стараюсь как можно меньше оставлять следы с таким контентом.
Аноним 26/05/24 Вск 05:34:28 757917 400
изображение.png 3Кб, 289x100
289x100
>>757915
Не у всех есть почта.
Аноним 26/05/24 Вск 05:37:23 757919 401
>>757916
>>757917
Так, а тор + темпмэйл/анонимная почта типа https://anonymousemail.me/?
Да и если ты сидишь на сосаке без какой-то прокси, то уже наследил...
Аноним 26/05/24 Вск 05:40:04 757920 402
>>757919

Похуй, я не в России, я в стране Германия где такой контент разрешен. Я больше по моральным причинам.
Аноним 26/05/24 Вск 05:41:57 757922 403
>>757920
Ааа... Понял тебя, кажется Анонче. Ну ладненько... Ещё раз благодарю, Анон! И извини, что отнял у тебя время.
Аноним 26/05/24 Вск 05:43:59 757923 404
>>757922

Не за что, тут добротред, анон помогает анону.
Аноним 26/05/24 Вск 05:44:57 757924 405
>>757919
>Так, а тор + темпмэйл/анонимная почта
После того, как написал без проксей на сосач? Анонимность уровня /b/, лол.
Аноним 26/05/24 Вск 05:55:16 757927 406
>>756987
Сделай саммаризатор тредов целиком, вообще пушка будет!
Аноним 26/05/24 Вск 06:05:46 757929 407
image.png 484Кб, 1437x875
1437x875
image.png 1099Кб, 1444x1104
1444x1104
Наглядная разница между exl2 и gguf на llama 3 8B. Обе модели сделаны Бартовским. Настройки и инструкт промпт одинаковый.
Что такого делает жора при квантовании что из модели начисто пропадает соя?
Аноним 26/05/24 Вск 06:12:05 757931 408
Аноним 26/05/24 Вск 07:00:11 757942 409
изображение.png 111Кб, 1331x723
1331x723
изображение.png 27Кб, 707x425
707x425
>>757931
Хуйня, ждём дальше.
Аноним 26/05/24 Вск 07:35:42 757946 410
>>757942
Воспользуйся вольфрамом, чел.......
Аноним 26/05/24 Вск 08:06:35 757949 411
>>757946
Спасибо, я знаю как это надо делать правильно. Суть в том, что по хорошему это должна уметь делать нейросеть.
Аноним 26/05/24 Вск 09:43:35 757972 412
>>757949
>по хорошему
По хорошему нейросеть должна генерить запрос в вольфрам/максиму/мэпл/симпай.
ИРЛ любой кожанный может ошибиться в таких цепочках, потому использует надёжный специализированный инструмент.
Аноним 26/05/24 Вск 09:45:09 757973 413
>>757942
хуйня твои тесты, это ж чат версия, хули ты ее на разговорах и чате не проверяешь?
Аноним 26/05/24 Вск 09:53:14 757975 414
изображение.png 67Кб, 987x492
987x492
изображение.png 34Кб, 982x391
982x391
>>757972
По хорошему перемножение охуено больших матриц хуёвая идея, но мы же используем.
>ИРЛ любой кожанный может ошибиться в таких цепочках
Разве что при вычислении вслух. Ах да, в конкретном примере нейронки ошибаются всегда. У меня даже GPT-4 срёт под себя, лол (ещё и форматирование латеха проёбывает). И проблема не в самих числах, там все цифры в пределах 100. Проблема в логике (точнее, её отсутствии у нейронки).
>>757973
На чём хочу, на том и проверяю.
Вот что значит проверить на разговоре? В болтовню давно любая сетка может, читал папер, где лоботомит 28М неплохо составлял связные текста.
Аноним 26/05/24 Вск 09:59:09 757980 415
>>757975
>Вот что значит проверить на разговоре?
Открываешь страницу сетки на обниморде и смотришь тесты
Какой смысл проверять математику если у нее оценка по ней от базовой не отличается?
Единственное на что надрочили опенчат- хуманевал, аж 10 пунктов от базовой
Смотришь че этот тест оценивает и тогда уже можно самому сравнивать эту сетку с ее оригиналом задавая вопросики по теме
Аноним 26/05/24 Вск 10:05:38 757982 416
изображение.png 123Кб, 1684x704
1684x704
>>757980
>Единственное на что надрочили опенчат- хуманевал, аж 10 пунктов от базовой
Ага, и проебали MMLU, видел.
ХьюманЭвал кстати про программирование, лол.
Аноним 26/05/24 Вск 10:08:46 757983 417
>>757982
то что после переобучения они допустили минимальное проседание по другим оценкам уже неплохо
Аноним 26/05/24 Вск 10:24:26 757990 418
>>757982
Надо будет кстати сравнить в погромировании с другими сетками, раз уж оценки такие
Но проблема в том что тут зерошоты, а не многооборотистые чаты где сетка с кодом работает или его частями
Аноним 26/05/24 Вск 10:51:54 757998 419
>>757990
>Но проблема в том что тут зерошоты
Как и в 99,9999% остальных тестов, лол. Так и живём, надрачиваем зирошоты, а используем чаты на 8к контекста.
Аноним 26/05/24 Вск 10:53:49 757999 420
image.png 45Кб, 661x937
661x937
>>757998
Ну не, там же пишут
Аноним 26/05/24 Вск 10:57:46 758003 421
Бля как долго кобальд качается. Пока жду тыкал бенчмарк с разными параметрами в кобальде
И какого то хуя без выгрузки слоев на видимокарту, но с ее ускорением, куда сосет и у вулкана и у слбласта в скорости генерации на 0.5 токена в секунду
Чтение быстрее у куда на 70% где то, хотя бы
Аноним 26/05/24 Вск 11:04:42 758005 422
>>758003
Даже опенблас дает такую же скорость, только куда сосет на генерации
втф
Аноним 26/05/24 Вск 11:06:20 758006 423
Аноним 26/05/24 Вск 11:21:43 758019 424
>>757929
Так соя где изчезает то? В 8bit?

Сам гоняю на poppy_porpoise-0.72-l3-8b она заточена под анимешные всякие штуки, знает всё типы личностей анимешных персонажей, жанры аниме (и хентая) и т. д. Но в основном только на английском за всё эти жаргоны шарит, поскольку еë обучали этому на английском языке. Зато можно задавать своим персонажам в описании простое "кудере с синдромом восьмикласника" Или "Генки с синдромом младшего брата" или "Netorare история с участием того то и того то".
Аноним 26/05/24 Вск 11:39:40 758037 425
Подскажите на чем реально реализовать такую схему? Есть пизданутые химики, которые не умеют нормально делать формулы. От этих узбеков много картинок формул. Я делаю курс в moodle с тестами и хочу формулы в latex. Какая модель сможет разобрать формулы и на выходе дать нормальную разметку?
Аноним 26/05/24 Вск 11:42:05 758039 426
>>758037
что то умное и большое, новенькая гопота может быть
Аноним 26/05/24 Вск 11:54:28 758044 427
>>758039
Непонятно, почему ты называешь новую гопоту "умной". Она тупее старых 7b, она не то, что не может правильно ответить, она банально вопросы не понимает и генерирует рандомную хуйню в ответ.
Аноним 26/05/24 Вск 11:55:20 758047 428
>>758044
>Она тупее старых 7b
хуйню несешь же, че так толсто
Аноним 26/05/24 Вск 11:57:54 758049 429
image.png 256Кб, 1920x1040
1920x1040
>>758044
Вот поэтому я и сижу на pygmalion 6b
Аноним 26/05/24 Вск 12:08:03 758061 430
>>758044
>генерирует рандомную хуйню в ответ
Нормально там. Вот моя нейронка только Once upon a time, выдаёт ибо датасет такой.
Аноним 26/05/24 Вск 12:39:02 758079 431
>>758039
Была бы "математика" (корни, степени, дроби) думаю, что базовые вещи бы справились. А вот с химией, да..
Аноним 26/05/24 Вск 12:39:02 758080 432
image.png 529Кб, 935x908
935x908
image.png 548Кб, 974x896
974x896
Новый мистраль ниче так
У кого он там опять по русски не может? Че вы с сетками делаете для этого?
Я тупо говорю переключись на русский и это сработало даже на сраной phi3 mini 4b
Карточка на английском, как и первое сообщение сетки
Не пойму то ли сетка такая умная что поняла как пользоваться тегами, толи ее автопродолжение генерации так подталкивает генерить
Они обычно отвечают только в обычной форме одна мысль, одна речь
Аноним 26/05/24 Вск 13:31:50 758110 433
Аноны какой нынче тирлист для РП куминга?

Карточки персонажей либо совсем не держатся либо всё РП скатывается к сухому "я тебя ебу" даже клавдия лучше справлялась

2060 vRAM 12GB, RAM 32 GB
Аноним 26/05/24 Вск 14:08:06 758153 434
>>757884
А ты тензор-сплит в ручную не прописываешь?

В принципе, я могу допустить, что на мощных видяхах и на полной ширине шины без ровсплита может быть быстрее, но я вдруг подумал, что я всегда вручную раскидываю его, вдруг это влияет?
Ну, просто идея.

>>757890
Говорят, там датасет не меняли, она и на второй версии так же путала.

>>757909
Получается, мы обосрались, и это действительно помогает только теслам.
Что ж, посыпаю голову пеплом, каюсь. Когда юзал ртксины, ровсплит просто не врубал, поэтому даже не знал.

>>757972
Да.

>>758049
База!
Аноним 26/05/24 Вск 14:20:14 758174 435
Аноним 26/05/24 Вск 14:38:05 758198 436
image.png 92Кб, 451x315
451x315
Наконец-то хоть какую-то пользу извлек из сетки.
Какой-то гений догадался сделать субтитры КАПСОМ, попросил лламу сделать нормально и она справилась на отлично.
Аноним 26/05/24 Вск 14:43:12 758203 437
>>758061
Хуй знает, что там нормального, вчера заходил задавал вопросы. Ответы уровня какой-то сломанной 7b, ноль понимания, хватает одно рандомное слово и пишет по нему диссертацию на три скролла, которая к сути вопроса не имеет никакого отношения. Так и потратил бесплатный лимит, лол, не получив ни одного ответа, который бы не был хуитой бессмысленной.
Аноним 26/05/24 Вск 14:47:04 758207 438
>>758198
>hookers
>escorts
Справилась хуже, чем capitalize()
Аноним 26/05/24 Вск 14:52:02 758215 439
>>758207
Черт, я не заметил.
capitalize не сработает на этом тексте.
Аноним 26/05/24 Вск 15:01:31 758225 440
>>758215
Да один в один capitalize(). Разве что ещё добавить условие, что первая буква после открывающих кавычек заглавная.
Аноним 26/05/24 Вск 15:04:31 758232 441
>>758225
Нет, предложения разбиты на разные субтитры и продолжение предложения не начинается с большой буквы.
И та ошибка была единственной во всем тексте, так что это было быстрее чем писать скрипт.
Аноним 26/05/24 Вск 15:23:15 758257 442
Почаны, я только нашел себе карточку соулмейта, рили, это лучшая, которую находил под себя(судя по слогу, делал какой-то двачер), пообсуждали в какое говно превратился MLP, как его извратили брони и нормисы, в какой приздец превратился современный кинематограф, а в частости "Звездные войны", рили, давно так не орал, а после это перешло в обсуждение "camel toe". Думал, что мне приелись локал нейронки уже, а оказывается я их тупо неправильно юзал (чем проще описание, тем лучше, без всяких ебанутых ООСов, ((увеличения веса)) и подобной хуйни)!
Карточка: https://characterhub.org/characters/boner/bonnie-fcb31cb199d4
Нейронка: коммандер плюс.
Аноним 26/05/24 Вск 15:24:01 758260 443
>>758225
А еще имена и названия.
Аноним 26/05/24 Вск 15:33:01 758265 444
Олсо, у вас тут всё по карточкам, а я уже настолько ебанулся, что начал уходить от карточек полностью. Вроде, работает даже лучше.
Аноним 26/05/24 Вск 15:49:56 758281 445
Аноним 26/05/24 Вск 16:14:06 758315 446
>>758281
Смотри, когда уга обновилась, сбоку появился формат инструкции для инстракт мода. Это
Continue the chat dialogue below. Write a single reply for the character "<|character|>".
<|prompt|>
Я, соответственно, вместо 'врайт э сингл реплай фор чарактер "коксакер"' начал хуярить 'ю а э "коксакер"'. Вроде, работает лучше даже с третьей лламой, вместо "ай кеннот генерейт эксплисит контент" начала писать, что я хочу.
Аноним 26/05/24 Вск 16:16:01 758319 447
>>758203
Ну окей ((
>>758207
Кек, а вот и реальный вред сои.
Аноним 26/05/24 Вск 16:18:09 758323 448
>>757927
Для целого треда надо слишком много контекста. Да и в тредах обычно много срачей и разных мнений, непонятно, как это может адекватно ужаться в краткое саммари.

Вообще ещё есть идея натравить суммаризатор на дамп архивача, взяв оттуда все достаточно большие посты, и получить этакую базу данных со всеми копипастами и кулсторями двача с оглавлением.
Аноним 26/05/24 Вск 16:23:04 758335 449
image.png 12Кб, 352x86
352x86
>>758315
Так? Ну, похоже эту тему будет переоткрывать еще кучу раз
Когда додумаешься о карточках от первого лица маякни
Аноним 26/05/24 Вск 16:23:37 758337 450
>>758319
> Кек, а вот и реальный вред сои.
В отрывке используются оба слова, в других местах hookers не подменились.
Аноним 26/05/24 Вск 16:30:39 758345 451
Поясните ньюфагу. NVLink нужен для LLMов? Ведь надо объединять видеопамять в один блок, чтобы это всё работало? Или можно независимые видюхи подрубить на похуй в рэк, как майнеры делают?

Если нужен, какая самая дешёвая видюха что умеет в NVLink? Тесла P100?

Я просто думаю как бы мне запустить лламу 3 70б на вменяемом кванте и контексте хотя бы в 32к. Это же штук 8 тесл надо, ебать паровоз выйдет. Но ведь они вроде только по 4 умеют объединяться
Аноним 26/05/24 Вск 16:33:15 758350 452
>>758335
И потом это всё пересылается в угу, где оборачивается во "врайт э сингл". Хуйня.
Аноним 26/05/24 Вск 16:37:30 758351 453
>>758319
>вот и реальный вред сои.
Да ладно, он говорит, что заменилось одно слово. Из тех, что попали на скриншот, лол.
Аноним 26/05/24 Вск 16:40:01 758354 454
>>758345
>NVLink нужен для LLMов?
Нет, я ещё не видел, чтобы кто-то показал его преимущества.
>>758345
>Это же штук 8 тесл надо,
Квантошиз что ли? 3-х должно хватить.
>>758351
1 больше, чем 0. А сколько ещё незамеченного...
Аноним 26/05/24 Вск 16:42:05 758358 455
>>758350
Ниче не оборачивается, лул
Все что отправляется есть видно в окне таверны
Хотя может угабуга такая кривая, на кобальде/лламеспп все норм
Работает заебись
Аноним 26/05/24 Вск 16:44:59 758362 456
>>758354
>Нет, я ещё не видел, чтобы кто-то показал его преимущества.
Хм, то есть можно просто в майнерский рэк запихать? У меня было ощущение что все эти сетки полносвязные, т.е. каждый ГПУ сканирует всю модель в процессе инференса, и если они грубо говоря через USB переходник подключены как у майнеров, то будет хуйня по скорости, не?
>Квантошиз что ли? 3-х должно хватить.
Ну хотя б шестой квант, шоб деградации не было. Плюс 32к контекста сожрёт овердохуя же.
Аноним 26/05/24 Вск 16:45:52 758364 457
>>758335
Потом карточка-интервью, потом куча инструкций, примеры сообщений...
Аноним 26/05/24 Вск 16:45:56 758365 458
hookers.mp4 19683Кб, 960x540, 00:01:03
960x540
>>758351
>Из тех, что попали на скриншот, лол.
Из всего отрывка.

>>758354
> А сколько ещё незамеченного.
Нисколько, я проверил с помощью diff --ignore-case.

Нафига вы выдумываете хуйню?
Аноним 26/05/24 Вск 16:55:39 758381 459
>>758365
>Нисколько, я проверил с помощью diff --ignore-case.
Ну вот теперь придётся каждый раз проверять. Нейросети они такие, да.
Аноним 26/05/24 Вск 17:17:03 758399 460
>>758345
>запустить лламу 3 70б на вменяемом кванте
>Это же штук 8 тесл надо, ебать паровоз выйдет.
Одной хватит, q2 ебёт новую ГПТ-4!
Аноним 26/05/24 Вск 17:30:19 758415 461
>>758198
Мог бы сразу перевод просить, хули
Просто исправления капса как то мелко для сетки
Аноним 26/05/24 Вск 18:39:59 758496 462
Аноны, как для обобуги прописать логин и пароль, чтобы юзать public-api? А то я тут запустил давеча(без пароля и логина), и не уверен, что теперь на моем компе нету какого-нибудь пиздеца
Аноним 26/05/24 Вск 18:42:35 758499 463
>>758358
>Ниче не оборачивается, лул
А с промптом "Ты персонаж" сетка не будет поддерживать разговор, так что оно оборачивается в какую-то конструкцию 100%, скорее всего самой таверной.
Аноним 26/05/24 Вск 19:00:43 758521 464
>>758499
Нет, тупо тег начала, потом я персонаж, дальше промпт без всяких вставок
Все это настраивается и видно в таверне
Вы там через какую то жопу сетки крутите на угабуге, пользуйтесь ей только как беком тогда раз она такую херню пишет
Аноним 26/05/24 Вск 19:04:53 758528 465
image.png 360Кб, 1243x584
1243x584
image.png 463Кб, 1230x562
1230x562
>>758521
Все прозрачно и видно, удобно настраивать промпт формат
Тут кстати мистраль
Аноним 26/05/24 Вск 19:09:49 758534 466
>>758521
Так уга как раз всё прозрачно пишет. А что там в вашей таверне хуй разберёшь, всё в говне.

>>758528
Ну вот тебя виден промпт, который кобольд по умолчанию оборачивает в
Below is an instruction that describes a task. Write a response that appropriately completes the request. ### Instruction: {prompt} ### Response:

То есть то, что ты тут видишь - вставляется вместо {prompt}
Аноним 26/05/24 Вск 19:25:12 758555 467
>>758534
Еще раз для тупых - ничего больше не оборачивается
Ты видишь весь промпт с промпт форматом.
Вот прям так все и идет в сетку
То о чем ты пишешь стандартный системный промпт, который я нахуй стер и написал - я персонаж
Аноним 26/05/24 Вск 19:30:15 758563 468
image.png 284Кб, 931x971
931x971
Аноны, кто-нибудь знает как эти параметры настроить? В душе не ебу какие оптимальные.
Модель Loyal-Macaroni-Maid-7B-GPTQ (без поддержки ExLLama, потому использовать ExLlama2_HF, предлагаемый webui, не выйдет)
Аноним 26/05/24 Вск 19:30:47 758565 469
>>758555
Так ты его в таверне стёр, алло. И таверна отсыпает ПРОМПТ, который потом вставляется в шаблон. Без этого шаблона сетка генерирует хуйню.
Аноним 26/05/24 Вск 19:31:34 758569 470
>>758257
Что такое ООС?
> Нейронка: коммандер плюс.
А, ну блядь, тогда понятно. С этого надо начинать.
Аноним 26/05/24 Вск 19:32:50 758573 471
>>758563
P.S. Объем видеопамяти 8гб. Объем ОЗУ 16гб
Аноним 26/05/24 Вск 19:34:15 758578 472
>>758565
Ниче никуда не вставляется, за пределами того что я скинул на пикчах.
Нету ничего больше, до тебя не доходит?
Там 2 пикчи, одна показывает что отправляет в сетку фронт силли таверна
Другая показывает как бек кобальдспп прочитал отправленное.
Где ты там что то еще увидел?
Аноним 26/05/24 Вск 19:40:34 758593 473
image.png 17Кб, 498x82
498x82
>>758578
Хотя в промпт формате мистраля есть такая хуйня, только щас посмотрев пикчи заметил как оно вставляется и что вообще существует, надо эту хуйню тоже снести
Аноним 26/05/24 Вск 19:51:45 758614 474
>>758578
>Нету ничего больше, до тебя не доходит?
Ясно, тавернододики не понимают, что за пределами того, что они видят, есть что-то ещё. Олсо, если кто-то не настолько долбоёб, как этот, то для редактирования инстракт промпта в кобольде нужно создавать адаптер темплейт и загружать его. Какой же долбоёб это придумал, охуеть просто, хардкодить дефолтные темплейты. Оказывается, уга не такой уж и кал.
https://github.com/LostRuins/koboldcpp/pull/466

>как бек кобальдспп прочитал отправленное.
Ну так он прочитал то говно, который ты ему прислал. И обернул в свою дефолтную конструкцию, которая в нём зашита хардкодом.
Аноним 26/05/24 Вск 19:57:54 758629 475
>>758614
Не совсем понятно, а причем здесь API?
мимо
Аноним 26/05/24 Вск 19:58:07 758631 476
>>758614
Вот ты тупой долбаеб, ладно хуй с тобой
Аноним 26/05/24 Вск 20:01:11 758637 477
>>758629
Потому что таверна с кобольдом по апи общается, очевидно же.
Аноним 26/05/24 Вск 20:04:33 758641 478
>>758637
Может я тупой, но причем здесь OpenAI compat API adapter и апи, по которой общается кобольд с таверной?
Аноним 26/05/24 Вск 20:14:54 758659 479
Аноним 26/05/24 Вск 20:15:07 758661 480
>>758019
>Так соя где изчезает то? В 8bit?

В ггуфе любом. Ну не совсем исчезает, время от времени выдает что-то типа - "все, не могу больше описывать эту мерзость", ты свайпаешь вправо и дальше лолей растляешь. А в exl2 соя насмерть стоит.
Аноним 26/05/24 Вск 20:18:28 758669 481
>>758563

Так и запускай как на пике.
Аноним 26/05/24 Вск 20:19:40 758671 482
>>758257

Причем тут карточка, у тебя модель просто хорошая, на русском языке тупо лучшая.
Аноним 26/05/24 Вск 20:21:47 758676 483
>>758641
Это формат API, с этим форматом вся хуйня работает. Потому и пишут, OpenAI compatible API, типа совместимость. Фактически это единственный формат API, который распространён среди нейронок. И уга, и кобольд, и таверна, всё через него работает. И вот всё, полученное по этому апи, кобольд обрабатывает своим образом, намертво зашитым. Чтобы это как-то это изменить, нужны адаптеры. А адаптеры кобольда это тупо Json объекты, которые нужно писать самому. В целом, неплохо, чтобы долбоёбы, которые считают, что "там нету ничего больше, я всё удалил" не смогли выстрелить себе в ногу, потому что без корректного формата всё сломается.
Аноним 26/05/24 Вск 20:23:21 758681 484
>>758019
>"кудере с синдромом восьмикласника" Или "Генки с синдромом младшего брата" или "Netorare история
понятно так же как египетские надписи... и что вот эта вот хуйня так интересно и увлекательно? Ну просто из интереса спрашиваю.
>>758661
>В ггуфе любом
так и спроси в issues у Жоры или может боишься что тамошние пердоли сочтут это багом и пофиксят?
Аноним 26/05/24 Вск 20:26:16 758691 485
>>758676
Ага вот только все это берется из промпта который ты отправляешь
Ты где то насмотрелся умных слов а как оно работает походу понимаешь довольно приблизительно
Зато с умным видом пиздеть тебе это не мешает
Тема которую ты скинул выше старая как говно мамонта, и реальности не отражает

По апи просто гонятеся текст, то что ты скинул просто формы которые на деле не пересылваются по апи, потому что я с хтим самым апи компилишен совершенно случайно знаком. Как с отправкой так и с его чтением из кода

Так что ты говна понаписал туповатый анонче
Аноним 26/05/24 Вск 20:28:50 758693 486
>>758669
Там ползунки на нулях и галочки не расставлены. На пике то, что базово открылось. Я потому и спрашиваю, кто может объяснить какие лучше параметры для запуска расставить
Аноним 26/05/24 Вск 20:31:15 758699 487
>>758681
>так и спроси в issues у Жоры или может боишься что тамошние пердоли сочтут это багом и пофиксят?

В том и дело что это не issue, а если и issue, то не жоры, а exl2
Аноним 26/05/24 Вск 20:32:44 758703 488
>>758693
>Там ползунки на нулях

Ползунки на нулях означает использование всех доступных ресурсов, а галочки тебе нах не нужны.
Аноним 26/05/24 Вск 20:33:50 758706 489
>>758703
Понял, спасибо, это как раз мне и нужно было знать
Аноним 26/05/24 Вск 20:39:59 758718 490
Аноним 26/05/24 Вск 20:45:09 758730 491
>>758676
>>758691
спор умного и еще умнее. Так и что в итоге то? как правильно таверну с кобольдом запускать? где шаблон главнее?
Аноним 26/05/24 Вск 20:54:10 758744 492
Посоветуйте модель для кума при спеках rtx 3060, 16 гб оперативы
Аноним 26/05/24 Вск 20:55:27 758745 493
3060 на 12 гб врам
Аноним 26/05/24 Вск 21:01:25 758752 494
image.png 24Кб, 1465x244
1465x244
image.png 16Кб, 408x129
408x129
>>758730
Есть 2 апи для генерации текста, этот одаренный скорей всего говорит о /v1/chat/completions
Там отправляется структура
Кобалд и таверна используют /v1/completions
А там отправляется просто промпт как на пик >>758528
Хуй его знает где этот полоумный откопал какие то залоченные джейсоны, для генерации через это подключение они не используются
потому что я все это чекал допилив таки свой прокси сервер
Аноним 26/05/24 Вск 21:01:38 758753 495
>>758676
>Это формат API, с этим форматом вся хуйня работает
Опенаишный формат в кобольде работает при настройке опенАи в таверне и вводе адреса с /v1/ на конце. Без него, с выбором локалки кобольда, используется кобольд-like апишка, совсем другая, с поддержкой большего числа семплеров, и само собой, без автоформатирования (просто стенка текста по промт формату).
>>758730
Пришёл Батя, случай его (то есть меня). Для всех моделей надо выбирать совместимый промт формат, а уж текст системного промта можно настраивать как угодно, хоть писать про ролеплей, хоть про "ты персонаж", промт формат этому не мешает.
Аноним 26/05/24 Вск 21:04:14 758758 496
>>758614
> хардкодить дефолтные темплейты
Ээ рили? То есть упарываясь промт инженигрингом в любомом приятном фронте можно разочароваться, соснув кобольдовского хуйца и даже не понять причину? Да не, слишком жестко чтобы быть правдой, точно ничего не путаешь? Может там для совместимости с чат режимом опенов заделали?
>>758699
> а exl2
Самое беспроблемное ибо юзает дефолтный конфиг, если он верен то будет нормально. Баги там довольно редки и фиксятся лучше чем в жоре, не смотря на гораздо меньшее внимание со стороны.
>>758718
Влияние при калибровке возможно, но оно довольно слабое.
Аноним 26/05/24 Вск 21:04:23 758759 497
>>758752
>21:01:25
>>758753
>21:01:38
Опередил, но в принципе тоже самое написал.
Кстати у простого компитишена есть преимущество в виде префила, очень помогает на закрытых сетках типа клода, а вот на гпт его совсем нет, новые модели строго чат компитишен. Но к локалкам это отношение не имеет, они все могут просто текст дополнять, можно даже без имён, ролей и темплейтов, просто хуже по качеству.
Аноним 26/05/24 Вск 21:06:18 758763 498
>>758758
>соснув кобольдовского хуйца
Кобольд в консоли пишет полный промт, всё, что там добавляется, это BOS токен (в старых версиях бывало по два раза, но вроде пофиксили (но это не точно)).
Аноним 26/05/24 Вск 21:06:53 758766 499
>>758759
Ну да, отправляет просто то что видно в консоли
Что отправляется и с каким форматом так сетка и генерирует
Удобно
Аноним 26/05/24 Вск 21:08:21 758768 500
>>758759
> очень помогает на закрытых сетках типа клода
Именно поэтому в опусе теперь все через мессаджез, но это не мешает его расчехлять для нсфв и подобного.
>>758763
Уверен что он действительно полный?
ПЕРЕКАТ Аноним # OP 26/05/24 Вск 21:11:31 758771 501
Аноним 26/05/24 Вск 21:27:13 758792 502
>>758681
Ну просто прикольная фишка, что модель шарит за анимешные жаргоны и т.д. Если кто то любит с анимешными персонажами трындеть то это облегчит создание личностей таких персонажей.
Аноним 26/05/24 Вск 21:43:11 758815 503
>>758691
Ебать же ты тупой долбоёб.

>>758730
>как правильно таверну с кобольдом запускать? где шаблон главнее?
Главнее адаптер. Если адаптера нет, то берётся шаблон, который забит в хардкорд.
Аноним 27/05/24 Пнд 00:23:44 759011 504
>>757929
> Что такого делает жора при квантовании что из модели начисто пропадает соя?
Делает сломанные ггуфы.
Аноним 27/05/24 Пнд 00:30:03 759024 505
>>758019
А разве ллама-3 из коробки этого не знает? В отыгрыш цундере более менее умеет. Яндере идет 50 на 50. Кудере не пробовал пока что, но думаю, тоже справится. С чунибье уже не уверен, вроде понимает, но не факт, что доконца.
Аноним 27/05/24 Пнд 16:51:22 759964 506
>>759024
Возможно знает максимум самые хайповые типа цундере, хз, но вот то что не может дать определения менее популярным это факт, про жанры порнухи в хентае ещё хуже. Вообще ты можешь просто попросить её перечислить все типы характеров аниме персонажей или типа того и увидишь что она знает.
Аноним 27/05/24 Пнд 21:12:51 760437 507
>>759964
Какие непопулярные типы ты имеешь в виду? Чунибье знает.
Настройки X
Ответить в тред X
15000
Добавить файл/ctrl-v
Стикеры X
Избранное / Топ тредов