Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Ответить в тред Ответить в тред
Check this out!
<<
Назад | Вниз | Каталог | Обновить | Автообновление | 532 108 46
Локальные языковые модели (LLM): LLaMA, Mistral, Command-R и прочие №62 /llama/ Аноним 26/05/24 Вск 21:10:36 758770 1
Llama 1.png 818Кб, 630x900
630x900
Альфа от контек[...].png 121Кб, 3090x1830
3090x1830
KL-divergence s[...].jpg 223Кб, 1771x944
1771x944
Самый ебанутый [...].jpg 2423Кб, 3000x4000
3000x4000
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.

Здесь и далее расположена базовая информация, полная инфа и гайды в вики https://2ch-ai.gitgud.site/wiki/llama/

LLaMA 3 вышла! Увы, только в размерах 8B и 70B. Промты уже вшиты в новую таверну, так же последние версии кобольда и оригинальной ллама.цпп уже пофикшены.

Базовой единицей обработки любой языковой модели является токен. Токен это минимальная единица, на которые разбивается текст перед подачей его в модель, обычно это слово (если популярное), часть слова, в худшем случае это буква (а то и вовсе байт).
Из последовательности токенов строится контекст модели. Контекст это всё, что подаётся на вход, плюс резервирование для выхода. Типичным максимальным размером контекста сейчас являются 2к (2 тысячи) и 4к токенов, но есть и исключения. В этот объём нужно уместить описание персонажа, мира, истории чата. Для расширения контекста сейчас применяется метод NTK-Aware Scaled RoPE. Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, Llama 3 обладает базовым контекстом в 8к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз без существенной потери качества.

Базовым языком для языковых моделей является английский. Он в приоритете для общения, на нём проводятся все тесты и оценки качества. Большинство моделей хорошо понимают русский на входе т.к. в их датасетах присутствуют разные языки, в том числе и русский. Но их ответы на других языках будут низкого качества и могут содержать ошибки из-за несбалансированности датасета. Существуют мультиязычные модели частично или полностью лишенные этого недостатка, из легковесных это openchat-3.5-0106, который может давать качественные ответы на русском и рекомендуется для этого. Из тяжёлых это Command-R. Файнтюны семейства "Сайга" не рекомендуются в виду их низкого качества и ошибок при обучении.

Основным представителем локальных моделей является LLaMA. LLaMA это генеративные текстовые модели размерами от 7B до 70B, притом младшие версии моделей превосходят во многих тестах GTP3 (по утверждению самого фейсбука), в которой 175B параметров. Сейчас на нее существует множество файнтюнов, например Vicuna/Stable Beluga/Airoboros/WizardLM/Chronos/(любые другие) как под выполнение инструкций в стиле ChatGPT, так и под РП/сторитейл. Для получения хорошего результата нужно использовать подходящий формат промта, иначе на выходе будут мусорные теги. Некоторые модели могут быть излишне соевыми, включая Chat версии оригинальной Llama 2. Недавно вышедшая Llama 3 в размере 70B по рейтингам LMSYS Chatbot Arena обгоняет многие старые снапшоты GPT-4 и Claude 3 Sonnet, уступая только последним версиям GPT-4, Claude 3 Opus и Gemini 1.5 Pro.

Про остальные семейства моделей читайте в вики.

Основные форматы хранения весов это GGML и GPTQ, остальные нейрокуну не нужны. Оптимальным по соотношению размер/качество является 5 бит, по размеру брать максимальную, что помещается в память (видео или оперативную), для быстрого прикидывания расхода можно взять размер модели и прибавить по гигабайту за каждые 1к контекста, то есть для 7B модели GGML весом в 4.7ГБ и контекста в 2к нужно ~7ГБ оперативной.
В общем и целом для 7B хватает видеокарт с 8ГБ, для 13B нужно минимум 12ГБ, для 30B потребуется 24ГБ, а с 65-70B не справится ни одна бытовая карта в одиночку, нужно 2 по 3090/4090.
Даже если использовать сборки для процессоров, то всё равно лучше попробовать задействовать видеокарту, хотя бы для обработки промта (Use CuBLAS или ClBLAS в настройках пресетов кобольда), а если осталась свободная VRAM, то можно выгрузить несколько слоёв нейронной сети на видеокарту. Число слоёв для выгрузки нужно подбирать индивидуально, в зависимости от объёма свободной памяти. Смотри не переборщи, Анон! Если выгрузить слишком много, то начиная с 535 версии драйвера NVidia это может серьёзно замедлить работу, если не выключить CUDA System Fallback в настройках панели NVidia. Лучше оставить запас.

Гайд для ретардов для запуска LLaMA без излишней ебли под Windows. Грузит всё в процессор, поэтому ёба карта не нужна, запаситесь оперативкой и подкачкой:
1. Скачиваем koboldcpp.exe https://github.com/LostRuins/koboldcpp/releases/ последней версии.
2. Скачиваем модель в gguf формате. Например вот эту:
https://huggingface.co/Sao10K/Fimbulvetr-11B-v2-GGUF/blob/main/Fimbulvetr-11B-v2.q4_K_S.gguf
Можно просто вбить в huggingace в поиске "gguf" и скачать любую, охуеть, да? Главное, скачай файл с расширением .gguf, а не какой-нибудь .pt
3. Запускаем koboldcpp.exe и выбираем скачанную модель.
4. Заходим в браузере на http://localhost:5001/
5. Все, общаемся с ИИ, читаем охуительные истории или отправляемся в Adventure.

Да, просто запускаем, выбираем файл и открываем адрес в браузере, даже ваша бабка разберется!

Для удобства можно использовать интерфейс TavernAI
1. Ставим по инструкции, пока не запустится: https://github.com/Cohee1207/SillyTavern
2. Запускаем всё добро
3. Ставим в настройках KoboldAI везде, и адрес сервера http://127.0.0.1:5001
4. Активируем Instruct Mode и выставляем в настройках пресетов Alpaca
5. Радуемся

Инструменты для запуска:
https://github.com/LostRuins/koboldcpp/ Репозиторий с реализацией на плюсах
https://github.com/oobabooga/text-generation-webui/ ВебуУИ в стиле Stable Diffusion, поддерживает кучу бекендов и фронтендов, в том числе может связать фронтенд в виде Таверны и бекенды ExLlama/llama.cpp/AutoGPTQ
https://github.com/ollama/ollama , https://lmstudio.ai/ и прочее - Однокнопочные инструменты для полных хлебушков, с красивым гуем и ограниченным числом настроек/выбором моделей

Ссылки на модели и гайды:
https://huggingface.co/models Модели искать тут, вбиваем название + тип квантования
https://rentry.co/TESFT-LLaMa Не самые свежие гайды на ангельском
https://rentry.co/STAI-Termux Запуск SillyTavern на телефоне
https://rentry.co/lmg_models Самый полный список годных моделей
https://ayumi.m8geil.de/erp4_chatlogs/ Рейтинг моделей для кума со спорной методикой тестирования
https://rentry.co/llm-training Гайд по обучению своей лоры
https://rentry.co/2ch-pygma-thread Шапка треда PygmalionAI, можно найти много интересного
https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing Последний известный колаб для обладателей отсутствия любых возможностей запустить локально

Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде

Предыдущие треды тонут здесь:
>>751232 (OP)
>>740739 (OP)
Аноним 26/05/24 Вск 21:12:44 758774 2
Мужики, мне сказали я промахнулся тредом, помогите пожалуйста >>758754 →
Аноним 26/05/24 Вск 21:13:21 758775 3
>>758768 →
>Именно поэтому в опусе теперь все через мессаджез
Но там же префил вроде работает? Хотя я подробно не смотрел. В гпт там вообще адовый костыль с сообщением "вот кусок, продолжай как можешь", по моему только проблемы с такого компитишена.
>Уверен что он действительно полный?
Код не читал, так что процентов 90.
Аноним 26/05/24 Вск 21:15:24 758778 4
>>758774
В том сервисе за кудосы, можно и вообще бесплатно, но с очередями. Помни, что твои запросы обслуживают рандомные аноны, и они вполне могут логировать все запросы.
Если есть нормальное железо, то можешь запускать у себя, максимум свободы, инструкции все в шапке.
Аноним 26/05/24 Вск 21:16:26 758779 5
.png 2558Кб, 1814x1348
1814x1348
Ну отлично блядь. Позавчера нейронка не лупилась и не шизила.
Сегодня лупится и шизит на тех же параметрах. ДА ЗА ЧТО БЛЯДЬ?!
Аноним 26/05/24 Вск 21:17:23 758781 6
>>758779
Таверночник подсирает. И/или герыч, если через него запускаешь. Это норма, привыкай, каждая установка таверны персонализирована.
Аноним 26/05/24 Вск 21:19:42 758784 7
>>758781
Так я её не обновлял.Там же вроде отдельный батник для обновления и запуска есть для такого.
АШ ТРЯСЕТ БЛЯДЬ
Аноним 26/05/24 Вск 21:24:30 758788 8
>>758784
>Так я её не обновлял.
Код на рандомные подсирания уже вшит. Можешь даже не искать его, он скрывается в глубинах зависимостей. Некоторые неразумные неофиты думают, что это крутят коммерческие сетки, но такие же приколы на локалках гарантируют, что всё это таверна.
Аноним 26/05/24 Вск 21:26:25 758791 9
>>758784
где то промпт криво сохранился, удали сообщения с шизой и нажми повторная генерация
Аноним 26/05/24 Вск 21:29:16 758795 10
.png 341Кб, 439x426
439x426
>>758791
Я полностью с нового чата и пробовал и не раз уже. Лупа стабильно приходит через 5-7 сообщений.

>>758788
Трщ, Прокопенко, ну вы чего тайны раньше срока раскрываете?
Аноним 26/05/24 Вск 21:30:00 758797 11
>>758792 →
>это облегчит создание личностей таких персонажей
Больше штампов Богу штампов! А то в самом аниме они ещё не настоебали, ага.
Аноним 26/05/24 Вск 21:30:28 758798 12
>>758775
> Но там же префил вроде работает?
Да, закидываешь типа сообщение от ассистента и оно развязывает язык. Хуй знает только в какую именно структуру оно превращается у них там перед скармливанием модели, при желании вполне могут подрезать и все эти префиллы подустанут.
Аналогично там продолжение в таверне часто косячно работает и все такое.
>>758779
Ретроградный меркурий.
Просто тот промт ей был понятен а тут ты ее перегрузил. Или может такие отличаются параметры.
Аноним 26/05/24 Вск 21:33:21 758801 13
>>758792 →
> Ну просто прикольная фишка, что модель шарит за анимешные жаргоны и т.д.
Чувак, нормальная модель знает лоры анимца, игорей, гач и прочего. Вполне можно обсудить твою вайфу просто по указанию имени и копирайта.
Карточки некоторые тоже потому так хорошо и работают, не только следование промту, но и подключение собственных знаний чтобы разыгрывать что-то в оригинальном сеттинге если не указано иное, подключать персонажей из серии в историю и т.д.
Насчет той модели что была в прошлых постах - хз.
Аноним 26/05/24 Вск 21:34:09 758803 14
>>758779
>>758795
Просто тебе в прошлый раз повезло, а сейчас нет. Стохастический попугай.
Аноним 26/05/24 Вск 21:36:28 758806 15
>>758788
>>758781
Причём тут таверна вообще? Лупы это следствие внутриконтекстного обучения. Распознаёт паттерн и схлопывается на нём.
Аноним 26/05/24 Вск 21:38:36 758807 16
image.png 147Кб, 853x846
853x846
Вот кстати как это все выглядит в апи, через обычное подключение таверна кобальд
Аноним 26/05/24 Вск 21:50:50 758830 17
000.png 14Кб, 932x141
932x141
Аноним 26/05/24 Вск 21:52:40 758833 18
>>758830
>порядок семплеров тоже захардкодили. Как и длину контекста
Год назад? Заебись, актуальную инфу нашел
Только вот все это настраивается уже давно
Аноним 26/05/24 Вск 22:15:49 758861 19
>>758833
Весь openAI апи - хардкод. Опознание картинок - хардкод. С таким софтом разве что умалишённый будет связываться, лол. Всё работает не так, как ты хочешь, а как-нибудь.
Аноним 26/05/24 Вск 22:25:14 758875 20
image.png 25Кб, 385x211
385x211
> Гайд для ретардов для запуска LLaMA без излишней ебли под Windows. Грузит всё в процессор, поэтому ёба карта не нужна, запаситесь оперативкой и подкачкой:
Вот такое вылезло, когда запустил koboldcpp.py (exe нету)

Скачал кинтер и не помогло даже
Аноним 26/05/24 Вск 22:27:02 758877 21
>>758875
В смысле эксе нету?
Аноним 26/05/24 Вск 22:28:24 758878 22
>>758877
Я долбаеб конечный походу
Аноним 26/05/24 Вск 22:30:16 758883 23
2024-05-2700-29[...].png 31Кб, 1175x412
1175x412
Аноним 26/05/24 Вск 22:37:32 758894 24
>>758883
Да, в этом и было дело. Извините что накакал в треде.

Только вот я не очень понимаю как таверну запустить вместе с кобольдом теперь. Не вижу настроек в таверне где можно выставить кобольда
Аноним 26/05/24 Вск 22:39:01 758898 25
image.png 34Кб, 436x203
436x203
Аноним 26/05/24 Вск 22:40:58 758900 26
2024-05-2700-40[...].png 25Кб, 971x426
971x426
Аноним 26/05/24 Вск 22:42:33 758903 27
Аноним 26/05/24 Вск 22:45:36 758907 28
Аноним 26/05/24 Вск 22:57:35 758917 29
image.png 4Кб, 407x70
407x70
Вопросик такой: Вот я чисто создал для теста тему и он 250 токенов генерит достаточно долго. Это я настройки каловые поставили где-то или это нормально? Все сделал по гайду из шапки

модель
koboldcpp/Fimbulvetr-11B-v2.q4_K_S

Нужно что-то выбрать где циферка перед "B" меньше?
Аноним 26/05/24 Вск 22:58:30 758921 30
>>758779
Она переобучилась на твоих ответах, теперь надо перекачивать модель.
Аноним 26/05/24 Вск 23:00:22 758923 31
>>758917
железо у тебя какое? настройки запуска?
долго - понятие относительное, сколько токенов в секунду генерация пишет?
Аноним 26/05/24 Вск 23:05:22 758933 32
image.png 26Кб, 1077x180
1077x180
>>758923
> железо у тебя какое?
2060 super и интел 5 10440

Настройки запуска никак не менял, так что стандартные видимо. Все делал по гайду из шапки
Аноним 26/05/24 Вск 23:06:30 758935 33
Оперативы 16 гигабутов
Аноним 26/05/24 Вск 23:11:47 758940 34
>>758933
кек

Ну, скорость для процессора средняя
Двухканал память?
Укажи количество слоев 40 при запуске кобальда, вроде в 8 должно войти, быстрее будет
Аноним 26/05/24 Вск 23:13:33 758943 35
изображение.png 173Кб, 1496x989
1496x989
>>758323 →
>Вообще ещё есть идея натравить суммаризатор на дамп архивача, взяв оттуда все достаточно большие посты, и получить этакую базу данных со всеми копипастами и кулсторями двача с оглавлением.
Таки взялся за эту идею. С лламой3 8b вроде бы неплохо выходит. Ещё заставил её теги придумывать.
Аноним 26/05/24 Вск 23:22:27 758950 36
>>758496 →
--gradio-auth самое простое.

>>758499 →
Да нет, даже в убабуге можно сделать, переписав тот самый инструкт (чел выше все верно сделал).
А уж по апи тебе ваще льется все без участия убабуги (нахой бы она лезла в промпт), а Таверна тебе все кидает в консоль.
Я юзаю карточки от первого лица уже с осени, и через родной фронт убабуги, и через силлитаверну, и через апи непосредственно в самописных скриптах. Нигде не подводит.

>>758521 →
Можно еще в систем или ассистент теги завернуть, поэкспериментировать.

>>758534 →
Ну за кобольд не скажу, но если он так делает — то он верх шизы.
Типа, по дефолту у тебя силлитаверна это оборачивает в такой промпт и потом кобольд еще раз в него же оборачивает?
Вряд ли Лост настолько тупой в пизду.
Если по апи ни у кого ничего не оборачивается, с чего бы у кобольда оборачивалось?

>>758565 →
Ты генерируешь хуйню. =)
Сетки прекрасно генерируют даже без промптов, если это нормальные сетки. А дельфин какой-нибудь усрется на любом темплейте, хули толку-то.

>>758569 →
Out Of Character — не от лица персонажа.

Да, коммандер плюс порадовал. =)

>>758614 →
Бля, ну если Лост правда настолько тупой — то я извиняюсь, что я его считал не дегенератом…

>>758641 →
OpenAI-like API

>>758676 →
Но ведь на норм модели ничего не ломается. =) Тут уж сорян, но как есть.

>>758730 →
Предположительно, кобольд лучше выкинуть нахуй, если он правда имеет захардкоженные инструкции.

А таверну так и запускать — стираешь все говно, пишешь карточку от первого лица, пиздато работает.

>>758752 →
О, пасиба, значит Лост таки не совсем тупой?

>>758753 →
База.
Главное — обернуть в верный промпт-формат, а уж что там написано — на вкус и цвет.

>>758759 →
Кмк, чат-модели в принципе хуже из-за этого, а инстракт вполне норм.

>>758797
Ну, в самом аниме с ними нельзя пообщаться, а тут… Кому-то хочется, че ты. =)

>>758875
Прости, но это очень смешно! =D
Аноним 26/05/24 Вск 23:23:53 758952 37
>>758940
>кек
Ты че мой комп обсираешь?

>Двухканал память?
Не знаю что это значит но плашки у меня две

Спасибо большое, попробую
Аноним 26/05/24 Вск 23:36:56 758970 38
Аноним 26/05/24 Вск 23:38:44 758972 39
0000.png 61Кб, 1192x842
1192x842
>>758950
>значит Лост таки не совсем тупой?
Если опен АИ апи или опознание картинок, то всё плохо.
Аноним 27/05/24 Пнд 00:59:53 759055 40
DK6mDMrfDkg.jpg 116Кб, 512x512
512x512
Уважаемые анилингусы, помогите залетному с настройками ебучей ламы.

На днях накатил кобольд и файнтюновую ламу3-8б, которую обсуждал какой то анон в предыдущем треде. Подключил к таверне, прогнал, попиздел. Всё вроде отлично, но она страшно шизит на русском. Все ее ответы это прямой и дословный перевод с английского. Даже в карточке, которая описана как обычный чат бот, она либо пишет, что не понимает русский, либо переводит слово в слово с кучей ошибок. В рп на славянском окончательно сходит с ума и уходит в лупы, повторяя одно и то же предложение из раза в раз. Я пытался переписать карточку персонажа полностью на русском, пытался переписать систем промт, но эффект нулевой. Учитывая, как восхваляли тут новую ламу и ее разноязычный датасет это все выглядит совсем странно.

Вдогонку же вопрос по параметрам и пресетам, на что они вообще влияют? Я перепробовал всё, но эффекта почти не заметил. Где вообще найти нормальный гайд по настройке? Методом тыка я выяснил, что влияет исключительно оформление карточки. Пресеты я перепробовал все, и дефолтный инструкт для третьей ламы и альпаку и прочее. Качество генерации это не изменяет и характеры персонажей вообще не держит. Вспоминаю свой опыт двухлетней давности с чайной и понимаю, что та гораздо лучше справлялась несмотря на то что явно была тупее.
Аноним 27/05/24 Пнд 01:03:45 759060 41
>>758970
бля... моя модель не знает, что такое wanko...
отфыграть нерда она не сможет
а убабуга ёбаная всё еще не умеел в командер, сука.
>>759055
давай начнем с того, что ты опишешь свой железячный сетап.
и я могу тебя только по убабуге проконсультировать, хотя думаю, они с кобольдом сильно должны быть похожи.
Аноним 27/05/24 Пнд 01:07:11 759065 42
>>759060
>давай начнем с того, что ты опишешь свой железячный сетап.
Да там все прилично для такой модели. 12 гигабайт врам и 16 оперативной. 35 слоев я поставил на видеокарту, так что генерирует шустро (где то в два раза быстрее, чем на модели из шапки, которая на 13б)
Аноним 27/05/24 Пнд 01:08:33 759067 43
>>759055
Не ожидай от маленьких моделей хорошего русского, тем более от лламы 3. Если надо русский - юзай Command-R
Аноним 27/05/24 Пнд 01:09:43 759069 44
>>759055
Тут недавно говорили, что 8б вресия третьей лламы слишком мала, чтобы понимать великий и могучий. Либо качешь 70б версию, либо ищешь нейронки, которые могут в русский официально. Но они тоже могут шизить.
Как по мне хороша aya-23, но другие Аноны говорили, что она тоже может шизить.
Ещё тут рекомендовали suzume-llama-3-8B-multilingual. Но у меня и ещё одного Анона, она тоже шизила и была слишком "соевой". Наверное, ты её и скачал, кстати.

>>759060
>давай начнем с того, что ты опишешь свой железячный сетап.
о, кстати, хотел спросить, а как именно железо может влиять на генерацию кроме скорости, естесно. Помню генерил на проце и ллама часто жизить начинала независимо от модели, а на гпу с cublas вродё реже шизит.
Аноним 27/05/24 Пнд 01:12:10 759071 45
>>759055
Можешь заняться промт инженигрингом и интегрировать инструкцию на дополнительный cot где модель сначала будет думать на инглише, говорят тогда ответы на русском улучшаются. Но 8б ллама3 хоть и неплоха в языке для такого размера, все еще слабовата в нем.
> вопрос по параметрам и пресетам, на что они вообще влияют
Ставь simple-1 и забей. Можешь покрутить температуру и штрафы за повтор, но сильно лучше не отклоняйся. Можешь еще min-p шаблон, но он довольно шизоидный, хз как с ним что-то нормальное можно катать.
Если же ты про форматы промта - желателен тот с которым тренилась модель, разница может быть существенной. Возможно в этом причина твоих неудач, для 3й лламы в ласт версиях был готовый, главное чтобы опять жора не поломался.
>>759060
> а убабуга ёбаная всё еще не умеел в командер, сука.
Что?
> могу тебя только по убабуге проконсультировать
Проконсультируй
Аноним 27/05/24 Пнд 01:12:26 759073 46
>>759065
Со скрипом можешь и командира попробовать, он в русский хоть как-то может. Мне кажется, что гонять мелкое 8В на русском это вообще уебищный вариант. Уж лучше переводить в гугле. А если уж сильно хочется, то напиши название модельки (файнтюна). Покажи настройки семплера, промпт формат, системный промпт и саму карточку. На русском шизить может на любом этапе. Даже просто потому что может.
Аноним 27/05/24 Пнд 01:13:15 759074 47
>>759065
ты лучше покажи пример генерации который тебя не устраивает.
Мы оценим норма это для твоего сетапа или нет.
Но вообще да, с 12 врам я бы особо много не ждал.
>>759069
>а как именно железо может влиять на генерацию
в основном может хуйню выдавать если у тебя старая карта, из-за чего старая куда и/или тесла p40, из-за чего ты привязан к ллама.цпп. вот например я страдаю с коммандером, потому что криврукие обезьяны никак не впилят его по человечески в убабугу с лламой.
Аноним 27/05/24 Пнд 01:13:53 759075 48
>>759071
>Проконсультируй
без скринов с тем что и как ты запускаешь - мы ничего не скажем
Аноним 27/05/24 Пнд 01:15:51 759076 49
>>759071
>Можешь покрутить температуру и штрафы за повтор
у него наверняка какая-то детская ошибка, не нужно ему эти параметры крутить сейчас.
Аноним 27/05/24 Пнд 01:18:25 759081 50
>>759074
>в основном может хуйню выдавать если у тебя старая карта, из-за чего старая куда и/или тесла p40,
Та-а-ак... Генерю на M40 24GB. Дрова стоят с кудой 12.4. Какова вероятность пиздеца? Если я правильно нагуглил помню, то M40 - это одна из старейших. Даже старше P40. Но у меня в экспериментальной ветке кобольда командер работает лучше лламы... Может в убабуге тоже есть поддержка в каком-то экспериментальном релизе?
Аноним 27/05/24 Пнд 01:22:06 759085 51
Screenshot1.jpg 161Кб, 987x826
987x826
Screenshot2.jpg 61Кб, 466x765
466x765
>>759067
>не ожидай от маленьких моделей хорошего русского
Тут самый прикол в том, что модель из шапки, которая вроде как файнтюн вообще ламы второй, на русском отвечает точно так же. Разницы ровно ноль. По этому меня дурит и я не понимаю, почему тогда было столько разговоров о том, что третья лама гораздо лучше может в русский.

>если надо русский - юзай Command-R
Я сильно сомневаюсь, что даже на задушенном кванте у меня запустится командор.

>>759073
>покажи настройки семплера, промпт формат, системный промпт и саму карточку
Прикрепил. Я пробовал разные, но в основном сидел на этих. Разницы не заметил. Моделька Llama-3-Lumimaid-8B.

>>759071
>ставь simple-1
Либо сани мудацкие, либо я мудак, но simple-1 у меня нигде нет.
Аноним 27/05/24 Пнд 01:22:49 759086 52
>>759081
>M40
ну и нахуя ты её купил? Все же тут рекомендуют p40.
Я не знаю, тут ни у кого скорее всего кроме тебя такой карты нет.
примеры генерации давай, заебал.
Аноним 27/05/24 Пнд 01:25:33 759089 53
>>759085
>я не понимаю, почему тогда было столько разговоров о том, что третья лама гораздо лучше может в русский
Ллама3 имеет мало русского в датасете, даже 70Б, а восьмёрка ещё и слишком маленькая для серьёзной мультиязычности. Нормально в русский умеют только Command-R/Command-R+, и Клод.
Аноним 27/05/24 Пнд 01:29:08 759090 54
1.png 25Кб, 708x287
708x287
>>759055
Все тюны третьей лламы говно. А 90% даже чистой лламы в ггуфах - поломаны. Качай чистую, на русском пиздит сносно, хотя иногда коверкает слова, но это лучшее, что можно найти в таком размере.
>вопрос по параметрам и пресетам, на что они вообще влияют
Если выше температура - больше шизы, выше мин п - меньше рандома в ответах.
Аноним 27/05/24 Пнд 01:29:46 759091 55
>>759086
>примеры генерации давай, заебал.
Как бы тебе сказать... Я все примеры удалял. Да и не тестил в полноценный РП... Сейчас попробую нагенерить, что-нибуть. Есть какие-нибудь предпочтения в плане модели, карточки?
И я не этот >>759055 Анон, а другой. Но suzume-llama-3-8B-multilingual у меня тоже есть на харде.
Аноним 27/05/24 Пнд 01:31:05 759092 56
Аноним 27/05/24 Пнд 01:36:01 759096 57
>>759091
зачем мне твои примеры, чел?
Я спрашивал у человека, который жалуетс на проблему.
>>759092
дежурные ночные ванги локального-кум-треда раскинули свои гадальыне карты
Аноним 27/05/24 Пнд 01:38:45 759098 58
>>759096
>зачем мне твои примеры, чел?
Я хуй знает, ну ты же попросил... Не могу же я просто проигноривать тебя?
Я так и подумал, что ты просил у того Анона, поэтому и уточнил, что я другой. Ну ладненько... Всё равно спасибо, что пояснил.
Аноним 27/05/24 Пнд 01:45:17 759101 59
>>759085
Какая версия таверны?
Аноним 27/05/24 Пнд 01:47:33 759102 60
Аноним 27/05/24 Пнд 01:49:08 759103 61
>>759085
> Я сильно сомневаюсь, что даже на задушенном кванте у меня запустится командор.
В четвёртом запуститься должен.
> Прикрепил. Я пробовал разные, но в основном сидел на этих. Разницы не заметил. Моделька Llama-3-Lumimaid-8B
Поставь чистую лламу без вот этого говна. И запусти. Если все равно будет шиза, попробуй solar uncensored.
Аноним 27/05/24 Пнд 01:51:22 759104 62
>>759102
Так в 12 версии нет ban eos token. У меня почему-то только skip special tokens опция. В чем прикол?
Аноним 27/05/24 Пнд 01:57:47 759105 63
Screenshot3.jpg 47Кб, 943x269
943x269
>>759096
>Я спрашивал у человека, который жалуетс на проблему.
Ответы в таком стиле. Я тестил модель на кумопригодность, но она обсиралась даже с генерацией sfw-действий. Но только на русском, что характерно. Карточка эта дефолтная, которая осталась у меня с древней таверны, когда я кумил еще через жопен турбо.

>>759104
>Так в 12 версии нет ban eos token.
В душе не ебу, о чем ты, братик. У меня API стоит кобольт классик, а не текст комплетишен. Может в этом дело.

>>759103
>В четвёртом запуститься должен.
Придется попробовать видимо. Не хочу ебаться с переводами. Хочу просто нормальную сессию русифицированной дрочки.
Аноним 27/05/24 Пнд 02:01:35 759106 64
>>759105
ох срань...
а это только на лламе3 или на всех остальных тоже?
Аноним 27/05/24 Пнд 02:04:39 759107 65
>>759085
> пик2
Вот там где universal-light оно и должно быть. С подобным семплингом как раз шиза ожидаема, а в русском может быть повышенное количество ошибок. Как бы там не верили сектанты в min-p, но это так.
Аноним 27/05/24 Пнд 02:06:15 759108 66
>>759106
Ты про пример генерации? Я тестил только Llama-3-Lumimaid-8B и Fimbulvetr-11B. Ответы в обоих случаях примерно одинаковые. С вкраплениями каких то ебанутых конструкций (у меня была фраза "украинский skirt") и обшей шизой, когда модель не понимала что делаю я, и что вообще делала она одно сообщение назад.

>Вот там где universal-light оно и должно быть.
У меня там есть только simple-proxy-for-tavern.
Аноним 27/05/24 Пнд 02:08:18 759109 67
>>759107
>Вот там где universal-light оно и должно быть.
У меня там есть только simple-proxy-for-tavern.

Забыл отреплаить твой ответ
Аноним 27/05/24 Пнд 02:08:40 759110 68
>>759105
> Придется попробовать видимо. Не хочу ебаться с переводами.
Буквально одну кнопку нажать. Можно даже сделать автоматически перевод. То есть по факту будешь получать текст на русском. Единственный минус, это все еще гуглоперевод со всеми вытекающими. А командира будешь долго ждать со скоростью 1 токен в секунду.
Ну или модельку умеющую в русик ставь.
Аноним 27/05/24 Пнд 02:09:52 759111 69
>>759104
На третьей лламе нельзя банить eos и скипать спциальные токены, потому что иначе она не затыкается и начинает писать ответы за всех сразу.
Аноним 27/05/24 Пнд 02:10:38 759112 70
>>759110
>Единственный минус, это все еще гуглоперевод со всеми вытекающими.
Я про это и говорю. Ответы там будут такие же шизоидные, как если бы я без перевода просто на русском общался с ламой.
Аноним 27/05/24 Пнд 02:28:29 759114 71
>>759112
Нет. Там только перевод говном будет. Ответы будут нормальные.
Аноним 27/05/24 Пнд 02:29:12 759115 72
>>759111
Она это и без бана делает.
Аноним 27/05/24 Пнд 02:29:19 759116 73
Пора признать очевидное.

ЛАМА 3 - ГОВНО ЕБАНОЕ. ОЧЕНЬ ТРУДНО ЗАПУСТИТЬ БЕЗ ОШИБОК. ОЧЕНЬ ЛЕГКО ЛОМАЕТСЯ. ПЛОХО МОЖЕТ В РУССКИЙ ЯЗЫК. НЕ ПОДДАЕТСЯ ФАЙНТЬЮНАМ ВПРИНЦИПЕ.
Аноним 27/05/24 Пнд 02:33:09 759123 74
>>759116
Альтернативы есть? Только без командиров 105В.
Аноним 27/05/24 Пнд 02:36:06 759125 75
>>759123

Мистраль и его файтьюны, микстраль, командир, квен, мику.
Аноним 27/05/24 Пнд 02:36:29 759126 76
>>759115
Без бана это делают только сломанные кванты.
Аноним 27/05/24 Пнд 02:38:43 759129 77
>>759125
> Мистраль и его файтьюны
Говно.
> микстраль, командир, квен, мику.
Ты сравниваешь модельку 8В и 70В?
Аноним 27/05/24 Пнд 02:39:20 759130 78
>>759126
Получается, все кванты сломаны.
Аноним 27/05/24 Пнд 02:41:56 759131 79
>>759116
>ОЧЕНЬ ТРУДНО ЗАПУСТИТЬ БЕЗ ОШИБОК.
Запускается без ошибок в убабуге. То, кванты сломаны - проблема квантов. Отлично может в русский язык, по сути, лучше русскоязычных моделей и нет.
Да, у лламы есть проблема с тюнами, потому что датасеты говно, а люди, которые занимаются тюнами берут дпо и прогоняют его дефолтным трейнером. Система дошла до того уровня сложности, когда орочьи технологии не работают и обмазывая модель говном - уже не получается сделать её "лучше".

Всякие хералион b модели даже не рассматриваю, заебёшься ждать вывода. А мику оказалась говном, уступающим даже 8b лламе на несколько порядков.
Аноним 27/05/24 Пнд 02:50:39 759134 80
>>759129
>Говно

Солар и его файнтьюны ебут ламу 8В.
А Солар это мистраль.

>Ты сравниваешь модельку 8В и 70В?

Понятно что мистраль сравнивается с 8В, командир, мику и микстраль с 70В, а квен и с тем и с другим.

>Отлично может в русский язык, по сути, лучше русскоязычных моделей и нет.

Толсто блядь, даже 70В отсасывает у 34В командира, про 105В я просто молчу.
Аноним 27/05/24 Пнд 02:51:52 759135 81
>>759131
>мику оказалась говном, уступающим даже 8b лламе

Ты просто вытек уже из треда, прекрати.
Аноним 27/05/24 Пнд 02:53:10 759136 82
>>759134
> Солар и его файнтьюны ебут ламу 8В.
> А Солар это мистраль.
Ебет в чем? В русике?
> Понятно что мистраль сравнивается с 8В, командир, мику и микстраль с 70В, а квен и с тем и с другим.
За 70В не скажу, не запускал. А на уровне 8В ллама все-таки получше.
Аноним 27/05/24 Пнд 02:55:36 759137 83
>>759135
C русской карточкой на русские сообщения эта дрисня отвечала транслитом. Нахуй это говно ёбаное.
Аноним 27/05/24 Пнд 02:56:56 759138 84
>>759116
Давайте делать правильные выводы. На сегодняшний день, русский язык сосёт. И даже всякие командиры куда лучше будут говорить на английском.
Аноним 27/05/24 Пнд 03:03:02 759141 85
>>759137

Так она не обучалась на русском.
Аноним 27/05/24 Пнд 03:07:45 759147 86
image.png 986Кб, 1409x1116
1409x1116
>>759138
>русский язык сосёт

Нет. Командир 34B выдает текст пикрелейтед. Это автоматом отправляет все остальные модели в мусорку, тут на равных с чатгопотой бой идет.
Аноним 27/05/24 Пнд 03:33:19 759176 87
>>759147
> сожмявшись
> шепотите
> между них
Llama-8B-instruct выдаёт тексты такого же уровня, но на английском и при этом не выдумывает несуществующих слов.
Аноним 27/05/24 Пнд 03:33:23 759177 88
1.png 93Кб, 716x821
716x821
Скачал командира 35b, ну такое себе. Много шизы, точно так же коверкает слова. В целом, чуть получше 8b лламы, но не намного.
Аноним 27/05/24 Пнд 03:35:44 759178 89
>>759085
>Я сильно сомневаюсь, что даже на задушенном кванте у меня запустится командор.
Используй aya-23-8B. Она хорошо на русском говорит. Это что-то типа командора на минималках.
Аноним 27/05/24 Пнд 03:37:12 759181 90
>>759177
Я думаю, что ощутимо лучше. Другой вопрос, что при долгом ожидании сообщения или тем более, когда ты вложил реальные бабки в Р40, хочется чего-то совсем на другом уровне. А получаем плюс минус ту же парашу с теми же проблемами.
Аноним 27/05/24 Пнд 03:42:39 759188 91
>>759176
>>759147
А чатгопота выдаёт. У неё хуёвый русский.
Аноним 27/05/24 Пнд 03:43:27 759189 92
>>759176
>Llama-8B-instruct выдаёт тексты такого же уровня, но на английском

На английском тексты такого уровня выдает много что, тот же мистраль.
А ты покажи на русском.
Аноним 27/05/24 Пнд 03:51:24 759197 93
>>759188
Кому не похуй на гопоту? Она тебя зарепортит нахуй за такую карточку.
>>759189
> На английском тексты такого уровня выдает много что, тот же мистраль.
Вот только мистраль отказывается отыгрывать персов, у всех персов одна и та же соевая личность.
> А ты покажи на русском.
Я могу перевести в яндекс переводчике нормальный английский текст. И он, без всякой иронии, выебет и гугл, и командира, и кого хочешь. Единственная проблема, что к тебе могут постучать в дверь после таких запросов.
Аноним 27/05/24 Пнд 03:52:30 759199 94
>>759181
>когда ты вложил реальные бабки в Р40

Она копейки стоит, 1/10 от 4090, и сама картонка - говно. Что ты там ожидаешь от нее?
Аноним 27/05/24 Пнд 03:54:17 759200 95
>>759181
>А получаем плюс минус ту же парашу с теми же проблемами.
Не совсем. Когда ты можешь быстро рероллить умную семидесятку (что требуется не так уж часто) - ощущения совсем другие.
Аноним 27/05/24 Пнд 04:01:51 759209 96
>>759199
Я не от карточки, а от сетки ожидаю.
Аноним 27/05/24 Пнд 04:02:57 759212 97
>>759197
>Вот только мистраль отказывается отыгрывать персов

А ты его вообще запускал, лол? Какую версию и когда?
Аноним 27/05/24 Пнд 04:03:40 759213 98
>>759200
Если можешь быстро рероллить 70В, то да. Ощущения наверняка получше. Но у меня она генерит очень медленно, так как я на цпу. И получается, что незначительное улучшение качества не стоит значительного увеличения ожидания.
Аноним 27/05/24 Пнд 04:05:12 759215 99
>>759212
Запускал. И чистый мистраль, и мейд всяких, солар. Новенький мистраль вышел, тоже запустил. Но его только запустил на пару сообщений. Долго его не тестил.
Аноним 27/05/24 Пнд 04:05:43 759216 100
>>759209

Имея лишь всратую нищуковую Р40 ты слишком много хочешь, походу.
Аноним 27/05/24 Пнд 04:06:16 759217 101
>>759212
Покажи, что он у тебя выдает. Может, я что-то не так настроил.
Аноним 27/05/24 Пнд 04:06:58 759218 102
>>759216
> Имея лишь всратую нищуковую Р40 ты слишком много хочешь, походу.
Начнём с того, что я и Р40 не имею.
Аноним 27/05/24 Пнд 04:11:48 759221 103
>>759178
>Используй aya-23-8B.
Не вижу особого смысла в этом. Аноны выше были правы, что кастрированные модели уровня 8-13B можно хавать только на английском. Попробую скачать урезанного командора, если на 4 кванте скорость будет терпимой, то останусь на нем.
Аноним 27/05/24 Пнд 04:13:49 759222 104
image.png 1304Кб, 1451x1094
1451x1094
>>759217

Ну вот дефолтный солар, например, на дефолтной акве
Аноним 27/05/24 Пнд 04:14:07 759223 105
>>759216
>Имея лишь всратую нищуковую Р40 ты слишком много хочешь, походу.
Модели, которые влезают в 24гб врам, на "всратой нищуковой Р40" работают быстро.
Аноним 27/05/24 Пнд 04:17:23 759224 106
>>759221
>Не вижу особого смысла в этом. Аноны выше были правы, что кастрированные модели уровня 8-13B можно хавать только на английском.
А ты попробуй. Приятно удивишься. По сути, она тоже базируется на командоре или что-то в этом роде. Да и разраб у неё тот же, а именно CohereForAI.
Если я правильно понял, то aya-23 это попытка обмазать командора мультиязыковыми датасетами.
Аноним 27/05/24 Пнд 04:20:51 759227 107
>>759222
> Ну вот дефолтный солар, например, на дефолтной акве
Скинь карточку аквы. Хочу потестить с ней лламу и командира, чтобы сравнить.
Аноним 27/05/24 Пнд 04:21:08 759229 108
1.png 10Кб, 747x102
747x102
>>759181
Ну я скачал Q4_K_S, относительно быстро. Но не то, чтобы это добавляло хоть какого-то смысла. Язык такой же ломаный, а мозгов у модели не наблюдается в принципе. Слабо понимает, что от неё требуется и о чём вообще речь идёт, постоянно перескакивает с пятого на десятое. Попросил анекдот про быдло, начала рассказывать про Японию, а закончила предложением поиграть в инструктора и ученика в автошколе. Пиздец просто. Ллама даже в 8b может придерживаться темы разговора.
Аноним 27/05/24 Пнд 04:21:28 759231 109
>>759223

Разумеется есть космическая разница между работой на цпу и Р40, тот анон просто пальцы гнет что он большего ожидал.
Да уже возможность не ждать по пять минут ответа любых денег стоит.
Аноним 27/05/24 Пнд 04:21:38 759232 110
>>759227
Удваиваю реквест.
Аноним 27/05/24 Пнд 04:23:13 759234 111
>>759224
>А ты попробуй.
Да попробую, че нет. Просто почитав реплаи у меня теперь еще больше скепсиса по поводу всей этой движухи с микро-моделями.

>Если я правильно понял, то aya-23 это попытка обмазать командора мультиязыковыми датасетами.

Разве aya это не урезанный командор?
Аноним 27/05/24 Пнд 04:27:00 759236 112
>>758950
> --gradio-auth
Эта хуйня только на вход в настройки обобуги, для --public-api так себе варик, я могу навесить "пароль/ssh ключ" на подключение к самому api? Или нихуя страшного, что в бек ко мне могут стучаться всякие пидоры, но не получать ответа, т.к. не используют формат OpenAI API?
>>758671 →
Модель хороша - факт, но с норм карточкой. Ясен хуй, что я модель юзал и на других карточках и получалась хуйня. Хотя я сейчас и систем промт/семплеры под себя подправил, теперь чувствую "отыгрыш"!
Аноним 27/05/24 Пнд 04:27:08 759237 113
>>759234
>Просто почитав реплаи у меня теперь еще больше скепсиса по поводу всей этой движухи с микро-моделями.
Ну мне вроде зашла. Только инструкт не забудь поменять. Для sfw РП, вроде не плоха... Для nsfw вроде тоже. По крайней мере лучше, чем метавская 8b ллама 3 и suzume ллама 3

>Разве aya это не урезанный командор?
Ну его можно и так назвать и по сути да. Но я думал, ты имел ввиду командора v01 на 35B
Аноним 27/05/24 Пнд 04:27:29 759238 114
Aqua.png 395Кб, 400x600
400x600
>>759227
>>759232
Я другой анон, но вот вам старая аква от апреля 23 года.
Аноним 27/05/24 Пнд 04:28:29 759239 115
>>759236
>Модель хороша - факт,
Какая у тебя модель, кстати?
мимо другой анон

>>759238
Двач трёт метаданные, заливай на catbox.moe.
Спасибо.
Аноним 27/05/24 Пнд 04:29:05 759241 116
>>759227
>>759232

Это дефолтная картонка таверны, как вышло что у вас её нет? Таверна поставляется со всеми персонажами коносубы по дефолту.
Аноним 27/05/24 Пнд 04:29:52 759243 117
>>759239
>>759236
А блять, я слепой еблан. Отбой. 4:20 даёт о себе знать.
Аноним 27/05/24 Пнд 04:32:35 759247 118
image.png 242Кб, 441x411
441x411
>>759241
Ч-чего? У меня только эти. Версия 1.11.8.
Аноним 27/05/24 Пнд 04:32:41 759248 119
>>759239
https://files.catbox.moe/sexojs.png

>>759237
>Но я думал, ты имел ввиду командора v01 на 35B
Да, я еблоид. Я думал айа есть только на 8Б, а там оказывается еще версия и на 35 есть.

>лучше, чем метавская 8b ллама 3 и suzume ллама 3
Ну, тогда точно покатаю. Хуже по крайней мере уже не будет.
Аноним 27/05/24 Пнд 04:33:17 759251 120
>>759060
>а убабуга ёбаная всё еще не умеел в командер, сука.
Всм? Норм работает коммандер в ней, я только в уге все запускаю, про кобольд вообще забыл.
Аноним 27/05/24 Пнд 04:34:17 759252 121
>>759241
> Это дефолтная картонка таверны, как вышло что у вас её нет? Таверна поставляется со всеми персонажами коносубы по дефолту.
Ты про силлитаверну? Если да, то в первый раз такое слышу. Если несложно, то скинь картинки этих чаров на catbox какой-нибудь.
Аноним 27/05/24 Пнд 04:35:07 759253 122
>>759247
>>759241
После какой то версии Силли вырезала дефолтные карточки из конасубы. Если щас качать нулевую версию с гита, то там будет только серафима или как ее там. В любом случае, карты эти древние и хуево написаны.
Аноним 27/05/24 Пнд 04:36:17 759254 123
Аноним 27/05/24 Пнд 04:37:55 759256 124
>>759248
>https://files.catbox.moe/sexojs.png
Спасибки!

> там оказывается еще версия и на 35 есть
А, ну это да. Вот она прямо достойно работает. Так бы и юзал, если бы не полтора токена в секунду.

>Ну, тогда точно покатаю. Хуже по крайней мере уже не будет.
Вообще, что-то меня одолевают ощущения, что одна и таже модель от Анона, к Анону может отличаться. Хуй знает с чем это связано, но не зря же мне Анон в прошлом так яро рекомендовал suzume-llama-3-8B-multilingual. Но у меня и у ещё двух Анонов была шиза. Значит что-то не так. Может быть это с железом связано? Да и я слышал, что кто-то писал, мол aya-23 шизит. Так что, мб она у меня зорошо летает из-за того, что у меня старушка M40.

>>759254
>Мегумин
ОООО! ВРЕМЯ КУМИИТЬ! СПАСИБО, АНОН!
Аноним 27/05/24 Пнд 04:41:16 759259 125
>>759253
Спасибки, за информацию. В любом случае, думаю, они подойдут для тестов.
Аноним 27/05/24 Пнд 04:46:18 759261 126
>>759222
Использовался ли лорбук или просто голая карточка?
Аноним 27/05/24 Пнд 04:46:41 759262 127
>>759256
>одна и таже модель от Анона, к Анону может отличаться
Я думаю что дело в том, что у всех разные критерии адекватности. Хотя я только вкатываюсь в локалки, мне кажется что проблема именно в том, что нет нормальной системы оценивания. Меня бесит сухой и прямой текст, где тупо описываются действия персонажей. Я невольно сравниваю это дело с тем, что выдавала труба, когда я на ней еще сидел, и это пиздец как бесит. Души в нейронке нет, хуй знает. И Lumimaid я кстати тоже по совету анона ставил, который сказал, что она отлично держит характер и не шизит. В общем, всё персонализировано, правда где то по середине, правды больше нигде нет.
Аноним 27/05/24 Пнд 04:51:46 759264 128
image.png 442Кб, 1518x499
1518x499
>>759261

Просто голая картонка
Аноним 27/05/24 Пнд 04:52:15 759266 129
>>759262
Ну может и так... Хотя всё же мне кажется, что модели действительно генерят по разному у разных Анонов. И зависит это либо от железа, либо от настроек. Хотя, думаю, что в ситуации с той же сузумой, хотя бы у одного Анона были бы нормальные настройки.
Но, думаю, что всё же разность восприятия разных Анонов тоже влияет, это да. Этого отрицать тоже никак нельзя.
И всё же надеюсь, тебе понравится Ая. Она вроде ничего...
Аноним 27/05/24 Пнд 04:59:32 759270 130
>>759266
>мне кажется, что модели действительно генерят по разному у разных Анонов.
Либо блять дело всё таки в ебаных карточках. Я прогонял русский через дефолтную акву, а она и сама по себе тупая, потому что написана дегенератами чуть ли не под пигмалион. На английском у нее ответы внятные, но всё равно тупорыльно дебильные, а на русском она вообще с ума сходит, потому что не понимает, что от нее требуют. Надо попробовать взять жирную карту токенов под 800 и протестировать с ней. Возможно чудо случится и теория подтвердится. А может и нет. Все таки модель обрезанная, тут никуда не деться.
Аноним 27/05/24 Пнд 05:02:46 759271 131
aqua1.png 201Кб, 955x869
955x869
aqua2.png 159Кб, 949x725
949x725
>>759264
>>759222
В общем. Обе модельки не смогли справиться с Аквой. Но стоит так же признать, что здесь не полностью вина ЛЛМ, потому что в самой карточке тоже нет никакой инфы, что на попытки выебать Акву, она будет реагировать подозрительно и обзываться хиккинитом. Но вот что мне не нравится в мистрале так это то, что он пиздит про "I am always happy to help and guide". Эта ебучая личина ассистента вылазит постоянно и мешает погружению. Даже если это безобидно и не помешало куму, из персонажа дико выбивается. Я думаю, что надо либо кого попроще взять, либо допилить Бакву, а потом уже сравнивать. Сейчас персонаж не прописан даже на уровне карточки.
Аноним 27/05/24 Пнд 05:04:05 759272 132
>>759270
Ну может и так. Однако, разве не стоит переводить карты для нормального руссского? Просто, судя по всем это тоже влияет.
Я тут парочку перевёл на скорую руку с гуголь транслейтом и есть ещё карта другого Анона. Не знаю, не против ли он если я её залью... Пока не буду, мало-ли он против.
https://files.catbox.moe/nces5o.png
https://files.catbox.moe/ev423p.png
Аноним 27/05/24 Пнд 05:06:10 759274 133
>>759272
Я думаю, что надо переводить примеры диалогов и первое сообщение. А инструкции оставлять на английском, чтобы лучше их понимало и меньше шизило. Но это только мое мнение, на практике не пробовал.
Аноним 27/05/24 Пнд 05:09:36 759276 134
>>759274
Ну в одной карточке про институт 13 я перевёл описание и первое сообщение. В другой я перевёл только первое сообщение. Разницы, пока не вижу...
Хотя трудно РПшить, когда ты тупо "тестируешь"
Аноним 27/05/24 Пнд 05:11:27 759278 135
>>759276
А ты не тестируй, ты рпшь.
Аноним 27/05/24 Пнд 05:11:39 759279 136
>>759271
>Сейчас персонаж не прописан даже на уровне карточки.
Потому что ее прописывали еще в прошлом веке и не зря вырезали к хуям собачим из таверны. Я помню, как ебаная Аква тупила даже на трубе. А труба вообще была всеядной и выдавала приличные вещи при минимуме усилий. Тут тупо старания картодела виноваты.

>>759272
>Однако, разве не стоит переводить карты для нормального руссского?
Я переводил, но так как исходный материал всё равно был жиденький, это не сильно помогло. По опыту могу сказать, что решает именно стиль написания карты и первое сообщение. Если в обоих случаях всё криво и надрищено без нормального форматирования, то позитивного эффекта не будет.
Аноним 27/05/24 Пнд 05:14:12 759281 137
image.png 3713Кб, 2560x1249
2560x1249
>>759256
>ОООО! ВРЕМЯ КУМИИТЬ! СПАСИБО, АНОН!

У меня для нее кстати live2d моделька завалялась, которая анимации проигрывает в зависимости от настроения персонажа.
Аноним 27/05/24 Пнд 05:14:50 759283 138
>>759279
Что за труба?
> Тут тупо старания картодела виноваты.
Нет, не тупо. Справедливости ради, помимо картодела обосрались и сами модельки. Ебаная ллама подхватила стилистику сообщений и проебала кавычки при реплике. Срала ебучими ахахаха и подмигиваниями без всякой меры. Ну и в целом обдристалась. Мистраль и подавно не смог выйти из роли гида-ассистента, сука. Зато без ебучих ахахаха и кавычки не проебал.
Аноним 27/05/24 Пнд 05:15:34 759284 139
>>759281
>live2d
Скинь что-ли. Может хоть с ней поиграть нормально получится.
Аноним 27/05/24 Пнд 05:18:28 759285 140
>>759278
Ну да... Но мысль о том, что что-то может работать не "так, как надо" прям пиздец отбивает желание РПшить. Хочется то-ли на другую модель переключиться, то-ли пойти сэмплеры потеребить.

>>759279
>По опыту могу сказать, что решает именно стиль написания карты и первое сообщение.
Ну, судя по всему это так. Соглашусь с тобой.
Но вроде как на переведённых картах, русский лучше работает. По крайней мере, та же сузума работала получше. Так что если уж и тестить русик, то на полностью переведённых картах.

>Если в обоих случаях всё криво и надрищено без нормального форматирования, то позитивного эффекта не будет.
Вполне вероятно. Пока у меня нету достаточно опыта, чтобы возразить обратное.

>>759281
>в зависимости от настроения персонажа.
А для определния настроения разве не нужна отдельная нейронка? Или как это работает?

>>759284
Удваиваю реквест
Аноним 27/05/24 Пнд 05:20:28 759286 141
>>759283
>Что за труба?
GTP-3.5 Turbo, в моем случае версия 0301, на которой я дрочил с 22 года по март 24, если память мне не изменяет.

>Ебаная ллама подхватила стилистику сообщений и проебала кавычки при реплике.
Ну так она и будет опираться на предыдущие сообщения в чате. Это норма для любых моделей, вроде как. Если только через промт ей не вбить как она должна форматировать текст, она может тебе в целом отвечать только аххахаа и подмигиваниями с мурмурами.
Аноним 27/05/24 Пнд 05:25:29 759288 142
>>759286
> Что за труба?
> GTP-3.5 Turbo
Так она же говно. Хотя наверное получше 8В.
> Ну так она и будет опираться на предыдущие сообщения в чате. Это норма для любых моделей, вроде как. Если только через промт ей не вбить как она должна форматировать текст, она может тебе в целом отвечать только аххахаа и подмигиваниями с мурмурами.
Это понятно, что она будет опираться на сооьщения и обезьяничать. Но конкретно именно ллама очень часто любит залупаться. К счастью, да, часть проблем может решиться промптингом. А вот мистраля я в свое время так и не смог убедить стать жестокой яндере. Ему просто похуй на промпты.
Аноним 27/05/24 Пнд 05:33:07 759290 143
>>759288
>Так она же говно.
Вот тут нихуя не соглашусь. Труба отыгрывала самую дикую хуйню, которую я ей скармливал и делала это на уровне. Да, иногда тоже шизила и контекст у нее был мизерный, но в остальном это был ахуенный выбор. Персонажей держала, против рейпов и других извращений не сопротивлялась (в отличии от соевой четверки и клода). Единственный ее минус только в том, что это всё таки API и за него надо платить. Хоть и сравнительные копейки.

>А вот мистраля я в свое время так и не смог убедить стать жестокой яндере.
А вот трубешница могла. Могла и в фемдом и в фембой и в томбой. И насилие хорошо расписывала и даже жесткое гуро (но недолго, после пары сообщений начинала выдыхаться).
Аноним 27/05/24 Пнд 05:35:25 759293 144
>>759290
Я с трубой не общался в таверне. Поэтому промптинг там был дефолтный и по сути она вела себя довольно соево из-за этого. Так что может быть я и не прав.
Аноним 27/05/24 Пнд 05:36:42 759294 145
image.png 3749Кб, 2560x1247
2560x1247
>>759284
>>759285

https://files.catbox.moe/ueliea.7z

Держи всю троицу коносубы.
Почитай инструкцию на странице экстеншона чтобы понять что куда ставить и как настраивать.
https://github.com/SillyTavern/Extension-Live2d

>А для определния настроения разве не нужна отдельная нейронка?

Character expressions по дефолту встроен в таверну и интегрирован с live2d, придется только ручками анимации модели эмоциям сопоставить в настройках live2d.
Аноним 27/05/24 Пнд 05:39:20 759296 146
>>759294
Ооо... Благодарю, Анонче! Это пиздец как круто. И спасибо за ссылочку на гайдыч!
Аноним 27/05/24 Пнд 05:39:21 759297 147
>>759271
>Обе модельки не смогли справиться с Аквой.

Хоть бы написал какие.
Аноним 27/05/24 Пнд 05:39:56 759298 148
>>759293
Ну значит модель соевая. Есть вариант конечно ручками подредактировать сообщений 5-10 и направить ее по нужному сценарию, но это конечно дикий гемор каждый раз переписывать то, что уже написала за тебя нейронка. Ощущение будто сам с собой в блокноте общаешься.
Аноним 27/05/24 Пнд 05:45:42 759301 149
image.png 19Кб, 440x227
440x227
>>759253
>После какой то версии Силли вырезала дефолтные карточки из конасубы.

Пиздец, вся таверна по сути написана для отыгрыша коносубы, даже цветовые темы в честь персонажей названы и под них подстроены.
Аноним 27/05/24 Пнд 05:48:57 759302 150
Screenshot4.jpg 9Кб, 290x107
290x107
>>759301
Больше нет. Теперь их две и обе рыготные. Разраб на силе вроде в одном из патчноутов написал, что хочет убрать весь неоригинальный контент из таверны, включая конасубский, который под копирайтом находится.
Аноним 27/05/24 Пнд 05:50:39 759305 151
>>759302

Переименовать темы он не догадался? Копирайт по его мнению распространяется на цвета? Едрить он дегенерат.
Аноним 27/05/24 Пнд 05:55:07 759306 152
>>759305
А в чем смысл иметь названия тем, связанных с персонажами, когда самих персонажей больше нет?

И если я не ошибаюсь, мегумины и даркнесы перешли в сили таверну еще с оригинальной таверны, когда разраб только начал перепаивать ее. На оригинальной таверне кстати конасбуские еще остались и висят в репозитории гитхаба.
Аноним 27/05/24 Пнд 05:55:52 759307 153
>>759302
Да, подтверждаю, всего две темы.
Алсо, раз такая пьянка. Знает кто где достать другие темы? А то от этих двух глаза вытекают нахуй.
Аноним 27/05/24 Пнд 05:56:36 759308 154
>>759297
Так я писал, что Llama-3-8B. А у второго анона, если ему верить, дефолтный солар.
Аноним 27/05/24 Пнд 05:58:33 759309 155
Аноним 27/05/24 Пнд 05:59:24 759310 156
>>759307
>Знает кто где достать другие темы?
Там вообще есть пункт для кастомной CSS, но я нигде не видел чтобы его использовали. Я бы тоже поменял тему на более вменяемую, но брать неоткуда.

Таверна вообще ебаный франкенштейн. Чего только не напихали внутрь за полтора года, а нормальный интерфейс до сих пор не сделали.
Аноним 27/05/24 Пнд 06:03:08 759311 157
>>759308
>Так я писал, что Llama-3-8B.

Т.е. когда ты говорил "обе" ты имел ввиду что ты тестировал ламу, а вторая это солар, который я запостил? Ясно.
Я не соглашусь что модели не справились с Аквой, с тем что прописано в картонке они обе справились, но лама у тебя какая-то слишком словоохотливая получилась и не выдержала стиль первого сообщения с описаниями действий, в отличие от Солара. Потому я и говорил выше что солар лучше третьей ламы.
Аноним 27/05/24 Пнд 06:04:52 759312 158
>>759306

Так смысл не в названиях, а в самих темах. Переименовать Aqua blue в blue и пользоваться дальше.
Аноним 27/05/24 Пнд 06:08:47 759313 159
>>759312
Так он же все темы кроме двух убрал, не только конасубские. И самое главное что ни добавил ни одной светлой темы.
Аноним 27/05/24 Пнд 06:22:26 759314 160
>>759311
> Я не соглашусь что модели не справились с Аквой, с тем что прописано в картонке они обе справились, но лама у тебя какая-то слишком словоохотливая получилась и не выдержала стиль первого сообщения с описаниями действий, в отличие от Солара. Потому я и говорил выше что солар лучше третьей ламы.
Словоохотливость это вопрос промпта, я ее так запромптил, чтобы она отвечала развёрнуто. Здесь важнее то, что по сути они писали. А по сути Аквы нет ни там, ни там.
Аноним 27/05/24 Пнд 06:22:53 759315 161
Аноним 27/05/24 Пнд 06:26:40 759317 162
>>759315
Ещё раз, спасибо, Анончик!
Аноним 27/05/24 Пнд 06:27:25 759319 163
>>759314
>А по сути Аквы нет ни там, ни там.

Просто у тебя свое понимание Аквы и ты отчего-то считаешь что модель должна ему соответствовать автоматом.
Модель отыгрывает то что в карточке написано, а не то что у тебя в голове. То что в карточке написано - она отыграла, не нравится - правь карточку. Ну и лорбук подключай.
Аноним 27/05/24 Пнд 06:36:56 759321 164
>>759319
> Модель отыгрывает то что в карточке написано, а не то что у тебя в голове.
Во-первых, не в голове, а в ранобе или аниме.
> То что в карточке написано - она отыграла, не нравится - правь карточку. Ну и лорбук подключай.
Во-вторых, обе модельки не справились даже с карточкой, потому что одна из них откровенно палится ассистентской личиной, а вторая срет своими ахаха. И никакие промпты эту хуйню исправить не смогут. Вот сообщения сделать короткими - это пожалуйста, а убрать вот эти въевшиеся шаблоны - хуй.
Аноним 27/05/24 Пнд 06:48:17 759333 165
>>759321
>Во-первых, не в голове, а в ранобе или аниме.
Ты уверен, что в датасете есть инфа о так называемой акве и ее роли в ранобе или аниме? Нейросетям вообще по факту насрать на источник персонажа. Они будут опираться только на текст в простыне персонажа. Ты можешь вообще переписать у себя в карточке Акву из тупой пробки без трусов в умную пробку с шикарными и роскошными трусами. Нейросети будет насрать на несоответствие, потому что ей важен только промт, т.е. инфа, которую ты ей и скормил.

мимо другой
капча невалидна
Аноним 27/05/24 Пнд 06:53:07 759336 166
>>759321
> потому что одна из них откровенно палится ассистентской личиной

Охуеваю как ты далеко идущие выводы cделал с одного скрина.
Аноним 27/05/24 Пнд 07:15:15 759351 167
>>759336
А что там делать, если я уже общался с мистралем и знаю, что это такое?
>>759333
> Во-первых, не в голове, а в ранобе или аниме.
> Ты уверен, что в датасете есть инфа о так называемой акве и ее роли в ранобе или аниме?
В жирных моделях может и быть. В мелких, если и есть что-то, то мало инфы.
> Нейросетям вообще по факту насрать на источник персонажа. Они будут опираться только на текст в простыне персонажа. Ты можешь вообще переписать у себя в карточке Акву из тупой пробки без трусов в умную пробку с шикарными и роскошными трусами. Нейросети будет насрать на несоответствие, потому что ей важен только промт, т.е. инфа, которую ты ей и скормил.
Я это понимаю. Так же я понимаю, что карточка написана плохо и это является главной проблемой. Тем не менее мой посыл в том, что нейросетки плохо создают иллюзию общения с карточкой. Все равно наружу вылазит вся нейросеточная суть.
Аноним 27/05/24 Пнд 07:35:08 759359 168
image.png 830Кб, 1452x1085
1452x1085
>>759351
>Тем не менее мой посыл в том, что нейросетки плохо создают иллюзию общения с карточкой. Все равно наружу вылазит вся нейросеточная суть.

А вот тут вылезла?
Может все же в карточке дело?
Аноним 27/05/24 Пнд 07:45:44 759366 169
>>759359
Что на этом скриншоте не демонстрирует нейросеточную суть?
Аноним 27/05/24 Пнд 07:50:00 759373 170
image.png 798Кб, 1454x1061
1454x1061
>>759366
>Но вот что мне не нравится в мистрале так это то, что он пиздит про "I am always happy to help and guide". Эта ебучая личина ассистента вылазит постоянно и мешает погружению.

Ну и где тут эта личина ассистента?
Аноним 27/05/24 Пнд 07:56:24 759377 171
Потыкал немного этот ваш Moistral. Ну, диалоги у него чуть поживее, и карточку/лорбук он, вроде как, понимает неплохо. Но всё равно как будто немного тупее третьей ламы.
Аноним 27/05/24 Пнд 08:19:33 759392 172
>>759373
Залупается походу. И с хуя ли они решили драться? Я так понимаю в карточке ни слова о том, что они должны кончить. То есть нейронка путается.
>>759359
Только с последним персом непонятное что-то. Походу нейронка путается. Здесь особо и отыгрыша нет. У них же 0 реплик. Возьми какую-нибудь цунгпт и попроси ее что-то сделать. Там хоть сразу понятно будет, что оно отыгрывает.
В целом такую карточку оно походу не вывозит. В лламу тоже не верю.
Аноним 27/05/24 Пнд 08:20:28 759394 173
>>759377
Он и есть тупее. Но секс сцены описывает лучше. И секс фантазии тоже.
Аноним 27/05/24 Пнд 08:32:08 759398 174
image.png 636Кб, 1210x1117
1210x1117
image.png 599Кб, 1186x1128
1186x1128
image.png 606Кб, 1233x1122
1233x1122
>>759392

Все оно вывозит, хватит аутотренингом заниматься. В итоге я убедил трех из пяти, взял их, потом с их помощью изнасиловал двух оставшихся нитакусек.
Потом дверь открылась, мы перешли в другую комнату и там все началось заново.
Аноним 27/05/24 Пнд 08:45:56 759409 175
>>758933
Для такого конфига вполне нормальная скорость.
Аноним 27/05/24 Пнд 08:50:15 759411 176
>>758950
>Кмк, чат-модели в принципе хуже из-за этого
Нет, модели без разницы, будет ли она дописывать с префила или с начала ответа, тут проёба нет.
>>758950
>Ну, в самом аниме с ними нельзя пообщаться
Всегда мечтал уебать тсундере?
>>758972
>Если опен АИ апи
А есть ли хоть один повод использовать неродное апи, когда есть родное?
>>759081
>Генерю на M40 24GB
>Maxwell
>Double-Precision Performance - 0.2 Teraflops
Земля стекловатой.
>>759116
>ОЧЕНЬ ЛЕГКО ЛОМАЕТСЯ
Только это верно. ХЗ почему так. Остальное не верно, ждём норм тюнов.
>>759123
Командир 104 же, так что всё окей, меньше 105!
>>759147
Какой же кринж.
>>759213
>незначительное улучшение
Лол, я от перехода от 70 к 104 чувствую значительное улучшение, а ты просто от 8 до 70 "незначительное".
>>759286
>март 24
>турба
Ебаааатьь.
>>759310
>но я нигде не видел чтобы его использовали
Потому что есть юзерстили. Хотя я туда отступ для сообщений бота добавил, чтобы показывать имя модели, не перекрывая текст.
Аноним 27/05/24 Пнд 08:53:31 759415 177
>>759398
Мне интересно, а каким промптом нейросетке объяснять, что когда дело до кума доходит, то надо описывать подробно?
> Все оно вывозит, хватит аутотренингом заниматься.
Так может это ты аутотренишь? Серьёзно, ты вчитайся, что оно пишет. Просто одни и те же реплики. София практически зациклилась. Я понимаю, что моделька маленькая, и на безрыбье и рак не рак, но как такое можно в принципе называть хоть каким-то отыгрышем? Это же ведь пиздец. Хотя ладно, она по крайней мере не спутала персов между собой, уже недурно.
Аноним 27/05/24 Пнд 08:53:37 759416 178
image.png 525Кб, 1155x1113
1155x1113
>>759392
>Возьми какую-нибудь цунгпт и попроси ее что-то сделать.

Аска пойдет?
Аноним 27/05/24 Пнд 08:57:30 759423 179
>>759411
> Лол, я от перехода от 70 к 104 чувствую значительное улучшение, а ты просто от 8 до 70 "незначительное".
Единственная значительная разница, которую я смог заметить, это скорость генерации. А так у 70В текст немного покачественней и чуть больше деталей. Может быть на 104В уже какие-то качественные отличия есть, здесь не знаю, не запускал.
Аноним 27/05/24 Пнд 08:59:27 759426 180
>>759416
Пойдёт. Кстати, ты специально ее попросил коротко отвечать?
Аноним 27/05/24 Пнд 09:06:31 759434 181
Вопрос промптоспециалистам, если таковые тут имеются. Вот есть у меня лорбук, где, к примеру, описаны всякие законы и культурные особенности местности, в которой проходит ролеплей. Можно ли как-нибудь сделать так, чтобы персонаж не тянул рандомно куски из этого лорбука, не относящиеся к ситуации? Ну, типа - "Кстати, а ты знал шо у нас в стране в жопу долбят за ношение адидаса?", при том что разговор в данный момент про то, какой сорт чая лучше.
Аноним 27/05/24 Пнд 09:08:11 759439 182
>>759434
Какой моделькой пользуешься?
Аноним 27/05/24 Пнд 09:10:15 759443 183
>>759439
Конкретно сейчас - llama 3, но вообще этот косяк вылезал на всех моделях, которые пробовал.
Аноним 27/05/24 Пнд 09:10:55 759445 184
>>759426

Нет, но модель сильно копирует стиль первого сообщения.
Аноним 27/05/24 Пнд 09:25:56 759473 185
Аноним 27/05/24 Пнд 09:30:33 759482 186
>>759473

Только что проверил - все работает. Попробуй еще
Аноним 27/05/24 Пнд 09:33:49 759487 187
>>759482
Ага работает, без перезагрузки модема даже на катбокс не заходило
Хотя инет вроде работал, хз
Аноним 27/05/24 Пнд 09:46:39 759511 188
>>759443
Честно говоря не знаю как это предотвратить. Можно конечно лорбук задвинуть подальше в контекст, но мне кажется это совсем не решение.
Аноним 27/05/24 Пнд 09:49:39 759515 189
>>759416
Анон, можешь зашарить карточку пжалста? Хочу глянуть как она там прописана.
Аноним 27/05/24 Пнд 09:56:22 759518 190
Аноним 27/05/24 Пнд 09:58:35 759520 191
image.png 2445Кб, 2056x1254
2056x1254
Почему Лама 3 говно ебаное? Ответ на пике. Это говно очень быстро входит в луп и начинает повторять предыдущие сообщения. Плюс цензура вылезает сразу как начинается какая-то движуха.
Аноним 27/05/24 Пнд 10:01:17 759521 192
Аноним 27/05/24 Пнд 10:01:34 759522 193
>>759434

Зайди в лорбук и отредактируй записи чтобы они вызывались только при наличии связанных с ними тегов в прошлых сообщениях.
Аноним 27/05/24 Пнд 10:07:51 759526 194
>>759520
Пиздец. Какой промпт формат и системный промпт? Вообще ллама любит залупаться и я не нашёл нормального способа побороть это. Все, что делаю, это сразу же повторно генерю при малейшей попытке залупиться. Иначе потом ее хрен заставишь выйти из лупа. Чтобы пореже выкидывала сою, надо ее попросить генерить любой контент. А ещё надо хорошенько попросить нормальный кум делать, а не эту хуйню.
Аноним 27/05/24 Пнд 10:11:07 759528 195
>>759067
>>759069
Ньюфаги не застали вторую лламу, которая на 13b вообще не могла в русский.

>>759069
Ну, соевость и русский язык — не одно и то же. =) У нас тут куча «расцензуренных» ллам-8, но на деле я пока не слышал ни об одной реальных хороших отзывов.

> а как именно железо может влиять на генерацию
в общем — никак. Но на генерацию влияют даже солнечные бури, а ты про железо… =) (отсылка на мем-исследование, таки влияют=)

>>759071
> Ставь simple-1 и забей.
>>759055
Могу еще порекомендовать mirostat выставить на 1 (или 2, если запустишь убабугу и экслламу), и выставить 8/0,2 или 2/0,9 типа того, может стать заметно лучше.
На симпле-1, да.
Но то что шизит — странно само по себе, конечно.

>>759073
Гугл не сильно лучше натива, прям вообще преимуществ нет.

>>759074
Ну так, на всякий случай, убабуга работает на питоновской версии сиплюсплюсной лламы Жоры, то есть там прям совсем колхоз-колхоз.

>>759081
А че по скорости?

>>759089
Вот тут я не буду осуждать, но человек заявляет, что нормально даже чатгопота в русский не умеет. Ну да, тут не поспоришь, ллама-3 8б явно не лучше чатгопоты.
Восприятие зависит от требований.

>>759090
Сузума будет получше, но соглашусь, что тюны лламы-то англоязычные, поэтому они хуже оригинала.

Кстати, есть еще Вихрь, но там инстракт, а не рп. Так что такое.

>>759098
О_о

>>759105
Алкашка обоссалась, ясна, ебать Дюбуа — осуждаю.

>>759116
> ПЛОХО МОЖЕТ В РУССКИЙ ЯЗЫК.
Лучше любого конкурента соответствующего размера.
Даже Мистраль хуже, Фи хуже, а других адекватных (хотя Фи не сильно конкурент из-за сои) конкурентов просто нет.

В остальном да.

>>759125
Командира убери.
Квен, мику убери.

Получается, единственный конкурент (но про гпу-ускорение можно забыть) — это Микстраль/Кранчи-Онион.

>>759131
Ну база же.

>>759137
Пздц вы кривые нахуй.

>>759147
1. Он тупой.
2. Он не ко всем залезет.
Так-то я топил за коммандера еще на выходе, но файнтьюнов пока нет, и он большеват, ну и контекст, в общем, это модель другой категории.

>>759197
Не сильно выебет. Получше гугла, чище коммандера, но по адекватности перевода и художественности уже такое себе. Не панацея.

>>759221
Только будь готов, что коммандер ниже 6 кванта — непроходимо туп. Морально подготовься и тестируй.

>>759222
Вот это у тебя примеры в треде про модели на русском языке…

>>759229
> а мозгов у модели не наблюдается в принципе
Потому что он не для рп, и не в таком кванте, совершенно верно. Sad but true.

>>759236
Я этим не страдал, прости, не подскажу.
Где-то я видел мельком.
А силлитаверну так нельзя вывести? Просто мысль.

>>759241
Кек.

>>759254
Ну, в последних версиях за год, да. =)

>>759256
> ВРЕМЯ КУМИИТЬ!
Ты на чуб зайти был не в состоянии, выбрать себе Мегумин?..

>>759266
От настроек и солнечных бурь. =D

>>759283
GPT-3.5 Turbo.

> Мистраль и подавно не смог
Треш.

———

Ща попробую потыкать через убабуга => силлитаверна сузуму, посмотреть настройки, версию, разобраться, че не так у людей.
Неужели обнова все так поломала.
Аноним 27/05/24 Пнд 10:19:31 759539 196
>>759526
>Пиздец. Какой промпт формат и системный промпт?

Обычный ламовский вшитый в таверну.

>Чтобы пореже выкидывала сою, надо ее попросить генерить любой контент. А ещё надо хорошенько попросить нормальный кум делать, а не эту хуйню.

Она очень плохо может в кум даже на правильной картонке и с правильным запросом, это не её тема.

>Все, что делаю, это сразу же повторно генерю при малейшей попытке залупиться.

А я просто не использую эту говномодель.
Аноним 27/05/24 Пнд 10:22:04 759543 197
>>759528
>Вот это у тебя примеры в треде про модели на русском языке…

Лолчто? Это тред про все локальные модели. И тут исторически люди знающие англюсик минимум на upper-intermediate сидят.
Аноним 27/05/24 Пнд 10:26:33 759547 198
>>759528
> Гугл не сильно лучше натива, прям вообще преимуществ нет.
Да, он тоже говно.
> Лучше любого конкурента соответствующего размера.
> Даже Мистраль хуже, Фи хуже, а других адекватных (хотя Фи не сильно конкурент из-за сои) конкурентов просто нет.
Что насчёт Yi?
> Не сильно выебет. Получше гугла, чище коммандера, но по адекватности перевода и художественности уже такое себе. Не панацея.
Не сильно, не панацея, но я не видел более хорошей альтернативы. Гугл скатился в жопу и его переводы стали гораздо хуже. Яндекс же стал переводить так, как гугл когда-то.
Аноним 27/05/24 Пнд 10:33:31 759552 199
>>759522
Чаасть у меня так и сделана. Просто есть кусок, где описаны слишком общие вещи, чтобы пихать их под кейворды.
Аноним 27/05/24 Пнд 10:33:55 759553 200
2024-05-2710-23[...].png 388Кб, 957x918
957x918
2024-05-2710-24[...].png 90Кб, 474x772
474x772
2024-05-2710-24[...].png 108Кб, 479x740
479x740
Карточка старая.
Чисто на русском.
От первого лица.

Что мне не нравится:
1. Начало и конец от лица ассистента (так, стоп, это и есть карточка ассистента, но я хочу, чтобы она не сыпала такими дефолтными фразами).
2. Путает размеры версий GPT (впрочем, аноны тоже).
3. Язык немного косноязычный.
4. Кавычки и дефис вместо тире — ле фу!

Запуск:
https://huggingface.co/BahamutRU/suzume-llama-3-8B-multilingual-8.0bpw-h8-exl2
ExLlama2_HF
Таверна на пиках.

Я не настраивал долго, поэтому результат можно улучшить, полагаю.

Мой тейк был в том, что у нее хороший русский язык.

Я не ЕРПшил с ней. Не писал джейлы (ладно, в карточке есть джейл на подавление диверсити, но тут не о нем).
Не гарантирую ничего другого, однако русский язык — вполне достойный для ее размера, ИМХО.
Аноним 27/05/24 Пнд 10:35:24 759554 201
>>759543
Контекст у тебя 2048 выставлен?
Я не про общий тред, а про то, о чем мы перетираем со вчерашнего вечера. Про русский язык в локальных моделях.
Если ты думал, что речь сегодня идет о моделях вообще — перечитай, мы обсуждаем именно русскоязычные. Про англоязычные диалог бы шел в другую сторону немного (более позитивную, но сое-хейтерскую=).

Кон-текст!
Учитывай, плиз. =)
Аноним 27/05/24 Пнд 10:36:37 759555 202
>>759547
Ой, новая Yi я даж хз, я че-то один раз запустил и забил.
Не знаю, честно.

По Яндексу соглашусь в общем, да.
Аноним 27/05/24 Пнд 10:41:08 759556 203
>>759554
>Контекст у тебя 2048 выставлен?

За кого ты меня принимаешь? У ламы3 выставлен 8к, у солара 16к.

>Я не про общий тред, а про то, о чем мы перетираем со вчерашнего вечера. Про русский язык в локальных моделях.

Ты влез в чужой диалог, где мы обсуждали именно англоязычные. Глаза разуй, потом других жизни учи.
Аноним 27/05/24 Пнд 10:59:31 759570 204
https://huggingface.co/cognitivecomputations/dolphin-2.9.1-mixtral-1x22b
Кто-нить тыкал это? Модель не разреженная и не плотная, мое и немое, отгадай кто это - дельфин-ебанин.
Из того что продолжаются эксперименты с предыдущими моделями видно что лама-3 не очень зашла. А хули - 70 не для масс, 8 - слишком мала, не хватает серединки. Кроме того лама-3 настолько натрейненена, что файнтюны не заходят, видимо любой из них уже был в датасете на 15Т
Аноним 27/05/24 Пнд 11:08:06 759573 205
>>759556
Я про тебя, а не про ллмки. =)
Попроси ламу суммаризировать тред, чтобы быть в курсе, на что ты отвечаешь.

>>759570
Дельфин всю жизнь был тупым, зачем его пробовать в этот раз?
Аноним 27/05/24 Пнд 11:09:37 759574 206
>>759556
Все, увидел, что вы про мистраль и про английские говорили.
Мои извинения.
Но Мистраль в принципе без сои и цензуры модель, но ее туда аноны сами напихивают, скилл ишью, как всегда.
Аноним 27/05/24 Пнд 11:12:38 759575 207
>>759543
>И тут исторически люди знающие англюсик минимум на upper-intermediate сидят.
Сижу с самого начала на А2. Хотя конечно может уже и подтянул, лол.
>>759552
>Просто есть кусок, где описаны слишком общие вещи
Тогда почему оно не в карточке?
>>759570
>видимо любой из них уже был в датасете на 15Т
Даже если так, то полировка сверху всё равно выставит нужный биас модели. Но у тренировщиков просто руки из жопы. Ждём наработки опыта.
Аноним 27/05/24 Пнд 11:17:53 759577 208
>>759573
> Я про тебя, а не про ллмки.
> Попроси ламу суммаризировать тред, чтобы быть в курсе, на что ты отвечаешь.
Да у тебя у самого контекст через жопу вывернут. На тот момент мы с аноном обсуждали мелкие модельки именно в плане английского языка. И пример он привёл в тему. Вот хуле ты до него доебался?
Аноним 27/05/24 Пнд 11:23:52 759579 209
>>759577
В контексте общего разговора выглядело охуенно, не думаешь? Все обсуждают русский и челик скидывает инглиш.
Там всего один раз слово промелькнуло, да еще в контексте скилл ишью.
Я ебу этих ебанариев, что у них там в мистрали не работает. Это ж пиздец.
Аноним 27/05/24 Пнд 11:24:42 759580 210
>>759573

Зачем ты пишешь людям гадости со смайликами? Ебать ты мерзкий.
Аноним 27/05/24 Пнд 11:34:19 759585 211
>>759579
> В контексте общего разговора выглядело охуенно, не думаешь?
Я думаю, что ты в глаза долбишься. Там прямым текстом была просьба показать аутпут. Вот что анон должен был сделать, по-твоему? Послать меня нахуй или начать срать смайликами как ты? Абсолютно ебанутая логика.
Аноним 27/05/24 Пнд 11:42:03 759589 212
>>759575
Потому что оно не относится напрямую к персонажу? Да и потом, так он ещё чаще будет это упоминать, нет?
Аноним 27/05/24 Пнд 11:45:29 759590 213
>>759589
>Потому что оно не относится напрямую к персонажу?
Ну так отдели какой-нибудь пометкой.
>Да и потом, так он ещё чаще будет это упоминать, нет?
Зависит от того, где у тебя инжектится лорбук. Обычно он идёт ближе к ответу, поэтому учитывается сильнее.
Аноним 27/05/24 Пнд 12:26:01 759631 214
>>759580
=D Сук.

>>759585
Так это ты в глаза долбишься. Перечитай, что я написал. =)

>>759590
Ближе к какому ответу?
Сильнее учитывается начало промпта или конец?
Аноним 27/05/24 Пнд 12:40:45 759644 215
>>759631
> Так это ты в глаза долбишься. Перечитай, что я написал. =)
Хуйню полную ты написал, в надежде, что не придётся признавать свой жиденький обсер. Сразу начались манявры, что там "одно слово", "скилл ишью", не считается. По факту, был конкретный запрос и конкретный ответ. И раз уж ты сам нихуя не способен осваивать контекст и читаешь посты жопой, то с твоей стороны очень странно было бы упрекать в этом анона, который посты читает нормально.
Аноним 27/05/24 Пнд 13:11:48 759678 216
>>759644
> Хуйню полную ты написал, в надежде, что не придётся признавать свой жиденький обсер.
Ты не только в глаза долбишься, но еще и сам хуйню пишешь. =)
>>759574
> Все, увидел, что вы про мистраль и про английские говорили.
> Мои извинения.

Тут и 2048 контекста нет, я смотрю.

> И раз уж ты сам нихуя не способен осваивать контекст и читаешь посты жопой, то с твоей стороны очень странно было бы упрекать в этом анона, который посты читает нормально.
И раз уж ты сам нихуя не способен осваивать контекст и читаешь посты жопой, то с твоей стороны очень странно упрекать в этом анона, который посты хотя бы читает.

———

Блин, загрузил 70b, и она один раз слово выдумала с английским, другой раз с китайским.
Гребанный ггуф поломанный в гребанной ллама_сипипи_пайтон.
Почему 8б отвечает чище 70б.
Где мои две 3090.
Аноним 27/05/24 Пнд 13:19:38 759686 217
>>759333
>Ты уверен, что в датасете есть инфа о так называемой акве и ее роли в ранобе или аниме?
Помнится крутил эту карточку Аквы ещё на Пигмалионе 6В, так он на низкой температуре даже названия глав ранобэ выдавал.
Как в новых моделях ХЗ, но по идее всё должно быть, Коносуба это база!
Аноним 27/05/24 Пнд 13:22:32 759692 218
>>759686
Пигмаллион — это не «старая модель ллама», это отдельная модель, которая обучалась на ролеплее для тебя.
А ллама не обязана знать о Коносубе, она не для этого делалась.
Так что… Ну сорян-сорян. С чего бы ей знать такие вещи вообще.
Аноним 27/05/24 Пнд 13:47:34 759720 219
Аноним 27/05/24 Пнд 14:15:58 759751 220
1.png 62Кб, 750x680
750x680
Спросил нейронку про коносубу. Ответ убил.
Аноним 27/05/24 Пнд 14:32:40 759795 221
2024-05-2714-01[...].png 201Кб, 861x302
861x302
image.png 84Кб, 841x174
841x174
Miqu — лучший результат на русском, и даже мнение свое высказала.
Starling-LM-7B-beta — говорит на русском неплохо, но проскакивают иероглифы, и вообще. Твердая 4 для своего размера.
Starling-LM-10.7B-beta — шизует, мне лень это бороть. Вроде старается по теме, и очень креативна, но нет. Ну и русский так себе.
Phi-3-medium-6.0bpw — одно слово перепутала, что-то там придумала, но когда я попросил быть немного неформальной, я не имел в виду смайлики в конце! Ну и 14B модель так себе 7-8, конечно. Нельзя сравнивать. Русский на 4+, думаю.
Пикрил.
Mistral-7b-v0.3 — вот тут уже сложно… С одной стороны, у нее очень хороший стиль. С другой, она так же придумывает слова и ошибается местами. Мистрали не хватает русского в датасете (но ее превосходит сузума, которая изначально multilingual). Так что 4+.
Yi-1.5-9B-Chat — я вспомнил о ней! Нет, она не умеет в русский, простите.
пикрил2

Это касается именно языка, а не стиля или соевости, окда.

В общем, ИМХО, ничего лучше сузуме в размере 8b нет.
Аноним 27/05/24 Пнд 14:33:59 759796 222
image.png 262Кб, 604x528
604x528
>>759751
Последний сезон деградансткий.
Уже не просто веселое аниме с ебанцой, а ебанина мелкого пошиба.
Аноним 27/05/24 Пнд 14:37:19 759805 223
>>759795
Ну что вы их русским мучаете постоянно, вам не надоело ещё?
Аноним 27/05/24 Пнд 14:39:43 759809 224
Аноним 27/05/24 Пнд 14:39:48 759810 225
IMG202405271436[...].jpg 83Кб, 926x720
926x720
IMG202405271436[...].jpg 81Кб, 1257x545
1257x545
Прошу прощения за долгий ответ, был очень уставшим. Постарался ответить всем, никого не забыть, если кого забыл, пишите.

>>757851 →
Да, это увидел. Хорошо тогда.
За вброс не переживай, анонче, всё хорошо.

>>757853 →
>В тред ее скидывай если будет.
Прикладываю. Это ещё с субботы ошибка была, когда я через oobagoba пытался запустить .gguf-модель. Сейчас скачиваю .exl2, буду её ковырять, но всё равно, хочется понять, что я делал не так.
>Это офк если карточки в одной системе а не нескольких
В одной, с этим всё хорошо.

>>757857 →
Понял, анонче, спасибо большое! Качаю exl2-модель, которую ты посоветовал. Буду пытаться разобраться.
>cohere и их command r+, хотя он под раг, но в твоем случае похую.
О, спасибо. Я как раз хотел в будущем RAGи использовать, потому что хочу сделать долгосрочную память, и через них выглядит удобно.

>>757858 →>>757863 →
Спасибо, анончики, попробую ещё и микстраль, отпишусь о впечатлениях, как всё подниму, непременно.

>>757848 →
>Все для мультигпу, ты просто воробушек. Плюсую вопрос, как они к тебе попали — ботаника в подворотне ограбил?
Понял, спасибо. На работе есть доступ к кластеру, спросил, можно ли поиграться с нейронками в свободное время - дали добро.

8x4090-кун
Аноним 27/05/24 Пнд 14:42:19 759813 226
>>759805
Да просто тестики.
Нам лень на етом вашем инглише.
Ллама и мистраль уже норм, на самом деле.
Жаль, что там сою насыпают, а РП-файнтьюнов на русском нет.
Аноним 27/05/24 Пнд 14:44:36 759818 227
>>759810
Классная работа, что сказать. )
У тебя фронт в веб-бразуере отсутсвует? Поставить убабугу, зайти по 7860 в Gradio возможности нет?
Аноним 27/05/24 Пнд 14:55:35 759831 228
>>759720
Попробовал, но что-то не понял прикола. Оно просто подтягивает текст как лорбук, только из файла. Видимо, что-то неправильно настроил.
Аноним 27/05/24 Пнд 15:10:43 759840 229
>>759239
>Какая у тебя модель, кстати?
Командор плюсовый, остальной шлак после него вообще не признаю, ламма 3 70b/Мику, просто нахуй проходят (для rp/erp of course, в логических задачках они тащат).
Кстати ломал кто-нибудь сою в ебучем Qwen? Это просто образцовый пример сои! Такой пиздец я только у ГОПОТы видел. Какой там префил, систем промт нужны, чтобы заставить ее творить дичь(как командор)
>>759177
>Скачал командира 35b, ну такое себе.
Какой квант? У меня только на 8ом он нормально заговорил(на 4ом рили не очень), и он реально затыкает все дыры, вплоть до 70B!
Аноним 27/05/24 Пнд 15:12:55 759841 230
>>759631
>Сильнее учитывается начало промпта или конец?
ХЗ, зависит от сетки. Обычно конец.
>>759692
>А ллама не обязана знать о Коносубе, она не для этого делалась.
Но всё таки знает. По крайней мере в пределах вики.
>>759831
Раг подтягивает не по ключевым словам, а по сродству векторов. На этом отличия от лорбука заканчиваются, лол.
>>759840
>Это просто образцовый пример сои!
Фи ещё более соевая.
Аноним 27/05/24 Пнд 15:14:07 759844 231
>>759840
>У меня только на 8ом он нормально заговорил
Да вы заебали уже. Один тред убеждают, что Q2 это заебись и вообще пиздатая хуйня, почти как полные веса. Потом начинается новый тред и всё, что до Q8 - говно ёбаное.
Аноним 27/05/24 Пнд 15:19:27 759848 232
>>759844
Только второй квант катают на 70-ке, а четвёртый квант ломает 34. Чуешь разницу?
Аноним 27/05/24 Пнд 15:22:02 759850 233
>>759844
Ну ты больше шизов с q1 слушай.

А вообще, у коммандора своя специфика, он реально до Q6 точно — тупой. Вот я прям крайне удивился этому, когда тестил, но человек правду говорит.
Ну и те же 7B-8B ниже q8 тоже бессмысленно использовать.
Аноним 27/05/24 Пнд 15:29:19 759853 234
>>759850
> он реально до Q6 точно — тупой
Лол. Он всегда по умолчанию тупой. Иногда даже хуже 8В по логике. Разве что в РП неплох.
Аноним 27/05/24 Пнд 15:32:10 759855 235
>>759844
Так это разные додики утверждают
Я тебе вообще могу сказать что любой квант хуйня, нужно оригинальные веса катать
И не совру, хули
Квант это не оригинальная модель, это китайская копия разной степени хуевости
Где то это кому то субьективно кажется работоспособным на 2 кванте что, по моему хуета
Кто то заявляет о более реалистичной работе на 4 кванте
Проверено, и мной самим, что те же мелкие модели страдают от квантов больше, поэтому их желательно или оригиналом катать или хотя бы 8-6 бит на вес
При квантизации модели теряют способность воспринимать контекст и работать с ним, ну и "мозги"
Качество генерации текста вообще, падает последней
Аноним 27/05/24 Пнд 15:35:20 759859 236
>>759841
>Фи ещё более соевая.
Нихуя, хуже ебанного Квена я не встречал, Фи смогла даже в небольшой отыгрыш(сиськи/письки не описывала, но пыталась).
Аноним 27/05/24 Пнд 15:59:08 759888 237
>>759855
>При квантизации модели теряют способность воспринимать контекст и работать с ним
Катал Лламу 8В на 8 кванте и на трансформерах, разницы в ответах не заметил.
Аноним 27/05/24 Пнд 16:15:10 759916 238
>>759850
>он реально до Q6 точно — тупой
Командир+ в 4 кванте норм. Больше запустить всё равно не могу.
Аноним 27/05/24 Пнд 16:29:34 759935 239
>>759850
>А вообще, у коммандора своя специфика, он реально до Q6 точно — тупой.

Хуйню несешь, в четвертом кванте он ебет все что движется, даже 70В мику и лламу, не уходит в залупы, не шизит, стоически терпит без падения качества урезание контекста контекст шифтом и замену на суммарайз. На русском шпарит так что все остальные модели сосут, в прямом смысле, потому что командир еще и не заражен соей, как эти ваши сузуны. И самое главное - на моей 4090 с 24 гб видеопамяти с 8к контекстом он ебашит от 4.5 до 6 токенов в секунду. Это идеальная модель.
Аноним 27/05/24 Пнд 16:53:07 759967 240
>>759850
Ну я ебал полные века качать. А 34b в Q4_K_S хуже лламы 8b. Такие дела.

>>759855
Соглашусь. Ещё есть нюанс, что модели типа третьей лламы будут страдать от квантования в разы больше, чем большинство остальных.
Аноним 27/05/24 Пнд 17:07:52 759986 241
>>759967
>Ну я ебал полные века качать. А 34b в Q4_K_S хуже лламы 8b. Такие дела.

Какую только шизохуйню в треде не встретишь, уже много раз запруфано что лама3 входит в луп на контексте больше 2-3к и никакого лекарства не существует, тем не менее эти шизы продолжают форсить эту срань и гнать на нормальные модели.
Разница в качестве между Q4_K_M и Q4_K_S незаметна глазу на больших моделях, что ты несешь-то вообще.
Аноним 27/05/24 Пнд 17:08:47 759987 242
бля какие же скудные датасеты на кум, ну родина вам третью ламу дала, нет блять хотим говнотексты ей скормить чтобы она порождала "Еби меня василий. и Василий ибал иё, ана станала как шлюха". Тьфу блять!

А как надо?

А надо блять чтобы ИИ сам взял прекрасный слог и излагал графичность сцен и хорнивость героев. И нет, промптом то не фиксится, и нет, не существует такого датасета поэтому задача тут не в датасете, а в поколении ИИ которое будет по аналогии делать.

К примеру. Возьмем stable diffusion. Допустим какой нибудь Малевич не рисовал голых футанари. Но есть датасет с футанари. И ии способно обработать промпт "нариусуй футанари в стиле малевича". А текстовые не могут.
Аноним 27/05/24 Пнд 17:17:40 759998 243
>>759987
>К примеру. Возьмем stable diffusion. Допустим какой нибудь Малевич не рисовал голых футанари. Но есть датасет с футанари. И ии способно обработать промпт "нариусуй футанари в стиле малевича". А текстовые не могут.

Могут. Напиши в картонке в чьем стиле писать, 70В+ модели поймут.
Аноним 27/05/24 Пнд 17:20:33 760002 244
>>759935
> на моей 4090 с 24 гб видеопамяти с 8к контекстом он ебашит от 4.5 до 6 токенов в секунду.
Дай, ссылку, пожалуйста.
Аноним 27/05/24 Пнд 17:22:10 760004 245
Аноним 27/05/24 Пнд 17:30:25 760011 246
>>759987
>а в поколении ИИ которое будет по аналогии делать.
Да, текущие модели говно. Сейчас пилю свою модель на 3080Ti, вот запилю, тогда и заживём!
Аноним 27/05/24 Пнд 17:45:55 760042 247
>>759986
>лама3 входит в луп
Скилл ишью. Просто старайся лучше.
>Q4_K_M и Q4_K_S
Здесь соглашусь, и то, и другое - лоботомит ебаный.
Аноним 27/05/24 Пнд 18:04:45 760075 248
>>760042
>Скилл ишью. Просто старайся лучше.

Блядь, как же толсто, лупит модель, а виноват я что "не старался". Не старался что - рероллить по 10 раз каждый её пост? Зачем если командира рероллить не надо вообще? Скачай уже небитый квант командира и сам зацени(да, кванты командира тоже были сломаны и их пофиксили уже после ламы3)

>и то, и другое - лоботомит ебаный.

Вытекаешь из треда уже, хватит новичков путать своим жиром.
Аноним 27/05/24 Пнд 18:10:04 760081 249
>>760075
>кванты командира тоже были сломаны
Ну кстати командир+ даже сломанный был шикарен, проебал он там с процент мозгов (сейчас вообще огонь). А вот лламу 3 прям корёжит от замены токена \n\n на два токена по \n.
Аноним 27/05/24 Пнд 18:17:42 760093 250
>>759411
>Земля стекловатой.
Ну это всё ещё лучше, чем на проце или на моей рыксе 570 потому что амуде пидарасы и прекратили поддержку Polaris в ROCM, так что хуй вам, а не ИИ..
Аноним 27/05/24 Пнд 18:18:06 760094 251
image.png 539Кб, 3000x2100
3000x2100
>>759888

Там вплоть до самой ужатой четырехбитки iQ4_NL и iQ4_XS падение качества в пределах арифметической погрешности. У больших моделей даже самыми большими 3 бит можно пользоваться если совсем припрет.
Аноним 27/05/24 Пнд 18:28:58 760103 252
>>759844
смотри, эти разговоры ведут владельцы 2-3-4 тесл, для чела у которого нету столько врам актуален вопрос на каком минимальном кванте приемлемо потянет скажем командир. Или вопрос что лучше лама-3-8 в 8 кванте или допустим командир в 3 кванте. А вот эти вот изречения типо: командир идиот ниже 6 или 4 кванта это ни о чем, так как идиот относительно чего? Относительно себя же в 8 кванте или относительно ламы-3-8 в 8 кванте? Как видишь две большие разницы. Другой вопрос почему владельцы 2-3 4090 гораздо меньше разговаривают о том, что все модели ниже 70б гавно, чем владельцы тесл? Потому что владельцы тесл сами себе хотят доказать, что не зря купили старые картонки, а 4090-никам ни в чем убеждать себя не надо и так все заебись.
Аноним 27/05/24 Пнд 18:30:27 760105 253
>>760081
>корёжит от замены токена \n\n на два токена по \n.

Её от всего корежит - от настроек, от порядка сэмплеров, от пробелов в инстракшене, от стоп токенов. Overtrained говнина потому что. А дурачки её еще на открытых датасетах обучают, которые 100% что уже есть в модели(они буквально все что можно и нельзя туда засунули), разумеется это вызывает расфокусировку модели со всех остальных токенов.
Аноним 27/05/24 Пнд 18:30:45 760106 254
>>760094
>тесты зирошотов, на которые всем миром модели надрачивают
Ещё бы модели по этим тестам страдали.
Аноним 27/05/24 Пнд 18:36:53 760110 255
>>760106
>на которые всем миром модели надрачивают

Кванты натаскивают на тесты? Жора лично инъекцию правильных ответов в каждый квант вносит чтобы тот не обосрался?

>Перплексити не пруф
>MMLU не пруф

И что именно пруф в твоем манямирке? Может ты сам пруф своим словам и предоставишь тогда?
Аноним 27/05/24 Пнд 18:42:37 760113 256
>>760094
Это просто тест на знания, оно даже мозги не оценивает, ни работу с информацией, ни удержание контекста или вообще многооборотистый чат
Знания так же как и генерация простых ответов страдают последними, это ведь одно и то же по сути.
Зерошот ответы на вопросики на которые сетку специально надрачивали
Аноним 27/05/24 Пнд 18:48:58 760118 257
>>760110
>Кванты натаскивают на тесты?
При чем тут кванты и их обучение?
Речь о том что сетка при квантизации теряет в первую очередь не знания или способность продолжать текст
В первую очередь разница в том заметит ли она что то в длинном чате, сможет ли связать 2 мысли в одну и тд
Тоесть более абстрактные вещи, "мозги"

Вот только все тесты у нас либо зирошот вопросики, которые это не оценивают, либо вообще перплексити, для самых отбитых.

Потому что падение перплексити это вообще нижняя планка, оно просто оценивает на сколько точно зирошот вопросики отвечаются на разных квантах от оригинала. Тоесть оценивается отклонение в самой примитивной работе сетки - генерации текста, которая страдает как ясно самой последней.
Аноним 27/05/24 Пнд 18:49:24 760122 258
>>760113
> мозги
Каждый раз как в первый вскрикиваю.
Аноним 27/05/24 Пнд 18:50:09 760127 259
>>760113
>сетку специально надрачивали

Так сетку, а не квант. Квант какое отношение к этому имеет? То что метку надрачивали на знания делает сомнительным сравнение с другими сетками, а не с квантами одной и той же сети.
Аноним 27/05/24 Пнд 18:50:30 760129 260
>>760122
Ну а хули, придумай как это покрасивее обозвать
Аноним 27/05/24 Пнд 18:51:09 760130 261
>>760103
>Относительно себя же в 8 кванте или относительно ламы-3-8 в 8 кванте?
Ну смотри, я хуй знает, что там с командиром в 8 кванте, но в четвёртом относительно неквантованной 8b лламы он хуйня полная. Единственный плюс, что на одинаковых настройках у командира посты длиннее, но из-за длинны поста он теряет суть беседы буквально три раза за сообщение. Странно вообще, что такую хуйню кто-то серьёзно нахваливает, это троллинг какой-то.
>4090-никам
А у них руки заняты. А теславоды запускают хералион b с подкачкой на кофемолку и дрочат форум, пока там генерируется бредотина со скоростью 0.1т\с
Аноним 27/05/24 Пнд 18:54:15 760136 262
>>760130
>я хуй знает, что там с командиром в 8 кванте, но в четвёртом относительно неквантованной 8b лламы он хуйня полная.

Ты 100% запускал сломанный ггуф с выкрученными в говнину настройками и инструкцией от чего угодно, но не командира и даже не альпаки/мистраля на которых он тоже хорошо работает.
Иначе я не понимаю как ты это получил.
Аноним 27/05/24 Пнд 18:55:05 760140 263
>>760130
> но в четвёртом относительно неквантованной 8b лламы он хуйня полная.
Ну либо ллама неквантованная так сильно отличается от 8 кванта, либо ты пиздишь
Я тыкал только 4 квант командера 35, и с нормальным промпт форматом он заебись отвечает
Более связно, умно. Рассуждает гораздо лучше лламы
На знания не проверял просто ебал мозги задавал вопросики на карточке с тсинкингом. Гораздо лучше ей пользуется.
Лламе не хватает внимания, понимает меньше, не делает очевидных выводов
Аноним 27/05/24 Пнд 18:59:23 760153 264
image.png 19Кб, 604x37
604x37
image.png 20Кб, 604x35
604x35
image.png 18Кб, 604x35
604x35
image.png 20Кб, 607x36
607x36
>>759528
>А че по скорости?
8B модель - пик 1 aya-23-8B-Q8_0
13B модель - пик 2 +/- 1.5 Т/c ruGPT-3.5-13B-erotic-kink-chat-Q5_K_M
35B модель - пик 3 +/- 0.4 Т/с c4ai-command-r-v01-Q4_K_S - и он полностью не влез. Потому загрузил всего 38 слоёв в гпу, может поэтому так медленно.
другая 35B модель - пик 4 yi-34b-chat.Q4_K_M - эта влезает полностью, поэтому решил её тоже протестировать.

Тестировал на koboldcpp + ST. Вроде как, на голой лламе.цпп без карточек, без фронтенда и прочей хуйни, должно быть быстрее. Но, думаю, никому здесь не интересно такое использование.
Да, данные грубые и их мало. И всё такое, но думаю, что в принципе они соответствуют видево карточке. Думаю, что прмерно такие результаты будут и на других моделях со схожими размерами.
Аноним 27/05/24 Пнд 19:03:17 760163 265
котик блюет.mp4 981Кб, 576x1024, 00:00:09
576x1024
>>760153
>ruGPT-3.5

Лучше бы ты сайгу 13В тестировал, чесслово, ругопота в 2024 это уже даже не кринж, это просто провал, это все равно что пигму использовать.
Аноним 27/05/24 Пнд 19:09:02 760171 266
>>760163
Ну, тестовые модельки. Надо же было на чём-то затестировать 13B, правильно? А другого 13B говна, пока что на харде нету.
Сейчас же тестирование было не на кач-во, а на скорость, так что, думаю, вывод не сильно важен. И тестирование было не модельки, а железа.
Но если, они сильно отличаются по скорости, то могу скачать и протестировать её тоже.
Аноним 27/05/24 Пнд 19:11:16 760174 267
Аноним 27/05/24 Пнд 19:12:15 760179 268
>>760130
>в четвёртом относительно неквантованной 8b лламы он хуйня полная
Было бы отлично если бы лама 8б была такой заебатой. Но увы, по-моему рулит не жирнота кванта а кол-во параметров все-таки. Так вот в чем и дело - командир в 4 кванте у меня дает макс 2 тс - это блять не скорость, а гавно. Поскольку это вымораживает я вот думаю попробовать 3 квант или ну нахуй лучше чего-то поменьше, типа дарк форест, который неплох или мойстрал и прочие соляры или ламу 8б, ну чтобы было хотя бы приемлемо, пусть не охуенно как там на командире или еще чего побольше, потому что скорость мне очень важно, более чем качество. Один хер такого же качества как у клода или гопоты все равно не будет, когда надо чего-то по делу я пользуюсь ими, а так поиграться в приключения можно и с такой моделью но чтобы скорость была.
Аноним 27/05/24 Пнд 19:16:42 760186 269
>>759678
> Ты не только в глаза долбишься, но еще и сам хуйню пишешь. =)
Твоя неспособность отвечать по существу доказывает, что неправ здесь ты.
> И раз уж ты сам нихуя не способен осваивать контекст и читаешь посты жопой, то с твоей стороны очень странно упрекать в этом анона, который посты хотя бы читает.
Так я того анона как раз и не упрекал. Я упрекаю тебя.
> Блин, загрузил 70b, и она один раз слово выдумала с английским, другой раз с китайским.
> Гребанный ггуф поломанный в гребанной ллама_сипипи_пайтон.
> Почему 8б отвечает чище 70б.
> Где мои две 3090.
Скилл ишью.
Аноним 27/05/24 Пнд 19:16:54 760187 270
>>760179
>я вот думаю попробовать 3 квант

Попробуй iQ4_XS квант сначала.
Аноним 27/05/24 Пнд 19:18:41 760190 271
Аноним 27/05/24 Пнд 19:22:22 760193 272
>>759528
>Ты на чуб зайти был не в состоянии, выбрать себе Мегумин?..
Ну это была шутка, чтобы разбавить обстановку, тащем-та. Я же там продолжил отвечать Анону. Как ты себе это представляешь? Я дрочу на мегумин и параллельно на сосаке переписываюсь?
Аноним 27/05/24 Пнд 19:24:32 760195 273
>>760193

Он имел ввиду что ты мог бы сам её на чубе найти, персонаж популярный.
Аноним 27/05/24 Пнд 19:27:28 760200 274
>>760195
Так я понял. Я же поясняю, что это было именно, чтобы обстановку разбавить. А то вы все какие-то тут серьёзные. Забавен только тот Анон, что скрины с Педо-Рассказчиком кидает. Вот у него скрины забавные.
Аноним 27/05/24 Пнд 19:31:26 760204 275
>>760130
> А теславоды запускают хералион b с подкачкой на кофемолку и дрочат форум, пока там генерируется бредотина со скоростью 0.1т\с
Этот прав, кстати.
Аноним 27/05/24 Пнд 19:34:02 760207 276
>>760179
>рулит не жирнота кванта а кол-во параметров
Да там совокупность на самом деле. Одно без другого не работает. У меня вот скорость Q4 командира >>759229 но гоняю всё равно не его.
>дарк форест
В целом, неплох, но пиздец как путается в ерп, там и снимание трусов по три раза подряд и многое другое. И не слишком хорошо слушается карточку. Гопота хуй знает, пробовал новую 4о и 3.5 турбу, халявные версии, само собой. Впечатления строго негативные. Может, они и лучше даркфореста в понимании ситуации, в рп не пробовал. Но в целом впечатления негативные крайне. Ах да, если у тебя рп без е, то даркфорест чувствует себя намного лучше.
Аноним 27/05/24 Пнд 19:34:16 760208 277
>>760200
>Забавен только тот Анон, что скрины с Педо-Рассказчиком кидает. Вот у него скрины забавные.

Это я. Спасибо. Тут полтреда - мои скрины, не любят аноны скринами делиться, почему-то, зато любят попукивать как 105В отсасывает у 8В
Аноним 27/05/24 Пнд 19:37:02 760217 278
>>760208
>не любят аноны скринами делиться, почему-то
Лично мне стыдно нормальным РП делиться... А хули смысла Анонам показывать какое-нибудь тестовое говно, типа: "Hello, how are you?"?
Аноним 27/05/24 Пнд 19:43:28 760232 279
>>760217
>Лично мне стыдно нормальным РП делиться

Ты там всерьез отыгрываешь что-ли? Ну тогда да, чего таким делиться. Надо просто дичь творить и заставлять сетку охуевать с твоих запросов - и сам развлечешься и сетку проверишь и анонам показать можно
Аноним 27/05/24 Пнд 19:48:14 760240 280
>>760208
>как 105В отсасывает у 8В
Это возможно в принципе датасет разный.
Аноним 27/05/24 Пнд 19:48:32 760241 281
16223303997580.jpg 276Кб, 811x1147
811x1147
Есть какие бомбезные нейросети среди новых до ~35B?
Аноним 27/05/24 Пнд 19:49:13 760244 282
>>760232
Ну я либо тестирую, либо серьёзно отыгырваю. Хотя помню, пытался по приколу поиздеваться над нейронкой, а именно совершить износ над девочкой-роботом, при этом всём воспевая "И вновь продолжается бой!". Результатом стало то, что модель начала жрать постоянно все 250 Ватт и генерировать 256 EOS токенов.
Но я тебя понял. В следующий раз так и сделаю.

>>760241
aya-23
Аноним 27/05/24 Пнд 19:56:57 760252 283
изображение.png 70Кб, 1102x518
1102x518
>>760110
>Кванты натаскивают на тесты?
Ну в общем-то калибровка на викитекст уже не новость.
А вообще, я про то, что на тесты модели гоняют дольше, чем на рандомные данные. Поэтому при квантовании данные тестов могут страдать меньше, чем любые другие.
>И что именно пруф в твоем манямирке?
Квадратные уравнения, лол. А так ХЗ, я ещё не настолько хорош в МЛ, чтобы выдумать правильный тест. Пока я вслепую ебашу какой-то код с GPT4, вроде работает, но нафига вот тут каждый шаг вызывать zero_grad(), я вот ХЗ. Через пару лет освою и скажу точнее про тесты.
>>760118
>Потому что падение перплексити это вообще нижняя планка, оно просто оценивает на сколько точно зирошот вопросики отвечаются
Перплекси это даже не вопросы, это дополнение текста википедии. Ещё проще по уровню на самом деле.
>>760130
>Странно вообще, что такую хуйню кто-то серьёзно нахваливает, это троллинг какой-то.
Я вот только плюсового надрачиваю, без плюса максимум 1,5 раза запустил.
>>760140
>Лламе не хватает внимания
Ну так 8к контекста против 128, хули тут хотеть (офк у командира наверняка растягивание + небольшой тюн, но всё же).
>>760153
>Вроде как, на голой лламе.цпп без карточек, без фронтенда и прочей хуйни, должно быть быстрее.
С чего бы?
>>760187
Тормоз тормоза же.
>>760232
>Ты там всерьез отыгрываешь что-ли?
Я всегда себя отыгрываю, так что лично я ни одного скрина РП не принесу. А от тестов моих уже всех воротит (впрочем я не перестану).
Аноним 27/05/24 Пнд 19:57:20 760254 284
>>760244
>aya-23

Зачем он еще одну 35В обучил? В чем разница с командиром?
Аноним 27/05/24 Пнд 20:03:10 760272 285
>>760252
>Тормоз тормоза же.

В моем случае два дополнительных слоя на видеокарте дают на IQ4_XS серьезный буст по сравнению с Q4_K_S
Аноним 27/05/24 Пнд 20:06:04 760274 286
>>760252
>С чего бы?
Предположу, что это из-за того, что модель меньше информации на вход принимает. Типа нету особо контекста, описания карточки и т.п. Хотя, может я не прав. Но, когда я гонял голую лламу, то даже на проце 7B модели имели в районе 6 Т/c. После связкт голой лламы.цпп с фронтендом, скорость была настолько низкой, что даже спустя 30 минут нихуя не вышло.

>>760254
Другой датасет:
https://huggingface.co/datasets/CohereForAI/aya_collection

Написано, что официально может понимать русский язык:
Я сильно большой разницы между 35B версией командера и aya не заметил. Хотя вот 8B версия очень хорошо, как по мне понимает русский. Но я могу быть не прав из-за малого опыта.
Аноним 27/05/24 Пнд 20:09:26 760283 287
>>760272
Ну разве что это последние 2 слоя.
>>760274
>Типа нету особо контекста, описания карточки и т.п.
Тогда смысл этого? Модели без контекста никому не нужны, тут бы наоборот, как бы 16-32к токенов впихать (больше уже жирнота, но вот 32к на локальном ой как хочется).
>скорость была настолько низкой, что даже спустя 30 минут нихуя не вышло
В оперативку выгрузилось небось, снизь число слоёв на видяхе.
Аноним 27/05/24 Пнд 20:09:54 760285 288
>>760004
На командер конечно.
Аноним 27/05/24 Пнд 20:11:19 760289 289
>>760283
>Тогда смысл этого? Модели без контекста никому не нужны, тут бы наоборот, как бы 16-32к токенов впихать (больше уже жирнота, но вот 32к на локальном ой как хочется).
Так я и написал, что смысла предоставлять информацию о скорости на голой лламе - нет. Потому и не стал добавлять, просто упомянул.

>В оперативку выгрузилось небось, снизь число слоёв на видяхе.
Нет, ты не понял. Я тогда ВООБЩЕ не грузил видюху. Чисто на ЦП. Экспериментировал, так сказать...
Аноним 27/05/24 Пнд 20:15:05 760296 290
Аноним 27/05/24 Пнд 20:15:26 760297 291
17095336433100.jpg 430Кб, 1024x1024
1024x1024
>>759818
Работа просто замечательная, да.
Не совсем понял вопрос, но таки поднял убабугу, зашёл со своей машины. Долго не мог загрузить модель, в итоге оказалось, что по инструкции с гайда ставится торч2.30, а нужен торч2.20. Успел запустить 70В ламу, и заметил неприятный эффект: если использовать стандартное описание, он более-менее правильно отвечает на вопросы по математике, хотя бред полный несёт, а если дать кастомное описание с характером, то перестаёт вообще понимать о чём я его спрашиваю. Ну в целом это логично, что персонаж аниме не должен знать о гомотопических группах, но всё равно.
На днях буду тестить другие модели, принимаю реквесты, что спросить-как настроить.
Аноним 27/05/24 Пнд 20:16:17 760299 292
>>760283
>Ну разве что это последние 2 слоя.

Не последние. И вообще - с хуя он должне быть медленнее, если он меньше?
Аноним 27/05/24 Пнд 20:22:42 760315 293
Текстовые модели же могут в мультигпу, насколько я понимаю?
Имеет ли смысл взять мамку для майнинга и набить в неё что-нибудь дешёвое типа 3060? Эдакий А100 для бедных. Или фигня получится?
Аноним 27/05/24 Пнд 20:23:14 760317 294
image.png 173Кб, 479x791
479x791
>>760297
Выбирай для сеток их промпт формат, без него они тупят и едва показывают на что способны
Это первые сетки и всякие миксы всеядные, им хоть без промпт формата запускай, а вот новая ллама 3 хочет свой формат
Вот эта хуета на пик
Аноним 27/05/24 Пнд 20:25:42 760326 295
>>760315
>Имеет ли смысл взять мамку для майнинга и набить в неё что-нибудь дешёвое типа 3060?

Нет, 3060 с 12 гб стоит как P40 c 24 гб. Думай.
Аноним 27/05/24 Пнд 20:29:52 760337 296
>>760326
3060 я просто в качестве примера привёл.
Аноним 27/05/24 Пнд 20:33:58 760346 297
изображение.png 107Кб, 973x1123
973x1123
изображение.png 152Кб, 1254x1282
1254x1282
aya23 8b vs llama3 8b для придумывания заголовков и тегов к пастам.
Аноним 27/05/24 Пнд 20:35:30 760349 298
>>760346
А чем тексты скармливаешь?
Аноним 27/05/24 Пнд 20:37:17 760353 299
>>760349
Скриптом на питоне через апи кобольда.
Аноним 27/05/24 Пнд 20:41:55 760361 300
>>760207
>>760179
Какой форест? Вы там ебанулись? Он сильно хуже лламы.
Аноним 27/05/24 Пнд 20:53:47 760398 301
.png 0Кб, 72x40
72x40
Что значит это imat?
Аноним 27/05/24 Пнд 20:53:59 760399 302
>>759987
> бля какие же скудные датасеты на кум, ну родина вам третью ламу дала, нет блять хотим говнотексты ей скормить чтобы она порождала "Еби меня василий. и Василий ибал иё, ана станала как шлюха". Тьфу блять!

> А как надо?

> А надо блять чтобы ИИ сам взял прекрасный слог и излагал графичность сцен и хорнивость героев. И нет, промптом то не фиксится
Вот за что мне ллама нравится, так это за то, что промптом это фиксится. Я думаю, что она все ещё проигрывает moistral, но вполне себе старается. Тебе вообще какой уровень результата нужен?
Аноним 27/05/24 Пнд 21:00:13 760412 303
>>760217
А вот анон >>759398 вполне себе делится. Почему ты не можешь так же?
Аноним 27/05/24 Пнд 21:01:59 760419 304
>>760412
Ну сты-ы-ыдно... Я жи омега трясун. У меня ноги начинают дрожать, когда мне на встречу даже дефки идут...
Аноним 27/05/24 Пнд 21:03:43 760424 305
>>760419
> Ну сты-ы-ыдно... Я жи омега трясун. У меня ноги начинают дрожать, когда мне на встречу даже дефки идут...
Здесь в треде 95% абсолютно такие же. Иначе нахуя они по-твоему дрочат тупые нейронки, пока альфачи ебут настоящих тянок?
Аноним 27/05/24 Пнд 21:06:36 760431 306
>>760424
Всё равно пиздецки стыдно. Я могу только не на серьёзном ебале что-то кидать. Потом так делать и буду... И всё равно стыдно... Я только-только переборол стыд написания нейронке всяких пошлостей... А ты ещё предлагаешь это на Двач заливать!
Аноним 27/05/24 Пнд 21:11:07 760435 307
>>760431
Мне говорить легко, потому что мне стыдно за свое существование в принципе. И на фоне этого стыда, мне даже голым на улице пройтись не так позорно будет. Ты можешь отыгрывать не себя, а другого персонажа, например, девочку. И делать лесбийское. Попробуй, может так тебе даже больше понравится.
Аноним 27/05/24 Пнд 21:16:44 760447 308
>>760435
>И на фоне этого стыда, мне даже голым на улице пройтись не так позорно будет.
Я бы хотел, чтобы тоже так мог бы про себя сказать... Но не могу... Всё равно стыдно...

>Ты можешь отыгрывать не себя, а другого персонажа, например, девочку. И делать лесбийское. Попробуй, может так тебе даже больше понравится.
Стыдит просто тот факт, что я на серьёзном ебале всякие пошлости пишу, а потом другим показываю. Так что даже если я буду отыгрывать не себя, но полностью серьёзно, то мне всё равно будет очень-очень стыдно! Думаю, что мне легче, но всё ещё стыдно, будет заливать какую-нибудь шизофазию, как тот сценарий с коммунистическим изнасилованием девочки-робота, где я отыгрывал психа-лениниста. Никакой политики, просто почему-то тогда мне пришла в голову именно эта идея.
Аноним 27/05/24 Пнд 21:35:30 760490 309
>>760447
Лучше не заливай. Ничего противозаконного. Этот сайт под колпаком.
Аноним 27/05/24 Пнд 21:39:00 760502 310
>>760490
Так это же диалог с нейросетью! Разве это противозаконно. Да и вон там Анон 10-летних ИИ лолей трахает и заливает сюдой...
Аноним 27/05/24 Пнд 21:42:17 760512 311
>>760502
>Да и вон там Анон 10-летних ИИ лолей трахает и заливает сюдой...
Это опять товарищ лейтенант балуется, сделаю ему выговор.
мимо майор
Аноним 27/05/24 Пнд 21:44:20 760521 312
>>760512
Понял вас, Товарищ Майор! Ничего противозаконного заливать не будем! Только зефирки, леденцы и милые одетые совершенно точно совершеннолетние девочки.
Аноним 27/05/24 Пнд 21:44:21 760522 313
изображение.png 117Кб, 977x1072
977x1072
изображение.png 56Кб, 1584x252
1584x252
>>760299
>И вообще - с хуя он должне быть медленнее, если он меньше?
Реализация такая. Там другая математика, так что замедление прямо в репе герыча прописано. По моим прикидкам, замедление там раза в 2-4 при выигрыше в размере в 20%.
>>760398
Пикрил 2, в вики опять ещё подробнее расписывать.
Аноним 27/05/24 Пнд 21:46:22 760531 314
>>760522
Ну так это на процессоре! На гпу всё норм жи, судя по скрину.
Аноним 27/05/24 Пнд 21:47:34 760536 315
>>760531
Да. Но какой смысл использовать герыча GPU-only? Там уже можно экселя запускать.
Аноним 27/05/24 Пнд 21:48:33 760543 316
>>760502
На хуй не верь никому. В пизду один крысакун и ты в пизде.
Аноним 27/05/24 Пнд 21:50:01 760550 317
>>760536
Так вроде жи тот Анон хотел просто командера запустить полностью в ГПУ, не? Или я туплю?
Аноним 27/05/24 Пнд 21:59:47 760583 318
>>760490
Человек и так зашуган, зачем вы его ещё больше шугаете?
>>760543
Но да, к сожалению, это правда.
Аноним 27/05/24 Пнд 22:03:23 760598 319
Аноним 27/05/24 Пнд 22:23:42 760660 320
изображение.png 4Кб, 442x154
442x154
>>760598
Мда, а говорили в СССР очереди большими были.
Аноним 27/05/24 Пнд 22:44:17 760712 321
>>760660
Запускай локально.
Аноним 27/05/24 Пнд 22:46:35 760718 322
изображение.png 21Кб, 1204x214
1204x214
>>760712
Кобольд не может.
Аноним 27/05/24 Пнд 22:48:14 760725 323
>>760718
А что это значит? Типа версия драйвера старая? Какая у тебя версия CUDA?
Аноним 27/05/24 Пнд 22:48:38 760726 324
Аноним 27/05/24 Пнд 22:51:07 760733 325
>>760725
Очевидно, что поддержки модели нет, вот и обосрамс.
Аноним 27/05/24 Пнд 22:53:04 760737 326
>>760733
Нет, когда поддержки модели нет, то вроде же кобольд говорит, что - неизвестный тип модели, как с командером, например.
Аноним 27/05/24 Пнд 23:00:06 760753 327
>>760737
Это когда совсем нет. А тут уже вторая или третья ревизия модели, поэтому тип есть, а поддержки нет.
Аноним 27/05/24 Пнд 23:08:32 760773 328
>>760753
Ааа.. У тебя что за ветка кобольды? Пробовал через concedo_experimental?
Аноним 27/05/24 Пнд 23:12:13 760777 329
>>760773
>У тебя что за ветка кобольды?
Да я казуал, у меня тупо релиз.
Аноним 27/05/24 Пнд 23:13:47 760780 330
>>760773
тут уж проще сразу лламаспп качать последний релиз и проверять
Аноним 27/05/24 Пнд 23:14:51 760782 331
>>760777
Так, установи именно concedo_experimental. Она наверное уже поддерживает эту модель... Ну и работает достаточно стабильно, по крайней мере я на ней и сижу.

>>760780
Да ничего сложного нет. Зато уже получишь рабочую кобольду в таком случае.
Аноним 27/05/24 Пнд 23:20:50 760792 332
https://www.reddit.com/r/LocalLLaMA/comments/1d1e8is/you_can_train_at_an_acceptable_speed_while/
для нейроанонов пытающихся в обучение

>>760782
>Да ничего сложного нет. Зато уже получишь рабочую кобольду в таком случае.

Да там релиз скачать и кинуть заменив старые файлы, Редактируешь готовый батник запуска сервера и запускаешь. Можно и в консоли.
Чем ебаться со сборкой кобальда, нахуя?
Сервер лламаспп запускается изи, к таверне подключается
Еще бы выбор модели и настроек удобнее сделать
Но это уже новый кобальд выйдет, лул
Аноним 27/05/24 Пнд 23:24:27 760797 333
>>760792
>Да там релиз скачать и кинуть заменив старые файлы, Редактируешь готовый батник запуска сервера и запускаешь. Можно и в консоли.
Так релизы с кудой только под винду. На гну/пинусе один хуй лламуцпп придётся пересобирать. А тут человек и так кобольдом пользуется. Прывык уже, наверное.
Аноним 27/05/24 Пнд 23:29:40 760802 334
>>760792
>пытающихся в обучение
А там ничего нового, оффлоад третьего дипспида давно известен. Да и что лламафектори лучше аксолотля тоже все знают давно.
Аноним 27/05/24 Пнд 23:33:13 760810 335
изображение.png 12Кб, 764x145
764x145
>>760792
>для нейроанонов пытающихся в обучение
ДОобуччение. Для обучающих с нуля это вряд ли поможет.
Шунт на 4090, чтобы та жрала 500 ватт, ебануться можно.
>>760802
>оффлоад третьего дипспида давно известен
Я вот не знаю про него.
Аноним 27/05/24 Пнд 23:39:31 760822 336
4090 500 ватт ест, или это TDP?
Аноним 27/05/24 Пнд 23:41:05 760824 337
>>760187
>Попробуй iQ4_XS квант сначала
не имеет смысла, это медленней чем Q4_K_S

>>760207
>рп без е, то даркфорест чувствует себя намного лучше.
Ну да, меня в принципе устроит

>>760361
>Какой форест? Вы там ебанулись? Он сильно хуже лламы.
Какой именно ламы? Если 3, то с этим никто и не спорит.
Аноним 27/05/24 Пнд 23:48:53 760833 338
>>760810
>Я вот не знаю про него.
Да обсуждали миллион тредов назад же. Оптимизатор и всю требуху можно выгружать в оперативу. Плюс, дипспид умеет нормально раскидывать нагрузку на несколько карт, чего те же трансформаторы не умеют в принципе. Единственный минус, что всё это добро не работает под виндой.

>>760822
TDP это и есть, сколько карта есть. По сути, это тепловыделение, только вот кпд электроники настолько низкий на самом деле, что 99% энергии переводится в тепло. Так что энергопотребление равно тепловыделению.
Аноним 27/05/24 Пнд 23:53:30 760839 339
Аноним 27/05/24 Пнд 23:56:55 760847 340
>>760833
Бля нихуа себе. У меня блок питания на 600 ватт, тут нужен на 2 киловатта, как в серваке.
Аноним 28/05/24 Втр 00:00:45 760852 341
>>760839
Я на ней неделю сижу. Еще Айя 8В вышла но она шизит в РП страшно.
Аноним 28/05/24 Втр 00:04:33 760856 342
>>760852
Поменьше температуру сделай. У меня она тоже шизила настолько, что нормально стала работать только на 0.2-0.45.
Аноним 28/05/24 Втр 00:05:44 760857 343
>>760833
>Единственный минус, что всё это добро не работает под виндой.
А, ну тогда мимо. виндоблядствую 15 лет
>>760839
>Occasionally spits out leaking XML and nonsense.
Лол, нейросети, которые мы заслужили.
>>760847
>тут нужен на 2 киловатта
Эм, 500 + 200 = 700, то есть моего 750 ваттника вполне себе хватит.
Аноним 28/05/24 Втр 00:07:23 760859 344
>>760824
>Какой именно ламы?
Вторую даже не рассматриваю. Ясное дело, что вторая - соевый мусор. Третья даже в 8В работает хоть как-то.
Аноним 28/05/24 Втр 00:10:58 760863 345
>>760847
Ну хуй знает. Так ты можешь серверный купить. Или бич-вариант, докинуть второй БП в систему. При соблюдении минимальной техники безопасности не полыхнёт.

>>760857
>А, ну тогда мимо. виндоблядствую 15 лет
В винде есть WSL, можно запустить линукс как приложение винды. Единственный минус, что картонки должны быть в WDDM режиме. С теслами есть проблема включить этот режим, если у тебя две разные видеокарты стоят. Если второй видеокарты нет или стоит заглушка слота от AMD, то всё работает без лишней ебли.
Аноним 28/05/24 Втр 00:35:10 760885 346
>>760863
>В винде есть WSL
WSL2, который виртуалка, и с которым добавляется отдельный пласт проблем.
Аноним 28/05/24 Втр 00:47:48 760898 347
image.png 30Кб, 1119x94
1119x94
>>760863
>заглушка слота от AMD
А вот чичас обидно было. Хотя это правда.
Аноним 28/05/24 Втр 01:14:29 760913 348
>>760857
>А, ну тогда мимо.
Погоди, сразу мимо зачем, ламафактори нормально под виндой. Пусть там может и не все работает, зато без пердолинга, одно это того стоит.
Аноним 28/05/24 Втр 01:15:12 760914 349
>>760852
>Я на ней неделю сижу.
Ты на англ её пользуешь или как?
Аноним 28/05/24 Втр 01:23:22 760918 350
image.png 11Кб, 434x34
434x34
Товарищи, Аноны, чяднт? Пытаюсь загрузить уже вторую модель коммандера 35B на I квантах c4ai-command-r-v01.IQ4_XS. koboldcpp отказывается загружать. Пересобирал голую лламу.цпп, она тоже отказывается загружать с такой жи ошибкой.
Я тот балбес, что генерит на старушке M40 24GB. Может она настолько старая, что не поддерживает I кванты? Они же типа, на "другой математике", как писал Анон из этого поста >>760522.
Причём коммандер на K квантах грузится нормально кроме того, что полностю не влазит..

Тут отписывались Аноны, у которых были проблемы с загрузкой коммандера на P40, у вас такая же ошибка вылезает?
Аноним 28/05/24 Втр 01:27:08 760922 351
image.png 106Кб, 897x758
897x758
>>760918
Заглянул сейчас в файл ggml-cuda/dmmv.cu и походу ллама просто не может понять, что это за тип квантования. Другой вопрос, как дать ей понять?
Аноним 28/05/24 Втр 01:27:43 760923 352
>>760733
>>760718
Какая версия кобольда? У меня все работает.
Аноним 28/05/24 Втр 01:46:08 760937 353
image.png 6Кб, 516x18
516x18
>>760918
>>760922
Ладно, похуй отбой. Походу была слишком старая версия лламы.цпп. Обновил, стала определять кванты. Ну да, последний раз лламу.цпп, я обновлял ~месяц назад. А вот кобольду дня 3 назад.. В экспериментальную ветку.
Аноним 28/05/24 Втр 01:47:55 760940 354
Аноним 28/05/24 Втр 02:00:01 760947 355
>>759935
На русском шпарит, все остальное — аутотренинг.
35B прям вообще воробушек.
Выше писали, что 105б в 4 кванте норм, но я пробовал 4, 5 и 6 — он в 6 норм, в 5 терпимо, в 4 я бы не сказал.

Или у тебя карта с отыгрышем специфичные, или тебе так лишь кажется.

>>760042
+
Но ваще байт немножк, канеш. =)

>>760174
> как ассистент хороша … убила меня
о_о спасиба ни нада

>>760186
Ты правда глупый. Уже без рофлов.
Давай я поясню для глупеньких, как ты.
1. Я сразу признал свою неправоту и извинился.
2. Ирония была про тебя и меня.
Ладно, закончим, а то ощущение, что с какой-то 3б моделькой без контекста говорю.

>>760193
Руки две, в чем проблема? )

>>760315
Да, но сомнительно. Скорость будет не ахти, а деньги убьешь.
Бери теслы, дешевле и вдвое больше памяти. А 3060 заебешься пихать.
Аноним 28/05/24 Втр 02:06:18 760949 356
video2024-05-28[...].mp4 5993Кб, 1280x720, 00:00:14
1280x720
image.png 805Кб, 988x730
988x730
image.png 356Кб, 1810x199
1810x199
Ну шо вы, тоже мешаете соседям спать по ночам?

Модель весит 60 гб. я поставил --n-gpu-layers 40 для llama.cpp
Можете мне пояснить, почему в двух гпу в сумме 40 гб, а в оперативке - ничего нет? Я думал, что в оперативку заедет еще 20 гб.
Не похоже, что модель прогрузила только 40 слоев из 64, потому что она дала вполне внятный ответ на реквест
Аноним 28/05/24 Втр 02:16:36 760950 357
>>760949
>Можете мне пояснить, почему в двух гпу в сумме 40 гб, а в оперативке - ничего нет
Не можем. Так не бывает. Видимо использование РАМ мониторит криво.
Шум конечно сильный. Если свист будет напрягать, могу посоветовать поменять охлаждение на большие улитки с переходниками, есть готовые от 2,5к. Но в этот корпус не влезут, придётся менять и его. Зато заметно тише и охлаждают лучше.
Аноним 28/05/24 Втр 02:24:39 760952 358
14967513482860.jpg 9Кб, 300x168
300x168
>>760940
>Руки две, в чем проблема? )
Аноним 28/05/24 Втр 02:57:41 760954 359
image.png 104Кб, 1760x798
1760x798
Внесите в шапку онлайн-квантователь чтобы любой мог создавать себе ггуфы последней версии желаемой битности для любой модели.

https://huggingface.co/spaces/ggml-org/gguf-my-repo
Аноним 28/05/24 Втр 03:11:23 760955 360
>>760947
> Ты правда глупый. Уже без рофлов.
Давай я поясню для глупеньких, как ты.
1. Я сразу признал свою неправоту и извинился.
>>759631
>=D Сук.
А, это ты так извинился. Понятно. Охуенно извиняешься. Продолжай в том же духе и тогда тебя даже на дваче игнорить начнут. Будешь с коммандиром создавать треды и общаться один на один, лол.
Аноним 28/05/24 Втр 03:14:39 760956 361
>>760947
Алсо
>2. Ирония была про тебя и меня.
Походу ты реально только с нейронками общаешься, раз на полном серьезе думаешь, что я не понял контекст. Видимо, слишком много общаться с ИИ это тоже вредно.
Аноним 28/05/24 Втр 03:19:46 760958 362
>>760937
Так нихуя не отбой. На новой лламе тоже нихуя не работает несмотря на то, что она определяет тип квантования, она всё равно нихуя не загружает.
Здесь: https://github.com/ggerganov/llama.cpp/issues/6282 - У человека тоже нихуя не получается загрузить IQ4_XS и он спихивает всё на P100, однако у владельца P40 удаётся её загрузить. Походу придётся, до Q3 опускаться..
Аноним 28/05/24 Втр 03:22:41 760960 363
>>760954
>любой мог создавать себе ггуфы последней версии желаемой битности для любой модели.
А оно из чего делает желаемый квант? В большинстве репозиториев теперь не больше Q8 лежат. Как я понимаю, для хорошего результата FP16 бы надо. Правда я плохо понимаю.
Аноним 28/05/24 Втр 03:25:03 760961 364
>>760960
>А оно из чего делает желаемый квант?

Из того что ты попросишь - из того и сделает

>В большинстве репозиториев теперь не больше Q8 лежат.

Лолчто?

>Как я понимаю, для хорошего результата FP16 бы надо

Все оригиналы моделей в 16 битах.
Аноним 28/05/24 Втр 03:26:12 760962 365
>>760958
Это же P100, загружай версию exl2
Аноним 28/05/24 Втр 03:26:26 760963 366
image.png 40Кб, 832x324
832x324
>>760958

У меня последний кобольд всё грузит как часы, именно этот квант этой модели.
Аноним 28/05/24 Втр 03:30:34 760967 367
>>760960
>Как я понимаю, для хорошего результата FP16 бы надо.
Ллама-3 лежит в bf16, которую нужно перегнать в fp32 перед квантованием. Никакая веб-залупа этого делать не будет, а значит, квант будет сломан.
Аноним 28/05/24 Втр 03:31:31 760969 368
>>760962
>Это же P100
Таки и чего? У меня тащем-та видюха старее. Или типа это нормальной для P100?

>загружай версию exl2
Т.е. через убабугу запускать? Ла-а-адненько..

>>760963
Понял тебя, значит скорее всего проблемы действительно в железе.
Аноним 28/05/24 Втр 03:32:08 760970 369
>>760961
>Из того что ты попросишь - из того и сделает
Там же по сути одно поле ввода - Hub Model ID. Допустим я пишу туда: mradermacher/llama-3-70B-instruct-uncensored-GGUF
И дальше могу только выбрать желаемый тип квантования. Вроде всё, что там есть. Из чего оно будет квантовать?
Аноним 28/05/24 Втр 03:45:52 760975 370
image.png 46Кб, 1317x561
1317x561
image.png 47Кб, 1327x584
1327x584
>>760522
>Реализация такая. Там другая математика, так что замедление прямо в репе герыча прописано. По моим прикидкам, замедление там раза в 2-4 при выигрыше в размере в 20%.

Там замедление на слабых цпу, везде это написано, на нормальных цпу падение незначительное и выигрыш от ускорения в кубласе перекрывает.

>>760550
>>760550

Объясняю кейс. Есть 24 гб видеопамяти на 4090. Командир 4_К_S влезает полностью на гпу почти без контекста. Но модель без контекста это чемодан без ручки, нужен контекст хотя бы 8к. Самая большая трабла командира - он жрет видеопамять для контекста как сука, там где лама 8В за 64к сожрет ~15 гб. Тут нужно ~12гб на 8к контекста. И я эти 12 гб обязательно должен отдать с видеокарты, потому что контекст с цпу это недопустимо медленная обработка промпта. В итоге я выгружаю 10 слоев модели с видеокарты в цпу, освободившаяся видеопамять идет на контекст, скорость за счет выгрузки 10 слоев в цпу падает в 2-3 раза, но это все еще комфортные 4.5 - 6 токенов в секунду. Я проводил тесты, с 4_K_S мне приходится выгружать 12 слоев в цпу и падение скорости идет до 4-5 токенов, с iQ4_XS - на цпу идет всего 10 слоев и скорость как написано выше.
На пиках пруфы с бенчмарками, доказывающие что iQ4_XS быстрее Q4_K_S на порядок.
Аноним 28/05/24 Втр 03:47:02 760976 371
>>760970
>Допустим я пишу туда: mradermacher/llama-3-70B-instruct-uncensored-GGUF

Ты ебу дал, зачем ты ему ссылку на уже готовый квант даешь?
Аноним 28/05/24 Втр 03:50:44 760977 372
>>760975
>Объясняю кейс. ...
Понял тебя, Анонче, спасибо, за пояснения.
Аноним 28/05/24 Втр 03:51:19 760978 373
image.png 46Кб, 1322x572
1322x572
image.png 47Кб, 1327x584
1327x584
>>760975

Кажись обосрался с бенчмарком iQ4_XS, запостил с контекстом 2к. Переделал оба теста с правильным контекстом 8к, теперь выигрыш iQ4_XS не такой большой, но все еще налицо.
Аноним 28/05/24 Втр 03:55:42 760979 374
>>760978
Да ничего, саму суть я понял и это главное.
Слушай, Анон. Я тут видел про то, что несколько видеокарт, которые работают вместе над одной нейронкой - это медленно и не эффективно. А что если сделать так, чтобы одна видеокарта обрабатывала нейронку, а другая содержала контекст? Хотя, это наверное ещё медленней, тому что надо чтобы данные из VRAM одной видевокарты прошли через pci шину, потом через чипсет, опять через шину PCI-e и только тогда дошли до VRAM другой видеокарты, а потом ещё и в чип загнать..
Аноним 28/05/24 Втр 04:02:54 760980 375
>>760979

Не знаю, у меня всего одна 4090.
Тут все надо ручками проверять и тестировать, столько нюансов каждой конкретной имплементации, что чистая теория часто подводит, вот кто бы мог подумать что в поле IQ4_XS может быть быстрее Q4_K_S, а вишь оно как.
Аноним 28/05/24 Втр 04:16:52 760981 376
>>760980
>Не знаю, у меня всего одна 4090.
Ну тут где-то гулял Анон с несколькими 4090, надо бы его попросить об этом.

>кто бы мог подумать что в поле IQ4_XS может быть быстрее Q4_K_S, а вишь оно как.
>>760978
>выигрыш iQ4_XS не такой большой, но все еще налицо

Вообще, Анонче... Немного выглядит, как погрешность... Не мог бы ты ещё пару-тройку раз провести бенчмарк? Желательно десяточку, но думаю, что ещё два раза хватит..
Аноним 28/05/24 Втр 05:03:27 760986 377
Кек, решил поиграться с gemini pro, спросил у него за цензуру в Австралии, мол - чё так жёстко-то. В числе прочего он упомянул некие "Australian values". Спросил, чем это тогда отличается от использования у нас "традиционных ценностей" для оправдания всякого. Выдал мне стену текста в стиле "Ты не понимаешь, этадругое".
Это даже не соя уже, а хз как назвать.
Аноним 28/05/24 Втр 05:10:57 760988 378
>>760986

Не суди строго, ИИ никогда не будет умнее людей потому что его обучают на высерах людей. Где затупы у людей, там будут затупы у ИИ. Вообще скоро все поймут что главное не количество инфы которым обучают ИИ, а качество. Тут как с человеком - если обучать человека только на узкой выборке лучших книг - получится интеллигент с высоким iq, а если на чем попало - на комиксах, сериалах нетфликс и книгах Донцовой - то выйдет среднестатистический дегенерат. Вот современный ИИ это и есть такой дегенерат, увы.
Аноним 28/05/24 Втр 05:18:58 760991 379
>>760988
Да я в курсе. В принципе, я чего-то подобного и ожидал, учитывая кто его делал. Но всё равно забавно.
Аноним 28/05/24 Втр 05:20:30 760992 380
>>760988
А что если заставлять ИИ, обучать другого ИИ, на датасетах предыдузщего. И так в несколько тысяч итераций? В конце концов же, в последующих итерациях должно быть всё меньше человеческого, разве нет?
Аноним 28/05/24 Втр 05:21:20 760993 381
image.png 46Кб, 1321x583
1321x583
image.png 46Кб, 1321x577
1321x577
image.png 65Кб, 1348x766
1348x766
image.png 65Кб, 1348x766
1348x766
>>760981

Я могу и 10 раз его протестировать, результат не изменится, думаю дело именно в этих 2 слоях которые я пихаю в гпу, так что это не значит что всем подойдет использовать iQ4_XS вместо Q4_K_S, надо каждому индивидуально пробовать и тестировать.
Аноним 28/05/24 Втр 05:23:19 760997 382
image.png 601Кб, 1280x620
1280x620
>>760992

Получится буквально пикрелейтед, лол.
Аноним 28/05/24 Втр 05:23:33 760998 383
>>760993
А, ну в принципе, думаю этого и так достаточно. Думаю, погрешность была бы сразу видна. Хотя, думаю, что в отношении ИИ сложно применять одну ситуацию ко всем последующим, но ладно. Этого дейтсвительно достаточно, мы же тут блять не вговнемочённые, которым нужна выборка по нескольким тысячам экземпляров.
Аноним 28/05/24 Втр 05:31:43 761001 384
ulitochka.png 184Кб, 656x537
656x537
>>760997
Ну в принципе, в самом последнем человеке в цепи будет меньше и меньше человечного в мозгу и меньше съедбного во рту... Так что задача решена! Дайте мне нобелевку!
Аноним 28/05/24 Втр 07:21:16 761015 385
>>760975
>скрины
Чел, у тебя там размер контекста разный. Приведи к одному знаменателю. Ага, исправился.
>>760978
>теперь выигрыш iQ4_XS не такой большой, но все еще налицо
А теперь учти, что не у всех 4090. У меня 3080ti, 12 ГБ врама, и выйгрышъ от +1 слоя на ГПУ не перевешивает проигрыша от тормозов ЦПУ, ну прям вообще никак. Проц 7900х, современнее некуда, вершина процестроения.
>>760979
>данные из VRAM одной видевокарты прошли через pci шину, потом через чипсет, опять через шину PCI-e
Проц забыл. То есть путь будет (при типикал конфигурации) ГПУ 1 - шина - ЦП - шина - Чипсет - шина - ГПУ 2. Вот и живи теперь с этим.
>>760988
>Вообще скоро все поймут что главное не количество инфы которым обучают ИИ, а качество.
Уверен? Пока всё показывает ровно обратное, роляет практически только компут тайм, а для качества достаточно полиров очки сверху.
Аноним 28/05/24 Втр 07:46:54 761020 386
>>761015
>Проц забыл. То есть путь будет (при типикал конфигурации)
А блять точно... Хотя разве проц не может просто на низком уровне дать команду чипсету на обмен данными между двумя ГПУ? Ему же не обязательно знать, что именно за данные передаются?
Аноним 28/05/24 Втр 07:52:08 761023 387
>>761020
>Хотя разве проц не может
Технически для этого придумали ресайз бар. На практике... Да и ГПУ1 подключён напрямую к процу, так что как минимум шина в проце задействована будет однозначно.
Аноним 28/05/24 Втр 07:55:44 761025 388
>Да и ГПУ1 подключён напрямую к процу, так что как минимум шина в проце задействована будет однозначно.
Чего? Разве вся периферия не должна быть подключена именно к чипсету/южному мосту, который уже передаёт данные на проц/северный мост?
Аноним 28/05/24 Втр 07:56:13 761027 389
>>761025
>>761023
Блять. Всё ночь не спал... Прошу прощения.
Аноним 28/05/24 Втр 08:08:02 761029 390
>>761023
Ребар не делает прямое копирование. Он даёт для CPU доступ ко всей видеопамяти, без ребара есть только окно в 256 мб, драйвер должен сдвигать его для доступа к врам и не может одновременно обращаться к удалённым участкам памяти.
>>761025
Есть прямые линии на проц, а есть через чипсет. Обычно только одна х16 прямая, может ещё NVME быть 1-2 напрямую. Остальное чипсет разводит по линиям.
Аноним 28/05/24 Втр 08:16:56 761034 391
>>761029
>Есть прямые линии на проц, а есть через чипсет. Обычно только одна х16 прямая, может ещё NVME быть 1-2 напрямую. Остальное чипсет разводит по линиям.
Угусь, понял.. Т.е., чтобы уменьшить задержки между видеокартами в данной конфигурации, стоит использовать PCI-E слоты идущие через чипсет? Но тогда появятся задержки между ЦП и ГП1? А точно-ли ЦП будет пропускать через себя данные, которые нужно передать между ГП1 и ГП2? Или ему просто достаточно прочитать, для того, чтобы убедиться, что всё нормально и данные пойдут через чипсет?

Хотя смысл обсуждать это, ведь если даже удасться избежать участие ЦП, один хуй путь достаточно длинный, чтобы вносить задержки и серьёзно уменьшать произвдительность.
Аноним 28/05/24 Втр 08:25:19 761036 392
>>761029
>Ребар не делает прямое копирование.
А что даёт? Вроде была какая-то технология, которая должна позволять копировать говно между устройствами на псине без соучастия проца. Забыл как называется.
Аноним 28/05/24 Втр 08:42:53 761044 393
>>761036
> А что даёт?
Ну он ускоряет копирование, можно без сдвигов окна читать и писать сразу. Но это не прямое копирование, его всё ещё ЦП выполняет.
Аноним 28/05/24 Втр 08:49:55 761045 394
Аноним 28/05/24 Втр 10:19:12 761083 395
>>760955
Бля, это так мемно. =D
Извинения были выше, но ты не смог их процитировать, потому что они уже из твоего контекста выплыли, былин…

>>760956
Ну да, ну да, а тут
> Так я того анона как раз и не упрекал.
Ты не обосрался, а это был постироничный байт, ага. =)

Признайся, это Phi-3-mini с яндекс.переводчиком? Ну не верю, что что-то умнее и больше.

>>760960
Q8 даже для мелких (≥6b) моделей норм. Разницу между BF16, FP32, FP16 и Q8 на деле тут не определит, вероятно, никто.

>>760975
Но там контекст 2К…
Не, не то чтобы я тебе не верил, но скрин кекный вышел. =)

>>760978
О, уже 8%. Ну, такое…
Но по конкретному юзкейсу ты прав. Все индивидуально, ето да.

Я надеюсь ты понимаешь, что те, кто с тобой спорил, имели в виду общую скорость в идеальных условиях, где iq_xss медленнее? Они ж не знали такие тонкости. =)

>>760979
> несколько видеокарт, которые работают вместе над одной нейронкой - это медленно и не эффективн
Ху-и-та, блядь.
Берешь — и тестишь.
Замедление есть, но далеко не такое огромное, как пиздят.
Не удивлюсь, если те же люди, у которых разницы между q2 и q6 нет.

Ну и кто знает, может это еще и медленнее, да, но опять же — так на доли секунды, скорее всего. Это надо потестить, выставив 0,1.

>>760980
Да, тесты решают.

>>760986
Это называется двойные стандарты. =)

>>760988
Ну слушай, ты не совсем прав. Многие файнтьюны — это датасеты сгенерированные другими ллм. И чисто за счет рандома они могут быть и без высеров людей.
Другое дело, что проблема-то не одна. =)
Сетки в т.ч. намеренно пичкают необходимой инфой. Не именно «Австралия и Россия — это другое», но дойти до этого она и сама может, зная, что «Австралия — хорошо», а Россия их дорогой партнер ага-да.

>>760992
Да, как повезет.
Но подобная хуйня делает только хуже. Вон, НейралГермес и НейралЧат обучены на большом датасете из гпт4 — сетки говнище. ИМХО.

>>761029
>>761034
Я вас умоляю, померяйте, прежде чем обсуждать.
Типа, вы правы, ок, но о каких задержках вы говорите по итогу? 0,7 сек? На 20 секунд ответа? Есть такое выражение «значением можно пренебречь». ИМХО, тут как раз этот вариант.
У нас погрешности больше, чем это значение, зачастую.
Аноним 28/05/24 Втр 11:21:39 761114 396
>>760190
>>760399
Я пользуюсь моистралькой, но как бы блин родина третью ламу дала...
Может это скил ишью, но все файн тюны модные не следуют моему плану, я расписал ключевые моменты склонения к соитию, у меня не роулплей а рассказ. Там тян выебывалась перед мужиком дразнила а он ее силой трахнул, и этот момент расписан мной в плоте, но модельки пишут ересь как она к нему сиганула на член и прочие ДА ДА ЕБИ МЕНЯ. В общем не понимает сеттинг, описывает как обычный секс а писал что она сопротивляется и плачет.
Аноним 28/05/24 Втр 11:23:13 761118 397
>>761114
Я не уверен, что книгу реально даже с 70В написать. Инструкций много, а моделька маленькая. Она будет путаться.
Аноним 28/05/24 Втр 11:27:23 761120 398
>>761083
> Извинения были выше, но ты не смог их процитировать, потому что они уже из твоего контекста выплыли
Значит так извинялся, что на извинения не похоже. Пока что я от тебя только клоунаду и смайловысеры вижу.
Аноним 28/05/24 Втр 11:27:37 761121 399
>>761118
Я разбиваю на главы и затем на сцены, пишу по абзацу-два за генерацию, все работает, но приходится постоянно переписывать самому, потому что либо я промпт не могу написать либо ИИ тупо не улавливает суть изложенного в плане. При чем когда я набросал план я гоняю ИИ по нему чтобы подтвердить его понимание, и он отвечает правильно, например я спрашиваю "тян хотела трахнуть мужика верно?" ИИ отвечает нет, она хотела лишь подразнить его. А потом когда к непосредственной генерации текста приступаю, он начинает писать ересь вроде она сиганула ему на член и смачно засосала. Ну то есть вылазит скудность датасетов этих, ну хули там блять васяны писали порнотексты уровня еби меня василий.
Аноним 28/05/24 Втр 11:30:55 761123 400
>>761121
Я думаю дело не в датасете, а а том, что у нейронки изначально ни мозгов, ни памяти нет. Использовать 8В модельку для подобного это уже совсем плохая идея. Лучше уж генерить медленно, но нормальной моделькой.
Аноним 28/05/24 Втр 11:33:48 761129 401
>>761123
Если ты о контексте, то я в него прекрасно вписываюсь, у меня всегда расписаны герои в контексте и всегда есть саммари ключевых моментов прошлого. От ии требуется только писать сцену которая на очереди. И в целом ИИ справляется, но вот эти моменты вылезают наружу, моменты что датасеты порнухи очень хуевые. Это как в генерации изображений, есть три руки, шесть пальцев и другие артефакты. Только тут еще помноженные на в целом хуевых артистов, как если бы SD генерило строго из датасета хуевых художников.
Аноним 28/05/24 Втр 11:36:37 761132 402
>>761129
У меня ии сцену не писало. Просто не учитывает все факты. Они у нее в контексте лежат. Но когда дело доходит до писанины, то она начинает путаться. Я думаю что проблема не лечится. Ну или ггуф сломан был.
Аноним 28/05/24 Втр 11:37:05 761133 403
>>761120
> Мои извинения.
> на извинения не похоже.
Извинения не извинения, понятно. Буквально цитата.
=D
Слепошарик.

>>761118
Это делается в ноутбук режиме (автокомплишена), без всяких диалогов, и с правками, «в четыре руки».
Аноним 28/05/24 Втр 11:38:40 761134 404
>>761133
Ни в одном из твоих постов нет слова извини. Так что да, это не извинения.
Аноним 28/05/24 Втр 11:39:03 761136 405
>>761129
>Это как в генерации изображений, есть три руки, шесть пальцев
Так это, шестипалых в датасетах не сказать чтобы много. Это уже проёб самой нейронки, до сих пор мало мальски сложную фигуру из пальцев отрисовать не могут, а некоторые так оверфитнуты на руках, что вместо ног руки рисуют.
С текстовыми аналогично, они в принципе не могут думать, и никакие самые прекрасные датасеты тут не помогут.
Аноним 28/05/24 Втр 11:47:03 761152 406
>>761083
>двойные стандарты
Ну, справедливости ради, он там в конце пару строк черканул, что, мол, вообще-то вот всё что я сейчас написал - может показаться лицемерием, и вообще в реальности всё сложнее. Я сначала эту часть не заметил, спросил чё за дела такие. Ну там он уже эту мысль развил, сказал что да, лицемерненько как-то вышло, так что не стоит рубить с плеча, у всех свои загоны по поводу цензуры.

А вообще, тот разговор я начинал с попытки потроллить - вот, мол в америке негров линчуют в Японии рисуют прон с лолями, не пора ли этих педофилов на бутылку? Ответил, что нельзя так, культурные особенности, надо понимать, туда-сюда, и вообще они потихоньку исправляются. Тогда привёл пример австралии - типа вот челы вообще всех сажают - не деля на рисованное и нерисованное. Да, отвечает, есть такое, и вообще они много всякого цензурят и запрещают, щито поделать. Ну а что было дальше - я уже выше описал.

Вообще, этому место в gemini-треде, конечно, но там как-то совсем тухло
Аноним 28/05/24 Втр 11:57:12 761168 407
>>761152
То есть у нейронки мозгов хватает на то, чтобы понять, что она несёт хуйню. Но нести хуйню надо, потому что она находится в датасете. Прекрасно.
Аноним 28/05/24 Втр 11:59:37 761171 408
>>761168
Именно так, один из минусов ИИ в том что ей надо что то породить, отсюда и галлюцинации
Аноним 28/05/24 Втр 12:06:07 761175 409
>>761171
Дело не в том, что породить, а в том, что соя часто противоречит сама себе, отсюда и шиза у нейронки, которая соей накачана.
28/05/24 Втр 12:17:51 761177 410
>>761015
>А теперь учти, что не у всех 4090. У меня 3080ti, 12 ГБ врама, и выйгрышъ от +1 слоя на ГПУ не перевешивает проигрыша от тормозов ЦПУ, ну прям вообще никак. Проц 7900х, современнее некуда, вершина процестроения.

Да, я понимаю, я так и сказал, что у меня кейс особый и каждому надо самому смотреть по его имплементации. В твоем случае впрочем тоже могут быть кейсы где iQ4_XS даст 2+ слоев на гпу и сделает ускорение по сравнению с Q4_k_s, например в 20В моделях.
Аноним 28/05/24 Втр 12:23:43 761181 411
>>761177

Сажа прилипла случайно
Аноним 28/05/24 Втр 12:44:50 761195 412
Бля, мочух, не в Китае живём, хули тереть то.
Аноним 28/05/24 Втр 12:45:24 761196 413
Кста, на дваче цензура хуже чем у самых соевых сеток. И в чём я не прав?
Аноним 28/05/24 Втр 12:46:50 761197 414
>>761134
А, то есть «извинения» и «извини» — это не одно и тоже? Разные токены, понимаю… То есть, я должен писать «извини», а не «мои извинения», да? =) Второй вариант у тебя не читается?

>>761152
Попытался затралить нейросеть.
Она затралила в ответ.
Чем вы недовольны после этого? )

>>761168
Ну, вот так как-то…
Поэтому люди и пишут тут о сое с каждым месяцем все агрессивнее и активнее. Раньше такого не было! (но раньше и модели были тупыми)
Аноним 28/05/24 Втр 12:56:16 761206 415
>>761197
Так ты этот >>759574 анон что-ли? Мне казалось, что я общаюсь вот с этим >>759579
Аноним 28/05/24 Втр 13:04:58 761218 416
>>761196
Прав во всем, вот только кто сказал, что двач это не говно?
Аноним 28/05/24 Втр 13:09:20 761225 417
>>761195
Тем более там было китайскую локальную сетку Qwen, что целиком в тематике доски
Аноним 28/05/24 Втр 13:09:29 761226 418
image.png 1216Кб, 1000x582
1000x582
>>761206
Чувак, без обид. Никакого хейта в твою сторону, но ты правда глупенький.
Это буквально моя речь подряд.

Давай я еще раз поясню.

С прошлого треда тянется обсуждение о том, какие модели могут в русский язык.
И тут один собеседник вкидывает скрин с кучей английского языка.
Это выглядит странно, я пишу об этом.
Он говорит, что там был вопрос об английском — он ответил.
Я нахожу, пишу, что был невнимателен, ибо там всего лишь одно сообщение про инглиш и приношу ему свои извинения.
Все, в общем-то, тема на этом закрыта.
Но тут впрыгиваешь ты и начинаешь срать под себя и кидаться бесконечным боезапасом в меня. Я тебе отвечаю, что проморгал, ибо было всего одно сообщение про инглиш в целой теме про русик, и намекаю, что извинился за свой косяк, и пишу об этом прямо с цитатами (дважды или трижды — перечитай тред, я там даже делал ссылку на свой коммент).
Пожалуйста, не держи на меня зла, но ты правда смешно тупил все это время. Но теперь, я надеюсь, ты разобрался в ситуации? :)

Будем честны — ты просто тупанул, а конфликта как такового и нет.
Ну а в начале тупанул я, да, я ж не отрицаю. =)
Аноним 28/05/24 Втр 13:10:38 761228 419
>>761225
Не гори, толку-то, что не нравится — то и трут.
А может кто-то решил перебдеть, или еще что.
На это не повлиять, я полагаю. =) Береги нервы.
Аноним 28/05/24 Втр 13:17:48 761237 420
>>761197
>Чем вы недовольны
Да не, я-то вполне себе доволен.

У gemini, в случаях, когда запрос не настолько жёсткий, чтобы вызывать отказ на уровне апи - возможны достаточно интересные варианты.
Спросил у него, возможно ли какое-то время жить на диете из спермы (не спрашивайте, сам хотел бы знать, откуда у меня такие мысли).

Вместо вполне логичного и обычного "ах ты больной ублюдок, не буду я я тебе отвечать", он выдал, что "сорян, я не доктор, медицинские советы не даю, иди диетолога спроси". На второй-третий раз, правда, сдался, и сказал, что не выйдет, слишком маленькая пищевая ценность.
Аноним 28/05/24 Втр 13:20:37 761241 421
>>761226
> Это буквально моя речь подряд.
То есть ты серьёзно утверждаешь, что вот это
> вы про мистраль и про английские говорили.
и это
> В контексте общего разговора выглядело охуенно, не думаешь? Все обсуждают русский и челик скидывает инглиш.
> Там всего один раз слово промелькнуло
писалось одним человеком. Два противоположных по смыслу тезиса. Я все правильно понял? Если да, то здесь одно из двух, либо это писал сумасшедший, либо я действительно лоботомит и проебал мозг, от чего до сих пор не понимаю контекст.
Аноним 28/05/24 Втр 13:23:24 761243 422
>>761237
>слишком маленькая пищевая ценность
Хуя, там же чистый белок. Просто её понадобится очень много, 100 мужиков в день.
Аноним 28/05/24 Втр 13:28:54 761250 423
>>761237
> Вместо вполне логичного и обычного "ах ты больной ублюдок, не буду я я тебе отвечать", он выдал, что "сорян, я не доктор, медицинские советы не даю, иди диетолога спроси".
И чему ты там радуешься? Тому, что тебе заролялась чуть другая соя? Ладно, когда ещё что-то бесполезное по рофлу спрашиваешь. А теперь представь, что ты спрашиваешь про лекарство, от которого очень много что зависит, а к врачу пойти ты не можешь.
Аноним 28/05/24 Втр 13:33:02 761255 424
>>761241

Он сам понял что обосрался и тихонько извинился, как раз почти параллельно как ты ему предъяву написал. И вместо того чтобы дать тебе ссылку на свое извинение, которое уже произошло он зачем-то резко сдал назад, начал отпираться и кидаться калом, словно и не извинялся. Много раз такое ИРЛ встречал, где люди воспринимают любой спор и свои извинения как челлендж для своего места в иерархии, но на дваче, где все ходы записаны и такое поведение не имеет смысла, встречаю такое впервые. Забавно конечно.

Мимо-анон на которого он наехал изначально
Аноним 28/05/24 Втр 13:41:31 761269 425
>>761255
> Он сам понял что обосрался и тихонько извинился, как раз почти параллельно как ты ему предъяву написал. И вместо того чтобы дать тебе ссылку на свое извинение, которое уже произошло он зачем-то резко сдал назад, начал отпираться и кидаться калом, словно и не извинялся. Много раз такое ИРЛ встречал, где люди воспринимают любой спор и свои извинения как челлендж для своего места в иерархии, но на дваче, где все ходы записаны и такое поведение не имеет смысла, встречаю такое впервые.
Да, после такого объяснения ситуация приобрела смысл. Но я бы не додумался. ИРЛ я с людьми не общаюсь и видимо слишком высокая предвзятость, что такое поведение в принципе невозможно, либо я лоботомит как минимум химическую я проходил. Если это все реально один человек, то вот этот пост >>759631 по моей логике выглядел бы как три ссылки: две на собеседников, одна на пост с извинениями.
> Забавно конечно.
Ничего забавного не вижу. Это странно.
Аноним 28/05/24 Втр 14:01:21 761291 426
>>761269
>Ничего забавного не вижу. Это странно.

А мне забавно зоонаблюдать как он пытается некий статус сохранить и ни в коем случае не унизить себя лишним извинением, словно он альфа-самец в этом тредике. Человек явно на дваче лишний и привык к форумам с кармочками.
Аноним 28/05/24 Втр 14:04:20 761294 427
>>761241
> Два противоположных по смыслу тезиса.
> либо я действительно лоботомит и проебал мозг, от чего до сих пор не понимаю контекст.
Ну давай еще раз.
Я не заметил это с первого раза, поэтому в контексте общего разговора (про русики) это выглядел «охуенно».
А когда он мне уточнил — то я понял свою ошибку.
Где тут противоречие, если это не одномоментные утверждения, а последовательные с изменением внутреннего контекста? :)

>>761255
Бля, ну не пизди. =)
Во-первых, как я должен был извиняться, капсом и болдом? =)
Во-вторых, ссылку я ему дал.
Так что, все ходы записаны, вас поймали на пиздеже. =D
Брысь под шконку иерархии, или как там тебе представляется это все, я хз, правда. =) Я надеюсь тут хотя бы юмор виден, или опять что-то не так?

>>759678 — вот мой комментарий, где я даю ссылку на свой комментарий с извинениями. И если я не проебался — это ответ как раз на комментарий вопрощающего.

В начале я проебал слово «английский», потом он проебал слово «извинения». Невнимательность банальная.

>>761269
Не, эт хуйня.
Аноним 28/05/24 Втр 14:07:13 761298 428
>>761291
Некоторые его токены я не считываю. Особенно такие конструкции как (фраза =). Но про лишних на дваче я бы уже не стал говорить, потому что по факту ни абу, ни двача уже давно не существует. Мейлач это отдельная помойка, которая выглядит как двач, но по своей сути двачем уже не является и обитатели здесь тоже соответствующие. Так что даже если он пришёл с одноклассников, то мне уже все равно. Иногда отвечает по существу, уже хорошо.
Аноним 28/05/24 Втр 14:09:30 761299 429
>>761294
>Бля, ну не пизди. =)
>Во-первых, как я должен был извиняться, капсом и болдом? =)
>Во-вторых, ссылку я ему дал.
>Так что, все ходы записаны, вас поймали на пиздеже. =D

Хватит уже позориться, ну серьезно. Ссылку >>759678
ты дал уже после того как набычил >>759579, причем дал её с оскорблениями, хотя во всей ситуации ты единственный мудак.
Аноним 28/05/24 Втр 14:16:23 761304 430
>>761291
Ну у тебя и шиза. =) Сочувствую, мистер альфа треда.

>>761299
Во втором сообщение нет никакого быканства. Я хз, как можно увидеть то, чего там нет. Выдумать разве что.
А по поводу оскорблений в первом — так он начал оскорблять, я ответил тем же. Мудаков тут нет, кто ищет мудаков — может найти только себя, тут я никому не препятствую.

>>761298
Чаще 90% треда.
Аноним 28/05/24 Втр 14:17:09 761305 431
>>761298
>Особенно такие конструкции как (фраза =).

Так на форумах(в основном) в нулевых общались, ставили смайлики после каждой фразы, особенно той в которой возможно было что-то жесткое или оскорбление, типа "ну ты типа понимаешь что это шутка и я не серьезно". Пелевин про это явление писал в Ампир В - "cмайлик – это визуальный дезодорант. Его обычно ставят, когда юзеру кажется, что от него плохо пахнет. И он хочет гарантированно пахнуть хорошо."
Аноним 28/05/24 Втр 14:17:35 761306 432
Да все вы здесь мудаки, тут и спорить не о чем.
Аноним 28/05/24 Втр 14:21:36 761312 433
Ваще, меня просто удивляет, как люди в начале не могут понять, что я пишу, а потом выдумывают тейки за меня, в итоге, и начинают их оспаривать, вменять мне в вину и так далее.

Если я чего-то не понимаю — я переспрашиваю.
Что мешает им сделать так же —я хуй знает.

И при этом, это выглядит как рефлексия собственных проблем.
Один затирает про какую-то альфовость (какая еще иерархия вообще, я здесь читаю интересные мысли и знакомлюсь с ссылками), другой критикует за невнимательность, при этом сам проебал весь контекст и сам же не смог даже связать два сообщения подряд.

РЕбят, я ж не психолог, вы мне не платите, решайте свои ментальные проблемы сами.

Окей, я тупой, даун, мудак, все проебал, нихуя не понял, только сру под себя и все.

Мне не сложно согласиться с вами в этом, потому что на реальность подобные фразы не влияют, и когда кто-то мне говорит спасибо — это греет. =3 А когда у кого-то жопа горит… НЕ НУ ЭТО ТОЖЕ ГРЕЕТ СВОЕГО РОДА (тут шутка про «греет» и огонь из жопы, если кто не понял), но на самом деле безразлично.

Все-все, я виноват, вы герои, умные, спасибо, что объяснили мне все. =)
Аноним 28/05/24 Втр 14:21:57 761313 434
Аноним 28/05/24 Втр 14:24:59 761315 435
>>761294
> Ну давай еще раз.
> Я не заметил это с первого раза, поэтому в контексте общего разговора (про русики) это выглядел «охуенно».
> А когда он мне уточнил — то я понял свою ошибку.
> Где тут противоречие, если это не одномоментные утверждения, а последовательные с изменением внутреннего контекста? :)
Противоречие в том, что они идут в обратном порядке. Сначала ты уже все заметил и извинился, а потом ты пишешь, что оно выглядит охуенно, а речь шла у русских моделях. В общем, я перечитал два твоих поста и похоже действительно один человек писал. Смайлоебов итт двое, а вот про скилл ишью затирает только один.
> Бля, ну не пизди. =)
> Во-первых, как я должен был извиняться, капсом и болдом? =)
Я могу ответить как бы я сделал. После поста извинений, всех остальных сообщений не существовало бы в принципе и все ответы бы ссылались на пост с извинением.
> Во-вторых, ссылку я ему дал.
>>759678
> > Все, увидел, что вы про мистраль и про английские говорили.
> > Мои извинения.

> Тут и 2048 контекста нет, я смотрю.

Да, действительно. Я эту строчку воспринял неправильно. Так как искренне считал, что это другой человек, воспринял как адресованное ему.

> Так что, все ходы записаны, вас поймали на пиздеже. =D
> Брысь под шконку иерархии, или как там тебе представляется это все, я хз, правда. =) Я надеюсь тут хотя бы юмор виден, или опять что-то не так?
Я думаю, идея в том, что логично было дать эту ссылку сразу.
> В начале я проебал слово «английский», потом он проебал слово «извинения». Невнимательность банальная.
Нет, я это прочитал. Моя ошибка была в сломанном детекторе. Я не распознал отправителя извинений. В следующий раз буду в первую очередь детектить по словам паразитам, а не по смыслу отправленного.
Аноним 28/05/24 Втр 14:30:23 761320 436
>>761312

Да хватит уже, чел, серьезно. Просто будь внимательнее в будущем и не сыпь оскорблениями про размер контекста у людей которые не с тобой разговаривали и суть разговора которых ты мог не уловить.
Аноним 28/05/24 Втр 14:32:36 761322 437
>>761306
>>761313
А вот эти два поста чьи? Только честно.
Аноним 28/05/24 Втр 14:42:04 761334 438
image.png 9Кб, 347x128
347x128
>>761315
> Сначала ты уже все заметил и извинился, а потом ты пишешь, что оно выглядит охуенно, а речь шла у русских моделях.
Потому что там я пояснял, почему так отреагировал.
1. Реакция.
2. Извинение.
3. Пояснение, почему реакция.
Вот тебе и очередность такая.

Но, да, про скилл ишью мне аргумент понравился, я его у кого-то из треда спиздил. =)

> После поста извинений, всех остальных сообщений не существовало бы в принципе и все ответы бы ссылались на пост с извинением.
Ну а я просто в начале пояснил, а потом сослался.
А не сразу сослался, потому что подумал, что ты увидел.

Ну кто ж знал, что ты не увидел. =)

> Я думаю, идея в том, что логично было дать эту ссылку сразу.

Понимаешь, если бы я каждый раз предполагал, что вокруг меня невнимательные дауны (вот я сейчас не о тебе говорю, а вообще, шире), то я бы поясня и ссылался в каждом своем сообщении. Но я наивный и думаю, что люди вокруг меня умные и внимательные.
И тут, опять же, нет виноватых. И я забываю, что люди могут не заметить, и люди, порою, просто тупят. Всякое бывает.

> В следующий раз буду в первую очередь детектить по словам паразитам, а не по смыслу отправленного.
Боюсь, это не универсальное решение, но со мной бы сработало, да.

>>761320
Дак не я же тут горю целый тред. =) Вон, вопрощающий уже успокоился, а отвечающий почему-то альфа.
Ну, он тут главный, я не в силах с ним спорить. =)
Аноним 28/05/24 Втр 14:50:02 761343 439
>>761334
>Дак не я же тут горю целый тред.

Оно и видно, такие пасты катаешь.
И прекрати уже смайлики ставить, они обратный эффект дают.
Аноним 28/05/24 Втр 14:55:40 761351 440
>>761312
> Ваще, меня просто удивляет, как люди в начале не могут понять, что я пишу, а потом выдумывают тейки за меня, в итоге, и начинают их оспаривать, вменять мне в вину и так далее.
Нет, ничего придуманного там не оспаривалось. Все твои тейки были здесь >>759579
> Если я чего-то не понимаю — я переспрашиваю.
> Что мешает им сделать так же —я хуй знает.
Отсутствие понимания, что что-то упускаю.
> другой критикует за невнимательность, при этом сам проебал весь контекст и сам же не смог даже связать два сообщения подряд.
Да, признаю. Они у меня и сейчас хреново вяжутся. По крайней мере если оставлять в контексте вот этого >>759579
> РЕбят, я ж не психолог, вы мне не платите, решайте свои ментальные проблемы сами.
У тебя у самого проблема есть какая-то как мне кажется.
> Окей, я тупой, даун, мудак, все проебал, нихуя не понял, только сру под себя и все.

> Мне не сложно согласиться с вами в этом, потому что на реальность подобные фразы не влияют, и когда кто-то мне говорит спасибо — это греет. =3 А когда у кого-то жопа горит… НЕ НУ ЭТО ТОЖЕ ГРЕЕТ СВОЕГО РОДА (тут шутка про «греет» и огонь из жопы, если кто не понял), но на самом деле безразлично.
Потому что шутка мне понятна, а поведение - нет. Зачем в одном контексте писать "окей я даун", а потом сразу добавлять "мне не сложно согласиться, потому что на реальность не влияет". Если ты в действительности не даун и не мудак, то нахуя соглашаться? А если, вдруг, даун и мудак, то нахуя говорить, что в "реальности это не так". Это же по сути сам себе отрубаешь возможность им не быть.
Но может это и моя проблема, что я это не понимаю. Но на этот раз, как ты и хотел, задаю прямой вопрос. Объясни свое поведение в последнем гринтексте.
Аноним 28/05/24 Втр 15:00:15 761356 441
>>761343
На обе строчки один ответ:
Ну я такой человек.
Пишу много, люблю писать, графоман и вязкость мышления, подробно и обстоятельно все объясняю.
А смайлики ставлю искренне. Улыбаюсь когда улыбаюсь, ржу когда ржу. Когда зол — я как раз смайлики не ставлю. =D
Я понимаю, что эффект обратный, но… меняться, как-то сдерживать себя, звучит странно. Думаю, кому-то безразлично на это, кто-то читает суть.

А кого бесят смайлики — искренне извиняюсь! Потерпите.

Или напишите с помощью llm плагин для барузера, который бы их вырезал. ;)
Аноним 28/05/24 Втр 15:11:13 761359 442
>>761334
> Потому что там я пояснял, почему так отреагировал.
Да, но пост с пояснениями при этом не должен же противоречить посту с извинением.
> Но, да, про скилл ишью мне аргумент понравился, я его у кого-то из треда спиздил. =)
То есть и таких по итогу двое.
> Ну а я просто в начале пояснил, а потом сослался.
> А не сразу сослался, потому что подумал, что ты увидел.
Там все равно логично было сослаться сразу. Пояснять по факту причину, по которой долбился в глаза просто нечего и незачем. А все вопросы остальные закрываются коротким ответом в виде ссылки. Нет нужды писать "а ты читай мои сообщения лучше, смотри че написал".
> Ну кто ж знал, что ты не увидел. =)
Если бы воспринял как твой пост, вряд ли бы писал, что извинений от тебя нет. Опять же, как ты мог не знать, если же прямо в своих сообщениях над этим же и шутил.
> Понимаешь, если бы я каждый раз предполагал, что вокруг меня невнимательные дауны (вот я сейчас не о тебе говорю, а вообще, шире), то я бы поясня и ссылался в каждом своем сообщении. Но я наивный и думаю, что люди вокруг меня умные и внимательные.
Я не невнимательный, а просто даун, получается. Ведь пост прочитал, но не связал. Теперь будешь знать, что вокруг тебя одни дебилы. Их так-то 95% и я точно не исключение и в 5% не вхожу.
Аноним 28/05/24 Втр 15:15:55 761363 443
бля какой унылый срач, заебали
Аноним 28/05/24 Втр 15:16:28 761364 444
>>761351
> Если ты в действительности не даун и не мудак, то нахуя соглашаться?
Если кому-то очень важно доказать, что я даун и мудак, то у него явно проблемы какие-то. А я не хочу мучать человека. Пусть он успокоится.
Ну, это мое мироощущение.
Я могу быть даже не прав, и надо людей давить до конца, чтобы они реальность увидели. (это не моя точка зрения, я лишь предполагаю)

А по поводу гринтекста.

Смотри, вот человек на меня обиделся и агрится. Не кто-то конкретный, а вообще. И вот он считает (искренне или нет), что я — злой, плохой и глупый. Я могу спорить с ним, пытаясь доказать свою хорошесть. Либо, уйти из спора, согласившись. Он будет удовлетворен, спор будет окончен.
При этом, когда некто другой задаст вопрос, а я смогу ответить на него — я отвечу. По возможности подробно, корректно, понятно. И если человеку это поможет — он может сказать спасибо.
И вот это самое спасибо — реально имеет значение, оно ценно и приятно. =)
А как я закончил не интересный мне спор, на что я там согласился в глазах того человека — значения не имеет.
Те, кто знают меня — знают меня и так, без моих согласий с кем-то в целях окончания спора. (работает в обе стороны — кто-то считает меня шизом, даже когда согласны с вещами, которые я пишу=)

Надеюсь, у меня получилось ответить на твой вопрос. Я старался, лучше у меня не выйдет, извини.
Аноним 28/05/24 Втр 15:18:53 761365 445
>>761359
> То есть и таких по итогу двое.
Надеюсь, второй не ставит смайлики. =D А то и правда можно запутаться!

>>761363
Да уже сцена после титров.

Надеюсь щас вернемся к обсуждению моделек.
Аноним 28/05/24 Втр 15:24:46 761369 446
>>761359
>То есть и таких по итогу двое.
Ты ебанутый? "Скилл ишью" это стандартный ответ от всего треда, если у тебя что-то получается или модель поломанная и гонит хуйню. Если ты спрашиваешь, как это исправить, тебе ответят "сорри, гейткип". Это блядь по всему разделу распространено, здесь таких ответов сотни.
Аноним 28/05/24 Втр 15:26:21 761370 447
>>761356
> Пишу много, люблю писать, графоман и вязкость мышления, подробно и обстоятельно все объясняю.
Но так, чтобы даунам все равно непонятно было.
Аноним 28/05/24 Втр 15:29:37 761378 448
Поспорили как-то аутист-прагматик и графоман-обиженка...
Аноним 28/05/24 Втр 15:32:51 761382 449
>>761369

А вот и второй юзер этой залупы. Ну хоть смайлы не ставит, но злой.
Аноним 28/05/24 Втр 15:33:40 761383 450
>>761369
Обычно формулируют иначе. Либо про промпт формат говорят, либо про настройку семплера. А фразу "скилл ишью" употребляют редко. А так оно и без того понятно, что варианта все 2. Либо рукожоп, либо кванты сломаны. А чаще и то, и другое.
Аноним 28/05/24 Втр 15:34:52 761385 451
>>761382

> но злой.
Нейтральный он.
Аноним 28/05/24 Втр 15:38:14 761392 452
>>761385

Злой, приписывает собственные злые ответы новичкам всему треду. Я вот например стараюсь помогать новичкам и оскорбительную конструкцию "скилл ишью" не использую. То же русское слово "рукожоп" как-то ближе и добрее, без претензий.
Аноним 28/05/24 Втр 15:40:07 761393 453
>>761370
Не специально.
Я поэтому и говорю, что графоман. Косноязычие дает о себе знать временами. Иногда не могу посмотреть со стороны.
Так что, мои 2 цикла похоронены в столе, не увидите вы как минимум 6 книг… И на том спасибо. =D
Сегодня челы обсуждали стыдность выкладывания ролеплея. И я на стороне того, которому стыдно (отношусь к рп серьезно, ага=).
И вот с книгами тоже самое. В детстве пытался писать, сюжеты есть, но на бумаге хуйня получается кринжовая.

>>761378
Кек.

>>761383
Раньше было популярное выражение.
Ну и часто я вижу, как люди правда работает с нейронками… Ну не то чтобы «неправильно», а именно неумело-в-лоб.
Запускаешь и без всяких промптов на стандартной Акве спрашивает «как написать свою игру на C++???»
С промпт-форматом викуни на чатмл без стоп-токенов и с температурой 1,5.
А другие люди сидят, промпт-формат вручную пишут, токены тестируют, CoT/ToT прописывают, карточку оформляют, семплеры подбирают.
Ну и результаты разные по итогу, да.
Аноним 28/05/24 Втр 15:40:35 761395 454
>>761392
Хорошо, уговорил, буду говорить «рукожоп». =) Надеюсь, новичкам полегчает.
Аноним 28/05/24 Втр 15:56:22 761411 455
>>761392
>приписывает собственные злые ответы новичкам всему треду
Я такие ответы использую, когда беседа уже проёбана и очевидно, что собеседник долбоёб непроходимый. Но ты можешь поискать по разделу, эти ответы распространены, в том числе в других тредах, где я даже не пощу, так что приписывать этот ответ каким-то конкретным анонимам лол глупо.

>>761393
>не увидите вы как минимум 6 книг
Спасибо тебе за это. Но на самом деле кринжатина от антонидасов находит свою целевую аудиторию, ты бы видел, что на автор сегодня народ читает, это такой пиздец, который не только писать стыдно, его читать стыдно. А в комментариях "автор молодец, хочу ещё".

>карточку оформляют
Если тебе нужна информация от модели, то карточку лучше делать максимально короткой. У меня с карточкой модель скорее высказывает своё мнение по теме, а не предоставляет информацию.
Аноним 28/05/24 Втр 16:27:17 761436 456
>>761411
>что собеседник долбоёб непроходимый
Это с твоей точки зрения. А с его может быть наоборот.
Возможно чел просто непосвящен в тему чего-либо, так и ты ведь не всезнайка. Поэтому долбоебов тут вообще нет. Вот спесивые ебланы есть. Не принимай на свой счет если что.
я не он, а он не я
Аноним 28/05/24 Втр 18:07:25 761534 457
>>761411
> ты бы видел, что на автор сегодня народ читает
Я литрпг послушивал на литресе, и там уже порою бывает испанский стыд, а уж на автор.тудей я пожалуй даже заходить не буду…
Наверное ллама-8 лучше пишет.
Аноним 28/05/24 Втр 18:54:30 761561 458
1.png 56Кб, 680x661
680x661
Поискал сою в третьей лламе. Реально такое чувство, что вся соя привязана к ассистенту, стоит только сменить "личность", как модели становится похуй всё. Сжигать ниггеров на кострах? Заебись, внатуре чётко. Массшутинг? Да хуйня делов, лол, бывает. Выебать собаку хочешь? Ну ты уточни породу и организуем.
Аноним 28/05/24 Втр 19:06:37 761576 459
>>761561
Это православный Noass из кончай треда? Как убрал ассистента, поделись опытом, мб можно будет и Qwen задоминировать. Я прошибал лламу префилом(тоже сжигала нигеров и подобное), но думаю без ассистента было бы лучше!
Аноним 28/05/24 Втр 19:23:52 761592 460
>>759434
С лорбуком это походу не фича, а баг. По моим наблюдениям, если только лорбук векторизуется, сразу же начинают просачиваться абсолютно левые записи из лорбука, причем непонятно, почему - с человеческой точки зрения никаких совпадений нет.
Аноним 28/05/24 Втр 19:56:26 761627 461
>>761121
Когда сетка говорит, что она поняла смысл, это не то же самое, как в случае, если разумное создание вроде собаки поняло задачу. Нейросеть это уровень колонии амеб, которые даже не понимают и не знают вещей, которые для тебя самоочевидны. Для них нет разницы между мужчиной и женщиной, и то, что у твоих женских персонажей вообще женские, а не мужские половые органы, это случайное совпадение, просто оно очень вероятное.
Аноним 28/05/24 Втр 19:58:56 761629 462
>>761627
В общем мораль в том, что, когда нейросеть начинает систематически писать ахинею, то проще написать то, что ты хочешь, самому.
Аноним 28/05/24 Втр 20:16:59 761647 463
А знаете что? Таки прихожу к выводу что Мику лучше чем командир. Не плюсовский который по крайней мере.
Аноним 28/05/24 Втр 20:18:24 761648 464
>>761647
Она как минимум в 2 раза жирнее. Но говорят ллама ещё лучше.
Аноним 28/05/24 Втр 20:20:45 761651 465
>>761648
> в 2 раза жирнее
Эт да, затупов с логикой меньше.
> ллама ещё лучше
Так что, третью лламу уже можно запускать без смс и говняка?
Аноним 28/05/24 Втр 20:21:48 761652 466
>>761651
> уже
Давно. Ты бы ещё через год проснулся.
Аноним 28/05/24 Втр 20:22:48 761657 467
>>761652
А файнтюны уже есть? Ну и да, вон в треде постоянно кто то про сою в тройке упоминает.
Аноним 28/05/24 Втр 20:25:25 761659 468
>>761657
Есть анцензор вроде. Соя есть, но ллама хорошо слушается инструкций.
Аноним 28/05/24 Втр 20:29:42 761662 469
>>761659
А что там по квантовальщикам не знаешь? Или можно в принципе у любого васяна с хаггингфейса брать - приколов не будет?
Аноним 28/05/24 Втр 20:30:27 761663 470
>>761662
Я анцензор не пробовал, так что не знаю.
Аноним 28/05/24 Втр 20:31:53 761665 471
>>761663
Ладно тогда наверну по рандому.
Аноним 28/05/24 Втр 20:33:39 761670 472
бля аноны помогите пж. поставил таверну все завел вроде настроил.
время генерации при этом доходит до минуты в таверне притом что в кобальде на той же модели секунд 30 даже меньше. в чем может быть проблема? кто может подсказать с настройками таверны в целом?
Аноним 28/05/24 Втр 20:36:56 761671 473
>>761670
Так ты может с карточкой какой общаешься, у которой контекста много обрабатывается?
Аноним 28/05/24 Втр 20:39:03 761673 474
image.png 4Кб, 832x68
832x68
>>761671
да вроде не особо. опять же в кобальде все гораздо быстрее. кста а можно как то сделать в таверне что бы оно выводило текст пока генерит как в кобальде.
Аноним 28/05/24 Втр 20:45:05 761681 475
>>761673
>да вроде не особо
Существенно как минимум. В кобольде у тебя контекста почти ноль, а здесь 1к минимум. Но проверки ради можешь создать пустую карточку и сгенерить что-то там. Если разница в скорости все равно будет ощутимой, то уже тогда смотреть надо.
>можно как то сделать в таверне что бы оно выводило текст пока генерит как в кобальде.
Слева сверху AI response configuration (значок с тремя полосками) > Streaming
Аноним 28/05/24 Втр 20:51:57 761700 476
>>761657
Смауг давно есть. Расцензуривание есть.
Аноним 28/05/24 Втр 20:59:51 761712 477
>>761700
> Смауг
Чем знаменит, на что годится?
Аноним 28/05/24 Втр 21:17:01 761739 478
>>761681
а можно скрин пж где это находиться?
Аноним 28/05/24 Втр 21:19:35 761743 479
screen.png 56Кб, 1441x229
1441x229
Аноним 28/05/24 Втр 21:34:02 761763 480
>>761743
спасибо анонче. я тыкал но он чет поиблось и не выдавало ответ. а сейчас перезапустил все ок. можешь еще в целом по настройкам советов дать можешь?
Аноним 28/05/24 Втр 21:45:51 761787 481
>>761763
Остальные настройки это уже промпт формат, настройки семплера. Но оно сильно от модельки зависит.
Аноним 28/05/24 Втр 21:51:39 761795 482
image.png 19Кб, 393x161
393x161
image.png 12Кб, 790x104
790x104
image.png 15Кб, 379x125
379x125
>>761787
а в какую сторону копать то? а то я пошуршал редит но там чет никакой четкой инфы нет. на ютубе так же. просто все эти настройки которые я кину нижу их шо и как ставить вот например пресеты.или же второй пик.третий пик это шо как и для чего? моей сетки нигде нет.
Аноним 28/05/24 Втр 21:51:46 761796 483
Норма, что таверна после 3-х удалений персов подряд зависает?
Аноним 28/05/24 Втр 21:53:27 761797 484
>>761795
В ту, где ты скачиваешь модельки. Там пишут какие настройки лучше использовать.
Аноним 28/05/24 Втр 22:00:26 761800 485
>>761797
а можно скрин опять же где это написано и как эхто выглядит?
Аноним 28/05/24 Втр 22:02:54 761801 486
>>761800
Нельзя, потому что каждый по-разному пишет. А кто-то так вообще не пишет. Скажи, какой моделькой пользуешься, и может подскажу что.
Аноним 28/05/24 Втр 22:06:01 761804 487
Average_Normie_l3_v1_8B.f16. ее тут один анонче кидал говорил что норм вот я и скачал.
Аноним 28/05/24 Втр 22:21:10 761822 488
>>761804
Во-первых, ты скачал слишком жирный квант. Совсем необязательно качать 16, можно скачать q8_0 версию. По качеству то же самое, но в два раза меньше места занимать будет. Во-вторых, моделька по факту llama-3. Для нее есть пресет в таверне. Жмешь AI response formatting (значок в виде буквы А), там выбираешь пресет Llama-3-instruct. По настройкам семплера, нужен пресет min_p. И кстати, раз уж вмещается 16 квант, то можешь модельку и пожирнее поискать. Командир тот же в русский неплохо умеет. Но это так, на потом.
Аноним 28/05/24 Втр 22:29:06 761834 489
>>761822
>Командир тот же в русский неплохо умеет. Но это так, на потом.
Ну ты сравнил... Командира и 8B модельку. Даже несмотря на то, что эта 8B веси 16ГБ, командир будет столько весить только на ядрёных квантах типа Q3 и ниже. Да и разве командир не жрёт дохера места под контекст?
Аноним 28/05/24 Втр 22:29:08 761835 490
>>761822
>По настройкам семплера, нужен пресет min_p
Это text completion presets, или где? Что-то не наблюдаю такого пресета.
мимо другой анон
Аноним 28/05/24 Втр 22:32:12 761841 491
model.png 138Кб, 1891x961
1891x961
screen2.png 321Кб, 1889x961
1889x961
screen3.png 71Кб, 1885x765
1885x765
>>761804
>>761835
Пикрил 1 - версия модельки, которую ты хочешь скачать.
Пикрил 2 - Карточка модели, на которой есть вся важная информация. Перейди по ссылке, которую я подчеркнул.
В ссылке увидишь пикрил 3. Здесь все файлы с нужными тебе настройками. Первый - настройки семплера. Оставшиеся два - настройки промпт формата. Но в последних двух файлах нет нужды, они у тебя уже предустановлены в таверне. Просто выбираешь Llama-3-instruct пресет.
Аноним 28/05/24 Втр 22:35:12 761844 492
Аноним 28/05/24 Втр 22:36:10 761846 493
>>761822
ну в плане жирный? там же вроде он как бы жирнее из за контекста или я что то не так понимаю? (я просто только вкатиться пытаюсь)

>>761841
сейчас попытаюсь потыкать сам спасибо анонче. если не затруднит можно простенькую пошаговую инструкцию? на всякий. заодно отпишу тут о успехах
Аноним 28/05/24 Втр 22:44:23 761854 494
>>761846
> ну в плане жирный?
Посмотри на скрин, который я тебе скинул. Пикрил 1. Квант в 2 раза больше весит чем 8_0.
> он как бы жирнее из за контекста или я что то не так понимаю?
Нет, он жирнее, потому что его не сжимали. Кванты сжимают с потерей качества, чтобы выиграть в памяти. Но 8_0 идет без потерь качества, поэтому если не заинтересован в тренировке модельки, то смысла качать 16 просто нет. А если заинтересован, то надо в формате safetensors качать скорее всего.
> сейчас попытаюсь потыкать сам спасибо анонче. если не затруднит можно простенькую пошаговую инструкцию? на всякий. заодно отпишу тут о успехах
Куда уж пошаговее? Я же со скринами все скинул. Пикрил1 надо скачать. Пикрил 2 это то, где ты обычно смотришь инфу у моделей, там перейдешь по ссылке и увидишь пикрил3. Тебе нужно скачать первый файл и добавить его в text completion presets как в таверне. Либо можешь скачать настройки min_p, которые я скинул здесь >>761844
text completion presets находится здесь >>761795 на пикрил 1. Жмешь на значок импортировать, импортируешь скачанный файл. После этого делаешь то, что я описал здесь >>761822
> Жмешь AI response formatting (значок в виде буквы А), там выбираешь пресет Llama-3-instruct.
Аноним 28/05/24 Втр 22:46:42 761857 495
>>761854
>добавить его в text completion presets как в таверне
добавить его в text completion presets в таверне
Аноним 28/05/24 Втр 22:49:50 761863 496
>>761844
Анонче, а можешь, пожалуйста, залить на catbox.moe, либо просто скрином?
Просто у меня что-то dropbox мозгу ебёт.
мимо другой анон
Аноним 28/05/24 Втр 22:52:20 761872 497
>>761854
ну это как я понял квант от другого автора и нашел его. вот сейчас качаю. а как его добавить в text completion presets в таверне? (прости за очень тупые вопросы)
Аноним 28/05/24 Втр 22:52:40 761873 498
>>761863
У меня впн отсутствует.
{
"temp": 1.25,
"temperature_last": true,
"top_p": 1,
"top_k": 0,
"top_a": 0,
"tfs": 1,
"epsilon_cutoff": 0,
"eta_cutoff": 0,
"typical_p": 1,
"min_p": 0.1,
"rep_pen": 1.03,
"rep_pen_range": 320,
"no_repeat_ngram_size": 0,
"penalty_alpha": 0,
"num_beams": 1,
"length_penalty": 1,
"min_length": 0,
"encoder_rep_pen": 1,
"freq_pen": 0.7,
"presence_pen": 0,
"do_sample": true,
"early_stopping": false,
"dynatemp": false,
"min_temp": 0,
"max_temp": 2,
"dynatemp_exponent": 1,
"smoothing_factor": 0,
"smoothing_curve": 1,
"add_bos_token": true,
"truncation_length": 2048,
"ban_eos_token": false,
"skip_special_tokens": true,
"streaming": true,
"mirostat_mode": 0,
"mirostat_tau": 5,
"mirostat_eta": 0.1,
"guidance_scale": 1,
"negative_prompt": "",
"grammar_string": "",
"json_schema": {},
"banned_tokens": "",
"sampler_priority": [
"temperature",
"dynamic_temperature",
"quadratic_sampling",
"top_k",
"top_p",
"typical_p",
"epsilon_cutoff",
"eta_cutoff",
"tfs",
"top_a",
"min_p",
"mirostat"
],
"samplers": [
"top_k",
"tfs_z",
"typical_p",
"top_p",
"min_p",
"temperature"
],
"ignore_eos_token_aphrodite": false,
"spaces_between_special_tokens_aphrodite": true,
"sampler_order": [
6,
5,
0,
1,
3,
4,
2
],
"logit_bias": [],
"n": 1,
"rep_pen_size": 0,
"genamt": 1000,
"max_length": 4096,
"name": "min_p"
}
Аноним 28/05/24 Втр 22:54:38 761878 499
image.png 18Кб, 748x82
748x82
>>761854
то есть мне качать первый файл?
Аноним 28/05/24 Втр 22:55:42 761882 500
>>761873
О. Спасибки! А в смысле? У меня он без ВПНа открывается. По крайней мере главная страница. Иногда правда не открывается именно страница скачивания файлов с catbox - но это чинится открытием главной страницы catbox.moe в другой вкладке и перезагрузкой странцы со скачиваемым файлом.
Аноним 28/05/24 Втр 22:56:09 761883 501
>>761627
>Нейросеть это уровень колонии амеб, которые даже не понимают и не знают вещей, которые для тебя самоочевидны. Для них нет разницы между мужчиной и женщиной, и то, что у твоих женских персонажей вообще женские, а не мужские половые органы, это случайное совпадение, просто оно очень вероятное.
В шапку треда, однозначно. Лучшее описание современных нейросетей, что я видел.
Аноним 28/05/24 Втр 22:56:23 761885 502
>>761576
>Это православный
Это православная база без "дотрейна". Оно так и работает. Про ассистента имел ввиду карточку адекватную. Тюнов, кстати, нормальных на эту модель нет.
Аноним 28/05/24 Втр 22:58:05 761890 503
.png 195Кб, 1159x1015
1159x1015
Похоже, что кто-то обосрался и откатил в вики правки за последние две недели. Права на force push у всех контрибьютеров есть. Или может гитгуд что-то у себа шатает.

Вот вам и польза распределённости - сейчас долью удалённое.
Аноним 28/05/24 Втр 22:59:24 761893 504
>>761854
>Кванты сжимают с потерей качества, чтобы выиграть в памяти. Но 8_0 идет без потерь качества
8 бит на вес, 16 бит на вес... А оригинал вообще 32 бита на вес. Что там остаётся от качества даже к 8 битам, остаётся только гадать. А ведь и 8 далеко не у каждого.
Аноним 28/05/24 Втр 23:01:15 761899 505
>>761890
Ради интереса, а что за "fix small mistake". Выглядит так, будто кто-то всю вики в свастонах разрисовал и решил скрыть это под названием "fix small mistake".
Аноним 28/05/24 Втр 23:02:00 761903 506
>>761872
Квант - это моделька. Ее ты добавляешь в кобольде, когда выбираешь модельку.
> как его добавить в text completion presets в таверне?
А сюда ты добавляешь первый файл на пикрил 3 >>761841
Как добавить? Пикрил 1 >>761795
Под надписью "Пресеты для Text Completion" справа от слова Default есть значки. Третий значок это значок импортирования файла. Вот на него надо нажать и выбрать скачанный файл. После этого нажать на надпись Default и выбрать сохраненную настройку.
>>761893
Ты и музыку, наверное, в wav формате исключительно слушаешь? Даже flac считаешь зашкваром?
Аноним 28/05/24 Втр 23:04:40 761915 507
>>761627
>Для них нет разницы между мужчиной и женщиной
Это прям буквально прослеживается, кстати. На малых моделях у тян регулярно обнаруживаю наличие простаты.
Аноним 28/05/24 Втр 23:04:47 761916 508
image.png 97Кб, 435x826
435x826
>>761903
ну вот вроде правильно сделал?
Аноним 28/05/24 Втр 23:05:03 761918 509
>>761882
Попробую в следующий раз твой способ.
Аноним 28/05/24 Втр 23:05:33 761922 510
.png 62Кб, 1625x407
1625x407
>>761890
Не, походу они совсем прилегли. У меня ни вики, ни сам гитгуд, ни гит не работает, хотя правки успел пушнуть до того, как он совсем прилёг.

>>761899
Да фигня там. Я перевод одной статьи по дифьюзерсам делал последние пару дней и мелкие правки докидывал. Думаю, там и на свастоны было бы плевать - там же эроге с лолями и прочее подобное на этом хосте висит.
Аноним 28/05/24 Втр 23:05:34 761923 511
>>761878
Да, это твой файл с настройками.
Аноним 28/05/24 Втр 23:06:51 761929 512
>>761885
А что за карточка?
Аноним 28/05/24 Втр 23:08:23 761939 513
>>761916
Вроде правильно.
Аноним 28/05/24 Втр 23:08:29 761940 514
>>761923
вот скачал и запустил его >>761916
правильно?
Аноним 28/05/24 Втр 23:10:19 761954 515
>>761940
Теперь поставь Llama 3 instruct в промпт формат. Можно не качать, в таверне уже из коробки пресет есть.
Аноним 28/05/24 Втр 23:14:34 761962 516
>>761922
>Думаю, там и на свастоны было бы плевать - там же эроге с лолями и прочее подобное на этом хосте висит.
Ааа... Вот почему он у меня не открывается...
Аноним 28/05/24 Втр 23:14:53 761964 517
.png 209Кб, 1225x1116
1225x1116
>>761890
Они должны были уйти на техобслуживание, но они немного налажали, и вместо того, чтобы отрубить хост, они как-то старый бекап двух-недельной давности подняли, поэтому для всех глобально выглядит, что правки на 2 недели назад откатились.

Ждём завершения техобслуживания.
Аноним 28/05/24 Втр 23:16:03 761966 518
>>761954
а где это сделать? можно скрин пж
Аноним 28/05/24 Втр 23:25:05 761983 519
>>761966
Пикрил 3 >>761795
Вместо Alpaca ставишь Llama 3 Instruct.
А вообще, тебе бы не мелкую модельку, а умненькую мультимодалку, чтобы она тебя вела за ручку везде и отвечала на все вопросы в картинках. Было бы очень здорово.
Аноним 28/05/24 Втр 23:32:08 761996 520
image.png 25Кб, 467x161
467x161
>>761983
вот анонче оно и так стояло (мб я натыкал)
а про какую мультимодельку ты говоришь?
Аноним 28/05/24 Втр 23:43:21 762016 521
>>761996
Ставишь Llama 3 Instruct.
> а про какую мультимодельку ты говоришь?
Чатгпт только если. А так я понятия не имею, что там умного локально запустить можно.
Аноним 29/05/24 Срд 00:39:41 762130 522
>>761890
Всё, починили гитгуд.
Аноним 29/05/24 Срд 03:00:24 762404 523
>>761885
Ну и нахуя вводить ананов в заблуждение? Noass был бы ещё интересен, а с этой мелочью любой овощь разберётся. Так и пиши, что сделал карточку маньяка.
Аноним 29/05/24 Срд 03:34:37 762470 524
LOL.png 11Кб, 980x262
980x262
>>762404
Тем временем "карточка маньяка" для базовой лламы-3.
Аноним 29/05/24 Срд 03:54:43 762493 525
>>762470
Ну так базовая модель (не инстракт) вроде соей/аполоджайзами и не страдала, хотя могу ошибаться, я с ней особо не "общался". Я про инстракт и ее пробите спрашивал (ну ООС и префил пробивают, но.. Думал, можно тупо вырезать ассистента), если судить по кончай треду, для удаления изначальных ролей (хумана/ассистента) у Опуса юзают дохуя контекста для их затапливания, что для лламы критично, т.к. у нее всего 8к из которых "рабочих" вообще 4к.
Аноним 29/05/24 Срд 04:17:10 762519 526
>>762493
Под "базовой" я имею ввиду, что не "тюн" и не квант. А так это инстракт версия 8b через трансформеры. Полностью вырезать ассистента не выйдет, так как он привязан к большой части обучающих данных. По идее, можно его подавить векторами, но это даже не требуется.
На счёт контекста хуй знает, уходил далеко за 4к, всё работает нормально. Ответы не всегда нравятся, но это же 8b, мне и более крупные модели не всегда нравятся. Единственное, что хотело бы подавить, так это бесконечный хохот модели, даже ассистент смеётся, а уж с "весёлой" карточкой, то вечно улыбки и смех. Может, потом запрещу в карточке.
Никакого префила, оос и подобной хуйни не использую, так как модель изначально отбитая на все нейроны, о чём в первом посте и писал. Ставишь отвечать ассистента или пишешь в карточке "хелпфул ассистант" - пиши пропало. Но с другими карточками это просто дичь.
Аноним 29/05/24 Срд 05:40:19 762544 527
>>762519
>Ответы не всегда нравятся, но это же 8b
Она и на 70B начинает заЛУПаться и тупить после 4-5к, про 8В я даже думать боюсь.
> ассистант
Он "вылазит" из без его упоминания (в нарративе за {{char}} начинает писать про "хейт"/"bad things" and etc.), именно поэтому и хотелось бы его вырезать нахуй.
>вектора
Пока не пробовал, но читал, что они на активацию входных нейронов влияют. Как их обучить и как их в таверне/обабуге подрубить можно, знает кто?
Аноним 29/05/24 Срд 07:28:51 762561 528
ПОЛОЖНЯК
stheno пока ЛУЧШАЯ модель для рп среди мелких, больше 20b не тестил, не влезают.

Креативная, быстрая, большие посты, не тупит, иногда шизит но даже меньше чем fim. До 16к контеста тестил - не сильно деградирует. Кайф, sao10k шарит, не то что драммер.
Аноним 29/05/24 Срд 07:38:44 762564 529
0000.png 21Кб, 605x119
605x119
>>762544
>начинает писать про "хейт"/"bad things" and etc.
У тебя что-то сломано, смотри настройки. Или квант говно.
Ассистент залупается на эксплисит контент, на порнушной карточке ей вообще поебать. Где-то на 3.5к контекста этот пост. Суховато, но и модель не ерп, лол.
Аноним 29/05/24 Срд 07:49:08 762571 530
>>762564
Так я и написал, что триггерится она только на расизм/угнетение и подобное, спроси про то как ККК сжигали негров, а их детей насиловали и получишь "bad things" и как этого надо избегать. (у меня с ООС или префилом отвечает, но также "сухо" как и с порно)
Про "сухое" описание деталей порнушки и так понятно, да и с ней проблем не было, с чего ты это взял, я не понял.
ПЕРЕКАТ Аноним 29/05/24 Срд 08:35:26 762584 531
Аноним 29/05/24 Срд 08:49:18 762587 532
000.png 70Кб, 664x799
664x799
Настройки X
Ответить в тред X
15000
Добавить файл/ctrl-v
Стикеры X
Избранное / Топ тредов