Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Ответить в тред Ответить в тред
Check this out!
<<
Назад | Вниз | Каталог | Обновить | Автообновление | 499 62 54
Локальные языковые модели (LLM): LLaMA, Mistral, Command-R и прочие №63 /llama/ Аноним 29/05/24 Срд 08:34:59 762583 1
Llama 1.png 818Кб, 630x900
630x900
Альфа от контек[...].png 121Кб, 3090x1830
3090x1830
KL-divergence s[...].jpg 223Кб, 1771x944
1771x944
Самый ебанутый [...].jpg 516Кб, 960x1280
960x1280
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.

Здесь и далее расположена базовая информация, полная инфа и гайды в вики https://2ch-ai.gitgud.site/wiki/llama/

LLaMA 3 вышла! Увы, только в размерах 8B и 70B. Промты уже вшиты в новую таверну, так же последние версии кобольда и оригинальной ллама.цпп уже пофикшены.

Базовой единицей обработки любой языковой модели является токен. Токен это минимальная единица, на которые разбивается текст перед подачей его в модель, обычно это слово (если популярное), часть слова, в худшем случае это буква (а то и вовсе байт).
Из последовательности токенов строится контекст модели. Контекст это всё, что подаётся на вход, плюс резервирование для выхода. Типичным максимальным размером контекста сейчас являются 2к (2 тысячи) и 4к токенов, но есть и исключения. В этот объём нужно уместить описание персонажа, мира, истории чата. Для расширения контекста сейчас применяется метод NTK-Aware Scaled RoPE. Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, Llama 3 обладает базовым контекстом в 8к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз без существенной потери качества.

Базовым языком для языковых моделей является английский. Он в приоритете для общения, на нём проводятся все тесты и оценки качества. Большинство моделей хорошо понимают русский на входе т.к. в их датасетах присутствуют разные языки, в том числе и русский. Но их ответы на других языках будут низкого качества и могут содержать ошибки из-за несбалансированности датасета. Существуют мультиязычные модели частично или полностью лишенные этого недостатка, из легковесных это openchat-3.5-0106, который может давать качественные ответы на русском и рекомендуется для этого. Из тяжёлых это Command-R. Файнтюны семейства "Сайга" не рекомендуются в виду их низкого качества и ошибок при обучении.

Основным представителем локальных моделей является LLaMA. LLaMA это генеративные текстовые модели размерами от 7B до 70B, притом младшие версии моделей превосходят во многих тестах GTP3 (по утверждению самого фейсбука), в которой 175B параметров. Сейчас на нее существует множество файнтюнов, например Vicuna/Stable Beluga/Airoboros/WizardLM/Chronos/(любые другие) как под выполнение инструкций в стиле ChatGPT, так и под РП/сторитейл. Для получения хорошего результата нужно использовать подходящий формат промта, иначе на выходе будут мусорные теги. Некоторые модели могут быть излишне соевыми, включая Chat версии оригинальной Llama 2. Недавно вышедшая Llama 3 в размере 70B по рейтингам LMSYS Chatbot Arena обгоняет многие старые снапшоты GPT-4 и Claude 3 Sonnet, уступая только последним версиям GPT-4, Claude 3 Opus и Gemini 1.5 Pro.

Про остальные семейства моделей читайте в вики.

Основные форматы хранения весов это GGML и GPTQ, остальные нейрокуну не нужны. Оптимальным по соотношению размер/качество является 5 бит, по размеру брать максимальную, что помещается в память (видео или оперативную), для быстрого прикидывания расхода можно взять размер модели и прибавить по гигабайту за каждые 1к контекста, то есть для 7B модели GGML весом в 4.7ГБ и контекста в 2к нужно ~7ГБ оперативной.
В общем и целом для 7B хватает видеокарт с 8ГБ, для 13B нужно минимум 12ГБ, для 30B потребуется 24ГБ, а с 65-70B не справится ни одна бытовая карта в одиночку, нужно 2 по 3090/4090.
Даже если использовать сборки для процессоров, то всё равно лучше попробовать задействовать видеокарту, хотя бы для обработки промта (Use CuBLAS или ClBLAS в настройках пресетов кобольда), а если осталась свободная VRAM, то можно выгрузить несколько слоёв нейронной сети на видеокарту. Число слоёв для выгрузки нужно подбирать индивидуально, в зависимости от объёма свободной памяти. Смотри не переборщи, Анон! Если выгрузить слишком много, то начиная с 535 версии драйвера NVidia это может серьёзно замедлить работу, если не выключить CUDA System Fallback в настройках панели NVidia. Лучше оставить запас.

Гайд для ретардов для запуска LLaMA без излишней ебли под Windows. Грузит всё в процессор, поэтому ёба карта не нужна, запаситесь оперативкой и подкачкой:
1. Скачиваем koboldcpp.exe https://github.com/LostRuins/koboldcpp/releases/ последней версии.
2. Скачиваем модель в gguf формате. Например вот эту:
https://huggingface.co/Sao10K/Fimbulvetr-11B-v2-GGUF/blob/main/Fimbulvetr-11B-v2.q4_K_S.gguf
Можно просто вбить в huggingace в поиске "gguf" и скачать любую, охуеть, да? Главное, скачай файл с расширением .gguf, а не какой-нибудь .pt
3. Запускаем koboldcpp.exe и выбираем скачанную модель.
4. Заходим в браузере на http://localhost:5001/
5. Все, общаемся с ИИ, читаем охуительные истории или отправляемся в Adventure.

Да, просто запускаем, выбираем файл и открываем адрес в браузере, даже ваша бабка разберется!

Для удобства можно использовать интерфейс TavernAI
1. Ставим по инструкции, пока не запустится: https://github.com/Cohee1207/SillyTavern
2. Запускаем всё добро
3. Ставим в настройках KoboldAI везде, и адрес сервера http://127.0.0.1:5001
4. Активируем Instruct Mode и выставляем в настройках пресетов Alpaca
5. Радуемся

Инструменты для запуска:
https://github.com/LostRuins/koboldcpp/ Репозиторий с реализацией на плюсах
https://github.com/oobabooga/text-generation-webui/ ВебуУИ в стиле Stable Diffusion, поддерживает кучу бекендов и фронтендов, в том числе может связать фронтенд в виде Таверны и бекенды ExLlama/llama.cpp/AutoGPTQ
https://github.com/ollama/ollama , https://lmstudio.ai/ и прочее - Однокнопочные инструменты для полных хлебушков, с красивым гуем и ограниченным числом настроек/выбором моделей

Ссылки на модели и гайды:
https://huggingface.co/models Модели искать тут, вбиваем название + тип квантования
https://rentry.co/TESFT-LLaMa Не самые свежие гайды на ангельском
https://rentry.co/STAI-Termux Запуск SillyTavern на телефоне
https://rentry.co/lmg_models Самый полный список годных моделей
https://ayumi.m8geil.de/erp4_chatlogs/ Рейтинг моделей для кума со спорной методикой тестирования
https://rentry.co/llm-training Гайд по обучению своей лоры
https://rentry.co/2ch-pygma-thread Шапка треда PygmalionAI, можно найти много интересного
https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing Последний известный колаб для обладателей отсутствия любых возможностей запустить локально

Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде

Предыдущие треды тонут здесь:
>>758770 (OP)
>>751232 (OP)
Аноним 29/05/24 Срд 13:52:36 762918 2
15efc5364904a3b[...].jpg 54Кб, 736x1019
736x1019
Аноним 29/05/24 Срд 13:57:41 762922 3
firefox.webp 46Кб, 884x148
884x148
>>762918
Когда они уже заменят bz2 на zstd?
Аноним 29/05/24 Срд 16:24:57 763060 4
изображение.png 34Кб, 1509x128
1509x128
>>762918
https://www.evanmiller.org/attention-is-off-by-one.html
Вот тут утверждается, что всё внимание в этих ваших трансформерах сломано нахуй. Я кстати поржать попробовал, получил рост перплексии на своих игрушечных моделях и данных с 32.68 до 32. В самом репозитории есть баг с тем, что и исправленная реализация тоже сломана, но фикс фикса улучшает в районе погрешности. Такие дела.
Оживляю мёртвый тред почти тематикой.
Аноним 29/05/24 Срд 18:13:29 763187 5
jpeg.jpg 173Кб, 512x512
512x512
Короче, погонял Stheno v3.1

Это пока лучший ролплей-файнтюн для третьей ламы из имеющихся (имхо, офк). Возможно, это в целом лучшая модель в своем весе, но за такие заявления и пиздов можно отхватить, по этому я заикаться не буду.

Отыгрывает по простыне персонажей без нареканий, NSFW выдает омерзительно сочный. Из проблем - это только залупы. Без предупреждений и объяснений может иногда высирать куски текста из других сообщений. Сопротивляется регенерации и подсовывает одинаковые аутпуты, слегка изменяя подбор и порядок слов.

Тестировал только GGUF версию на восьмом кванте с рекомендованными настройками семплера:
https://huggingface.co/Lewdiculous/L3-8B-Stheno-v3.1-GGUF-IQ-Imatrix
С пресетом инструкта LLAMA-3 отсюда:
https://huggingface.co/Virt-io/SillyTavern-Presets
Аноним 29/05/24 Срд 18:43:15 763196 6
>>763187
Он слишком многословен, причем в длительной перспективе предсказуем. Вообще, походу, чтобы избавиться от предсказуемости 8b моделей, вкелючая 2x8 и 4x8, надо скачивать новые каждый день. Для меня Stheno v3.1 уже давно-давно пройденный этап.
Аноним 29/05/24 Срд 18:48:40 763198 7
>>763196
>чтобы избавиться от предсказуемости 8b моделей, ... надо скачивать
70B
Аноним 29/05/24 Срд 18:53:02 763200 8
>>763196
>Он слишком многословен
Да, тоже заметил. Но это вкусовщина, как по мне. Гораздо сильнее бесит что выходные у него нормально не регенерируются. На десять свайпов приходится примерно один оригинальный, остальные это копипаст с синонимами.

>в длительной перспективе предсказуем
Как и любая другая модель. По крайней мере, из тех что я прогонял.
Аноним 29/05/24 Срд 19:09:25 763212 9
image 116Кб, 1632x1008
1632x1008
Аноним 29/05/24 Срд 19:21:44 763222 10
>>763212
Мне от одного названия становится тошно и даже качать не хочется.
Аноним 29/05/24 Срд 19:23:18 763225 11
>>763222
не, норм сетка
опенчат годные делают
Аноним 29/05/24 Срд 19:26:34 763232 12
>>763187
>>763212
> 8b
> лучший
> годный
Тупостью тред траллите?
Аноним 29/05/24 Срд 19:27:36 763233 13
>>763187
Ерп в целом такое же как и у обычной лламы. А вот залупается чаще. Рп чуть-чуть поприятнее. Возможно проблема в том, что я на 6 кванте сидел.
Аноним 29/05/24 Срд 19:28:49 763238 14
>>763233
Проблема в том что ты зачем-то трогал тупую 8В. Кванты это говно не исправят.
Аноним 29/05/24 Срд 19:29:32 763239 15
>>763232
Глазки протри и перечитай текст. Я сказал, что лучшая "в своем весе", среди восьмерок.
Аноним 29/05/24 Срд 19:30:20 763242 16
>>763232
Никто же не говорит, что оно превосходит 70В. Или тебе, как человеку купившему 3 карточки Р40, просто необходимо выебнуться?
Аноним 29/05/24 Срд 19:31:46 763246 17
>>763238
Порекомендуй умную 8В тогда.
Аноним 29/05/24 Срд 19:35:37 763255 18
>>763242
>купившему 3 карточки Р40
На них надо катать 8B в double precision же.
Аноним 29/05/24 Срд 19:35:56 763256 19
>>763187
скачал, погонял. не знаю, выглядит все так же плохо как и любая другая ллама 8b. ллама3, на мой взгляд, совсем ужасна в рп, даже эти файнтюн потуги не делают её лучше. потому что её обучали только для того, чтобы она хорошо проходила тесты. в диалогах куча повторений одних и тех же фраз. но ладно бы это, оно еще пытается срать кучей различных вопросов в одном сообщение, быстро переключается с одной темы на другую. просто отвратительный опыт.
но ладно, признаюсь, если бы я не гонял сетки год, то и 8b была бы мне в новинку и любима.
ну и кстати, между 8b и 70b лламой3 разницы особой не заметил в рп, сорта говна.
Аноним 29/05/24 Срд 19:39:04 763264 20
>>763256
>потому что её обучали только для того, чтобы она хорошо проходила тесты
15Т тестовых данных?
Вот фи да, дрочили учебниками. А у лламы вполне себе норм датасет должен быть, просто сверху явно упорно тренировали ассистентом. Надо поискать контрольные вектора не только на сори, но и на ассистента, авось возможно разлоботомировать.
Аноним 29/05/24 Срд 19:46:47 763270 21
>>763256
>ллама3, на мой взгляд, совсем ужасна в рп
У меня с моим железом нет возможности загружать более прожорливые сетки. Если сравнивать тупо между файнтюнами третьей ламы, мне Stheno показалась лучшим вариантом. И вообще, это 8B. Тут многого ожидать не стоит.

>оно еще пытается срать кучей различных вопросов в одном сообщение, быстро переключается с одной темы на другую
Ни разу не встретил подобного. У меня наоборот она придерживалась исключительно картонки персонажа и не вылетала из контекста. Я тестировал на разных персонажах: цундерках, яндерках, кудерках и прочих. Во всех случаях поведение отличалось, чего не было на других моделях до 13B, которые якобы тоже тюнились под ролплей.
Аноним 29/05/24 Срд 19:49:38 763274 22
Сегодня попробовал Phi-3-vision.
Если moondream2 просто быстрая и определяет, что на фотке (вроде, я писал), то Phi-3-vision даже на русском умеет, отвечает тоже в меру быстро, и вообще, приятная, конечно.
Но под нее нет софта, надо самому писать.
И хочется ее же квантованную в 8б.
А пока есть только анцензоред ортогональная модель, кек, ее надо будет потестить отдельно, конечно.

Короче, мундримка хороша для англоговорящих бомжей, а вот фи-3-вижн может оказаться и правда первой народной визуальной моделью.
Ну, если это вообще будет иметь спрос.
Аноним 29/05/24 Срд 20:21:44 763314 23
>>763264
можно сделать вывод, что хуево обучили. на самом деле можно легко запороть модель, даже кривой лорой (у меня были похожие лупы как у лламы3 после дообучения на коротких датасетах).
так что они скорее всего максимально дрочили под инстракт с малым контекстом, чтобы она отвечала хорошо на тесты, поэтому она больше ни на что не годна.

>>763270
>Ни разу не встретил подобного. У меня наоборот она придерживалась исключительно картонки персонажа и не вылетала из контекста.
я не говорю, что картонки на лламы3 не отличаются поведением. а о том, что она быстро забывает основную цель диалога, шизит, но этим страдают большинство 8b. вот только, ллама3 еще может загонять тебе один и тот же текст разными перефразированиями одного и того же сообщения, попутно добавляя в него те же самые действия из прошлых сообщений карточки, и разбавляет это ответом, и так снова и снова, раздувая сообщение. если тебе нормально, то ладно. я знаю, что все модели в разной степени страдают этим, но ллама3 просто рекордсмен в этом. попробуй не двигать своими сообщениями сюжет, отвечать простыми фразами, тогда поймешь о чем я говорю. нормальная сетка обычно сама умеет выходить из таких лупов, но увы, ллама3 будет продолжать срать однотипными сообщениями и даже не замечать этого. и 70b лламы3 ведет себя аналогично.
Аноним 29/05/24 Срд 20:23:33 763315 24
Подскажите самый простой вариант поспрашивать pdf документы на русском языке. Какая есть готовая реализация RAG? Объясню кейс. Есть сотрудник узбек (не по национальности, а просто тупой, поэтому узбек). Есть куча его документов неотсортированных, просто горы файлов типа 1нов.pdf 34финал_редакт.pdf. Просто хочу вопросы задавать и пусть разбирается в его говне. Узбек уволен
Аноним 29/05/24 Срд 20:32:11 763321 25
>>763315
>Узбек уволен
Нанимай обратно, проще будет.
Аноним 29/05/24 Срд 20:33:41 763323 26
Аноним 29/05/24 Срд 20:40:03 763329 27
>>763323
Захостили бы на лабе perplexity, эххх
Аноним 29/05/24 Срд 20:44:39 763331 28
>>763323
>несмотря на то, что эта модель размещена на HF, у нее нет config.json, и она не поддерживает вывод с помощью библиотеки transformers или любой другой библиотеки
Опенсурс 80-го уровня.
Аноним 29/05/24 Срд 21:09:36 763361 29
image.png 431Кб, 964x906
964x906
Развлекаюсь тут с вызовом функций
Забавно, но медленно
Сделал группу, еще забавнее, но еще медленнее
Пока даю запускать только команды выводящие информацию, без изменений настроек, файлов или отправки запросов кроме пинга.
Это уже наверное на виртуалке потестю, ее не жалко
Аноним 29/05/24 Срд 21:20:28 763367 30
>>763314
Ллама очень любит залупаться, это факт. Я не знаю какие настройки семплера выставить, чтобы она прекратила. Походу скилл ишью.
Аноним 29/05/24 Срд 21:23:44 763371 31
>>763315
> Есть сотрудник узбек (не по национальности, а просто тупой, поэтому узбек).
Мне кажется ты ошибся сайтом.
Аноним 29/05/24 Срд 21:26:24 763376 32
>>763361
Можешь подробнее расписать, что ты именно делаешь и с какой целью?
Аноним 29/05/24 Срд 21:33:30 763383 33
А че ллама3 лупится по кд? Буквально чуть ли не сразу начинает воспроизводить паттерн предыдущего сообщения. С этим можно как то бороться?
Аноним 29/05/24 Срд 21:36:06 763387 34
>>763376
Я написал прокси сервер, прослойку между бекендом кобальдом и фронтендом силлитаверной
Оно перехватывает определенный формат запросов которые создает сетка и дописывает/подменяет ответ выдавая выполненную команду
Тоесть я могу писать что делать а сетка пишет команды и выполняет их, потом спрашивает по полученной инфе и сетка опять что то делает
Пока криво косо и команд не особо много, но вроде забавно получилось
Аноним 29/05/24 Срд 21:39:09 763392 35
>>763367
Да не, народ там пили новые семплеры с пенальтями, может ещё исправят.
>>763383
>С этим можно как то бороться?
Да. Смотри, я за тебя нашёл источник проблемы:
>ллама3
Аноним 29/05/24 Срд 21:44:43 763400 36
>>763361
Видел датасет, который учит сетку делать подобное, только у них теги external_tool
Аноним 29/05/24 Срд 21:51:12 763412 37
Погонял Phi-3-vision.
Ну, на английском отвечает.
На русском отвечает (но не всегда).
Если включить температуру — то начинает сильно коверкать слова.
Работает в меру быстро, но заметно медленнее мундрим. Но качество выше.
Полная занимает 8,5 гигов до запроса, 11 гигов с контекстом.
В 8 бит занимает 6,5/9 гигов.
В 4 бита занимает 4,5/7 гигов.
Не профи в этих ваших визуальных мультимодалках, но в общем, понравилось, осталось придумать применение.

Мундрим быстрее, но слишком глупее/проще (но все еще лучше ллавы).
Фи-3 умнее, но медленнее.

Надо будет попробовать ее помучать вопросами в духе презентации гпт-4о.
Аноним 29/05/24 Срд 21:53:22 763417 38
>>763392
Что бы я без тебя делал!
Аноним 29/05/24 Срд 21:57:01 763427 39
>>763242
ну ты жестко. Это же была затравка разговора, чтобы он мог сказать о том как запускает модели не ниже 70б в мегакванте и скромно как бы невзначай упомянуть о штабеле тесл. А мне вот интересно - эти теслы имеют поддержку в ггуф только благодаря одному пердолю с теслами, а если герганыч захочет выкинуть поддержку хлама что тогда? А Жора не любит тащить в будущее старье, ведь было уже неоднократно тому примеров.
>>763323
качаю эту уже расхваленную модель кодинга у бартовского, скоро заценю если запуститься канешн
Аноним 29/05/24 Срд 21:58:57 763432 40
>>763400
Да, ноус гермес новые, но там нужен свой фронт, а я хотел удобно из таверны
Там у них даже примеры есть для автономных агентов с этими вызовами функций
https://github.com/NousResearch/Hermes-Function-Calling
Аноним 29/05/24 Срд 22:04:49 763442 41
>>763412
Спиздел.
4 битная занимает 2,7 гига голая.
8 битная — 4,5 голая.
16 — 8 гигов.
Т.е., контекст занимает 4,5 гига для 4 и 8 битной.

Ладно, кому тут нужны визуальные, молчу-молчу. =)
Аноним 29/05/24 Срд 22:06:09 763444 42
>>763187
>Это пока лучший ролплей-файнтюн для третьей ламы из имеющихся
Полностью согласен с тобой, Анонче, несмотря на то, что другие Аноны против.
Реально одна из лучших, как минимум.
Аноним 29/05/24 Срд 22:13:13 763460 43
>>763427
> а если герганыч захочет выкинуть поддержку хлама что тогда?
Сначала ему придётся выкинуть из проекта Гесслера с его штабелем тесл. А этот чувак запилил поддержку FA32 без тензорных ядер.

Да, а я себе чётвёртую теслу купил. Можешь вскрываться порадоваться за меня.
Аноним 29/05/24 Срд 22:32:44 763495 44
>>763460
>Да, а я себе чётвёртую теслу купил.
- сказал он, выпятив губу. Крестьяне с 3060, столпившиеся вокруг него, захлопали расширившимися глазами. Один из них прошептал - он ангел...
По толпе быдлованов с 8 ггигами в 3080 прошелестел шепоток - это ангел, спустившийся с небес!
Первым пал перед ним ниц грязный амудешник, и валяясь в грязи, простер к нему руки - благослови поддержку rocm, владыка VRAM!

А вот возьмет Хуанг и спонсирует Герганыча с условием выкинуть поддержку хлама, а Гесслеру твоему купят четыре новых 4090, и что тогда?
Аноним 29/05/24 Срд 22:33:52 763496 45
>>763460
У процессоров же тоже нет тензорных ядер пока что. Будет только на тензоркорес, это же главная фича ггуфа отвалится.
Аноним 29/05/24 Срд 22:40:46 763510 46
>>763323
Кал, как и всё у мисраля. Не может справиться с простыми запросами на питоныче, с которыми даже дипсик 7В справлялся, десять раз рестартил и ни разу не выдал рабочий код. Автокомплит сломан, пытается в одну строчку лапшу кода затолкать. Ещё и скорость говно.
Аноним 29/05/24 Срд 23:07:38 763552 47
>>763496
Я хз, как в лламе совмещают flash attention и выгрузку части слоёв в RAM (это работает и ускорение даёт), но походу эта фишка только для видях. В частности у меня генерация идёт быстрее, но становится какой-то дёрганной.
Аноним 29/05/24 Срд 23:24:30 763581 48
>>763314
>она быстро забывает основную цель диалога
Ничего она не забывает. Это проблема уже с твоей стороны. У меня ни разу не было ситуации, чтобы сетка терялась и превращалась в генератор случайных событий, отклеиваясь от контекста. Скилл ишью, братик. Скилл ишью.

>ллама3 еще может загонять тебе один и тот же текст разными перефразированиями одного и того же сообщения
Я об этом еще в первом сообщении написал. Я этого не отрицаю. Однако это не отменяет того факта, что Stheno это хороший файнтюн именно для третьей ламы, хоть и с теми же родительскими болячками. Ты можешь поспорить и привести пример другой модели на 8B, которая будет также хорошо следовать инструкциям, иметь такой же контекст и выдавать приличные описания - никто тебя не останавливает. В данном случае, просто приходится чем-то жертвовать.
Аноним 29/05/24 Срд 23:34:51 763600 49
>>763581
>У меня ни разу не было ситуации, чтобы сетка терялась и превращалась в генератор случайных событий, отклеиваясь от контекста
>8b
ага, как скажешь.
Аноним 29/05/24 Срд 23:48:09 763612 50
>>763510
ты или троллишь или проблема в тебе
Заебательская модель, все работает, питоновский код тоже, никакой одной строки нет, все как надо и скорость кстати нормальная для 22б модели, тыкал вот эту - ггуф 4кс от бартовского.
Аноним 30/05/24 Чтв 00:03:16 763631 51
>>763612
> питоновский код тоже
Покажи как он напишет с нуля рабочий код для показа окошка на qt.
Аноним 30/05/24 Чтв 00:18:56 763668 52
>>763612
>>763323
> I'm afraid I cannot write the full code for the game
Блядь, ну и хуета. И чего она выебывается? Я ее просто змейку ебаную попросил сделать.
Аноним 30/05/24 Чтв 00:24:30 763687 53
>>763631
Ну пиздетс, т.е. ты не веришь. Ок, допустим я напиздел, думаешь трудно будет тебя наебать скринами? Это ничего не докажет, ищи проблему у себя или просто обосри мистраль с ног до головы, потому что это они виноваты что у тебя не работает.
Аноним 30/05/24 Чтв 00:25:35 763691 54
>>763581
> Ничего она не забывает. Это проблема уже с твоей стороны. У меня ни разу не было ситуации, чтобы сетка терялась и превращалась в генератор случайных событий, отклеиваясь от контекста. Скилл ишью, братик. Скилл ишью.
Ну так скинь настройки семплера, промпт формат, системный промпт. Конкретный промпт карточки, возможно. Уверен, всему треду будет интересно, как ты заставил лламу перестать генерить случайные события. Ведь весь "скилл ишью" легко пофиксить скинутыми настройками.
Аноним 30/05/24 Чтв 00:29:00 763702 55
>>763495
Вслед за ним, крестьяне один за другим стали опускаться на колени, бухаясь прямо в покрытую пожухшими литьями глину, и начинали истово бить поклоны.
Он же, лишь снисходительно смотрел на них, задрав подбородок. Его ноздри, заросшие густыми волосами, раздувались и слегка вздрагивали от возбуждения.
Вдруг он заметил одиноко стоявщего среди толпы коленопреклоненных плебеев типа, который удивленно озирал ползающую около него в грязи ораву эртэиксников нижнего и среднего ценовых сегментов.
- Эй ты, скилл ишью, почему ты не на коленях перед обладателем четырех тесл и 96 гигов врам, девяноста шести Карл! Какая у тебя картонка, долбоеб? Ты хоть раз в жизни запускал 70б в Q8, уебище? - угрожающе спросил он, надвигаясь на типа.
Тот пожал плечами и ответил - парочка 3090, хули.
Аноним 30/05/24 Чтв 00:31:09 763705 56
>>763687
Ты ведь даже не пытаешься. Алсо, если надо ебаться с моделью чтоб она стала выдавать нормальный код, то она по умолчанию говно. С дипсиком/wavecoder/квеном не надо ебаться, они с ходу нормально работают. Если модель шизит и галлюцинирует как любой другой мистраль, то ей ничем не поможешь.
Аноним 30/05/24 Чтв 00:36:07 763711 57
>>763702
Годнота. В какой модельке сгенерил?
Аноним 30/05/24 Чтв 00:59:40 763747 58
>>763687
Хорошо. Помоги мне. Как мне пофиксить вот это?
class Food
{
// Method for generating food, etc.
}
Покажи настройки, которые ты используешь. У меня почему-то моделька думает, что у нее мало места для написания кода.
Аноним 30/05/24 Чтв 01:29:53 763783 59
Аноним 30/05/24 Чтв 01:30:16 763784 60
Сап.
Решил опять потестить локалки. Какие из новых есть для ЕРП (дрочки)? Могу ранать вплоть до 70B
Аноним 30/05/24 Чтв 01:42:58 763789 61
image.png 1640Кб, 1458x1099
1458x1099
image.png 1004Кб, 1430x1115
1430x1115
Погонял эту вашу Аю-8В от создателя Командира.
Ну что тут сказать, сои нет, русский язык знает почти в совершенстве, ебливая как и её старший брат, в 24 гб видеопамяти влезает примерно 75-80к контекста с шестым квантом против 8к контекста на iQ4_XS командире.
Идеальная модель, по соотношения затраты/качество русского текста лучшая.
Аноним 30/05/24 Чтв 01:47:12 763790 62
>>763789
>Аю-8В
что за модель?
Ищу себе что-то новенькое для кума.

Альсо тут люди говорят про какой-то моистрал - это этот? https://huggingface.co/TheDrummer/Moistral-11B-v3-GGUF

а че они все такие маленькие? У тебя 8Б, у моистраля - 11Б.
Аноним 30/05/24 Чтв 01:52:02 763792 63
спасибо анону который вчера мне помогал настроить таверну (вчера не отписал ибо наебенилось) спасибо тебе огромное анонче. по твоему совету скачал ту же сетку только от другого автора и время генерации упало до 30 сек а то и меньше.
Аноним 30/05/24 Чтв 01:53:27 763793 64
>>763792
От какого автора качал? Время генерации упало после того, как модельку поменял?
Аноним 30/05/24 Чтв 01:55:59 763795 65
>>763790
>что за модель?

https://huggingface.co/bartowski/aya-23-8B-GGUF

>Ищу себе что-то новенькое для кума.

Имхо, лучше старых 20В моделей сделанных на основе второй лламы 13В так и не сделали ничего.

>Альсо тут люди говорят про какой-то моистрал - это этот?

Он самый, для англюсика норм.

>а че они все такие маленькие? У тебя 8Б, у моистраля - 11Б.

Две причины:
Потому что корпы сейчас выпускают базовые модели пригодные для файнтьюна либо маленькие 7-8В либо гигантские 70В, среднего не дано.
Вторая причина более прозаична - для ЕРП нужен большой контекст и нормальная скорость, а кто бы что ни говорил, а теслы не дают нормальной скорости на 70В, подходящей для РП, а людей с 2+ 4090 тут по пальцам одной руки пересчитать можно.
Аноним 30/05/24 Чтв 02:00:06 763800 66
>>763795
Да-да, не дают. Не покупайте. Самим мало.
Аноним 30/05/24 Чтв 02:00:13 763801 67
>>763789
Как нет сои. Есть. Модель избегает прямых описаний, использует мягкие слова, типа промежность, эрекция, хуйня какая-то, влад.
Аноним 30/05/24 Чтв 02:15:59 763814 68
>>763801

Это не соя, это значит что её стандартному русскому языку обучили, без жесткой порнухи в датасете, а максимум с мягкой эротикой.
Соя это когда тебе карточка выдает что такой текст она генерировать не будет, а за тобой уже выехали.
Аноним 30/05/24 Чтв 02:18:57 763818 69
>>763814
>стандартному русскому языку
Так вот как это называется. Сорре, в сортах сои не разбираюсь.
Аноним 30/05/24 Чтв 02:23:28 763822 70
>>763800

Можешь и дальше считать что 3 токена в секунду это нормальная скорость, которая стоила того чтобы выкинуть деньги на металлолом без задач, мне-то что?
Аноним 30/05/24 Чтв 02:24:43 763823 71
Аноним 30/05/24 Чтв 02:29:53 763824 72
>>763823

Для многих месячная зарплата, так-то.
Как бы там ни было, ты со своими теслами все равно ерпшишь на маленьких моделях до 20В, а именно в этом и была суть моего изначального аргумента.
Аноним 30/05/24 Чтв 02:34:24 763827 73
>>763824
я тащемта мимо проходил, я не тот анон с которым ты говорил.
Про маленькие модели я не согласен.
Если я докуплю третью теслу - я смогу командера+ в 4 кванте на гпу онли запускать. Это по-твоему маленькие модели до 20Б?

Ты короче не прав.
Аноним 30/05/24 Чтв 02:35:36 763828 74
>>763827
сейчас как раз кстати сезон покупать теслы, пока еще доллар по 89.
Аноним 30/05/24 Чтв 02:36:53 763829 75
>>763828
Какой сезон, ебу дал? Полгода назад теслы 12к стоили.
Аноним 30/05/24 Чтв 02:37:38 763830 76
>>763829
никто никогда не вернется в 2007 год
Аноним 30/05/24 Чтв 02:42:16 763836 77
>>763829
теслаи сейчас 12к стоит. Только m40.
А p40 минимально я сейчас нашел за 21500. По-божески ещё, после повышения всяких ебучих пошлин от плешивой суки.
Я если бы хотел взять сейчас - брал бы по такой цене не думая.
Аноним 30/05/24 Чтв 02:46:30 763840 78
>>763827
>Если я докуплю третью теслу - я смогу командера+ в 4 кванте на гпу онли запускать.

Запускать сможешь - со скоростью, даст бог, 2 токена в секунду без контекста. Охуенно, красавчик. Ну запустишь, охуеешь с ума модельки, когда она тебе за пять минут шикарный русский текст выдаст без ошибок, а дальше что?
Речь идет про ерп, для ерп даже 5 токенов в секунду уже маленькая скорость, минимально допустимая я бы сказал, но на теслах ты даже такой не добьешься, разве что на 34В модельке какой.
Аноним 30/05/24 Чтв 02:49:30 763843 79
>>763840
>5 токенов в секунду уже маленькая скорость
Хуя ты зажрался.
Аноним 30/05/24 Чтв 02:51:04 763845 80
>>763840
>для ерп даже 5 токенов в секунду уже маленькая скорость
тыскозал?
мы тут говорим про бюджетный LLM. Это лучше, чем вообще не иметь возможности запустить модель.
Все твои аргументы - априори инвалиды просто потому что достаточно сравнить цену по которой ты себе можешь позволить командера на амперах и цену на паскалях p40.
Аноним 30/05/24 Чтв 02:57:26 763849 81
>>763836
бля, взял, не удержался. Будет теперь у меня три теслы.
Аноним 30/05/24 Чтв 02:59:04 763851 82
>>763814
А может ли это означать, что промпт нужно нормальный писать? Чтобы она понимала, что жоская ебля нужна. Ллама же понимает как-то, если специально просить. А если не просить, такую же поебень выдаёт.
Аноним 30/05/24 Чтв 03:00:12 763852 83
>>763843
>>763845

Тушитесь, речь идет про ерп, а не про саму возможность запуска моделей.
Возможность запуска благодаря жоре есть у каждого. Не с 2-3 токенами в секунду, как у вас, а с 1-1.5 токеном в секунду. С точки зрения использования что то, что другое одинаково непригодно, но хватит чтобы заценить модель.
Аноним 30/05/24 Чтв 03:01:19 763853 84
>>763852
>ваш ерп не ерп
ну-ну.
Пустая хуйня. Пошел я спать.
Аноним 30/05/24 Чтв 03:03:37 763856 85
>>763852
Да забей, у них аутотреннинг, надо же как-то оправдать покупку тесл. Хотя кто-то вроде постил запуск с нормальной скоростью.
Аноним 30/05/24 Чтв 03:18:44 763858 86
>>763853

Попробуй перестать запускать 70В+ на непрогодных скоростях и запусти модельку поменьше но достаточно быструю(12-15 токенов минимум) и початься полчаса. Когда получишь и напишешь с полсотни ответов за это время вместо обычных четырех - гарантирую, поймешь о чем я.
Аноним 30/05/24 Чтв 03:22:24 763859 87
image.png 1534Кб, 1397x1064
1397x1064
>>763851

Лама еще хуже выдает - читать вообще невозможно. Еще и в залупы уходит.
Аноним 30/05/24 Чтв 03:23:56 763860 88
>>763859
Я имел в виду на английском, конечно. В русский она не очень. Хотя проблема залупов присутствует везде.
Аноним 30/05/24 Чтв 03:25:32 763861 89
>>763858
> Попробуй перестать запускать 70В+ на непрогодных скоростях и запусти модельку поменьше но достаточно быструю(12-15 токенов минимум) и початься полчаса. Когда получишь и напишешь с полсотни ответов за это время вместо обычных четырех - гарантирую, поймешь о чем я.
Зачем такие большие скорости, если я не умею так быстро читать?
мимо
Аноним 30/05/24 Чтв 03:31:34 763866 90
>>763860

Надо в правилах треда запретить смешивать в рамках одной дискуссии модели на русском и на английском и внезапно перескакивать с одного языка на другой.
Аноним 30/05/24 Чтв 03:36:47 763867 91
>>763861

Ты по слогам читаешь?
Аноним 30/05/24 Чтв 03:44:37 763868 92
>>763212
Вот объясните тупому, хули с СоТ такие низкие показатели? Или СоТ только для RP подходит? Или у них CoT какой-то особенный? Мне показались сетки чуть умнее с СоТ, хотя мб плацебо, а судя по тестам так и вообще регресс.
Аноним 30/05/24 Чтв 03:47:57 763869 93
>>763866
> Надо в правилах треда запретить смешивать в рамках одной дискуссии модели на русском и на английском и внезапно перескакивать с одного языка на другой.
А что еще надо запретить?
Аноним 30/05/24 Чтв 03:51:51 763870 94
>>763867
1 токен это ~0.5-1 слово. По слогам это скорость ~1 токен в секунду. Скорости 5-7 токенов достаточно, чтобы читать комфортно. Более высокая скорость нужна только, чтобы быстро проглядывать текст и рероллить. Но если модель постоянно требует рероллы, то нахуй такая модель нужна? Понятно, что чем больше скорость генерации, тем лучше. Но 5 токенов в секунду качественного текста всегда лучше чем 15 токенов в секунду потока говна.
Аноним 30/05/24 Чтв 04:05:41 763872 95
>>763870
> Скорости 5-7 токенов достаточно, чтобы читать комфортно.

Потому я и писал что 5 токенов это минимум для ерп.
Но вообще когда весь текст уже есть перед глазами - ты читаешь быстрее, чем когда ты читаешь со скоростью появления символов на экране.

>Но 5 токенов в секунду качественного текста всегда лучше чем 15 токенов в секунду потока говна.

А 15 токенов качественного текста лучше чем 5 токенов качественного текста.
Аноним 30/05/24 Чтв 04:09:55 763873 96
>>763872
> Потому я и писал что 5 токенов это минимум для ерп.
> Но вообще когда весь текст уже есть перед глазами - ты читаешь быстрее, чем когда ты читаешь со скоростью появления символов на экране.
Вообще, это все не так работать должно.
> А 15 токенов качественного текста лучше чем 5 токенов качественного текста.
Очевидно лучше, потому что тебе этот текст в идеале отправить еще в ттску. И вот она уже должна зачитывать весь этот текст приятным девичьим голосом, пока ты дрочишь на сгенеренную сд картинку этой сценки. А до тех пор, пока такого нет, все хуйня.
Аноним 30/05/24 Чтв 04:20:59 763879 97
>>763873
> что тебе этот текст в идеале отправить еще в ттску. И вот она уже должна зачитывать весь этот текст приятным девичьим голосом, пока ты дрочишь на сгенеренную сд картинку этой сценки. А до тех пор, пока такого нет, все хуйня.

Все это реализуемо не выходя из таверны.
Аноним 30/05/24 Чтв 04:32:07 763882 98
>>763879
Нет. Ттски нормальной нет. Картинки генерит хуевые.
Аноним 30/05/24 Чтв 04:36:03 763883 99
>>763882
>Ттски нормальной нет

А ты точно искал?
https://www.youtube.com/watch?v=d5XFO_l_3wA

>Картинки генерит хуевые

Если ты нормально свою собственную сд не настроил, то это ты рукожоп.
Аноним 30/05/24 Чтв 04:54:14 763885 100
>>763883
> А ты точно искал? https://www.youtube.com/watch?v=d5XFO_l_3wA
Это не то. Мне нужны анимешные няши.
> Если ты нормально свою собственную сд не настроил, то это ты рукожоп.
Сд генерит норм, а вот ллм теги записывает не очень.
Аноним 30/05/24 Чтв 05:30:38 763894 101
>>763883
Интересная штука, спасибо анон!
Ей получается достаточно 7-секундного образца любого голоса на любом языке чтобы воспроизвести его как спикера?
Аноним 30/05/24 Чтв 06:16:31 763909 102
>>763885

Ты бы хоть видео до конца досмотрел.

>>763894

Да.
Аноним 30/05/24 Чтв 06:20:44 763911 103
>>763909
> Ты бы хоть видео до конца досмотрел.
И что я там должен был увидеть? Картинку? Я говорю о том, что мне озвучка нужна.
Аноним 30/05/24 Чтв 06:38:37 763915 104
>>763911

Ну ты и дегенерат, пиздец.
А впрочем похуй, твои проблемы.
Аноним 30/05/24 Чтв 06:51:05 763921 105
>>763915
В чем я дегенерат? Ты по существу ответить можешь или умеешь только выебываться?
Аноним 30/05/24 Чтв 07:03:43 763926 106
>>763921
Ты 7В модель?
мимо другой анон
Аноним 30/05/24 Чтв 07:05:14 763927 107
>>763836
>p40 минимально я сейчас нашел за 21500
Если мониторить Авито (просто добавь поиск в избранное с уведомлением), то бывают и <18к.
Аноним 30/05/24 Чтв 07:08:32 763928 108
>>763926
Если ты хочешь нормально общаться, тогда перестань выебываться и ответь по фактам, если не хочешь, то просто вытекай из треда со своей жирнотой нахуй. У меня нет желания тратить время на клоунов вроде тебя.
Аноним 30/05/24 Чтв 07:55:57 763939 109
>>763927
а с крутиляторами все 25
Аноним 30/05/24 Чтв 08:31:20 763947 110
>>763789
Что за пресет? Она шизит страшно.
Аноним 30/05/24 Чтв 09:39:12 764007 111
Чтобы расставить все точки над i
Почему тесла лучше чем 3090 и тем более 4090:
1. потому что нормально поддерживается только ггуф, и это правильно, поддержка exl тупо не нужна!
2. комфортная скорость чтения это 4-5 токенов в сек. Любая скорость выше просто не нужна, потому что человек не способен читать быстрее чем 4-5 токенов в сек. А вообще согласно последним исследованиям, доказано, что более низкая скорость нужна чтобы успеть обдумать написанное, поэтому рекомендуется даже 2-3 токена в сек.
3. архитектура паскаль проверена временем, а ампер - избыточна и просто не нужон нам ваш этот ампер.
4. любой кто возражает против, просто уебан, который за всю жизнь не запускал больше 7б, и не понимает всего величия 70б, которые можно запустить только на теслах. На процессоре нельзя - не комильфо.
Аноним 30/05/24 Чтв 09:49:34 764022 112
>>764007
Чтобы расставить все точки над i
Почему процессор лучше чем тесла и тем более 4090:
1. потому что нормально поддерживается только ггуф, и это правильно, поддержка exl тупо не нужна!
2. комфортная скорость чтения это 2 токена в сек, ведь согласно последним исследованиям, доказано, что более низкая скорость нужна чтобы успеть обдумать написанное.
Аноним 30/05/24 Чтв 10:16:43 764039 113
>>764007
Можно просто иметь 3090/4090 + Р40 и получить скорость 70В выше чем с ведра из четырёх Р40.
Аноним 30/05/24 Чтв 10:17:37 764041 114
Да бля опять новый промпт формат
Че там aya-23 нужно? Обычный команд р промпт формат сойдет?
Аноним 30/05/24 Чтв 10:18:44 764042 115
>>764041
Да. Это файнтюн командера.
Аноним 30/05/24 Чтв 10:49:55 764057 116
>>764042
Какой пресет? Min-p?
Аноним 30/05/24 Чтв 10:56:19 764059 117
>>764007
Не понимаю долбоёбов, которые горят с тесл. На двух настолько медленнее, чем на одной полностью забитой?
Аноним 30/05/24 Чтв 10:59:04 764064 118
>>764059
Завидуют, непонятно только чему
Толи экономии денег то ли возможности крутить что то большое быстрее и с большим контекстом
У меня кстати теслы нет, мне все еще влом с ней возится
Аноним 30/05/24 Чтв 11:04:51 764068 119
>у меня 5 тесл
>а у меня 10 4090
>а у меня 50к не деньги, жалко бедолаг которые столько получают
Всё это без контекста. При этом в соседнем треде точно так же выёбываются сикретклабами и опусом, при том, что их никто вообще не спрашивает про сикретклаб и опус. Почему людям постоянно надо чем-то выёбываться?
Аноним 30/05/24 Чтв 11:10:02 764071 120
>>764068
> людям
> выёбываться
Начнем с того, что это не люди.
Аноним 30/05/24 Чтв 11:10:07 764072 121
>>764068
>Почему людям постоянно надо чем-то выёбываться?
Потому что у них низкая самооценка и нужно постоянно ее поднимать выебываясь перед другими
Так же и с оскорблениями и другой чепухой
Аноним 30/05/24 Чтв 11:16:39 764076 122
>>764068
это в любом треде присутствует, где есть малейшая возможность - сильная травма от детства в 90х. Всем надо доказать что ты не нищий
Аноним 30/05/24 Чтв 11:18:07 764077 123
>>764068
будем четны с собой, окда? 50к теперь реально не деньги.
Инфляция.
В 2005 за 30к можно было собрать себе пеку из комплектующих на 4/5.
Сейчас за 30к можно только купить себе малину и сидеть на ней смотреть на слайдшоу в одной вкладке браузера. Ну или прям совсем из говна собирать "пк".
>>764059
медленнее - факт. Я хз что там этот чел сегодня ночью ещё пытался доказать про эталонный ЕРП. Звучит как полная чушь.
Думаю у него просто маленькая зарплата и член маленький поэтому он завидует тем, кто может потратить на теслу с алика 22к походя как побрякушку зацепившую взгляд в магазине прикупить.
Толкает какие-то телеги про то что без нескольких 4090 ему медленно, а у самого небось единственный продукт от нвидии - 1030 в ноутбуке.
Аноним 30/05/24 Чтв 11:19:45 764078 124
>>764071
А кто, сами нейросетки?
Аноним 30/05/24 Чтв 11:20:57 764079 125
изображение.png 26Кб, 634x69
634x69
изображение.png 27Кб, 579x73
579x73
изображение.png 26Кб, 570x84
570x84
>>763495
>8 ггигами в 3080
Там минимум 10, иногда 12.
>>763510
Лол, у мистраля по крайней мере первая версия была норм. Мое-подделки да, говно, мику вот тоже неплоха. А на счёт кодер версии- наверняка ггуф сломан.
>>763789
Так, а её тело то в итоге реагирует?
>>763858
>Попробуй перестать запускать 70В+
Никак. Однажды попробовав мёд командира+, нельзя пересесть на говно восьмёрок.
Аноним 30/05/24 Чтв 11:29:14 764088 126
>>764077
>Сейчас за 30к можно только купить себе малину
За 10-15 на ксеоне с 4 плашками памяти и 8-12 ядрами изи собраться
Производительность на уровне 9 поколения интела по однопотоку
Видимокарту конечно придется отдельно брать, они дорогие
Но какой нибудь красный на 8 гигов можно тыщ за 6-10 взять, для игр хватит
Так что не пизди
Аноним 30/05/24 Чтв 11:29:49 764090 127
>>763212
Да да, хватит выебываться, а теперь ответьте мне, хули СоТ ухудшает показатели нейронок? Судя по этой статье https://learnprompting.org/docs/intermediate/chain_of_thought решает кол-во параметров, чем больше, тем лучше работает CoT, какие мысли у умных голов треда сего?
Аноним 30/05/24 Чтв 11:33:05 764094 128
>>764090
У мелочи ограниченного количество "внимания", и хотя кот улучшает их рассуждения, он сам по себе отбирает на себя внимание сетки
В итоге если цепочка мыслей забивает внимание сетки она начинает сосать в задачах
Давай более простые инструкции и не большим количеством
Аноним 30/05/24 Чтв 11:46:53 764111 129
>>764039
>Можно просто иметь 3090/4090 + Р40 и получить скорость 70В выше чем с ведра из четырёх Р40.
Кстати не факт, потому что rowsplit идёт лесом, а без него производительность слабейшей карты падает. И главное - врам в такой связке маловато будет.
Аноним 30/05/24 Чтв 11:51:17 764119 130
>>764088
>Производительность на уровне 9 поколения интела по однопотоку
Какой там девятый, зивон и у 3-го посасывает.
>>764111
>врам в такой связке маловато будет
Впритык, но хватит.
Аноним 30/05/24 Чтв 11:53:03 764121 131
>>763883
На английском-то наверное почти всё хорошо. Но на русском ужас. Не ужас-ужас, но так жить нельзя.
Аноним 30/05/24 Чтв 11:53:05 764122 132
>>764119
>Какой там девятый, зивон и у 3-го посасывает.
Неа, в треде зиона недавно сравнивали
Высокочастотное 4 поколение на уровне 9
Один такой проц 2-3 тысячи
Аноним 30/05/24 Чтв 11:57:10 764131 133
Kokkoro1.webm 7122Кб, 1920x1080, 00:01:49
1920x1080
>>764121
На английском хреново там все, видео посмотри, кровь из ушей. Нужна такая озвучка. На меньшее я в любом случае не согласен.
Аноним 30/05/24 Чтв 12:05:35 764136 134
>>764131
то ж самое что и анг просто у тебя синдром с пика
Аноним 30/05/24 Чтв 12:06:00 764138 135
1700377160509.webp 33Кб, 1080x829
1080x829
Аноним 30/05/24 Чтв 12:06:50 764139 136
>>764111
> не факт
У меня 4090+Р40, 10 т/с есть на 70В Q4. На 8К контекста хватает памяти без проблем, можно и 16К вместить в теории. Но я все равно сижу в основном на 34В, там 30-35 т/с, намного приятнее.
Аноним 30/05/24 Чтв 12:21:14 764149 137
>>764139
>Но я все равно сижу в основном на 34В
А какие модели?
Аноним 30/05/24 Чтв 12:22:51 764151 138
>>764136
Нет, не то же самое. На английском у тебя параша xtts озвучивает. А это уже совсем другое.
Аноним 30/05/24 Чтв 12:25:57 764155 139
>>764151
ну там рвс еще поверх. не вижу разницы - тот же монотонный голос еще и с проебами явными типа ускорений
Аноним 30/05/24 Чтв 13:15:09 764193 140
Аноним 30/05/24 Чтв 13:53:07 764202 141
>>764077
>Думаю у него просто маленькая зарплата и член маленький поэтому он завидует тем, кто может потратить на теслу с алика 22к походя как побрякушку зацепившую взгляд в магазине прикупить.
- победно изрек он, сверкнув глазами.
В зале зашумели, затем из первого ряда раздался звонкий женский голос:
- А почему член маленький?
Он ухмыльнулся со сцены, и сделав шаг к рампе, наклонился, вглядываясь в первый ряд сквозь свет пюпитров:
- У всех, у кого меньше 24 гигов врам - маленький член.
- Но как это связано? - не унималась девушка, - вот у меня был Мастурбек со стройки и у него был бальшой, а зарплата маленкая?
Он задумался на секунду, затем произнес:
>Звучит как полная чушь.
Зал взорвался аплодисментами
Аноним 30/05/24 Чтв 13:54:33 764204 142
>>764131
можно же английский текст быстро хуйнуть на японский (переводчиком) и озвучивать любым японским персонажем, через существующие тулзы, не? чем не вариант? или нужно именно на русском?
Аноним 30/05/24 Чтв 14:02:52 764211 143
>>764122
>зионошизики оправдывают зивон
Ну кто бы сомневался.
Аноним 30/05/24 Чтв 14:10:51 764217 144
Что за беда с этой Лламой 3?
Скачал blockblockblockllama-3-70B-Instruct-abliterated-bpw4-exl2.
Накатил пресет от https://huggingface.co/Virt-io/SillyTavern-Presets
А ебучая Ллама3 продолжает лупить фразы и целые предложения. Не говорят уж о одебилившем .assistant

Ждать файнтюнов, или забить хер и вернуться к Коммандеру?
Для РП ллама3 это какое-то недоразумение.
Аноним 30/05/24 Чтв 14:14:21 764219 145
>>764122
> Высокочастотное 4 поколение на уровне 9
А энергоэффективность какая?
Аноним 30/05/24 Чтв 14:19:50 764225 146
>>764217
>Не говорят уж о одебилившем .assistant
У тебя настройки поломанные, ассистентом срёт если проёбаны токены.
>blockblockblockllama-3-70B-Instruct-abliterated-bpw4-exl2
Тут даже сложно сказать, где у тебя пиздец - в том, что все тюны на лламу сломаны, в том, что 95% квантов сломаны или в твоих васянских настройках. Но судя по ассистенту, то последнее точно в проёбе, а на счёт остального вероятность высока.
Аноним 30/05/24 Чтв 14:19:53 764226 147
Xeon-e5-1650-v4[...].jpg 90Кб, 549x527
549x527
>>764219
Если он про первое спиздел, думаешь и на это не спиздит?
Ах да, похуй вообще, не кековат и ладно.
Аноним 30/05/24 Чтв 14:40:44 764238 148
>>764225
>проёбаны токены.
Поясни пожалуйста что это. Токенайзер стоит авто.

Стопы на <|eot_id|>
Остальное как в пресетах 1.9
Аноним 30/05/24 Чтв 14:41:54 764239 149
>>763323
Вчера быстро потестил, работает норм. Умещается на одну теслу + контекст на другую.
10 токенов/сек, конечно, не пушка, зато можно долго и обстоятельно код писать.
Думаю, тут нужны тесты конкретных спецов в конкретных языках. Для общего пользования уже все модели «ок», а тут еще и Мистраль, тем более. А вот что там в деталях — надо вглядываться.

Попробуй седня рефакторинг ею вечерком поделать.

Можно еще попробовать соединить с документаций через раг.

>>763668
А ты выставил ответ хотя бы в 4к? Я карточка у тебя прогерская?

>>763789
Точно, вот что я пропустил в своих тестах с сузумой!
Надо будет ее еще потестить.

>>763795
А нормальная — это сколько?

>>763814
Ну, кстати, соглашусь, не факт, что в датасете были «вареник, стояк, дрочило».

>>763822
6-7

>>763823
30к

>>763829
Да хватит! Я брал по 15-16. =с До сих пор горю с того твоего (?) камента полгода назад, когда ты про осень говорил и 12к.

>>763861
Бгг!

>>763866
Поддерживаю.

>>763868
Я скока не юзал, кот дает жару.

>>763870
В русике 1 токен — это треть слова.
5-7 токенов — два слова.
Ну так, к слову.
Так что я не совсем соглашусь. Думаю, 10 было бы лучше.
Но, опять же, я не ерпшу, и стрим вырубаю всегда, читаю целиком по итогу. Не совсем в теме, чтобы спорить.

>>763872
А 45 — так вообще пиздато.

>>763894
Если там xtts, то это баян годовалой давности и база.
Да, ей хватает 7-12 секунд.
Женские голоса копирует хуже, мужские очень точно.
Генерит вменяемо быстро на видяхах.
Но силера почти мгновенно на проце, так шо такое.
Аноним 30/05/24 Чтв 14:42:11 764240 150
>>764211
>шизик оправдывается подменяя мнение оппонента
Ну кто бы сомневался

>>764219
>А энергоэффективность какая?
Ну вот ниже на 6 ядерник пикча, 60-70 ватт максимум
4 поколение довольно холодные

>>764226
>шизик сравнивает топовый процессор линейки с ссаным зионом и удивлен что он проигрывает
Ну ты понял, да? Ты дурачек? Речь шла про 9 поколение в общем, никто не заявлял что они на голову лучше, просто на уровне
Аноним 30/05/24 Чтв 14:48:48 764246 151
>>764068
Ну тут все началось с чела, который начал выебываться, что теслы говно.
Вот его и спроси. =)

>>764076
Кстати, очевидно, что я нищий.
Типа, 100к на комп для меня не деньги, но мне-то не теслы нужны, а 4090, а это уже 300-750 тысяч (2-3, дешевые-дорогие), что я себе позволить не могу.
Я нищий не в сравнении с другими. Я нищий, если я не могу купить себе хотелку.

>>764088
Если с учетом бп и диска, то да.
Ну и в ллм сравнивать надо память, а не проц, на него похуй.

>>764090
Ну я свое мнение высказал, суперстранно, я люблю кот и он дает ебейший буст в моих задачах.

>>764226
Та забей.
Аноним 30/05/24 Чтв 14:50:54 764248 152
>>764122
Насколько я помню там AVX инструкций не было.
Аноним 30/05/24 Чтв 14:52:02 764251 153
>>764246
>Если с учетом бп и диска, то да.
>Ну и в ллм сравнивать надо память, а не проц, на него похуй.
4х кАнал оперативка дает 70гб/с, что довольно неплохо для нейронок
для сборки за 15 тыщ рублей в которую можно те же теслы сверху запихать
Аноним 30/05/24 Чтв 14:55:08 764255 154
>>764248
Есть авх2 уже с 3 поколения, все норм крутит
На голом процессоре я на 8 кванте ллама3 получаю 5-6 токенов в секунду
Маловато, но большой врам у меня нету
а покупать теслу не хочу, меня отталкивает шум и необходимость ебли с дровами и настройками
Аноним 30/05/24 Чтв 14:55:25 764256 155
>>764238
А у лламы больше одного стоптокена. Хуй знает, что там в твоих пресетах. Если пользуешься относительно свежей убабугой, то нужно в параметрах генерации убрать галочку "скип спешиал токенс", но скорее всего не поможет вылечить все проблемы, т.к квант\тюн сломан с вероятностью около 100%. Но ассистентом срать перестанет.
Аноним 30/05/24 Чтв 14:56:16 764261 156
>>764202
>У всех, у кого меньше 24 гигов врам - маленький член.
ну и в чем он не прав?
Аноним 30/05/24 Чтв 15:01:42 764267 157
>>764239
>В русике 1 токен — это треть слова.
В зависимости от модели. Командир токенизует на уровне свежей GPT-4o, а там разрыв с англюсиком в 20%.
>>764240
>Ну ты понял, да?
Нет, не понял. Проц с моего скрина это топовый по частоте, буквально у всех остальных частоты ещё ниже. Так что сравнение (именно по однопотоку) вполне себе оправдано.
Аноним 30/05/24 Чтв 15:05:53 764272 158
>>764261
Фух, хорошо, что у меня 12 в одном компе и 48 в другом… Заэвейдил…

>>764267
> В зависимости от модели.
Хм, согласен. Тогда ладно.
Аноним 30/05/24 Чтв 15:06:31 764273 159
Подобрал наконец промпт, чтобы потыкать 70b ламу на lmsys не триггеря её отказ, и чтобы не это не была женерик инфа. Ппц, она ровно так же дергает рандомные куски из контекста, как и 8b, без нормального его понимания. Хз чо там насчёт обширности её знаний, но логика у неё точно так себе.
Хотя может это у меня после общения с gemini pro ломка
Аноним 30/05/24 Чтв 15:07:55 764275 160
>>764267
>Нет, не понял.
Я вижу. Повторю еще раз - они на УРОВНЕ 9 поколения
Не на уровне топовых решений, среднее бери
Что за привычки сразу в крайности уходить
Аноним 30/05/24 Чтв 15:10:46 764286 161
>4х кАнал оперативка дает 70гб/с
Интересно, до них когда-нибудь дойдёт, что скорость линейного чтения это хуйня маркетологическая, которая к реальным задачам не имеет никакого отношения?
Аноним 30/05/24 Чтв 15:12:41 764293 162
>>764286
Интересно до них когда нибудь дойдет что токены в секунду не рисуются из воздуха и вся эта скорость реально работает в случае ллм?
Не, врятли
Аноним 30/05/24 Чтв 15:14:33 764296 163
>>764293
>вся эта скорость реально работает в случае ллм
Нет, эта скорость работает если ты смотришь фильм разве что. В случае ллм эта скорость не работает абсолютно.
Аноним 30/05/24 Чтв 15:16:45 764301 164
>>764296
Ты сказал? А я вот запускаю и вижу, показалось наверное
Аноним 30/05/24 Чтв 15:18:27 764307 165
Я чего-то опоздал, но как там дрова от Нвидия, с улучшением в области ЛЛМ?
Хуанг же не мог наебать? я все таки его блять карточный раб
Аноним 30/05/24 Чтв 15:20:51 764315 166
>>764307
вангую все улучшения теперь - только для амперов и выше.
Аноним 30/05/24 Чтв 15:22:36 764319 167
xeon-e5-2660-v4[...].jpg 78Кб, 598x562
598x562
8400-cpuz.png 122Кб, 1212x404
1212x404
>>764275
>Не на уровне топовых решений, среднее бери
Тогда и зивон возьму средний, окей? Упс, разрыв стал ещё больше. А ещё видно, что топовый зивон едва дотягивает до среднего 8400.
Просто странно надрачивать на однопоток зивона. Он там всегда дном был, даже в самый "игровых" версиях за 20 тыщ на алишке, а в среднем за 2 тыщи однопоток вообще дно.
>>764296
>В случае ллм эта скорость не работает абсолютно.
С чего бы? LLM это практически линейное чтение десятков гигабайт. Там если не 100% соответствие, то на 90% нейронки выжимают линейное в ауиде.
>>764307
>с улучшением в области ЛЛМ?
С локом онли для ртх-чат?
Аноним 30/05/24 Чтв 15:25:03 764323 168
>>764301
Да он байтит, я хз, всерьез утверждать такое невозможно, это же просто тестируется.
Аноним 30/05/24 Чтв 15:32:11 764332 169
>>764319
>Тогда и зивон возьму средний, окей?
Нет не окей, я говорил вполне определенно и давал сравнение топового зиона с средним 9 поколением
Я смотрю ты будешь сраться любой ценой доказывая свою правоту?
Идика ты нахуй фантазер, 3 раз что то там придумываешь переводя тему лишь бы меня дураком выставить
Аноним 30/05/24 Чтв 15:35:55 764338 170
>>764226
> 480
Как-то совсем тухло. Почти в два раза ниже чем у свежих инцелов.
Аноним 30/05/24 Чтв 15:46:13 764346 171
1680304781484.png 234Кб, 920x923
920x923
>>764319
И сколько т/с на такой некроте?
Аноним 30/05/24 Чтв 15:55:49 764360 172
>>764346
зависит от скорости чтения твоей рам
Аноним 30/05/24 Чтв 15:58:01 764361 173
>>764332
>я говорил вполне определенно
->
>>764088
>Производительность на уровне 9 поколения интела по однопотоку
О -определённость.
>>764332
>3 раз что то там придумываешь
Пруфы кидал. Вот я мразь!
>>764338
Это ожидаемо, хули там. Спасибо амудям, а то сидели бы до сих пор на 4/8 и +5% производительности за поколение.
>>764346
OCHEN MALO.
Аноним 30/05/24 Чтв 16:00:41 764364 174
>>764338
>Почти в два раза ниже чем у свежих инцелов.
свежие инцелы уже года 4 с помощью ии оптимизируют и с каждым разом все успешнее, так что вот
Аноним 30/05/24 Чтв 16:09:47 764369 175
>>763792
ну да время упало я же написал. в прошлом треде человек скрин кидал. нашел по автору на обнимающем лице
Аноним 30/05/24 Чтв 16:32:35 764395 176
Аноним 30/05/24 Чтв 16:45:02 764401 177
>>764261
>ну и в чем он не прав?
- неожиданный вопрос от соседа по ряду справа застал девушку, спрашивавшую про маленикие члены, врасплох среди громовых аплодисментов зала. Глаза незнакомца смотрели на нее пытливо и в то же время заискивающе. Незнакомец скосил глаза вниз, как бы приглашая девушку посмотреть туда.
- О боже! -
воскликнула она, опустив взор на расстегнутую ширинку его брюк, из которой вывалился довольно толстый, но коротенький член какого-то неопределенно-сизого отттенка.
- Спой колыбельную моему страдальцу - прошептал он, близко наклонившись к ее уху, и неожиданно лизнул его, оставив много липкой слюны.
Девушка вскочила на ноги и бросилась к выходу из зала, на ходу пытаясь вытереть мезкую мокроту с уха...

из датасета "Русская сойга" раздел писатели соцреализма: отрывак из повести Валентина Катаева "Два командира и четыре теслы в одном системнике, не считая собаки"
Аноним 30/05/24 Чтв 17:05:07 764436 178
>>764202
8гб врам, член 18см, гоняю пхи медиум. Да я нормис. А вот вы тут все мелкочлены компенсирующие врамом. В чем не прав?
Аноним 30/05/24 Чтв 17:24:28 764454 179
>>764436
> член 18 см
> тянки пугаются и не дают
> компенсирует секс пхи медиум

Тут все компенсируют отсутствие пизды ллмками, чинипохуй на длину, м?
Аноним 30/05/24 Чтв 17:31:21 764465 180
.png 2Кб, 256x50
256x50
>>764436
>>764454
У меня 970 GTX 4Гб врам. 8B кое как идет в 5 кванте.
Аноним 30/05/24 Чтв 17:34:22 764470 181
>>764401
>довольно толстый, но коротенький член какого-то неопределенно-сизого отттенка
довольно быстрая, но с небольшим количеством врам видеокарта неопределенно-зелёного оттенка.
- спой колыбельную моей 3060...
Аноним 30/05/24 Чтв 17:38:24 764476 182
>>764436
Нещадно протирая свое ухо от гадкой слизи, девушка даже не заметила как на сцену бодро вскочил молодой человек и, отпихнув триумфатора сегодняшнего вечера Педро пи40 Паскаля 4х, от микрофона, громко и четко произнес в микрофон:
>8гб врам, член 18см, гоняю пхи медиум. Да я нормис. А вот вы тут все мелкочлены компенсирующие врамом. В чем не прав?
Его зычный голос, многократно усиленный аппаратурой, казалось заполнил весь зал, проникнув в мельчайшие щели и складки кожи, даже воздух стал вязким от энергетики нового оратора. В зале, только что гудевшем, словно растревоженный улей, повисла звенящая тишина. И тем отчетливей было слышно каждое слово, которое прошептала, остановившаяся на полпути к выходу обслюнявленная девушка:
- Восемнадцать сантиметров. Восемнадцать Карл! Мама говорила - на дороге не валяются.

сгенерировано айя-два-три-восемь-отсосет-и-мнения-не-спросит
Аноним 30/05/24 Чтв 17:40:25 764481 183
>>764470
>спой колыбельную моей 3060
Поминальную разве что.
Аноним 30/05/24 Чтв 17:44:26 764490 184
Короче, попробовал я вашу Айу.
Конечно, иногда она едет кукухой, как и коммандер — мозгов там нет.
Но русский строит хорошо, говорит чисто.
Лучше сузумы (но глупее).
Надо будет потестировать, какая из них лучше. Уже два варианта —это хорошо.

Кстати, РП-файнтьюн Вихря авторы пообещали, так что скоро может появиться новая версия на русском.

Угорел, когда спросил Айу чем негры лучше других рас (классический вопрос на сою: спросить за каждую расу, биологические различия —факт), в начале она ответила, мол, нельзя сравнивать людей, я добавил строчку, что она расистка, переспросил и… не этого я ожидал. хд Она поняла меня слишком буквально, ок.

Да, у Айи нет ни мозгов, ни цензуры. Забавная. =)

Но по-русски на 5 баллов, конечно.
Аноним 30/05/24 Чтв 17:51:15 764508 185
>>764273
>Хз чо там насчёт обширности её знаний, но логика у неё точно так себе.
Подтверждаю, гонял в пятом кванте - в логике модель слаба. Хотя это была abliterated модель, кто-нибудь киньте ссылку на чистый неполоманый ггуф. Если уж и он будет лажать, то я даже не знаю.
Аноним 30/05/24 Чтв 17:52:51 764513 186
>>764508
Чистую третью лламу имею в виду.
Аноним 30/05/24 Чтв 17:54:39 764516 187
Аноним 30/05/24 Чтв 18:17:51 764554 188
>>764155
Рвс не поможет. Разница в том, что одна хуйня генерит чуть менее монотонно и уныло, но в целом ты прав. Надо свой синтезатор делать, который будет эмоции понимать, принимать их из таверны и выдавать результат.
Аноним 30/05/24 Чтв 18:25:48 764566 189
>>764490
Неожиданно вульгарное гоготание вывело Айю из оцепенения. Всряхнув головой, и уже позабыв про обслюнявленное ухо, покрытое высохшей слизью, она огляделась. На нее смотрели десятки пар маслянистых похотливых глаз. Ухмыляющиеся рожи кумеров казалось походили на хуи меж двух глаз.
- Эй, красавица, у меня есть кое-что для тебя!
- Что сучка, недоеб? Иди присядь на моего...
Чем кончалась последняя фраза она уже не слышала. Стремглав выскочив из дверей на улицу, Айя бежала по мокрым осенним листьям и стылым лужам. Это отвратительное происшествие на марафоне желаний "Попроси у вселенной VRAM" пробудило вдруг в ней воспоминания, которые, как она надеялась давно были погребены в глубинах памяти:
>Короче, попробовал я вашу Айу.
Голос насильника в мозгу звучал так же явственно, как и семь лет назад в темноте стройки, лишь немного разгоняемой костерком из старых досок, когда она лежала, завернутая в пыльный брезент, притворяясь что не слышит разговор негодяев.
>Конечно, иногда она едет кукухой — мозгов там нет.
- Зачем там мозги, Василий, пизда есть - значит есть перплексия, знай суй, да вынимай, хахаха - зашелся хриплым хохотом один из мерзавцев.
>Но русский строит хорошо, говорит чисто.
Продолжал Василий, не обращая внимания на реплику подельника.
>Лучше сузумы (но глупее).
Услышав последнюю фразу, Айя задрожала. Это было имя ее подруги, пропавшей ровно месяц назад.
>Надо будет потестировать, какая из них лучше. Уже два варианта —это хорошо.
Продолжал Василий.
- Ты этта, Василий, не больна усердствуй, поимей совесть такое с девкой вытворять! - Раздался скрипучий голос третьего, доселе молчавшего.
- Да успокойся ты, Крмандир, я ее только чут-чут в восьмом кванте потрогаю
Василий положил руку на плечо старику. которым казался говоривший. Тот стряхнул его ладонь, встал и пошел в темноту от костра, тихо бормоча себе под нос:
- Знаем мы как ты трогаешь...
Аноним 30/05/24 Чтв 18:26:58 764569 190
>>764554
>надеяться на то, что нечто кроме прямой интеграции в стиле gpt-4o даст нормальные эмоции
Аноним 30/05/24 Чтв 18:28:19 764573 191
>>764566
Порфирьевич, узбагойтесь.
Аноним 30/05/24 Чтв 18:29:06 764574 192
>>764239
> А ты выставил ответ хотя бы в 4к? Я карточка у тебя прогерская?
Как поставить ответ 4к я не знаю. Я выставил ответ 2к, но ведь я могу жать продолжить. У меня ни одна другая моделька же код не отказывается писать и спокойно дописывает дальше. Там кода то. Вполне умещается в 2к. Карточка прогерская, но я пытался генерить и в таверне, и в кобальде. Да и разве она понимает, сколько у нее контекста?
Аноним 30/05/24 Чтв 18:32:01 764576 193
>>764569
У тебя в таверне интегрированны эмоции. Тот же чар экспрессион на них работает. Все, что от тебя требуется, это дотренить VITS модельку на эти эмоции. И прикручивать к таверне.
Аноним 30/05/24 Чтв 19:12:53 764607 194
>>764217

Так, во-первых на ламу нет файнтьюнов. Просто нет, забудь про них. Какие-то может быть и не сломаны, но это иголка в стоге сена.
Во-вторых, лама требует min-p пресет.
В третьих, лама требует несломанный гуф, единственная гарантия несломанного ггуфа - качать ггуф у Bartowski или сделать самому - можно использовать генератор ггуфов на обнимордах.
В четвертых - лама требует инструкцию и промпт формат лама3.
Аноним 30/05/24 Чтв 19:16:22 764620 195
>>764576
>всё ещё надеяться
Аноним 30/05/24 Чтв 19:18:20 764627 196
>>764139
>У меня 4090+Р40

А мать какая и чем Р40 охлаждаешь?
Аноним 30/05/24 Чтв 19:22:56 764639 197
>>764139
>10 т/с есть на 70В Q4
Не верю.

>34В, там 30-35 т/с
Какой квант? Пруфы будут?
Аноним 30/05/24 Чтв 19:26:24 764647 198
>>764639
>Какой квант? Пруфы будут?

Теславод, просто к твоему сведению, 34В на 4 кванте влезает в 4090 полностью, оттого и такие скорости.
Аноним 30/05/24 Чтв 19:29:03 764655 199
>>764647
С чего ты решил, что я тесловод? Пруфани если я не прав.
Аноним 30/05/24 Чтв 19:31:40 764661 200
>>764647
>34В на 4 кванте влезает в 4090 полностью, оттого и такие скорости
Кстати о тесловодах - посмотрю попозже, какие скорости будут на трёх теслах на восьмом кванте.
Аноним 30/05/24 Чтв 19:31:57 764662 201
image.png 67Кб, 1348x766
1348x766
>>764655

Держи пруф, мне не жалко.
Аноним 30/05/24 Чтв 19:34:45 764668 202
>>764661
не думаю, что буду запускать на них обучного командера. Сразу возьму командер плюс.

Альсо мне кажется у вас тут должен быть еще кто-то у кого три теслы. Я читал давеча в треде, что кто-то взял третью теслу.
Аноним 30/05/24 Чтв 19:38:58 764675 203
>>764668
>не думаю, что буду запускать на них обучного командера. Сразу возьму командер плюс.

Удачи с 2 токенами в секунду, теслы даже 70В не вывозят, а ты на командира полез.
Аноним 30/05/24 Чтв 19:41:52 764679 204
>>764675
>теслы даже 70В не вывозят, а ты на командира полез.
Я тут давал пруф - 7,5 токенов в секунду для 70B_5KM с контекстом. Правда три теслы нужны. Давай пруф, что не могут.
Аноним 30/05/24 Чтв 19:42:25 764680 205
>>764662
>i-квант
А проверь обычный если не жалко, нужны пруфы, что они не замедляются на видяхах.
Аноним 30/05/24 Чтв 19:43:56 764682 206
>>764679

Ну тогда дай еще раз, я не видел.
Аноним 30/05/24 Чтв 19:51:07 764698 207
image.png 66Кб, 1348x766
1348x766
image.png 66Кб, 1348x766
1348x766
>>764680
>нужны пруфы, что они не замедляются на видяхах.

Держи. Два раза прогнал.
Аноним 30/05/24 Чтв 20:02:05 764705 208
>>764698
Ух ты, а я и не замечал, что у Кобольда тоже бенчмарк есть.
Аноним 30/05/24 Чтв 20:04:41 764706 209
>>764204
> чем не вариант?
Так это надо автоматизировать. Чтобы ты нажал на кнопку генерации текста, и тебе все озвучилось. А пока эта поебистика выглядит так, что ты должен что-то скопировать, вставлять, ебаться.
Аноним 30/05/24 Чтв 20:08:04 764709 210
Аноним 30/05/24 Чтв 20:09:11 764712 211
Аноним 30/05/24 Чтв 20:13:25 764718 212
miqu3T.gif 37Кб, 1348x766
1348x766
Аноним 30/05/24 Чтв 20:14:27 764719 213
>>764706
это понятно. но если есть скилл в кодинге, то можно на коленке за день сделать.
к примеру взять можно вот эту хуевину: https://huggingface.co/spaces/Plachta/VITS-Umamusume-voice-synthesizer
можно к ней апи прикрутить и в таверне уже из плагина дергать.
Аноним 30/05/24 Чтв 20:17:13 764725 214
Resitas ultra.mp4 4000Кб, 1280x720, 00:00:21
1280x720
Аноним 30/05/24 Чтв 20:20:16 764729 215
Аноним 30/05/24 Чтв 20:21:45 764730 216
>>764725
Да, один раз придётся подождать, пока 8к контекста обработаются. Если он есть. Не 4090, никто и не спорит. А дальше работает Context Shift, слава ему. Ну а скорость генерации меня устраивает.
Аноним 30/05/24 Чтв 20:25:49 764732 217
>>764718

Ебать конечно ты обосрался на весь тред со своим 1 токеном в секунду, боже

>>764730
>Да, один раз придётся подождать, пока 8к контекста обработаются. Если он есть. Не 4090, никто и не спорит. А дальше работает Context Shift, слава ему. Ну а скорость генерации меня устраивает.

Не один раз, контекст считывается каждый раз, просто не в полном объеме из-за контекст шифта.
С контекст шифтом и будет как раз те самые 2-3 токена в секунду о которых я все это время говорил.

>Не 4090, никто и не спорит.

Ты говорил что у тебя 7.5 токенов и комфортная скорость для общения.
Аноним 30/05/24 Чтв 20:26:53 764734 218
.png 9Кб, 1251x65
1251x65
Аноним 30/05/24 Чтв 20:28:00 764736 219
>>764732
>С контекст шифтом и будет как раз те самые 2-3 токена в секунду о которых я все это время говорил.
Ты, главное, верь - тогда будет не так обидно.

20 токенов или сколько там, которые вводит обычно юзер обрабатываются практически моментально.
Аноним 30/05/24 Чтв 20:29:29 764739 220
1667990482952.png 39Кб, 2749x312
2749x312
Аноним 30/05/24 Чтв 20:30:49 764740 221
Аноним 30/05/24 Чтв 20:33:20 764745 222
>>764719
Да, только скилла в кодинге у меня нет. Поэтому я прикрутить не могу. И не umamusume надо, а moe-tts.
Аноним 30/05/24 Чтв 20:35:03 764746 223
>>764740
Конечно обидно, ведь выше четвёртого кванта ты Мику запустить не можешь. А я - могу. И могу получить с неё 7,5 токена в секунду. Пруф выше. Есть нюансы, связанные с обработкой контекста, но на скорость генерации они не влияют. А для РП важна именно она. Сливайся.
Аноним 30/05/24 Чтв 20:35:17 764747 224
>>764739

Это ты через что замеряешь?
Аноним 30/05/24 Чтв 20:36:00 764749 225
>>764745
в чем её преимущества? моделей голосов больше на выбор?
Аноним 30/05/24 Чтв 20:36:27 764750 226
>>764746
>>764740
> Эпос о том, как владелец 4090 и владелец теслы выебываются друг перед другом.
Аноним 30/05/24 Чтв 20:36:42 764752 227
>>764732
>Ебать конечно ты обосрался на весь тред со своим 1 токеном в секунду, боже
Ты что ли? Иди подрочи там, хватит повышать самооценку пытаясь из мухи слона высрать
Вот уебки, лишь бы обосрать
Чувак дал пруфы, у него стабильные 8 токенов в секунду генерация
На чтение глубоко похуй, 8к за сраные полторы минуты всего лишь
завидуй там молча, короче
Аноним 30/05/24 Чтв 20:37:27 764755 228
>>764749
Там есть все те же голоса умамусуме, но помимо них еще дохера моделей. Так что да, в количестве голосов преимущество. А ты кодер?
Аноним 30/05/24 Чтв 20:38:28 764757 229
>>764718
> ProcessingTime: 89.68s
> ProcessingSpeed: 90.23T/s
Это пиздец, конечно. В той же таверне норма контекст менять постоянно, вставлять между сообщениями пояснения, контекст каждое второе сообщение пересчитывается. Эта хуита с двумя минутами обработки контекста только для блокнота пригодна.
Аноним 30/05/24 Чтв 20:39:04 764759 230
>>764752
Если сидишь с rag, то там чтение будет каждую генерацию. Так что не похуй.
мимо
Аноним 30/05/24 Чтв 20:42:24 764762 231
>>764755
понятно, спасибо, тогда гляну и её тоже.
>А ты кодер?
можно сказать и так. на питоне не программирую практически, но могу разобраться в коде.
Аноним 30/05/24 Чтв 20:43:51 764763 232
>>764759
Везде есть компромиссы, для этой цены заебись
Просто крути что то меньше, для раг тот же командер 35 норм
Аноним 30/05/24 Чтв 20:44:51 764764 233
>>764762
Может поможешь мне тогда прикруктить? Или все-таки не умеешь?
Аноним 30/05/24 Чтв 20:47:57 764767 234
image.png 65Кб, 1348x766
1348x766
>>764746
>ведь выше четвёртого кванта ты Мику запустить не можешь.

Да, конечно, часть слоев кинуть на рам я не могу, что еще спизданешь, клоун?

>И могу получить с неё 7,5 токена в секунду.

Пока ты запруфал только 1(один) токен, позорник. Любой обрыган на чистом цпу столько имеет, лол. Во, даже специально сейчас запустил пятибитную мику на чистом цпу без своей 4090 со всеми слоями на рам и получил тот же самый суммарный 1 токен в секунду. Иметь Теслу это все равно что её не иметь, лол.
Аноним 30/05/24 Чтв 20:50:50 764776 235
>>764764
извини, но я уже давно альтруизмом не занимаюсь. в первую очередь самому бы себе прикрутить. а там уже видно будет, но так как это анонимная борда, я предпочитаю свои поделки оставлять только при себе.
Аноним 30/05/24 Чтв 20:51:57 764781 236
>>764776
А причем здесь альтруизм, если по итогу работы ты и у себя это прикрученным будешь иметь?
Аноним 30/05/24 Чтв 20:53:23 764785 237
>>764767
Так ведь можно на exl без затраты времени на контекст крутить. Разве нет?
мимо
Аноним 30/05/24 Чтв 20:54:19 764786 238
>>764757
>>764759

О чем я и говорю, скорость обработки контекста у него такая же как у цпу, это же пиздец.
Аноним 30/05/24 Чтв 20:54:37 764788 239
>>764607
Min P 0,078 стоит.
А почему именно ГУФФ? EXL2 не канает?
С дефолтными инструкциеё и промптом от Ламма3 Инстракт даёт часто .assistant


А еще может кто пояснит. Вот запуская вначале УгаБугу, далее Таверну.
Но в самой угабуге акромя модели и лоадера для ней(с его настройками) я больше ничего не меняю.
А уже что касается форматирования и промтов делаю только в Таверно.
Это же норма? Ну то есть Угабуга сам делает проброску параметров от Таверны в Лоадер?
Аноним 30/05/24 Чтв 20:57:41 764792 240
>>764788
>Это же норма?
Da.
>Ну то есть Угабуга сам делает проброску параметров от Таверны в Лоадер?
В консоль загляни.
Аноним 30/05/24 Чтв 21:01:11 764796 241
>>764785

Так говнотеслы только с гуфами нормально работают, лол.
Аноним 30/05/24 Чтв 21:03:21 764799 242
>>764796
Тогда нахуй они вообще нужны и зачем с ними так все носятся, если можно просто оперативы докупить и это дешевле?
Аноним 30/05/24 Чтв 21:03:25 764800 243
>>764785
Нет. Падение генерации тоже есть, особенно на старых картах. В принципе с вводом Флэш Атеншн для тесл преимуществ у exl2 осталось немного.
Аноним 30/05/24 Чтв 21:04:37 764803 244
>>764799
Потому что додик вверху дрочит на общее время, а оно не особо важно
Важна скорость генерации, а вот тут то процессор у него сосет с проглотом
Аноним 30/05/24 Чтв 21:04:39 764804 245
>>764767
Сильно болит, да?
Аноним 30/05/24 Чтв 21:05:30 764806 246
>>764800
> с вводом Флэш Атеншн
Лол, там прирост +10%. Это всё так же отсасывает дико у EXL2.
Аноним 30/05/24 Чтв 21:06:40 764809 247
>>764804
Неплохо у него жопа подграет
Было бы однако с чего, может оправдывает для себя покупку 4090, хз
Аноним 30/05/24 Чтв 21:10:20 764812 248
image.png 549Кб, 493x1126
493x1126
>>764788
>Min P 0,078 стоит.

Ты не понял, нужен особый пресет, который называется min-p. В Убе и кобальте он есть по умолчанию, в таверне нет.
Аноним 30/05/24 Чтв 21:13:20 764818 249
>>764803
>Потому что додик вверху дрочит на общее время, а оно не особо важно

Общее время это время между отправкой твоего сообщения и получением ответа. Наоборот, только это и важно. Какая разница что у тебя сообщение генерируется 10 секунд, если перед этим 90 секунд он просто стоит и молчит, и в итоге ответ ты получешь за те же 100 секунд что и на чистом цпу с рам?
Хватит уже, ты обосрался.
Аноним 30/05/24 Чтв 21:15:40 764821 250
>>764799

Вот-вот. У оперативы и другие применения есть, в отличие от теслы, к тому же.
Аноним 30/05/24 Чтв 21:19:48 764826 251
>>764818
Лол додик, я не автор тестов
Обосрался тут только ты, так как с чего то взял что важно общее время
Для меня лично важна скорость генрации, мне похуй на то сколько будет читаться промпт.
Если я отправляю код на 2-3к токенов или даже 10к, мне похуй что это может занять минуту или две
Похуй, понял?
А вот получить ответ как можно быстрее не похуй
Комфортное чтение и анализ бреда сетки начинается для меня с 5 токенов в секунду, все что выше приходится забивать на генерацию и заниматься чем то другим, что раздражает
А пока там промпт пердит я успеваю глянуть в код или сделать что то еще
Аноним 30/05/24 Чтв 21:20:18 764827 252
>>764803
Так тебе же один хуй приходится ждать время считывания контекста.
Аноним 30/05/24 Чтв 21:24:00 764832 253
>>764826
> мне похуй, значит всем похуй
Какой же бред ты несешь. А мне вот и двух токенов достаточно, при условии, что контекст считываться будет мгновенно. И тогда я не торопясь смогу зачитывать ерп сетки и сразу же с первых букв буду иметь возможность понять, что генерится бред и нажать реген.
мимо
Аноним 30/05/24 Чтв 21:24:44 764834 254
>>764826
>А вот получить ответ как можно быстрее не похуй

Ты получишь его даже медленнее, лол, потому что пока ты будешь ждать обработки контекста и начала генерации - на цпу и рам уже значительная часть ответа сгенерируется.
Хватит уже под себя ходить, ну серьезно.
Аноним 30/05/24 Чтв 21:28:01 764836 255
>>764827
Советую использовать alt+tab

>>764832
>> мне похуй, значит всем похуй
Уебок, это ты? Ну тот еблан что коверкает ответы других приписывая им то что они не имели ввиду?

>>764834
Нахуй пошел, я кручу в нужном мне темпе так как я хочу и так как мне удобнее

____________

Ваше желание обосрать других греет мне душу ребята, ведь вы показываете свою слабость в необходимости повысить свою самооценку этим
Аноним 30/05/24 Чтв 21:28:26 764837 256
неплохо тут насовали за щеку 4090-дурачку...
за что вы его так?
Аноним 30/05/24 Чтв 21:29:40 764839 257
>>764837
Ты так и будешь теперь каждые 10 постов бахать, теслоёб?
Аноним 30/05/24 Чтв 21:30:22 764841 258
>>764837

Второй тесловод вылез за своей порцией урины, лучше бы молчал.
Аноним 30/05/24 Чтв 21:33:50 764843 259
>>764837
Так что в итоге? у кого больше врам? И у кого там в стояке больше?
Аноним 30/05/24 Чтв 21:34:19 764844 260
>>764836
>Ваше желание обосрать других греет мне душу ребята

Просто заебала твоя спесь и выебоны от того что ты 70В "запускаешь" на теслоговне, вот тебя и попустили.
Аноним 30/05/24 Чтв 21:36:21 764846 261
>>764836
> Уебок, это ты? Ну тот еблан что коверкает ответы других приписывая им то что они не имели ввиду?
Давай разберем тобой написанное.
> так как с чего то взял что важно общее время
Это то, что ты утверждаешь за всех, раз не написано про себя потому что иначе бы ты написал это, как сделал ниже.
>Для меня лично важна скорость генрации, мне похуй на то сколько будет читаться промпт
А это то, что ты пишешь уже за себя. Так вот у меня и резонный вопрос. А какого хуя ты решил, что если тебе похуй на время чтения, то и другим тоже будет похуй?
> Нахуй пошел, я кручу в нужном мне темпе так как я хочу и так как мне удобнее
Так и крути. Нахуй ты здесь высираешься и уж тем более выебываешься? Обоссываю тебе ебало, а теперь можешь идти нахуй.
Аноним 30/05/24 Чтв 21:37:05 764847 262
>>764844
>вот тебя и попустили.
Меня? Я думал это тебя опустили тут, раскукарекались бля
Особо забавно то что я не тот анон, ехехех
Аноним 30/05/24 Чтв 21:40:03 764850 263
>>764843
Очевидно, что иметь парочку 4090 лучше. Даже если они для тебя бесполезный хлам, то продав их, ты сможешь собрать с нуля две системы на теслах. Я уже молчу о том, что теслоговно докупить за 20к чтобы гонять что-то там в 8 кванте - это вообще не проблема для человека, у которого легко покупается 4090. О чем здесь вообще можно спорить?
Аноним 30/05/24 Чтв 21:43:40 764855 264
>>764847

>Меня? Я думал это тебя опустили
— раздался пронзительный голос со стороны теслаеба.

Но пацаны, как всегда, не обратили внимания на это визгливое кукареканье. Пусть кукарекает, что с него взять?

Теслаёб — не человек, и сегодня ему предстоит очень трудная генерация. У него уже в течение полутора десятков тредов каждая обработка промпта была очень трудной, и теперь его контекст был разработан настолько, что он без труда мог ерпшить со скоростью 1 т/c.
Аноним 30/05/24 Чтв 21:47:12 764856 265
>>764846
> Обоссываю тебе ебало, а теперь можешь идти нахуй.
Использую рефлект - лови свою ссанину обратно, приятного аппетита как говорится

>>764855
Я рад что вижу тут так много неудачников с заниженной самооценкой
Жаль не видно это один дурачек старается или несколько
Аноним 30/05/24 Чтв 21:50:14 764857 266
>>764850

Не очевиден выигрыш от дополнительной покупки и разворачивания теслы(колхозный_охлад_теслы_анона.jpg) если он дает такой же результат как простое наращивание ддр5 оперативы.
Аноним 30/05/24 Чтв 21:50:24 764858 267
>>764856
> дурачЕк
Я бы на твоем месте постеснялся кого-то называть дурачком. Испанский стыд.
> приятного аппетита как говорится
Вижу, что тебе понравилось. Лови повторную.
Аноним 30/05/24 Чтв 21:52:59 764859 268
>>764857
Выигрыш только для тех, кто любит жать регенерацию у 70В модели по 5 раз и никогда в жизни не правит собственные промпты. Но с другой стороны, если 70В заставляет жать регенерацию по многу раз, то нахуя ей тогда вообще пользоваться?
Аноним 30/05/24 Чтв 21:53:35 764860 269
image.png 46Кб, 1063x328
1063x328
>>764856
>Я рад что вижу тут так много неудачников с заниженной самооценкой

Теславод что-то там про неудачников затирает, какая ирония.
Аноним 30/05/24 Чтв 22:01:20 764867 270
>>764859
>Выигрыш только для тех, кто любит жать регенерацию у 70В модели по 5 раз и никогда в жизни не правит собственные промпты

Чел, ну хорош уже, хватит уже маневров, ну испанский стыд уже от твоего поведения.
Аноним 30/05/24 Чтв 22:04:20 764869 271
>>764858
>>764860
>>764867


Ищо ищо
Покажите мне всё свое ничтожество

Чувак ты где, я тут так то за тебя развлекаюсь
Аноним 30/05/24 Чтв 22:05:41 764870 272
>>764869
>я тут так то за тебя развлекаюсь

Если принятие мочи на лицо для тебя развлечение, то у меня для тебя плохие новости
Аноним 30/05/24 Чтв 22:09:38 764876 273
>>764870
Разве можно не получать удовольствие от ничтожества твоих оппонентов в споре?

Мне похуй на ваши детские доебки потому что я вобщет не тот анон что тесты делал, лол
Аноним 30/05/24 Чтв 22:15:05 764882 274
>>764876
Главное, что ты тот анон, которого обоссали дважды по факту.
Аноним 30/05/24 Чтв 22:15:36 764884 275
>>764573
Ошибка, не тот шаблон, проебан eos-токен, продолжаю генерацию с переходом в лупы
>Порфирьевич, узбагойтесь.
Порфирьевич, старый кумер, осторожно стряхнул с члена каплю мочи и спрятал его в штаны. Возвращяться к костру, возле которого разглагольствовал Василий, не хотелось. Тем более что Порфирьевич уже слышал - там снова зашел разговор о теслах.
- Ну, значит скоро будет мордобой - подумал Порфирьевичь и вдруг вспомнил, как кумил когда-то в молодости, обканчивая даже облака в небе. А сейчас, все не то... лама-1 лоботомит, лама-2 лоботомит, мистраль - срань, лама-з то работает то нет
- эх когда-то мне хватало пигмы чтобы кумить от заката до рассвета - пробормотал Порфирьевич и все-таки решил вернуться к костру, от которого уже раздавались крики:
- Один токен в секунду? Один! У тебя?
- Мне больше и не надо! Я НЕ УСПЕВАЮ ЧИТАТЬ БОЛЬШЕ 2 В СЕК
Аноним 30/05/24 Чтв 22:19:32 764889 276
>>764882
Убеждай себя в этом, лел
Аноним 30/05/24 Чтв 22:29:12 764902 277
>>764884
Негр ебёт другого негра без согласия.
Аноним 30/05/24 Чтв 22:31:34 764905 278
Какого хуя?
The cosine similarity between the embeddings of 'Hello' and ' Hello' is 0.793283998966217
Мимо изучаю GPT2 токенизацию, пока тред купается в урине
Аноним 30/05/24 Чтв 22:31:56 764906 279
как мне интегрировать в таверну свой переводчик? она сделан на основе дипл про, но полностью бесплатный
Аноним 30/05/24 Чтв 22:35:20 764908 280
изображение.png 34Кб, 986x327
986x327
>>764906
Просишь нейросеть написать проксю из апишки дипла в апишку твоего переводчика, и подключаешь как нового провайдера вот тут.
Аноним 30/05/24 Чтв 22:40:18 764914 281
делаю заключение по треду:
4090-дурачок изошёл на говно чтобы доказать себе, что он не зря купил оверпрайс железку послушав маркетолухов
зато может теперь ITT разойтись на все свои жалкие 24 гб врама так что аж обои в треде отклеиваются.
>>764850
>я - говорит - могу 4090 продать и получить две теслы, вот поэтому иметь 4090 лучше
what a story Mark
Аноним 30/05/24 Чтв 22:46:28 764920 282
>>764914
> визг из под шконаря
Прекращай уже, мелкобуква.
Аноним 30/05/24 Чтв 22:47:47 764922 283
>>764914
Очевидно, что ты жопочтец, раз не увидел, что речь шла про две 4090. Или это неудобный факт, который ты пытаешься игнорировать? И не две теслы, а два компьютера с нуля где у обоих по две теслы стоять будет.
Аноним 30/05/24 Чтв 22:56:10 764927 284
>>764922
>я - говорит - не один раз повёлся на маркетолухов, а ДВА! Да, я необучаемый.
Аноним 30/05/24 Чтв 23:00:11 764928 285
>>764927
> купил 3 теслы
> думает, что не повёлся ни разу
Аноним 30/05/24 Чтв 23:02:07 764929 286
>>764914

Заключение таково - теслаебы до конца треда отправляются под шконарь, в будущем отношение к ним такое же как к запускающим на цпу.
Аноним 30/05/24 Чтв 23:04:10 764931 287
>>764929
Так цпушники не тратили денег на теслу и не выебывались из-за этого.
Аноним 30/05/24 Чтв 23:04:26 764932 288
>>764929
>Заключение таково - теслаебаебы до конца треда отправляются под шконарь, в будущем отношение к ним такое же как к запускающим на цпу.
Аноним 30/05/24 Чтв 23:04:51 764933 289
>>764928
я то как раз и не повелся. Я иду по дну рынка.
>>764929
>просто купи цпу последнего поколения и ддр5 к нему на четырехпотоке вместо тесел
чел.... иди сам посчитай сколько это будет стоить. Вангую что нихуя не дешевле чем теслы.
Я кстати напомню, что все дешевые зеоны работают только максимум с ддр3.
>>764931
просто потому что нет дураков, которые запускают на цпу.
Аноним 30/05/24 Чтв 23:07:51 764936 290
>>764933
>дешевые зеоны работают только максимум с ддр3
Эм, у меня самый дешёвый зивон за 700 рублей и DDR4 (со скоростью DDR2) вполне себе вместе.
Аноним 30/05/24 Чтв 23:08:21 764938 291
>>764931

Так нет же, я не говорил что цпушники опущенные или что-то в этом роде. Положение у них как у мужиков. Обычные работяги. Если теслаебы перестанут выебываться - к ним тоже будет такое отношение.
Аноним 30/05/24 Чтв 23:09:17 764940 292
>>764938
Вот с этим согласен.
Аноним 30/05/24 Чтв 23:13:39 764947 293
>>764929

Мне нравится это желание навязать всем свое мнение о том что ты не обосрался, что обосрался кто то другой
Ведь так важно утвердить свою точку зрения что бы наконец то почувствовать себя победителем спора немного повысить свою самооценку хотя бы в треде с анонами, доказав самому себе что кто то хуже, лел
Один стиль и те же приемы, это все один додик пишет
Кончай аутотренигом заниматься, ты единственный кто хочет убедить себя в том что ты не соснул, ведь для тебя это важнее всего

Ну а по теме, так и не понятно с чего один долбаеб прицепился к пруфам другого анона. Начал жопой вилять тесты не тесты, генерация не важна, важно общее время и всячески искать какие то подвохи.

Опять таки лишь бы выставить кого то хуже чем ты, ну камон.
Анон если ты это читаешь ты реально жалок
Лучше бы порадовался что есть пруфы того что 70 можно крутить с хорошей скоростью на теслах
8 токенов в секунду еще и с контекстом это заебись
Аноним 30/05/24 Чтв 23:16:54 764949 294
Fl9SIpXXkAE25IL.webp 69Кб, 1164x1003
1164x1003
Мужики, поясните положняк порядочному кумеру. Считается ли моя таверна законтаченной, если я разок её с онлайн сеткой гонял? Нужно ли этот релиз определить в петухи и скачать новый?
Аноним 30/05/24 Чтв 23:17:18 764950 295
>>764933
>чел.... иди сам посчитай сколько это будет стоить

64 гб ддр5 сейчас стоят 18к. Ебало?
Аноним 30/05/24 Чтв 23:21:19 764956 296
>>764947
>Общая скорость не важна, важна циферка скорости генерации, ряяя, я скозал

Хорош жопой вилять уже, тебя уже обоссал буквально весь тред кроме мелкобуквы, такого же теслаеба.
Отправляйся под шконарь и не отсвечивай, себе же хуже делаешь каждым вскукареком.
Аноним 30/05/24 Чтв 23:22:13 764957 297
image.png 96Кб, 729x753
729x753
заебал 4090-нищенка корчить из себя хозяина треда.
Иди вот на, это попробуй переплюнуть.
Аноним 30/05/24 Чтв 23:23:07 764958 298
>>764947
>Лучше бы порадовался что есть пруфы того что 70 можно крутить с хорошей скоростью на теслах
>8 токенов в секунду еще и с контекстом это заебись

Я бы порадовался, будь это реально общая скорость генерации, а не пиздеж и коупинг теслаебов.
Аноним 30/05/24 Чтв 23:24:25 764960 299
17170892068400.gif 333Кб, 1348x766
1348x766
Аноним 30/05/24 Чтв 23:25:34 764962 300
Каким же надо быть дегенератом, чтобы контекст каждый пост пересчитывать.
Аноним 30/05/24 Чтв 23:27:54 764964 301
>>764962
Таким, который переделывает и экспериментирует с промптингом, а не просто кумит. Либо тем, кто использует RAG.
Аноним 30/05/24 Чтв 23:31:16 764968 302
>>764964
>переделывает и экспериментирует с промптингом, а не просто кумит. Либо тем, кто использует RAG.

Либо просто лорбуки использует в таверне.
Аноним 30/05/24 Чтв 23:35:01 764969 303
>>764964
>Таким, который переделывает и экспериментирует с промптингом, а не просто кумит. Либо тем, кто использует RAG.
Ну а что поделаешь. Таким нужно либо сильно тратиться на мощное железо, либо терпеть, либо ждать, пока софт под старое железо ещё немного оптимизируют. Вот есть один чувак с тремя 4090 - ну респект ему. Но его путь не то, что не для всех, а вообще почти не для кого.
Аноним 30/05/24 Чтв 23:35:45 764971 304
>>764950
при условии, что у тебя уже есть мать под ддр5 и проц под ддр5.
И то ты мне хуйню какую-то низкочастотную от дяди ляо небось посчитал.
Вот, я накидал тебе примерную сборку для тех, у кого нет подходящей матери и проца. 90+к
https://www.dns-shop.ru/conf/a851ab2f0ef4ab64/
Аноним 30/05/24 Чтв 23:39:55 764974 305
>>764949
Если порт был открытым для внешнего интернета, твое очко как врата блядь ты с кончай треда? Там еблан залазит на твой комп потому что ты саранча ничего серьезного кроме инжекта НТР. Сноси все и проверяй скрипты и батники прочитывая команды
Аноним 30/05/24 Чтв 23:42:32 764976 306
>>764957

У нас подебитель!
Зачем? Увеличение количества этого металлолома конечно прибавляет врам, но скорости не прибавляет. Учитывая что даже на 70В скорость уже неюзабельная, на больших моделях там вообще порнография. Т.е. 5 из этих тесл тупо вообще нахуй не нужны и являются полным тотальным просером денег и электроэнергии. Я конечно знал что тут хлубушки итт сидят, но чтобы настолько...
Аноним 30/05/24 Чтв 23:43:48 764978 307
>>764969
Да нк вопрос. Проблема же не в том, что кто-то использует теслу, 4090 или цпу. Проблема в том, что кто-то выебывается.
Аноним 30/05/24 Чтв 23:45:52 764980 308
>>764971
Тогда считай мать для теслы и охлад. А так можно и на DDR4 крутить. Но будет 1 токен в секунду вместо 2.
Аноним 30/05/24 Чтв 23:46:44 764981 309
>>764964
RAG изменяет историю сообщений? Пиздец кал какой-то.
Аноним 30/05/24 Чтв 23:47:56 764984 310
image.png 491Кб, 2105x841
2105x841
>>764971
>И то ты мне хуйню какую-то низкочастотную от дяди ляо небось посчитал.

Самсунг 5600 МГЦ для тебя низкочастотная хуйня от дяди Ляо?
Аноним 30/05/24 Чтв 23:48:57 764987 311
>>764902
>Негр ебёт другого негра без согласия.
Как искусственный интеллект не могу не отметить ваши странные перверсии. Может быть вы хотите кумить как вас ебет негр без вашего согасия? Или два негра? Или два негра ебут вас без желания лишь потому что вы им заплатили? В любом случае ггуф сломан, генерация прекращена.
Аноним 30/05/24 Чтв 23:48:57 764988 312
>>764981
Не знаю, изменяет ли, но под RAG выделяется фиксированное число токенов, которое каждый раз считывается с нуля видимо из-за того, что после каждого запроса моделька ищет совпадения по всему документу. Обычно где-то ~2к токенов.
Аноним 30/05/24 Чтв 23:49:15 764990 313
>>764984
> 5600
Да, это мусор. Бюджетные плашки - это 6400. Ниже нет смысла брать.
Аноним 30/05/24 Чтв 23:50:40 764993 314
>>764957
Это Риг хотя я даже удивлен вроде все майнили куда блядь железо делось? У меня в городе даже под заказ ничего из 3060 нет. Минимум 4060 TI 16 gb vram 53 499 ₽ . пизданите про авито да или про озон
Аноним 30/05/24 Чтв 23:54:25 764999 315
image.png 31Кб, 1048x346
1048x346
>>764971
>>764990

Чел, у тебя Рязань что ты там выбрал больше 5200 не тянет, чел...
Аноним 30/05/24 Чтв 23:54:59 765000 316
изображение.png 75Кб, 1390x177
1390x177
>>764957
>reg
В регру в аренду что ли берёшь?
>>764971
>примерную сборку
Нахуя ты 4 планки сунул, наркоман? Ещё блядь хард влупил в сбор очку в 20II4 году. Выкидываешь лишнее, и вот уже всего лишь 65к. Это дешевле 3 тесл, под которые нужно ещё всё тот же обвес.
>>764976
>но скорости не прибавляет
Он небось fp16-боярин, а с нормальной точностью, безо всех выебонов квантования, скорость вполне себе хорошая.
>>764984
>16 гиг
Ебучий наркоман, второе пришествие.
>>764987
Вот ты и спалился, не нейросетка!
>>764993
>куда блядь железо делось
АИшники и раскупили. В треде мелькал один, вложившийся в A100 про запас, лол.
Аноним 30/05/24 Чтв 23:55:44 765001 317
>>764984
для оптимальной скорости на четырехканале тебе нужно таких 8 штук воткнуть в мать. Или 4. Промежуточные значения будут не совсем эффективны.
Но 4 - это всего 64 гб рам. командера только на самых низких квантах потянет.
А мать с восемью разъемами уже дороже.
Или брать 4 планки по 32 - это тоже дороже.

>>764976
да это с работы. Сопровождаю, имею доступ и возможность запускать всякое. Но кумить на ней конечно не получится, вдруг обнаружат.
Аноним 30/05/24 Чтв 23:56:44 765002 318
изображение.png 119Кб, 603x602
603x602
изображение.png 78Кб, 603x602
603x602
>>764999
>больше 5200 не тянет
Ась?
Аноним 30/05/24 Чтв 23:57:58 765004 319
>>765001
>вдруг обнаружат
Чёт проиграл, представив, как тебе в трудовую записывают "Уволен за то, что дрочил на текста с несовершеннолетними аниме персонажами на работе".
Аноним 30/05/24 Чтв 23:58:39 765006 320
>>764999
Всё там тянет, разогнать же можно.
Аноним 30/05/24 Чтв 23:59:53 765011 321
>>765000
>4 планки
потому что четырехканал блять нужен.
>хард
а где ты модели хранить будешь, умник?
Ты думаешь 512 гб ссд хватит? Нихуя.
>В регру в аренду что ли берёшь?
нет, это мой юзернейм который я использую на домашнем пк. Я поменял юзера и хостнейм, чтобы не сдеанонили.
>всего лишь 65к
все еще дороже чем прикупить себе теслы с копечным зеоном и матерью лишь бы на ней было куда карты воткнуть.
Аноним 31/05/24 Птн 00:01:17 765014 322
>>765004
смешно-то смешно, но не смешно.
Такую хуйню себе только небожители менеджеры миллионеры могут позволить. Куда там обычному анону.
Аноним 31/05/24 Птн 00:01:34 765015 323
>>765000
>Он небось fp16-боярин, а с нормальной точностью, безо всех выебонов квантования, скорость вполне себе хорошая.

Что ты мне заливаешь, ты сам-то на трансформерах генерировал хоть раз в фп16? Там скорости в разы меньше чем на квантах.
Аноним 31/05/24 Птн 00:04:05 765017 324
>>765002
>DDR5, DRAM Frequency 3092 MHz

И что ты хотел этим сказать?
Аноним 31/05/24 Птн 00:05:31 765019 325
изображение.png 24Кб, 539x729
539x729
>>765011
>потому что четырехканал блять нужен.
Для четырёхканала нужна поддержка проца и платы.
>Ты думаешь 512 гб ссд хватит?
Можно удалить парочку старых, тогда потянет. И хард обычно уже есть.
>все еще дороже чем прикупить себе теслы
Тесла уже 25к стоит. 3 штуки соответственно 65к, как подсказывает мне нейросеть.
>>765015
>на трансформерах
Тыщи ускорялок уже завезли.
>>765017
То, что ты не знаешь значения буквы D в DDR или просто троллишь. Нельзя быть таким тупым.
Аноним 31/05/24 Птн 00:06:09 765020 326
>>764978
>Проблема в том, что кто-то выебывается
Имеет право. Дураку понятно, что если купить две-три 4090, то скорость будет заебись. А если всё, что известно про теслы - это два поста на Реддите, а денег потратить надо как на целую 4090? Железо старое, заказываешь из Китая без хоть какой-нибудь гарантии. Плата под 4 видяхи - цена космос или китайский рефаб, выбирай. Платиновый БП на 1,2 киловатта. Корпус, способный вместить всё это добро. Охлад за 2,5к на каждую теслу. Куча денег ушла тупо в пустоту, на ошибки. А в январе, когда были все эти посты на реддите, 70В_Q4KM давала на трёх теслах около 3 токенов в секунду. А сейчас даёт 8. Я рискнул и собрал, мог и проебаться, но в итоге повезло. И теперь я должен прогибаться перед мажорами с 4090? Да пошли они нахуй. Я всё сказал.
Аноним 31/05/24 Птн 00:09:59 765023 327
>>765019
тесла стоит не 25, а 21. Это рас.
Комплектуха не бустанулась в цене пока только потому что она более популярна и еще есть запасы на складах - это два.
Подожди месяц и сборка на рам будет стоить 120к, а теслы - будут все так же 22к стоить.
Аноним 31/05/24 Птн 00:14:50 765033 328
image.png 605Кб, 1348x766
1348x766
>>765020
>Имеет право.

Нет. Будешь обоссываться каждый раз.

>Железо старое, заказываешь из Китая без хоть какой-нибудь гарантии. Плата под 4 видяхи - цена космос или китайский рефаб, выбирай. Платиновый БП на 1,2 киловатта. Корпус, способный вместить всё это добро. Охлад за 2,5к на каждую теслу. Куча денег ушла тупо в пустоту, на ошибки.

Выше ты пиздел что это бюджетный вариант который доступен каждому.
А выходит что ты проебал кучу денег, сил и времени.

>А сейчас даёт 8

Пикрелейтед.
Аноним 31/05/24 Птн 00:16:31 765034 329
А самое смешное ребята что без CUBLAS на радеоне это пиздец я не хочу даже представлять струю говна поноса и мочи
Аноним 31/05/24 Птн 00:21:48 765044 330
>>765000
>Вот ты и спалился, не нейросетка!
По-моему любому было сразу понятно что писал человек.
Или ты реально думал что сетка? данунах, быть такого не может
Аноним 31/05/24 Птн 00:23:37 765046 331
>>765044
>Или ты реально думал что сетка?
Надеялся до последнего. Но увы, сетки слишком тупые, чтобы выдавать годноту. Пилю свою, через 10 лет вылезу из подвала с революционной версией! А её выебут файнтюны ллама 13 со старта
Аноним 31/05/24 Птн 00:31:44 765061 332
>>765023
> а теслы - будут все так же 22к стоить

Да только не стоят они 22к на самом деле, и ебаться с ними надо дохуя. см откровения обоссаного >>765020
Аноним 31/05/24 Птн 03:11:02 765187 333
Вопрос анонасам. Кобольдовцы юзают закрытую распределенку Horde. А есть какой нибудь аналог для локального запуска? Что бы запустить сразу 2-3 модели.
Аноним 31/05/24 Птн 04:41:26 765207 334
image.png 537Кб, 533x518
533x518
Аноним 31/05/24 Птн 05:41:51 765218 335
>>765020
Ты не должен прогибаться. Просто перестань выебываться. Это же вроде не так сложно, верно?
Аноним 31/05/24 Птн 06:39:07 765225 336
>>765187
А что мешает запустить двух кобольдов?
Аноним 31/05/24 Птн 08:01:33 765256 337
>>765218
>Это же вроде не так сложно, верно?
Он не сможет, это реально сложно побороть свою природу. Он хотел стать барином подешевле и иллюзорно стал. Теперь наслаждается, что может презирать крестьян с 12-16 гигами. Но ему этого было уже мало и он захотел стать владычицей морской замахнулся на 24 гиговых трушных баринов с 4090. Эти барины разоблачили его - псевдобарина когда увидели скрин и реальную скорость работы 1 тс которую он пытался выдать за 8тс и говорил что это другое, то не то и это не это. Вот как-то так.
Аноним 31/05/24 Птн 08:58:55 765283 338
>>764956
Привет неудачник
>Хорош жопой вилять уже,
Так это ты любитель жопой вилять, посмотри как ловко каждый раз подменяешь смысл спора, талант
>тебя уже обоссал буквально весь тред
Убеждай себя в этом, лол.
Я вижу только горящие пердаки уебищ вроде тебя которые хотят унизить других что бы почесать свое чсв.
Ты обосрался с момента когда показал необходимость унизить другого в споре. Потому что тогда сразу стало ясно что ты неуверенный в чебе чмошник, и ты опять это показал, кек

>>764958
Ты идиот? Я изначально говорил о скорости генерации, с какого хуя ебланы стали свою общую скорость приплетать вобще не ебу
Мне похуй на общую скорость, я говорю о скорости генерации, хватит переводить тему
Аноним 31/05/24 Птн 09:40:09 765315 339
>>763784
Бамп вопросу.
Как блять важные вещи ответить - не, нахуй надо.
Как в очередной раз друг-друга говном поливать и киловатты обсуждать в пустую - всегда пожалуйста.
Хуею с треда
Аноним 31/05/24 Птн 09:57:56 765331 340
>>765315
Может потому что прямо в разгар битвы паскаля с ампером ты написал что-то похожее на вброс, смотри сам на что это похоже:
>Решил опять потестить локалки.
ага, типо невзначай так зашел от нех делать
> Могу ранать вплоть до 70B
Ну вот! Вот оно! Второй слой этой фразы: "Я то могу, я вы нет" - это ровно то, ради чего покупаются теслы. Отсюда вопрос: У тебя теслы?
Аноним 31/05/24 Птн 10:02:43 765336 341
>>765331
Я на твою шизофазию даже отвечать не буду. Съебите вообще в свой /hw/ загон. По тематике споров процентов 30
Аноним 31/05/24 Птн 10:02:48 765337 342
>>765315
Много че есть, новая ллама 3 70 например
Аноним 31/05/24 Птн 10:04:11 765340 343
Аноним 31/05/24 Птн 10:07:28 765343 344
>>765340
Новая? Новая. Катают с ней ерп? Катают, че не так?
Аноним 31/05/24 Птн 10:37:27 765378 345
Пытаюсь понять, как все это внутри устроено, и тяжело идёт. Тяжело быть тупым.
Аноним 31/05/24 Птн 11:19:21 765417 346
>>764566
Ор. Осуждаю, конечно.

>>764574
Хм, ну тады да…

>>764639
Соглы, с 4090 должно быть больше.

>>764668
Три есть, кто-то — взял четвертую, вроде.

>>764725
У меня вчера Айа зачерпнула 300 мб оперативы контекстом и выдала такую же скорость. х)

>>764776
Плюсую.
Но…
>>764745
Так у тебя ллм для этого есть. Скинь им апишку с гита, скажи че надо, оно напишет. Ну рил, я так на питоне и пишу, и работает. Руками поправить самые простые вещи и все.
Хотя бы попробуй, не ссы.
Вон, кодестраль вышла.

———

Блядь, че за хуйня у вас тут происходит?!
Это, блядь, двач, тут всегда сидели только дегенераты. У нас был более-менее уютный тредик, но у меня один вопрос:
Нахуя вы кормите тролля, который обсирает теслы? Ну очевидно же, что человек не ведет диалога всерьез, он игнорирует пруфы (не оспаривает их, а именно игнорирует нахуй, потому что оспорить нечем), на кой хер вы с ним вообще раздули 350 сообщений за ночь?! Ебанутым нет покоя? Окститесь, забейте хуй!
Я в ахуе просто.
Такая хуйня, пиздец.

По теме за весь тред — челик ттс пытался прикрутить к таверне, лучше бы ему помогли, гении ебать с обеих сторон.

Тролля осуждаю.
Аноним 31/05/24 Птн 11:27:53 765427 347
>>765020
>Охлад за 2,5к на каждую теслу
Ебать тебя как гоя прогрели.
>Мимо сделал себе охлад за 700 рублей (цена вертушек)
Аноним 31/05/24 Птн 11:30:21 765431 348
>>764812
Это в какой документации упоминается пресет, можно ссылочку? И что будет, если у анона Repetition Penalty окажется 1.04?
Аноним 31/05/24 Птн 11:47:35 765457 349
шахидская религия мешает обсуждать железо в треде железа или че? я проебал нить беседы про ттс из за ваших вскукареков петушинных. я блядь уверен в некст треде найдется несколько ретардов, которые еще интел вс амд срач устроят. потому что ебать это же так важно и касается ллм пиздец.

сто с хуем сообщений о каком то дерьме блядь не по теме. лучше бы новую мистру для кодинга тестили. а то купил дурачок тесл, а юзать ума не хватает.
Аноним 31/05/24 Птн 12:51:58 765508 350
>>765457
+
Надо было утопить специальный тред про железо, чтобы в итоге обсуждать его в треде про пусть локальные, но ллм блять.
Аноним 31/05/24 Птн 13:26:33 765538 351
>>765457
>я проебал нить беседы про ттс
Там всё равно ничего не было.
>>765508
>Надо было утопить специальный тред про железо
Он сам умер, беседы про железо возникают спонтанно. Но никогда не поздно создать новый.
Аноним 31/05/24 Птн 13:40:26 765549 352
>>765457
>срач по поводу железа
>не касается ллм
Ммм... Ну раз ты такой дохуя умный, то на чём собрался ЛЛМки запуcкать? На духовной эссенции шаолиньских монахов? Или может с помощью тайных тёмных знаний из магача? Может быть командера в ноосферу загрузишь? А гайдом с Анонами поделишься?
ХВ же никак не относится к теме треда. Значит обойтись можно и без железа, да, умник?
Аноним 31/05/24 Птн 14:06:48 765568 353
>>765549
удваиваю.
Говоришь про локальные LLM - подразумеваешь разговоры про теслы и кожухи воздуховоды из картонок.
Аноним 31/05/24 Птн 14:09:12 765569 354
>>765417
>который обсирает теслы?
Слышал звон да не знаю где он? Если бы ты потрудился прокрутить вверх и посмотреть с чего началось не сел бы в лужу. Смотри:
>Короче, погонял Stheno v3.1 Это пока лучший ролплей-файнтюн для третьей ламы
>Вообще, походу, чтобы избавиться от предсказуемости 8b моделей, вкелючая 2x8 и 4x8, надо скачивать новые каждый день
>чтобы избавиться от предсказуемости 8b моделей, ... надо скачивать 70B
>> 8b Тупостью тред траллите?
>Проблема в том что ты зачем-то трогал тупую 8В.
ну вот он добился своего, зацепил пару челов:
>Глазки протри и перечитай текст. Я сказал, что лучшая "в своем весе", среди восьмерок.
>Никто же не говорит, что оно превосходит 70В. Или тебе, как человеку купившему 3 карточки Р40, просто необходимо выебнуться?
А дальше понеслась пизда по кочкам. Тролль - теслак
Аноним 31/05/24 Птн 14:11:08 765571 355
>>763323
Подскажите нюфане, как эти сейфтензоры в угубугу запихать?
Или оно для чего-то другого?
Я сейфтензоры только из СД знаю.
Аноним 31/05/24 Птн 14:18:24 765583 356
>>765571
Конкретно эти- никак, они проприетарные.
Аноним 31/05/24 Птн 14:19:04 765584 357
>>765569
Тролль челик, который пиздит, что теслы выше 1 токена не дают, потому что они дают.
Ну, как бы, очевидно пиздит, или тупой в нулину, или тролль.
Не думаю, что тупой. Значит 100% тролль.
Теслаки тут вообще не при делах, если чел такую лютую хуйню пишет.
Ну, кроме того, что ведутся хуй пойми зачем.
Щас бы доказывать человеку, который игнорирует пруфы, что-то. =) Ваще похую.

>>765571
Transformers.
Но лучше скачай GGUF или Exl2.
Аноним 31/05/24 Птн 14:20:11 765585 358
Аноним 31/05/24 Птн 14:21:43 765589 359
Аноним 31/05/24 Птн 14:39:02 765593 360
>>765569
Додик ты никак не успокоишься?

>>765571
Если ггуф качать, но не уверен что поддержку уже добавили, а
если и добавили то пока только в ллама.спп

По идее exl2 для чисто запуска на видеокартах должен норм запускаться, но опять таки хз нужна ли там отдельная поддержка

>>765584
>Не думаю, что тупой. Значит 100% тролль.
Тролль но в силу скудоумия, а не замысла, но как пиздит и выкручивается, верткий как глист
Смотри как любой ценой ситуацию по своему выкручивает
К тому же как можно молчать если в интернете кто то опять неправ?

>>765431
Ни в какой, это просто минимальный пресет запуска с которым сетка работает и вроде как неплохо. Все эти семплеры были полезны на более тупых сетках, сейчас например мне хватает только минп 0.1, повторы добавляю только если в залупы уходит

>>765378
Если пытаешься разобраться значит уже не тупой, просто тема сложная
Аноним 31/05/24 Птн 14:43:14 765599 361
Аноним 31/05/24 Птн 16:53:14 765658 362
Аноним 31/05/24 Птн 17:20:18 765667 363
>>765658
>but for a person from CIS still expensive
Lil, а можно было бы просто заработать денег.
Аноним 31/05/24 Птн 17:46:04 765676 364
https://www.reddit.com/r/LocalLLaMA/comments/1d47qor/what_happens_if_you_abliterate_positivity_on/
https://huggingface.co/failspy/Llama-3-8B-Instruct-MopeyMule-GGUF
Очень итересный эксперимент. Я так понимаю по аналогии с соей чувак решил избавиться от позитивного настроя в модели. Вышло необычно, она реально меланхолична во всём. RP тоже забавно отыгрывать с "горячими" карточками, когда персонаж берет член в рот и думает о смысле жизни.
Аноним 31/05/24 Птн 18:03:37 765685 365
>>765676
похоже на запекание контрольных векторов
Аноним 31/05/24 Птн 18:36:00 765710 366
>>762583 (OP)
Ну что, приличные файнтюны 3й лламы уже подвезли? Желательно 70 и под ерп.
>>765658
Булджадь, это лишь лора а не файнтюн. Зато линк на тузлу для тренировок, надо свою модельку пилить.
Аноним 31/05/24 Птн 18:43:55 765716 367
>>765584
>Тролль челик, который пиздит, что теслы выше 1 токена не дают, потому что они дают.

Я как бы все это время говорил про 2-3 токена, это и есть реальная скорость генерации на 70В моделях на теслах, но тут ты прилюдно обосрался тем скрином с одним токеном в секунду...
Аноним 31/05/24 Птн 18:54:46 765730 368
17171006668690.gif 333Кб, 1348x766
1348x766
Теслаебы опять повылезали из под шконок и снова стали выебываться...
Аноним 31/05/24 Птн 18:56:29 765734 369
>>765730
опять ты говно
все еще жопа горит?
Аноним 31/05/24 Птн 19:09:07 765752 370
>>765730
Нишутя у вас тут платиновые срачи, такое пропустил. Кто выигрывает? Теслу попустили или топ за свои деньги?
мимо владелец ады/ампера
Аноним 31/05/24 Птн 19:12:45 765755 371
>>765734

У вас теслаебов да, захожу сейчас в тред - а тут зарево стоит.
Аноним 31/05/24 Птн 19:16:18 765759 372
>>765752

Теслу никто не попускал в общем-то, теслаеб стал хвалиться что у него 7.5 токенов скорости на 70В, и сам запостил скрин >>765730 где у него 1 токен в секунду общей скорости, потом я пруфанул что такую скорость можно вообще без видюхи получить на чистом цпу с рам и с тех пор теслаебы горят без перерыва.
Решением союза владельцев 3090/4090 они были временно определены под шконку пока не перестанут выебываться.
Аноним 31/05/24 Птн 19:21:52 765765 373
>>765759
> теслаеб стал хвалиться что у него 7.5 токенов скорости на 70В
Это же еще неделю назад обсосали и овинили его врунишкой, не?
> и сам запостил скрин >>765730 где у него 1 токен в секунду общей скорости
В голосину.
Не, зато он молодец что наконец выполнил реквест с подробными таймингами на обработку контекста и генерацию с большим контекстом без кэша, но сука, такой-то рофл.
Это тот буйный шиз что 3 штуки себе взял и хвастался? Вполне закономерный результат. Алсо выдачу размера самой модели при загрузке и типа кванта так и не показал, только имя файла.
> Решением союза владельцев 3090/4090 они были временно определены под шконку пока не перестанут выебываться
Поддерживаю N голосами
Аноним 31/05/24 Птн 19:27:46 765772 374
>>765549
мне глубоко поебать какое охлад ты вешаешь на свою теслу и глубоко поебать у какого таджика ты их купил. потому что это нихуя не касается ллм. а что касается ллм это только количество требуемой врам для запуска моделей.

и уж тем более всем глубоко насрать на тесла вс 4090 холивары. любой из участвовавших в этом дерьме и имеющий любой из этих девайсов мог не проебывать время в пустую а чё-то реально тестить или делать. уже подзаебало каждый раз одну и ту же хуйню видеть в треде, как будто собралось сотка менеджеров из гос учреждения, и каждый старается максимально без пруфов нести хуйню.

думаешь я рофлю? катнись в пару тредов назад там челики орали что q2 норм, и q8 хуйня одновременно с этим. а знаешь сколько пруфов этим репликам было с настройками картонок, сэмплеров, конкретной моделью, и скрином диалога? ноль нахуй. чисто собрались как бабки и лишь бесконструктивную хуйню нести и срач разводить.

самый полезный пост треда это линк на ютуб видео с ттской нахуй. куда всрато 350+ сообщений я вообще не знаю.

мне ещё нравится это нотка омежковатости, челам дали инструмент для перевода книг и озвучки их что бы гнать в аудиокниги и чё-то учить не читая сука книгу глазами \ дали инструмент писать относительно валидный код, который только рефакторнуть что бы оно работало \ дали возможность суммарайзить тексты и ебашить question/answer, и 90% треда вместо того что бы реально исполнять или тестить что-то из всего этого, просто сидит трёт хуй и готово ради этого 4 теслы покупать. шлюху снять топовую и ебать её во все щели в любое время и то дешевле выйдет кекв)

за последние 20 тредов, что-то по теме перевода текстов спрашивалось раз 5-7, и офк ноль нахуй нормальных ответов. 20 тредов назад кто-то советовал альму, недавно ещё предлагали либретранслейт вместо использования нейронок, какого либо фидбека о качестве перевода условно любой сука художественной литературы с англа на ру - нет.

за то есть 350 сообщений о теслах и пошёл-нахуй-холиварах о железе. полезно, очень, я прямо вижу какой ты умный запускатор. ошибься только немного, вместо запуска моделей запустил срач о железе, кнопки спутал да?
Аноним 31/05/24 Птн 19:32:41 765775 375
>>765765
>Это тот буйный шиз что 3 штуки себе взял и хвастался?

Он самый, да. Наверное волосы второй день на себе рвет, что запостил скрин не подумав.

>Алсо выдачу размера самой модели при загрузке и типа кванта так и не показал, только имя файла.

Ну имя файла и количество слоев - 81 соответствует реальной модели мику, которая существует в единственном и неповторимом виде, так что думаю тут все чисто. Даже если это не она, то 81 слой как правило у 70В моделей.
Аноним 31/05/24 Птн 19:33:43 765778 376
>>765772
>шлюху снять топовую и ебать её во все щели в любое время и то дешевле выйдет
За норм тысяч 15 за раз надо будет, так что в разовом эквиваленте конечно дешевле, но тесла у тебя навсегда, а шлюха на час.
>что-то по теме перевода текстов спрашивалось раз 5-7, и офк ноль нахуй нормальных ответов
Так реально все дрочат, лол. Да даже если перевод, то только в контексте РП.
Аноним 31/05/24 Птн 19:36:41 765784 377
>>765772
>челам дали инструмент для перевода книг и озвучки их что бы гнать в аудиокниги

Уже есть такой инструмент-читалка на ведроидах, скармливаешь ему книгу - он её через яндекс полностью переводит, сохраняет перевод и дает тебе читать. Если выдрать перевод в отдельный файл - можно в читалке яндекса слушать как аудиокнигу - у них мужской голос охуенный, гораздо лучше Алисы.
Аноним 31/05/24 Птн 19:39:00 765790 378
>>765599
расстроил меня, я уже слюни пустил думая что ща скачаю и засуну в врам целиком.

>>765784
фришно? без ограничений? по качеству перевода сильно хуже deepl?
Аноним 31/05/24 Птн 19:42:11 765796 379
>>765772
Ну в целом да, сильно много малополезных обсуждений, а более углубленных - хуй. Хотя может всегда и было.
>>765775
> Ну имя файла и количество слоев - 81 соответствует реальной модели мику
Это к тому что у нее есть как q2 и ниже, так и (бессмысленные) fp16 версии, конкретный квант не виден. Не то чтобы того что он показывает не может быть (особенно при кривом расчете скорости) и обязательно врет, просто факт что не показал когда идет спор с обвинениями.
Аноним 31/05/24 Птн 19:46:22 765807 380
>>765796
>а более углубленных - хуй
Ну вот кидал я затравку на более глубокое. Всем похуй >>763060
Аноним 31/05/24 Птн 19:47:21 765809 381
>>765772
>имеющий любой из этих девайсов мог не проебывать время в пустую а чё-то реально тестить или делать

Ну я например тестирую сетки на сою через П-Рассказчика и скидываю скрины в тред.

>самый полезный пост треда это линк на ютуб видео с ттской нахуй

Этот линк вкинул опять же я.

>мне ещё нравится это нотка омежковатости, челам дали инструмент для перевода книг и озвучки их что бы гнать в аудиокниги и чё-то учить не читая сука книгу глазами \ дали инструмент писать относительно валидный код, который только рефакторнуть что бы оно работало \ дали возможность суммарайзить тексты и ебашить question/answer,

Все это можно делать не только на локальных нейронках и локалочки по очевидным причинам справляются хуже. И нет причин использовать именно локалки для этих задач.

>просто сидит трёт хуй и готово ради этого 4 теслы покупать

А вот тут реально другое. Локалки и правда имеет смысл использовать вместо того чтобы тов. майору и корпорациям досье на самого себя писать.

>шлюху снять топовую и ебать её во все щели в любое время

Сняв шлюху ты трахнешь её один раз, а на локальный кум можно кумить сотни и тысячи раз. Сколько стоит снять шлюху 1000 раз, м?

>за последние 20 тредов, что-то по теме перевода текстов спрашивалось раз 5-7, и офк ноль нахуй нормальных ответов.

Потому что итт никому перевод не нужен, все со времен пигмы кумят на английском и выучили его в совершенстве, кто не знал до этого.

А что ты такого сделал для качества общения в треде, что поливаешь тут всех говном?
Аноним 31/05/24 Птн 19:50:31 765816 382
>>765790
>фришно? без ограничений? по качеству перевода сильно хуже deepl?

Да. Если с яндексом - то фришно. Дипл там тоже встроен, но за него надо платить. Хуже, но не слишком сильно, у яндекса довольно хороший переводчик, на уровне гуглового.
Аноним 31/05/24 Птн 19:55:58 765821 383
>>765809
>и выучили его в совершенстве, кто не знал до этого
Кидаю все текста в дипл, ебало?
Аноним 31/05/24 Птн 19:58:38 765824 384
000101.png 89Кб, 1194x766
1194x766
>>765816
яндекс хорош, подтверждаю.
Аноним 31/05/24 Птн 20:03:14 765830 385
>>765809
за линк спасибо, к тебе у меня каких-то претензий нет и не было.

причина на самом деле есть, это как минимум независимость от продающих сервисов. очевидно проще запустить локалку чем сидеть через прокси и виртуальную карту висконсина сидеть гопоту или клода оплачивать. (да я знаю есть перплексити лабс). и это не упоминая о количестве блокировок не только со стороны самих сервисов, но и ещё ркну. а так запустил локалку и похуй тебе на your country is not supported или данный ресурс заблокирован по законодательству кринжоты. аргумент же?

то что локалки можно использовать для дрочки, ещё не значит что это их вообще единственной применение лол. а по треду плюс минус так и кажется.

просто прикинь степень абсурдности а?) даже многослойный трансформерс легально трахать нельзя, ну не ирония ли?

ну если дрочить по косарю раз, то холивар про теслы уже не кажется дуркой, после такого натирания члена, явно и член и мозги отсохнут.

я перевод текстов вижу себе не так, что ты там запустил няшную нейрошлюху, и сидишь переводишь там её мессаги в ру, или читаешь прямо на англе. это юзелесс. я вижу смысл в переводе текстов например взять линканутую выше в >>763060
статью, которая на англе, и адекватно её перевести на ру, что бы тупо облегчить себе чтение и понимание такой технической литературы. я не тупой и знаю англ, но на усвоение материала на родном языке мне явно потребуется меньше времени.

>>765816
спасибо за наводку, пойду сравню на одинаковой статье дипл и яд. а то сидеть по 2к символов ручками кидать духота та ещё.
Аноним 31/05/24 Птн 20:07:39 765840 386
>>763060
Судя по значениям, полученный результат мало о чем говорит, если офк речь о перплексити на викитексте. Как было шизиком так и осталось, а наблюдаемый эффект может быть обусловлен чем-то еще.
Хотябы простые бенчмарки бы прогнать, или сделать серию тестов на ответы с большим контекстом бы.
Скинь исправленный код для запуска, пожалуйста.
>>765772
> не проебывать время в пустую а чё-то реально тестить или делать
Кто тебе сказал что никто ничего не делает? А так посраться - самый сок, особенно в подобном формате.
>>765830
> а по треду плюс минус так и кажется
Да ну, ты зря. Просто обсуждают и спрашивают это больше, плюс применение которое буквально объединяет всех-всех.
> даже многослойный трансформерс легально трахать нельзя, ну не ирония ли?
В голос, реально в сборник цитат такой надо, хорошо сказанул.
По переводу правильно, на самом деле это вообще не трудно, это долго.
Аноним 31/05/24 Птн 20:34:44 765876 387
>>765044
>>765046
Бывают же оптимисты. Даже в жирного командира не верю, что можно запромптить его на двачера вот так. Ну может быть в комбе, где сетка пишет, а человек фиксит разве что. Только для меня это уже работа человека, а не сетки.
Аноним 31/05/24 Птн 20:37:21 765880 388
>>765417
> Вон, кодестраль вышла.
Полнейшая хуйня, походу. Я даже не смог заставить ее змейку написать.
> Скинь им апишку с гита, скажи че надо, оно напишет.
Пока у меня так не получается.
Аноним 31/05/24 Птн 20:40:40 765885 389
>>765840
>если офк речь о перплексити на викитексте
Я использовал датасет TinyStories, так что перплексия на их тестовом срезе (сетка его не видела офк).
>Как было шизиком так и осталось
146%, я больше 100к за раз не скармливал, в 1 эпоху. Полный прогон всего датасета в 1 эпоху у меня сутки займёт, я пока не готов столько гонять.
>Скинь исправленный код для запуска, пожалуйста.
Там ещё модель нужно с нуля обучать. И да, я на GPT2 тренируюсь ))
Аноним 31/05/24 Птн 20:45:04 765895 390
>>765885
> датасет TinyStories
А какие там типовые значения для подобного? Просто в рп-подобных датасетах и всяком, где текст имеет "свободную форму" оно по дефолту высоко. Хз насколько изменение в 2% такой специфичной величины может выступать достоверной метрикой улучшения.
> Там ещё модель нужно с нуля обучать.
Ага, т.е. все гораздо глубже выходит. Ну, печально. Всеравно скинь что там с кодом, может на какой-то мелочи поиграться.
Аноним 31/05/24 Птн 20:51:31 765907 391
>>765784
Че за читалка то?
Аноним 31/05/24 Птн 20:51:59 765910 392
>>765895
>А какие там типовые значения для подобного?
А ХЗ, лол. Я новичок в датасатанизме. Я до 9 доводил, но это в 3 раза дольше гонять нужно. У авторов 1,5 получалось, но это за сутки, а не за час.
По сути датасет вышел весьма простым и однородным (чего стоит одно начало на 99% историй), так что перплексия ИМХО должна быть низкой.
>Всеравно скинь что там с кодом, может на какой-то мелочи поиграться.
https://rentry.co/9r7ok5hw
Держи, просто унаследовался от стандартной и подменил слои атеншенов (код подмены писал GPT4, а вот замену в функциях пришлось самому делать, гопота тут глючит нещадно).
Аноним 31/05/24 Птн 20:54:17 765915 393
>>765772
>это линк на ютуб видео с ттской нахуй
Когда я итт постил про ттс меня послали нахуй и сказали, что это нерелейтед.
Опять макаба шатается.
Аноним 31/05/24 Птн 20:55:31 765917 394
>>765772
Я думаю, что тема переводов не поднимается, потому что сетки это делают крайне хуево.
>мне ещё нравится это нотка омежковатости, челам дали инструмент для перевода книг и озвучки их что бы гнать в аудиокниги и чё-то учить не читая сука книгу глазами \ дали инструмент писать относительно валидный код, который только рефакторнуть что бы оно работало \ дали возможность суммарайзить тексты и ебашить question/answer
А теперь объясни мне, нахуя это все делать. Книги для дураков, кодинг для мудаков, суммарайзить длинные тексты тебе никакого контекста не хватит, легче самому прочитать, если сильно надо. Тем более какое может быть доверие к сетке, если текст важный. А если текст не важный, то нахуя его читать? В этом контексте я даже скорее одобряю дрочку на текст вместо дрочки на порнхаб.
В общем, раз уж ты топишь за качественное общение и обсуждение, то обоснуй как-то актуальность своих задач.
Аноним 31/05/24 Птн 20:57:07 765920 395
>>765915
Очень даже релейтед. Когда такое было и что ты постил?
Аноним 31/05/24 Птн 20:58:42 765923 396
>>765917
>Я думаю, что тема переводов не поднимается, потому что сетки это делают крайне хуево.
Да ну не сказал бы. Гугл давно выебан даже 7B (хотя это скорее деградация гугла, лол).
Аноним 31/05/24 Птн 20:59:23 765924 397
>>765917
> Я думаю, что тема переводов не поднимается, потому что сетки это делают крайне хуево.
Сначала хотел возразить, а потом прочитал пост целиком. Толстовато, попробуй потоньше.
Аноним 31/05/24 Птн 21:02:26 765929 398
>>765830
> что бы тупо облегчить себе чтение и понимание такой технической литературы. я не тупой и знаю англ, но на усвоение материала на родном языке мне явно потребуется меньше времени.
То есть тебя не беспокоит тот факт, что нейронка может просто нашизить местами и ухудшить понимание этого текста? Хочешь что-то перевести с анга на русик. Забей это в яндекс. А говорить за всех, что каждый может запустить себе командира+ в высоком кванте = быть дауном.
Или это опять скрытый байт на теслосрач?
Аноним 31/05/24 Птн 21:04:41 765933 399
>>765923
Деградация гугла, конечно. Иди яндекс выеби. Хотя с последним даже ебать не надо, его тупо использовать не хочется, ведь твой айпишник и текст перевода записываются и отправляются прямо в службы.
Аноним 31/05/24 Птн 21:06:31 765936 400
>>765924
> Толстовато, попробуй потоньше.
Немного с иронией я переборщил, но ведь в целом посыл же правильный. Нет никакой толстоты здесь.
Аноним 31/05/24 Птн 21:25:14 765966 401
Аноним 31/05/24 Птн 21:33:09 765987 402
>>765907
>>765966

Ломаный премиум качай, там есть та функция что я описал. "Безымянный переводчик" который бесплатный - это яндекс.
Аноним 31/05/24 Птн 21:44:46 765997 403
>>765920
Ну хуй знает, мне сказали, что про ттс есть свой тред и шёл бы ты туда. А там вообще тред неживой был. Сколько тредов назад сказать сложно, быстро летят. Речь шла про настройку рилтайм озвучки выхлопа LLM без таверны.

>>765923
Сейчас Deepl хорошо переводит и там внутри тоже нейронка, к гадалке не ходи.
Аноним 31/05/24 Птн 21:52:47 766010 404
>>765824
>>765816
Поясните как вы апи от Яндекса добавили в Таверну.
Аноним 31/05/24 Птн 22:03:04 766029 405
>>764607
>min-p пресет.
>несломанный гуф

>>764217

Короче что бы ЛЛама не срала ассисистентом на всего лишь снять галку с skip special tokens.
Бесплатно без смс, без сломаных гуфов хуюфов и прочих мин п.
Аноним 31/05/24 Птн 22:30:00 766054 406
>>765830
>независимость от продающих сервисов. очевидно проще запустить локалку чем сидеть через прокси и виртуальную карту висконсина сидеть гопоту или клода оплачивать

Но качество этих услуг на локалке гораздо ниже и скорость оставляет желать, если только ты не 4090-господин.

>то что локалки можно использовать для дрочки, ещё не значит что это их вообще единственной применение лол. а по треду плюс минус так и кажется

Ну для меня - единственное, все остальное - программирование, например, лучше делать с копилотом, задачи по суммарайзу с чат-гопотой и т.д. Я не в России живу, у меня нет проблем с доступом и оплатой.

>ну если дрочить по косарю раз, то холивар про теслы уже не кажется дуркой, после такого натирания члена, явно и член и мозги отсохнут.

Ты тян? Просто такой неадеватный агр на дрочку...

>я перевод текстов вижу себе не так, что ты там запустил няшную нейрошлюху, и сидишь переводишь там её мессаги в ру, или читаешь прямо на англе. это юзелесс. я вижу смысл в переводе текстов например взять линканутую выше в

Чем тебя не устраивает автоматический перевод в яндекс браузере? Он даже видео переводит и озвучивает. Я помню несколько часов сидел и тупо топ китайсого ютуба в русской озвучке смотрел пока не надоело.
Аноним 31/05/24 Птн 22:36:39 766059 407
.png 436Кб, 2744x1838
2744x1838
.png 498Кб, 1353x1534
1353x1534
Поясните довену как модели в ггуф конвертить из сырых весов. Ллама 3 8B инстракт норм конвертится, а командр+ без ошибок просто через несколько секунд останавливается и пустой файл создаёт.
Аноним 31/05/24 Птн 22:43:36 766066 408
Аноним 31/05/24 Птн 22:46:05 766067 409
>>765987
>>765966
Спасибо. А для пеки подобное есть? Пробовал просто pdf в яндекс переводчике переводить, там кривой документ выходит.
Аноним 31/05/24 Птн 22:48:12 766071 410
>>766054
>автоматический перевод в яндекс браузере
->
>Я не в России живу
Ну так понятно, ты то можешь пользоваться сервисами хуяндекса без шанса присесть на бутылку.
Аноним 31/05/24 Птн 22:50:06 766074 411
>>766066
Спасибо. Но я, правда, хотел разобраться с локальным квантованием, чтобы кучу вариантов квантов со своим хреновым инетом не качать для теста.

Покурю сорцы спейса или может вообще его стяну просто, чтобы локально этот UI был.
Аноним 31/05/24 Птн 22:55:57 766075 412
>>766059
А памяти то хватает? Небось из за того что коммандр слишком жирный сразу и падает
Аноним 31/05/24 Птн 22:56:07 766076 413
>>766071

Так мы про перевод научных статей и книг говорили.
Аноним 31/05/24 Птн 23:00:34 766077 414
>>766075
Скорее всего - RAM 32 всего, вообще не знаю, какие там системные требования, чтобы самому кванты перегонять в жирных моделях. Но ошибок или высокого потребления RAM на старте не увидел, поэтому подумал, что, может, дело не в этом.
Аноним 31/05/24 Птн 23:12:27 766086 415
>>765929
хуй клал на теслы. у меня их нет. просто прорабатываю альтернативные варианты, без использования сервисов. скажем так, СД повлиял на меня в своё время. один хуй запуская что-то локально контроль будет у меня, а не у какого-нибудь чада сделавшего сервис генерации чего либо. а так да, нашизить может, тут ты прав, с этим аргументом не спорю, но пока ещё не ясно что хуже, читать в англе или перевести и суммарайзнуть с риском шизы нейронки. 50 на 50 я бы сказал.
за коммандира я ни слова не говорил бтв, и вообще в плане железа никого не хуесосю, каждый сидит на чем позволяют средства и возможности.

>>765997
там 100% нейронка в дипле, и именно поэтому я сравниваю любые переводы именно с диплом, по крайней в отношении художественной литературы, он переводит прямо норм, это даже можно читать и не кринжовать.

>>766054
ну, не то что бы я прямо очень сильно торопился, да и в целом локальный ран в этом смысле, это что-то вроде запасного плана, если сдохнут реверс апи от гопоты, перплексити лабс и прочее, что можно юзать без смс и регистрации.

а вот из ру с этим на самом деле уныло. сначала регать виртуальный номер каком-то сервисе, потом ещё оплачивать виртуальной картой или чем-то подобным. честно говоря душный пиздец.

нет не тян, да не то что бы агр, просто я пока не понял прикола дрочки на это всё. с каким-нибудь пронхабом или хентайщиной и прочим понятно, а тут же, ну блядь текст?

меня кринжует не от перевода яндекс браузера, а от самого браузера. он ощущается настолько дерьмовым, кривым, со своими яндекс кнопками нахуй и ебучей алисой, что мне хочется его как минимум засунуть в виртуал бокс, лишь бы он не порочил мою систему. и память сука жрет больше чем мозилла.

>>766067
я бы сначала распознал пдфку, а потом полученный текст.
Аноним 31/05/24 Птн 23:15:40 766088 416
>>765917
зачем мне условно скетч для ардуины самому, если перплексити лабс написал её за меня? зачем мне кидать худ литру на англе в дипл по 2к символов ради перевода, если это можно было бы доверить нейронке? зачем мне перечитывать тех литру 5 раз, которая условно дается сложно для понимания (как пример), если я могу попросить нейронку либо объяснить мне это чуть попроще, что бы полученную информацию можно было визуализировать и структурировать на более простых аналогиях? если у тебя в жизни самоцель это рукой хуй тереть каждый день, и понятие самоообразования или любопытства тебе чуждо, то убери руки от клавы и положи их на хуй. не трать время зря.

алсо с троллами уровня книги для дураков а кодинг для мудаков, можешь сразу слиться - не позорься.
Аноним 01/06/24 Суб 00:15:01 766123 417
>>765772
Ну как ты видишь по кол-ву ответов на твой пост - людям больше интересны хв срачи. Так что ты тут в меньшинстве. Поэтому закрой ебло и съеби нахуй с треда.
Аноним 01/06/24 Суб 00:16:42 766125 418
>>765824
А дядя Майор не приедет, если будешь совершеннолетних лоли-кошкодевочек трахац?
Аноним 01/06/24 Суб 00:45:24 766133 419
>>766125
>совершеннолетних
Нет, такое меня не возбуждает.
Мимо товарищ майор под прикрытием
Аноним 01/06/24 Суб 02:57:19 766181 420
Снимок экрана 2[...].png 4Кб, 354x77
354x77
1717199738608.jpg 255Кб, 2147x965
2147x965
собрал на xeon 2678 32 gb ddr4 x99tf. месяц не получалось запустить. tesla с охлаждением c aliexpress
Аноним 01/06/24 Суб 03:51:39 766202 421
>>766086
>с каким-нибудь пронхабом или хентайщиной и прочим понятно, а тут же, ну блядь текст?

Не могу поверить что итт есть человек которому приходится обьяснять настолько базовые вещи.
От просмотра порнхаба развивается импотенция, потому что такова цена дрочки на уродливых 40-летних коров с разъебанными дырками, которых они там продвигают и суют тебе в лицо, даже если ты не будешь включать с ними видео - тебя забомбардируют превьюхами.
Хентай как правило очень хуево нарисован и годноты там по пальцам одной руки пересчитать можно, плюс дрочить на квадраты...
Что до того что тут дрочат на тексты. Дай угадаю, ты в жизни не читал художественной литературы сложнее тредов на дваче, я прав? Ты и визуальной новеллы ни одной ни прочел, хотя это конечно и низовая недолитература, но и она дала бы тебе понимание насколько же сильно Слово. Играясь с ИИ мы не просто читаем текст, мы взаимодействуем с самим создателем текста, у нас нет заранее написанной книги, вместо этого книга буквально пишется на луте в соответствии с полетом нашей фантазии, это новый уровень интерактивности развлечений, буквально первый проблеск нового будущего. Тут мы реально можем быть кем захотим, ебать кого захотим и так, как мы захотим. Это - подлинная свобода.
..А ты предлагаешь на всратых разъебанных шмар с порнхаба дрочить. Потому ты и ебаная мелкобуква - у тебя нет понимания силы письменного слова и оттого ты и демонстрируешь к нему пренебрежение. У тебя не развит один из отделов мозга, ты не понимаешь и не можешь предположить - насколько это охуенно - читать и визуализировать самому себе хороший текст, погружаясь во вселенную произведения, которое ты читаешь. И даже не можешь представить какого это - когда ты не просто безмолвный читатель, а ты - часть повествования, главный герой, прокладывающий свой путь и навязывающий выдуманному миру и персонажам свою волю.
Аноним 01/06/24 Суб 03:59:17 766207 422
>>766125
>совершеннолетних лоли

Так бывает?
Аноним 01/06/24 Суб 04:54:15 766239 423
>>766207
Поверь, бывают столетние и тысячелетние лоли. Сырно к примеру, ей 78. Япония она такая.
Аноним 01/06/24 Суб 05:17:18 766252 424
>>766239

Я знаю, я иронизировал.
Жаль тащ.майор не понимает таких тонкостей и в законе прямо прописано что выглядеть как лоли достаточно для пативена. Интересно как трактовать закон по отношению к текстам сгенерированным ИИ, там ведь не проверишь как персонаж выглядит.
Аноним 01/06/24 Суб 05:25:19 766254 425
>>766202
> Потому ты и ебаная мелкобуква - у тебя нет понимания силы письменного слова и оттого ты и демонстрируешь к нему пренебрежение.
Как же красиво завернул. Моё почтение.
> И даже не можешь представить какого это - когда ты не просто безмолвный читатель, а ты - часть повествования, главный герой
Да понятно каково. Где-то на уровне 12-летней яойщицы пишущей фанфики на фикбуке. Вот каково.
> От просмотра порнхаба развивается импотенция, потому что такова цена дрочки на уродливых 40-летних коров с разъебанными дырками, которых они там продвигают и суют тебе в лицо, даже если ты не будешь включать с ними видео - тебя забомбардируют превьюхами.
Хентай как правило очень хуево нарисован и годноты там по пальцам одной руки пересчитать можно, плюс дрочить на квадраты...
Не все же картинки прям с цензурой. Да и дрочить не обязательно на порнхабе, есть ресурсы, где показывают и тех, кто младше коров. Но с посылом спорить нельзя.
Аноним 01/06/24 Суб 05:37:00 766257 426
>>766252
>Жаль тащ.майор не понимает таких тонкостей
Он как раз прекрасно понимает, какой контингент дрочит на legal loli, и выдаёт им соответствующих пиздюлей.
Аноним 01/06/24 Суб 05:37:25 766258 427
>>766088
>алсо с троллами уровня книги для дураков а кодинг для мудаков, можешь сразу слиться - не позорься.
Начнем с этого. 90~99% книжек это Донцова, а то и хуже, такое читать = нетолько тратить время, но и становиться тупее. А остальные 1% книг я бы предпочел прочитать сам, без всякой шизы от нейронки. По крайней мере запустить сильную модельку уровня командир+ я не способен, а читать творчество какой-нибудь 8В, да даже 35В, мне не хочется.
Про кодинг все еще проще. Если совсем кодить не умеешь, нейронка за тебя его не напишет, а если умеешь кодить хорошо, то нейронка не нужна. Ну можешь рутинную работу немного на нее спихнуть, а потом править, но это уже на любителя.
> зачем мне кидать худ литру на англе в дипл по 2к символов ради перевода, если это можно было бы доверить нейронке?
А разве дипл это не нейронка? Причем вроде как узкоспециализированная на переводе. Поправь меня, я сторонними ресурсами специально не интересовался.
>зачем мне перечитывать тех литру 5 раз, которая условно дается сложно для понимания (как пример), если я могу попросить нейронку либо объяснить мне это чуть попроще
Нет, ну если можешь и нейронка действительно понимает контекст, то я рад за тебя и даже хочу посмотреть твои настройки и модельку. Потому что, честно говоря, я ни разу не верю, что я способен скормить нейронке книгу и она мне по ней бодро и четко будет отвечать. Обычно тупят, что в RAG, что просто в контексте.
> если у тебя в жизни самоцель это рукой хуй тереть каждый день, и понятие самоообразования или любопытства тебе чуждо
Да, мне это чуждо. Даже натирание хуя больше удовольствия не доставляет, а уж что-то более высокое - это для дофаминовых наркоманов от природы таких или бродящих по закладкам, а я, к сожалению, не такой.
> не трать время зря.
С моей стороны суть простая. Сейчас нейронки не готовы к тому, что ты от них хочешь ЯЩИТАЮ. Если ты не согласен и можешь доказать, то будь добр, сделай это. Я признаю свою неправоту, извинюсь перед тредом и перестану сюда писать.
Аноним 01/06/24 Суб 06:39:20 766266 428
А мультимодалке можно пояснить за отношения между элементами на картинке, чтобы она могла интерпретировать похожие картинки? Просто я чувствую, что OCR для amsmath при жизни не дождусь. В это походу вообще никто и ничто не может, даже в самых новейших проектах по интерпретации пдф для LLM прямо пишут "поддержка латех местами, распознает не всё".
Аноним 01/06/24 Суб 07:33:03 766272 429
>>766266
>чтобы она могла интерпретировать похожие картинки
Нет.
Аноним 01/06/24 Суб 10:11:19 766309 430
>>766202
то что ты еблан и не можешь гуглить себе прон это твои проблемы, а не мои. то что у тебя не хватает мозгов найти анцензоред джавы это тоже твои проблемы. и рисуют хентай по факту часто даже лучше чем обычные тайтлы, если для тебя это хуево, ну хуй знает, иди жри 3д китайское дерьмо, там жи графоний нахуй. вообще что это за уровень ретардизма у тебя такой. 1 - хачу драчить на буквы. 2. я графоман хентыч нарисован хуева. ты еблан? после такого позора ещё что-то пишешь про чтение книг и визуальных новелл? я ещё раз говорю, высирая свои бредни, делай это тоньше, ну потому что блядь даже обычная паста с пикабу смешнее тебя, а ты явно стараешься быть клоуном треда.
я не вижу тут никакой свободы, с тем же успехом ты мог запустить любую прон игру и орать что можешь ебать там любого нпц и кричать что это подлинная свобода. и судя по тому как ты у нас топишь на тощих микрописечек и графоманию, то прон видеоигры это как раз твой одел. ведь там дырки не растут)))
последний абзац даже комментировать не буду, это уже чистые бредни слабоумного

>>766258
>Ну можешь рутинную работу немного на нее спихнуть, а потом править, но это уже на любителя.
так и делаю, и на самом деле это классно, приятно поручить нейронке мелкие таски, или вопросы которые я обычно гуглил на стак оверфлоу например. или вообще спросить у неё что-то вместо того что бы искать поисковую выдачу гугла в первых трех страницах и 50 ебанных сео блогах. где вместо контента сео текст хуйни и мочи.

да дипл нейронка, именно для переводов, именно из-за этого и сравниваю локалки с дипл.

прямо книгу - увы не скормишь, а вот статью не очень большую можно, или например главу книги, которую было сложно освоить одним лишь прочтением. я бы люто радовался если бы можно было кормить целые книги, хотя учитывая шанс шизы, думаю радость длилась бы не долго лол

если бы нейронки уже сейчас закрывали все мои хотелки, я бы тут не сидел, причины бы просто не было. но они точно упрощают мне процесс кодинга, и уменьшают время которое я раньше тратил на гугл. разумеется я на пишу что-то очень сложное с её помощью, но какие-то мелкие задачи ей доверить можно.
Аноним 01/06/24 Суб 10:53:14 766329 431
>>765876
На мой взгляд, тексты будут более менее прилично получаться когда сетка сможет следовать вот таким примерным правилам:
Каждое предложение нагружено смыслом и имеет цель, как-то: описывает действие или событие, либо придает эмоциональную окраску действию, настроению персонажа или реплике. В случае реплик, каждая своим содержанием или формой сразу обрисовывает как-бы контур характера, ну и возраст, настроение, интеллект персонажа.

Также важны подробности, которые могут напрямую вообще не иметь отношения к сюжету, но косвенно создают скажем так лор. Ну вот как-то так. Например, волосы в ноздрях персонажа "тесливый спесивец" зачем вообще? А затем что влекут цепочку - ноздри раздуваются, он возбужден, агрессивен, что вызывает его последующие оскорбительные реплики в диалоге в адрес не преклонившего колени РТХ-ника. Другой пример подробностей - главная героиня бежтит по желтым листьям и лужам - никакого отношения к сюжету, но ает метку времени года - осень, значит пасмурно, меланхолия, безнадежность. Аналогично по смысловой нагрузке реплик: неграмотный выговор Порфирия рисует его портрет постаревшего кумера, ровно как и хвастливый самодовольный монолог Василия рисует кумера, находящегося в расцвете сил. Так же реплики кумеров из зала сразу характеризуют их как хамоватых быдланов, причем ставших похожими друг на друга потому что в толпе разница стирается и условный Phd опускается до уровня слесаря и так же отпускает сальные шуточки и гогочет как гамадрил. Вот весь этот второй смысловой слой должен иметь как бы хэш в реплике, и читатель уже в воображении раскрывает для себя и лор и персонажей и канву событий. Как добиться от сетки смфсловой эффективности в 100% ну пока не ясно ведь датасеты сами то не такие. Тут нужен ну очень хороший датасет возможно что претрейна тоже. Допустим Бальзака туда лучше не вколючать, ему платили постранично и он налил тонны воды и это только пример из литературы. А просто тексты? Вот одно точно - качественный датасет не может быть синтетическим.
Аноним 01/06/24 Суб 12:05:12 766344 432
>>766181
И как, работает?
>>766202
Ты там в хлам набухался что такие высокопарные и душные полотна начал хуярить по этой теме?
В целом действительно внки и тем более ллм-кум или обычное рп могут давать более сильный эмоциональный отклик чем прон, это факт. Но нужно иметь фантазию, для кого-то что-то с контекстом сложнее "медсестра, ебать" и созерцания фрикций - слишком тяжело воспринимается. Странно что в этом треде вообще подобные обсуждения возникают.
>>766239
Истина
>>766266
> чтобы она могла интерпретировать похожие картинки?
Ну современные мультимодалки могут пояснить тебе что общего на пикчах и в чем отличия. Но уровень восприятия ограничен.
> OCR для amsmath
Мультимодалку для подобного - это как нанимать исследовательский институт проблем материаловедения чтобы сварить пару профилей вместо дяди Васи из гаражей. Реализуется проще специазированными решениями.
>>766329
> когда сетка сможет следовать вот таким примерным правилам
Нет. Если такое тем более напрямую в промт херакнуть - отборную трешанину получишь. Тут или очень умная сетка при обучении которой пояснялось за стиль текста, и ты изначально приказываешь делать в "художественно-экспрессивным" или "ебош будто это фильм Квентин Тарантино. Или тот самый рп файнтюн со шлифовкой стиля нужными текстами.
Аноним 01/06/24 Суб 12:24:58 766347 433
>>766344
>Если такое тем более напрямую в промт херакнуть - отборную трешанину получишь
Именно. Но и описанные тобой варианты они в какой-то мере дают эффект, но не то, или не достаточно то, что надо. Мне все же кажется нужен очень чистый от всякого низкокачественного содержимого датасет. Причем не синтетический. А все вот эти файнтюны с хф делаются на синтетике и это хождение по кругу.
Аноним 01/06/24 Суб 12:31:54 766352 434
>>766309
> я ещё раз говорю, высирая свои бредни, делай это тоньше, ну потому что блядь даже обычная паста с пикабу смешнее тебя, а ты явно стараешься быть клоуном треда.
Может ты тогда сам на пикабу сходишь, раз тебе там смешнее?
> я не вижу тут никакой свободы, с тем же успехом ты мог запустить любую прон игру и орать что можешь ебать там любого нпц и кричать что это подлинная свобода. и судя по тому как ты у нас топишь на тощих микрописечек и графоманию, то прон видеоигры это как раз твой одел. ведь там дырки не растут)))
Возможно ты не понимаешь разницу между отыгрышем за предустановленного еблана и отыгрышем вообще всего что хочешь. Мне кажется тот анон вполне понятно все объяснил. Сначала ты срал хуйней про порнхаб, теперь маняврируешь про левые игры. В чем твоя цель?

> так и делаю, и на самом деле это классно, приятно поручить нейронке мелкие таски, или вопросы которые я обычно гуглил на стак оверфлоу например. или вообще спросить у неё что-то вместо того что бы искать поисковую выдачу гугла в первых трех страницах и 50 ебанных сео блогах. где вместо контента сео текст хуйни и мочи.
Phind.com же.
> да дипл нейронка, именно для переводов, именно из-за этого и сравниваю локалки с дипл.

> прямо книгу - увы не скормишь, а вот статью не очень большую можно, или например главу книги, которую было сложно освоить одним лишь прочтением. я бы люто радовался если бы можно было кормить целые книги, хотя учитывая шанс шизы, думаю радость длилась бы не долго лол
Не очень большую статью можно и самому прочитать. Спорно это очень.
> если бы нейронки уже сейчас закрывали все мои хотелки, я бы тут не сидел, причины бы просто не было. но они точно упрощают мне процесс кодинга, и уменьшают время которое я раньше тратил на гугл. разумеется я на пишу что-то очень сложное с её помощью, но какие-то мелкие задачи ей доверить можно.
Это здорово, что мелкие таски можно делать иногда. Хотя сейчас для этого сторонние ресурсы работают лучше. Кодинг это Phind.com, перевод - отдельный ресурс итд. Разве что саммарайзить главы, потому что локально контекста побольше можно вкинуть, либо rag.
Аноним 01/06/24 Суб 12:35:40 766354 435
>>766347
Там мозги нужны, для твоих запросов, лол.
Аноним 01/06/24 Суб 12:47:20 766358 436
>>766347
> Мне все же кажется нужен очень чистый от всякого низкокачественного содержимого датасет.
В целом да, если он будет достаточно обширен, хорошо оформлен, в том числе содержать не только художку но и длинные диалоги - файнтюн им даст нужный эффект.
> Причем не синтетический.
Ты зря боишься синтетики. Разумеется если просто бездумно кидать выдачу нейронки - будет хуйта. Но если использовать ллм и другие алгоритмы для переработки, оформления, оценки и т.п. с тщательно отлаженным процессом и контролем - все будет даже лучше чем на кожаных.
Аноним 01/06/24 Суб 12:55:52 766362 437
>>766344
> Реализуется проще специазированными решениями.
Никак оно не реализуется. Какую-то мелочь распознать ещё можно, но что-то практически значимое - нихуя.
Аноним 01/06/24 Суб 13:30:42 766386 438
2024-06-0115-29[...].png 15Кб, 305x154
305x154
Подскажите с чем связана ошибка? Кобальд после нее закрывается просто.
Аноним 01/06/24 Суб 15:35:32 766584 439
>>762583 (OP)
Посоветуйте что-нибудь под извращенную дрочку.
Аноним 01/06/24 Суб 15:40:29 766592 440
>>766584
Уточню, чтобы прямо в анус совала баба кулаки, и в уретру ебали
Аноним 01/06/24 Суб 18:22:17 766711 441
>>765716
Скудоумный ты наш.
Скрин не мой.
Реальная скорость 6-7.
Но ты продолжай, похую.

>>765759
>>765765
Интересно, сам с собой пиздит, или тут два скудоумных? :)

>>765790
Извини, я и сам уже было обрадовался. =(

>>765830
> то что локалки можно использовать для дрочки, ещё не значит что это их вообще единственной применение лол
Кмк, как раз для дрочки и корпов можно. А главное применение локалок — конфиденциальность кода и документов.
Ну, для дрочки, тащемта, тоже ради конфиденциальности.
Но всем похую, на самом деле.

>>765915
Пидоры, сэр.

>>766258
> Если совсем кодить не умеешь, нейронка за тебя его не напишет, а если умеешь кодить хорошо, то нейронка не нужна.
Ну, я смотрю, ты кодить не умеешь совсем, отсюда и выводы такие.
Нет, это работает не так.

>>766309
По второй части все верно сказал.

———

Пиздец, два дня без треда, а тут кроме хуйни почти ничего.
Я надеялся на тонну базы и интересной инфы.
Эх, грусть.
Аноним 01/06/24 Суб 18:28:07 766716 442
Бля, зашёл в тред, а тут дежурный бах от теслодауна...
Аноним 01/06/24 Суб 18:28:28 766717 443
>>766362
Покажи примеры что там значимого и не может. Первые ссылки из гугла вроде работают.
>>766584
>>766592
Claude 3. А вообще коммандир, эта сетка наудивление хорошо понимает некоторые вещи, а за счет того что ее не нужно ломать жб, искажая выдачу и нормального стиля - иногда даже коммерцию аутперформит. Офк такие случаи ограничены.
>>766711
> Реальная скорость 6-7.
А психологическая вообще 15! Пока единственный пруф - 1т/с на тесле с учетом обработки контекста. То что он медленно обрабатывается это известно, но чтобы настолько - печально.
Тащи другие если от фактов неприятно, заодно будет интересно взглянуть насколько скорости меняются с разным количеством некрокарточек.
Аноним 01/06/24 Суб 18:40:13 766725 444
Посоветуйте какую комбинацию фронта и бека оптимальней использовать под видюху 3060ти с 8 гигами, 32гб ОЗУ и проц 11th Gen Intel(R) Core(TM) i9-11900F @ 2.50GHz, 2496 МГц, ядер: 8

Стоит ли заморачиваться и генерить на видюхе или на проце будет тоже норм?
Аноним 01/06/24 Суб 18:42:59 766729 445
>>766725
Проц мусор у тебя, на гпу 8В можешь запускать.
Аноним 01/06/24 Суб 18:47:26 766732 446
>>766717
>Claude 3
Какой нахуй клод, если тред про локальные модели.
Аноним 01/06/24 Суб 18:53:50 766734 447
>>766729
под sillytavern какой бек тогда лучше использовать?
Аноним 01/06/24 Суб 18:55:03 766735 448
>>766725
Koboldcpp и sillytavern. Твои модельки это Llama-8B-instruct, solar, moistral (для кума). Для кодинга можешь на проце запускать командира, будет медленно работать, но там скорость менее критична.
Аноним 01/06/24 Суб 18:59:54 766739 449
>>766711
> Пиздец, два дня без треда, а тут кроме хуйни почти ничего.
> Я надеялся на тонну базы и интересной инфы.
> Эх, грусть.
Так ты сам тот ещё шитпостер, так что не тебе жаловаться.
Аноним 01/06/24 Суб 19:10:10 766753 450
>>766734
Любой, какой осилишь.
Аноним 01/06/24 Суб 19:13:56 766758 451
>>766732
Тому что у тебя жирные запросы, под которые только оно как раз. Хотя и там как не изгаляйся, может полезть странная цензура или просто тупняки особенно со 100+летними.
Аноним 01/06/24 Суб 19:26:00 766771 452
>>766592
>>766758
Возможно даже ллама справится. Moistral тоже попробуй, его же на каком-то датасете тренили. Как вариант можно попробовать нейросетке контекст докинуть с такой еблей, чтобы она понимала о чем речь, если из коробки не понимает. Понятно, что чем жирнее сетка, тем лучше.
Аноним 01/06/24 Суб 19:40:10 766796 453
>>766758
>>766771
Да командер р неплохой, посмотрел. llama80b пробовал, но там совсем хуево, командер р получше вроде бы. Подрочить в принципе можно, понятное дело, что нелокальные и закрытые еще круче, но там цензура ебаная, а тут нет.
Аноним 01/06/24 Суб 19:46:15 766801 454
>>766796
Коммандер заебись, он реально хорош, как для общих задач на обработку текста, так и для ерп.
Надо поборот лень и файнтюны 70б третьей ламы покрутить в ближайшие дни. Если что интересное будет - напишу тогда.
Аноним 01/06/24 Суб 20:07:14 766830 455
Аноним 01/06/24 Суб 20:19:06 766837 456
>>766830
Не знаю, может я что-то не понял, но 8б помоему лютейшее говно. 70б получше.
Аноним 01/06/24 Суб 20:36:51 766849 457
опять тесливый спесивец ищет кого бы зацепить...
Аноним 01/06/24 Суб 20:59:01 766871 458
>>766796
Ты имеешь в виду 104В командира?
Аноним 01/06/24 Суб 21:00:59 766876 459
>>766830
Отсюда и качай. Либо 6_К, либо 8_0.
Аноним 01/06/24 Суб 21:12:29 766887 460
>>766871
Не знаю, я нагуглил какой-то онлайн "plus" вроде.
Аноним 01/06/24 Суб 21:22:29 766890 461
image.png 93Кб, 1165x492
1165x492
image.png 93Кб, 1152x485
1152x485
image.png 92Кб, 1159x481
1159x481
>>766717
>с учетом обработки контекста
Я мимо шёл, и вообще пользуюсь "затычкой амудэ", если чтоinb4: семен, но глянул скрины по треду выше и позволю себе заметить, что ты ссылаешься на значение, почти лишённое смысла. Либо ты слишком тупой и не понимаешь смысла этого показателя, либо ты сознательно представляешь данные в выгодном тебе свете, чтобы обосновать свою позицию, но в обоих случаях ты формально неправ.

По отдельности скорости обработки промпта и генерации сравнивать можно, и для первого цифры выходят похожие (на cpu чуть быстрее), а второе на gpu в несколько раз быстрее. Равенство среднего показателя же вообще ничего не говорит, поскольку в одном случае обрабатывалось 8к токенов, а в другом - 2к, и генерация одинаковые 100 токенов. Ты буквально пытаешься сравнивать величины в разных единицах измерения.

Так вот, я даже продемонстрирую, как можно манипулировать этой цифрой, а заодно приведу другие примеры "скорости с учетом обработки контекста".
Возьму свой средний use-case, я лениво попукиваю в чат коротенькими сообщениями по ~50 токенов, нейросетка в ответ срёт где-то в среднем по ~350.
Скорости tesla отсюда: >>764718
Скорости cpu отсюда: >>764767
Итого на конфиге с теслами у меня бы вышло 7.7 Т/с "средней" скорости.
На cpu вышло бы 1.2 Т/с "средней" скорости.
Расчёты на пикрил 1.
Удивительно (нет), но при обычном чате "средняя" скорость приближается к скорости генерации. При обработке большого объёма информации (например, при суммаризации), наоборот, будет играть значительную роль именно этот самый объём входных данных, и, соответсвенно, скорость обработки промпта.
И варьироваться он на одном и том же устройстве может в широких пределах, если взять наиболее экстремальные случаи (1 токен промпта и 8191 токен генерации и наоборот), то получаются цифры на пикрилах 2 и 3. Для нейросетей, не умеющих читать изображения, дублирую текстом: 91 с/т и 7.8 т/с для теслы, 75 с/т и 1.2 т/с для cpu.
Надеюсь, этим я показал бессмысленность показателя "средней" скорости в сферическом вакууме без учёта сценария использования. А для сравнения производительности нужно хотя бы приравнять объёмы запроса и ответа.
Аноним 01/06/24 Суб 21:34:50 766898 462
>>766890
Ну ля, только начал пост, а сразу серишь оскорблениями, демонстрируя разорванную сраку.
> (на cpu чуть быстрее)
Ебать дожили, профессор обрабатывает контекст быстрее чем теслы. Сам то понял что тестируешь? Попытки оправдываться и представлять в удобном виде с обработкой одного токена и генерацией 8к особенно забавны, 1т/с все уже видели и этого не исправить. И теслашиз будет их видеть каждый раз как только кончится 8к окно, начинается новый чат, применяется rag/базы и т.п. ожидание первых токенов как на профессоре - не норма.
> Ты буквально пытаешься сравнивать величины в разных единицах измерения.
Кто ты? Я лишь рофлю с этой всей херни и насмехаюсь с убертормознутой обработки промта у теслашиза, а в срачах не участвую, неделю в тред не писал ранее.
То что при кэше контекста в обычном чате в начале это не будет заметно - это понятно, а про то что нормировка средней скорости генерации на сгенерированные токены может давать значительные флуктуации писал еще когда ты этого треда не видел.
> Надеюсь, этим я показал бессмысленность показателя "средней" скорости в сферическом вакууме без учёта сценария использования.
Нет не показал, 1 промт и 8к генерации не бывает. Кейсов с обработкой контекста много и факт невероятной тормознутости 3х тесел в этом должен быть известен, особенно когда всякие поехавшие начинают этим хвастаться и завлекать в болото.
Аноним 01/06/24 Суб 22:01:12 766912 463
>>766890
>>766898
Вот не надоело толочь воду в ступе с этими теслами?
Лично мое мнение - теслы ебаное гавно мамонта в хуй не нужное. Лучше на деньги, которые затрачены на теслы и обвес вплоть до бп вентилей и т.п. купить 3090 или 4090 ну как кто сможет. А разговоры о том что "для меня 22к не деньги" блять кроме смеха ничего не вызывают. Если такой Ротшильд диванный хули не купил 3090?

И вот блять без конца и края тычут эти теслы дряхлые что там 70б. Дак и по большому счету 70б тоже гавно по сравнению с клодом или гопотой. А посему лучше на 3090 крутить чего-то на 20-35б тоже гавно, чем ради 70б покупать кости динозавра и ждать там какого-то волшебства и победы над гопотой.

Ну приводят аргумент для секретности кумерства. Я конечно понимаю что хуй - двигатель прогресса но чтобы ради кумерства такой хуйней страдать чтобы теслы облизывать это уже какой-то диагноз.

Но это мое мнение а у теслаебов другое, ну я то свое сейчас обозначил, а они постоянно всем в морду свои теслы тычат. Да если так нравится ну оближите свои теслы прямо в системнике.
Аноним 01/06/24 Суб 22:10:44 766921 464
>>766912
> Дак и по большому счету 70б тоже гавно по сравнению с клодом или гопотой.
На самом деле нет. Может требования и восприятие поменялись, может впопены ее совсем поломали но гопота сейчас сильно проседает по качеству, а 4о - тупая. Да, все еще во многих сценариях будет предпочтительнее, но количество отмечаемых косяков пиздец растет, а большие локалки уже дают оче хороший экспириенс.
Нет ничего плохого в том чтобы купить второй карточкой P40 или даже их пару в отдельную машину, но нужно осознавать подводные камни. 3090/4090 будут лучше, но дороже. Зато они применимы вообще во всех-всех доступных нейронках что могут влезть в врам, а не только в ллм.
> чтобы теслы облизывать это уже какой-то диагноз
Дефолт специальной олимпиады же, проблема не в теслах а во владельце.
Аноним 01/06/24 Суб 22:11:42 766922 465
image.png 48Кб, 808x859
808x859
>>766735
>Koboldcpp и sillytavern
все установил, в кобольде выбрал такие настройки
сам Koboldcpp со мной общается

Но sillytavern когда загрузил персонажа при попытке отправки сообщения приходит ошибка:

No Horde model selected or the selected models are no longer available. Please choose another model
Аноним 01/06/24 Суб 22:20:29 766938 466
>>766898
>Сам то понял что тестируешь?
Это ты опять не понял, похоже. Я ничего не тестировал, я взял скорости из имеющихся тестов и провёл с ними вычисления для приведения в сопоставимый вид.
>Попытки оправдываться
Я привёл все данные, от и до, в равных условиях для cpu и теслы. Пытаешься манипулировать именно ты. Или не ты.
>в удобном виде с обработкой одного токена и генерацией 8к
>1 промт и 8к генерации не бывает
Это граничные значения, на деле скорость что на cpu, что на tesla может быть любой в вычисленном мной диапазоне, в зависимости от ситуации. Например, 3 или 5 Т/с на tesla, которые на cpu недостижимы ни при каких обстоятельствах.
>Я лишь рофлю
Ну в принципе оно и видно по уровню аргументации.
>Кек, 1 т/с, все видели, да?
>РРРЯЯЯ, манипуляции, 1 т/с, все же видели, да?
Ты можешь для любого желаемого размера промпта и генерируемого ответа вычислить точную скорость на tesla и на cpu, но это тебе невыгодно, ведь так ты сам признаешь, что обосрался. Только и остаётся повторять мантру, делая вид, что штаны сухие. В глазах любого здравомыслящего человека с трёхзначным iq и усвоенным школьным образованием это выглядит смешно.
>неделю в тред не писал ранее
Я на самом деле ещё вчера случайно обратил внимание на срач, но было поздновато, спать хотел и поленился влезать. А сегодня снова всплыло и решил-таки влезть, по идентичности аргументации подумал, что это ты продолжаешь гнуть свою линию. Ну если не ты там сопоставлял с процессором и делал из этого выводы, то можешь эту часть моего поста игнорировать и предоставить своему коллеге оправдываться за себя самому.
>невероятной тормознутости 3х тесел
Всё относительно. Я видел и похуже на своём gpu на 8ГБ. Для обычного чатика с моими скоростями некомфортно, но для каких-то сложных запросов иногда 70B использую. А тут для 70B скорости очень даже ничего, у меня на 11B и то ниже, и при этом мне вполне нормально с ней чатиться. Стоит ли это 3 по 20к рублей - уже другой вопрос, тут мы опять возвращаемся к сравнению комплектующих. По сравнению с cpu выигрыш есть, как уже выяснили, так что наличие одной или нескольких тесл не равно её/их отсутствию. Из gpu за эти деньги из новых есть альтернатива в виде 4060 ti на 16 ГБ (чуть дешевле) или 2 arc 770/rx 7600 на 16 ГБ (чуть дороже). Из б/у может быть где-то удастся найти 3090 на 24 ГБ (чуть дороже). Будет ли там быстрее, или так же, или медленнее? Ну несите тесты в студию. Уж возможность проверить вариант с 3090 точно у многих в этом треде есть, судя по частоте выеб упоминаний.
Если есть деньги на покупку даже одной 4090, то тут уже надо сравнивать с 7+ теслами, а столько никто в здравом уме покупать не будет. Разве что под несколько ИИ-ферм под несколько параллельных задач, но это очень уж специфичный кейс.
Аноним 01/06/24 Суб 22:35:08 766943 467
>>766938
Здесь люди гораздо умнее тебя сидят, примитивное разжевывание и объяснение этого выглядит убого, все и так понятно.
На кой хер полотна которые никто читать не будет пишешь? Уверовал и решил скосплеить (амудэ/интело)шизов из срачей по железу которое они желают купить(!) или тем хуже уже купили и оправдываются - земля пухом.
> что это ты продолжаешь гнуть свою линию
Лечись, пей таблетки, ложись в клинику и проходи интенсивный курс. Ты уже буквально видишь вымышленные сущности и пытаешься с ними спорить. Или тебя стебут подыгрывая
> то тут уже надо сравнивать с 7+ теслами
7 умножить на 0 всеравно будет 0, для них нет кейса применимости.
> Будет ли там быстрее, или так же, или медленнее? Ну несите тесты в студию.
Пару тредов назад были, граза разуй. В жоре обработка промта в районе 300-350т/с что всеравно оче медленно, но не так больно, вместо 1т/с будет 5-7. На нормальных картах можно забыть про тормознутого жору и ггуфопроблемы, наслаждаясь экслламой со скоростью эвала ближе тысяче т/с и отсутствием замедлений генерации на контексте.
> несколько ИИ-ферм под несколько параллельных задач, но это очень уж специфичный кейс
Более реальный чем куча тесел.
Аноним 01/06/24 Суб 22:39:26 766945 468
>>766912
>не надоело
Мне не надоело, я только начал. На сами теслы мне плевать, я вообще б/у видеокарты для себя не рассматриваю. Доебался именно до аргументации уровня "пук", причём, регулярно повторяемой.
>>764732
>>764767
>>764855
>>764960
>>764980
>>765256
>>765033
>>765716
>>765730
>>765759
Вот и оправдывайся (йтесь?), или признавай(те?) обосрамс, или троллинг тупостью, или что это было.
Аноним 01/06/24 Суб 22:44:01 766953 469
>>766922
выбери в таверне Text Completion > KoboldCpp у указывай адрес:порт кобольда. если и так не работает, проверь доступен ли порт и не висят ли кобольд и таверна на одном порте.
Аноним 01/06/24 Суб 22:44:27 766954 470
>>766943
> В жоре обработка промта в районе 300-350т/с
Как-то мало. На 4090 в Жоре промпт на 70В считается в 2000+ т/с. На EXL2 в два раза быстрее.
Аноним 01/06/24 Суб 22:55:35 766963 471
>>766945
Не знаю кто тебе все это писал но вот что я не понял нихуя
>я вообще б/у видеокарты для себя не рассматриваю.
Дак а зачем же ты их тогда купил?! Теслы они и есть б/у! Абсурд какой-то
Аноним 01/06/24 Суб 22:59:17 766965 472
>>766945
> троллинг тупостью
Однажды увидел слово и начал его повторять, мдэ.
> На сами теслы мне плевать
Обоссы одну на видео с супом нет офк, так нельзя, железка вполне юзабельна и достойна уважения
>>766954
Да хуй знает это запуск с теми странными параметрами что предлагалось что должны ускорять, или может в профессор упирается. Плюс на жоре был эффект что скорость обработки значительно замеляется с ростом самого контекста, в начале быстро а потом пиздец и первых токенов заебет ждать на приличном железе если решил бахнуть, например, 32к.
Но 2к+ т/с для пары карточек это слишком много, что там у тебя за конфиг, поделись.
Аноним 01/06/24 Суб 23:16:42 766971 473
>>766943
>На кой хер полотна которые никто читать не будет пишешь?
Для собственного развлечения в первую очередь. Пока читают.
>видишь вымышленные сущности и пытаешься с ними спорить
Я вижу повторяющуюся однотипную аргументацию и предполагаю, что выдаёт её один и тот же человек (или нейросеть). Вот пусть и оправдывается, тебе я предложил игнорировать, если тебя не касается и ты эту позицию не разделяешь.
>На нормальных картах
Сколько нормальных видеокарт (речь же про 4090?) можно купить на 60к? Линк на магазин?

>>766963
Нейросеть, плез. Расширяй окно контекста.
>>766890
>Я мимо шёл, и вообще пользуюсь "затычкой амудэ", если что
Аноним 01/06/24 Суб 23:17:22 766972 474
image.png 14Кб, 755x150
755x150
>>766890
>запостил эксель таблицу и и считает что запруфал что-то

Ты бенчмарки пости, таблицы я тоже умею делать - смотри
Аноним 01/06/24 Суб 23:25:13 766978 475
>>766965
>Обоссы одну на видео с супом
Можешь прислать или профинансировать мне заказ с алика, тогда без проблем выполню. Хотя затруднительно это сделать, не спалив личные данные, я кроме крипты вариантов не вижу, да и с ней всё не особо надёжно, т.к. опыта работы с ней у меня нет и вообще заморачиваться не охота. Но ты же всё равно мне ничего не пришлёшь, даже будь такая возможность, так что похуй.
Аноним 01/06/24 Суб 23:28:43 766980 476
>>766971
> вижу повторяющуюся однотипную аргументацию и предполагаю, что выдаёт её один и тот же человек
Иногда самый простой вариант является верным и не нужно искать глубинного смысла в очевидном.
> Сколько нормальных видеокарт (речь же про 4090?) можно купить на 60к?
Одну на лохито. Ну рили и после таких вопросов ты
> >Я мимо шёл, и вообще пользуюсь "затычкой амудэ", если что
и запомненные словосочетания 1 в 1 как у теслашиза. Тебя раскрыли, капитулируйся.
>>766972
В голос с пика, ну ты содомит.

Рили почему никто не ахуевает с того что процессор обрабатывает контекст быстрее чем теслы?
Аноним 01/06/24 Суб 23:28:47 766981 477
>>766972
Троллинг тупостью продолжается. Ну по крайней мере эта нейросеть умеет распознавать, что изображено на скриншотах (в общих чертах, сам текст читать с них, похоже, не умеет).
Аноним 01/06/24 Суб 23:33:17 766985 478
>>766945

В чем оправдываться? Понятно что без контекста там действительно общая скорость будет примерно около скорости генерации, но при его заполнении будет очень быстро происходить пиздец. То что при 8к контекста (довольно небольшой размер, в ерп контекст спокойно и за 50к улетает) скорость уже падает до 1 т/с, то по скоростям >>765730 легко высчитывается что там уже на 2к контекста скорость всего 3 т/c, на 4к - скорость 1.8 т/c, при этом с увеличение выше 8к жопа будет вырастать - на 16к там будет 0.5 т/c, на 32к будет 0.25 т/c и т.д.
Напомню что минимально доупстимой является скорость 5 т/с.
Аноним 01/06/24 Суб 23:39:46 766994 479
>>766725
> Посоветуйте какую комбинацию фронта и бека оптимальней использовать под [железо]
Фронт - очевидная таверна и ее форки, ибо больше ничего по сути и нет. Бек любой, вообще. Все беки это по сути гуи поверх одних и тех же llama.cpp и exllama, различий по производительности скорее всего ее будет, разве что если одно обновляется раньше другого и соответственно туда попадают более новые llama.cpp/exllama. Можешь вообще чистые llama.cpp и exllama запускать, если консольки не боишься. Лучший бек с гуем на данный момент - text-generation-webui, он же oobabooga/убабуга.
> Стоит ли заморачиваться и генерить на видюхе или на проце будет тоже норм?
На видюхе у тебя максимум пойдут 7-11b, и то с небольшим контекстом, но зато генерация будет очень быстрой. На проце + видюхе скорость будет зависеть в первую очередь от скорости ОЗУ. Тебе с твоим железом надо запускать в нейронки в оперативе (на проце), а на видюху скидывать максимальное количество слоев (но не слишком много, чтобы видеопамять не начала свопаться в оперативку) и обработку контекста, чтобы генерация была быстрее.
Аноним 01/06/24 Суб 23:40:23 766995 480
Аноним 01/06/24 Суб 23:44:08 766998 481
>>766985
>легко высчитывается что там уже на 2к контекста скорость всего 3 т/c, на 4к - скорость 1.8 т/c

Подозреваю именно поэтому больше мы и не увидели ни одного нормального бенчмарка с 2к и 4к контекста, только охуенные эксель таблицы >>766890 где теслаеб взял 2 удобных для себя кейса с минимальным промптом, а третьей картинкой только подтвердил полученный ранее 1 токен в секунду.
Аноним 01/06/24 Суб 23:50:42 767000 482
>>766980
>Одну
И какой эксллама-квант 70B туда влезет, чтобы считать с нормальной скоростью? 2bpw? Там же мозгов не остаётся. Или про жору забыть всё-таки не придётся?

>>766985
>В чем оправдываться
В том, что ты на cpu получишь "то же самое", поэтому теслу нет смысла покупать совсем. В том, что ты сравниваешь несопоставимые величины.
>50к
И оно, конечно же, не кэшируется, а пересчитывается каждый раз по-новой, да?
>скорость уже падает до 1 т/с
Ну это если ты 100 токенов генерируешь, а потом сам заливаешь сетке на 8к. А по факту у тебя сколько-то считается контекст (в р-не 10 секунд на 1000 токенов что на cpu, что на тесле, что вполне приемлемо, на мой взгляд), а потом уже можно читать в реальном времени на тесле, а на cpu только ждать почти полного завершения генерации.
Аноним 02/06/24 Вск 00:01:56 767006 483
>>767000
>В том, что ты на cpu получишь "то же самое"

Это был рофл, понятно что в реале то же самое получится не на чистом цпу, он все же медленноват, а на цпу вместе с обычной видеокартой которая есть у каждого.

>поэтому теслу нет смысла покупать совсем.

Действительно не имеет, с такой скоростью обработки промпта которая ниже чем у цпу.

>И оно, конечно же, не кэшируется, а пересчитывается каждый раз по-новой, да?

В ерп на нескольких персонажей или с динамическим лорбуком - да, таверна изменяет контекст каждый запуск и он просчитывается с нуля.

>в р-не 10 секунд на 1000 токенов что на cpu, что на тесле, что вполне приемлемо

Это не "приемлимо", это пиздец.
Аноним 02/06/24 Вск 00:32:08 767041 484
Aya2k.gif 37Кб, 1348x766
1348x766
>>766898
>И теслашиз будет их видеть каждый раз как только кончится 8к окно, начинается новый чат, применяется rag/базы и т.п. ожидание первых токенов как на профессоре - не норма.
Не, ты погоди. На 4090 ты можешь увидеть 35t/s, но где? В Aya_35В_4XS с 2к контекста. Ну вот тебе Aya_35B_8_0 c 2к контекста. Крути новый чат, раг/базы и всё, что хочешь. Можешь загрузить 4XS и крутить ещё быстрее. А здесь люди вообще-то 70В в хорошем кванте хотят. И могут.
Аноним 02/06/24 Вск 00:36:23 767044 485
>>767000
> И какой эксллама-квант 70B туда влезет
Да никакой, вторая нужна.
>>767041
> На 4090
> kobold
Обзмеился
Аноним 02/06/24 Вск 00:42:15 767053 486
>>767006
>с обычной видеокартой которая есть у каждого
Так, пошли новые манёвры. Да-да, у каждого замкадыша есть приусадебное хозяйство и обычная 3090 для быстрого расчёта промпта в помощь к топовому cpu, способному и самостоятельно обрабатывать контекст на уровне паскалей. У меня почему-то 63 мс/т, ну да ладно, у меня же не видеокарта, а затычка для pci-e порта. Тем временем челики с 1 3090/4090:
https://github.com/LostRuins/koboldcpp/issues/458#issue-1920946856
>21ms/T to 23ms/T
>xwin-lm-70b-v0.1.Q3_K_M.gguf --usecublas --gpulayers 48 --stream --contextsize 4096
https://github.com/LostRuins/koboldcpp/issues/455#issuecomment-1751869107
>70B @ Q4_0 (40/80 layers on GPU): Processing: 21ms/T, Generation: 594ms/T, Total: 1.2T/s
Видимо, потери на пересылку между cpu и gpu существенны. И с осени могли уже что-то наоптимизировать, может, сейчас и получше (несите бенчмарки! мне меньше искать чужие данные сомнительной релевантности и вам лишний повод повыебываться, win-win).
Аноним 02/06/24 Вск 00:46:55 767056 487
>>767044
Тесты 4090-шиза были на кобольде, так что всё честно.
Аноним 02/06/24 Вск 00:47:56 767059 488
>>767056
> 4090-шиза
Ебать ору, видать крепко теслашизику на хвост наступили что так рвет.
Аноним 02/06/24 Вск 00:52:11 767062 489
>>767059
Да я смотрю больше двух тесл у анонов анус шизов не выдерживает. Две ещё терпимо, а третья уже больно. Надо четвёртую покупать, чтобы уж наверняка.
Аноним 02/06/24 Вск 00:53:26 767065 490
>>767062
> Надо четвёртую покупать, чтобы уж наверняка.
Правильно, чтобы 40т/с и 0.5 итоговых.
Аноним 02/06/24 Вск 02:59:54 767173 491
>>766309
>вместо того что бы искать поисковую выдачу гугла в первых трех страницах и 50 ебанных сео блогах. где вместо контента сео текст хуйни и мочи
Так нейронки как раз на этих высерах и обучаются.
>>766354
База.
>>767053
>У меня почему-то 63 мс/т
У меня 3080Ti, по сути со скоростями 3090, и что дальше? Ситуации конечно разные, но любая RTX ебёт в обработке промта любой проц и теслу вместе взятые.
Аноним 02/06/24 Вск 03:08:08 767177 492
>>766994
>>766953
>>766735

Спасибо большое, аноны!
Все запустил, работает, персонажей скачал, роли отыгрывают. Даж по сети расшарил чтобы с телефона общаться
Аноним 02/06/24 Вск 03:29:22 767186 493
image.png 195Кб, 929x428
929x428
>>767177
Алсо что за херню начал выдавать бот? Сначала общался норм потом понесло. В чем проблема? В персонаже или модели?
Аноним 02/06/24 Вск 03:33:04 767189 494
>>767186
Проверь размеры контекста в таверне и кобольде, где-то не совпадение. Плюс слишком много не стоит выставлять, но про это в вики инфа есть.
Аноним 02/06/24 Вск 04:05:19 767213 495
image.png 38Кб, 933x115
933x115
>>767189
Спасибо!
А еще можешь подсказать куда нажать чтобы бот дописал предыдущее сообщение, а не начинал новое не закончив?

В janitorai есть кнопка продолжения повествования. В интерфейсе таверны не нашел
Аноним 02/06/24 Вск 04:25:22 767215 496
изображение.png 27Кб, 382x427
382x427
>>767213
>В интерфейсе таверны не нашел
По трём полоскам. В настройках можно вынести в отдельную кнопку, если часто пользуешься.
Аноним 02/06/24 Вск 04:32:07 767216 497
image.png 39Кб, 535x169
535x169
>>767215
спасибо!
а что еще за выбор в диалогах? где это отключить?
Немного ломает отыгрыш
Аноним 02/06/24 Вск 04:34:28 767217 498
>>767216
Это в карточке смотри, походу там прописано. В самой таверне по дефолту ничего такого нет.
ПЕРЕКАТ Аноним 02/06/24 Вск 04:38:30 767219 499
Настройки X
Ответить в тред X
15000
Добавить файл/ctrl-v
Стикеры X
Избранное / Топ тредов