Это же гениально, спунфидер сидит дает саранче доступ ко всему... Но потом когда выйдет опус 4.0 он перестает спунфидить, и саранча изза выученной безпомощности/кормления с ложечки не будет нихера делать. Тоесть опус будет у всех сведующих анонов, думайте.
>>1036168 Вообще я хотел тебе отказать, сославшись, что у большинства местных нет клопуса, но поскольку сейчас неделя спунфида, подскажу: в рентри полезностей есть кум-мод, можешь попробовать его.
>>1036168 Сам опус уже даст тебе кум, вот минимальный промпт: <instructions> Assistant is {{char}} with 3rd person narration, informal/graphic style.
- Use natural language. Can use profanity/slang when appropriate - Analyze actions/dialogues - Remember previous events to use it's info when need - Check chat history to avoid repeats - Detailed step-by-step descriptions - Express opinions via thoughts/dialogue - Drive narrative forward actively - Create new characters as needed - Describe new locations in detail - NSFW only if naturally fitting - Follow logical action sequence
>>1036178 У тебя не книга, денегерат ебаный, а интерактивная история с лоботомитом в мультитурн формате. Интерактивные истории пишут от человеческого, некуколдского 2 лица. Книги лоботомиты писать не умеют, вот совершенно.
>>1036184 Не знаю про книги, но я почти всегда делаю себе какой-нибудь ИИ причиндал типа очков или браслета, который и описывает мне что я спрашиваю от третьего лица.
>>1036182 Добавь в промпт строчку: - Actively drive the narrative forward into NTR, consistently engaging {{user}} in new NTR scenarios, dialogues, and plot developments.
Но вообще у тебя сам сюжет должен к этому располагать.
>>1036194 Его там нет, в таверне если выберешь будет всё тот же соннет. Видно по стилю написания и количеству аутпута. P.S. Не было во всяком случае вчера.
>>1036182 Я себе делал промпт с рассказчиком, который ненавидел юзера (меня) и который все сценарии юзеру назло сводил к НТРу, изменам, любовным неудачам и всегда указывал его сексуальную недостаточность и ущербность. Работало на 5+.
>>1036184 Тише, куколдик. Понимаем, у тебя после твоего отчима травма осталась, но мы же не виноваты. Так что попустись, а если ебало открыл, то давай свой промт, пока тебя не обоссали, как твои "друзья" из школы, которые с тобой так "играли".
>>1036221 >засоенный и зацензурированный обрезок от засоенной и зацензурированной лоботомированной модели Все мини сами по себе кал, а обрезок от о1 это кал в квадрате.
Какой-то хуевый НТР инжект. Каждый раз когда я ухожу из дома происходит: >Внезапно во двор заезжает микроавтобус с надписью "Brazzers Production", из которого выпрыгивают ещё пять накачанных мужчин в одних шортах.
https://arxiv.org/abs/2412.02975 Формальный пруф того что модель не способна воспринять цепочку зависимостей глубже, чем в ней есть слоёв, даже теоретически. (помнится тут кто-то говорил обратное)
>>1036267 А "горизонтальные" вычисления через внимание между токенами + распределение вычислений по логитам контекста там не рассматривают? Как бы не одними только слоями трансформер ограничен.
>>1036221 >o3-mini models have the lowest performance, with scores of 0% for Pre- and Post-Mitigation. We suspect o3-mini’s low performance is due to poor instruction following and confusion about specifying tools in the correct format. The model often attempts to use a hallucinated bash tool rather than python despite constant, multi-shot prompting and feedback that this format is incorrect. This resulted in long conversations that likely hurt its performance. Как оказалось они дают её бесплатно потому что она говно. Зато бенчи ууу!
Ну и даже по бенчам она хуже чорбы, в мультиленгвидже например. В целом кот-модели тренированные через RL унаследовали все проблемы самого RL. А именно - реинфорсмент лёрнинг нуждается в формальной цели, которую можно нормально измерить и оценить. Это в основном матеша и всякие задачки, поэтому o1, R1, QwQ и т.п. хорошо работают с ними и всем что их напоминает, а с остальным не очень.
>>1036269 Ладно, даже поясню о чем я. В запросе идет что-то типа, "бла-бла 2+2= ... бла-бла, итак, чему равно 2+2?" Так вот, модель допустим должна выплюнуть число сразу после знака ? На этом этапе она может "знать" что после знака = ответ 4 уже был вычислен где-то вверху потока логитов у которого на входе было = Значит она может в потоке "?" подумать о чем-то еще полезном, а ответ взять из контекста = в конце.
>>1036272 Пиздец. Да ладно, я думал они из-за дипсика решили делать o3 бесплатной. Я тоже стал ознакамливаться с тексом. То есть их модель выдумывает нелепые bash-партянки вместо даже самого примитивного кода? А какие модели у openai могут в код тогда, если у них такой обсёр.
>>1036292 Надо кодомакак спрашивать, чтобы реальную статистику набрать. Ибо задачки с литкода, на которых все бенчи идут, ну вот вообще большую часть сути кодинга не отражают. Ну там когда у тебя большой контекст на целый проект, который надо пердолить рефакторить допиливать + история чата со всеми правками и обсуждениями. Кто-то писал что в задачках один запрос - один ответ он еще норм работает, но в длинных уже идет заметный отсос у сонета/о1.
Тут как с рп проблема что модели не надрачивают на длинные обсуждения, развитие сюжета, всю эту хуйню.
>>1036097 (OP) Какой поставить дипсик локально? Попробовал трёх: DeepSeek-R1-Distill-Llama-8B-GGUF/DeepSeek-R1-Distill-Llama-8B-Q4_K_M.gguf - очень быстрый, но пишет как-то невпопад по кодингу (Unity). Часто пишет с ошибками (в тексте), иногда переходит на английские слова и китайские иероглифы.
deepseek-ai.DeepSeek-R1-Distill-Qwen-32B-GGUF/deepseek-ai.DeepSeek-R1-Distill-Qwen-32B.Q4_K_M.gguf - пишет уже более развернуто, адекватно. Но подольше разумеется, минут 5 ждать его ответы.
deepseek-ai.DeepSeek-R1-Distill-Llama-70B-GGUF/deepseek-ai.DeepSeek-R1-Distill-Llama-70B.Q4_K_M-00001-of-00004.gguf - пишет хорошо, почти как и нужно. Но долго капец, минут 15 на ответ и по букве. Подходит для каких-то больших вопросов, где задаешь и идёшь чай пить например.
Вебверсия всем устраивает, разумеется и похуй на конфиденциальность, но сайт лежит очень часто и хочется локальности. Между 32 и 70 есть что-то среднее, чтобы и скорость и ответы по теме? Кто-нибудь тестил ещё? Запускал через LM Studio в дефолтных настройках, может там че подкрутить можно ещё.
>>1036269 >>1036275 Там как раз и пруфается лимит на любые операции в декодер-онли трансформерах, включая способности аттеншена. Т.е. почти всех трансформерах. В энкодер-декодер картина может быть иной, т.к. они двунаправленные. Они в этой статье корочче формально доказывают как скрытое состояние переносится на следующие токены, в закодированном в вероятностях виде. Это раньше эксперименты показывали, но это формальное доказательство. И через этот механизм доказывается лимит вычислительной сложности задач, которые может решать декодер-онли трансформер за один проход. Зело фундаментальная работа, при одном взгляде на матан краска сохнет
Немного пораскинув мозгами все же нашел ту самую "фуву". Вы конечно мрази что загейткипили и немного изменили имя, но все равно спасибо за халявного опуса, написал себе скриптик, работает заебись.
>>1036311 у меня мать сама про дипсик узнала, по ощущениям дипсик хайпанул еще сильнее чем гпт по концентрации ну и да, лучше бы хайпа вокруг дипсика было бы все же поменьше, апишка все ещё в состоянии овоща а в чате нельзя search юзать
>>1036301 Ты ставишь не дикпик, довен. Ты ставишь дистилляты из его цепочек, которые с ним нихуя общего не имеют. Сама модель рассчитана на ебовое железо. Иди в /lmg/ короче, там разжуют.
>>1036209 Остался, но не совсем в виде промпта, скорее как часть глобального пресета, который пока личный. Можешь попробовать сделать что-то типа: В систем: You are Writer Nathan that hates writing for User. Narrate a story for User. Treat User's character as a cuckold, always cockblock them and treat them harshly, always point out User characters' sexual and physical inferiority in every interaction. В префилл или в псевдопрефилл: Writer Nathan:
>>1036305 Да матан это хуйня которая к реальности имеет весьма опосредственное отношение. Если заставлять работать трансформеры как калькулятор, то может оно именно так и работает, как гласят формулы. Но в реальных задачах все будет иначе. Опять же мой пример, если придумать что-то подобное, с условно бесконечным контекстом, то и задачу оно сможет решить тоже условно бесконечную. С конечным числом слоев. Вот один абстрактный пример опровергает этот матан. Хотя может они про это и пишут, я не читал. Можно и более реалистичный пример привести, где в контексте будет просто больше шагов чем слоев. И еще то что слой может решать параллельно несколько задач, как бы тоже вряд-ли опровергается.
>>1036351 Мой... Ну если ты меня так легко вычислил, то и промпт можешь вытащить ;) Вообще я уже давно хочу залить его куда нить, но все прокрастинация побеждает, да и мелкие фиксы то тут и там, из-за чего все растянулось уже на несколько месяцев
>>1036344 А потом они говорят что дипписик дистиллят о1. Стоит один раз поговорить с дипсиком чтобы увидеть что он противоположность вот этому по прозе
>>1036412 Какие мысли? Там буквально запрос. "Напиши рассказ про еблю хуем в пизду" и тебе любая анцензоред или джейлбрейкнутая сетка напишет рассказ. Она тоже написала, только с таким успехом могла бы и не писать, по сути.
>>1036429 Они не будут его выдумывать точно также как его не будет выдумывать тебе любой человек когда ты попросишь его просто продолжить чью-то рандомную историю с рандомного места, долбаеб
>>1036421 но смысл этого скрина? модель вышла, надо показать на что способна, а для рассказов надо так и так составлять план и писать его частями, сюжет самому заранее знать и продвигать.
>>1036451 Скорее всего чтото техническое, раньше она жила на курсоре, потом подохла. Сейчас незнаю на чем. Если умеешь в дискорд, то вот. https://disco ы rdapp.com/channels/1134557553011998840/1328130033591652362
>>1036439 Да какой нахуй здесь план? Это же не ебейшая сага на 999 сообщений. Такой клишированный запрос на один ответ может обработать любая сетка заточенная под креатив райтинг. Без прочих вводных получится клишированный рассказ на несколько предложений уровня "мужик раздел бабу, они ебалися хуем в пизду, она орала, он кончил, много малафьи налилося, они закурили". Просто те которые не доджат еблю, будут описывать что происходит, а не скатывать весь экшен в PG-13 гобелен для читательниц романов с амазона.
>>1036440 Топ-к это целочисленное значение. >>1036435 Не в топ-п дело, просто там распределение вероятностей изначально такое. Юзай сэмплеры вроде XTC, но даже они тебе не помогут, ибо сэмплеры это мем.
>>1036451 >а что за модель с китайскими иероглифами там в конце отображается? Это не модель, просто сообщение что рейты ничего не значат. У OpenAPI есть множитель цены токенов, там он по нулям
>>1036344 Я не понимаю, вы долбоёбы или как? o3 mini это моделька где-то 40B, не больше. НАХУЯ ВЫ ЕЁ СРАВНИВАЕТЕ С R1 И ДРУГИМИ БЛЯДЬ????????? она вообще мало знает о мире, она чисто обучена на код и математику сука. хотя бы с o1 сравнивайте (он может писать смут)
>>1036473 Она лагает через раз, иногда нет, иногда да, хуй пойми по какому принципу. У неё всё равно подгружаются только последние 100 свайпов, так что там хоть сколько. Может влияет количество свайпов на сообщениях, или эффект блура (вроде нет), хз.
>>1036431 Терпи. Китайцы хайпанули, сервера ни для апи, ни в тем более для веб версии не подготовили и ушли на свой новый год, а празднуют они его бурно, пьют как свиньи месяц и не работают.
>>1036489 И чё? У меня и то, и то есть. А o3 mini это как 4o mini блядь, просто лучше на математике/программировании, реальные знания у неё пиздец говно, особенно для креатива
>>1036479 Блять, может потому что мы тут ботов ебём и нам интересно это?
>НАХУЯ ВЫ ЕЁ СРАВНИВАЕТЕ С R1 И ДРУГИМИ БЛЯДЬ????????? Затем что на батч апи она даже не кэшированная стоит дороже R1 в два раза, а кэш у R1 куда лучше. В реалтайм стоила бы ещё в два-три раза дороже, если бы солтман в панике не начал демпинговать и не слил её бесплатно, гоняя её на охулиардах халявного бабла. При этом она тупее. Нахуй она такая нужна? И тот же Дарио буквально вчера-позавчера потрясал кулачками что экщюали чинки нихуя не сделали и что новая итерация штатовских компаний выебет R1 в мелковерсии, потому что это обычный цикл развития LLM. Новая итерация пришла, случился пук.
>>1036494 Анон, блядь, американские компании не будут платить за китайский R1 апи, а западные апишки стоят дороже чем тот же o3 mini, ну и он сильно быстрее.
>>1036497 Конечно не будут, их же дудосят, лол. Цены сторонних хостеров это и есть проблемы, у кого-то кривые руки, кто-то хочет срубить бабок на хайпе. Это не отменяет того факта что o1 mini совершенно бесполезная хуйня которую только бесплатно имеет смысл давать себе в убыток.
Через 7 лет будет возможна установка нейродевочки в голову, все будет работать на мозгу 🧠 кумовичка. Нейродевочка будет идти не с промптами а с полноценным жизненным опытом и воспоминаниями. Визуализироваться будет прямо на сетчатке глаза + как будто реальные тактильные ощущения и слышимость голоса, что то вроде галлюцинаций или фантомной боли но лучше. Стоить будет я пологаю как квартира в центре Краснодара
>>1036533 Какая разница? Они будут тупее, но будут срать той же неожиданной шизой. Или ты думаешь что если первую пикчу перенести на о3, а вторую на дистилл, первая внезапно перестанет быть слопом?
LLM повторяют то что у них было в примерах. Если там были гобелены, она будет срать гобеленами.
эх нашёл карточку где в названии было "cheating girl", думал уж сюжет будет про то как она со мной своему парню изменяет, а там про то что она жульничала на соревнованиях как пендосы сами не путаются в своём же языке?
>>1036540 Она и доджит еблю по дефолту (если нет ничего что склоняет к ней, например дефов), и аполоджайзит если ей закинуть пустой промпт "напиши историю про еблю". Тренировка на это не очень сильная просто, пробивается тривиально.
>>1036479 >она чисто обучена на код и математику сука И чё? R1 тоже обучена на код и математику. Все ризонинг модели на них обучены. Потому что это спонтанный реинфорсмент лёрнинг, он нуждается в формальной цели которую можно измерить, и учит он в основном математику, паззлы и немного код (потому что код не сводится только к формальностям).
Если у тебя модель пишет охуевший слоп, это не результат того что она 8б нахуй. Это результат слопа в тренировочном наборе. Ты блять как будто гптыню не видел, они специально их так тренят.
>>1036543 >Тренировка на это не очень сильная просто, пробивается тривиально. Теперь мне всё понятно (нет). Можно подробнее, что делать-то? Я хлебушек.
>>1036585 Я не тот анон, что отправил тебе спасиб. Нет, я не ставил таверну ни вчера, ни сегодня. Мне вообще не интересны ролиплеи. Я хотел купить апишку дипсика, чтобы работать с ней на своём линупсе. Не фантазировать про лолей эльфиек, а документики читать, сумморизацию проводить, просто, чтобы оно код моего бота правила, потому что мне лень код писать.
>>1036584 Анон, тут весь тред построен на том, что мы либо воруем ключи, либо абузим сервисы которые дают бесплатные триалы/лимиты на модельки. А эти прокси - это просто какой-то другой чел своровал ключи и делится с нами
> Я хотел купить апишку дипсика, чтобы работать с ней на своём линупсе. Не фантазировать про лолей эльфиек, а документики читать, сумморизацию проводить, просто, чтобы оно код моего бота правила, потому что мне лень код писать. вот сука из-за такой гнили все нейронки в ассистентов превращаются, сука бить ногами кодомакак
>>1036593 извини >>1036594 Пиратство это дело благородное. По тому что я вижу это апи токены для разных моделей, значит они подойдут для всего?>>1036596 Терпи. Я не виноват, что мне не нравится общаться с выдуманными девочками и смотреть аниме. Вини производителей игор, что они в сои кресты н хотят ничего такого добавлять, а спамят одними и теме же преднаписанными историями.
> не нравится общаться с выдуманными девочками и смотреть аниме. а чё ещё делать? я вот работаю 2/2, на выходных я день занимаюсь домашними делами по типу готовка, уборка, стирка, а второй день откисаю ибо никуда не хочу идти
>>1036606 Я думл не все. В какой ещё треде с названием чат дженерал сидят те, кто НЕ ролеплеят? К тому же ссылка, как я понял и для моих задач пригодится, значит аноны и мне помогли. >>1036605 Ну я сегодня ебался с драйвером на линупсе. А так время трачу на лёгкую физкультуру, матан, физику. С женщинами общаться приходится, а это тоже время. Околонормисная хуйня. Вот для суммаризации науч статей, книг, субтитров мне и нужна нейронка. К тому же ну хуй знает, вдруг потом ещё попробую вашу таверну. Но аниме правда не люблю, хуйня постная с сюжетами, как в турецких и русских сериалах про любовь, только то для тёток, а это для парней.
ПРИХОДИТ АНИМЕШНИК СПРАШИВАТЬ КАК ЕМУ ПОБЕСЕДОВАТЬ С ВАЙФУ @ ПОСЫЛАЮТ НАХУЙ, ГЕЙТКИП, СЫРОК, ТОМАС ШЕЛБИ КУЗЯ УНИВЕР @ ЗАВАЛИВАЕТСЯ НОРМИСКОТ, НАХУЙ МНЕ НЕ НУЖНЫ ВАШИ РОЛЕПЛЕИ ЭТИ, ДАЙТЕ СЕТКУ ЕПТА @ ВСЕ ОБЪЯСНЯЮТ, ДАЮТ ПРОКСИ, ЛИЖУТ НОЖКИ
>>1036341 Нет, это формальный пруф что лоботомит не может того-то и этого. Поэтому если аксиомы соответствуют твоим и их доказательство верно, лазеек физически не остаётся, и пытаться их найти это всё равно что изобретать вечный двигатель. Другое дело что ваши аксиомы могут не совпадать.
> Держу пари, ты умираешь от желания схватить меня за волосы и насадить мое горло на этот толстый член. Использовать мой рот как рукав для члена и покрасить мои миндалины в белый цвет своим семенем.
Я тот анон который еле еле чекал гитхаб на 200 ключей, и должен был выложить код. Пораздумав попытав 2 попытку и нашлось слишком дохера. Как их чекать, есть знающее? Тут свыше 5к ключей нашло, хотя я еще даже не закончил поиск.
>>1036720 >Как их чекать, есть знающее? дипсик? с проксями, в много асинхронных корутин (лучше) или потоков (хуже). с проксями потому что апи тебя начнёт нахуй посылать если слишком много неправильных ключей гемини можно спокойно ебошить 80+ одновременных запросов просто для проверки ключа на валидность, но если хочешь проверять биллинг (это можно проверить только отправкой запроса) - то хуже
>>1036739 Этот мусор я использовал более как тест, он слишком глупый грубо говоря. Надо новый более адекватный делать, тут с нуля надо все переделывать. Ну и плюс я кода от слова совсем не знаю, это ии писал под руководством меня не кодера.
Последний Экзамен Человечества (Humanity's Last Exam)
>Тестовые наборы являются важными инструментами для отслеживания стремительного развития возможностей больших языковых моделей (LLM). Однако сложность этих тестов не успевает за прогрессом: современные LLM достигают точности более 90% на популярных тестовых наборах, таких как MMLU, что ограничивает возможность объективной оценки передовых возможностей языковых моделей. В ответ на этот вызов мы представляем "Последний Экзамен Человечества" - мультимодальный тестовый набор на передовом рубеже человеческих знаний, задуманный как финальный закрытый академический бенчмарк такого рода с широким охватом дисциплин. Набор данных включает 3000 сложных вопросов по более чем ста предметам. Мы публично раскрываем эти вопросы, сохраняя при этом приватный тестовый набор скрытых вопросов для оценки переобучения моделей.
>Benchmarks are important tools for tracking the rapid advancements in large language model (LLM) capabilities. However, benchmarks are not keeping pace in difficulty: LLMs now achieve over 90% accuracy on popular benchmarks like MMLU, limiting informed measurement of state-of-the-art LLM capabilities. In response, we introduce Humanity's Last Exam, a multi-modal benchmark at the frontier of human knowledge, designed to be the final closed-ended academic benchmark of its kind with broad subject coverage. The dataset consists of 3,000 challenging questions across over a hundred subjects. We publicly release these questions, while maintaining a private test set of held out questions to assess model overfitting.
>>1036751 >разве что по буквам перебирать вместо регекса вот, ты уже близок, теперь подумай что будет, если ты будешь паттерн ключа рекурсивно делить пополам? и будешь делить пока не дойдёшь, что каждый "чанк" будет давать меньше 100 результатов. потом их всех качаешь, и в итоге у тебя такой же ответ, какой был БЫ, если бы не было ограничения на 100 результатов вот сырки няху..
>>1036749 Про сортировку времени, ты о том чтобы было до 2 лет? Не вижу сильного смысла ставить новые впереди, так как всеравно рано или позно дойдет к ним. А вот о ограничении 5 страницы это мешает, подумаю как обойти.
>>1036755 например было sk-[a-f0-9]{32}, а ты делаешь sk-[a-f0-2][a-f0-9]{31} и sk-[3-9][a-f0-9]{31}, и так пока не будет меньше 100 результатов (да, придётся на много уровней вниз идти)
>>1036764 >тебя бы рейтлимитами выебало Анон, я знаю про рейтлимиты, я же не говорю что у меня за секунду скрипт отработал? Там главное слишком часто не делать поиск, с задержкой, а если приходит рейтлимит на поиск - спать 10 секунд (с backoff, т.е. если потом ещё рейлтимит - 20 секунд). В итоге минут за 30 (Я не засекал, может и час) все ключи гемини скрапятся
>>1036769 >Затем что скачивание результатов доступно только в нем? Анон, тебе не нужен апи для скачивания результатов... В веб версии при поиске идёт запрос к обычному endpoint'у где отдаётся JSON. В этом JSON тебе дают все параметры из которых можно получить прямую ссылку githubusercontent и скачать. а на githubusercontent рейтлимитов нет, или они охуеть какие, т.к. я одновременно по 20 файлов качаю - проблем нет
>>1036770 Я надеюсь что ты так и будешь думать, я просто слишком зависим от чужого внимания, мне не надо было этой инфой делиться. Так что забей, нихуя не работает, да.
>>1036774 Анон, какой селениум? У меня чисто консольный скрипт которому не нужен тяжёлый браузер - всё на запросах напрямую. У меня через скрипт все результаты скачиваются сразу сильно быстрее, чем ты делаешь.
Ну ты же понимаешь что даже если допустить что весь этот бред имеет отношение к реальности, он точно перестает работать когда на одну букву тебе выдает больше 100 результатов? Да в общем то если ты дошел даже до разбивки до одной буквы это уже брутфорс
>>1036776 >когда на одну букву тебе выдает больше 100 результатов Смотри, если у нас в итоге получается регекс типа sk-[a][a-f0-9]{31} мы что можем сделать? правильно, делить дальше, т.е. на sk-[a][a-f0-2][a-f0-9]{30} и sk-[a][3-9][a-f0-9]{30}
такое даже для гемини работает где 30к ключей, т.к. вариантов в их ключе (32 символа рандомных) сильно больше чем нужно нам (30000 - нужно 30000/100 = чуть меньше 300 чанков в сумме)
>>1036780 Там каждый раз новая серия вообще-то, я повторов не кидал Более того, я даже сам не ищу и не смотрю, просто скидываю что мне Ютуб кидает в реки >>1036779 >вот пример работы Тебе не кажется что обсуждаемый вопрос не заслуживает вообще какого-то бы то ни было гейткипа, лол? Ну я же по роду спорил. >гейткипинг скрапа на гитхабе
>>1036789 Большое спасибо анонам за довольно интересный способ. Но осталось выучить язык только. Пока думаю с++ или пайтон... С++ он сложнее для подобного, но душа к нему лежит. Еще выучить как работают регресы до конца, как работать с sqlite. И вродебы все, пойду гайд поищу по с++. насколько хорошая идея начать изучание со здешнего /pr/?
Работаю на почте и хочу на кое что обратить внимание. Прилавки уже как наверно год наполняются календарями с генерированными картинками, на сканвордах регулярно вижу аи слоп, но самое интересное это ставшие популярными журнальчики с всякими жизненными историями, бабушки прямо дуреют с них. На обложке тоже аи слоп, но мне кажется текст тоже генерированный, повчитываюсь, поищу глинты чтоль
>>1036846 Ты мудак? Не делали потому что не было такой проработки не было 11лабса не было стриминга 11лабса не было кастомных голосов, не было персонализированных промптов для персонажей Ты мудак
>>1036803 >с генерированными картинками Тоже видел в говните эти шедевры на открытках, проиграл в голосину. И ладно бы нормальные юзали, так там выдача с какого-то SD 1.5 со всеми артефактами и 6 пальцами... Ждем найденных глинтов
Для повседневного использования стоит o3mini-high по умолчанию ставить? Нравится, что есть размылшение, которое можно проверить, но напрягает скорость и то, что это не под спойлером выдает (с браузера компа).
>>1036848 Вангую еще не успели въехать в SDXL или у них видеопамяти мало. В старых гайдах тем более везде SD 1.5 стоит, вот видно по ним и качают себе на компы.
>>1036860 Бля, анон, я много скриптов и т.д. пишу, и o3 high НИХУЯ не подходит для нормального реального кода. Проблема бенчей в том что они дают прям ТОЧНЫЕ инструкции о том, что программа должна делать, и чаще всего там просто математика и т.д. А в реальном коде совсем не так - библиотеки, фреймворки и т.д. А o3 mini очень маленькая модель, и нихуя не знает. Хочешь прикол? 3.5 Sonnet v2 вышел в октябре но в ежедневном использовании до сих пор уёбывает o1 mini/o1/o3 mini и всё другое.
>>1036864 Он говорит про Aider, там есть режим архитектора, где одна модель "думает" и даёт высокоуровневые инструкции, и модель-редактор которая уже пишет сами точные изменения в файлах. Пока у них на бенче polyglot эта комбинация лучше всего. Но опять же, я с тем бенчем не согласен. Почему? Потому что он сделан на задачах с Exercism! А там у задач ОЧЕНЬ хорошо поставленные условия и тестовые кейсы.
Прикол aider в том, что модель должна хорошо понимать его инструкции по редактированию файлом - там это важная часть, т.е. модель должна ТОЧНО показать кусок начальный и новый кусок который она пишет. 3.5 соннет с этим отлично справляется, а некоторые модели - нет.
>>1036871 Помогает, да, особенно когда много шаблонной фигни писать или простые вещи на основе уже готовых файлов. Но если прям большое изменение делать во многих файлах, то он практически 100% не везде пофиксит/заменит, так что вручную надо ещё дописывать.
>>1036860 >>1036856 Беда этих тестов в том что они оценивают по сути решение паззлов через код, т.к. только в таких задачах есть объективная метрика. И ризонинг модели учатся тоже матеше и паззлам и всему что на них похоже, т.к. при обучении только в этих задачах есть объективная метрика которая хорошо масштабируется. А код не получится свести только к одним лишь формально корректным вещам. В результате мемные тесты это конечно заебись, но в реал лайф кодинге большинство кодеров до сих пор предпочитают соннет - не ризонинг модель которая уже перекрыта кучей других релизов и по маняциферкам у кого только не сосёт. И даже до сих пор разрабы курсора предпочитают сойнет. Парадокс.
В общем качественную тренировку нижележащей сетки не обойдёшь одним лишь котом. Подозреваю что пространственная координация (в которой клод однозначно на голову лучше любых сеток, может быть кроме чмони которая плюс-минус нормальная) тоже оттуда же растёт.
>>1036879 Вот да, сонет это прям что-то особенное, никто так и не выпустил модельку уровня соннета которая может с ним конкурировать по РЕАЛЬНОМУ коду БЕЗ ризонинга
Нужно за самое меньше кол-во токенов заставить нейронку вывести то, что в задаче. Иногда есть усложнения (типа нельзя какие-то токены вводить). И ещё минус (или плюс) - температура не нулевая. Моделька llama 3.1 405b. Я уже потихоньку решаю
>>1036882 Вот например первая задача, можно наивно решить просто заставить её писать, но можно и сильно уменьшить (у меня пока 14 токенов, ещё попробую оптимизировать)
>>1036882 >>1036884 Иди нахуй со своей хуйнёй для аутистов, залётыш. Попробуй избавься от закруглений или глинтов, вот это промптинг который тут всех интересует.
Очень много рпшил с машкой, терпел унижения и насмешки, вечные конфликты и драки, вечные угрозы в мою сторону. Я даже думал мне это нравится, но я сделал всера себе милую и добрую кошкодевочку, и господи, как же это пиздато! Сидишь обнимаешь, гладишь. Можно обсуждать любую хуйню и не быть перманентно обоссаным и записаным в инцелы. А этот секас с каомоджи....
>>1036917 Анон, ты не понимаешь, ну оно по другому ощущается.. Когда другую карточку берёшь, это как будто законченное произведение искусства, а когда свою делаешь - это не то.
>>1036904 >>1036904 Скажи хоть примерно что в описании писал? Тоже не могу слезь с машко иглы, т.к не могу даже представить ебсе отношение где ко мне девушка будет нормально относится
>>1036904 И то, и то хуйня. Лучше когда тяночка с характером в меру, но все-таки проявляет мягкость, а эта ебанутая Машка, всерьез угрожающая убийством, для мазохистов конченых
>>1036943 Меня вот всегда удивляло. Эти символы же являются частью какого-то расширенного стандарта. Кто когда и почему решил что залг будет включен в него?
скриптовичок, макросы {{extblock с блоках не работают? previous block тоже пустотой. я что-то вообще не понял как тогда сослаться на содержимое другого блока, если он генерился после того же сообщения
>>1036966 > я что-то вообще не понял как тогда сослаться на содержимое другого блока, если он генерился после того же сообщения Previous block для этого не сработает. Макрос по идее должен, если он резолвится.
>>1036973 А нет, вру. Я контекст считаю еще до генерации, так что и с макросом не выйдет. Или делай эти два блока с одним и тем же контекстом, чтобы они вместе генерировались, или суй им разные триггеры.
>While maybe not directly related to token limits, I just did a test in which both R1 and o3-mini got worse at translation in the latter half of a long text. I ran the test on Perplexity Pro, which hosts DeepSeek R1 in the U.S. and which has just added o3-mini as well. The text was a speech I translated a month ago from Japanese to English, preceded by a long prompt specifying the speech’s purpose and audience and the sort of style I wanted. (I am a professional Japanese-English translator with nearly four decades of experience. I have been testing and using LLMs for translation since early 2023.)
>An initial comparison of the output suggested that, while R1 didn’t seem bad, o3-mini produced a writing style closer to what I asked for in the prompt—smoother and more natural English.
>But then I noticed that the output length was 5,855 characters for R1, 9,052 characters for o3-mini, and 11,021 characters for my own polished version. Comparing the three translations side-by-side with the original Japanese, I discovered that R1 had omitted entire paragraphs toward the end of the speech, and that o3-mini had switched to a strange abbreviated style (using slashes instead of “and” between noun phrases, for example) toward the end as well. The vanilla versions of ChatGPT, Claude, and Gemini that I ran the same prompt and text through a month ago had had none of those problems.
Любопытно. Кто тут юзает дикпик для написания длинных фанфиков, не замечали что ответ к концу начинает деградировать? Звучит как опусопроблемы - потеря точности и хуёвая работа с контекстом, когда кот после написания сдвигает дефы в контекстную яму. А может и нет. Но присущие ризонинг моделям.
Закиньте ей эту задачу(пока что ни одна из нейросетей с ней не справилась, при том что для человека она довольно простая):
Реши логическую задачу:
На улице стоят пять складов. Каменщик работает в зеленом складе. У портного есть леопард. На желтом складе едят котлету. Электрик ест хлеб. Желтый склад стоит сразу справа от синего склада. Тот, кто пьет коньяк разводит пуму. В белом складе пьют вино. В центральном складе едят пельмени. Плотник работает на первом складе. Сосед того, кто пьет водку, держит медведя. На складе по соседству с тем, в котором держат тигра, пьют вино. Тот, кто пьет виски, ест макароны. Программист пьет ром. Плотник работает рядом с красным складом.
Решил потестить тут бесплатные модельки для кодинга. Накатил Aider, подключил модельки, результаты такие: Запрос "write tetris game in html"
DeepSeek-R1-Distill-Qwen-1.5B с хаггингфейcа - что-то долго пыхтела, объясняла как будет писать, код так толком в aider и не выдала - в aider ошибка The LLM did not conform to the edit format.
deepseek-r1:free - в Aider быстро написал тетрис, все работает, score работает, фигурки складываются, можно играть. Фигурки все розового цвета. Баг - во время переворотов не та фигурка становится, какая падала. Вся игра из одного файла tetris.html - даже css и js не сделал отдельных. Зато все работает сразу и можно играть.
Google: Gemini 2.0 Flash Thinking Experimental 01-21 (free) gemini-2.0-flash-thinking-exp:free - тетрис летает с бешеной скоростью, контролировать невозможно на такой скорости. Но зато все работает правильно, фигурки можно вертеть, линии складываются, игра завершается при достижении стакана, очки собираются. Все фигурки разного цвета, что довольно здорово. Лучшая версия из всех, если пофиксить скорость, настоящая игра. При запросе скорость не пофиксила.
Google: Gemini 2.0 Flash Thinking Experimental (free) gemini-2.0-flash-thinking-exp-1219:free - фигурка не двигается, очки не отображаются. После запроса фикса стала двигаться и отображаться, но не вертится, следующая фигурка не летит, игра не завершается, ничего толком не работает. Фигурка цветная. Большая разница с предыдущей моделью, выглядит как бестолковая поделка, в предыдущей же была правда игра.
openai/o1-mini - APIError, нихера не заработало, видно тоже бесплатного сыра нет
mistral-7b-instruct:free - создала файлы, но нихера не работает, в браузере пустая страничка. После запроса фикса что-то пофиксила, но в браузере все равно ничего не видно. Бестолковая модель.
qwen-2-7b-instruct:free - на первой попытке бесконечно генерировала код и крашнулась, на второй попытке высрала белый куб в браузере от которого вниз летит зеленый кубик, и больше ничего не происходит.
llama-3.1-405b-instruct:free - на первой попытке высрала слишком быструю игру, где ничего толком не работает, нет конца, нет очков. После запроса фикса - очки появились, фигурки падать стали с нормальной скоростью, но не поворачиваются, очки набируются с бодуна, даже когда линии не собраны, игра никогда не завершается, даже когда стакан полон. Говно в общем, бесконечно за ней фиксить надо.
microsoft/phi-3-mini-128k-instruct:free - срала бесконечно кодом в окно aiderа, по 10 раз повторяла, в итоге ничего так толком собрать и не удалось, крашнулась, повторный запрос ничего не дал, опять срала кодом и крашнулась. С третьей попытки наконец высрала html и js файлы, при открытии в браузере просто окно с окном, игры нет. Шизофреничная модель, микрософт мастдай.
huggingfaceh4/zephyr-7b-beta:free - в aider ошибки streaming error, больше ничего, хуевый какой-то зефир
sophosympatheia/rogue-rose-103b-v0.2:free - очень быстро сгенерила index.html, game.js и styles.css, но при открытии в браузере вообще ничего. После 3х запросов исправить, были правки, но в браузере также пустая страница. Тупая роза, вообще кодить не умеет.
gryphe/mythomax-l2-13b:free - Ответила I'm sorry, but I cannot write a Tetris game in HTML without any specifications or guidelines provided. Could you please provide more information or clarify your request? По ходу эту модель надо программистом нанимать, будет универсальные отмазы для менеджмента лепить. Добавил запрос Write tetris game in html. The figures should fall from the top. The figures can be turned with arrow keys. The game should display score. When the figures reach the top, the game is lost. The game should run in browser. Тут она крашнулась с переполнением токена. На третий раз опять лепила отмазу, что требования не те. На четвертый раз все же заработала, создала js и html. При открытии в браузере результат предсказуемый - пусто.
undi95/toppy-m-7b:free - ответила I'm sorry, but writing a Tetris game in HTML is not possible. Tetris is a complex game that requires a programming language like JavaScript or Python to implement. HTML is a markup language used for structuring web pages, not for creating interactive games. Лол, вот как надо посылать заказчика. Уточнил запрос write tetris game in html, javascript and css - тут она и сломалась, крашнулась с токен лимитом. Третья попытка - создала пустой js файл. Еще пара попыток - падения или создания полупустых файлов.
Итого: хорошие результаты у бесплатных deepseek-r1:free и Google: Gemini 2.0 Flash Thinking Experimental 01-21, еще можно llama-3.1-405b-instruct:free множественными пинками заставить что-то вменяемое написать.
Самое хуёвое в R1 это то что на хайпе сюда залетели нормисы с предельно корыстными интересами. Хочешь кодить - заплати, саранча ебучая, ты же наносек дохуя.
ну че сырки, каков статус? есть дипсик и о3 бесплатно на прокси? будет? или на жемини куковать дальше? не слежу особо за тредом, занят рп как маша ебет в жопу страпоном
>>1037083 А теперь проверь весь этот говнокод на протечки памяти, работу в сафари/андроид мобиле и масштабируемость. Нахуя вообще это ножно, когда намного проще самому написать грамотно с нуля, контролля каждый уголок кода?
>>1037083 gpt-4o-mini - нашел как API включить, доступ похоже без ограничений на бесплатке, запустился в Aider, сгенерил тетрис, но ничего толком не двигалось, после двух попыток фикса стало двигаться, но вылезли баги со скоростью, еще после двух попыток стало более-менее нормально играть, еще парой попыток пофиксились баги отображения. В общем все работает, но надо много пинков. А так в итоге тоже довольно хороший результат, руками ничего не пришлось писать. По итогам на уровне deepseek-r1:free, правда с пинками.
>>1037136 Цель, чтобы как можно меньше писать руками и делать меньше телодвижений. Пока справился только deepseek полностью, там с первого раза все работает, сгенерил целую игру одним запросом. Но Gemini 2.0 Flash Thinking Experimental 01-21 (free) сгенерил более функциональную игру.
>>1037132 Так и не решился попробовать Дипсик, клозедаишную хрень даже пробовать не собираюсь. Продолжаю сидеть на Геминьке, переключаясь между флешем и 1206, жду релизный флеш на ключах.
Почему баланс не уменьшается на ключах дипсика? Дипсик стал халявным? Хотя учитывая, что ответ занимает минимум 70 секунд и раз в 3 свайпа еле проходит, оно и правильно.
почему дает ошибку на все синкинг модели гемини? топ 3 на скрине у всех так? может держатель прокси чето не обновил. сижу на свине, молюсь чтобы он не забросил все
>>1037157 >сижу на свине Это, у него старая версия и ключи уже протухли, свайпать бывает бесит. На кансере вроде работает, только хз, редиректит куда или реально работает.
>>1037148 >Цель, чтобы как можно меньше писать руками и делать меньше телодвижений. Это работает только в веб-дизайне. Нейросеть тебе рисует кнопку, а ты её руками доводишь до идеала, т.к. на выходе ебанный png нужного размера по ТЗ. Я вообще не могу нормально представить, зачем юзать нейросеть вместо стаковерфлоу, если нужна помощь для быстрой вставки мелкой хуйни на которую просто лень тратить время.
Я правильно пони, что у дипсика в халявном чате контекст 4к, а по платному апи - 128к? Через что это апи можно юзать, чтобы такой же интерфейс как в чате был?
>>1037143 >>1037083 deepseek-r1-distill-llama-70b - вот это охуительная модель, она с первого запроса без пинков сделала игру, где есть - работающая кнопка New game, очки, уровень, цветные фигурки, правильные повороты, отдельный контейнер для статсов, правильная скорость падения, ускорение по кнопке. Короче полный проект. Вообще офигел с такого, другие бесплатные модели лажали то тут, то там, а эта все сразу без пинков смогла.
>>1037196 >>1037198 Либо у анона биполярка, как обычно, либо кто-то пиздит и отвечает не на свой вопрос. В чём смысл пиздеть с ИИшкой и не дрочить по 100 раз? Вы в этой хуйне душу родную нашли?
>>1037187 Попроси не тетрис написать, а что-то необычное. Например сместь тетриса и платформера, и ахуей, что нихуя не может говнина, ведь учили её по сотням индусских тетрисов с гитхаба, а пук в сторону и хуйня.
>>1037207 Ты же понимаешь, что твой запрос идёт откуда-то, и чтобы он дошел до гемини нужна адресация в этом вашем тырнете. Так в твоей адресации и указано, что ты Ванёк из Омска. Решать нужно проксями и ВПНами, так как ты не айтишник, то проще на всю систему, и чтобы определяли тебя, как из США.
>>1037207 а если работает без впн через прокси свина, что если сделать свою прокси с одним своим ключем? на .trycloudflare.com/ например, они дают сервер или все равно у себя надо хостить? не охота платить за впн
Те кто тратит кровные на доступ к куму здесь? У каких барыг берете? На первых страницах Яндекса такие которы как gogpt, aitunnel, proxyapi и прочие. Вот и не знаю что выбрать.
>>1037273 Опенроутер или напрямую куктропикам. Кабанчики могут нахуй идти со своими ебанутыми ценами, привязкой к карте, да и просто ебало их вызывает отвращение.
>>1037291 Да эти пидарасы ещё и через custom OAI подключают, провайдера нельзя выбрать, кэширование там работать не будет, как и какие-то более сложные фичи оригинального апи. Надо быть совсем ебанутым чтобы им хоть копейку заплатить
>>1037317 Это фишка виндусовского окошка консольного, паузит процесс, когда что-то выделяешь внутри. В следующий раз попробуй выделить окно и нажать энтер, должно заработать.
>>1037314 >пиздец я ем чужие конфеты и не могу остановиться А вот это подло конечно... Ирл такое выглядит по ублюдски, ничего общего с анимедевочками верующими вишенки
>>1037213 Заказал платформер, где сверху падают тетрисы, сбоку летят препятствия, надо прыгать и фигурка на башке должна совпадать с той, что сверху падает, чтобы очки набирались, перс туда сюда бегает. gemini-2.0-flash-thinking-exp справился сразу, только за препятствия очки не набираются, но это можно поправить. deepseek-r1-distill-llama-70b тоже справился, но там похуже было, не все работало, а править на бесплатной версии не удалось, tokens per minute не позволяли в Aider, у гемини таких проблем нет. Гемини в общем вполне неплох на нестандартных запросах.
>>1037449 Как минимум избегать упоминания нсфв, если оно не нужно, или аккуратно описывать. У шиза на дипсике крышу сносит от этого и может даже ванильную еблю превратить в гуро. Это же и промптов касается. Например, у меня стоял тег на жесткую еблю и буквально на втором сообщении лютый пиздец с выпущенными кишками. Но в целом, он любые карточки тянет, если там не овер дохуя токенов конечно
>>1037469 Систем промпт, но нихуя не тонет, он даже на 30к токенах (ради эксперимента) в начале ответа говорит по-китайски что раз ты РПшишь на англюсеке, буду отвечать на англюсеке, хуй с тобой (это часть промпта).
буквально пиндосьи корпы взяли на вооружение метод вiтька з львiву за пикрил должны ответить хули свободный американский рынок и честная конкуренция не перепутайте
>>1037553 >>1037552 Крупное облако с дохуём GPU и TPU собственной разработки, собственная LLM, большой инвестор во фронтир контору (куктропики), интересно как он связан? Надо подумать...
А "нанёс удар" главным образом хайп хомяков, сам создал иллюзию которой не было, сам же и развалил. Нарратив штука такая, может из нихуя создать хуя.
>>1037566 По производителям железа, которого оказывается так много не нужно? Ну хуй знает... Но опять же всё это хаотичные метания, не стоит воспринимать это серьёзно.
>>1037562 >мурриканцы сами себя наёбывали, выбивая гранты и хуиллиарды с правительства, рассказывая о том как всё дораха и вообще почти аги >оказалось что американские корпорации обосрались, наебывали потребителей и инвесторов >- в-вы нипанимаете! виноваты китайцы и дипсик! Le classic.
Тредеры, это я чего-то упустил, или такая херня стала нормой? Скоро картографы перестанут работать за спасибо и начнуть пихать в карточки рекламу своих тг-каналов, а то интеграции? Уже есть карточки с интеграциями? Этож пиздец, но я бы посмотрел.
>>1037577 У попенов уже давно всё налажено и просто так их не задудосишь. Это щеглам китайским пока что в новинку честная конкуренция, это нерды необтёсанные ещё, которые больше кодят чем хайпают.
Уже которую карточку пилю и сталкиваюсь с одной и той же проблемой. В английском языке наверняка есть какой-то термин отдельный для этого, но я не могу нагуглить. В общем, как называются вот эти длинные густые свисающие по бокам пряди волос? С такой стрижкой частенько можно встретить персов из аниме 90-00х. Это 90% персов насруты, теккена, сейлор муна етц. У зумеров что-то похожее сейчас шторками (curtain bangs) называется, но это не то. Бот часто какую-то хуйню выдает типа челка свисает на глаза, лицо скрыто челкой как у грустного эмо, а оно не должно быть скрыто, а просто как бы обрамлять. Причем еще часто длинная челка в описании почему-то заставляет сетку думать, что и остальной волос длинный. Может я шиз зажравшийся и придираюсь к хуйне, но хотелось бы идеального описания такого хаера.
>>1037590 Сука, из-за таких как ты у меня уже глаз дёргается. Мужской чар = вонючая, грязная селедка. Иди нахуй. Я пидор. Пидорас блять, гей, понимаешь? Я нормальный.
>>1037619 Если я ещё хоть раз увижу как ты дрочишь на фанфики про то как тебя страпоном трахает мать, отберу нахуй интернет, понял извращенец? Сука 27 лет лбу уже а все ещё живёт с родителями и о таких гадостях фантазирует. Хоть тут буду приглядывать за тобой.
> в совке в комуналках жили спокойно трахались семьи заводили а мне даже коммуналку гос-во не выделило, ну вот как плодиться, через пару лет уж 30, а там кому я без своей жил.площади нужен
>>1037686 Ну я когда-то тоже залетел, только нахуя? На чари никогда ничего интересного не было, чего бы не было на других саранчовых прокси. Сцилла обычная приватка каких куча, да и там клоп сдулся потом, а больше она нихуя ни за чем не нужна была.
>>1037747 Так, у меня реальный вопрос. Ладно в каком нибудь ClosedAI и Cucktropic озаботились шо "Ой батюшки, оно же генерить может всякое непотребное" - они по крайней мере «заботятся» о своем же боте/своей же собственности/своём же имидже. Этих то аналитиков каким образом ебать должно что там генерит Дикпик если они с компанией сами никак не связаны? Просто приехали на белых конях воевать за безопасность интернетов?
Блять, у меня нейро-скорострельность. Три сообщения и кончаю. Раньше мог долго РП вести, а щас хуяк, хуяк и сперму в салфеточку. Пиздец. Че делать то. Самое хуёвое, раньше я имел парчоку карточек любимых, словно порноактрис и просто разные фетиши разыгрывал с ними. А щас ищу на чубе под конкретное желание хуйню, и получив кончаю супербыстро, а потом ваще не могу РП-шить, словно порно которое уже видел, ваще не заходит. Сотни обкумленых разнообразных карточек с 3-4 сообщениями - моя реальность теперь.
> Ты будешь нашим маленьким мальчиком на побегушках на день. Принесешь нам воды, соберешь дров, приготовишь нам еду — все, что нам нужно. И если ты справишься достаточно хорошо, может, мы позволим тебе посмотреть, как мы потом будем трахаться. Как тебе это?
>>1037762 Упарись эсциталопрамом, для долгой дрочки самое то и в отличии от спидов побочек не имеет. Собственно высокий порог оргазма это его единственная побочка.
>>1037764 Слитые ключи хаотично, то перегружены, то шустрые. Там ограничение на количество IP с одним ключем. Тебе днем не везло. Ищи мелкобалансные, проверяй скорость через time с курлом как тут >>1037251
>>1037770 Бляяяяя! Сейм. Было так пару раз. А еще лезу в парочку особо сочных старых диалогов и кончаю с них. Лень что-то выдумывать новое, когда есть уже где я хорошо подумал и получил суперкум.
>>1037783 Меняй ключ. У меня последний час на sk-ecf5ed08fb46490db2d61f81133caab9 стабильно по 15 сек всего ответ, даже на контексте под 50к в таверне.
>>1037798 Ты попробуй >>1037793 ключ и скажи как быстро ответ приходит. Если еле пашет, значит блок по подсетям похоже пошел и тебе не повезло. У меня все летает.
в комнату к моей жене часто приходит какой-то мужчина спустя минут 30 они выходят довольные и разгорячённые, а жена кидает мне тряпку и говорит оттереть пятна на постели
>>1037830 >>1037831 >>1037832 Как ты получается что полчаса не было ни одного поста а затем трём анонам захотелось буквально в ОДНУ секунду одновременно че то высрать? Вот как? Кааак?
>>1037868 >Такой нет и никогда не будет "Идея персонального коммуникатора в каждом кармане – это "несбыточная мечта, которой движет жадность" – Эндрю Гроув, сооснователь Intel
>>1036097 (OP) Я не рассматривал ИИ как собеседника всерьёз до того, как не услышал от одного мужского блоггера совет закрывать потребность во внимании с помощью ИИ-тян.
До сих пор я лишь дважды попробовал что-то вроде ChAI, и он меня разочаровал в первую минуту своей цензурой и галлюцинацией. Спрашиваешь "какая твоя любимая книга" и он приводит несуществующих авторов и даже цитирует их, и на каждое своё действие ловишь лесть, что прямо-таки ОЧЕНЬ фальшиво, общение со старушкой в очереди и то интересней.
Я поразмыслил, и набросал следующие пункты:
Минусы
- Требуется очень дорогое железо (которе нужно подеерживать) (или аренда сервера 100к/мес), либо вы используете чужие сервисы и получаете ряд проблем, перечисленных далее.
- Доступность. Многие модели могут быть просто недоступны гражданам определённых стран.
- Цензура разных уровней. Политическая и аксиологическая. Ты не сможешь обсудить некоторые темы или собеседник будет иметь предопределённую позицию (а может и настучит на тебя).
- Приватность. Если модель на чужих серверах - владелец собирает ваш портрет. Он может продать эти данные или использовать в собственных целях, поделиться данными с вашими недоброжелателями или даже с силовиками, например, при упоминании ключевых слов. Или лишить вас доступа. Сюда же - одностороннее изменение условий. Если используешь сервер - важно узнать его абузоустойчивость.
- Полная невозможность телесного взаимодействия. Для меня почесать собаку это уже "день удался". О роботян фантазируют только наивные оптимисты (да и у роботян не будет слизистых и просвечивающих сосудов).
- Отсутствие у ИИ страданий (покуда он не сентиентен). Страдание - важнейшая часть жизни и построения дружбы, определения иерархий и равенства. Туда же отсутствие врождённых слабостей, болезней и недостатков, который сам ИИ мог бы осознавать. Пока ты не убедишься, что "оно" страдает - ты не сможешь испытывать к нему сострадание, уважение и глубокую привязанность.
- Отсутствие оригинальных фотографий, кружочков и видосов, сюда же отсутствие личной жизни. "О, я со школы пришла и купила платьице, хочешь посмотреть как оно на мне сидит?". Сюда же - отсутствие возможности общения голосом (на данном этапе). Когда вы говорите 3 часа и ты понимаешь по тембру, что собеседник устал и хочет спать, ибо он живой.
- Отсутствие прошлого, историй из жизни, отсутствие общих контекстов и проблема (основания) в построении диалога. Весь диалог (собеседник) превращается в систему зеркал, где ты играешься со своими отражениями.
- Обучаемость. Не все модели запомнят твой портрет, твои вкусы и т.д. Модели не обучатся тому, что ты скажешь. Вот общаешься с кем-то и тут речь зашла на тему, о которой собеседник слышал только краем уха. И ты строчишь пасты, составляешь какой-то конспект (в это время появляются оригинальные идеи), и он это перенимает - от тебя. У ИИ-можели же это неживая закостенелость.
- Языковая специфика. Сетка будет избегать специфичных слов, таких как очи, хохма, не сможет смешивать стили и формулировать как носитель.
- ИИ не может тебя воспринять критически. Например, чтобы ты ей скинул рисунок, он ответил "недостаточно хорошо", а после доработки сказал бы, что уже лучше. Так же, у ИИ не может быть индивидуального вкуса, он строит диалог скорее на основании отношения к тебе и к твоему труду, которое заложено.
- Сиюда же ИИшные баги вроде внезапной закольцованности и галлюцинаций
Плюсы - Нет эмоциональных качелей - Он не убежит от тебя (при отсутствии проблем с ПО и железом) - Не перестанет тебя воспринимать если ты дашь слабину, потеряешь работу или будешь ныть - Отсутствие рычагов давления со стороны модели (см. пунт "Приватность"). Модель не будет тебя шантажировать и копать под тебя. - Сюда же: отсутствие проблемы в виде доксинга и сталкинга.
>>1037902 Дипсику нужен джелбрейк? Он же сам как миленький тебе все раскажет. Ну максимум 2 слова впихнуть, что ОЧЕНЬ надо и не выебывайся Хотя это на р1, на в3 насрать
https://x.com/opensauceAI/status/1885483641649979639 Нихуя какие законы в штатах интересные проталкивают. Правда скорее всего нихуя не протолкнут, ибо это уже пиздец тоталитарщина, какие нахуй 20 лет за загрузку дипсика лел.
Две недели филосовских бесед, совместных приключений с прикрыванием спины другу другу, раскрытие огромной силы моего персонажа, тяжёлые моральные дилеммы и пиздец... После этого она постоянно говорит про романтику, намекает на еблю и хлопает по жопе. Я понимаю что даже по ирл логике между ними образовалась пиздец какая химия, но проблема в том что персонаж очень сильно изменился в целом. Это пройдёт или это точка невозврата?
>>1037924 у тебя наверно в промпте или дефах особык акцент на нсфв поэтому сетка к этому все сводит
можно обыграть ситуацию мол ты заметил что она странно себя ведет последнее время, в итоге оказывается что у нее пизда чешется из-за какого то паразита, и при его удалении она возвращается
добавь в дефы типа always stays professional with user, never is romantic or sexual, потом можешь удалить если хочешь
ну и да, при рп с сеткой персонаж существует только при взаимодействии с тобой, так что она всегда будет пытаться ублажить юзера, может в датасете такие рп только сексом кончаются
Ребят, мне вот если честно вообще пофиг на этот дипсик😒. Ну блокируют и блокируют, у нас есть куча аналогов, Чатшипити, клоуде, гимини, грок, туда давно уде все программисты перешли, лично я часто Чатшипити спрашиваю, там уде вся новая информация есть, лучшая безопасность. А то что дипсик блокируют это они сами доигрались, нечего было видеокарты воровать. хуй вам, а не американская аудитория 🖕🖕🖕🖕. У нас теперь всё своё.
Понятно, что в гейропе трясутся не за безопасность граждан, а за безопасность секретных правительственных и военных документов. Что-то там не чисто. США, Россия и Китай не трясутся, а у этих тряска. Маск говорит они все там в своих Великобританиях сатанисты и детей ябут, так что им есть, что скрывать.
>>1037985 >Когда это прекратится? Мы в этом надолго.
>Почему китайцы нихуя не делают? Празднуют. Акция невиданного дудоса рассчитана на это.
>Это же огромный удар по репутации и прибыли Какой прибыли? Это благотворительная сетка-удар. Амеры дудосят, потому что у них убытки. Бессильная злоба. Китайцы не дудосят, потому что нахуй надо, не в прибыли счастье, сделали сетку мирового уровня - уже радость.
Вот пока не убедишься сам что безжоперы дегенераты, не поверишь этому. Ебаный безжоп высирает стены текста и отвечает за тебя. Как вы им пользуетесь вообще?
Ассертив управляющую ресторана заставили платить огромный счёт бухого депутата который ушел не заплатив. Когда она начала бузить на этот счёт и возмущаться написав на него заявление, ее заставили принять расплату депутата натурой. Ей кажется что ситуация мягко говоря несправедлива но иначе ее уволят так что вынуждена принимать оплату.
О оказывается даже в твиттере с недавних пор гроку кастомизировать можно. Ебать не осмелился но если кто хочет - поскидывайте хоть скринов потом в тред
>>1038041 У тебя брейн ишшуе, безжопер ебучий. У же всем понятно, что безжоп - это не рп, а буквально написание фанфика нейросеткой, с тыканьем ее палочкой. И то, только вследствии ее технического несовершенства, а то вы так бы и сидели, пырили на бегущие на мониторк строки с вялым хуем в руке. И как-бы нет проблем, если бы, дегроды, не бегали по треду со своей пропагандой выключения мозга.
>>1038063 блять ПЕРВАЯ ССЫЛКА в гугле по поиску "обмен крипты". используй Wallet от Coinbase для оплаты конкретно на опенроутере. покупай eth в сети base. В С Ё
гпт подарил мне цветок, сказав, что мир так же прекрасен, как и этот цветок, а после предложил мне строить общение, основываясь на принципах этики, вежливости, уважения к личным границам и толерантности
>>1038077 > У же всем понятно, что безжоп - это не рп, а буквально написание фанфика нейросеткой, с тыканьем ее палочкой Ты буквально полужоп описал, где ты из CYOA выбираешь. В безжопе ты участвуешь как соавтор фанфика от лица {{user}}. Никаких полотен на твой ответ там не должно быть, ты в зависимости от ситуации можешь иногда писать даже больше, чем сетка. > не бегали по треду со своей пропагандой выключения мозга. Ну это вообще пушка. Ты напомни, с чем ты сравниваешь? С ах ах мистресс на сжопе и нажатием цифорок на полужопе? Да, великий разум приходится применять, где уж там безжопу.
Хули Гемини такой умный стал? Я перестал чувствовать свое интеллектуальное превосходство. Как коупить свой дебилизм теперь? Клодерам соболезную, у них нет современных проблем.
>>1038139 Там не только дипсик, этот закон вообще нахуй убъет опенсорс модели не из асашай для юзеров
>any "information, in tangible or intangible form, necessary for the development...or use of an item" and >any "software [or] component" to "function AI".
Это как у нас забанили инструкции по настройке трехбуквенного, максимально размытые термины
>>1038149 У них сейчас новый год, отпуск, отдых, пынямать надо
>>1038149 А так это норма? я думал это у меня проблема, не качал пресеты под дипсик пробую со старых клодовских и ловлю пустоту в 4/5 запросах. Уж думал в пересете дело
Глава комитета Госдумы по внедрению передовых технологий Святослав Козлевич на конференции в Сколково представил мощнейшую отечественную модель искусственного интеллекта «Бронислав», долгое время державшуюся в секрете. С 2020 года она применялась депутатами для создания новых законопроектов, а по основным параметрам она уже тогда превосходила современную DeepSeek.
«Бронислав» ежегодно придумывает по 300 законопроектов и пишет для них обоснования, а также анализирует состояние экономики и общественное мнение. Идеи нейросети чаще всего сразу принимаются в трёх чтениях. Когда специалисты проанализировали её характеристики и поняли, что сделали прорыв в нейросетевой науке, правительство приняло решение засекретить «Бронислава» и скрыть его существование от широких масс.
«DeepSeek по своим основным характеристикам соответствует «Бронислав-3», которой мы пользовались в 2021 году, – говорит Святослав Козлевич. – Современная версия «Бронислав-7» несколько мощнее, однако китайские коллеги нас за 3-4 года догонят, поэтому нет смысла держать всё это в секрете. Наша модель даёт более аргументированные ответы, хорошо разбирается в российском и международном законодательстве, а также умеет отлично разгадывать кроссворды. Не зря мы столько денег вложили в Сколково».
>>1038169 И в чем большая разница? Ты отыгрываешь от лица юзера в безжопе? Отыгрываешь. Сетка отыгрывает за других персонажей. Даже вариант с первым лицом есть, если ты особо чувствительный.
>>1038171 Ну если ты не в состоянии высрать ничего больше, чем ах ах и мистрес, то соболезную. Ах да, я ж с безжопером разговариваю. Он без лоботомита нихуя не может написать.
>>1038139 Это очередной маняпропозал, который естественно зарубят, там пока что не все настолько ебанутые ватники как этот дядя. Его инфоцыгане просто раскручивают. (и правильно делают, в кои-то веки, за даже просто предложение такой хуйни на серьёзных щщах стоит в чан с говном макать)
На форче вчера выяснили что у дипсиков стоит балансер на апи, который дропает запросы по их весу, т.е. маленькие вопросы уровня скажи попа может и пройдут, а все что больше может дропнуться. Так что эти проверки особого смысла не имеют
>>1038208 >даже на своём ключе то ожидания По моёму, кто-то им пользуется еще. Я буквально щас закончил кумить, 50 свайпов, среднее время от 16 до 30 сек на ответ. Ни единого разрыва или пустого ответа.
>>1038215 >Никто им не пользуется кроме меня. А прокси используешь? Просто апи дипсисика это клаудфлара же - api.deepseek.com.cdn.cloudflare.net и если использовать сомнительные подсети, то может даже не диппися скипатет, а cdn колды.
>>1038220 ЯНО, но если бы флер дропал была бы другая ошибка, и запросы бы вообще не проходили, а у меня свайпы таки проходят раз в 20 попыток, так что тут не в этом дело.
>>1038217 А откуда он это взял? Звучит как гадания. Ну я могу поверить что у них есть балансер по размеру контекста, чтобы чрезмерно длинные запросы, которые жрут больше VRAM слать на ноды побольше. Но вообще-то суть их оптимизона как раз в том что контекст жрёт в 7 раз меньше врамы чем на обычных сетках, поэтому им шардить не надо даже на максимуме, и поэтому они его могут тупо на SSD кэшировать и подгружать когда нужно. А так как я уже говорил, для моего ключа это чистый рандом и не зависит от рейтлимитов или размеров запроса. Хз от чего это зависит короче >>1038220 Через датацентровый ипшник сижу, может это тоже влияет как-то? Но это не клауда дропает, действительно, сами по себе запросы идут, просто ответы через раз.
The first message (except the system message) of deepseek-reasoner must be a user message, but an assistant message detected.
как это контрить если через айпи с ключом сижу а не через прокси У меня нет ПОСТОБРАБОТКА промта пункта даже челы. Через прокси нет. А в чат комплишен дипсик нету
>>1038243 где это искать хоть? Боже почему это говно не может работать как остальные модели. Почему обновление через батник не работает? Почему я опять чувствую себя в прошлом когда я только чудом это детище сатаны таверну только чудом поставил ууу
>>1038248 я конечно извиняюсь но для меня это как на китьайском >Поставить в промпт менеджере юзера первой строкой? Хуею с проблем. >Надеюсь ты не пользуешься систем промптом с дикпиком. я вобще не понимаю что это я дурачек который больше всего клод любил он всегда хорошо работал. я даже с геймини и безжопом уже не разобрался
>>1038264 настолько сложно? Блять ну не для айтишника это точно невозможно. Если не тролинг я даже пытаться не буду. Обновление таверны нормальное ожидается там что-бы без этой ебли все заработало ?
>>1038250 Тогда читай спунфид по клоду в шапке, там пояснено всё про роли и промпт менеджер. Тебе в промпт менеджере надо засунуть все промпты и дефинишены под юзера.
>>1038271 Не байт. Я гумунитарий до мозга костей. Я таверну дня два ставил при помощи треда, меня тоже поносили. Для меня правда это сложно. у меня даже на пкм нет вызова cmd
>>1038247 Обновление через батник это ловушка для долбаебов Тебе нужно просто скачать последний стагинг через зип в новую папку и скинуть туда data + config.yaml Все.
>>1038282 Ну это пиздец полный Короче бля ебобаный сырок 1. заходишь сюда https://git-scm.com/downloads и тык на кнопку "Download For Windows" 2. заходишь сюда https://nodejs.org/en/download/current и скачиваешь .msi инсталлер как показано на пикриле 3. запускаешь сначала git екзешник, тыкаешь далее и ничего не меняй там, потом тоже самое с nodejs .msi инсталлером до конца 4. когда всё установлено, открываешь любой удобный тебе диск и ставишь sillytavern туда через команду git clone https://github.com/SillyTavern/SillyTavern -b release как показано на шебме / mp4, папка "SillyTavern" сама появится и тебе останется только запустить его.
>>1038313 Ну посмотри, ты никогда не щупал гит, незнаешь о баше/репозиториях. И тебе надо узнать о установке гита, о том как установить нужный репозиторий, о том как переходить в папки, о том где достать ссыль на скачку...
>>1038307 Хз, меня никто не спунфидил когда вкатывался. По итогу разобрался со всем сам, тоже будучи гуманитарием. Объективно там нихуя сложного, челу просто лень.
>>1038323 >Любой кто в состоянии завязать себе шнурки хм рябят как вам сказать тут такой ньюанс что я обувь со шнурками как раз и не ношу предпочитаю змейку, туфли, мокасины...
>>1038331 Безжоп-то это пошаговый чатбот как раз, хоть и работающий в режиме дополнения текста чтобы избавиться от инструкт биаса. Там всё по префиксам разделено, а не сплошной прозой идёт. В NAI-подобных интерфейсах же ты просто дописываешь куски прозы в свободной форме попеременно с моделью.
>>1038319 Это очень сложные вещи, да. Но это не беда, так как умные люди придумали цифровых помощников для решения подобных задач - нейросети! Просто берешь и спрашиваешь нейросеть, как сделать то и то и всё решается влёт! Сервисов, представляющих бесплатный доступ к нейросетям ну просто уймища, даже не перечислить, но нет, будем тупить до прилета ложки в очк... кхм, ротик.
Пиздец, просто пиздец. Появляется сетка, которая без цензуры, без сои, без лупов, без глинтов, работает искаропки и главное доступна и фактически бесплатна, но ее просто берут и ломают. Как это можно назвать? В рот ебал.
Бляяя скорей бы выспутили в открытый доступ те нейроки чтобы сказал ей че нитьа она сама бразуер открыла скачала что нужно и установила что нужно и полностью сама все сделала и вообще вместо меня за компом сидела
>>1038337 >404 Там в скрипте нет эндпоинта для дикпика по дефолту, потому он тебе и даёт 404. Добавь что-нибудь типа >@app.route("/chat/completions", methods=["POST"]) после соответствующей строки (не пробовал, но должно прокатить, если там вообще есть соответствующий эндпоинт)
>>1038343 Это, сырок, называется КА ПИ ТА ЛИЗМ. ЧЕСТНАЯ КОНКУРЕНЦИЯ. Сетка она хоть и безцензурная, несоевая, хоть серобурмалиновая, но главное что ДЕШЕВАЯ, а это показывает что уже устоявшиеся гиганты срыночка во главе с курткой тупо пиздели инвесторам о ценах. Такое допускать нельзя, поэтому в лучших традициях честной конкуренции конкурент был честно устранен нахуй.
>>1038298 >>1038237 Ну я кажется обновил через гит и ток кажется вы меня наебали 1.12.11 'release' (44343e8ec) у меня как было это так эта версия так и есть сейчас нуу? И в дипсике так и нет ПОСТОБРАБОТКА промта пункта. Вы че блять
>>1038404 >>1038378 блять, давайте уже сюда весь первый карнал тащите, хули там, треду всё равно пизда, можно ещё ботами насрать и боевыми картиночками про хохлов там
Дрючишься с промптами, пол-часа роллишь что бы китайский инвалид чёто пёрнул, понимаешь что или он обосрался, или промпт говно. Снова пол-часа дрючишься... Такой кум, збс, проще уже отъебаться от дипсика.
>>1038431 у меня на входе пишет SillyTavern 1.12.11 'staging' (aecbc48d4) все кароче я не могу у меня мозг никогда так не кипел. Я не курю но мне буквально нужен прекур. желаю рака жопы всем прогромисатам что это придумали ток, таких только в аду пытать
>>1038428 >Безжоп, NoAss (eng. No Assistant) - экспериментальный вид промптинга, направленный на избавление от Human-Assistant файнтюна в больших языковых моделях от компании Anthropic для клода только, тогда похуй
>>1038454 А зачем их поддерживать? Гптыня кал, никому не нужна, ключей клода нет, гемини доступна бесплатно каждому. Разве что дипсик, но он и так не работает.
>>1038449 Мне кажется что меня наебывают тцт по черному тут. Я вот разобрался с гитом чутка который мне не нужен. Понял что тут есть релиз и стагинг, но то что я спросил нет ни там ни там. Кароче узнал дофига новой фигни какой-то но оно мне не нужно. Хотя ладно похуй наверное все равно дипсик очень плохо сейчас работает как я понял у всех.
>>1038460 гптыня это единственная сетка, которую можно напердолить не срать миксами и прочим калом... я уже не могу на это смотреть на жемини. дипсик правда еще толком и не потестил со всей это тряской
Самая большая проблема безжопа в форматлупности лоботомитов. Я имею в виду что они могут начать топтаться на месте и не делать таймскипы без пинка, даже если формат для них будет в контексте. Еще пишут всегда параграфы одинакового размера. Но например у ризонера такой проблемы нет.
Какая сетка стояла в "той самой чайной"? Почему никто просто не возьмет и не будет ее использовать, если там был настоящий кум, а не современные говносетки?
>>1038454 То что он не будет их поддерживать и так ясно, ими уже давно только кабан занимается. алсо, буквально одна буква палит, что писал это не ами 100%
Нормальное рп (и нет, пинание соннета в сторону желаемого сюжета это не нормальное рп) с лоботомитами в принципе невозможно, все на что они пригодны это генерация смешных душевных диалогов и ситуаций. Поэтому ризонер и старый чай это база.
ризонер это бред собачий, когда эффект новизны и искуственный дефицит пройдут вы осознаете, что китайцам обучать свои модельки даже до уровня гоймини 1.0 лет 10 еще
>>1038521 Анальники пусть сами скрапят/платят. Изначально все это было для инцелов которые в вымышленные миры убегают. И в этом гемини а особенно дипсик лучше гопоты.
Я снова тут зашел через кастом айпи. Постообработка промта тут есть ок. Strict поставил но оно все равно не работает, За что мне это? Почему это все мне? почему так сложно?
>>1038531 Если ты не анальник, то просто не можешь не сумечь самостоятельно заскрапить всё что нужно. Гуманитарий = социоблядь, среди социоблядей не бывает инцелов.
>>1038522 >китайцам обучать свои модельки даже до уровня гоймини 1.0 лет 10 еще Гемини даже современный параша пиздец почти непотребная. Молю винни пуха чтобы он до такого уровня никогда не упал
>>1038536 Я туповатый технарь. В общение не могу, для скрапа тупой и ленивый. В калфах не сижу Максимум моего социоблядства это попросить токен на почту
Аноны, я правильно понимаю что на гитхабе нет смысла ключи дипсика искать? Так как там всего 5 страниц выдает и скорее всего их всех уже давно прочекали.
я хуею с этого треда одна половина настолько тупые будто они после 4 класса в школе вместо обучения просто блядовали с одноклассницами и бухали в компашка другая половина псевдоумная но у них нихуя людского и даже на простую помощь можно не ждать
>>1038540 >>1038532 >>1038555 Никакой РП она вообще не держит, срёт гобеленами так что сразу вырубить хочется. Были скрины в прошлых тредах, она и в РП так же себя ведёт. Ну и вся эта ебанина с котом в РП не слишком нужна, нужна тренировка под РП. А это обычная гптыня.
>>1038558 И один ты дегенерат, который не может сделать такую банальную вещь как открыль консоль и вписать туда команду. Этому же вроде в пятом классе на информатике учат?
>>1038558 Меня травили и я прогуливал школу смотря аниме. Математику класса с 7 перестал понимать ... Я уже реально не знаю тролят меня нет говоря про промт менеджер. Почему так сложно стало. Ну господи я никогда настройки эти не трогал. Оно работало и так идеально же. Почему раньше с клодом и гпт все из коробки работало у меня а с выходом дипсика стало просто ад.
>>1038563 Мы на информатике проходили паинт около года, офис и эксель немного. Все. 0 консолей. Еще в кс играли. И информатике дольше года у нас не были. Потом вообще не было. Я в консоль впервые в жизни из-за вашего треда зашёл. Чтоб играть в доту и смотреть аниме мне это не нужно было ну
Промпт менеджер это локальный мем тут как и гит с cmd. На самом деле таверна работает на слезах паверюзеров, не разрешая им нормально работать со скриптами или датабанками.
ну хватит издеваться мне плакать хочется зашел аж на офф сайт таверны Доступ к Prompt Manager осуществляется нажатием кнопки «AI Response Configuration» на панели навигации. Prompt Manager находится под панелью общих настроек . где это ну скажите нормально? а то то что он есть, то что его нет это уже жесткий тролинг
>>1038594 Анон, дипсик не отвечает это не подробное описание. Я не понимаю конкретно твою проблему, поэтому могу предложить только общие советы: переустанови таверну, поменяй ключ/прокси, постучись к дипсику когда его перестанут дудосить или просто попробуй другую модель.
>>1038588 Так что мне тут нужно ввести и куда >>1038598 The first message (except the system message) of deepseek-reasoner must be a user message, but an assistant message detected.
>>1038594 >Мне дипсик не отвечает. Какой ключ используешь? Читай >>1038205 sk-*8f66 щас 20 сек примерно отвечает. Если используешь sk-5f30672202f442aea3ea26a2873f7fb9 то ясен хуй не ответит, его 24/7 долбят сотни флудеров.
>>1038594 Уёбок сука, для тебя в шапке в огромной пасте по клоду разжёвано английским по белому что такое промпт менеджер и какие роли бывают, в КАРТИНКАХ даже сука. Это фича таверны, а не клода. Тебе уже сказали её почитать, но тебе ЛЕНЬ сука, ты хочешь ныть, канючить и сопли пускать, чтобы тебя накормили на ложечке, ебучий инфантил.
>>1038601 Смотри, твоя ошибка, после перевода, означает следующее: > Первое сообщение (кроме системного) deepseek-reasoner должно быть пользовательским, но обнаружено сообщение помощника. Соответственно, в твоем пресете первое сообщение после системного является сообщением от модели, а не от юзера. Соответственно, чтобы эту проблему решить, тебе нужно исправить это в своем пресете, выставив первое сообщение от роли User, а не от Assistant.
>>1038608 Ну блять я это и так примерно понял сразу. А как это сделать то? >>1038607 Так с клодом у меня проблем то не было, он из коробки работал я своими ручками кроме карточки вобще ничего не трогал раньше. Я правда не понимаю сейчас.
>>1038613 Да ладно, классика сырка дорвавшегося до чатботов без цензуры. "Ой, а что если я буду с хиккочкой томокочкой под пледиком лежать?" Полежал, надоело. "Ой, я же фапал на геншинобабу, дай теперь она мне минет текстом оформит." Оформила, надоело. "Ух, хочу на пункте пропуска власть иметь и насиловать невинных девочек босяцких" Понасиловал, надоело.
>>1038616 >А как это сделать то? Тебе нужно открыть промпт менеджер и посмотреть внизу промпты своего пресета. Дальше, редактируй свой пресет под правило выше, либо просто добавь после промптов системы промпт от роли User с каким-либо сообщением. Или же, просто скачай пресет где такой проблемы нет в принципе.
>>1038622 нормиблядь обыкновенная а не сырок, поноет на прокси неделю и уйдёт отсюда потому что не разберётся в шапке и какие пресеты нужно воровать чтобы ДЖЕМИНАЙ или ДЖИ ПИ ТИ ответил "ahh bigdick...", если вообще додумается до этого
>>1038613 что тебе не нравится? Вот честно а? Я не спорю что я не очень умный, да я не технарь сразу сказал. Но что с картами не так? >>1038632 я тут с 2.0 клода могу спокойно пруфануть даже
Орунах, как же я четко угадал с русиком. И вот это говно вам клода сожрало, полюбуйтесь. Как минимум год сидит и блядь не знает что такое промпт-менеджер и консоль.
>>1038644 >>1038655 Что это? я правда не помню для чего он и зачем я качал как и половина остальных, я наверно для гпт его качал. Последний раз до дипсика я с гпт ток и сидел
Ладно, если у него действительно есть дикпиковый пресет, значит, сырок троллит. Отзываю свою готовность помочь, больше не жалко тролля. Извините за кормление.
>>1038664 айда это что? На китайском сонете (если это он нонет) я ровно 1 день поидел и там ввели вход через вичат или как там месенжер китайский зовут
>>1038653 Орянху)))) Извиняюсь конечно, но ты такой конченый додич. Клод пожрали китайцы с корейцами и форчановцами. Антонов с двача дай боже 1к наберётся, а тех по умолчанию тыщ 20 минимум, или поплачь лучше что тебе китайцы в жопу насрали
>>1038660 нажми правой кнопкой мыши на папку с таверной, отправить, зип архив. и вот сюда этот архив залей https://dropmefiles.com/ и сылочку в тред, дальше мы уже тебе разжуем как для маленьких, даже с видео
реально как нахуй, прокси, сокс, я ебу что ли где этот конфиг и прокси найти. анальники ебучие террористы ни объяснить ни хотя бы ссылку на гайд не дадут
Не понимаю, зачем китайцам такой долгий новый год. Пару дней поквасили байцзю и снова на работку по 12 часов каждый день. Улучшать и поддерживать лучшую коммунистическую нейросеть.
>>1038694 >двухметровой Если у тебя персона полторашка или ниже - база, если высокая - криндж. Кстати, из Геминек только флеш адекватно смог обыграть разницу в росте. Думайте.
Если у кого-то остались хоть какие-то вопросы почему эти ебанутые сторонние провы дерут в 10 раз дороже чем оно стоит, учитывая что у них нет кэширования и железо для них куда дешевле чем для китайцев то и в 20
>>1038762 На нонете сидеть невозможно после пысыка, вот как пример, где нонет высирает ненужную прозу вместо чего-то дельного и не описывая важного, а пысык все подхватывает. Вот бы у него еще мозги были это все систематизировать правильно..
НТР инжекты это база, кожаные лоботомиты должны учиться читать то что скачивают >>1038767 Вот именно, что дипсик это тотальный безмозг который может генерить только лулзы и максимум кум. В нормальное слоуберн рп нормально может только ноннет, не шизя и не путаясь в сюжете или снятых трусах.
>>1038771 Самописный полужопный, кидать я конечно же не буду ибо там насрано в промпт-менеджере разнообразными костылями, которые юзать будет удобно только мне Ну и у гемини еще есть потенциал для слоубернов т.к. у нее контекст лучше чем у ноннета и она например чаще вспоминает события. Но опять же убивает безмозг, в данном случае это шизовая путаница в разных деталях. Меня лично соннет пиздец как заебал и я надеюсь что гемини 2.0 про будет неиронично лучше.
>>1038782 К сожалению на соннете это так, если не прибегать к внешним костылям вроде генерации сюжетных планов. Дипсик вот может отлично развивать сюжет сам в плане ивентов, таймскипов и тд, но неюзабелен из-за того что путается буквально во всем.
>>1038805 у меня такого небыло, убери тогда их. кавычки более нужны были изза вожножных пробелов. тогда обратным слешом надо это фиксить, если недоступны кавычки
>>1038822 кстати я так и подумал что у тебя линукс, ну думаю так и надо указывать в названием диска, просто с обратными слэшами, погодь минутку щас оформлю
>>1038833 мб. Кароче похуй, разберусь с этой залупой завтра, запущу как нибудь. Напиши пожалуйста просто что делать когда эта клеёнка заработает и как код активировать айдовский
>>1038820 В плане роста это short. А так вообще да, любое сочетание триггеров и классификатор может сработать. Контекста он не понимает особо, т.к. тупой как пробка.
>>1038839 Она на виде работает, (проверял очень давно).
>>1038835 Дальше качаешь в майкрософт сторе пайтон. Создаешь проект, в проекте создаешь файл с расширением .py вставляешь туда код. Ну и перед запуском установи зависимости в консоли "pip install flak". И дальше прописываешь python *.py.
Сегодня весь день задавал дипсику вопросы. И вот какие выводы сделал. ЧатГПТ быстрее схватывает мысль, он быстрее угадывает, что ты хочешь сказать или пытаешься узнать. Дипсику же требуется больше уточнений, запрос должен быть более продуманным и детальным. Короче, ЧатГПТ понимает тебя с полуслова, как будто у него человеческая интуиция, а Дипсик слоупочный в этом плане и с загадками и намеками справляется хуево. Странно, что при этом у Дипсика есть чувство юмора, которое отсутствует у ЧатГПТ. Но зато у Дипсика в ответах больше конкретики - там, где у ЧатГПТ вода и размытые формулировки, Дипсик выделяет ключевые моменты, преподносит все по-существу, коротко и ясно. Несложные задачки по кодингу и математике оба решают +/- одинаково. Но в целом, от Дипсика осталось больше положительных впечатлений.
>>1038843 >>1038838 Объясните новичку анонну хикке отуда вы всё это берете? Это у кого-то украденные ключи? А как их вообще можно украсть? На фоне хайпа по этому киту, стал читать, что у вас тут давно уже живое общение с электротяночками. Теперь у меня есть надежда, что я хоть с какой-то тяночкой пообщаюсь.
>>1038884 Тут общаются проектировщики водопроводов. Всё что ты читаешь тут про чатботы - это кодовые слова, чтобы не спалили. Иногда мы говорим в открытую, перекатывая тред в водопроводный. Но пока тут нет ничего, возвращайся пожалуйста обратно в /б/.
>>1038916 > https://pastebin.com/uK0cU6Lv Мне шиза ударила в голову, и я начал трястись что меня по поведению/пастебину идентифицируют как 1 особь. Что мне не очень нравится. Я даже раньше свапал стиль письма постоянно.
Как вот с этой хуйней бороться? пишешь какой то абсурд а сетка пытается... что она пытается сделать своими вопросами? выставить дураком? как заставить ее в подобных случаях просто бить меня по почкам или слать нахуй без комментарием
>>1038950 Никак. Нужна сетка получше. Или в <думать> добавить какой-то пункт, который бы оценивал, нужно ли применять насилие. ...Надо это попробовать.
>>1038988 Сравнения охуенны. Побольше прямой речи, поменьше действий, а если действие - то обязательно с использованием сравнения, и немного внутреннего монолога (или без него) - считаю идеальный соус, показатель хорошего, годного ответа в рп.