НЕЙРОНОЧКИ И МАШОБ ТРЕД №33 /ai/
Аноним16/12/20 Срд 02:39:25№18816071
Очередной тред про хипстерские технологии, которые заменили нам Иисуса
Я ничего не понимаю, что делать? Вкатывальщики импортят slesarplow as sp по туториалам (хотя сейчас актуальнее pytorch) Толковые качают из репозитория awesome-XXXX на гитхабе проект какого-то китайца, меняют фамилию и получают $10M инвестиций как стартап. Умные смотрят prerequisites на https://see.stanford.edu/Course/CS229 и http://cs231n.stanford.edu/ Остальные сидят ИТТ
Какая математика используется? В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus
Можно не python? Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет
Что почитать для вкатывания? http://www.deeplearningbook.org/ Николенко "Глубокое обучение" - на русском, есть примеры, но меньше охват материала Франсуа Шолле - Глубокое обучение на Python
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/ Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.
Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском
Где ещё можно поговорить про анализ данных? http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100. Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь
Когда уже изобретут AI и он нас всех поработит? На текущем железе - никогда, тред не об этом
Кто нибудь использовал машоб для трейдинга? Никто не использовал, ты первый такое придумал. Готовь камаз для бабла.
Список дедовских книг для серьёзных людей: Trevor Hastie et al. "The Elements of Statistical Learning" Vladimir N. Vapnik "The Nature of Statistical Learning Theory" Christopher M. Bishop "Pattern Recognition and Machine Learning" Взять можно тут: http://libgen.io/
Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
>>1881436 → >За 100к картинок заплатишь тысяч пять Описание содержимого картинки, правильное и достаточно полное? Получишь качество на уровне марковской цепи с ключевыми словами из распознанных объектов
>>1881609 >Описание содержимого картинки, правильное и достаточно полное? Оно, как я понял, должно быть сжатым, в виде одного небольшого предложения. >Получишь качество на уровне марковской цепи с ключевыми словами из распознанных объектов На каждую картинку надо секунд 15 - получается 12 долларов в час за 240 размеченных картинок. Это даже много, можно и дешевле.
>>1881613 >На каждую картинку надо секунд 15 Ага, так и будут тебе описания херачить по 15 секунд за копейки. Будут в одно слово обозначающее самый очевидный класс просто писать и всё, из этого достаточно мощный генератор не сделаешь. Нужна более качественная разметка - плати и всё равно чистить придётся.
>>1881615 >Оголяющий бот. Стоит денег, $5 за 100 картинок после 3 бесплатных фото. Наверное наш нечеткий организовал, хули, нейронки же для зумерков тупых, любой справится
>>1881616 >12 долларов в час >за копейки Сколько по-твоему должны платить обезьяне без навыков, которая размечает картинки? Зарплату сеньора в Долине? >Будут в одно слово обозначающее самый очевидный класс Это все контролируется, по крайней мере на амазоновском турке. 12 в час это вообще очень много. За такую плату ты можешь найти людей с высшим образованием для которых это основная работа.
>>1881620 >Это все контролируется, по крайней мере на амазоновском турке. Ну два слова будут писать. Универсального контроля работающего для таких специфических задач нет, только для типовых разметок.
>>1881621 >Ну два слова будут писать. Универсального контроля работающего для таких специфических задач нет, только для типовых разметок. Индус размечает 1000 картинок, а ты детально просматриваешь штук 10-20, выбранных случайно. Вероятность не заметить халтурщика околонулевая.
Какие индусы, каргокультисты ебаные, вы в рашке живете, здесь зарплата в 200 баксов - хорошая. За 20к в месяц вы можете провинциальную студентку нанять, три таких студентки за месяц вам все разметят и будут счастливы от такой непильной работы. Индусы, 12 долларов в час, вообще охуеть.
Другой вопрос, что сейчас нужно не нейронку искать под задачу, а задачу под нейронку. Вот на это петушки не способны. Свои гениальные идеи нужно создавать после чтения архива, а не до.
Картинки по описанию как научная работа имеют нулевую ценность, если там не мега-прорыв какой-то. Потому что такие работы уже есть, и даже норм генерируют в пределах домена. Как коммерческий сервис не взлетит. На этом можно сделать, ну одну игру, и то придется рекламировать как ИИ-сгенерированную, иначе игроки не поймут грязный графон. Это не окупится. Как петпроект сойдет.
>>1881626 >нужно не нейронку искать под задачу, а задачу под нейронку. Главное - это решение задач бизнеса ну или своих собственных, а как именно решать абсолютно похуй. Хоть нейронками, хоть ad-hoc скриптами - главное, что работает.
>>1881633 > Как коммерческий сервис не взлетит Похуй. Главное чтобы это был инструмент заменяющий тебе дизайнера. Одиноким геймдевелоперам огромная помощь.
>>1881665 >Главное - это решение задач бизнеса ну или своих собственных, а как именно решать абсолютно похуй. В рашке может и похуй, когда у бизнеса горизонт планирования месяц, а работнику вообще важно дожить до получки и хуй забить на перспективы. А если у тебя горизонт планирования хотя бы пару лет, далеко не похуй. Главное - прибыль. Прибыль - это разница между затраченным и полученным. Одни решения дают прибыль сразу, одни не сразу. Они требуют постоянных усилий на поддержку и модификацию скриптов, другие просто работают. И так далее. И вот дальше ты как ml-слесарь пиздуешь на arxiv-sanity и просматриваешь заголовки, пытаясь понять, а какую хуитку можно встроить в текущий пайплайн твоего места работы. Если находишь - заебись, пиздуешь к чуваку повыше тебя в иерархии и толкаешь идею, финансирование. Не находишь - плохо, ищи дальше, или жди, пока твой начальник найдет и положит тебе в рот проект.
А вот пытаться с нуля разводить ресерч, если ты в бизнесе работаешь, типа как с этими "8bit captioning нейронка" это хуевая и рискованная идея. Такие идеи можно пробовать, но только если вложенные ресурсы копеечные - понял, что датасет ты напарсишь тут, модель тут, хуяк-хуяк. А если просто чтобы проверить твою гениальную идею нужно месяц координировать разметчиц, ну вы явно какой-то хуйней страдаете, на дворе 2020, гитхаб ломится от импелеменированных и гарантированно работающих решений, а вы свою родненькую гениальненькую (хххртьфу) идею отпустить не можете.
>>1881694 >на дворе 2020, гитхаб ломится от импелеменированных и гарантированно работающих решений Ещё думать как это полунеработающее говно присобачить к своей специфике, легче набрать данных и обучить, читай битерлесон
>>1881982 > Кластеризуй мне шум. Зумера, зачем вы такие? Шум никаких кластеров не содержит, как ты его кластеризуешь? Зачем ты вообще это написал? У тебя мозгов нет?
>>1881378 → А насколько выглядит рабочим вариант предсказывать параметры бета распределения, из которого берется матожидание (или семплируется) угла? Мне как раз неплохо было бы иметь вероятности углов.
>>1882367 Надо же, сойбои открыли для себя тезис Чёрча-Тьюринга, гласящий что все достаточно сложные вычислители в конечном счёте вычисляют одно и то же, независимо от их хитровыебнутости. Я прямо даже удивлен такой оперативности
>>1882372 >Чёрча-Тьюринга, гласящий >Хорошо смазанная жопа с засунутым членом лучше нейроговна Думаю Тьюринг это имел в виду, или какие у этого педика еще заслуги кроме жопоебли?
>>1882417 >знаешь заслуг Тьюринга Знаю что он ебался в жопу и называл себя Белоснежкой, остальное пеар западной лживой пропаганды. >>1882418 Хохлу англодрочеру пикрил
>>1882488 Одна из формулировок, к слову, из книжки Вапника из опхуй поста. Почитали бы умных людей вместо пидерлессона, как это сойбои для себя назвали.
>>1882412 Нихуя толстота пошла. Сделал он максимальный вклад в теорию вычислимости, больший чем кто либо. Ну и вся теория алгоритмов до сих пор крутиться вокруг машины Тьюринга, есличо.
То что он был няшным андрогинным трапиком это только ему в плюс офк
>>1882508 > В чем вообще смысл биттерлесона? В том, что сойбои открыли для себя то, что тезис Чёрча-Тьюринга, оказывается, и к машобчику применим. Ну кот бы мог подумать! Вапник об этом ещё в 90е писал, но это ДРУГОЕ конечно же...
>>1882541 За эти несколько лет тредов еще ни разу не было такого, чтобы он что-то понял. У него просто такая штука в мозге отсутствует, только комбинирование случайных баззвордов в случайном порядке.
>>1882490 >Сделал он максимальный вклад в теорию >вся теория Так я и говорю что петух-пиздабол, он даже Энигму не вскрыл с кучей таких же петухов пока ему разведка все ключи на блюдечке не принесла. Типичное оверхуйпнутое говно.
>>1882993 Не так просто этих макак встроить в систему. На той же толоке там и мониторинг скилов, и умная выдача заданий, и вариация цены. На типовых задачах это более-менее работает, но если тебе надо что-то более креативное, вроде словесных описаний, это гораздо сложнее.
>>1882962 > Саттон Сойбой. В случае с reinforcement learning он (это же он был?) даже не понял, чем занимается, не уловил, что по-сути пытался смоделировать скиннеровский three-term contingency. Так же и со своим "битерлесоном", написал то, о чем умные люди ещё лет 30 назад писали. А потом появляются свидетели этой хуйни, как ты, горький петух, которые по своему зумерству тоже не могут понять написанное.
>>1883262 >не уловил, что по-сути пытался смоделировать скиннеровский three-term contingency У скиннера была что-то кроме "хорошее поведения поощряем, плохое наказываем"? Если нет, то нахуя он нужен. Ну и результатов у него тоже нет. С тем же успехом можно сказать, что всё в мире сводится к категориям аристотеля.
>>1883262 Все поняли? Биттерлесон - это про тезис Черча-Тьюринга. RL - это про three-term contingency. Не поняли, нет? Короче, как этот конструшок - нечеткий петушок функционирует. Он берет какой-то рандомный термин из прошлого, пишет "X - это Y", и молится, чтобы никто в треде не знал, что такое Y. Если знает и говорит банальную вещь, что петушок опять соснул, - он начинает злиться и постить картинки с зумерками, но больше хуйни не пишет. Если же молитвы услышены и никто его не обоссал, он убедится, что все обошлось, и у него начнется очереднеая стадия шизы.
>>1883272 >У скиннера была что-то кроме "хорошее поведения поощряем, плохое наказываем"? Если нет, то нахуя он нужен. Ну и результатов у него тоже нет. Не будь петушком, уважай ученых. Петух специально выбивает тебя в эту плоскость, где он может нести свою шизу. Это хуйло даже статью в оригинале прочитать не может и ждет перевод на хабре, и пишет просто рандомный набор слов каждый раз по одному и тому же паттерну. Его утверждения, что "XXX не понял YYY" не основаны ни на чем, кроме желания высрать хоть что-то, будучи интеллектуальным ничтожеством.
>>1883272 > У скиннера была что-то кроме "хорошее поведения поощряем, плохое наказываем"? Было. Только сойбои его не читали, а я читал, в оригинале, вопреки кукареканьям горького петуха о том что я якобы не знаю англюсика поэтому знаю, о чем говорю. Сойбои а ты тем более с RL не ушли дальше понятия топографии поведения, в отличие от Скиннера. > Ну и результатов у него тоже нет. У него их полно, просто ты о них не слышал. >>1883273 > Все поняли? Биттерлесон - это про тезис Черча-Тьюринга. RL - это про three-term contingency. Да. Только чтобы понять, почему, мозги нужны.
>>1883352 Так у тебя их нет, лол. Сначала клоуном /math был, теперь здесь. Додвачевался до того, что сойбоями называешь людей, которые защитили диссертацию до того, как ты родился.
>>1883378 > Сначала клоуном /math был Ага, дебилы не понимают разницы между потенциальной и актуальной бесконечностью, а клоун я? Нет, зум, это так не работает. RL у долбаебов не работает потому что они долбаебы. Про Скиннера вроде слышали, но ведь с долбаебами всегда так - слышали, но не читали, читали, но не поняли, поняли, но не так. Поэтому RL не использует результатов, полученных Скиннером, а он ведь ещё лет 80 назад пояснял, в каких случаях и почему его подход может не работать. А теперь смотрим RL и видим, что эти ебланы собрали все грабли, о которых Скиннер рассказывал. Так что сойбой твой Саттон, можешь даже не спорить.
>>1883496 Если нечеткий петух такое пишет, значит это пиздеж, и не жопеншмульц доказал в 1927 году, а херожольц в 1925, на что у жопеншмульца была ссылка, но петух читал советский перевод его работы, где ссылки нет, и без перевода статьи на хабре он беспомощен, при этом сама теорема на самом вообще не о том и не применима.
>>1883949 Зумерок, иди почитай классику [Zhopenshmultser et al. 1946], там уже давно всё придумали. У сойбоев не модно изучать классику, а модно трясти нейронки, поэтому результатов не видно.
>>1884001 >>1884135 Нет ну серъезно, объясните кодомакаке, если все вот так замечательно в теории, почему не применяют? О массовом применении речь не идет, большинство трясунов - криворучки, однако почему ВЕЗДЕ stackMoreLayers?
>>1884404 Всё применяют. Например, в статье Performer используют наработки из кернел-методов. Просто шизиков меньше слушай, которые притворяются людьми.
>>1884404 > , однако почему ВЕЗДЕ stackMoreLayers? Горький петух говорит, что дело в битерлесоне. На самом же деле проблема в том, что сойбои ни во что кроме стекморлейерс не могут, а закон Мура приводит к тому, что и так получается неблохо, сравнить-то не с чем.
Есть одна таблица (пик 1). Я хочу сделать для нее heatmap, но такую, чтобы считала каждый столбец отдельно, как я намутил в экеле(пик2). Пик3 в matplotlib, a пик4 в seaborn и они учитывают сразу все значения и рисуют по нормировке всех значений, что мешает мне понять отдельные характеристики признаков. Вот теперь и возлюбишь винду.
>>1884916 >>1884913 Если сделать нормализацию, то нужное представление я получу. Но тут уже встает вопрос о том, не потеряю ли я какую-то критическую информацию, когда буду рассматривать нормализованные признаки? Не исчезнут ли выбросы, если такие есть, или еще что-то?
>>1885056 >>1885171 Ещё один дебилок. Прорыв Скиннера был в переходе от топографии поведения к понятию операнта, что дало возможность изучать поведение как явление, а не запутаться в бесконечных многообразий топографий поведения, на чем закончились исследования всех до Скиннера. Но откуда такие вещи знать одинаковым как под копирку зумерам без мозгов.
Насколько трудновыполнимой и ресурсозатратной станет задача оптического определения шрифта и, если такого шрифта нет в общем пользовании, хотя бы приближённая его отрисовка?
>>1885279 Вполне реалистичная задача, сопоставимая с распознаванием лиц по пайплайну. Собири датасет со шрифтами, напиши скрипт по агументации, который меняет у букв размер и цвет, и тренируй нейронку по букве выдавать эмбединг, соответствующий шрифту. Дальше все сводится в kNN в пространстве эмбедингов.
>>1885361 Читай старые книги там все есть. По крайней мере я про нейронные сети читал еще в дремучем детстве в обычной библиотеке обычного санатория-курорта.
>>1885380 >но меня интересует ещё возможность хотя бы приближённо воссоздавать оригинальный. Это тебе conditional gan нужен тогда В целом идея и бог весть какая свежая, нагуглишь дохуя чего
>>1885360 > хипстеры просто вытаскивают то что ученые лет 50 назад изобрели > По крайней мере я про нейронные сети читал А ещё хипстеры матрицы перемножают, а это вообще 150 лет назад начали делать. Сойбои не могут ничего нового придумать.
>>1885370 > Ты так примерно почуствовал, да? Я не он, но причем тут "почувствовал"? Я тебе даже точно назвал книгу Вапника с нужной интерпретацией тезиса Тьюринга-Черча и примерами использования его в машобчике. Видимо, не в зумера тайд коня корм. Что тут можно добавить, остаётся тебе только посочувствовать.
>>1885393 >Я тебе даже точно назвал книгу Вапника с нужной интерпретацией тезиса Тьюринга-Черча Я уже написал об этом все вот тут - >>1883273 'Он берет какой-то рандомный термин из прошлого, пишет "X - это Y", и молится, чтобы никто в треде не знал, что такое Y' При этом каждый раз (я не знаю какой по счету уже) нужно лезть руками и убеждаться, что там тупо какая-то нерелевантная хуйня. Один в один было так с no free lunch theorem, которую он упоминал в треде всякий раз, кроме тех случаев, когда она действительно нужна.
>>1885411 >Он берет какой-то рандомный термин из прошлого, пишет "X - это Y Так в чем он неправ? Если хипстеры просто называют баззвордом Y то что было в книгах под названием X?
>>1885413 В том, что X - это не Y, а просто не связанные между собой вещи. Что эти хипстеры защитили свои тезисы еще до того, как ты родился. Что споры о терминологии, а не научном приоритете, совершенно несущественны, да и научный приоритет - это больше про этику.
>>1885423 Ну так распиши ее. В отличие от этого пидораса, я принес конкретную ссылку и даже скриншотик. Понятно, что лично для тебя это вообще темный лес и какие-то случайные буквы, а ты просто поспорить зашел.
>>1885411 > там тупо какая-то нерелевантная хуйня У тебя просто мозгов нет. Я могу пояснить подробнее, но толку все равно ведь 0, ты и дальше будешь кукарекать, просто потому что такова твоя суть - петух. Вот смотри: - как тезис Чёрча-Тьюринга у Вапника определен, видно на скрине. А именно "все достаточно сложные вычислители вычисляют одно и то же семейство функций". - отсюда уже понятно, что из таковых вычислителей лучше тот, который проще устроен, т.е лучше такой алгоритм, в котором меньше изьебств. - именно по этой причине стекморлейерс + закон Мура в целом работает лучше, чем более умные и сложные алгоритмы. - в этом и есть суть соевого битерлесона, Саттон там же прямо приводит пример, как комплюхтер брутфорсом обыграл Каспарова: > В компьютерных шахматах система, которая победила чемпиона мира Каспарова в 1997 году, была основана на глубоком поиске вариантов. Тогда большинство исследователей компьютерных шахмат с тревогой смотрели на эти методы, потому что они применяли человеческое понимание предметной области — особой структуры шахматной игры. Когда более простой, основанный на поиске, подход со специальным оборудованием и программным обеспечением оказался значительно более эффективным, эти исследователи отказались признавать поражение. Они сказали, что метод «грубой силы», возможно, сработал один раз, но не является общей стратегией. В любом случае, люди не так играют в шахматы. Эти исследователи хотели победы методов, основанных на человеческом понимании игры, но их ждало разочарование И так далее. Вот такие очевидности объяснять, это пиздец же. Каким надо быть дебилом, чтобы не видеть настолько простых вещей...
>>1885577 >отсюда уже понятно, что из таковых вычислителей лучше тот, который проще устроен Нет, это ты выдумал. >т.е лучше такой алгоритм, в котором меньше изьебств. Так речь про алгоритмы или вычислители? Ты как-то перескакиваешь с предмета на предмет. >именно по этой причине стекморлейерс + закон Мура в целом работает лучше, чем более умные и сложные алгоритмы. Большинство нейросетей не являются полными по тьюрингу, так что они просто в разных классах находятся. Закон Мура ты прицепил просто так. Предпосылки про "лучше" неверны, да и ты не понимаешь разницы между вычислителем и алгоритмом. >в этом и есть суть битерлесона "general methods that leverage computation are ultimately the most effective" - суть биттерлессона >перевод с хабра проиграл
>>1885582 > Нет, это ты выдумал. Ты дебил. Там прямым текстом написано, что брутфорс лучше работает. > Большинство нейросетей не являются полными по тьюрингу, Ты дебил ещё раз. Причем тут вообще полнота по Тьюрингу?! > Так речь про алгоритмы или вычислители? Ты как-то перескакиваешь с предмета на предмет. Я про алгоритмы, вычисляющие функции зависимостей выходов от входов, т.е про весь машобчик. > Закон Мура ты прицепил просто так. Предпосылки про "лучше" неверны, да и ты не понимаешь разницы между вычислителем и алгоритмом. Ты дебил ещё раз. Короче, все ровно так, как я написал выше. Ты реально деревянный, ещё и полноту по Тьюрингу приплел...
>>1885577 >структуры шахматной игры Откуда у маняматиков и прочих задротов такой надроч на шахматы? Это же тупейшая позиционная игра, скучная и унылая.
>>1885586 >Там прямым текстом написано, что брутфорс лучше работает. Ты про тезис тьюринга-чёрча говорил. Где в тезисе написано, что лучше брутфорс работает? Где сравнения различных абстрактных вычислителей? >Причем тут вообще полнота по Тьюрингу?! Тезис тьюринга-черча про полные по тьюрингу вычислители. Нейросети в большинстве своём таковыми не являются. >отсюда уже понятно, что из таковых вычислителей лучше тот, который проще устроен >Я про алгоритмы, вычисляющие функции зависимостей выходов от входов Ты таблетки выпить забыл.
>>1885586 >Ты дебил ещё раз. Причем тут вообще полнота по Тьюрингу?! Кек. Sufficiently complex computers - это про Тьюринг-полноту. Привет. А дальше ты пишешь "отсюда уже понятно", но отсюда на самом деле ничего не понятно. В следующем абзаце Вапник пишет про spirit of the Church's claim. Спирит. Он не использует тезис Черча для дальнейших выводов. Он просто говорит, что дальшейшее смахивает на него.
То есть в этих двух абзацах, переводя на наш язык 1. Доказно, что тьюринг-полные вычислители эквивалентны 2. А я после экспериментов с данными как-то примерно почуствовал, что разные типы SVM эквивалентны. Прикольно пацаны?
Все это, конечно, интересно, но совершенно нерелевантно обсуждению, особенно с тем количеством пафоса и ЧСВ, которое ты сюда запихиваешь. Как обычно, в общем.
Сейчас один из вас такой: а ведь ты прав! Как я мог этого не видеть? Спасибо, что все мне объяснил.
На самом деле нет. Будете продолжать называть друг друга дебилами и поливать говном, пока не иссякнет запал (он уже иссякает). В результате оба сидите оплеваные, никто ничему не научился.
>>1885648 У тебя две ошибки 1. Зумерошиз - шиз, у него батарейка в жопе, а механизм понимания чего-либо у него отсутствует, 2. Не скажу, лол.
Вообще же вапник пишет про этот подход в совсем другом месте, он называет его подход AI hardliners. Только пишет он про это с некрываемым помпажом и время показало, кто прав в конечном счете. Вапник биттерлессон не усвоил, ему ЧСВ помешало. А условил бы - глядишь и 30 лет не проебали бы.
>>1885654 > Вапник биттерлессон не усвоил, ему ЧСВ помешало. А условил бы - глядишь и 30 лет не проебали бы. Ну конечно, Вапник в машобе не понимает, а горький петух понимает.
Тьюринги, что можно почитать про machine learning для тупых, прям для далбоебов где все разжёвано, чтобы можно было понят эти ваши БАКПРОПАГАЙШЕНЫ и прочие GAN'ы c нейронками
>>1885867 >Вапник в машобе не понимает Видимо действительноне понимает - гордыня мешает. "Я же такой охуенный, меня не заменят трясуном коробки со stackmorelayers"
>>1885943 > Видимо действительноне понимает - гордыня мешает. " Ну главное, что ты понимаешь. Прочитал одну соевую мантру, и сразу просветление нашло, как на Будду. > Я же такой охуенный, меня не заменят трясуном коробки со stackmorelayers" Почему-то до сих пор не заменили. На табличных данных всякие lightgbm и прочий бустинг (то есть, алгоритмы из области статистической теории обучения) превосходят трясунов со стекморлейерс. Наверное, потому что авторы не читали соевый битерлесон и не прислушиваются к горьким петухам?
>>1885999 Ты лучше без соевого мемасика "битерлесон" расскажи, как так получилось. Выходит, не правы сойбои. А раз так, то и ты не прав, горький петух. Оправданий хотелось бы.
Привет, няши! Поясните за алгоритмы, применяемые в современном ИИ. Правильно ли я понимаю, что нейронная сеть - самый передовой алгоритм для любого направления в ИИ? Какие есть годные альтернативы?
Анончики, есть какие-то рекомендации по вкату в анализ данных? Не именно машинное обучение, как у больших мальчиков, а всякие вещи попроще, типа, сбора, обработки, визуализации и репортинга по данным. Статистика и пайтоновский стек научных библиотек и я могу аплаится на вакансии по 200к в секунду? Или все чутка сложнее?
Раз уж тред после альфафолда накрыло батхертной шизой, покажу вам героев прошлого. А то вы и не знаете истории тут.
Вот вам один из самых колоритных ИИ-шизиков нулевых: https://www.nothingisreal.com/mentifex_faq.html Это титан шизы. Он постит про свой ИИ без перерыва более 30 лет. До интернета писал бумажные письма исследователям. Продолжает и по сей день, например на реддите: https://www.reddit.com/user/AiHasBeenSolved/ Пишет что он создал ИИ, и спамит ссылками на него. Суть теории на пике. Его ИИ это скрипт на перле, пытающийся парсить текст: https://ai.neocities.org/NLU.html Что характерно, поддерживается русский язык!
>>1886437 Сейчас уже по-моему нет тех былых шизов. Рыночек порешал. Вон еще в МВП треде вспомнили (не ИИ, просто эпичный кодер-шиз): https://en.wikipedia.org/wiki/Terry_A._Davis Так и дошел до бомжевания, тюрьмы и в конечном счете прогулки по рельсам. Не выживают они теперь. И это в Америке, где можно просто жить на улице и еду раздают нищим бесплатно. Что уж про рашу - тут мигом дурь выбьют. Остается только, как нечеткий петух, кукарекнуть пару постов в день и возвращаться в стойло.
>>1886462 Ну а как же золотце, жил в серпухове с мамой, и на кодаче постил свою шизоверсию лиспа, потом писал в пораше на английском, велит называть себя nash gold, и перекатился на украину, срал на нее там, а сейчас вроде в голландии
>>1886348 Без вышки не вкатишься, но какая именно вышка - не особо важно. В идеале, конечно, какая-нибудь техническая или экономическая. MS Excel должен знать хорошо (в т.ч. VBA), SQL. С этим уже можно найти какую-нибудь работу. В идеале еще статистика, Python, что нибудь из BI - Power BI \ Tableau - и будешь норм претендентом, но в целом порог входа низкий, но и зп соотвествующие. Часто еще хотят понимания основ веб-аналитики если идешь в продуктовое ИТ.
>>1886412 Причём, если прибавить пару миллионов на мощности и зарплату опытным ресёрчерам, это возможно бы и заработало (ну так, более менее, на уровне трансформеров). Как и тысячи разных альтернативных подходов в машинлернинге.
>>1886412 А по фактам он сколько-нибудь вменяемое что-то сделал или парсилка тупо не работает? >>1886719 В меме перепутали дата аутистов и ИИ ресерч. Можешь попробовать d2l.ai
>>1887555 Займись сексом, если повезет, через 9 месяцев у тебя будет своя первая нейронка, еще через некоторое время появится полноценная возможность обучать ее.
>>1887702 Всегда есть вероятность прорыва, когда исследуются самые основы. Отменяются попытки накостылить какую-то особую модель под конкретную задачу.
Привет. Хочу задать вопрос нейросеточникам. Требуется перегнать замусоренные хмл документы в маркдаун с вкраплениями аштиэмель таблиц. Какая нейросеточка мне нужна? Спасибо
В рамках проекта по знакомству с шизами, еще один колоритный персонаж. Борис Казаченко (почему они все русские?), живет не где-нибудь, а аж в Бостоне. Безработный, занимается созданием ИИ. Его манускрипт: http://www.cognitivealgorithm.info/ Я в принципе люблю альтернативщину. Но огромное количество бессвязного, часто бессмысленного, текста, перепрыгивание между совершенно разными темами в соседних абзацах и предложениях, посещение всех "больных мест" для типикал шизов, обилие каких-то одному автору понятных формул, позволяет твердо поместить поциента в палату душевнобольных. Очевидная сверхценная идея, при отсутствии какой-либо конкретики (что неумело пытается скрыть стена текста). Интересен тем, что (якобы) платит своим последователям за вклад в код реализации своих идей. Если это правда, то деньжата у челика водятся, хотя линкедин девственно чист. Видимо, не так прост Казаченко.
>>1888490 Что значит не работает? Утверждения теории Вапника-Червоненкиса доказаны строго, если что-то не работает значит либо можно их опровергнуть либо они на самом деле верны и разлад происходит по какой-то другой причине.
>>1888561 > либо они на самом деле верны и разлад происходит по какой-то другой причине. Я тебе скажу по какой причине. SVM никто не стыковал сотнями слоев, базовая модель меньше любого перцептрона. Как только попробовали бустинг из той же теории статистического обучения, что-то он везде кроме распознавания негров и ещё пары узких задач, нейроночки уделывает.
С понедельника две недели каникул. Анон, реквестирую гайд с нуля по джуна по машобу за две недели. Так чтобы даже вебмакака осисил. Только, чтобы без участия машины времени.
>>1888821 Забавно вообще получилось. А я ещё когда-то думал (лет 10 назад), что я горячее дерьмо в математике, а в итоге почти всю свою вышку вывозил исключительно за счёт практических работ и надеялся на автоматы. Как только уровень абстракции полез уверенно вверх в сравнении со школьной математикой, то сразу становится ясно кто брейнлет, а кто нет.
>должен был получать 4 автоматом за линейную алгебру >лектор отказался ставить автомат кому-либо >пришлось платить за экзамен так, как кроме векторов и матриц я чутка отстреливал разве что за кольца и поля, а это было даже не половина материалов курса
Зато шутейка "утонуть можно не только в море, но и в поле" запомнится мне, скорее всего, на всю жизнь.
>>1888822 Они исходили из предпосылок, которые были слишком просты и сильны. Они не выполняются для современных моделей. По ходу дела выяснилось, что вся теория применима исключительно к линейной регрессии, то есть абсолютно бесполезна, потому что линейная регрессия проста как табуретка. Чтобы ее использовать, не нужны эти нагромождения.
Господа data sience что вы делаете на работе? Обрабатываете таблички бабы сраки из бухгалтерии и на основании их делать ml модель, презентацию, power bi графику?
>>1886412 Помню, был такой чувак, Роберт Деш. Придумал Деш-компьютер. Я про него треды ещё в 2009 создавал в /b/, у него стримы были на смотри.ком. Тоже шиз был, с него дико рофлили Дед скончался где-то в 2012-2015
Не разбираюсь в мл, прошу отнестись с пониманием. Есть желание сделать бота-советчика для трейдинга криптой с использованием ТА. Отторговав вручную с большим процентом успешных сделок и проебав всё на фьючерзах, возникло сильное ощущение, что мл может помочь в этом деле. Разумеется, он никогда не предскажет очередной дамп медведей или памп быков, но если он хотя бы в 60% случаев УГАДАЕТ куда пойдет цена, то это уже будет прекрасно. Предположим, что наиболее предсказуемый таймфрейм - 1 или 5-15 минут.
Что есть: данные о ценах open/high/low/close/volume, за всё время, поминутно. Из одной только цены вряд ли выйдет что-то стоящее, поэтому из этих данных можно получить значения для самых разных индикаторов вроде RSI, MACD и прочих, и тоже скормить сети.
Итак у меня 2 предположения как это может сработать: - датасет цен с размеченными точками входа и выхода, на основе этого оно будет предполагать насколько безопасно покупать или продавать сейчас (возможно тут же как-то стоит определить аномальные ситуации, когда киты вливают большие суммы и непредсказуемо шатают рынок) - датасет с ценами + индикаторами (опытным путем подобрать какие даст лучший результат, не создавая шум)
Направьте в 3 направления: 1) Как написать банальный предсказатель цифр? Как я понял не понял нужен - sequential lstm. 1.1) Как сделать предсказатель на основе нескольких параметров? Не только на основе цены, но и на основе оборота за текущую минуту (мне кажется, уже только это существенно прибавит точности предсказаниям) и различных индикаторов технического анализа. 2) Как написать reinforcement learning модель для разметки огромного датасета? Как я представляю это: есть прога где рисуется график, я тыкаю вот тут купить, вот тут продать, и спустя n тыков оно будет само достаточно точно подбирать зоны покупки и продажи. И как потом уже на основе этого датасета построить нейросеть? Подозреваю, что эту задачу можно решить сугубо математическим путём, если знаете как подскажите, формулы из инета не справляются с таким огромным количеством данных, считало бы вечность. Да и просто интересно вникнуть как делать rl-проги. 3) А может reinforcement сразу в дело пустить? Есть датасет цен из прошлого, новые можно грузить риалтайм и пускай на этих данных и учится. На этот метод сильно не рассчитываю, но тоже хотелось бы узнать как такое реализовать.
Не ебите за тупость. Прогать немного умею, в мл не умею, синтаксис питона иногда ставит в ступор, например, с его объявлением странных листов в подобной форме - [:, :-1], хуй поймешь что это значит.
>>1889994 >Есть желание сделать бота-советчика для трейдинга криптой Ботов обкатывают на рынках уже 50лет как минимум, с нейроговном ты соснешь, поскольку после тряски ящика ты не поймешь почему он тебе так хорошо/плохо насоветовал.
>>1889980 Что там такого? То же самое, что голову сменить, только с обратной стороны. Смысла нет, конечно. Разве что, может, научиться переводить картинки из другого цветового пространства, или что-то такое.
>>1889994 Почитай и разберись нормально с индексацией и слайсами листов в питоне. Там нет ничего сложного, ты просто не пытался разобраться. Нотация сама по себе довольно понятная [откуда:до куда:с каким шагом], но отрицательные значения могут действительно казаться странными в первое время. [::-1] вроде обычно юзают, чтобы сделать реверс копию листа. Разберись. Это просто полезно знать, мало ли когда тебе нужно будет какой скрипт на питоне бахнуть. И, если мне память не изменяет, то пандас использует похожий синтаксис со срезами при работе с датафреймами.
>>1890015 Как раз таки если мл разметит за меня точки закупа-продажи, то я могу записать их и увидеть в каких обычно точках стоит закупать. Имею в виду в точках с каким rsi, с каким объемом, при пересечении каких линий обычно сделка выходит удачной.
>>1890017 >научиться переводить картинки из другого цветового пространства Не научится, только более глубокие фичи по менее глубоким можно файнтюнить, в другую сторону хуйня выходит.
Есть датасет с изображениями, которые имеют 1)артефакты сжатия после конверсии из jpg или дефекты и 2) чистые png без артефактов. А есть ли уже готовый сортировщик изображений, который можно обучить на своём датасете из двух (ну или скольки-то там) классов и чтобы подаваемые изображения сам сортировал о папкам? Я вижу, что это детская задачка для ML, что есть TF имплементация без сортировки https://www.tensorflow.org/tutorials/images/classification?hl=ru. Больше на гитхабе решения не вижу, есть только простые классификаторы без практической пользы типа сортировки по папкам. Запускаешь тренинг, запускаешь тестовый сет, получаешь вероятность. Мне самому изобрести велосипед-сортировку проще чем искать решение готовое? извините за тупой вопрос, я всё еще не прогер, но я запилю эту сортировку, если нужно. Просто еще не работал сильно с листами юпитера. Тогда еще тупой вопрос- как листы юпитера работаеют с импортируемыми зависимостями? Юпитер ноут может выбирать из установлленных у меня сред нужную (т.е. мне нужно таки ставить в конде сначал все зависимости?) Или он работает как-то по особому и ему не нужна среда вообще и ничего в конде ставить не нужно и он сам все зависимости собирает и устанавливает где-то у себя в памяти динамически при запуске листа? По моему малому опыту вроде вариант второй, но вот вчера заметил, что в юпитере можно выбирать среду из тех что есть в конде. И меня мучает впорос, а зачем юпитер нужен вообще? Это просто удобное представление с поэтапным запуском кода с переносом переменных из этапа в этап? Или там всё же удобство на уровне вирутальной среды разработки, типа написал все зависимости в листе и уже только его можно распространять, не нужно ставить среду в конде вообще? Я просто не помню, чтобы в листах юпитера что-то мне приходилось устанавливать при запуске. Или я просто сталкивался только с примерами где зависимостей не так много было или у меня уже всё было установленно в основной среде?
>>1888516 > огромное количество бессвязного, часто бессмысленного, текста, перепрыгивание между совершенно разными темами в соседних абзацах и предложениях, посещение всех "больных мест" для типикал шизов, обилие каких-то одному автору понятных формул, позволяет твердо поместить поциента в палату душевнобольных. Очевидная сверхценная идея, при отсутствии какой-либо конкретики Я когда пыхну плюху таким же становлюсь. Когда отпускает со снисхождением смотрю на свои высеры, которые недавно казались истиной.
>>1890694 У меня тоже был такой период. Я пытался создать явный алгоритм обобщения из данных, и был уверен, что я знаю, как это сделать. При этом ни одна моя попытка не работала, но это меня нисколько не смущало. С годами я понял, что эта уверенность проистекает из простейшей мысли "я самый умный", а раз я самый умный то если кто-то и может создать ИИ, то это я. И никаких настоящих идей поверх этого не было, просто мозг брал любую рандомную мысль и превращал ее в ТО САМОЕ, ВОТ ОНО. Потому что должна же быть идея, раз я самый умный, верно? Вот так я и излечился. Сейчас копаю нейроночки спокойно уже, пытаюсь что-то сделать, понимая низкую вероятность успеха. Успех нейроночек я не предсказал: до ДЛ революции они мне казались какой-то глупостью. Настолько я мало понимал тогда на самом деле. Зато самомнение было ого-го.
>>1890304 > артефакты сжатия после конверсии из jpg или дефекты Чувак, бери высококачественные png и сжимай их в jpeg с качеством 7 и ниже. У тебя будет одна и та же картинка с артефактами и без. Сохранение это крайне дешёвая операция. Ты картинки дольше искать качать с данбуру будешь
>>1889980 >но к счастью для тебя в этом нет никакого смысла Смысл-то есть, получить из GAN'a Conditional Gan, вот только дискриминатор готовый, и к нему надо как-то прикрутить передачу меток. >>1890017 >То же самое, что голову сменить, только с обратной стороны. Нужен пример. Спасибо.
Существует ли методика обучения, когда обучающий массив формируется из более-менее натурально выглядящих рендеров 3д модели объекта, а уже работа сети происходит на реальных фотографиях? Ведь гораздо производительнее будет смоделировать или взять готовые 3д модели например автомобилей, сделать скрипт который будет делать рендеры с разных ракурсов и с разными освещениями, разными бликами и разными цветами автомобилей, менять их форму. А потом автоматом все скормить сетке. Ведь по сути на картинках мы видим проекцию 3д объектов реального мира.
Допустим я решаю задачу классификации. Испробовал несколько разных методов, выбрал лучший. Пусть он показывает 95% точности на тесте. А как мне быть уверенным, что это потолок, и лучше точность я получить не смогу?
Привет анонче. Взял с работы отладку FPGA с поддержкой CNN и камерами. Что интересного можно сделать на сверточных сетях? Типичное распознавание образов, мне кажется, все давно уже видели.
>>1892947 Сделай демо анонимизации человека, как в черном зеркале. Распознавание лица + сегментация, и если оно узнало тебя в кадре, то ты весь заливаешься шумом.
Аноны, такой вопрос. Имею профильную вышку (прикладная математика и информатика), работаю в науке - занимаюсь статистическим анализом данных (всякие стандартные тесты и методы, плюс к тому, немного кластерного анализа и методы выявления нелинейных зависимостей) и обработкой электроэнцефалографических данных (обработка сигналов и теория графов), использую R и Matlab. Хочу вкатиться в машоб и сменить работу. Разумно ли будет для подготовки проходить какой-нибудь серьезный курс по ML и решать параллельно задачи с kaggle? Ценится ли вообще у работодателей научный бэкграунд (навыки постановки гипотез и подбор инструментов для их проверки)? Что посоветуешь, анон?
>>1894426 >Разумно ли будет для подготовки проходить какой-нибудь серьезный курс по ML и решать параллельно задачи с kaggle? да >Ценится ли вообще у работодателей научный бэкграунд (навыки постановки гипотез и подбор инструментов для их проверки)? да
CV-господа, поясните, что сейчас является сотой в OCR? Есть ли что-то более умное, чем модель для детекции + crnn? И если нет, то есть что-нибудь для детекции лучше, чем юнет?
Сап. Делаю нейронку для поиска паттерна в одномерных бинарных данных. Хочу как на скрине сделать разбив бинарник произвольной длины на кучу пересекающихся ползущих окон каждое из которых проверить недольшой нейронкой натренированой искать конкретный паттерн и в поллинг слое сделать шириной окна весь конволющен слой. Но я что-то не понимаю как ораганизовать разбиение одного большого файла на много маленьких векторов и как потом тренировать сеть если я даже не знаю в каком окне нужный патерн попался. Где про такое почитать?
>>1894909 Битерлессон кто-то не прочитал ещё итт? Нет смысла изобретать какие-то свои алгоритмы под задачу, набери данных, возьми достаточно глубокую архитектуру и вперёд.
>>1894426 да, братиш, самое основное - это научный бэкграунд. Чем конкретно занимаешься, лингвистикой? Степень есть?
могу посоветовать - applied ML course на курсере от University of Michigan как старт для того чтобы понять основные модельки (линейные, kNN, основанные на деревьях, и чуть-чуть сеток) Там типа лайт-теории про основные модели на сайкитлерн (параллельно разберешь матплотлиб и сиборн; панда, нампай, реджекс, сайпи сами придут).
Потом сразу вкатывайся на Kaggle и разбирай типовые задачи и сам решай. Сабмить, сабмить, и еще раз сабмить свои ноутбуки, Можешь еще вышевский курс глянуть (тоже курсера), как выиграть на кегле. Там есть дельные советы.
Потом тензорфлоу, керас и пайторч (ну и всякие диплернинг модели подучить - тут Эндрэ Инговский deeplearning.ai в помощь)
Клаудкомпутинг будет нужен на этой стадии - google cloud computer engine, aws
ВI визуализация - Tableau и Microsoft Power Bi для презентации
>>1895563 Горький петух, ты сам-то эту хуйню читал? Там разве написано, что новые алгоритмы сами за баней растут или что нынешние нейроночки - лучшее и самое эффективное, что может быть сделано человечеством? Или может быть, там написано, что закон Мура это закон природы, а не следствие непрерывного прогресса? Ты же реально еблан, каких мало.
>>1895600 > что закон Мура это закон природы, а не следствие непрерывного прогресса? Это, кстати, и так очевидно всем было. Прогресс (и закон Мура) это естественное следствие энтропии. Зная, как ведет себя энтропия, мы можем приблизительно сказать, что ждет человечество в будущем.
>>1895624 >мы можем приблизительно сказать, что ждет человечество в будущем. Не сможешь, 50 лет назад думали что освоят космос и будут умные роботы, а оказалось дибиляторы с челочкой и ТикТок.
>>1895600 >Там разве написано, что новые алгоритмы сами за баней растут Основной алгоритм - градиентный спуск - уже придуман. Ты кажется не понял о чём битерлессон, он о том что эра ПРИДУМЫВАНИЯ закончилась.
>>1895701 > 50 лет назад думали что освоят космос и будут умные роботы, а оказалось дибиляторы с челочкой и ТикТок. Да. А 100 лет назад так же думали, что построют калмунизм, и будет всем счастье. И что ничего лучше и прогрессивнее писулек карламарлы и ленинда человечество уже никогда не придумает. То же самое сейчас кукарекают всякие горькие сойбои >>1895778 что мол, лучше градиентного спуска ничего в принципе быть не может. Но все это пример сектантов, которым ничего объяснить невозможно.
>>1895701 > Не сможешь Под "примерно" подразумевался общий верктор развития. К примеру, гарантированно известно, что рождаемость по всей планете снизится до минимума. А известно, потому что график роста популяции любого вида - сигмоида. По сигмоиде, кстати, развивается не только жизнь, но и технологии. То есть когда-нибудь настанет тот момент, когда в прогрессе не будет никакого смысла, ибо уже всё есть, и все потребности удвлетворены.
Аноны, может есть ахуенный сайт, где можно скачать картинки нужных utf-8 символов раздельно? Хочу сам выбирать символы для обучения, упакованные байты не особо катят.
>>1895986 >что построют калмунизм, и будет всем счастье Все великие достижения России были при СССР и плановой эеономики, при копетоглизме страна преворащается в говно, в прочем как и любая копетоглистическая страна. >>1896039 >когда в прогрессе не будет никакого смысла, ибо уже всё есть, и все потребности удвлетворены. Так либирашки и копетоблядки и сейчас не видят в прогрессе смысла, им бы соевой колбаски да ипхон в жопу. >>1896039 >снизится до минимума Да, золотой миллиард называется.
>>1896214 >золотой миллиард называется хуета полная, население растёт по экспоненте капиталюгам надо чтобы рабы конкурировали между собой за тарелку гм риса и помидоры четвёртого сорта
>>1896303 >>1896300 Работающее ИИ как в фантастических рассказах не выгодно в первыую очередь капиталлистам, так что никакого прорыва в ближайшее время не ожидается.
Накопипастил с инета лстм модель. Почему она не предсказывает будущее, а просто выдаёт то, что уже есть (-1 день), но с искажением. Что делаю не так? Как заставить её давать предсказание на 1 день вперёд и потом циклично вперёд?
>>1895986 >А 100 лет назад так же думали, что построют калмунизм, и будет всем счастье. И что ничего лучше и прогрессивнее писулек карламарлы и ленинда человечество уже никогда не придумает.
Карламарла - это и есть попытка ПРИДУМАТЬ новый super yoba ultimate edition алгоритм, который сделает всё порешает и сделает заебись. Но оказалось, что капитализм работает лучше, а если добавить вычислительных мощностей - то вообще заебумба.
Что если сравнивать хэши вместо прямого сравнения данных? Например, хэш идентичен на 50%, данные идентичны на 50+-20%. Вместо сравнения данных, мы переводим байты в хэш и все. Только чтобы 100000000 и 0111111111 было одним и тем же, но мы не ебались с представлением этих данных и их сравнением. Такое вообще реально? Какой хэш можно использовать?
>>1895701 > и будут умные роботы Какие же фантасты/футуристы дауны, пиздец. Уже есть разумные саморемонтирующиеся биороботы - нет, надо дрочить на железки с алгоритмом черепашки
>>1896498 >Почему она не предсказывает будущее, а просто выдаёт то, что уже есть (-1 день), но с искажением. Потому что, внезапно, цена прошлого дня это довольно хороший бейзлайн который сетка сразу выучивает и на нём и останавливается. К теме битерлессона кстати, чёрные ящики хватают low hanging fruits, поэтому там где человек может что-то проанализировать и улучшить (например, для финансовых временных рядов) сетки сосут, и в лучшем случае используются как вспомогательный алгоритм.
>>1896832 А какой тогда смысл в результатах того лстм? Он просто показывает насколько сильно текущие цифры отличаются от старых? Лстм может продолжать ряд цифр?
>>1896869 Ну если хочешь продолжать с сетками то >>1896500 Но точного рецепта не существует, пробуй разное: подкручивай параметры, регуляризацию, лосс итп может случайно что и выйдет
>>1896897 А, ну так лстм устроен, сетка состоит из последовательно соединённых клеток каждая из которых имеет свой выход. Если тебе нужна цена в последний момент бери последний выход только.
>>1896336 > Работающее ИИ как в фантастических рассказах не выгодно в первыую очередь капиталлистам, 1. Автоматизируешь производство от и до 2. Себестоимость товара падает до нуля 3. ?????????? 4. PROFIT!!!!!!!!!!
Почему биттер лессон всё ещё не порешал задачу машинного перевода? И как планируется его решать для low-resource языков? До сих пор нормально не можем переводить с английского на немецкий, а для них тонны параллельных текстов есть, да и языки родственные. А как будем переводить с кечуа на ирландский? Почему биттер лессон не решил superresolution? Данных для обучения в интернете - петабайты, если не больше. Неужели просто stack more layers не работает?
>>1897093 >всё ещё не порешал задачу машинного перевода? ГПТ-3, не ждём а готовимся. >И как планируется его решать для low-resource языков? Нахуй нинужны, сейчас бы всерьез задрачивать нахрюк полутора землекопов.
>>1896342 Хорошая задача, кстати. Так четко показывает именно человеческий тип восприятия. Могу посоветовать только ГАН лосс, нужно набрать вручную сделанных ASCII артов и дискриминировать между ними и сгенерированными.
>>1897093 БЛ ничего не решает. Он говорит, что нет смысла городить какую-то мего архитектуру для перевода, мучиться собирая правильные чистые данные. ГПТ-Х просто будет переводить с любого языка на любой, включая некорректные, неполные предложения, игру слов, обрывки текста, разговорную речь и все что хочешь. И никогда ты вручную лучше не сделаешь. Для общего суперрезолюшна (который вообще-то уже вполне решен для конретных приложений) нужна будет такая же сеть как ГПТ, но для визуальных данных. Над чем сейчас работают множество людей, между прочим - визуальные трансформеры это самая горячая тема конца 2020. И они, по-видимому, скоро съедят сверточные сети.
>>1897196 Ну давай расскажи, зачем они нужны. Чтобы престарелый шизик высрал очередную статью об особенностях флексативов в умляутах абырвалгского нахрюка?
Сейчас наступает 2021 год, я решил начать свой вкат в питон (преимущественно в нейросети, может ещё потом веб) начиная с первого дня нового года упорно заниматся изучением темы.
Подумалось мне, было бы неплохо осуществлять с кем-то совместно вкат, можно вопросы друг-другу задавать, объяснять темы, пилить совместные проекты.
Всё что имею при себе - базовые знания питона и программирования (переменные, циклы, ветвления, списки, словари, исключения вот это всё).
Если кому интересно пишите на фейкомыло johntitor47@yandex.ru
>>1897533 Вкатуны друг другу никак не помогут. Тебе нужен ментор, который уже много знает и поможет сориентироваться. Поступай в вуз и ищи там хорошего научрука.
>>1897533 >Всё что имею при себе - базовые знания питона и программирования (переменные, циклы, ветвления, списки, словари, исключения вот это всё Начни этот год с изучения матана. Вот эту >>1888821 книжку скачай и посмотри на материал.
Хочу сделать игру по типу Zork, естественно с машинным обучением. Мне нужно что-то очень быстрое и эффективное. Задача не простая - нужно целый виртуальный мир симулировать. Есть идеи?
>>1897143 > ГПТ-3, не ждём а готовимся. Не запустится на моем железе и даже гуглу придетмя нормально так вложиться, чтобы эту бандурину запустить. Не нужно.
>>1898486 > Dwarf fortress Вот только в Dwarf Fortress не приходилось обрабатывать команды по типу "взять попугая, засунуть его в рот, а пережевать, а потом выплюнуть"
Бляха, страх упустить возможность на максимуме. Помогите дать прогноз точки падения на основе прошлых цен и объемов. Есть вероятность удачно зайти в шорт и хорошо заработать на падении.
>>1899070 Да блядь, как вы заебали, скептики. Естественно есть риск, чтобы его снизить я и хочу понять когда большая вероятность коррекции цены. Про трейдер это и сам из графика поймёт, для остальных есть - мл. Но у меня руки из жопы, неделю ебался, не смог разобраться с вашими лстм.
>>1899094 Обвал, разумеется, неизбежен. Вопроса только два: до какой цены дойдет на пике, и какая установится в новом эквилибриуме. Неправильно расчитав, ты проиграешь, если будешь пытаться шортить. Безопасная стратегия, как обычно, держать и докупать между туземунами.
>>1899094 У меня куча знакомых пытается как-то играть на биржах того или иного вида. Биткоин-не биткоин, не важно. У всех при этом уверенность, что можно играть правильно, грамотно, и если действовать так, то чего-то будешь зарабатывать.
На деле это рандом, предугадать который нельзя, и даже были исследования про трейдеров, которые показывали, что выигрывают в среднем не больше, чем когда делают рандом ставки.
Кто-то может быть может предсказать хайп и на этой основе сделать выгодное приобретение, но это не по графикам делается.
На деле зарабатывают за счёт того, что биржа растёт. А растёт сильно потому, что приходят новые буратины, которые вкладывают свои деньги, желая заработать. Хотя активы, которые продаются, в основном сами прибыли почти не приносят и нужны только ради спекуляций.
Никакой математики за этим нет, чтобы нейросеть могла чего-то предсказать. Просто ловушка для тех, кто считает себя особо умным, типа я такой продвинутый, нейросеть натравлю и разбогатею.
При этом те или иные расчёты с помощью компов трейдеры делали ещё с прошлого века, но там роботы скорее помогают на коротких технических колебаниях по копеечке что-то приличное зарабатывать, и то сложно, поскольку все этим пользуются.
Нейросеть нельзя научить, не имея большой учебной выборки. А учебной выборки здесь нет и быть не может.
Посоветуйте вводный курс по МЛу, желательно на русском. Знаю немного основы программирования, Python, матан/линал/тервер. Специализация от Яндекса и МФТИ на курсере норм? Еще на степике есть какие-то. Хотелось бы совет от анона.
>>1899149 Я лично торговал успешно, за месяц только пара дней в минус. Естественно не от балды, а по графикам. Рандом случается крайне редко и он значит только одно - крупный инвестор что-то чудит. И к счастью чаще инвесторы повышают цену неизвестных валют (и продают на пике), после чего она постепенно падает, не наоборот.
Да, нельзя высчитать на 100%, но можно на 70%. Против теханализа невозможно переть, оно работает по факту, отрицать это могут только максималисты, подразумевая, что оно не работает во ВСЕХ случаях.
>>1899164 Логика такова, что в среднем выигрыш такой, насколько биржа в целом растёт.
Например если биржа выросла на 10%, ты торговал на миллион и заработал 100 тысяч, то ты просто заработал за счёт роста биржи.
Если больше, то тут только один вариант, ты должен был выиграть у кого-то, то есть кто-то должен быть проиграть тебе свои деньги, на неудачных ставка. Здесь классическая игра с нулевой суммой против других торговцев, ну с поправкой на рост биржи.
Причём играют ведь не только продавцы из пятёрочки, там очень даже квалифицированные трейдеры, которые все эти теории знают, очевидно.
Вот nasdaq хорошо рос, и в среднем там заработали. Причём как исследования показывают, что если ты будешь случайно делать ставки, то твой выигрыш будет примерно таким же, как и в "осмысленных" стратегиях.
Выигрывают за счёт роботов, которые на доли секунд раньше конкурентов хватают удачные лоты. И за счёт предугадывания хайпа, что делается не по графикам, а по анализу настроений. Или во время пертурбаций мощный вроде ковида, но это всё такие вещи, которые нестандартные и там нейронки не помогут.
>>1899184 Ты путаешь с бинарными опционами Естественно кто-то теряет на бирже, не всем суждено оставаться в плюсе Сказки про закуп и продажу от балды придуманы какими-то клоунами для клоунов. Это сразу же понятно через пару дней трейдов. Да просто взгляни на минутный график любой криптопары, увидешь, что у него всегда есть пики и падения, которые зачастую можно предсказать. Нет вообще принципа "хватают первей", ордеры ставятся заранее. Для масштабных прогнозов и учета внешних факторов используют нейронки для анализа статей, но это всё речь о каком-то идеальном боте. Я просто говорил о банальном анализаторе, который будет ПОМОГАТЬ понять выгодная сейчас точка для закупа или нет. Это можно и самому понять, но нужен большой опыт и плотный анализ графика за прошлые дни. Часто после пары суток торговли на одной паре начинаешь чувствовать себя как рыба в воде, хорошо подбирая точки входа и выхода. Но люди неидеальны, особенно когда шалят эмоции.
>>1899300 >Из интересного: визуальные данные, встраивание людей в тренировочный цикл. Очень интересно, а не забывать контекст спустя одно предложение научится наконец? Или для этого ещё триллион-другой баксов понадобится?
pred = model.predict(np.concatenate((train_x, test_x), axis=0)) # old was just "train_x" pred = scaler.inverse_transform(pred) dataset = scaler.inverse_transform(dataset)
>>1899312 Трансформеры ващет могут смотреть сразу на весь поданный котекст, в отличие от РНН, которые как раз забывают. В этом основная сила их. Генерировать складно люди будут доучивать вручную. Триллионы баксов - кто их считает там? Они разрабатывают общий ИИ, это технология вне обычных экономических понятий вроде прибыли. Это перевернет все.
>>1898873 >>1899004 Мне не понятен порядок действий. Есть тензоры картинок, и есть тензоры меток. Тензоры картинок с целью экономии оперативки сохранены в файлы на диск, и уже оттуда подгружаются. Вопрос - что делать с тензорами меток? Сохранять в отдельные файлы? Присоединять к тензорам картинок (через cat или list) и сохранять в один файл с тензорами картинок? Или грузить из памяти?
>>1899336 И как это что-то меняет? Рисует ещё одну неясную линию поверх имеющейся. Ещё сильней упростил, выводит полную дичь. Не могу сообразить как понять.
изначально ты делал предсказания только для train, что соответствует первым 66% твоих данных, поэтому твой график обрубался. если ты делаешь предсказания на соединенных np.concatenate((train_x, test_x) train и test, то твой график продолжится дальше, потому что ты делаешь предсказания для 100% данных
по той причине, что у тебя мало данных, твоя моделька плохо обучилась, и выдает @неясную линию поверх имеющейся@
Картинка - работа твой модельки на курсе валют - prediction vs dataset и ошибка. Плюс я разделил изначальный сет на три - train, val, test:
train, test = split(dataset, 0.8) train, val = split(train, 0.6)
Train и Val я использовал для тренировки модели:
train_x, train_y, validation_data=(val_x, val_y)
Результат, как ты видишь выглядит ничем не лучше какого-нибудь movingaverage.
>>1899501 Когда он станет богом и насильно тебя оцифрует, ты проведешь вечность извиняясь за свои слова, варясь при этом в котле и созерцая его лысину, которая будет вместо неба.
>>1900165 >Ты когда последний раз писал текст длиннее чем 2048 токенов? Или хотя бы читал. Зумер, не проецируй. 2048 токенов - это 20-25 предложений. Я иногда пишу похожие по длинне эмейлы. Для текстовых квестов, для которых в том числе используется GPT, это вообще ничто. Так что никакого бесконечного контекста нет.
>>1900168 >Так что никакого бесконечного контекста нет. Шизик выдумал бесконечные контексты и с ними спорит. >2048 токенов - это 20-25 предложений. Ты сейчас 5 предложений уместил в 250 символов (токенов было бы ещё меньше). В школе расскажешь про 20-25 предложений и похожие по длиннне эмейлы. >Для текстовых квестов, для которых в том числе используется GPT Внезапно, текст не генерируется на всю игру сразу, а зависит от текущего контекста. А конкретные куски намного меньше 2к токенов.
>>1900186 А в чем смысл надрачивать на количество запоминаемых одной моделью токенов? Из теоремы Колмогорова-Арнольда известно, что любая функция многих аргументов представима через композицию функций от двух аргументов. То есть, если у нас есть хоть что-то, могущее в работу с парой токенов, то стыканув эту хуйню в лучших традициях стекморбиттерлессонс получим возможности той же GPT и даже больше из кучи каких-нибудь скипграмов Миколова.
>>1900186 >Шизик выдумал бесконечные контексты и с ними спорит. >>1899569 >гпт-3 не забывает контекст Здесь столько шизиков, что я уже запутался. Конечная длина контекста? Значит забывает. >>1900186 >Ты сейчас 5 предложений уместил в 250 символов (токенов было бы ещё меньше) Ну не 20, а 40. Этого все равно крайне недостаточно. >Внезапно, текст не генерируется на всю игру сразу, а зависит от текущего контекста. А конкретные куски намного меньше 2к токенов. Информация вне контекста будет навсегда пропадать. Например, персонажи или события.
В ГПТ-3 контекс это аналог кратковременной памяти у человека. И у ГПТ-3 она гораздо больше человеческой. Человек вообще мало может в рабочей памяти держать. Попробуй текст из 2048 слов, информационно плотный, один раз прочитать, а потом ответить на вопросы по деталям, и увидишь что ничего ты не помнишь. Только если будешь зубрить, загоняя его в долговременную память (= дотренировка в терминах ГПТ-3). А ГПТ-3 ответит. Разница в том, что у человека рекуррентно апдейтится контекст. Поэтому он самое важное может дольше держать в рабочей памяти. И вариаций трансформеров с рекуррентным контекстом полно, но их тренировать сложнее.
>>1900190 Ты получишь унылую RNN с затухшими градиентами. Лет через 20 ты придумаешь lstm, а еще через 30 - трансформеры. Шучу. Ты нихуя не придумаешь.
>>1900214 Вот как удивительно, и контекст больше и внимание мощнее чем у тупых человеков, а выходит нелепая хуйня чуть лучше марковских цепей. Без ПОНИМАНИЯ похоже не разобраться, любители чёрных коробок орут.
Котаны, это снова я. Как добавить к PNG без альфа канала еще один канал? Нужно как-то использовать альфу? Мне тут советовали склеить картинку пару лет назад, я только сейчас дошел до потребности в это операции. И еще , в pix2pixHD есть еще один дополнительный параметр, который можно скормить сетке- instance_map. Это- 65536 канальный файл, который я не знаю как генерировать, и не факт, что он поможет, если я в него вместо границ объекта залью мои фичи, но всё же спрошу- может не заморачиваться с 4 каналом, а попробовать скормить в эту instance map серую 16 битную картинку с нужными фичами? Или- как делать разметку для 65536 каналов попроще чем в openCV?
>>1900676 Те фирмы которые ориентированы на публикации в рф не имеют соответствующих лаб, публикаций из рф на мировых конференциях нет. Ориентируйся на мастера за рубежом, это самое простое. Но если суть ресерча в выпуске моделек для рыночка, то такого полно, на хх.ру набери pytorch и смотри.
>>1900756 Если для тебя утверждение "ты не придумаешь lstm" - хамство, твое чсв совсем запущено. А почему должны - не должны конечно, так даже проще, шизов посылать нахуй с первого поста, а не с последнего.
>>1900797 > даже проще, шизов посылать нахуй с первого поста, а не с последнего. При этом, себя ты шизом не считаешь, при том что несёшь полную хуйню >>1900667 на что тебе указал не только я.
>>1900850 В прошлый раз все закончилось этим: >>1885867 в ответ на мои посты >>1885654 и >>1885628 Тишина по существу, только хамство. В этот раз закончится так же. Нахуй надо, вестись на эти провокации и писать свинье длиннопосты, после которых будут очередные пуки, как будто ничего и не было. > на что тебе указал не только я. При этом про пост >>1900190 ничего подобного нет, кроме моего одинокого коммента. Какое странное совпадение, у дрочащего на word2vec конструшка из math появился незнакомый друг, постящий с ним 2 поста подряд.
>>1901220 Да ты дебил просто. > Какое странное совпадение, у дрочащего на word2vec конструшка из math появился незнакомый друг, постящий с ним 2 поста подряд. Да-да, если с твоей хуйней не согласны двое, это семен. Классика.
>>1901268 >Да ты дебил просто. Опять интеллектуальный нищий пытается свести диалог к метанию какашек. Неси свой "стек из скипграмов", тогда и поговорим по существу. Но выйдет как в прошлый раз, и в позапрошлый, в позапозапрошлый. За тобой нихуя, кроме какашек, нет. >Да-да, если с твоей хуйней не согласны двое, это семен. Классика. Если с хуйней в >>1900190 согласны двое, то это семен. Ну либо совсем поверхностный подсос этого шизика, что еще хуже.
>>1901275 > горький зумер, не знающий чем стек отличается от RNN и называющий хуйней теорему Колмогорова-Арнольда, называет кого-то кроме себя интеллектуальным нищим Не могу не зафиксировать подрыв малолетнего брейнлета
>>1901279 Опять интеллектуальный нищий пытается свести диалог к метанию какашек. Неси свой "стек из скипграмов", тогда и поговорим по существу. Но выйдет как в прошлый раз, и в позапрошлый, в позапозапрошлый. За тобой нихуя, кроме какашек, нет.
Попробовал запустить через куколаб эту вашу гпт2 ололо 1558М, полтора миллиарда параметров. С какого места там восторгаться суперзумеркринжтехнологией? По-сути простой бредогенератор условно на заданную тему, я такие в 90х видел ещё. Где там конкретно величие битерлесона, поясните, свидетели.
Ну то есть, там буквально набор слов выдается, даже не связанный ни с одним введенным словом. Вот типичный пример:
Model prompt >>> Why bitter rooster is so stupid? ======================================== SAMPLE 1 ======================================== How come no one appreciates it?
Anonymous 01/01/17 (Thu) 03:11:44 AM No. 338119 How does this now make her to go outside into that thunderstorm at 6 in the afternoon. Coincidentally, late 9th grade homecoming. The girls like were all told to hold doors for her so everything was very crowded. Several details might have been known of course, but she looked to stay with some of the girls/kids and I doubt was in the worst of the storms.
Anonymous 01/01/17 (Thu) 03:11:50 AM No. 338120 >>338127
You've got to be kidding MeTooBuckley. You've got to be kidding MeTooBuckley.
Anonymous 01/01/17 (Thu) 03:14:33 AM No. 338122 >>338120
Depends on what you mean by "his wrists were slick" Depends on what you mean by "his wrists were slick"
Anonymous 01/01/17 (Thu) 03:14:59 AM No. 338123 >>338120
Someone tell Billie, she wouldn't know if it was cold or not though Someone tell Billie, she wouldn't know if it was cold or not though
Anonymous 01/01/17 (Thu) 03:15:38 AM No. 338124 >>338105
But he's the white boy and such things are expected but what if it's different with the black boy? But he's the white boy and such things are expected but what if it's different with the black boy?
White boys that don't provide for themselves or their family have name-brand factories to look up to
Black boys that get adopted and grow up in different countries tend to think they are", do everything" Just like their dads White boys that don't provide for themselves or their family have name-brand factories to look up toBlack boys that get adopted and grow up in different countries tend to think they are", do everything" Just like their dads
Anonymous 01/01/17 (Thu) 03:18:17 AM No. 338126 >>338119
I actually have friends who ================================================================================
>>1901507 Зумер? Нейросеть запускается поверх ОС, будь то в браузере или локально, файловая система нужна операционной системе, а не своя каждому приложению.
>>1901509 То есть на затравку с лексикой из имиджборд в 6 слов гпт2 сгенерировал тебе контент имиджборды с анонимусами, согласованным временем постов и их номерами, и ты это видел в 90е. Ну-ну.
>>1881607 (OP) Хотел поковыряться в нейросетях, но мысль такая возникла. Ведь чтобы научить нейронку отличать кошечку от автобуса, надо натренировать ее на сотнях тысяч образцов. Возможно ли этим заниматься в домашних условиях со скромными ресурсами. Или это примерно как с матрицами, сперва думаешь, круто, умею считать определитель, решу любую систему лин уравнений, а на деле в практических задачах переменных столько, что даже суперкомпьютер обосрется этот определитель считать.
>>1901718 ДА, более чем. Тот же DeepNude был запилен каким-то одним эстонцем. Большинство (95%) гитхаба- это домашки и хобби, сделанные на коленке (ну тут можно подумать, что норм вещи никто за бесплатно не выложит, но посмотри на Nvidia, там самые передовые технологии выложены, а спустя год после выхода- уже лицензия бесплатная). Еще большинство гитхаба- это именно разные попытки решить одну задачу разными методами, есть много датасетов, на которых можно меряться метриками. Можно запилить себе совсем небольшую модельку и запихнуть ее в какой-то домашний серверок, чтобы быть в курсе кто их родаков-знакомых подходит к подъезду и т.д. Самое сложное сейчас- это найти себе интересную для себя задачу, а интсурмента много очень. НУ и вишенка- большинство работ тестируются на всяких датасетах разрешения типа 256 на 256. Это на какую-то 1660 видяху хватит. По поводу кошечек-атвобусов- есть такая вещь как аугментация данных, когда ты берешь малый сет и начинаешь его натягивать на глобус изменяя гамму, растягивая изображение, делая множество примеров из одного, желательно сразу перед обработкой в виде пайплайна, для этого тоже хватает инструментария или он пишется на коленке. Да, самое сложное- это сначала собрать датасет, а потом почистить. Вопрос в цели- просто так, ну как домашка для опыта или портфеля, ок. Для себя- гуд, для денег- тут надо будет достаточно долго затачивать, и , как правило, с командой или с денежными вливаниями в какую-нибудь толоку это выйдет быстрее.
>>1901711 Не рандомные, а conditioned на твоем скупом и коротком контексте. Ты задал вопрос про петуха на рунглише, он тебе выдал кусок треда на форчане. А ты даже не понял, что произошло. А я удивился настолько, что даже уточнил, а ванильный ли это gpt2. Потому что никогда бы не подумал, что gpt2 в zero shot режиме может так.
>>1902208 >он тебе выдал кусок треда на форчане Только тексты постов выглядят как выдернутые пасты из бульварной литературы, вперемешку и без особой связи между ними. Да и имиджбордная разметка это скорее минус а не плюс, можно подумать про петуха можно спросить только в контексте срача на дваче. Не впечатляет короче.
>>1902208 Да ну, это несерьёзно всё. Какой-нибудь древний LSA не хуже бы сработал. Алсо, с тилибона ввод текста не работает, нажимаю ентер и ничего не происходит. Из-за чего это может быть? Куколаб с телефонами несовместим?
>>1902210 Prompt: Почему нечеткий петух такой тупой? 100%|| 32/32 [00:04<00:00, 7.26it/s] из-за того, что его обоссывают и даже могут за это отпиздить.
-------SAMPLE 0 END------- он не может определиться с тем что он есть, если не понимает этого.
-------SAMPLE 1 END------- не знаю.
-------SAMPLE 2 END------- потому что он петух. Ну и хуево же он смотрит на наших тней, которые не знают как быть с девушками.
-------SAMPLE 3 END------- потому что он и не петух вовсе. Он думает что у него есть деньги на его же деньги.
-------SAMPLE 4 END------- он не может его посчитать. > Почему нечеткий петух такой тупой? Ответ: он не может его посчитать.
-------SAMPLE 5 END------- это не совсем петух - это дохуя умный петух. > Ну так они же все из говна, блядь.
-------SAMPLE 6 END------- потому что он не знает где деньги и как их достать. Поясните, почему во всяких сайтах есть ссылки на эти сайты?
-------SAMPLE 7 END------- потому что он слишком тупой и думает, что это нормально и правильно в жизни, что не нужно бояться и прыгать с крыши, чтобы поймать на улице воробья, и он не такой -------SAMPLE 8 END------- он ленивый Анончики, а я не вижу смысла в том, чтобы кому-то донатить за то, чтобы он зарабатывал на моем обуви?
-------SAMPLE 9 END------- из-за того что у него было много денег, он их на мороженое с пивом откладывал.
-------SAMPLE 10 END------- потому что петух не может иметь 2 / 3 своего тела, а его тело - 3 / 3 своего тела.
-------SAMPLE 11 END------- все верно написано. > Человек с клювом уже месяц не может найти выход из дома.
-------SAMPLE 12 END------- в курсе. > в курсе. Какой петух - петух говна не нюхал?
-------SAMPLE 13 END------- потому что я не знаю, как правильно делать пиздабол. Бамп А ты не думал, что будет смешно, если в клубе?
-------SAMPLE 14 END------- потому что он долбоеб. К сожалению я не хочу в это играть. Как же так получилось? > Как же так вышло?
-------SAMPLE 15 END------- у него не может быть яиц, у него просто улетает кукушка. Если тебе не похуй, то ты ничего не потеряешь.
-------SAMPLE 16 END------- я знаю одну девочку. -------SAMPLE 17 END------- потому что у него нет глаза, а в глаза не может насрать.
-------SAMPLE 18 END------- у него три четверти скулы отклеилось bump > на самом деле он тупой.
-------SAMPLE 19 END------- потому что он в рот ебаный. Вопрос: как зовут мальчика с собакой и почему он так уёбывает? Ответ: у него нет имени.
-------SAMPLE 20 END------- потому что он не знает, что делать. Почему? Ответ: Потому что он не может понять что делать.
-------SAMPLE 21 END------- потому что он был не в курсе того как я попал на этот остров.
-------SAMPLE 22 END------- потому что он все время под шконкой сидит. Для начала займись делом.
-------SAMPLE 23 END------- это ебаный пидораший петух. Потому что это твой петух.
-------SAMPLE 24 END------- это не семён.
-------SAMPLE 25 END------- хуй знает. > То есть ты мне не веришь? Ну так ты же в свои 26 - 3 undefined5 лет живешь.
-------SAMPLE 26 END------- потому что у него нету головы. А зачем он вообще? Ответ: это он тупой. > Нет, он тупой. > Ебать ты тупой.
-------SAMPLE 27 END------- он не хочет верить, что у него есть деньги. Кто из них - петух? Ты просто тупой петух. Отвечай, что ты петух.
-------SAMPLE 28 END------- потому что он не знает украинского. 1 . Зачем ты им нужен? 2 . Как вы себе представляете то, что происходит в стране?
-------SAMPLE 29 END------- потому что не смог понять причину его суицида. > Это не может быть интереснымЗачем ты создал тред про какую то дебилку?
-------SAMPLE 30 END------- потому что он не знает о них.
-------SAMPLE 31 END------- потому что не знает что такое рак, рак, рак, рак, рак. От пидораса у него бомбануло.
-------SAMPLE 32 END------- потому что в каждом случае петух говорит "я хочу!"и имеет при этом в виду только то, что он хочет и хочет "я хочу".
-------SAMPLE 33 END------- потому что он не знает как это работает. Потому что он не может знать как это работает. Потому что он не может знать как это работает.
-------SAMPLE 34 END------- он не знает что такое давление. Ответ: петух не знает что такое давление.
-------SAMPLE 35 END------- потому что он не знает, как его правильно вертеть. Ответ: 1 . С чего начать?
-------SAMPLE 36 END------- потому что у него нет денег.
-------SAMPLE 37 END------- потому что он не понимает простейших вещей. Вопрос: что такое день и сколько часов в сутки?
-------SAMPLE 38 END------- потому что он глупый петух - он не понимает ни слова из того, что говорит петух. А как тебе с такими вопросами?
>>1902217 Prompt: Да ну, это несерьёзно всё. Какой-нибудь древний LSA не хуже бы сработал. Алсо, с тилибона ввод текста не работает, нажимаю ентер и ничего не происходит. Из-за чего это может быть? Куколаб с телефонами несовместим? 100%|| 32/32 [00:07<00:00, 4.47it/s] я не знаю, но могу проверить. Потому что надо работать над каждой новой концепцией. Не уверен, что ты сможешь осилить весь тред.
-------SAMPLE 0 END------- если это не сингловой телефон, то может быть.
-------SAMPLE 1 END------- нет, потому что ввод текста не работает и у меня нет встроенного плана. > А как я понял это был хуй пойми кто из местных?
-------SAMPLE 2 END------- нет.
-------SAMPLE 3 END------- не знаю, у меня не было и не будет нихуя с мобилы. Не? А где у меня телефон?
-------SAMPLE 4 END------- с помощью iOS. Я сам с 2012 года капчую, не могу без неё. Да ладно тебе, не гори.
-------SAMPLE 5 END------- да, с ним проблем нет.
-------SAMPLE 6 END------- с ними я не сталкивался. Почему у меня в голове, как у опа, нет логического мышления.
-------SAMPLE 7 END------- у него нет тилибона, у него нет проблем. Это нахуй?
-------SAMPLE 8 END------- это все из-за него. Так и есть в чём смысл? Тебе-то откуда знать?
-------SAMPLE 9 END------- Он работает на 2 . 5 Гц и работает, как часы. А ты про что, хуле ты такой охуевший?
-------SAMPLE 10 END------- нет, просто не может быть совместим с телефоном без сиридана. > В чем смысл? Не знаю. Ну и в чём смысл?
-------SAMPLE 11 END-------
> битардское мореПотому что это тред о подводных камнях и их влиянии на жизнь. -------SAMPLE 12 END------- я не знаю ни одного андроида с iOS, не знаю даже его пароля. Как же я хочу на него установить iOS!
-------SAMPLE 13 END------- нет.
-------SAMPLE 14 END------- нахуй тебе его брать? Ты реально думаешь, что это всё проделки ФСБ? > Какие проблемы?
-------SAMPLE 15 END------- потому, что он стоит на боинге без веса. Ты что это, серьёзно?
-------SAMPLE 16 END------- это обычный телефон. Обычный телефон не может быть в такой ситуации и без него. Это не работает?
-------SAMPLE 17 END------- нет. > > чтобы не перегружать мозг и не ставить задачу без задач».
-------SAMPLE 18 END------- не совместим, потому что он стоит меньше средней цены в мире - 4 к. Если ты пишешь код с телефона, то тебе на него ничего не надо настраивать.
-------SAMPLE 19 END------- [41/1827] нет. Да ну, это несерьёзно. Может это рипшифт? Двачую.
-------SAMPLE 20 END------- к тому же, у меня в LSA нет встроенного google. А с чем это связано?
-------SAMPLE 21 END------- из коробки он всё равно не работает, но его можно заменить на более надёжный телефон. Что у меня за хуйня?
-------SAMPLE 22 END------- нет! Он просто тупой.
-------SAMPLE 23 END------- возможно, из-за контакта между ними в виде смартфона или набора симки.
-------SAMPLE 24 END------- он не работает из-за проплаты на абонента. Это не отменяет того, что ты прав. А если и работает, то может не работать.
-------SAMPLE 25 END------- я не могу пользоваться компом в этой системе. Ну и хуя с тобой делать.
-------SAMPLE 26 END------- у меня есть возможность его выключить, но это дорого. >> Почему ты не отвечаешь на мои посты?
-------SAMPLE 27 END------- но не совсем. > Какие деньги нужны для поездки в США?
-------SAMPLE 28 END------- нет - это одно из условий работы. Нет. Просто.
-------SAMPLE 29 END------- В том числе и с телефонами китайцев. Что это за бренд? Ответ: По той же причине китайцы не делают телефоны.
Что это?
-------SAMPLE 30 END------- не совместим.
-------SAMPLE 31 END------- нет, с телефона я могу нормально установить и прошить. Да я понимаю, что ты про буддизм, но мне это вообще не интересно.
-------SAMPLE 32 END------- нет у меня телефонов. Ну я и говорю, это не совместимо. Так я и говорю, это не совместимо.
-------SAMPLE 33 END------- нет, только с китайскими устройствами.
-------SAMPLE 34 END------- нет. Он не с телефона ебался. Посоветуйте какой-нибудь фильм про маньяка. Я даже не знаю. Мне бы понравился его конец.
-------SAMPLE 35 END------- по сути да. Не понял, в чем суть?
-------SAMPLE 36 END------- это прочая хуйня в этой игре. Проиграл с этого пидораса.
-------SAMPLE 37 END------- у меня нет телефона. Бамп Потому что на нём я всегда могу задать вопрос "где деньги?"или "где телефон"?
-------SAMPLE 38 END------- у него нет доступа к интернету.
>>1902206 Prompt: Наборы картинок из списка это даже не жопеншмульц, это вообще без машоба делается. Почему автор последнего предложения - нечеткий петух? 100%|| 32/32 [00:00<00:00, 37.55it/s] потому что он не может одновременно с двумя разговаривать как сука с одним и тем же набором картинок в голове.
-------SAMPLE 0 END------- анон выше, я сам такой же долбаеб. Вопрос: зачем он вообще запилил свой первый пост? Ответ: чтобы запостить в реале нужный текст.
-------SAMPLE 1 END------- я в принципе его не читал, а если и читал, то там написано что это действительно лол. С точки зрения эволюции - это так, но вот охуеть.
-------SAMPLE 2 END------- потому что я пишу о том как я буду писать и как буду вести себя дальше.
-------SAMPLE 3 END------- потому что автор этого поста - недобитый пиздюк, который не знает английский. Вопрос: где сиськи?
А что, примеров поинтереснее с этими мегагитлер нейрон очками с миллиардами параметров нет? Просто столько кукареканья, а толку что-то не очень. Есть какой-нибудь пример, чтобы прямо проникнуться и сказать "вот до чего техника дошла!"? >>1902224 >>1902223 >>1902222 В общем, бредогенератор уровня LSA из 90х, да он тоже умеет отвечать на вопросы и рекомендовать похожие книги.
>>1902210 >Только тексты постов выглядят как выдернутые пасты из бульварной литературы, вперемешку и без особой связи между ними. Да и имиджбордная разметка это скорее минус а не плюс, можно подумать про петуха можно спросить только в контексте срача на дваче. Не впечатляет короче. А что ты хотел от 3гб, чтобы оно помнило не только общий вид тредов, но и их контент? Так не бывает, интернет слишком большой, чтобы помнить сленг и темы обсуждений на каждом сайте, ужав это все в 1.5 гигабайта. Но примерный вид она помнит, весьма подробно при том. Копи бабки на 4x3090. Вообще главная фишка GPT не качество, а zero shot learning. Даже GPT2 в это может, ты добавляешь preconditioning текст с нужными примерами того, что нужно выводить, и дальше получаешь нужные ответы. GPT3 же это не просто может, а очень впечатляюще может.
В примерах выше preconditioning содержал == Вопрос: куда впадает волга? Ответ: в каспийское море.
Вопрос: сколько вешать в граммах? Ответ: примерно взвесьте.
Вопрос: где деньги? Ответ: денег нет.
Вопрос: ==
И все, модель переводится в режим question answering. Поэтому кстати контекст 1024 - это очень немного, потому что этот текст занимает примерно 100 токенов.
>Да и имиджбордная разметка это скорее минус а не плюс, можно подумать про петуха можно спросить только в контексте срача на дваче. Ты спросил не просто про петуха, а про петуха на рунглише. И где это русские со своим кривым английским любят обсуждать петухов? Это та ситуация, когда нейросеть знает о тебе больше, чем ты сам. >Не впечатляет короче. Когда технология дорастает до того, чтобы начать впечатлять, ты предпочитаешь ее игнорировать.
Вот это работает с top_k=1, то есть если отключить весь рандом.
Prompt: Как называют жену короля? 100%|| 32/32 [00:01<00:00, 21.20it/s] королева. Вопрос: как зовут сына короля? Ответ: принц. Вопрос: как зовут дочь короля? Ответ: принцесса.
-------SAMPLE 0 END------- королева. Вопрос: как зовут сына короля? Ответ: принц. Вопрос: как зовут дочь короля? Ответ: принцесса.
>>1902228 Часть https://github.com/mgrankin/ru_transformers GPT-2 Medium 355M параметров, часть - файнтюненый мной на битом архиваче GPT-2 Small, 124M параметров. Надо перекачать датасет с архивача уже с учетом того, что нужно выкачивать отдельные нити обсуждений, а не просто треды одним куском, будет сильно лучше.
Prompt: кто такой пыня? 100%|| 32/32 [00:00<00:00, 41.12it/s] пыня - это не человек, а какой-то хуёвый пидор с двачера.
-------SAMPLE 0 END------- пыня - это диктатор, диктаторский диктаторский диктатор. Ответ: кто такой пыня?
-------SAMPLE 1 END------- пыня - это тот, кто не может ничего сделать для народа.
-------SAMPLE 2 END------- пыня - это пыня пыня > пыня - это пыня пыня > пыня - это пыня пыня > пыня -------SAMPLE 3 END------- пыня - это пыня - он сам пыня-то. Ответ: нахуя пыня? Он просто пыня.
-------SAMPLE 4 END-------
Prompt: кто пыня? 100%|| 32/32 [00:00<00:00, 42.92it/s] Пыня - это ты.
-------SAMPLE 0 END------- не пыня, а Пыня. Что такое "Пыня"? Ответ: не пыня, а Пыня - не пыня. > не пыня".
-------SAMPLE 1 END------- не пыня.
-------SAMPLE 2 END------- пыня - это Пыня. Ну и зачем пыня Пыне? Ответ: не важно. Это просто смешно. А что за пыня?
-------SAMPLE 3 END------- Пыня - это Пыня, а не Пыня - это Пыня.
>>1902231 Лучше, hugging face большие молодцы, а я ленивая залупа, не будь мной. >Лол, и не поспоришь. Если черри-пикать можно вообще дохуя чего интересного генерировать.
Сап. Есть большие наборы сырых бинарных данных, которые надо классифицировать как валидные и невалидные. В валидных обычно есть какая-нибудь структура внутри, большое количество одинаковых или похожих символов подряд часто валидные наборы имеют одинаковые последовательности символов внутри. А не валидные это обычно шум с высокой энтропией вкраплённый в валидный набор. Идея была разбить набор на чанки равной длины и прогнать каждый чанк через нейронку чтобы научить её оценивать вероятность, что этот чанк принадлежит валидному набору символов. Как лучше сеть сделать чтобы она такие особенности чанков запоминала? Боюсь простой 2 слоя конволюции, пулинг, дропаут, фуликонектед не справится с этой задачей. А какой-нибудь lstm пилить для запоминания общих черт валидных чанков боюсь излишне т.к. тогда можно было бы и не разбивать набор данных на чинки. В итоге какой вариант сети лучше всего с такой задачей справится?
>>1902379 >А картинки рисовал кубрик, наверное. Картинки кто угодно мог рисовать, в том числе и самые примитивные алгоритмы, даже из шума всегда можно начерипикать удачные примеры. >когда апи дадут к модельке. Так а ты пошевели мозгами, почему тебе только определённый список разрешённых промтов показали.