Программирование

Ответить в тред Ответить в тред
Check this out!
НЕЙРОНОЧКИ И МАШОБ ТРЕД №32 /ai/ Аноним 29/11/20 Вск 01:40:11 18681911
image.png 775Кб, 1386x881
1386x881
image.png 746Кб, 976x1815
976x1815
image.png 860Кб, 864x685
864x685
Очередной тред про хипстерские технологии, которые не работают.

Я ничего не понимаю, что делать?
Вкатывальщики импортят slesarplow as sp по туториалам (хотя сейчас актуальнее pytorch)
Толковые качают из репозитория awesome-XXXX на гитхабе проект какого-то китайца, меняют фамилию и получают $10M инвестиций как стартап.
Умные смотрят prerequisites на https://see.stanford.edu/Course/CS229 и http://cs231n.stanford.edu/
Остальные сидят ИТТ

Какая математика используется?
В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus

Как работает градиентный спуск?
https://cs231n.github.io/optimization-2/

Почему python?
Исторически сложилось

Можно не python?
Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет

Что почитать для вкатывания?
http://www.deeplearningbook.org/
Николенко "Глубокое обучение" - на русском, есть примеры, но меньше охват материала
Франсуа Шолле - Глубокое обучение на Python

В чем практиковаться нубу?
http://www.deeplearning.net/tutorial/
https://www.hackerrank.com/domains/ai
https://github.com/pytorch/examples
https://github.com/ChristosChristofidis/awesome-deep-learning#tutorials

Где набрать первый самостоятельный опыт?
https://www.kaggle.com/ | http://mltrainings.ru/
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.

Где работать?
https://www.indeed.com/q-deep-learning-jobs.html
Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел

Есть ли фриланс в машобе?
Есть, https://www.upwork.com/search/jobs/?q=machine+learning
Но прожить только фриланся сложно, разве что постоянного клиента найти, а для этого нужно не быть тобой

Где узнать последние новости?
https://www.reddit.com/r/MachineLearning/
http://www.datatau.com/
https://twitter.com/ylecun
На реддите также есть хороший FAQ для вкатывающихся

Где посмотреть последние статьи?
http://www.arxiv-sanity.com/
https://paperswithcode.com/
https://openreview.net/
Версии для зумеров: https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew

Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском

Где ещё можно поговорить про анализ данных?
http://ods.ai/

Нужно ли покупать видеокарту/дорогой пека?
Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100.
Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь

Когда уже изобретут AI и он нас всех поработит?
На текущем железе - никогда, тред не об этом

Кто нибудь использовал машоб для трейдинга?
Никто не использовал, ты первый такое придумал. Готовь камаз для бабла.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Предыдущие:
https://2ch.hk/pr/res/1847673.html
https://2ch.hk/pr/res/1832580.html
https://2ch.hk/pr/res/1817320.html
https://2ch.hk/pr/res/1785952.html
https://2ch.hk/pr/res/1758961.html
https://2ch.hk/pr/res/1734710.html
https://2ch.hk/pr/res/1704037.html
https://2ch.hk/pr/res/1665515.html
Аноним 29/11/20 Вск 10:04:11 18682692
Куда вкатываться в айти, если хорошо знаю математику?
Аноним 29/11/20 Вск 10:05:54 18682703
>>1868269
функционально программрование
Аноним 29/11/20 Вск 10:16:29 18682744
Аноним 29/11/20 Вск 10:35:37 18682815
>>1868269
>Куда вкатываться в айти, если хорошо знаю математику?
Никуда. Математики в айти не нужны.
Аноним 29/11/20 Вск 10:47:21 18682856
>>1868269
В машоб и вкатывайся, смотри первый вопрос в оппосте
Аноним 29/11/20 Вск 10:58:20 18682907
>>1868285
Чел сказал что хорошо шарит в математике, а с тем что написано в оп посте любой второкурсник-хорошист знаком.
Аноним 29/11/20 Вск 11:24:09 18682998
>>1868269
>если хорошо знаю математику
Скажи, а как ты ее познал? Ну в смысле это же говно безполезное, какие у тебя цели были?
Аноним 29/11/20 Вск 11:56:58 18683259
>>1868274
Если нужна теория, то лучше нормальный курс посмотреть. А если знаешь теорию, то 10 минут на видео "как раскрашивать изображения" нет смысла убивать.
Аноним 29/11/20 Вск 13:01:04 186836510
>>1868325
На видео вообще не смысла убивать время. Лучше уж тогда смишное смотреть или нетфликс какой-нибудь.
Для ознакомления с какой-то МЛ темой лучше всего качественные блогпосты читать, вроде Karpathy.
Аноним 29/11/20 Вск 13:21:44 186837111
>>1868290
Если твой второкурсник знаком с cs231n, то он и не будет спрашивать про то, куда ему вкатываться
Аноним 29/11/20 Вск 13:31:49 186838112
>>1868365
>Лучше уж тогда смишное смотреть или нетфликс какой-нибудь.
Ты даун просто. А хороших видео полно
Аноним 29/11/20 Вск 14:33:04 186842913
>>1868325
Видео для очень быстрого вкатывания в алгоритмы, для поверхностного ознакомления с темой. Что не так?
Аноним 29/11/20 Вск 14:52:34 186844314
>>1868429
Если прослушать нормальный курс а ля cs231n, тогда 95% видео будет очевидно.
Аноним 29/11/20 Вск 16:42:12 186855515
>>1868299
>эти мантры макакена
Аноним 29/11/20 Вск 18:01:49 186860316
>>1868269
В учителя математики и информатики
Аноним 29/11/20 Вск 18:05:14 186860617
>>1868191 (OP)
Настоебали со своим мЫшинным обучением. Миллион книг блядь понаписали, а толку нихуя. Кто из вас может интерпретатор написать? Никто? а нахуй тогда мышинное обучение вам? Вы же один хуй ничего не напишите.
Аноним 29/11/20 Вск 18:15:31 186861618
>>1868606
интерпретатор чего?

Мы котов в зомби превращать умеем. И еотовых раздевать
Аноним 29/11/20 Вск 18:18:32 186862019
>>1868606
>Кто из вас может интерпретатор написать?
Ну я
Аноним 29/11/20 Вск 19:11:56 186871320
>>1868606
А чего там писать-то? Абсолютно рутинная задача.
Аноним 29/11/20 Вск 19:36:37 186874521
Ты кран-то текущий в доме починить можешь? Интерпретаторы ему.
Аноним 30/11/20 Пнд 04:48:22 186907322
Аноним 30/11/20 Пнд 07:30:31 186908223
Аноним 30/11/20 Пнд 08:37:23 186909624
bernd++.webm 1080Кб, 1024x600, 00:01:07
1024x600
>>1869073
Почему он так активно жестикулирует?
Вообще - мл нужон чтобы фильтры делать типа фейсаппа - и зарабатывать на пользователях, а не всякие там ресерчи с 0.00001% процентом увеличения эффективности.

>>1868606
Webm релейтед написан мной (давно ещё).
Аноним 30/11/20 Пнд 08:44:30 186909925
Аноним 30/11/20 Пнд 09:02:22 186910326
>>1869096
>Webm релейтед написан мной
На чем писал?
Аноним 30/11/20 Пнд 09:03:25 186910427
>>1869073
Какой то клоун. С первых же слов возникло ощущение, что он хочет наебать или что то продать.
Аноним 30/11/20 Пнд 09:37:48 186911028
index.jpg 63Кб, 1024x512
1024x512
Аноним 30/11/20 Пнд 13:19:33 186918529
>>1869096
>Вообще - мл нужон чтобы фильтры делать типа фейсаппа - и зарабатывать на пользователях, а не всякие там ресерчи с 0.00001% процентом увеличения эффективности.
Еще жизофазию генерировать.
Аноним 30/11/20 Пнд 13:31:47 186918930
Аноним 30/11/20 Пнд 13:54:22 186920131
image.png 68Кб, 256x256
256x256
Аноним 30/11/20 Пнд 14:17:57 186921232
Screenshot314.jpg 112Кб, 744x730
744x730
Screenshot313.jpg 53Кб, 669x330
669x330
>>1869096
Пиздец. Я это еще в 1983 году посмотрел на Ютубе. Зачем это писать повторно?
Аноним 30/11/20 Пнд 14:22:41 186921633
>>1868606
>мЫшинным обучением
>интерпретатор
Макака не палится
Аноним 30/11/20 Пнд 15:45:26 186925834
Анон объясни желательно подробно кратко чем dqn отличается от обычной комбинации разновидных слоев в нейронке со входом параметров состояния и выходами равным кол-ву действий где мы просто берем то действие которое имеет наибольший вес https://www.machinelearningmastery.ru/introduction-to-various-reinforcement-learning-algorithms-i-q-learning-sarsa-dqn-ddpg-72a5e0cb6287/
Единственное до чего я не додумался как рассчитывать веса в этой нейронке
Аноним 30/11/20 Пнд 16:38:10 186928435
>>1868606
> Кто из вас может интерпретатор написать?
Деточка, мы транспилируем описания приложений на естественном языке в готовый код, ты решил нас интерпретаторами запугать?
Аноним 30/11/20 Пнд 16:52:05 186929536
>>1869216
>>1869284
Вы все тут лохи и неучи. Ваше образование на уровне заборостроительного. Кого вы хотите обмануть. Все эти выебоны только чтобы казаться элиткой, которой вы не являетесь. Тот кто является кем то, тому не нужно создавать видимость. Вы только пытаетесь казаться кем то.
Аноним 30/11/20 Пнд 16:58:50 186930137
>>1869258
dqn - это просто попытка сделать приближенный табличный q-learning с помощью нейросети. Так что сначала разберись с обычным q-learning'ом, а потом переходи к dqn.
>где мы просто берем то действие которое имеет наибольший вес
DQN это про то, что это за вес и как обучиться его предсказывать.
>как рассчитывать веса в этой нейронке
чиво нахуй?
Аноним 30/11/20 Пнд 17:01:00 186930738
>>1869295
Ты тоже мог вместо быдлокодинга учить что-то более сложное и интересное в своё время, тебя никто не заставлял, нечего гореть теперь
Аноним 30/11/20 Пнд 17:21:55 186932539
>>1869307
Как раз это и есть отличная причина для горения. От чего еще гореть, как не от просраной жизни?
Гори, анончик!
Аноним 30/11/20 Пнд 18:39:32 186937640
>>1869258
Разве DQN не умер в пользу policy graidents или как там
Аноним 30/11/20 Пнд 18:49:14 186939041
>>1869295
Я-то в рот ибал машоб и просто мимо проходил, но твой обсёр не заметить не смог
Аноним 30/11/20 Пнд 19:14:28 186942842
>>1869307
Я и так это делал, делаю, и буду делать. А вы тут занимается культом карго, как первобытные племена без образования и какой либо цивилизации.
Аноним 30/11/20 Пнд 20:23:10 186950143
>>1869104
Этот клоун уже из Яндекса в Фейспук тим лидом уехал, и мастер/грандмастер на каггле. А то, что тебя смущает в речи, - это называется софт скиллз.
Хотя манера речи у него действительно на любителя. Мне кажется, такая получается, когда аутист-интроверт читает манагерские книжки и активно их применяет.
Аноним 30/11/20 Пнд 20:26:31 186950544
>>1869376
Не, DQN живет и здравствует, особенно когда нужен sample efficiency. Естественно, не ванильный, а со всеми улучшениями, как в rainbow.
Аноним 30/11/20 Пнд 20:32:08 186951245
>>1869501
Рваный фанбойчик лощеного клоуна тут как тут. Нассал всем в уши, заставил задротов-трясунов из пятёрочки решать себе каггл пока сам банки качал, помахал ими чего-то на тедтолке, словил хайп и свалил, ясно как день.
Аноним 30/11/20 Пнд 20:36:40 186952046
>>1869512
1) Как будто что-то плохое. 2) Он уже в пятерочку пришел (гранд)мастером. 3) Там, скорее, остальную пятерочку он тащил. 4) Кидай свой каггл/резюмеху.
Аноним 30/11/20 Пнд 21:15:37 186956947
>>1869520
> врёти а ты кто такой
классика
Аноним 30/11/20 Пнд 22:23:52 186961148
>>1868191 (OP)
Есть какое-нибудь применение теории графов в машобе?
Аноним 30/11/20 Пнд 22:45:34 186962049
>>1869611
Нет, но есть применения машоба к задачам с графами.
Аноним 30/11/20 Пнд 22:46:30 186962150
>>1869611
Вопрос звучит как "Есть какое-нибудь применение теории хеш-таблиц в машобе?" или "Есть какое-нибудь применение теории списков в машобе?". Граф - просто структура данных.

И вообще нейросети всегда представляются в виде графов(да и по факту ими являются).
Аноним 30/11/20 Пнд 23:01:19 186962651
>>1869620
О, а это интересно.
>>1869621
Меня сейчас больше графы с математической точки зрения интересуют. Просто у меня будет дипломка о прохождении графа с определенными условиями и я подумал, что было бы интересно добавить щепотку машоба.
Аноним 01/12/20 Втр 01:48:10 186971952
image.png 778Кб, 1200x900
1200x900
Аноним 01/12/20 Втр 02:11:11 186972253
photo2020-11-30[...].jpg 35Кб, 601x430
601x430
>>1869719
Уже только ленивый не написал о новости: сетка AlphaFold выиграла (https://www.nature.com/articles/d41586-020-03348-4) с огромным отрывом соревнование CASP по предсказанию структур белков. Деталей пока известно очень мало, статьи еще нет, а первый доклад по этой работе будет рассказан завтра на закрытой конференции CASP. Точно можно сказать пока только одно: они выиграли соревнование. Насколько же эта сетка, как пишут, “решила проблему фолдинга белка”, — пока, наверно, судить преждевременно.

Дело в том, что есть несколько принципиально разных задач. Можно, например, предсказывать структуру белка, зная структуры его гомологов. Можно не знать структуры гомологов, но по последовательностям из разных организмов знать, какие участки в гомологах этого белка эволюционируют согласованно — и это может значить, что они контактируют в структуре. Любую такую информацию можно использовать для улучшения предсказания, и по результатам в других областях мы видим, что сетки умеют хорошо это делать — обучаться по аналогии. Но есть и другая задача, гораздо более сложная: предсказать структуру для последовательности, похожих на которую мы никогда не видели. Модель, которая сможет такое сделать, обязана будет выучить биофизику белка и закономерности его сворачивания, — и это то, что ученым интереснее всего! И насколько новая сетка умеет решать последнюю задачу, пока совершенно не очевидно.

Поэтому давайте подождем немного и обсудим, когда станет известно больше деталей. Мы заслали агента на конференцию и раскинули щупальца в поисках структурщиков, которые нам все объяснят. Запасайтесь попкорном.
Аноним 01/12/20 Втр 02:20:19 186972554
>>1869719

Заебись, нахуй биохимию и какие то там исследования и попытки понять как работает мир, нейросеточка подборчик под ответик порешает.
Аноним 01/12/20 Втр 02:20:26 186972655
>>1869626
>добавить щепотку машоба
И обмаж блокчайном
Аноним 01/12/20 Втр 02:44:11 186973256
Начал изучать этот ваш машоб и чёт создалось у меня ощущение, что это какая-то хуета для быдла. Всё идёт легко и не напряжно. Чувство, что если вкачусь, то буду конкурировать с индусами за копейки т.к. любая макака может в этом зашарить.

Собсна вопрос: к какому разделу ML стоит мне катить яйца: где больше требований к пониманию матана и где сложнее идеи.

Также спрошу: вот вы говорите про анальную жопоеблю на kaggle ради повышения качества на 0.01%. Расскажите поподробнее: что вы применяете кроме очевидных перебора гиперпамов и нормализации признаков
Аноним 01/12/20 Втр 02:47:56 186973357
И ещё вопрос: как смотреть этот ваш cs231n? Есть видеолекции или только можно смотреть на вшитые на сайт ноутбуки
Аноним 01/12/20 Втр 03:21:45 186974358
>>1869725
Добро пожаловать в новый мир. Нейроночки все понимают лучше человеков. Человеки уже не нужны по большому счету - только как простейшие устройства для подбора гиперпараметров.
Аноним 01/12/20 Втр 03:37:46 186974559
>>1869743
>Человеки уже не нужны по большому счету - только как простейшие устройства для подбора гиперпараметров.
Для этого люди тоже не особо нужны, были бы вычислительные мощности.
Аноним 01/12/20 Втр 04:43:04 186975560
>>1869722
и да, проблему фолдинга они не решили. В том смысле, что прошлое решение было основано на том, что AlphaFold предсказывал карту попарных расстояний, после чего использовались абсолютно классические (родом из 90х) аглоритмы для сворачивания структуры с учетом наложенных ограничений.

Это ни коим образом не описывает непосредственно процесс фолдинга в живой системе.
Аноним 01/12/20 Втр 05:10:00 186976261
>>1869755
The team tried to build on that approach but eventually hit the wall. So it changed tack, says Jumper, and developed an AI network that incorporated additional information about the physical and geometric constraints that determine how a protein folds. They also set it a more difficult, task: instead of predicting relationships between amino acids, the network predicts the final structure of a target protein sequence. “It’s a more complex system by quite a bit,” Jumper says.
Аноним 01/12/20 Втр 08:59:43 186978562
>>1869733
Лекции за 17 год на ютубе лежат.
Аноним 01/12/20 Втр 09:39:09 186979763
>>1869719
Где протеиношизик? Порадовать его надо.
Аноним 01/12/20 Втр 09:52:57 186980764
>>1869719
Кто-то eще сомневается в bitter lesson?
Аноним 01/12/20 Втр 11:18:50 186985765
16043772499880.png 5Кб, 500x590
500x590
>>1869722
>>1869755
Ну так какой в итоге положняк по протеинам? Сойбои хайпанули, сделяв хуйню, или можно уже вычислять вечную автономную капсулу с печкой буйлерон (зимой жарко)?
Аноним 01/12/20 Втр 11:42:01 186987366
>>1869857
Соснул как всегда ты, каргокультист с форчка
Аноним 01/12/20 Втр 11:57:02 186989267
В треде есть успешные люди, вкатившиеся из другой сферы и без технической вышки? Насколько рабочая схема сначала вкатиться как питонист, а после пары лет опыта плыть в сторону ML? Вообще готов работать за еду и уехать в любые ебеня, лишь бы поскорее "пощупать" это сферу.

ИИ интересуюсь давно, сейчас появилось желание вкатиться, но за спиной неоконченное ВО социологическое в топвузике (где нас 2 года ебали статистикой, теорвером и матрицами, но кого это волнует). Меня же HR-ы пошлют нахуй с таким бекграундом и без опыта работы в ИТ?
Аноним 01/12/20 Втр 12:23:31 186991568
>>1869892
Ты сам не осилишь скорее. Учись программировать
Аноним 01/12/20 Втр 13:51:35 186996469
>>1869732
Удваиваю вопрос. Самому стрёмно от того как МО выглядит простым
Аноним 01/12/20 Втр 14:00:22 186996770
16000971951330.jpg 33Кб, 577x425
577x425
>>1869732
тоже по Orange изучаешь?
Аноним 01/12/20 Втр 14:20:46 186998171
>>1869732
За столько лет и до постсовков наконец-то дошло, лол
Все хоть сколько-нибудь востребованные хуевины может осилить и школьник с базовым знание питона и опвенсв, а в кровавый машоб для пентагона всё равно не вкатиться
https://www.youtube.com/watch?v=4W5M-YaJtIA
https://www.youtube.com/watch?v=cCeUdTXZJHs
Аноним 01/12/20 Втр 14:24:42 186998372
>>1869981
>до постсовков
Совки чмоне насрали в шаровары?
Аноним 01/12/20 Втр 15:00:47 187001573
Начал изучать эту вашу {вставить дисциплину} и чёт создалось у меня ощущение, что это какая-то хуета для быдла. Всё идёт легко и не напряжно. Чувство, что если вкачусь, то буду конкурировать с индусами за копейки т.к. любая макака может в этом зашарить.
Аноним 01/12/20 Втр 15:21:30 187002774
Аноним 01/12/20 Втр 17:15:19 187010475
Аноним 01/12/20 Втр 17:31:32 187012276
>>1869807
Ценность всех предыдущих исследований в области фолдинга (коих было довольно много) была помножена на 0. Все люди, которые этим занимались, что еще не получили тенюр, пойдут на помоечку - конкурировать с дипмайндом и их триллионами ТПУ они все равно никогда не смогут. Все по биттер лессону. Его нужно высечь на камне.
Машоб продолжает подминать под себя науку. Еще один пример, как замещение людей начинается сверху пирамиды. В первую очередь замещаются самые высокотехнологичные и интеллектуальные работы (мало областей более головоломных чем фолдинг).
Аноним 01/12/20 Втр 17:47:40 187014377
>>1869807
>>1870122
Если ты необразованный школьник, ориентирующийся только на хайповые сенсационные заголовки статей в журналах - безусловно всё так и есть.
Аноним 01/12/20 Втр 18:45:58 187023778
Околонаучный ФБ захлестывает волна AlphaFold2/CASP хайпа (https://deepmind.com/blog/article/alphafold-a-solution-to-a-50-year-old-grand-challenge-in-biology). Прежде чем фанаты AI (в смысле ML) спишут мою профессию в синие воротнички, позвольте обратить ваше внимание на несколько моментов:

1. Во-первых, AlphaFold не решает проблему фолдинга. В том смысле, что они предсказывают финальную структуру, но ничего не говорят о том, как она достигается в живой клетке. Практически идентично, в миллиардах живых клеток, ежесекундно. Но именно на нарушении (а правильнее даже сказать управлении) процессом фолдинга в живой клетке основаны эффекты многих мутаций и лекарств.

2. Они тренировались на полном банке PDB и, соответственно, предсказывают такие же усредненные структуры. Для многих белков, например Ca2+ зависимых сенсорных белков, которые кардинально меняют конфигурацию в зависимости от условий, это может иметь очень существенный эффект.

Более того, по-факту, AlphaFold предсказывает только ограничения на положения некоторых аминокислот и фрагментов белка, которые потом собираются в финальную структуру старыми добрыми алгоритмами и подходами родом из 90х, если не раньше. (google Modeller)

3. Текущие метрики приводятся на основании данных по доменам, но не целым белкам. Некоторые белки состоят из заметного числа доменов, чья взаимная пространственная ориентация может иметь существенный эффект на структуру и функцию белка. Особенно в динамике.

4. Точно предсказания даже по Ca атомам все равно весьма примерная. Цитата: These are for single domains-not whole proteins-and there are a few poor predictions. So corner cases remain but core problem appears solved: 88% of predictions are <4Å, 76% <3Å, 46% <2Å.

При этом даже 0.6Å достаточно (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5069389/), чтобы кардинально повлиять на результаты докинга и, соответственно, дизайна лекарств.

Не говоря уже о положениях отдельных боковых радикалов аминокислот. Там нередко одна аминокислота может сломать весь докинг/моделирование реакции. И люди десятилетями бьются чтобы понять, в какой же конфигурации и состоянии эта аминокислота (привет-привет Glu197 в ацетил- и бутирил- холинэстеразах человека. Остаток, из-за которого, в том числе, до сих пор нет эффективных антидотов для органофосфатов. Все же помнят Навального и "Святой источник"?)

5. Автоматизированные высокопроизводительные подходы порождают иллюзию уверенности. Вот сейчас-то мы сможем все! Структурная биология встала с колен, хо-хо! Нет. Достаточно посмотреть на предсказанные структуры (https://zhanglab.ccmb.med.umich.edu/COVID-19/) всех белков SARS-CoV-2 одним из лидеров упомянутого CASP challenge. Их нуклеокапсидный белок (для которого, между прочим, известно аж 60-70% структуры в виде X-ray структур!) не вызывает ничего, кроме истерических слез. Но, я более чем уверен, кто-то на полном серьезе будет делать докинг препаратов в нее и на голубом глазу утверждать, что вот сейчас то они придумали лекарство!

P.S. Но вообще, конечно, товарищи молодцы. Возбудили невероятный интерес к классической теме и, если смотреть их выступления на специализированных эвентах, рассказывают все аккуратно и со всеми оговорками. К сожалению, популяризация снова победила науку :(

И, конечно, ждем детального описания и кода, чтобы поиграться! xD
Аноним 01/12/20 Втр 18:51:29 187023879
>>1870237
неправда!! биттер лессон! первыми заменят учоных и другие высокотехнологичные работы!
Аноним 01/12/20 Втр 19:14:45 187028480
image.png 448Кб, 1470x900
1470x900
Аноним 01/12/20 Втр 20:20:37 187037181
Наверное избитая тема но все же: Что взять в качестве темы на диплома?

Предистория такова: пошел в магистратуру, именно на ии потому что там самые адекватные и лояльные преподы на факультете кн в моем универе. Надеялся что действительно будет время всем этим заниматься, но на практике понял что после работы сидеть еще учиться желания не сильно много. Петпроджекты по своему профилю писать и то интереснее (а главное полезнее).

Но все же дойти до победного конца нужно, сдавать через полгода, хочу потихоньку уже начинать.

Опять же, всерьез что-то делать самому ни времени ни особой мотивации нет, хотелось бы взять что-то +- готовое, слегка допилить, налить воды в диплом и сдать. Офк после сессии (если сдам конечно) пойду с вопросом выбора темы к дип руку (ее ж еще и утвердить нужно заранее).

Работаю мидлом-андроидом, поэтому если можно будет прикрутить к мобилке (на tf lite или что там еще модно, боюсь что самое очевидное - ARCorе тупо взять не прокатит) и показать таким образом работу в дейтсвии - будет круто.
Аноним 01/12/20 Втр 20:42:54 187039182
>>1870371
Определитель расы человека по изображению
Аноним 01/12/20 Втр 20:43:47 187039283
>>1870391
>Определитель расы человека по изображению
Это легко сделать и без машоба.
Аноним 01/12/20 Втр 20:44:38 187039384
>>1870391
Ага и ориентации. Реквестирую датасет с отборными пидорасами.
Аноним 01/12/20 Втр 22:02:41 187042385
>>1870393
Можно определять по тексту. Бери этот тред.
Аноним 01/12/20 Втр 23:01:20 187048986
>>1870371
Апп-фотоаппарат для россиян. Делает фотографию автоматически, если на картинке грустное лицо.
Аноним 01/12/20 Втр 23:34:14 187050787
>>1870489
Предсказание интенсивности участия в несанкционированных митингах по лицу.
Аноним 02/12/20 Срд 01:37:47 187057488
26953.101535.cs[...].jpg 139Кб, 1080x1080
1080x1080
large.jpg 53Кб, 503x691
503x691
Без названия (1).jpg 13Кб, 275x183
275x183
Без названия.jpg 12Кб, 275x183
275x183
>>1870391
Это уже сделано многократно.
ethnicity estimate
Аноним 02/12/20 Срд 01:40:24 187057589
Вопрос про tensorflow.
Вот есть у меня плоский слой A, за ним следует плоский слой B из, допустим, 10 значений.
Слой B = [слой A] x [веса] + [биасы]
Как определить значимость значений в слое A? Я могу получить значения весов и биасов, а дальше-то что? Формулы самому с нуля определять не хочется
Аноним 02/12/20 Срд 04:36:38 187060090
>>1870237
А вот и усталость металла подвалила
Аноним 02/12/20 Срд 04:51:38 187060291
>>1870575
Тебе для прунинга что ли? Погони весь датасет и получи усредненые значения активаций. Способ простой и на уровне остальных способов.
Хочешь больше - читай пейпер по synflow.
Хотя скорее ты просто градиент посчитать не можешь. Ну это tf.gradients делает вроде
Аноним 02/12/20 Срд 05:20:06 187060692
>>1870507
Мм, со вкусом кибергулага!
Аноним 02/12/20 Срд 05:56:40 187061393
>>1870600
> врёти не хочу ничо читать вон журналисты написали нироночка всех победила неибёт
Аноним 02/12/20 Срд 06:14:24 187061794
>>1870371
>Что взять в качестве темы на диплома?
Детектинг либирашек в риалтайме.
Аноним 02/12/20 Срд 06:15:10 187061895
>>1870606
Все как ты любишь, потребитель.
Аноним 02/12/20 Срд 06:23:57 187062096
image.png 141Кб, 1199x436
1199x436
image.png 353Кб, 1920x1287
1920x1287
>>1870613
Я прочитал https://www.nature.com/articles/d41586-020-03348-4 , а не "спасение рядового манямирка" для нечеткого петуха.
Как обычно. Какой-то успех это вызывает жжение в жопе и резкий гуглинг удобных манямирку постов, который это самое жжение немножко уменьшит. В этом посте будет классическое "вы находитесь здесь.тхт" с обязательным мнением какой-то пидорахи с десятилетним стажем, что не, это все хайп.
Почему пидорахи? Потому что живя в депрессивном окружении охота отрицать любой прогресс и доебываться до чего угодно.
А для отрасли это alexnet. Теперь все вот эти столбики на первой картинке будут заниматься нейронками, и суммарно продвинут подход еще дальше, чем это сделала одна команда.
Аноним 02/12/20 Срд 06:27:07 187062197
>>1870620
Особенно поржал с
>Достаточно посмотреть на предсказанные структуры (https://zhanglab.ccmb.med.umich.edu/COVID-19/) всех белков SARS-CoV-2 одним из лидеров упомянутого CASP challenge
То есть он не видел даже прикрепленных с посту картинок выше, но уже побежал строчить пост о том, что "азаза глупые журналисты в Nature)))". Как обычно, короче.
Увидете очередного с "усталостью металла" - насмехайтесь над ним.
Аноним 02/12/20 Срд 06:31:50 187062298
>>1870620
Все так, только серые столбики пойдут искать еду в мусорных ящиках, а не нейронками заниматься. Во-первых у них опыта профильного нет, а во-вторых, чтобы те нейронки тренировать, им таких грантов не дадут. Это миллионы стоит. Это все равно что сказать, что те, кто занимался машинным переводом по фразам (подход нулевых), сейчас вдруг перейдут на ГПТ3. Да нет, не перейдут. Перейдут на помоечку.
Аноним 02/12/20 Срд 06:41:21 187062399
>>1870620
>Матанопетух высказал свое очень важное мнение
ты это, машобщиг, давай, шевели булками и принеси мне два гамбургера и колу
Аноним 02/12/20 Срд 06:42:21 1870624100
>>1870620
>что живя в депрессивном окружении
Но я не живу в грязном Берлине с арабами
Аноним 02/12/20 Срд 07:08:24 1870629101
>>1870622
Фолдинг - это оптимизационная задача, люди, которые над этим работают, достаточно продвинуты, чтобы переучиться, как уже лет 5 как сделали специалисты по компьютерному зрению. Наука вообще подразумевает умение постоянно использовать что-то свежеоткрытое. Поэтому этим людям дают деньги, а не потому что их phd ниибаца актуален, а их умение писать код под MPI особо выдающееся.
А твоя дрочь на то, что ML якобы очень дорог по сравнению с любой другой наукой, просто никакого отношения к реальности не имеет. ML очень дешев и дешевле других методов, особенно экспериментальных. На реддите была инфа, что экспериментальное изучение одного белка сейчас стоит 100 тысяч долларов. Если вычислительные методы позволять отбрасывать хотя бы 90% априори неудачных вариантов, это удешевит разработку на более значительные суммы, чем стоимость GPU-кластера.
Аноним 02/12/20 Срд 07:16:50 1870631102
napalm.jpg 22Кб, 640x339
640x339
Люблю запах горящей ваты по утрам.
Аноним 02/12/20 Срд 07:20:41 1870632103
>>1870631
Тарасику больше ничего и не нужно, лол
Аноним 02/12/20 Срд 07:26:14 1870636104
>>1868191 (OP)
Скажите, а почему среди МЛ-щиков такой зашкаливающий процент русофобов и антисоветчиков?
Аноним 02/12/20 Срд 07:28:50 1870637105
hidethepainharo[...].jpg 139Кб, 1410x793
1410x793
>>1870629
Стоимость эксперементов нерелейтед к тому, что я сказал. Никто не даст микрочелику, занимавшемуся всю жизнь традиционным фолдингом, сжигать миллионы денег на тренировку гига-модели с 1000 слоев трансформеров впервые в жизни. Наймут опытного тф-слесаря вместо него, а еще лучше скачают уже натренированное и посядят макаку кнопку пуск давить.
В целом ясно, что это прогресс для отрасли как таковой. Вот только те серые столбики сейчас имеют вид пикрела. Все это круто, но не для них.
А когда-нибудь (скоро) придут и за самими машобщиками.
Аноним 02/12/20 Срд 07:33:19 1870639106
Ну чо, фолдинг уже, биохимикопетухи идут со своей биохимией на помоечку.

Ждем теперь квантовых физиков на мороз.
Аноним 02/12/20 Срд 07:37:55 1870641107
В пределе - точная аппроксимация любой нелинейной модели какого либо явления методом обучения по известным фактам этого явления без необходимости тратить миллионы долларов на кучу лысеющих фриков, пытающихся понять что эта за хуйня. Потому что понимать станет ненужно - это бессмысленная трата времени в то время как конечный результат - нейросеть предсказывающая исход явления на 99.9% входных параметров это как раз то что нужно на практике.

Вот так ученопитухи вкусят биттер лессон и отправятся на мороз. все отправятся на мороз.
Аноним 02/12/20 Срд 07:43:02 1870642108
>>1870639
> со своей биохимией
Так уровень современной биохимии примерно около нулевой
Аноним 02/12/20 Срд 07:54:53 1870643109
>>1870639
Уже были репорты в нейчер, когда нейроночки какие-то там дифуры из квантмеха круто решали, пару лет назад.

Вот бы они взялись за квантовые компьютеры. Яйцеголовые уже 30 лет не могут родить, может нейроночка нам зделоет. А потом эти же нейроночки на этих же КК тренировать можно будет - это ужс что начнется.
Аноним 02/12/20 Срд 07:59:17 1870644110
>>1870637
Лол, у тебя такое клиповое мышление, что ты из двух абзацов запомнил только второй. Перечитай первый. Ученые - не птушники, за свою жизнь переучиваются новым парадигмам постоянно. Но то они и ученые. А работать на стремительно меняющейся области более интересно, чем в стагнирующей, в которой 20 лет не было прогресса.
Аноним 02/12/20 Срд 08:02:59 1870645111
>>1870644
>Но то они и ученые
В говне моченые, ладно там ущербные математики, этих убогих оставим, но биохимики чего добились то? Производство соевой колбаски?
Аноним 02/12/20 Срд 08:08:01 1870650112
>>1870644
Удачки им переучиться с ужа на ежа, чо. Хорошо, что это все не у меня.
Аноним 02/12/20 Срд 08:11:37 1870651113
Да, кстати чистым математикам тоже приготовиться. Уже вовсю клепают автоматические доказатели теорем на нейронках. В опенаи целый отдел по этой части, а им палец в рот не клади.
Аноним 02/12/20 Срд 08:12:08 1870652114
>>1870645
Вообще похуй. Есть конкретный человек, который понимает в фолдинге - то есть решении сложной оптимизационной задачи с использованием софта, который считается на кластерах, скорее всего он неплохом уровне знает python, C++/MPI, и матан, а скорее всего там уже сработанная команда. И вот по-твоему этот самый человек не способен освоить DL, ведь это колдунство, доступное только зумерам-вкатывальщикам.
Аноним 02/12/20 Срд 08:14:02 1870654115
Аноним 02/12/20 Срд 08:16:30 1870655116
>>1870654
Прикладной нейрослесарь. Пока не автоматизированный.
Аноним 02/12/20 Срд 08:31:05 1870656117
>>1870652
>есть решении сложной оптимизационной задачи
Мне не нравится такой подход в науке, это значит что они не хуя не понимают
Аноним 02/12/20 Срд 09:57:51 1870674118
>>1870624
Берлин гораздо чище ДС и дс2, я правда не был в бедных районах там.
Аноним 02/12/20 Срд 10:02:01 1870675119
>>1870674
> гораздо чище ДС и дс2
Лол, нет.
Аноним 02/12/20 Срд 10:54:33 1870686120
изображение.png 1729Кб, 2812x2361
2812x2361
Вопрос не совсем про машоб. Почему в гугле на запрос "parallel evolution algorithm" "parallel genetic algorithm" вываливается куча статей вроде https://arxiv.org/pdf/1209.5319.pdf но нихуя нет готовых библиотек?
У меня есть задача поиска глобального минимума функции около 10-40 аргументов, одно вычисление функции будет больше минуты точно, много локальных минимумов. Поскольку функция тяжелая логично использовать параллелизацию. Особенно если учесть что в генетическом алгоритме можно независимо вычислять значения функции у конкретных "особей". А кроме того у меня есть доступ на кластер с десятками узлов.
Именно по этому однопроцессорный scipy.optimize.differential_evolution не сгодится.
Аноним 02/12/20 Срд 11:16:18 1870699121
image.png 78Кб, 993x261
993x261
>>1870686
>scipy.optimize.differential_evolution
В глаза не ебись
Аноним 02/12/20 Срд 11:25:57 1870714122
Генеративно-состязательные сети Аноним 02/12/20 Срд 11:27:27 1870716123
https://youtu.be/8z13MZiXdD4

Отличное видео про GAN'ы, про состязательную генерацию, генерацию без пар примеров.

Нашему раздевальщику бы генерация без пар помогла
https://2ch.hk/h/res/165538.html
Аноним 02/12/20 Срд 11:33:32 1870724124
>>1870699
Для кластера с узлами только mpi-процессы, а не распараллеливание по потокам.
Аноним 02/12/20 Срд 11:34:29 1870725125
>>1870714
А нафига эта хуета, когда есть mpi4py?
Аноним 02/12/20 Срд 11:42:20 1870730126
Аноним 02/12/20 Срд 11:52:26 1870735127
>>1870725
Понятия не имею, я не разбираюсь в MPI, в особенности для питона.
Суть в том, что ты берешь функцию типа YobaPool.map типа и скармливаешь ее в качестве параметра workers как указано в документации на скриншоте.
Можешь использовать https://mpi4py.readthedocs.io/en/stable/mpi4py.futures.html?highlight=pool#mpi4py.futures.MPIPoolExecutor.map , можешь mpipool.Pool.map , чем они отличаются не знаю.
Аноним 02/12/20 Срд 11:59:26 1870740128
>>1870735
Вот это всё примерно понятно. Но вопрос-то был в том, а какого собственно хуя нет в сети открытой библиотеки с параллельным генетическим алгоритмом.

Не я всё прикрасно понимаю, нет значит нет. Либо пишу свое, либо использую другие инструменты, либо переформулирую задачу.
Аноним 02/12/20 Срд 12:09:29 1870747129
>>1870740
> Вот это всё примерно понятно. Но вопрос-то был в том, а какого собственно хуя нет в сети открытой библиотеки с параллельным генетическим алгоритмом.
Да в общем-то все генетические либы скидывают всё на разработчика. Хочешь паралельности - делаешь паралелльность. Алсо, GA достаточно простая вещь. Можешь и без фреймворков собрать.
Аноним 02/12/20 Срд 12:12:29 1870748130
>>1870740
Не похоже, что тебе что-то понятно, раз ты вместо того, чтобы пойти имплементировать это решение в 3 строчки, строчишь посты о том, что тебе нужна специальная библиотека, где тебе все разжуют и в рот положат.
Аноним 02/12/20 Срд 12:32:40 1870753131
>>1870740
> вопрос-то был в том, а какого собственно хуя нет в сети открытой библиотеки с параллельным генетическим алгоритмом.
Есть. Но не для пистонохолопов https://cran.r-project.org/web/packages/GA/vignettes/GA.html#parallel-computing на пистоне вообще много чего нет из нормальных алгоритмов, зато есть вся соевая поебень. Я вот искал что-нибудь для grammatical evolution для пистона, нашел только какую-то хуету.
Аноним 02/12/20 Срд 16:17:50 1870918132
>>1870686
Всем спасибо. Сам нашел PGAPack и pgapy, хз насколько она работоспособна на многопроцессорных машинах.
Аноним 02/12/20 Срд 16:52:39 1870967133
image.png 56Кб, 893x734
893x734
Аноны, как вы думаете, учебные курсы по теории обработки сигналов пойдут на пользу аналитику данных? Посматриваю вот на курс пикрелейтед, например. У меня нетехническое образование, поэтому об этом всем представление достаточно слабое.

Со статистикой, программированием и базовым ML и так дружу, работа уже есть, просто пытаюсь развиваться дальше.
Аноним 02/12/20 Срд 17:03:52 1870984134
>>1870967
Обычный датаслесарь ничего из этого не использует. ИМХО это все устарело и имеет очень ограниченное применение. Если есть возможность, все будут переводить на нейроночки.
Аноним 02/12/20 Срд 17:32:37 1871039135
>>1870641
>ученопитухи вкусят биттер лессон и отправятся на мороз. все отправятся на мороз
Ох уж эти мечты птушника. Ты потому и занимаешься макакингом что не понимаешь: "предсказывание исхода явления" понимание не заменяет даже если оно на 99.(9)1% точно, просто потому что наука в первую очередь про второе а не про первое. Как примерно любую олимпиадную задачку с огромными входными данными можно решить брутфорсом если подождать достаточное количество времени, вот только никто это "решением задачи" не называет кроме тупарей только на брутфорс и способных. Забавно как машоб становится последним прибежищем low iq брейнлетов, лол.
>Да, кстати чистым математикам тоже приготовиться.
Ну, ещё одна иллюстрация непонимания в копилку. "Автоматические доказатели" это маргинальная тема, на которую настоящим математикам насрать по большему счёту.
Аноним 02/12/20 Срд 17:35:52 1871049136
>>1870639
> фолдинг уже
Читайте что-то помимо новостных сводок >>1870237
Аноним 02/12/20 Срд 17:58:48 1871099137
здесь.jpg 26Кб, 640x339
640x339
Аноним 02/12/20 Срд 18:00:34 1871103138
>>1871039
> "Автоматические доказатели" это маргинальная тема, на которую настоящим математикам насрать по большему счёту.
В данном конкретном случае дело больше в том, что те, кто называет себя "настоящими математиками" в массе своей просто не могут в разные теории типов, на которых такие пруверы основаны, так как это не только выходит за пределы их компетенции, но и требует принципиально нового мышления. Отдельные из них, самые одаренные, поступают ещё проще - заявляют, что математика за пределами их мирка это вообще не математика.
Аноним 02/12/20 Срд 18:05:23 1871109139
Сейчас доказательство это самая суть любой математической статьи. Кто ловчее доказывает, тот и больше математик. Когда все доказательства будут автоматическими, писать будет не о чем. Какое-то время по инерции будут писать статьи "я тут потыкал и компьютер сказал ОК", но разумеется это никому не интересно. И математика просто умрет.
Аноним 02/12/20 Срд 18:05:34 1871110140
>>1870984
Насколько я сужу с позиции своего незнания теории сигналов, я бы мог использовать эти знания на этапе предообработки данных для целей моделирования - а это мне интересно. Но это предположение.
Аноним 02/12/20 Срд 18:07:52 1871114141
>>1871110
>использовать эти знания
биттер лессон используй
Аноним 02/12/20 Срд 18:16:09 1871117142
>>1870967
Если хочешь естественными одномерными сигналами заниматься, то обязательно. Если картинками - желательно. Если вещами типа NLP - не нужно. Короче, там где CNN, там бывает нужна обработка сигналов.
В детали алгоритмов можно не вчитываться, просто нужно знать, например, что a[::4] - херовый способ сконвертировать 44100 кГц звук в 11025, а librosa.resample - нормальный. То же касается и картинок, некоторые не знают, что ужимать котика в 224х224 пикселей надо с помощью Image.resize(), а не тупо отбрасывая каждый энный пиксель.
Или другой пример, для обучения сетки, которая восстанавливает некоторые данные, есть сетка, которая их ухудшает из чистых данных. И некоторые люди делают так, чтобы они работали в одном разрешении. И получают более хуевый результат, чем если бы деградатор (которого в продакшене не будет и он может быть очень тяжелым) работал бы в повышенном разрешении с последующим ресайзом к нужному.

В целом в контексте нейронок
1. Spectral analysis - для понимания того, как устроены речевые фичи, хотя лично я за raw сигналы
2. Filtering/Convolution - для аугментации
3. Resampling - довольно важная фундаментальная вещь, на незнании которой я периодически ловлю даже авторов пейперов, не говоря уже о китайцах с гитхаба.

Все остальное либо готовит к этим темам, либо не нужно (как вейлеты), о чем 3 последних пункта не знаю.
Аноним 02/12/20 Срд 18:16:19 1871118143
>>1871109
>И математика просто умрет.
Туда этому говну и дорога
Аноним 02/12/20 Срд 18:23:40 1871125144
>>1871103
Нечёткий, мы уже давным давно установили что настоящей математики ты не знаешь, поэтому в твоём мирке математика=быдлокодинг, не нужно повторяться.
Аноним 02/12/20 Срд 18:27:03 1871129145
>>1871099
Только пока что-то горят нейродауны закрывая уши и повторяя мантры на всего лишь предложение "погодите минутку, давайте разберёмся". >>1870237 >>1870620

Аноним 02/12/20 Срд 18:32:29 1871133146
>>1871129
Главное правило треда: нечеткий петух всегда сосет
Аноним 02/12/20 Срд 18:34:49 1871137147
>>1871109
Жаль только, что автоматически ничего нового ещё не вывели, только уже известные результаты передоказали. Когда там Logic Theorist появился, в 56?
НУ НИЧЕГО, СЕЙЧАС ВОТ-ВОТ И ВСЕХ МАТЕМАТИКОВ ЗАМЕНИМ.
Аноним 02/12/20 Срд 18:52:10 1871147148
>>1871137
>ВСЕХ МАТЕМАТИКОВ ЗАМЕНИМ
В мусорных корзинах будут рыться не математики, а роботы
Аноним 02/12/20 Срд 20:46:55 1871230149
>>1871147
Кто-нибудь запилит сервис для поиска, рейтинга, и обсуждения мусорных баков. Какой там ассортимент еды, когда выбрасывают.
Аноним 02/12/20 Срд 20:52:09 1871236150
>>1871147
>В мусорных корзинах будут рыться не математики, а роботы
Запомните этот твит, через пару-тройку лет затухающего хайпа так и будет.
Аноним 02/12/20 Срд 21:02:04 1871243151
image.png 102Кб, 339x319
339x319
15972079551650.png 83Кб, 511x407
511x407
Аноним 02/12/20 Срд 21:03:45 1871246152
если scikit learn классифицирует разнообразный датасет нормально, а когда только один класс данных то всё хуёво, где можно было обосраться?
Аноним 02/12/20 Срд 21:09:44 1871251153
image.png 51Кб, 740x348
740x348
Аноним 02/12/20 Срд 22:17:04 1871311154
>>1870730
Посмотрел твое видео. Намного менее интересно и слишком душно. Из первого видео душили только петросянские шутки, тут душит подача
Аноним 02/12/20 Срд 22:41:10 1871339155
image.png 234Кб, 1622x1410
1622x1410
Аноним 03/12/20 Чтв 00:54:14 1871462156
>>1871117
Спасибо за детальное пояснение
Аноним 03/12/20 Чтв 03:07:38 1871501157
Аноним 03/12/20 Чтв 06:16:15 1871513158
>>1871311
Ну только подача это абстрактная субъективная хуйня, а петросянские шутки и уровень "сейчас я вам расскажу что такое нейронки" видят все.
Аноним 03/12/20 Чтв 11:56:56 1871630159
Анон, подскажи, в сторону каких методов копать. Теорвер забыл напрочь, даже не знаю, с какой стороны подойти к задаче.
В общем, имеется множество X и множество Y, элементами которого являются мультиподмножествами X. Также имеется полученная на опытных данных Y' таблица вида (Xi, Xj, Qi,j), где Qi,j = | ∀y ∈ Y' { y, где { Xi, Xj } ⊆ y } | количество наборов, в которых встречается данная пара
Задачей стоит определить степень родства элемента Xa с набором { X0, ..., Xn }.
Какой-нибудь байесовский классификатор тут нужен или что-то подобное, не?
Аноним 03/12/20 Чтв 13:05:28 1871652160
photo2018-11-29[...].jpg 76Кб, 780x780
780x780
Кто вообще этот Bitter Lesson форсит?
Маняпрофессор на маняпрофессорской должности может рассуждать о том куда идет индустрия, а анон на своей должности должен делать что сейчас выгодно
Аноним 03/12/20 Чтв 13:07:40 1871654161
>>1871630
а можешь без ебучих формул написать вопрос?
Аноним 03/12/20 Чтв 13:31:24 1871683162
>>1871652
Тупни, которые используют спойлеры в текстах вместо скобок, идут нахуй
Аноним 03/12/20 Чтв 13:43:24 1871700163
Аноним 03/12/20 Чтв 14:24:02 1871733164
Аноним 03/12/20 Чтв 14:31:50 1871737165
Учебник по математике какой посоветуете?
Аноним 03/12/20 Чтв 14:51:10 1871750166
>>1871733
Ты осознаешь что метрики степеней сходства без твоего матана всем известны, но если бы ты их формулировал попроще, сам бы все нагуглил давно?
Аноним 03/12/20 Чтв 17:20:41 1871907167
>>1871652
Мы и делаем, кушоть-то надо что-то. Но и порассуждать тоже не дураки, по рассуждизмам я Саттону еще фору дам.
То, что он сказал это нетривиальное наблюдение, которое предсказывает куда все идет. Оно совершенно верно, и оно сильно бьет по эго некоторых интеллектуалов, которые считают свой разум пределом совершенства. Это идеальная комбинация для форса. Биттер лессон будут заталкивать в глотки анонам, пока у всех не наступит принятие.
Аноним 03/12/20 Чтв 17:26:47 1871913168
>>1871907
> нетривиальное наблюдение
Совершенно обычное очередное субъективное суждение про волшебную палочку, повторюсь.
Аноним 03/12/20 Чтв 17:31:23 1871921169
>>1871907
>Это идеальная комбинация для форса
Повзрослей уже, комбинации для форса он ищет
Аноним 03/12/20 Чтв 19:10:44 1872027170
В чем суть этого вашего bitter lessona? Прочитал - нихуя не понял. Какой нахуй экспоненциальный рост вычислительных мощностей? Даже если за последние 70 лет это было так, то где пруфы что они продолжат расти экспоненциально в следующие 70 лет?
Аноним 03/12/20 Чтв 19:14:16 1872032171
Аноним 03/12/20 Чтв 19:22:29 1872043172
>>1872027
>Какой нахуй экспоненциальный рост вычислительных мощностей?
Саттон просто отрабатывает интересы бигтека, им деградация знания за счёт форса дорогостоящих якобы универсальных методов выгодна как средство монополизации, вот и несёт хуйню про пользу забивания гвоздей микроскопами.
Аноним 03/12/20 Чтв 19:48:26 1872088173
>>1872043
Потрешь шизика - получишь конспиролога
Аноним 03/12/20 Чтв 19:54:06 1872099174
>>1872027
Я это понимаю, что не нужно читать статьи от бездельников из Стэнфорда и лучше дождаться статьи от ФААНГа. Потому что Гугл делает Берт и Эффишнтнет, а профессора из Гугла ищут в них гендерный байас и добавляют сверху цепи Маркова, и каждый раз одно и то же .
Аноним 03/12/20 Чтв 20:09:53 1872112175
>>1872088
Эт точно, дипшизик выше совсем с ума сошёл со своими заговорами учёных противостоящих НАСТОЯЩЕМУ ПРОГРЕССУ.
Аноним 03/12/20 Чтв 21:35:11 1872218176
Аноним 03/12/20 Чтв 22:46:52 1872287177
Сегодня сам Trevor Hastie дает онлайн лекцию
Аноним 04/12/20 Птн 00:00:33 1872329178
>>1872218
Кто это? О чем речь?
Аноним 04/12/20 Птн 01:01:32 1872378179
>>1871654
Без ебучих формул описание было бы менее однозначным, более ёмким и, пожалуй, не обошлось бы без погружения в предметную область.
Какой именно момент тебе непонятен?
И вообще, как можно сидеть в программаче и не знать хотя бы основ теории множеств?
Аноним 04/12/20 Птн 01:20:51 1872386180
Аноним 04/12/20 Птн 01:24:34 1872388181
>>1872329
Какое-то говно, а не ссылку я скинул. Если коротко, это какое-то сжв от Racial/Homophonic Bias in AI, которое затравило ЛеКуна в твиттере и устроило ему немного cancel culture.
Аноним 04/12/20 Птн 01:45:48 1872392182
>>1871630
Ну если тебе нужна какая-нибудь степень родства возьми произведение Q_{ai} / |Y| по всем (X_a, X_i, Q_{ai})
Аноним 04/12/20 Птн 02:24:40 1872400183
>>1872378
Шутить изволите? Готов поставить остаток холодного кофе в моей чашке, что людей, хотя бы слышавших о теории множеств, здесь не наберется и трети. В тредах вкатышей и языковых сидят буквально дети и пускающие слюни идиоты.
Аноним 04/12/20 Птн 02:29:39 1872401184
>>1872218
Нашла коса на камень. Имхо это ошибка Дина, ему еще аукнется. Если она поднимет цунами говна (а она мастер говнища - за это и была нанята изначально), то оно сметет и Дина, и весь его Брейн.
Аноним 04/12/20 Птн 02:40:56 1872408185
>>1872401
Никого эти всесильные и всеужасные фемки и сжв не сметут если не дадут отмашку, а отмашку не дадут, ибо трампа уже обоссали, теперь вся эта шелупонь уже не нужна.
Аноним 04/12/20 Птн 04:14:05 1872427186
>>1872408
Это уж как повезет. Сделает хештег #бойкот_гаглу, если народу зайдет тема про гигакорпорацию, угнетающую женщин и детей (а это хороший, сочный мем), то их начальники могут заставить Гугл Брейн в полном составе встать на колени, чтобы рекламные доходы не падали. Полицейские встали, и эти встанут, никуда не денутся - жить-то все хотят.
Аноним 04/12/20 Птн 04:46:46 1872435187
>>1872392
Не. Такая метрика будет обратно пропорциональна длине "набора", что неправильно.

Хм. Пожалуй, точнее было бы сказать, что нужно определить не степень родства, а вероятность существования такого y, который бы включал в себя и данный "набор" (назовем его S ⊂ X), и X_a. Короче, P(∃y ∈ Y: S ⋃ { X_a } ⊂ y).
Теорвера я не помню, но интуиция мне подсказывает, что ключом к решению задачи может быть теорема Байеса. На википедии нашел байесовский классификатор, но похоже, что он годится только для тех случаев, когда классы явно определены, а это не мой случай.
Аноним 04/12/20 Птн 04:50:11 1872437188
>>1872427
>если народу зайдет тема
Ты со своим школьным правачизмом так и не можешь понять, что нет никаких тем которые куда-то там "заходят" каким-то "людям", а есть просто бабки, которые и определяют повестку. Без желания людей с бабками вопли твиттерских додиков не имеют никакой силы; ну и весь трагизм последних в том что после того как трампа подсрачником выгнали из белого дома они вместе с блмщиками больше никому не нужны.
Аноним 04/12/20 Птн 04:56:16 1872440189
>>1872400
Ты преувеличиваешь. Думаю, не меньше половины местных учились или учатся на связанном с ИТ направлении, т.е. представление должны иметь.
Аноним 04/12/20 Птн 05:10:40 1872443190
>>1872437
>они вместе с блмщиками больше никому не нужны.
Ну-ну. Беги за изолентой, скреплять треснувший манямирок:
https://www.nasdaq.com/press-release/nasdaq-to-advance-diversity-through-new-proposed-listing-requirements-2020-12-01
Скоро без 1+ черного (под расовой дайверсити понимается исключительно черные) и 1+ алфавитного в совете директоров не сможешь выйти на биржу. А может, и уже вышедших повыкидывают. А на этой бирже, ну считай вся мировая экономика там происходит.
Аноним 04/12/20 Птн 07:16:50 1872472191
>>1872443
Обычный булшит для инвесторов, а тем временем гебру-то реально того.
Аноним 04/12/20 Птн 07:23:42 1872475192
>>1872440
Напомню, что он (или это ты?) не смог нагуглить как в машобе считают подобие.
Из-за ебучих формул.
Аноним 04/12/20 Птн 07:44:07 1872481193
>>1872437
> есть просто бабки, которые и определяют повестку. Без желания людей с бабками вопли твиттерских додиков не имеют никакой силы;
И как ты это видишь? Как бабло может повлиять на ситуацию, когда реально мотивированная фемка использует реально работающие в обществе механизмы для достижения поставленной цели? В каком месте тут бабки могут что-то изменить?
Аноним 04/12/20 Птн 07:51:37 1872482194
>>1872475
Это я. Если тебе есть что посоветовать, то излагай. Я здесь затем и спросил.
>Из-за ебучих формул.
А ты хотел неформализованную задачу, чтобы самому пришлось разобраться в предметной области и покорпеть над формализацией?
Аноним 04/12/20 Птн 07:54:37 1872483195
>>1872482
Может быть ты уже какую-то информацию выкинул? Вот это "количество пар" - весьма подозрительно. Не схлопнул ли ты что-то важное в этот момент
Аноним 04/12/20 Птн 08:13:37 1872489196
>>1872483
>Вот это "количество пар" - весьма подозрительно.
Есть такое. Пока не решено как именно их обрабатывать, накапливаются в таком виде.
>Не схлопнул ли ты что-то важное в этот момент
Думаю, ничего значительного не должно было утратиться.
Аноним 04/12/20 Птн 10:18:12 1872506197
>>1872435
>Не. Такая метрика будет обратно пропорциональна длине "набора", что неправильно.
Все хуже. Чем больше у тебя набор, тем меньше вероятность, что он существует.
Допустим у тебя все наборы {1,2,3} имеют вероятность 1. Вероятность {1,4}=0.5, {2,4}=0.5, {3,4}=0.5. Какова вероятность {1,2,3,4}? В 0.5^3 раз меньше, потому что тебе нужно, чтобы твои пары одновременно принадлежали одному набору, а наоборов у тебя много.
Если это не так, ты что-то не учел, например, корреляцию между парами, то есть что-то типа "если {2,3} встречается, значит, скорее всего, {2,4} тоже будет встречаться".

Чтобы избавиться от этой множественной криптографии, назовем Y матрицей, в которой строки - это сами элементы, а столбцы - описывают с помощью 1/0 есть ли элемент в X или его там нет.

Вероятность того,что пара встречается в матрице вообще:
P(пара)=q_пара/sum(Q)
Вероятность того,что пара встречается в какой-то данной строке:
P(пара ⊂ строка)=P(пара)/N_строк (1)
Нужно найти, что тапл встречается в строке. Для этого попарно перемножаем вероятности (самое отстойное предположение - что корреляций межу парами нет):
P(тапл123 ⊂ строка)=P(пара12 ⊂ строка) x P(пара23 ⊂ строка) x P(пара13 ⊂ строка)
Подставим (1) и домножим на N, чтобы избавиться от "⊂ строка" везде.
P(тапл)=N x P(пара12) x P(пара23) x P(пара13)/ (N^(число_пар_в_тапле-1))
Пусть L=длина тапла, тогда число_пар_в_тапле это L(L-1)/2.
P(тапл)=P(пара12) x P(пара23) x P(пара13)/ (N^(L x (L-1)/2-1))
Избавляемся от констант, заменив показательную функцию на экспоненту:
Yoba(тапл)=P(пара12) x P(пара23) x P(пара13) x exp(-L^2)

Как-то так.
Аноним 04/12/20 Птн 13:13:40 1872651198
Анон, поясни, пожалуйста, про сохранение и загрузку модели, которая будет дообучаться.
Например, я сохраняю GAN:
torch.save(G.state_dict(), PATH)
torch.save(D.state_dict(), PATH)

Как мне дальше подгрузить модель с учётом вот этого:
https://pytorch.org/tutorials/beginner/saving_loading_models.html
Достаточно ли будет просто:
G.load_state_dict(torch.load(PATH))
D.load_state_dict(torch.load(PATH))
Или надо предварительно объявлять:
G = TheModelClass(args, kwargs)
D = TheModelClass(
args, kwargs) ?

А что насчёт использования CUDA?
Загруженные модели всё равно надо туда класть через to(device)
Аноним 04/12/20 Птн 14:23:11 1872698199
>>1872506
>P(пара ⊂ строка)=P(пара)/N_строк (1)
Тут натупил, это N уже учтено в P(пара), то есть P(пара) это и есть P(пара ⊂ строка). Соответственно нужно просто перемножить вероятности всех пар и не ебать мозг.
Аноним 04/12/20 Птн 14:32:58 1872706200
>>1872482
если бы ты попроще формулировал запросы к гуглу, то нагуглил бы косинусное расстояние, например.

думаешь ты такой уникальный?
Аноним 04/12/20 Птн 17:20:39 1872887201
Путин пояснил, что в будущем машины будут контролировать человека «в значительной степени», но в конечном итоге контроль над машинами сохранит сам человек.
1 человек
Искусственный интеллект — это не #хайп, заявил #Путин Аноним 04/12/20 Птн 18:11:12 1872983202
Аноним 04/12/20 Птн 18:15:00 1872994203
>>1872706
И причём здесь косинусное растояние, где ты здесь эмбеддинг подходящий видишь? Какие же машобщики тупые, просто пиздец, синдром даннинга-крюгера во всей красе.
Аноним 04/12/20 Птн 18:33:54 1873032204
>>1872994
Ну перечисли признаки в строку - вот тебе и вектор.
Аноним 04/12/20 Птн 19:02:39 1873062205
>>1873032
> Ну перечисли признаки в строку - вот тебе и вектор
> косинусное растояние
Уровень машоба дипшкольник/10
Аноним 04/12/20 Птн 19:18:16 1873072206
Че, когда там гугловцы/опенэйай уже GPR (Generative Pre-trained Reformer) пилить начнут? Говорят Reformer и контекстное большое имеет, и модель меньше весить будет.
Аноним 04/12/20 Птн 19:20:46 1873074207
>>1873072
По мне performer выглядит симпатичнее всего
Аноним 04/12/20 Птн 22:36:48 1873200208
>>1873072
Они скорее всего написали кучу кастомного мега-оптимизированного кода для ГПТ, и на другую модель переходить дорого.
Аноним 04/12/20 Птн 22:47:31 1873208209
>>1873074
Почитал пейпер от гугла. Выглядит многообещающе (линейное время!).
Аноним 04/12/20 Птн 22:59:18 1873217210
>>1873200
Вообще, да. Поставьте себя на место разрабов. Потратили миллиарды, а в итоге их проект уже устарел. "Вась, всё хуйня, давай по-новой."

Ясное дело выгодней существующий проект допилить, чем заново миллиарды тратить. Однако, думаю на обучение performer/refomer уйдет меньше денег, учитывая, что датасет есть.
Аноним 04/12/20 Птн 23:16:03 1873228211
>>1873208
Реформер тоже линейный. Как и линформер. Как и бигберд. Последний год вообще прошел под флагом O(n)-трансформеров.
Там главное не это, а то, что
1. В отличие от реформера, статья утверждает о нулевом перформанс дропе по сравнению с оригинальным трансформером и приводит графики, их сравнивающие
2. Модели совместимы, то есть уже натренированную модель можно сконвертировать

В целом я думаю, что они хотят/хотели собрать побольше всякого рода фишечек и трюков, прежде чем опять сжечь 10 миллионов баксов на большой модели. Перформер, конечно, хорош, но похоже что он недоисследован. В частности, почему аппроксимируется именно softmax.
Аноним 04/12/20 Птн 23:27:16 1873232212
>>1873228
> Реформер тоже линейный. Как и линформер. Как и бигберд.
Да и не спорю.
Аноним 05/12/20 Суб 00:08:52 1873249213
>>1873228
Именно в ГПТ от линейности по контектсу, возможно, не так и много проку будет. Контекст у них не очень большой (2048 токенов в ГПТ3).
С фиксированным контекстом можно все так заоптимизировать, что даже формально квадратичную сложность будет трудно побить. Из-за дополнительной сложности асимптотически более быстрый алгоритм может проиграть.

Конечно, с более эффективным алгоритмом можно было бы расширять контекст. Но тексты там - веб странички, которые короткие обычно. То есть выигрыш може быть минимальным, потому что длинных тренировочных данных мало.
Аноним 05/12/20 Суб 00:17:46 1873251214
Аноним 05/12/20 Суб 00:17:59 1873252215
>>1873249
Ну, думаю будет прок при использовании. Всё таки, если GPT будет держать инфу на протяжении всего использовании - это серьезно.
Аноним 05/12/20 Суб 00:40:06 1873256216
image.png 124Кб, 1008x246
1008x246
>>1873249
Константа маленькая. Черная линия на графике - это теоретический предел. Сплошная - перформер, пунктир - трансформер. Видно, что он начинает обгонять уже с 512 токенов, позволяя утоптать в V100 не 2048 токенов, а 32768.
Аноним 05/12/20 Суб 00:45:18 1873258217
Аноним 05/12/20 Суб 02:53:23 1873287218
>>1873256
Он начинает обгонять какую реализацию? Я предполагаю, что опенаи сделали какие-то особые трюки, чтобы тренировать обычный трансформер. Почти наверняка он у них работает гораздо быстрее стандартного питорчевского кода.
Аноним 05/12/20 Суб 08:07:30 1873319219
dc64zpc-414ed0d[...].jpg 705Кб, 1280x960
1280x960
Спайковые сети лучше чем персептронные.
Чендж май майнд.
Аноним 05/12/20 Суб 08:08:41 1873320220
>>1873319
Любая хуйня лучше персептрона, че сказать то хотел?
Аноним 05/12/20 Суб 08:09:59 1873321221
ответил аниме-дебилу, во дурак
Аноним 05/12/20 Суб 09:17:46 1873329222
>>1873319
Результаты хотя бы на imagenet какие?
Аноним 05/12/20 Суб 10:16:11 1873338223
>>1868191 (OP)
Эй, пошли в мусорных баках копаться, там свежачок завезли
Аноним 05/12/20 Суб 10:50:11 1873343224
>>1873287
За счет чего? Там все оптимизации - это как распихать это говно по видюхам и серверам, и как между ними обмениваться данными, весами и градиентами. Но само перемножение матриц остается перемножением.

>>1873319
В "персептронных" (почему так?) сигналы у тебя кодируются векторами, в спайковых - частотами в некотором одномерном сигнале в времени.
На лицо вычислительная избыточность - грубо говоря, вместо операции типа "если на входе 6, выдай на выход 4" у тебя получается "если на входе спайки с частотой 6, выдай на выход спайки с частотой 4". Вместо простой арифметики целое физическое моделирование.
Поэтому если нет подходящего какого-то полуаналогового железа, которое будет бесплатно считать соответствующие спайковым нейронам диффуры, что в них хорошего. Поэтому я особого смысла по сравнению с обработкой векторов не вижу.

Главная фишка биологических сетей в том, что у них нет глобального бэкпропа и каждый "вычислительный модуль" работает параллельно, по каким-то волшебным сигналам из внешней среды адаптируя свои веса. Вот это эффективно делать не умеют, а мозг, судя по всему, умеет.
Аноним 05/12/20 Суб 10:54:43 1873346225
>>1873343
> а мозг, судя по всему, умеет
Судя по всему, матанопетухи ничего не понимают.
Аноним 05/12/20 Суб 19:11:48 1873706226
>>1870651
Давайте вы для начала решите задачку попроще, типа предсказания следующего простого числа например своими нейронками, машинлёрнеры, а там уже и до статей как-нибудь доберётесь.
Аноним 05/12/20 Суб 20:04:39 1873728227
Аноним 05/12/20 Суб 20:50:04 1873755228
Ребзя, подскажите, хочу запилить расширение для браузера для блока эро-катинок.
Есть ли такая уже натренеованная нейросеть? (я ньфаг в этой теме)
В каком формате вообще имеют ход данные о натренированности? Это тупа записи в БД?
Аноним 05/12/20 Суб 21:34:22 1873781229
Аноним 05/12/20 Суб 21:54:54 1873791230
>>1873781
Названия признаков или номера столбцов, да.
Аноним 05/12/20 Суб 22:08:40 1873799231
>>1873781
>>1873791
Именно категорных, если ты про это спрашиваешь
Аноним 05/12/20 Суб 22:10:48 1873801232
>>1873791
>>1873799
Спасибо.
Названия всех признаков, что есть в обучающей выборке? Или можно ограниченную часть передавать?
Аноним 05/12/20 Суб 22:27:27 1873810233
Аноним 05/12/20 Суб 22:50:47 1873826234
Train rmse: 9.824433247328741
Validation rmse: 4.480288278511864
Пиздец, нахуй так жить, посоны?
Аноним 05/12/20 Суб 23:03:24 1873841235
Аноним 06/12/20 Вск 01:30:15 1873911236
>>1873826
Так нормально жи. Разве нет?
Аноним 06/12/20 Вск 03:18:01 1873985237
здесь.jpg 26Кб, 640x339
640x339
Аноним 06/12/20 Вск 04:02:49 1873990238
Untitled-design[...].jpg 29Кб, 658x470
658x470
>>1873985
> вы находитесь здесь
Аноним 06/12/20 Вск 15:42:29 1874268239
>>1873062
Почитай биттер лессон лучше.
Ты проверил? Не работает?
Аноним 06/12/20 Вск 18:29:46 1874459240
Сколько платят джунам-студентам без опыта в провинции? MLE/DS.
Аноним 06/12/20 Вск 20:48:31 1874586241
image.png 25Кб, 608x403
608x403
Взял учебный датасет, с распределением пикрил. Какие бы анальные бустинги не использовал на валидации выше 0.84 не прыгнуть. Предсказывая только 0 класс выдает скор 0.72. Не знаю будет ли правильно апсемплить два меньших класса до певого, ясно что даунсемплить тоже не варик. Пока только увеличил веса для двух классов в 4 и 35 раз, особо не помогло. Что посоветуете? Мб взять ансамбль двух моделей, типо одна предсказывает первый ли это класс, а вторая выбирает между двумя другими?
Аноним 06/12/20 Вск 20:49:45 1874588242
>>1874459
да нисколько . нахуй ты им нужен, если проще программиста переучить?
он хотя бы sql знает.
Аноним 06/12/20 Вск 20:54:26 1874594243
>>1874459
>в провинции
>MLE/DS
Хорошая шутка
Аноним 06/12/20 Вск 21:00:20 1874601244
Аноним 06/12/20 Вск 21:11:51 1874611245
>>1874586
На трейне что выдает? 99,9999999?
Аноним 06/12/20 Вск 21:13:48 1874614246
Аноним 06/12/20 Вск 21:31:48 1874624247
>>1874601
Удивлен чему? Тому что есть вакансии и тут я окончательно охуел или что решил вкотиться именно в эту область? Если второе - то лучше перекатывайся куда-то ещё, хайп мышиного облучения уже прошел, лучше идти в более традиционный кодинг
Аноним 06/12/20 Вск 21:43:05 1874635248
Есть у кого нибудь мнение про курсы DLS? Насколько подходит для вкатывальщика?
Аноним 06/12/20 Вск 21:56:48 1874641249
>>1874635
Для вкатывальщика лучше всего быть старшекурсником топового вуза
Аноним 06/12/20 Вск 22:19:50 1874660250
>>1874614
Ну то есть всегда выдает самый большой класс и считает это наилучшей стратегией. Попробуй обучать медленнее и модель посложнее, чтобы добиться хотя бы оверфита.
Аноним 06/12/20 Вск 22:22:06 1874663251
>>1874459
>Сколько платят джунам-студентам без опыта в провинции?
20к.
Аноним 06/12/20 Вск 22:27:34 1874666252
>>1874660
Ну я пока в гридсерч кучу параметров запихнул, пусть ищет. Пока сделал апсемплинг до 140 примеров в каждом классе, скураси на трейне до 93 поднялась, на вале 84. У меня кстати в датасете текстовых колонок в разы больше чем float. Сделал я one-hot и вот думаю, стоит ли нормировать числовые до [-1;1]. До этого пробовал, значительного прироста не увидел. Мб есть какие то лучшие практики что делать в случае разных типов колонок?
Аноним 07/12/20 Пнд 08:00:52 1874776253
>>1874624
>хайп мышиного облучения уже прошел
всмысли, прошел?
а как же Путин?
Аноним 07/12/20 Пнд 08:45:34 1874788254
16045141277960.jpg 53Кб, 500x728
500x728
>>1874776
> а как же Путин?
А что Путин? Дедушка старый, ему главное - покакать. На бумажке что-то там написали, он зачитал. Какой в Блинолопатии машобчик, хоспаде. Своего вообще ничего нет, Вапник сьебал давно в цивилизованный мир, Червоненкис не сьебал и замёрз насмерть на улице, как собака. Максимум, у китайцев что-то купят для электронного ГУЛАГа, и твои личные данные зекам сольют, у грефа давно, а главное, официально совместные проекты с ФСИН.
Аноним 07/12/20 Пнд 08:55:03 1874793255
>>1874788
пейпер скачать и реализовать anomaly detection чтобы налоги стрясти с зажравшихся машобщиков по любой технологии уж они осилят.
Аноним 07/12/20 Пнд 08:58:20 1874794256
>>1874788
https://www.youtube.com/watch?v=i1PkfRbGx6s
Вот тебе лекция "машинлернинг для кабанчиков из РАНХигс" будущих чиновников и налоговиков.
Рассказывает натуральный жирненький кабанчик.
Аноним 07/12/20 Пнд 09:17:25 1874798257
>>1874793
Может быть, когда-нибудь в следующей жизни. Пока что не осилили. Со всеми своими Яндексами, тысячами синьоров пиздаболов 3000кккк/сек типа того зумера, что здесь форсят, любым баблом, админресурсом и неподсудностью за нарушения любых прав человека типа свободной торговли личными данными итд.
Аноним 07/12/20 Пнд 09:41:08 1874802258
>>1874788
Как же у хiхла горит.
>Вапник, Червоненкис
Устаревшее говно. Зато вот Шмидхубера привезли.
Аноним 07/12/20 Пнд 10:09:38 1874822259
>>1874798
>изучал в /pr/ линейную регрессию
>пока что не осилили
>вроде бы все идет хорошо
Аноним 07/12/20 Пнд 15:34:24 1874954260
что нужно знать помимо машоба, чтобы вкатиться джуном в машоб?
Аноним 07/12/20 Пнд 15:42:37 1874964261
>>1874954
>что нужно знать помимо машоба, чтобы вкатиться джуном в машоб?
Программирование на уровне мидла.
Аноним 07/12/20 Пнд 15:55:59 1874976262
>>1874964
Что ты имеешь в виду под "программированием"? Какой стек?
Аноним 07/12/20 Пнд 16:04:07 1874983263
>>1874976
>Что ты имеешь в виду под "программированием"?
Нормальное владение одним-двумя языками, алгоритмы, ООП, паттерны проектирования, гит.
>Какой стек?
Любой.
Аноним 07/12/20 Пнд 16:06:24 1874984264
>>1868191 (OP)
>Что ты имеешь в виду под "программированием"? Какой стек?
Чет лолирую с вкатунов в этом трхеде
Аноним 07/12/20 Пнд 16:28:16 1874996265
>>1874976
Кодомакака бушует, забей. На питончике чего-нибудь маленько говнякать умеешь и нормас.
Аноним 07/12/20 Пнд 16:43:25 1875006266
Аноним 07/12/20 Пнд 16:47:34 1875009267
>>1875006
Но ведь одного только этого недостаточно. Я спрашивал про конкретные скиллы.
Аноним 07/12/20 Пнд 16:51:24 1875014268
>>1875009
>Я спрашивал про конкретные скиллы.
Если ты не старшекурсник топового вуза - то не вкатишься и соответственно скиллы тебе нахуй не нужны
Аноним 07/12/20 Пнд 16:53:58 1875021269
>>1875014
Так я старшекурсник топового вуза. Какие скиллы-то нужны?
Аноним 07/12/20 Пнд 16:57:53 1875022270
15982164124121.png 115Кб, 482x400
482x400
>>1874996
>Кодомакака бушует, забей
Аноним 07/12/20 Пнд 17:08:04 1875025271
>>1875021
>Так я старшекурсник топового вуза
Иди в армию
Аноним 07/12/20 Пнд 20:25:04 1875162272
Почему ещё никто не обучил эту штуку https://www.deepstack.ai/ и не начал собирать деньги с онлайн покерков?
Аноним 07/12/20 Пнд 20:33:54 1875171273
Аноним 07/12/20 Пнд 20:38:47 1875180274
image.png 510Кб, 680x494
680x494
Аноним 07/12/20 Пнд 20:42:01 1875184275
064.gif 170Кб, 326x281
326x281
Аноним 07/12/20 Пнд 20:42:48 1875186276
Аноним 07/12/20 Пнд 21:42:46 1875274277
>>1875186
И тут ты кидаешь что-то из 2005 года, что обыгрывало профессионалов в безлимитный техасский холдем.
Спойлер: такого нет, ты обосрался.
Аноним 07/12/20 Пнд 22:14:11 1875310278
>>1875274
>что-то из 2005 года
Poker Academy: Texas Hold'em, довольно хорошо играет, но там без обоссаного смузихлебного нейроговна.
Аноним 07/12/20 Пнд 22:20:40 1875319279
>>1875310
>довольно хорошо играет
Мне тебя жаль
Аноним 07/12/20 Пнд 22:24:01 1875326280
>>1875274
>думать, что в онлайн покерах сидят профессионалы
Аноним 07/12/20 Пнд 22:27:30 1875329281
>>1875319
Скажы, что ты его на изичах выигрываешь?
Аноним 07/12/20 Пнд 22:29:21 1875330282
>>1875326
Я как то в тройку лидеров вышел на каком то там чемпионате, но покер это игра для деградов, унылая и однообразная.
Аноним 07/12/20 Пнд 23:09:20 1875354283
>>1875274
А и не нужно никаких диких алгоритмов чтобы обыгрывать онлайн обрыганов, там самые простые из прошлого века и так прибыль дают. Насколько я знаю главная хитрость ботоводства в покере не в алгоритмах, а техническая: как делать чтоб не палили, антифрод покерских контор жутко сложный и проприетарный чуть более чем полностью.
Аноним 07/12/20 Пнд 23:22:22 1875361284
>>1875354
>диких алгоритмов
Там в каком то пендоинституте целое подразделение ИИ было, которое исследовало ботов и писало паперы. Потом они нашли не плохой алгоритм, дропнули институт и основали какой то там онлайн покеррум. Лол, поэтому пеперы для пидоров, в них сливают всю воду матанолохам.
Аноним 07/12/20 Пнд 23:22:53 1875362285
>>1875354
Вангую это потому что они сами там ботов держат и конкуренты им ни к чему.
Аноним 07/12/20 Пнд 23:23:52 1875363286
>>1875361
>думать, что исследования ИИ покера предназначены для создания онлайн ботов
Аноним 07/12/20 Пнд 23:32:22 1875369287
>>1875363
>думать, что дяди будут палить работующую годноту анонам в интернетах
Аноним 07/12/20 Пнд 23:57:09 1875384288
Я практически не понимаю ничего про нормы, метрики, энтропии. Этого нет в обычных учебниках матстата. Какой это вообще предмет? Подскажите, пожалуйста, чего почитать.
Аноним 08/12/20 Втр 00:08:25 1875387289
1-1.png 33Кб, 1034x402
1034x402
1-2.png 37Кб, 1020x404
1020x404
Анон, помоги нюфажине разобраться с графиками, пожалуйста.
Что можно сказать про дискриминатор с генератором?
Обучились? Или всё плохо?
так и не понял, за что этот ползунок справа от графика отвечает
Аноним 08/12/20 Втр 00:12:49 1875389290
>>1875384
>нормы, метрики
линал
>энтропии
тервер
Аноним 08/12/20 Втр 01:03:19 1875418291
>>1875354
Соглашаюсь и не соглашаюсь с этим аноном:
Покер сильно зависит от удачи. Чтобы застраховаться от неудачного доезда сопернику выигрышной карты (что случается довольно часто даже при идеальной стратегии), принято брать с собой за стол только маленькую часть общего банкрола (по классике 1/50). С ботоводской точки зрения это значит что ты можешь орудовать только 2% тех денег, который оставляешь в заложниках похер руму. Если же тебя обвинят в ботоводстве или читерстве тебе вообще нихера могут не вернуть, поэтому цена ошибки довольно высока. При этом люди, которые действительно могут обучить нейросеть играть в покер и интегрировать это в более-менее беспалевное ПО скорее всего могут на изи пойти на галеру за жопочасы и получать пару К без риска (и особо не напрягаясь если честно).
Аноним 08/12/20 Втр 08:16:20 1875547292
>>1875310
Как-то так выходит, что без обоссаного смузихлебного нейроговна достижим только уровень "довольно хорошо" и "а ты сам лучше сможешь?".
Аноним 08/12/20 Втр 10:13:38 1875577293
>>1875547
>Как-то так выходит
Все просто, все остальное не хайпово, да и тратить врямя на покер удел смузихлебов
Аноним 08/12/20 Втр 10:17:26 1875578294
>>1875577
>да и тратить время на компьютерное зрение, обработку естественных языков, обучение с подкреплением, рекомендательные системы, фолдинг белков - удел смузихлебов
Аноним 08/12/20 Втр 11:06:30 1875603295
Аноним 08/12/20 Втр 11:11:07 1875605296
>>1875578
>как будто в нлп и копьютервижен что то работает
Ох уж эти маняфантазеры со смузи
Аноним 08/12/20 Втр 11:16:15 1875610297
16073924767301.jpg 59Кб, 800x450
800x450
А вы говорите, машобчик говно без задач. https://www.bbc.com/russian/news-55220730
> Иранский физик-ядерщик Мохсен Фахризаде был убит из пулемета с искусственным интеллектом и спутниковым наведением, заявил заместитель главнокомандующего Корпуса стражей исламской революции Али Фадави. Часть экспертов относится к этой официальной версии скептически.

> По словам контр-адмирала Фадави, из оружия было выпущено 13 пуль. Они попали в Фахризаде, проезжавшего по близлежащей дороге в бронированном автомобиле, но не задели сидевшую рядом жену. Пулемет был установлен на припаркованном в отдалении от дороги автомобиле "Ниссан".

> Пулемет "навелся на лицо мученика Фахризаде с помощью высокотехнологичной камеры, в нем были применены технологии искусственного интеллекта", - цитирует иранского военачальника агентство Мехр. Четыре пули попали в начальника охраны, который закрыл собой Фахризаде, добавил Фадави.

> При этом автономное оружие, по его словам, "контролировалось онлайн с помощью спутника", люди в нападении на конвой Фахризаде не участвовали. Иранское информационное агентство Фарс сообщало, что после убийства Фахризаде автомобиль самоуничтожился при помощи взрыва.
Понели, да? Просто стоит пустая припаркованная машина и срисовывает еблишки всех проезжающих мимо, хоть неделю подряд. А нужного пассажира прямо на ходу нашпиговывает свинцом, вместе с прикрывшим его охранником, при этом даже его жену не задевает. После чего самоуничтожается, чтобы скрыть все улики.
Аноним 08/12/20 Втр 12:17:07 1875637298
Что нужно знать, если в вакансии требуются методы оптимизации? Что под ними подразумевается?
Аноним 08/12/20 Втр 12:28:39 1875645299
>>1875637
Забей. Машоб не для тебя, если даже его основ не знаешь. В джаву со спрингом вкатывайся или джаваскрипт, там нет такой конкуренции за место.
Аноним 08/12/20 Втр 12:42:56 1875653300
Почему машобач такой токсичный? Или здесь просто сидит пара типов, что срут всем в уши?
Аноним 08/12/20 Втр 12:53:47 1875660301
>>1875653
> токсичный
Люди сюда пришли за зарплатами в миллионы, а получают, как обычная кодомакака.
В МЛ идут самые душные аутисты, которым не хватает бабского внимания. Потому они злые
Аноним 08/12/20 Втр 12:58:57 1875665302
>>1875653
>такой токсичный
Математика деградирует мозг.
Аноним 08/12/20 Втр 13:40:20 1875690303
>>1875354
Так у меня вопрос не про огромную сеть ботов, а про стабильное обыгрывание с помощью хоть каких алгоритмов. Что мешает в одном окне открывать окошко с покером, а в другом покерный аналог stockfish, вводить состояние стола, получать лучший ход и медленно собирать профит?

>>1875653
Тимнит Гебру, спок!
Аноним 08/12/20 Втр 13:40:53 1875691304
>>1875665
казнить нельзя помиловать
Аноним 08/12/20 Втр 13:42:46 1875692305
16057698633000.jpg 56Кб, 380x501
380x501
Аноним 08/12/20 Втр 13:45:55 1875695306
>>1875610
Вот видити видити?? Всем читать битерлесон!!
Аноним 08/12/20 Втр 13:47:15 1875696307
>>1875690
>Что мешает в одном окне открывать окошко с покером, а в другом покерный аналог stockfish, вводить состояние стола, получать лучший ход и медленно собирать профит?
Ммм ну может потому что таких находчивых пидарашек банят наверное?
Аноним 08/12/20 Втр 13:52:01 1875700308
Аноним 08/12/20 Втр 13:54:01 1875703309
>>1875653
При чем оба безработные
Аноним 08/12/20 Втр 15:15:04 1875771310
>>1875700
>Как детектят?
Мониторят список процессов и просят прислать подозрительный, еще за рабочим столом подсматривают и в камеру.
Аноним 08/12/20 Втр 15:30:45 1875796311
>>1875771
С ноута или второго компа параллельно можно. Ну и полно турниров без камер.
Если уже 15 лет есть алгоритмы, позволяющие стабильно выигрывать средних игроков, то в чем проблема?
Вот в шахматах проблемы нет, просто там не играют на деньги, а ради рейтинга на сайте таким заниматься никто не будет.
Аноним 08/12/20 Втр 15:39:13 1875807312
Как скрипт на питоне + TF + Keras скомпилировать и использовать на другом ПК? Или надо ставить питон, и пользоваться скриптами?
Аноним 08/12/20 Втр 15:52:23 1875818313
>>1875796
Мань, ты хоть бы форумы ботоводов почитал
Аноним 08/12/20 Втр 16:09:23 1875839314
Аноним 08/12/20 Втр 16:10:22 1875843315
>>1875839
В доккер надо уметь пробрасывать видео-карты. Если чуваку это не нужно, и ему нужно просто гонять тренированную модельку, то сойдет и доккер
Аноним 08/12/20 Втр 16:13:29 1875847316
>>1875839
>>1875843
А можно как-нибудь в exe скомпилировать?
Аноним 08/12/20 Втр 16:15:11 1875848317
>>1875847
Ты можешь выложить весь virtualenv, который можно запускать на других машинах
Аноним 08/12/20 Втр 16:28:02 1875856318
>>1875818
Я читал - там написано, что ты обосрался.
Аноним 08/12/20 Втр 16:41:39 1875880319
Есть кто учился или учится в Шаде? Если да, какие профиты почувствовали на себе? В плане скилов, например.
Аноним 08/12/20 Втр 16:51:57 1875893320
>>1875796
Просто увидят что ты стабильно выигрываешь и забанят на всякий случай
Аноним 08/12/20 Втр 17:38:27 1875950321
>>1875807
> Как скрипт на питоне + TF + Keras скомпилировать
Так же как и все остальные скрипты, лол.
Аноним 08/12/20 Втр 17:42:23 1875951322
>>1875807
Экспортируешь модель в ONNX и используешь opencv
Аноним 08/12/20 Втр 17:43:08 1875953323
>>1875880
Какой ШАД, чел, тут сидят одни кодомакаки кидающие боевые картинки с петухом при любом упоминание минимальной математики.
Аноним 08/12/20 Втр 17:54:01 1875969324
У макак перманентный баттхерт от того, что они работают с формальными системами, но ниасилили достаточный уровень абстракции для математики. Это постоянное напоминание о собственной тупости.
Аноним 08/12/20 Втр 17:54:52 1875971325
>>1875953
Неужели никто из тех, кто сидит на дваче не вырвался с уровня кодомакаки? Или те, кто вырвался, на двач больше не заходят?
Аноним 08/12/20 Втр 18:01:39 1875979326
>>1875953
>>1875969
А вот и воннаби математики-датасаентисты.
>при любом упоминание минимальной математики
Не при упоминании математики, а в ответ на вскукареки про ненужность программирования.
>баттхерт от того, что они работают с формальными системами, но ниасилили достаточный уровень абстракции для математики
Продут работы датасаенса - это точно такая же программа, как и все остальное. У меня горит от качества кода и нехватки нормальных программистов в этой сфере, и от того, что приходится работать с подобным говнокодом.

кодомакака
Аноним 08/12/20 Втр 18:32:04 1876010327
>>1875979
Но это твоя роль и есть. Я чищу данные, ты чистишь мой код. Невозможно писать продакшен-код, когда ты экспериментируешь с данными.
Мне нет смысла делать все гибко и стабильно. Я делаю прототипы и разрабатываю методы. Когда я все сделал, ты уже делаешь индустриально, на чем хочешь, докеры там, веб-сервисы, что от тебя нужно. Если до этой стадии вообще доходит дело - в науке все заканчивается на пруф оф концепт, например. Там макаки почти не заняты.

Как аналогия, я работаю в лаборатории, а ты на заводе.
Аноним 08/12/20 Втр 18:43:35 1876021328
>>1875979
>У меня горит от качества кода и нехватки нормальных программистов в этой сфере, и от того, что приходится работать с подобным говнокодом.
Ну так границы открыты, уёбывай в кровавый ентерпрайз и там обмазывайся сколько хочешь своим ООПЭ и ТЕСТАМИ
Аноним 08/12/20 Втр 19:00:56 1876039329
>>1876010
>я работаю в лаборатори
Мышонком?
Аноним 08/12/20 Втр 19:23:34 1876054330
Погодите, а нечёткий петух это и есть горящая кодомакака?
Или от математики горит дипшизик?
Я запутался
Аноним 08/12/20 Втр 19:33:57 1876060331
Нужен FAQ по шизам треда для ньюфагов. Добавьте в шапку.
Аноним 08/12/20 Втр 19:36:34 1876061332
>>1876054
Тут есть резидентные шизы, но помимо них также заходят продемонстрировать свою фрустрацию и мимонапомоечники.
В рахе полно ваты, люто ненавидящей любой прогресс. Еще с совка традиция. Кибернетика лженаука, генетика продажная девка капитализма, или какие там им мантры читали с ТВ. Эта культура, плюс осознание того что ты остался на обочине жизни и видишь как все уходят куда-то далеко в недоступные тебе высоты, и дают такую реакцию повсеместно.
Аноним 08/12/20 Втр 19:46:47 1876069333
>>1876061
>Кибернетика лженаука
Все верно, или хочешь поспорить, что с приходом компьютеров человечество как то перешло на новый уровень развития? Даже как то и деградацией попахивает.
Аноним 08/12/20 Втр 19:53:53 1876074334
>>1876069
> что с приходом компьютеров человечество как то перешло на новый уровень развития?
Ебать дебил. Конечно перешло. Вернее начинает переходить в светлое будущее без нищеты, войн, и политики.
Аноним 08/12/20 Втр 20:06:09 1876079335
>>1876074
>без нищеты, войн, и политики.
Kek
Аноним 08/12/20 Втр 21:55:38 1876157336
>>1876061
>>1876069
А вот не были бы вы оба безграмотными школьниками, знали бы что "кибернетика" это невнятная полушизоидная водичка про "управление", к тому как компьютеры изменили мир имеющая опосредованное отношение.
Учите математику братцы, а то мозги стремительно деградируют. Ибо технологии и фреймворки приходящи, а теоремы Пифагора и Атьи-Зингера вечны.
Аноним 08/12/20 Втр 22:04:19 1876168337
>>1876010
>Невозможно писать продакшен-код, когда ты экспериментируешь с данными.
Нормальный код писать можно, хотя бы с соблюдением PEP8 и адекватной структурой, а не хуячить все в один файл со строчками по 300 символов.
>Я делаю прототипы и разрабатываю методы.
Если ты выкладываешь код в открытый доступ, то твоими прототипами потенциально будет пользоваться все научное сообщество. Даже если не выкладываешь, то работаешь наверняка не один, и не один вечер. За говнокод тебе не скажут спасибо в любом случае.
>Если до этой стадии вообще доходит дело - в науке все заканчивается на пруф оф концепт, например.
Нормальные исследования завершаются созданием работающих моделей и систем, готовых для продакшена.

В то же время, абсолютное большинство исследований - это попил грантов и намеренная обфускация эксперимента и результатов. Не получается сделать ничего работающего? Иди в науку и пиши пруф оф концепт! Такие "исследователи" хуже даже кодомакак, которые хотя бы делают что-то полезное.
Аноним 08/12/20 Втр 22:14:23 1876180338
>>1876061
То есть дипшкольник всё-таки? Понял
Аноним 08/12/20 Втр 22:28:03 1876188339
>>1876168
>Не получается сделать деталь на станке? Иди в науку и пиши свои гипотезы!
Аноним 08/12/20 Втр 22:40:11 1876192340
>>1876168
>готовых для продакшена
Пусть рабы пашут на подскакивающего кабанчика, а я делаю науку ради науки (прикинь, и такое бывает)
Аноним 08/12/20 Втр 22:42:14 1876194341
>>1876188
Лучше стоять у станка, чем писать никому не нужные статьи про прототипы, которые годятся лишь для пруф оф концепт который никому нахуй не сдался.

Настоящей наукой занимаются в основном в R&D отделах крупных компаний.
Аноним 08/12/20 Втр 22:43:11 1876195342
>>1876168
>Нормальные исследования завершаются созданием работающих моделей и систем, готовых для продакшена.
Нет. Димпайнд, который двигает диплернинг, вообще редко код выкладывают даже для воспроизведения. Если кто и выкладывает, в большинстве случаев это ноутбуки. Но и это не обязательно. Нет в науке никакого продакшена, кроме статей.
Аноним 08/12/20 Втр 23:00:46 1876201343
>>1876054
Оба горят, но по разным причинам. Нечеткий - конструктивист-кефирщик, отрицающий мейнстрим науки (https://2ch.hk/math/res/65396.html#76607).
Дипшкольник уверен, что биттерлессон дает ему право не заниматься собственным образованием вообще - это все для дедов, из которых песок сыпется.
Аноним 08/12/20 Втр 23:05:05 1876204344
>>1876195
>Димпайнд, который двигает диплернинг, вообще редко код выкладывают даже для воспроизведения
Выкладывают, причем иногда есть даже юнит тесты:
https://github.com/deepmind/deepmind-research
https://github.com/google-research
https://github.com/facebookresearch

В статьях как правило скрывают все неудобные факты, и в целом подгоняют результат. Получается, что заебись все только на бумаге, а реально использоваться никогда не будет по ряду ограничений. Более того, ты можешь в наглую завысить результаты, и никто об этом не узнает, поскольку воспроизвести эксперимент очень сложно. В общем, нет кода = пиздабол.
Аноним 08/12/20 Втр 23:18:26 1876212345
>>1876204
У них тысячи статей ежегодно. И в том репо дипмайнда одни ноутбуки.
Аноним 08/12/20 Втр 23:32:34 1876221346
>>1876212
>У них тысячи статей ежегодно
За 2020 около 200 штук.
>И в том репо дипмайнда одни ноутбуки.
Есть проекты без ноутбуков, а у гугла и фейсбука их еще больше.

Тем более что проблема не столько в ноутбуках, сколько говнокоде. У димпайнда с этим все хорошо. Еще возможно, что код в ноутбук они засунули лишь на самом последнем этапе. Собственно, для этого ноутбуки и нужно использовать - они хороши для презентации результата.
Аноним 08/12/20 Втр 23:37:51 1876226347
>>1876157
>"кибернетика" это невнятная полушизоидная водичка
>Учите математику
Типа математика не оторванная от реальности шиза
Аноним 09/12/20 Срд 00:40:39 1876244348
>>1876010
Поэтому сейчас половина соревнований на докере
Аноним 09/12/20 Срд 01:03:04 1876255349
Аноним 09/12/20 Срд 01:28:29 1876265350
Аноним 09/12/20 Срд 06:52:00 1876317351
>>1876061
>В рахе полно ваты, люто ненавидящей любой прогресс
Ненавидят в основном научпоперов от машоба продающих всем какую-то дичь в первую очередь типа этого фолдинга. Не сказать что незаслуженно.
Аноним 09/12/20 Срд 09:48:14 1876349352
>>1876010
Макакен может на западного барина работать удаленно и получать больше, чем дата-саентист, пытающийся оживить бизнес кабанчика, крутясь с ним в одном колесе.
Аноним 09/12/20 Срд 10:04:07 1876358353
16015598020110.webm 5487Кб, 400x224, 00:02:46
400x224
Аноним 09/12/20 Срд 12:05:05 1876416354
>>1876079
Когда ИИ будет изобретен, всё соврееннте капиталистическое общество потеряет какой-либо смысл. Пруф ми вронг.
Аноним 09/12/20 Срд 12:38:04 1876446355
>>1876416
>Пруф ми вронг
С пробуждением, MYCIN завалили даже не копетоглисты, а вговнемоченыемедикипедики которые могли бы остаться без корыта с хрючевом и это еще в 70х. А была еще глобальный ИИ управления государством, который то же себя хорошо показал.
Аноним 09/12/20 Срд 12:50:25 1876463356
>>1876416
>пук пук пук, пруф ми вронг.
Аноним 09/12/20 Срд 13:14:17 1876490357
15846757431750.jpg 21Кб, 553x473
553x473
>>1876463
Что, даже противопоставить ничего не можешь, да?
Аноним 09/12/20 Срд 13:21:19 1876495358
>>1876490
Так у тебя аргументов нет. Могу с таким же успехом ответить "нет, ты не прав".
Аноним 09/12/20 Срд 13:24:30 1876498359
Аноним 09/12/20 Срд 13:27:58 1876500360
15845927938990.jpg 43Кб, 419x398
419x398
>>1876498
С тем же успехом я тоже могу пейпер написать, с графиками, энтропиями. И что же. Ты давай реальные пруфы, а не манятеории.
Аноним 09/12/20 Срд 13:35:30 1876506361
>>1876500
Какие пруфы ещё тебе нужны? О каких манятеориях ты говоришь? Пейпер написан Пьеро Скаруффи, и, в отличие от тебя, он занимается ИИ профессионально всю жизнь.

https://en.wikipedia.org/wiki/Piero_Scaruffi
Аноним 09/12/20 Срд 13:51:00 1876528362
>>1876500
Пиши пейпер - тогда будем опровергать. А пока у тебя пердеж в лужу.
Аноним 09/12/20 Срд 14:01:45 1876543363
>>1876446
>акинатор на лиспе
>ИИ
Kek

>Киберсвин
>который то же себя хорошо показал.
Double kek
Аноним 09/12/20 Срд 14:37:19 1876584364
>>1876498
Нереферируемая научпоп-книжка в качестве пруфа. Оок.
>The real innovation in Ng’s approach was the idea to use GPUs. That simple idea made it possible to train multi-layer neural networks.
Какой-то мудачок-хайпожор не в курсе, кто именно начал тренировать нейронки на GPU. То есть буквально не стал копаться в истории - нахуя это вообще, а тупо написал имя того, что прочитал в хайповых блогах или услышал в том кафе, где покупает смузи.
Дальше идет параграф про NLP и его очень смешно читать в книжке 2016 года. Ждем новое издание, где он опять напишет "ваш прогресс не прогресс, нет никакого прогресса". Хррртьфу.
Аноним 09/12/20 Срд 14:49:22 1876589365
>>1876543
Ну лучше чем трясти черные ящики, собственно поскольку нейроговно в силу своей ущербности никакой опасности не представляет копетоглистам то его и форсят.
Аноним 09/12/20 Срд 14:55:43 1876593366
>>1876589
Поссал на конспиролога
Аноним 09/12/20 Срд 15:17:25 1876604367
>>1876593
Поссал на копетоглиста
Аноним 09/12/20 Срд 16:10:09 1876652368
QP.PNG 185Кб, 1504x687
1504x687
Смотрите, есть динамика технологических показателей по объектам во времени. Объектов несколько десятков. Три показателя каждого объекта взаимосвязаны, а также зависят от других факторов, значение которых неизвестно, вмешательства человека (нечастого), а также, возможно, от показателей соседних объектов. Как думаете, возможно ли на таких данных построить модель, которая будет предсказывать динамику?
Аноним 09/12/20 Срд 16:20:07 1876663369
>>1876543
> который то же себя хорошо показал.
Как раз таки хорошо показал. Но потом пришел Пиночет, и разогнал всех коммунистов-прогрессивистов и начал террор.
Аноним 09/12/20 Срд 16:47:41 1876700370
Screenshot321.jpg 67Кб, 917x604
917x604
>>1876652
а нормально написать можешь? что еще за "объекты"?

из сотен возможных моделей придется выбирать осмысленную и описывающую реальные процессы, а не секретный уровень CO2 в твоих секретных пуках.

И вот тебе первая модель в Tableau:
Аноним 09/12/20 Срд 16:48:50 1876703371
>>1876584
>То есть буквально не стал копаться в истории
Ну ты бы хоть на его сайт зашел, этого мудачка-хайпожора. Потому что Скаруффи, блядь, историк, мудозвон ты поверхностный.
Аноним 09/12/20 Срд 16:52:56 1876710372
>>1876349
Да, может. А если датасаентист будет дворы мести, то разница еще больше будет.
Кто в здравом уме вообще на раху работает? Очнись, раха давно уже все.
Аноним 09/12/20 Срд 17:14:32 1876745373
>>1876652
Для динамики нужны дифуры. Если в конечных разностях, то что-то типа (y-y[i-1])/dT=ay[i-1]+bx (апериодическое звено первого порядка). Если смотреть на нейронную сеть, то апериодическое звено первого порядка она повторит легко, если завести выход нейрона на вход (возможно через еще один нейрон, выполняющий роль "сумматор+запаздывание на такт"). ХЗ, тренируют сети такой структуры или нет...
Это будет не модель "выбросов" (возмущений), а некая динамическая модель объекта.

На "выбросы" (возмущение) нужно отдельную нейронную сеть тренировать, она вполне неплохо повторит "типовой шум" (с особенностями, типа всплески в обед/по выходным или спад к вечеру). Но результаты нейронки с возмущениями нужно будет скармливать динамической модели объекта, чтобы получить адекватный результат (например, добавлять возмущение f к x).

Имея вторую нейронную сеть (для возмущений) на создание динамической модели объекта "на нейронных сетях" можно и забить... Просто построить примитивную динамическую модель 1 или 2 порядка (ну с 3-мя входами, или сколько у тебя их там будет).
Аноним 09/12/20 Срд 17:16:15 1876748374
>>1876663
>Как раз таки хорошо показал
>[источник не указан 1185 дней]
Правда (факт)
Аноним 09/12/20 Срд 17:43:07 1876764375
>>1876745
> Для динамики нужны дифуры.
Не нужны. Это задача анализа временных рядов.
Аноним 09/12/20 Срд 17:52:03 1876772376
>>1876764
Ну если хочешь, назови "анализ экспоненциальных временных рядов". Смысл не изменится.
Аноним 09/12/20 Срд 18:14:54 1876782377
>>1876745
>>1876772
>>1876764
>дифуры
>звено первого порядка
>примитивную динамическую модель
>временных рядов
>экспоненциальных
Дедууушки, читать биттерлессон, выкиньте всю эту чушь из головы уже.
Аноним 09/12/20 Срд 18:35:25 1876790378
image.png 65Кб, 1399x156
1399x156
>>1876703
>Ну ты бы хоть на его сайт зашел, этого мудачка-хайпожора. Потому что Скаруффи, блядь, историк, мудозвон ты поверхностный.
И что там на сайте написано, что это Великий Топ №1 который круче всех на свете? На сайте любого фрика написана подобная хуйня...
Никаким историком он не является. Он в лучшем случае автор нонфикшена для быдла, пишущий сразу обо всем, типа Латыниной. То есть чтиво прикольное, но с кучей ошибок и подтасовок, без особой претензии на научность. В худшем - нарциссичный научный фрик. Не ученый-нарцисс типа Шмидхубера, это хуй с ним (хотя довольно смешно читать самонаписанную биографию себя любимого в третьем лице на домашних страничках у обоих поциентов), а натуральный фрик с нулем достижений в той науке, которую он пытается обозревать.

А по фактам там все очень грустно и вредно. "The real innovation in Ng’s approach was the idea to use GPUs" - это ложь. Ын использовал CPU. То есть книга настолько хуевого качества, что в ней не вычитаны такие банальные фактические ошибки. Ошибки ли? Скорее подтасовки. История искажается в удобную сторону.
Дело в том, что задача - переспорить самые хайповые инфоповоды. Поэтому например здесь https://scaruffi.com/mind/ai2010.html ты не найдешь упоминание чего-то типа MobileNet. Потому что не вписывается в картинку "больше, толще, еще больше, а прогресса на самом деле нет". 2020-й год прошел и что? GPT-3. Какая неожиданность.

>поверхностный
Не, мань. Все хитрее. Книга 2016 года. Что произошло между 2016 и 2020? Например, появились трансформеры. Соответственно, так как мне неинтересно копаться в говне очередного фрика, я полез сразу туда, где он гарантированно обосрется - в параграфы о NLP и speech recognition. Потому что эти фрики всегда смотрят в прошлое, а при наступлении будущего они спасают свой манямир какой-то новой спасительной хуйней. И вот этот миг между прошлым и будущим называется "обсер". А потом идет демендж контрол, новый манямир, и так по кругу. Единственное что полезно, это тыкать подобное говно в собственные обсеры двух-трехлетней давности.
Аноним 09/12/20 Срд 18:45:51 1876798379
alphafold.jpg 268Кб, 1300x1720
1300x1720
Аноним 09/12/20 Срд 18:48:12 1876799380
>>1876798
Жоско ты всех бумеров приложил с их неработающим говном.
Аноним 09/12/20 Срд 18:51:50 1876801381
>>1876652
Судя по твоим графикам , у тебя экспоненциальное убывание, которое предсказать можно даже по одному графику, а потом ХУЯК и скачок, который явно результат какого-то вмешательства (ну либо что-то типа фазового перехода в веществе, что интереснее).
Без источников этих скачков нихрена ты не предскажешь.
Аноним 09/12/20 Срд 18:52:55 1876803382
>>1876782
> выкиньте всю эту чушь из головы уже

ИМХО, современное состояние нейронных сетей, это как аппроксимировать всё подряд в Excel полиномом 10-го порядка. Классно работает и через любые точки проходит... Но если ты знаешь, что у тебя зашумлённая синусоида, какого хрена порядок полинома увеличивать для получения адекватного результата? Ведь при большом порядке полинома даже между точками кривую начинает колбасить (то, что называют умным словом "переобучение"), не говоря уже об экстраполяции

Вот современные нейронные сети - это плюс-минус игры с регрессией полиномом N-го порядка в Excel. Иногда нужны качественные изменения: определённая структура сети, или корректно подготовленные данные.
Аноним 09/12/20 Срд 18:56:56 1876812383
>>1876803
>это как аппроксимировать всё подряд в Excel полиномом 10-го порядка. Классно работает и через любые точки проходит... Но если ты знаешь, что у тебя зашумлённая синусоида
Би. Тер. Ле. Сон. Бумерок, хватит пыжиться своим умишком пытаться охватить величие нейронок.
Аноним 09/12/20 Срд 18:57:56 1876814384
>>1876803
>Вот современные нейронные сети - это плюс-минус игры с регрессией полиномом
Удачи поиграться полиномом на Imagenet или в NLP-задачах. Нейронки нужны чтобы тебе не приходилось самому придумывать фичи (что в каком-нибудь компьютерном зрении невозможно). А вот если у тебя в выборке полтора объекта, то понятное дело нужно что-то придумывать.
Аноним 09/12/20 Срд 18:59:35 1876816385
image.png 66Кб, 264x191
264x191
>>1876803
>Ведь при большом порядке полинома даже между точками кривую начинает колбасить
Для борьбы с чем в эпоху динозавров была придумана L2-регуляризация. То есть ты ПРОСТО берешь полином побольше и добавляешь регуляризацию.
То есть пока в Вилларибо регуляризуют, в деревне Пидорасино пытаются сэкономить 1.5 флопса на том, чтобы обойтись полиномом меньшей степени, потому что иначе на советском микроконтроллере оно не запустится.
>не говоря уже об экстраполяции
Давай поговорим об эстраполяции, че не поговорить.
Аноним 09/12/20 Срд 19:02:10 1876818386
Снимок экрана 2[...].png 46Кб, 1740x641
1740x641
>>1876790
> image.png
Так это и есть простейшее предложение
Аноним 09/12/20 Срд 19:06:42 1876822387
>>1876816
>Для борьбы с чем в эпоху динозавров была придумана L2-регуляризация. То есть ты ПРОСТО берешь полином побольше и добавляешь регуляризацию.
>То есть пока в Вилларибо регуляризуют, в деревне Пидорасино пытаются сэкономить 1.5 флопса на том, чтобы обойтись полиномом меньшей степени, потому что иначе на советском микроконтроллере оно не запустится.
Ребёнок, блядь, колбасит полиномы не из-за того что коэффициенты большие. Пиздец, учите дети математику.
Аноним 09/12/20 Срд 19:07:26 1876823388
>>1876814
>>1876816

Я не говорю, что это плохо. Это элементарная аналогия. По-моему, она не противоречит современным реалиям в нейронных сетях.

Фанатично выводить формулы тоже не нужно, если быстрее построить регрессию с приемлемым результатом. Но также точно не нужно и уравнение регрессии выдавать за описание всего что только существует в мире. Нужно предствалять границы применимости, баги и возможности полученных регрессий/нейронок. Вот и всё...
Аноним 09/12/20 Срд 19:10:20 1876825389
>>1876822

> колбасит полиномы не из-за того что коэффициенты большие
Всё верно, анон. В математике есть хорошо развитый матанализ, сразу взглянув на уравнение видно количество экстремумов и не будет сюрпризов во внезапно возникшем пике между двумя точками.

Для нейронок такие инструменты пока не придумали... или не развили... или не адаптировали. Может лет через 10-20 оно и появится.

>>1876803-кун
Аноним 09/12/20 Срд 19:18:18 1876830390
>>1876825
>хорошо развитый матанализ
битерлесан!!
Аноним 09/12/20 Срд 19:22:05 1876835391
>>1876822
>Ребёнок, блядь, колбасит полиномы не из-за того что коэффициенты большие. Пиздец, учите дети математику.
>>1876825
>Всё верно, анон

Вся суть этих долбоебов. "коэффициенты большие".
Аноним 09/12/20 Срд 19:23:20 1876836392
>>1876830
> битерлесан!!
Макаки так и не смогли за 3 месяца на планшетной клавиатуре написать ни одного английского слова. Наверное, к другой раскладке привыкли ^_^

Сколько будем войну и мир ждать?
Аноним 09/12/20 Срд 19:23:32 1876837393
>>1868191 (OP)
У же хорошо берете пихвоиды, полностью?
Аноним 09/12/20 Срд 19:26:48 1876840394
>>1868191 (OP)
Почему технологии ИИ 70-х вызывают уважение, а современные смех?
Аноним 09/12/20 Срд 19:34:21 1876846395
>>1876840
Потому что ты нечеткопетух
Аноним 09/12/20 Срд 19:39:48 1876853396
>>1876840
>вызывают уважение
>акинатор на лиспе
Аноним 09/12/20 Срд 19:40:02 1876854397
Нечеткий петух очнулся от алкогольного угара, лол. Иди еще стопочку наверни и спать. Новости только не открывай, а то сердечко пади не то уже у старика.
Аноним 09/12/20 Срд 19:51:23 1876860398
Аноним 09/12/20 Срд 19:51:55 1876861399
>>1876860
Петух, не закапывай себя еще больше
Аноним 09/12/20 Срд 19:59:52 1876868400
>>1876861
> кококо
Ну ладно тебе, распиши как l2 в случае полинома выглядит, полезно будет. Знаешь что такое полином?
Аноним 09/12/20 Срд 20:05:06 1876873401
>>1876854
>>1876846
Он попозже обычно подходит, пока дипшкольник тут бушует.
Аноним 09/12/20 Срд 20:12:21 1876884402
image.png 158Кб, 453x340
453x340
>>1876868
Стратегия петуха: он страшно боится обосраться, поэтому врубает менторский тон и начинает задавать НЕУДОБНЫЕ ВОПРОСЫ.
Ты высрал: "Ребёнок, блядь, колбасит полиномы не из-за того что коэффициенты большие".
Ну давай, расписывай, из-за чего будет колбасить "зашумленную синусоиду", и как же с этим делом бороться.
Аноним 09/12/20 Срд 20:20:58 1876891403
Аноним 09/12/20 Срд 20:22:50 1876892404
>>1876891
Там нет пруфов твоему высеру
Аноним 09/12/20 Срд 21:35:19 1876930405
Трясунишек в штанишках и адептов нейроговна колбасит ИТТ.
Аноним 09/12/20 Срд 21:37:25 1876933406
>>1876840
>70-х
Раньше полеты на другую планету сейчас челочка на смартфоне, кекус.
Аноним 09/12/20 Срд 22:50:43 1876985407
>>1876930
>нейронки в жопу заливают, не дают коммунистический ИИ
Аноним 09/12/20 Срд 23:23:29 1877005408
>>1876985
>трясу ящик на благо копетоглистов111
Аноним 09/12/20 Срд 23:31:49 1877007409
Аноним 09/12/20 Срд 23:32:06 1877008410
>Начало работы с системой Искусственного Разума СТАЛИН-3000.
>Введите ФИО:
>Введите должность:
>Введите номер партбилета:
>Введите домашний адрес:
>Введите рабочий адрес:
>Введите номер телефона:
>Введите номер военной части, к которой приписаны:
>Введите ФИО ответственного лица:
>Введите идентификационный номер задания:
>Введите код подтверждения из Министерства Электронно-Вычислительных Приборов Больших Масштабов:
>Введите ваш уровень допуска к секретным данным:
>Выберите режим работы:
>1. Определение типа бактерии с помощью экспертной системы МОЙСЫН.
>2. Выход.
Аноним 09/12/20 Срд 23:44:29 1877016411
>>1877008
>СТАЛИН
Великий человек, всех либирах и трясунов заставил работать на благо родины в Норильске.
Аноним 09/12/20 Срд 23:51:05 1877022412
>>1876930
Virgin вапникошиз куколдит вычислительной машине, лично подбирая все параметры
Chad нейроговнарь заливает данные и даёт машине пинка, чтобы быстрее трясла ящик
Аноним 10/12/20 Чтв 00:03:25 1877030413
>>1877022
>Chad нейроговнарь заливает данные и даёт машине пинка
Но Chad получает на выходе рендомное говно, а Virgin надежный результат который можно воспроизвести.
Аноним 10/12/20 Чтв 00:45:48 1877050414
Подскажите как написать банальную нейронку для предсказания значений, чтобы на ряд x_train = (1, 2, 3, 5, 6, 7, 9, 10, 11) оно выдало продолжение (13, 14, 15...)

Ну, допустим есть у меня x_train и y_train (x_train[::-1])
Создал keras.sequential
model.compile(loss='mse', optimizer='rmsprop')
model.fit
А че в смысле как?

Аноним 10/12/20 Чтв 01:04:13 1877064415
>>1877050
>чтобы на ряд x_train = (1, 2, 3, 5, 6, 7, 9, 10, 11) оно выдало продолжение (13, 14, 15...)
цикл for ебани
Аноним 10/12/20 Чтв 01:04:40 1877065416
15930006957370.gif 391Кб, 652x562
652x562
Аноним 10/12/20 Чтв 01:07:40 1877066417
аноны, которые занимаются cv
скажите плз, насколько нейронки работают в анализе облаков точек? ну или мешей и прч 3д вакханалии
слышал мнение, что они там не очень стабильные, а о риалтайме вообще можно забыть
и также вопрос, что можно почитать на тему обработки всей этой истории? самое близкое - это дифф геометрия, но поднимать такую базу нет времени, а проект сдать надо (хотя бы в mvp виде)
спасибо
Аноним 10/12/20 Чтв 01:26:50 1877079418
>>1877050
Чувак. Математические прогрессии учат в 9 классе. В хуевых случаях нужна регрессия. В самых хуевых случаях - LSTM или Transformer.
Аноним 10/12/20 Чтв 03:14:43 1877109419
>>1877050
Примерно так https://pastebin.com/BPYU03FJ
sequential сразу нахуй, потому что смысла в нем никакого нет.
А так, вместо линейного слоя можешь хоть LSTM хоть стек трансформеров нахуячить, суть не изменится. Работать правда хуже будет, потому что такой датасет численно говнян.
Аноним 10/12/20 Чтв 06:58:53 1877133420
>>1877109
>>1877079
Всё хуйня. Ваши нейронки здесь работать не будут. Они усвоят только числа из датасета, а продолжать числа дальше не будут.
И вообще нейронки созданы для неформальных, сложных задач, к которым даже хуй знает как подойти. А у чувака формальнейшая задача, для которой можно найти математическое решение.
Аноним 10/12/20 Чтв 07:57:21 1877148421
>>1877133
Можно выучить преобразование из a_n в a_{n+1}, а оно одинаковое что для чисел из датасета, что для всех остальных чисел в последовательности.
Аноним 10/12/20 Чтв 10:29:30 1877164422
16061753525490.jpg 67Кб, 592x532
592x532
>>1877133
>>1877148
> Всё хуйня. Ваши нейронки здесь работать не будут. Они усвоят только числа из датасета, а продолжать числа дальше не будут.
Зумера... Я тут года 3 назад показывал, как инженерный калькулятор, могущий в вычисление регрессии, на датасете из 3-4 примеров может экстраполировать подобные ряды за пределами датасета. Но вы слишком брейнлеты, чтобы понять, как и почему это возможно.
Аноним 10/12/20 Чтв 10:34:56 1877168423
16067487341190.jpg 110Кб, 1280x720
1280x720
>>1877133
>>1877148
Вы даже простую линейную регрессию не понимаете, кукарекая про нинужно и битерлесон, при этом не только лезете куда-то дальше, но и почему-то думаете, что поймёте. Зачем вы такие?
Аноним 10/12/20 Чтв 10:41:30 1877173424
>Вы даже не понимаете, как пользоваться абаком, при этом считаете что-то на калькуляторах. Зачем вы такие?
Аноним 10/12/20 Чтв 11:14:07 1877184425
>>1877133

Но ведь его цель не в том, чтобы задачу решить, а в том чтобы научиться учить нейронку на заранее простой и понятной задаче.

Так че, не работает что-ли?
Аноним 10/12/20 Чтв 11:34:49 1877193426
16057052318310.jpg 45Кб, 601x429
601x429
Слов нет. Уже все расписал, бесполезно...
>>1877184
> Так че, не работает что-ли?
Аноним 10/12/20 Чтв 12:01:05 1877211427
А почему классические методы так хуево работают на картинках?
Я собрался изучать классику, чтобы не быть батхертом, а там точность чуть лучше подбрасывания монетки.

>We extract conventional Fisher Vectors (FV) [Sanchez et al., CVPR 2011] and streamlined version of Graphical Gaussian Vectors (GGV) [Harada, NIPS 2012]. For extraction, we use not only common SIFT and CSIFT, but also LBP and GIST in a dense-sampling manner.
Почему всё это ТЕОРИТЕЧЕСКИ-ОБОСНОВАННОЕ говно работает хуже чем dense-dense-dense?
Аноним 10/12/20 Чтв 12:19:52 1877217428
>>1877211
>а там точность чуть лучше подбрасывания монетки.
Бери ящик и тряси, умный тут нашелся.
Аноним 10/12/20 Чтв 12:54:54 1877224429
image.png 20Кб, 829x398
829x398
>>1877109
Спасибо, наконец-то хоть что-то заработало. А то одни ошибки и не понятные результаты.
Буду теперь на основе этого разбираться в другом.
Аноним 10/12/20 Чтв 12:59:00 1877225430
>>1877211
> А почему классические методы так хуево работают на картинках?
> Я собрался изучать классику, чтобы не быть батхертом
Так ты ембединги в классику и загоняй.
Что ты собрался изучить?
Аноним 10/12/20 Чтв 15:20:00 1877324431
>>1877211
С чего ты взял, что оно хоть как-то обосновано? Точно такая же тряска формул вручную. "Мы тут с пацанами посидели и решили навернуть больше фич".
Аноним 10/12/20 Чтв 15:30:35 1877333432
>>1877066
Чти про persistance homology
Аноним 10/12/20 Чтв 15:38:06 1877341433
>>1877211
>Почему всё это ТЕОРИТЕЧЕСКИ-ОБОСНОВАННОЕ говно работает хуже
Потому что в руках зумерка, тут сноровка нужна
Аноним 10/12/20 Чтв 16:00:59 1877368434
Аноним 10/12/20 Чтв 17:35:28 1877438435
>>1877225
Классика - это и есть способы получение эмбеддингов.
>>1877324
Зумерошизик пиздабол получается никогда бы не подумал
Аноним 11/12/20 Птн 04:57:12 1877822436
Я почти не разбираюсь в ml. Объясните насколько сложно сделана нейронка https://deepsukebe.io/.
Аноним 11/12/20 Птн 06:07:04 1877834437
11/12/20 Птн 10:07:33 1877885438
>>1877834
Ну нет, там 4 размер, не больше
Аноним 11/12/20 Птн 10:30:37 1877894439
>>1877822
Нейронка сделана просто, обучить её сложно.
Аноним 11/12/20 Птн 17:36:55 1878223440
Изучаю tensorflow, родился вот такой вопрос. У меня есть некий объект, который надо классифицировать. У меня есть временные ряды, будем считать 5 рядов по 100 значений в каждом, значения нормализированы в [0; 1]. Есть ли смысл рассматривать временной ряд как изображение Nx1 и подавать его на conv-сеть или тупо выдавать 100 значений для каждого ряда безо всяких сверток?
Аноним 11/12/20 Птн 18:29:34 1878244441
Аноним 11/12/20 Птн 18:48:58 1878265442
>>1878223
>Есть ли смысл рассматривать временной ряд как изображение Nx1
Рассматривай временной ряд как временной ряд и используй для этого conv1d слои.
Аноним 11/12/20 Птн 19:26:14 1878307443
nix.PNG 1981Кб, 1489x779
1489x779
В компаниях какой сферы интереснее data science спецу (не ML инженеру, а именно аналитику)? Под интересом будем подразумевать разнообразие задач, их субъективную интересность и возможность получить ценный для спеца начального уровня опыт. В моем городе набирают ритейл, банки, продуктовое IT, gamedev, телеком, микрокредиты, букмекеры, онлайн-казино и иногда крупные местные промышленные компании и компании сферы энергетики.
Еще есть data science консалтинг местного разлива, но там у меня низкие шансы судя по требованиям. Хотя это, наверно, было бы интереснее всего.
Аноним 11/12/20 Птн 19:28:39 1878309444
>>1878307
Энергетика и промышленность, наверное. Только если не надо на заводе работать.
Аноним 11/12/20 Птн 19:29:12 1878310445
>>1878307
И в санкционные параши не вляпайся, попадешь в черные списки.
Аноним 11/12/20 Птн 21:35:19 1878412446
>>1878307
>интереснее
>не ML инженеру, а именно аналитику
Без разницы, "аналитика" это в 99% случаев таблички в эксельчике/дашборды в табло вне зависимости от индустрии.
Аноним 12/12/20 Суб 00:37:45 1878524447
Аноним 12/12/20 Суб 00:44:50 1878526448
>>1878524
>ФИНСКИЙ
Сейчас бы обезьян всяких смотреть
Аноним 12/12/20 Суб 12:22:57 1878664449
16051960060010.png 75Кб, 200x200
200x200
Очередная победа машобчика, нейрон очка шакально раздевает людей по фото.
https://deepsukebe.io
Аноним 12/12/20 Суб 16:13:18 1878745450
>>1878664
Ебать там сайт какой то математик делал
Аноним 12/12/20 Суб 17:21:51 1878765451
>>1878664
Реально, хочешь собрать датасет из фоток имбецилов без всякого майнинга - сделай очередной пРиКоЛьНый сервис по обработке фоток. Жаль с другими данными так не работает, с номерами кредиток там, состоянием счёта итп, не жизнь была бы а малина.
Аноним 12/12/20 Суб 17:36:04 1878771452
>>1878765
Ты какой-то не очень умный, если действительно считаешь, что таким способом можно собрать нормальный датасет.
Аноним 12/12/20 Суб 17:55:13 1878783453
>>1878765
> Реально, хочешь собрать датасет из фоток имбецилов без всякого майнинга - сделай очередной пРиКоЛьНый сервис по обработке фоток.
Будто каждый первый туда загружает что-то оригинальное и свое, а не одни и те же фоточки пыни и прочий хлам, которого и так в сети тонны.
Аноним 12/12/20 Суб 19:47:01 1878871454
image.png 79Кб, 889x557
889x557
image.png 44Кб, 722x445
722x445
image.png 68Кб, 871x474
871x474
image.png 37Кб, 901x267
901x267
>>1878412
Я все же про позиции data scientist типа пикрелейтед - т.е. с уклоном в аналитику, но где уже используется машоб.
Аноним 12/12/20 Суб 20:12:34 1878888455
>>1878765
Что ты несешь. Не проще соцсети распарсить? Все равно все фото оттуда берут.
Аноним 13/12/20 Вск 00:23:21 1879038456
medium.jpg 56Кб, 760x591
760x591
medium (1).jpg 39Кб, 640x592
640x592
>>1878664
Норм, сразу видно что нейронки не говно
Аноним 13/12/20 Вск 00:34:35 1879043457
>>1879038
Проиграл
мимо сохранил боевую картинку
Аноним 13/12/20 Вск 00:36:35 1879045458
В /б, господа, пройдите в /б. Там полно подходящего вам контента. Владелец этого сайта форсит его, как в последний раз.
Аноним 13/12/20 Вск 01:05:17 1879057459
Аноним 13/12/20 Вск 01:32:54 1879069460
>>1879057
Нейронкошкольнику печёт глядя на весь этот битерлесон.
Аноним 13/12/20 Вск 03:01:27 1879095461
>>1879069
>когда на исходе жизни, находясь на помоечке, единственное твое утешение это мечтать о том, как какому-то школьнику припечет
>а ему все не печет и не печет
>а жизнь утекает
Аноним 13/12/20 Вск 03:29:57 1879103462
>>1879095
>а жизнь утекает
Это же радоваться нужно, что дропнешь этот отстойный мир
Аноним 13/12/20 Вск 03:37:16 1879106463
>>1879095
>да не печёт мне я филосаф
Аноним 13/12/20 Вск 11:44:12 1879202464
>>1877822
если коротко: очень сложно. Тебе нужно несколько сотен тысяч примеров одетых / раздетых баб
Аноним 13/12/20 Вск 11:45:14 1879203465
Аноним 13/12/20 Вск 12:05:53 1879210466
Аноним 13/12/20 Вск 12:43:59 1879227467
Аноним 13/12/20 Вск 13:27:07 1879248468
>>1879227
а почему хуета? Ты можешь получше голые женские тела пририсовать?
Аноним 13/12/20 Вск 13:32:42 1879249469
Сап аноны, как лучше вкатиться в Ml? Есть опыт года работы с питоном и го, и от веба как-то шишка не дымится, думаю вкатиться в машинки. Как лучше вкатываться? просто курс от яндекса выглядит достаточно заманчиво, в то же время есть вроде как норм книги по теме + kaggle
Аноним 13/12/20 Вск 13:35:14 1879251470
>>1879248
> Ты можешь получше голые женские тела пририсовать?
Я вообще рисовать не умею, это не аргумент. Но ты же не будешь спорить, что результат этой нейроночки выглядит крайне кринжово.
Аноним 13/12/20 Вск 13:52:14 1879256471
>>1879251
> Я вообще рисовать не умею, это не аргумент.
Аргумент. Сможешь ли ты написать симфонию? Ты же человек, имитация нейронки.
Аноним 13/12/20 Вск 14:13:54 1879271472
>>1879251
Ну где-то выглядит так себе, где-то даже очень хорошо.
Учитывая сложность задачи, я считаю это как успех.
Аноним 13/12/20 Вск 15:28:59 1879329473
>>1879271
>я считаю это как успех
>я пью мочу и ем говно, считаю это успехом
Аноним 13/12/20 Вск 17:37:29 1879390474
Аноним 13/12/20 Вск 17:59:12 1879407475
>>1879095
Ну, пока незабитерлессенели даже фотожаберов >>1879038 мне на помойку рановато, а вот тебе, эмоционально инвестированному в весь этот бред действительно надо будет думать куда карьеру поворачивать.
Аноним 13/12/20 Вск 19:20:28 1879476476
smug2.jpg 4Кб, 144x200
144x200
>>1879407
Эмоционально инвестирован я, а горишь ты.
Аноним 13/12/20 Вск 21:39:58 1879597477
10316-73.jpg 130Кб, 626x626
626x626
Аноним 13/12/20 Вск 23:08:54 1879709478
>>1879407
А во что надо эмоционально инвестировать?
Аноним 13/12/20 Вск 23:14:24 1879713479
Аноним 13/12/20 Вск 23:42:03 1879756480
Анончики, наверно не совсем по сабджу треда, но всё же. Есть задача радномно взвешенно выбирать несколько элементов из множества. Сейчас в качестве веса элемента используется обратная величина того, сколько раз этот элемент уже был выбран до этого (чуть-чуть сложнее на самом деле, но это без подробностей). Вопрос. Как правильно будет тестировать результаты происходящего, когда я захочу использовать более сложные веса. Комбинировать какие-то метрики на основе которых будет потом считаться этот вес. И собственно как он (вес) будет в итоге считаться. Как понять, что один способ подсчета весов предпочтительней другого. Пока это выглядит так, что это будет на уровне "путем проб и ошибок, пока результат визуально не будет казаться удовлетворительным", а не что есть какие-то четкие критерии для этого все. Или тут как раз нужно свои критерии придумать для этого всего придумать? Спасибо.
Аноним 14/12/20 Пнд 00:32:02 1879819481
>>1879756
Нечеткие множества используй.
Аноним 14/12/20 Пнд 10:28:02 1880064482
>>1879819
>Нечеткие
Все норм пацаны четкие используют
Аноним 14/12/20 Пнд 11:38:36 1880099483
Анончики, подскажите пж, есть ли нейросеточки для создания гачи ремиксов?
Аноним 15/12/20 Втр 11:23:23 1880973484
У модели среди признаков есть угол alpha. И модель сама должна предсказывать угол theta.
Как лучше всего закодировать признаки и что лучше всего предсказывать? Проблема в том, что углы могут накапливаться и поэтому 2pi = 0. Да и если брать остаток от деления на 2pi, то теряется знание того, что 0 и 1.99pi находятся близко.
С предсказанием аналогично - есть ли что-то лучшее чем предсказывать число от 0 до 1 и умножать на 2pi?
Аноним 15/12/20 Втр 15:07:41 1881093485
>>1880973
Точку на окружности, т.е. косинус и синус.
И для alpha соответственно.
Аноним 15/12/20 Втр 15:10:01 1881094486
>>1880973
>Как лучше всего закодировать признаки и что лучше всего предсказывать?
Так, чтобы зависимость между альфой и тетой была максимально линейной либо монотонной, без лишних пиков и ям.
>Проблема в том, что углы могут накапливаться и поэтому 2pi = 0. Да и если брать остаток от деления на 2pi, то теряется знание того, что 0 и 1.99pi находятся близко.
Ну тебе лосс нужен какой-то специфический.
Смотри например, у тебя есть два единичных вектора с углями p и y, расстояние между концами будет
(sin(p)-sin(y))^2+(cos(p)-cos(y))^2.
Либо, косинус угла между этими же векторами вообще cos(p-y).
Вроде так.
Аноним 15/12/20 Втр 15:55:47 1881110487
Аноним 15/12/20 Втр 17:00:21 1881187488
Анон, помоги разобраться с lightgbm.
Всего 10 числовых признаков в датафрейме.
Параметры lightgbm модели такие вот:
lgb_params = {
'boosting_type': 'gbdt',
'objective': 'binary',
'num_leaves': 100,
'num_round': 360,
'max_depth':10,
'learning_rate': 0.01,
'feature_fraction': 0.5,
'bagging_fraction': 0.8,
'bagging_freq': 12
}
Пытаюсь определить при помощи неё важность признаков, а мне пишут [LightGBM] [Warning] Stopped training because there are no more leaves that meet the split requirements
А когда делаешь lightgbm.plot_importance, то:
not enough values to unpack (expected 2, got 0) подореваю из-за того, что там пустой список.
Как починить это?

И вдогонку, XGBRegressor у меня нормально важность признаков опеределил, надо ли его перепроверять другим способом, например, вышеприведённым LightGBM?
Или одного способа хватит?
Аноним 15/12/20 Втр 18:24:41 1881270489
>>1881093
Ну вот я тоже про синус и косинус подумал, но вот предсказывать два числа вместо одного не хотелось. Ну если это стандартное решение, то ок.
>>1881094
>Так, чтобы зависимость между альфой и тетой была максимально линейной либо монотонной, без лишних пиков и ям.
Между ними полносвязная нейронка.
>Ну тебе лосс нужен какой-то специфический.
Он уже.
Твою идею понял, но выше подсказали, что заменить на синус и косинус - нормальная практика.
>>1881110
Ну только в перевернутом маятнике не нужно предсказывать углы, там регулируется сила, толкающая тележку. Да и входные углы можно не преобразовывать, потому что они по модулю не очень большие. У меня суть в преобразовании углов в нормальные признаки.
Аноним 15/12/20 Втр 18:29:49 1881275490
>>1881270
> Ну только в перевернутом маятнике не нужно предсказывать углы, там регулируется сила, толкающая тележку
Да, там выбирается сила и направление воздействия на тележку исходя из углов отклонения маятника и динамики такого отклонения. Но можно же и наоборот.
Аноним 15/12/20 Втр 18:34:50 1881279491
Аноним 15/12/20 Втр 18:44:31 1881283492
>>1881270
>но вот предсказывать два числа вместо одного не хотелось
Ну можешь предсказывать сам угол, а в лоссе считать косинус и синус от него как написано выше.
Но в качестве фичи всё равно лучше синус и косинус вместо угла подавать.
Аноним 15/12/20 Втр 20:06:23 1881378493
>>1881270
Для фичи нормальная. Для выхода - нет, потому что у тебя синус и косинус жёстко связаны тригонометрическим тождеством, соответственно это степень свободы, лишняя и неизвестная для нейронки.
Лучше тогда уж выводить вектор (два числа) и нормировать его длину на единицу (alpha=atan2(y, x))

А лучшая мера для лосса - это cos(a-b)
Аноним 15/12/20 Втр 20:46:59 1881401494
Анон. Я в ML очень поверхностно разбираюсь, однако у меня есть идея для хорошего прикладного инструмента на основе NN.
Генератор пиксельных спрайтов по описанию.
На вход поступает описание спрайта в виде строчки, либо массив из тегов.
На выходе идет массив вида [0,4,2,1], где числа - номера цвета в специфичной палитре, которая задается постфактум пользователем.

То есть ты пишешь нейронке "Аниме-девочка держащаяя меч. 64x64." и нейронка генерирует спрайт.

Какую архитектуру использовать для этих целей? Насколько требовательна к железу будет эта нейронка?
Аноним 15/12/20 Втр 20:52:10 1881405495
>>1881401
А датасет ты откуда возьмешь?
Аноним 15/12/20 Втр 20:55:36 1881410496
>>1881405
Так пиксель-арта в интернете хоть жопой жуй. Хоть 1bit, хоть gb-стайл.
Аноним 15/12/20 Втр 21:06:40 1881414497
>>1881410
>Так пиксель-арта в интернете хоть жопой жуй.
Он не размеченный. Для каждой картинки тебе придется руками писать описание. Учитывая сложность твоей задачи, придется разметить как минимум несколько десятков тысяч картинок.
Аноним 15/12/20 Втр 21:15:23 1881420498
>>1881414
Пиздец. Ну, как всегда, процедурщина и rule-based алгоритмы рулят.
Я погуглил, и нашел нормальный такой инструмент https://rxi.itch.io/tilekit , правда он платный.
Аноним 15/12/20 Втр 21:29:38 1881430499
Аноним 15/12/20 Втр 21:32:38 1881431500
>>1881430
Сколько раз нужно перечитать биттерлессон чтобы нейронки решили мою задачу?
Прочитал 7 раз, а всё равно не работает.
Аноним 15/12/20 Втр 21:42:36 1881436501
>>1881420
>Пиздец. Ну, как всегда, процедурщина и rule-based алгоритмы рулят.
Они не рулят. Хочешь нормальные результаты - размечай датасет, или нанимай мартышек, которые сделают это за тебя. Разметка датасета стоит не сильно и дорого. За 100к картинок заплатишь тысяч пять.
Аноним 15/12/20 Втр 21:54:10 1881441502
>>1881436
>размечай датасет
ИИ уровня /b
Аноним 15/12/20 Втр 22:03:31 1881452503
>>1881430
> Битерлесон
Заебал ты с этой соевой хуйней.
Аноним 15/12/20 Втр 22:48:50 1881502504
>>1881436
> Они не рулят
Rule-based systems:
- быстро
- эффективно
- мало весят
Neural networks:
- медленно
- малоэффективно
- весят дохуя
Аноним 15/12/20 Втр 23:02:15 1881513505
>>1881502
>Rule-based systems:
>- быстро
>- эффективно
>- мало весят
Можно воспроизвести вывод, это самое главное.
Аноним 15/12/20 Втр 23:03:11 1881514506
>>1881502
>Rule-based systems
Они работают лишь на определенных достаточно легких задачах, и по точности в лучшем случае не проигрывают нейронкам.
Аноним 15/12/20 Втр 23:07:57 1881525507
>>1881441
Ничоси после ГПТ3 аутсайдеры задвигали гоалпостами. Если нужен размеченный датасет, это уже выписали из ИИ.
Аноним 16/12/20 Срд 00:17:20 1881586508
image.png 157Кб, 1125x590
1125x590
Узнали? Согласны?
Аноним 16/12/20 Срд 02:39:59 1881608509
Аноним 26/12/20 Суб 23:18:20 1891884510
Существует ли методика обучения, когда обучающий массив формируется из более-менее натурально выглядящих рендеров 3д модели объекта, а уже работа сети происходит на реальных фотографиях? Ведь гораздо производительнее будет смоделировать или взять готовые 3д модели например автомобилей, сделать скрипт который будет делать рендеры с разных ракурсов и с разными освещениями, разными бликами и разными цветами автомобилей, менять их форму. А потом автоматом все скормить сетке. Ведь по сути на картинках мы видим проекцию 3д объектов реального мира.
Аноним 30/12/20 Срд 15:39:22 1895727511
Запустил новый DeepFake вроде получается неплохо (для моего скудного датасета EOT) но вопрос почему у меня используется 6Гб видеопамяти а графический процессор судя по диспетчеру задач практически не загружен? И ещё вопрос, влияет ли Batch Size на качество результатирующее?
Аноним 02/01/21 Суб 15:21:37 1898647512
Аноны, т.к. тред по дата аналитике мертв - пишу сюда как к близкой сфере.

Хочу вкатиться в Дата Аналитики, за душой почти ничего, что бы могло пригодится с устройством.
Для себя составил план обучения из статистики, SQL, BI инструментов, вохможно ещё Питон или R.

Насколько дибильная затея? И почему? Будет ли найти сложно работу джуну?
Аноним 03/01/21 Вск 12:53:08 1899449513
Питон или яваскрипт? Что лучше и почему?
Аноним 18/01/21 Пнд 05:35:54 1913807514
Двачане, вкатываюсь в академический матан, но хоть какие-то деньги иметь надо, так что решил взять себе что-то из ит сферы связанное с метаном, чтобы качались обе сферы параллельно. Прогать умею, матешу знаю. Прошёл пару курсиков, послушал лекции, занял призовые в 3-ех хакатонах в сфере машоба, но что-то чувствую, что ничего дальше 2-3 курса вузика тут из матана не видно. Это максимум необходимый машобу? Мат анализ и линал с основами дискретки? Никакой более сложный мат аппарат не нужен? Если не нужен, то мб знаете сферу в ит где нужен. Заранее спасибо
Настройки X
Ответить в тред X
15000
Макс объем: 40Mб, макс кол-во файлов: 4
Кликни/брось файл/ctrl-v
Стикеры X
Избранное / Топ тредов