Главная Настройка Mobile Контакты NSFW Каталог Пожертвования Купить пасскод Pics Adult Pics API Архив Реквест доски Каталог стикеров Реклама
Доски


[Ответить в тред] Ответить в тред

Check this out!


<<
[Назад][Обновить тред][Вниз][Каталог] [ Автообновление ] 505 | 45 | 107

НЕЙРОНОЧКИ И МАШОБ ТРЕД №?.2 Аноним 25/03/18 Вск 14:36:36  1162357  
1.PNG (17Кб, 388x271)
2.jpg (152Кб, 680x680)
3.jpg (53Кб, 1336x505)
Очередной тред про хипстерские технологии, которые не работают.

Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.
Что почитать для вкатывания? http://www.deeplearningbook.org/
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ https://halite.io/ https://www.general-ai-challenge.org/
Где работать? https://www.indeed.com/jobs?q=deep+learning&l=
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/
Где посмотреть последние статьи? http://www.arxiv-sanity.com/

Список дедовских книг для серьёзных людей:
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Trevor Hastie et al. "The Elements of Statistical Learning"
Christopher M. Bishop "Pattern Recognition and Machine Learning"

Напоминание ньюфагам: персептроны и прочий мусор серидины прошлого века действительно не работает на серьёзных задачах

Предыдущий тред: >>1121858 (OP)
Аноним 25/03/18 Вск 15:01:09  1162366
>>1162357 (OP)
> Blockchain — database
Lolwut. И к криптовалютам надо было "candy wrappers" написать.
Аноним 25/03/18 Вск 15:12:56  1162379
Так бля. Пацаны, нужна помощь ньюфагу полному.
Знаю все необходимую матбазу из шапки. Умею немного в плюсы, знаю чуть-чуть теории из алгоритмов на больших объемах данных(т.е. получить что-то из огромной базы с высокой вероятностью), типа кластеризации или работы с разряженными матрицами. Рассказывали что-то про распарарллеливание и как это должно работать в хадупе, но ничего прикладного так и не сделали. Все, что умею мне нравится.
Расскажите, куда катиться с такими начальными(в смысле мне это нравится) и куда не стоит. Хотелось бы чего-нубидь сложного и не с курсеры. Заранее спасибо за любой ответ отличающийся от
>катиться к хуям
Аноним 25/03/18 Вск 15:20:53  1162392
>>1162379
> куда катиться с такими начальными
Душить змею, десу. В смысле, питон учить. И матрицы никто не разряжает. Их делают более рЕдкими. От этого они становятся разреженными.
Аноним 25/03/18 Вск 15:30:25  1162409
>>1162392
А после питона то что? Алсо он мне не очень нравится, если для дело надо, то конечно, но просто так его учить не тянет.
А про разреженные спасибо, мне тоже казалось, что так правильно, но я решил, что неправильно запомнил.
Аноним 25/03/18 Вск 15:39:51  1162423
>>1162409
катиться в ScyPy. По сути в науку. Дальше неизбежно столкнёшься с морфологией, а тм и Перельман пришлёт тебе на обсуждение очередную статью
Аноним 25/03/18 Вск 15:41:26  1162425
>>1162423
На работу то меня возьмут с этой штукой?
Аноним 25/03/18 Вск 15:41:55  1162426
>>1162423
Алсо Перельман же дифференциальный геометр, это связано?
Аноним 25/03/18 Вск 15:43:24  1162429
>>1162357 (OP)
>сиридины
Блять, как же я так проебался.
>>1162379
У тебя очень широкий вопрос. Погугли, какие задачи дип лёрнинг решает, выбери интересную, книжку из шапки почитай, потом найди список свежих пейперов по теме и реализуй методы из них.
>>1162425
В России скорее всего нет. Т.е. если ты чисто машобом хочешь, то нет.
Аноним 25/03/18 Вск 15:44:18  1162433
>>1162429
>Т.е. если ты чисто машобом хочешь, то нет.
А что еще надо? кроме машоба?
Аноним 25/03/18 Вск 15:50:04  1162439
>>1162433
Обычные прогерские скиллы, очевидно.
Аноним 25/03/18 Вск 15:54:03  1162443
>>1162426
Ну чувак на таком уровне, где геометрия сливается с математикой, и одним словом это можно назвать логика. Человеческая логика сейчас находится на уровне Перельмана. Именно так мы сейчас осмысливаем предметы вокруг себя.
Аноним 25/03/18 Вск 15:56:41  1162446
>>1162425
<ывают проскальзывают вакухи Big data etc
Аноним 25/03/18 Вск 15:58:47  1162447
>>1162426
Аноним 25/03/18 Вск 17:10:27  1162497
>>1162379
А че с курсерой не так?)
Аноним 25/03/18 Вск 19:44:47  1162608
Для нейронок что важнее: проц или видеокарта?
Ну т.е. буквально, стоит ли ужимать бюджет немного на второе ради первого, или наоборот?
Аноним 25/03/18 Вск 19:54:31  1162616
>>1162608
важно найти самый простой способ провести бейслайн в классификаторе. Если это не получается то начинаешь перебирать с помощью CPU.
Аноним 25/03/18 Вск 19:54:59  1162617
>>1162608
Я в нейроночках диван, но советую сначала упереться в железку на практике, а потом считать бюджеты.
Аноним 25/03/18 Вск 20:15:52  1162634
>>1162608
Для обучения - видеокарта, желательно с большим объёмом памяти, иначе будешь ебаться с подгрузкой данных кусками.
Аноним 25/03/18 Вск 22:27:23  1162707
>>1162379
Тащем-то вводные у тебя считай нулевые так что начинай с курсеры и не выебывайся.
Аноним 25/03/18 Вск 23:11:58  1162718
>>1162608
ryzen, 1080ti, 16+Гб для домашней системы стандарт сейчас
Аноним 26/03/18 Пнд 00:51:06  1162743
>>1162443
>логика
Я занимаюсь логикой и это очень далеко от диффуренциальных уравнений. Логика скорее похожа на самую слабую в смысле ограничений на объекты алгебру, но не более.
>>1162497
Видеоуроки и платить еще за это предлагают.
>>1162707
Еще раз, это вводные, чтобы объяснить что мне нравится, а что не особо. И что именно начинать на курсере то?
Насколько я понял, то, что я описал это не машоб а просто работа с большими объемами информации. Или я не прав?
Аноним 26/03/18 Пнд 00:52:27  1162745
>>1162357 (OP)
ОПчик, halite.io из шапки уже закончился. Можно мейлрушный канкурс вместо него поставить.
Аноним 26/03/18 Пнд 00:56:41  1162746
>>1162743
У тебя типичный вопрос из серии что мне делать со своей жизнью. Он не имеет смысла, как и твоя жизнь. Че хочешь, то и делай. Хочешь поступай на пхд, хочешь пускай krokodil по вене.
Аноним 26/03/18 Пнд 01:05:05  1162747
>>1162745
Блин, второй проёб в шапке. Тред медленно будет лимит набирать, но в следующий раз постараюсь на обосраться.
Аноним 26/03/18 Пнд 01:05:06  1162748
>>1162746
Не знаю. Я прошу рассказать какие есть направления и темы в том, что называется data science. Видимо это много.
Аноним 26/03/18 Пнд 01:23:15  1162751
>>1162379
Бамп вопросу.
Аноним 26/03/18 Пнд 01:49:05  1162756
>>1162751
Гугли. Тут секретов нет, интернет забит подобными вопросами.
Аноним 26/03/18 Пнд 01:51:06  1162758
>>1162751
статистика, r, julia
scala @ spark, clojure @ storm\onyx
катиться - в шад

курсера - это, кстати, не видосы, а курсы, и притом бесплатные (платный - сертифицированный сертификат)
Аноним 26/03/18 Пнд 01:53:53  1162760
>>1162758
>статистика, r, julia
>scala @ spark, clojure @ storm\onyx
>катиться - в шад
Спасибо, но это же все технологии или вообще языки, а статистику я вроде более менее знаю. В шад же меня не возьмут, да и в этом треде о нем нелестно отзывались. Да и там нужно выбрать одно из трех направлений, а в этом то вся проблема и заключается.
А по поводу курсеры я так понял, там в зависимости от курса либо плата за сертификат, либо плата за сам курс, есть триальная 7дневная версия, но все не то. И в основном там видеоуроки в этих самых курсах, по крайней мере в тех, что я видел.
Аноним 26/03/18 Пнд 13:41:21  1162934
>>1162357 (OP)
Как мне обучить нейросеть играть например в герои 6 не хуже человека, чтобы по тактике рвал, какую библиотеку скачать как начать обучения сети?
Аноним 26/03/18 Пнд 13:55:37  1162945
>>1162934
это очень сложно. Я думаю почти невозможно.
Для начала нужно распилить игру. найти то место которое отвечает за инпут. Переделать инпут с мышки на процесс, в котором крутится нейронка.
Дальше найти место которое отвечает за оутпут, в смысле то которое стоит перед оутпутом на видяху. Потому что там совсем мрак. Понять рендеры каких объектов ты видишь. Сделать мап этих обьектов в нейронку. Дальше нейронка запомианет паттерны движения этих объектов и учится. Проще конечно зареверсить движок, найти файлы которые отвечают за игровую механику, замапить их в нейронку. Потом обученная нейронка мапит свои оутпуты в апиху игры. но если ты такое сделаешь, можешь претендовать на нобелевскую премию в области нейросетей.
Аноним 26/03/18 Пнд 14:32:49  1162962
>>1162945
Наркоман? К какому-нибудь openai universe можно при делать любой вывод на экран и любые действия с клавой, мышкой итд. Там даже в примерах используются обычные игры, никто их не ковыряет. Другой вопрос, что научить нейроночку чему-то сложнее арканоида в домашних условиях вряд ли реально, мощности не те. Нужно как минимум поднимать всю эту ебулду на каком-нибудь амазоновском инстансе.
Аноним 26/03/18 Пнд 16:47:40  1163006
>>1162962
Мозг ведь не требует амазоновского инстанса.
Аноним 26/03/18 Пнд 16:52:08  1163008
>>1163006
Нейронные сети имеют такое же отношение к мозгу, как андеркаты и прочая хипстерская хуита - к нормальному виду.
Аноним 26/03/18 Пнд 17:19:03  1163019
Секундочку. почему абсолютно дегенеративное обсуждение про нейроночки так оживлено идет, а мой резонный вопрос про деление машоба и вообще науки об информации, до сих пор без ответа? Я же точно помню, что оп первых тредов не был идиотом. Что произошло?
Аноним 26/03/18 Пнд 17:28:19  1163021
>>1163019
Нейронки зохавали моцг
Аноним 26/03/18 Пнд 17:35:22  1163031
>>1163019
Во-первых, твой вопрос плохо сформулирован, и я не понимаю о чем он. Во-вторых, это место именно для дегенеративного обсуждения про нейроночки. За сириус бизнесом иди в реддит.
Аноним 26/03/18 Пнд 18:36:49  1163065
>>1163019
> а мой резонный вопрос про деление машоба и вообще науки об информации, до сих пор без ответа?
Что за вопрос-то?
Аноним 26/03/18 Пнд 18:38:43  1163067
>>1163065
чё делать то ёба бля нахуй то а?
Аноним 26/03/18 Пнд 19:03:41  1163074
>>1163067
> чё делать то
Ничего не делай. Так и победишь
Аноним 26/03/18 Пнд 19:21:14  1163078
>>1163067
Стакай xgboostы и сверточнхы слоев побольше накатывай.
Аноним 27/03/18 Втр 10:13:59  1163348
>>1163065
>>1162379
Аноним 28/03/18 Срд 09:29:21  1163880
Чего-то за последний год прогресс как-то не прогрессирует, вы не находите? Все возятся с GAN и reinforcement learning, только результатов особых не видно.
Аноним 28/03/18 Срд 11:39:15  1163937
>>1163880
«День знаний» для ИИ: опубликован ТОП30 самых впечатляющих проектов по машинному обучению за прошедший год (v.2018)
https://habrahabr.ru/company/cloud4y/blog/346968/

Топ-10 трендов технологий искусственного интеллекта (ИИ) в 2018 году
https://habrahabr.ru/company/otus/blog/350614/

Да наоборот прогресс ускоряется, в 2016 году я вообще не слышал новости об нейронках и не знал что это.
Аноним 28/03/18 Срд 12:17:42  1163958
image.png (21Кб, 866x122)
>>1163937
>https://habrahabr.ru/company/cloud4y/blog/346968/
Ёбаные хипсторы измеряют успех в количестве юзеров гитхаба, добавившего их репу в букмарки.
Аноним 28/03/18 Срд 13:00:42  1163967
горилла.png (213Кб, 491x424)
>>1163880
Хайп спадает, теперь ждать пока деды от машинлернинга не придумают очередную хуитку, позволяющую повысить качество распознавания негров на 0,5%.
>>1163937
>опубликован ТОП30 самых впечатляющих проектов по машинному обучению за прошедший год (v.2018)
Единственная интересная вещь - fasttext, это да, очень круто. Остальное - распознавание негров а-ля пикрелейтед, нескучное автоматическое разрисовывание котиков в стиле Пикассо и анимешных девочек, костыли к слесарьплову, морфинг лошадей в зебр, изменение голоса и прочее говно из жопы.
Аноним 28/03/18 Срд 13:13:20  1163972
>>1163019
>почему абсолютно дегенеративное обсуждение про нейроночки так оживлено идет, а мой резонный вопрос про деление машоба и вообще науки об информации, до сих пор без ответа?
Единственное адекватное деление машоба на два стула было сделано еще в 60-е - асимптотически-оптимальные и конечно-оптимальные алгоритмы. Первый случай - нейроночки и прочее говнишко, над которым можно прыгать с бубном до японской пасхи в надежде, что десяток дополнительных видюх, новая борода из более модного барбершопа и совместное камлание на коворкинге приведет к увеличению качества еще на 0,05%. Второй случай - алгоритмы на основе теории статистического обучения.
Аноним 28/03/18 Срд 17:04:16  1164084
image.png (573Кб, 730x551)
Dropout это всего лишь навсего выбывший [из школы] (недоучка), но сообразительный малый
Over-fitting это же теремок (сказка такая) или даже украинское "рукавичка", этот принцип дети учат очень рано

Всё дабы запутать простых людей. Даже думаю, что дети машинное обучение будут понимать намного проще. Примерно как со следующей задачей:

На книжной полке рядом стоят два тома Пушкина:
первый и второй. Страницы каждого тома имеют вместе толщину 2 см, а обложка –– каждая –– 2 мм. Червь прогрыз (перпендикулярно страницам) от первой страницы первого тома до последней страницы второго тома. Какой путь он прогрыз?

Эту задача дети решают за 0,(9) секунды, а профессора за длинную эпоху тяжелых размышлений.
Аноним 28/03/18 Срд 17:08:32  1164089
image.png (68Кб, 225x225)
>>1164084
Хотя мне немного грустно от всего этого.
Аноним 28/03/18 Срд 17:30:49  1164102
>>1164084
От первой до последней включительно?
Тогда 2 см, если нет, то 1.96 см.
Аноним 28/03/18 Срд 17:57:01  1164107
>>1164102
4 мм.
Аноним 28/03/18 Срд 18:03:18  1164109
>>1164084
>Over-fitting это же теремок (сказка такая) или даже украинское "рукавичка", этот принцип дети учат очень рано
Ну и в чем связь?
>>1164102
>>1164107
3.98мм
Аноним 28/03/18 Срд 18:22:59  1164113
>>1164084
Смотря в каком порядке стоят тома
Аноним 28/03/18 Срд 18:41:39  1164115
>>1164107
Лол, ну так дело в том что мелкие пидорахи узко мыслят, поэтому и быстрее.
Я сам обосрался, признаю, но как минимум взрослый человек если подумает над этой задачей больше 5 секунд поймет что книги могут стоять по разному, могут быть какие-то манякниги где первая страница в конце, маетматики могут еще в своих неэвклидовых гемоетриях позалипать. В общем хуита пример. И с теремком тоже. Специальные термины нужны т.к. им задают гораздо более узкий и точный смысл чем имеют привычные обывательске понятия, и потом дауны делают ошики из за недопонимания т.к. каждый понимает "манятеремок" или "сообразительный, но выбывший малый" по разному, либо делают акценты на разные характеристи этих мысленных объектов.

Короче очередной кукаерк в стиле "чейто энти ваши ученые там делают, лушеб коз выпасли или корову подоили, только деньхи наши тратят, дармоеды"
Аноним 28/03/18 Срд 18:57:48  1164119
>>1163967
>изменение голоса
Это именно то, что я хотел сделать после прохождения машинного обучения на курсере. Неужели все так нетривиально?
Аноним 28/03/18 Срд 20:05:26  1164167
>>1164119
А ты небось думал что нейроночки и машобчик это так, месяцок позалипал на курсах\книжках и можно на легке хуячить все те охуительные идеи, которые ты придерживал до изобретения ии?
Аноним 28/03/18 Срд 20:24:12  1164181
>>1164167
А разве не так?
мимо
Аноним 28/03/18 Срд 20:24:26  1164182
>>1164119
Нейронки нужны для хайпа и попила бабла, а твое изменение голоса решается на коленке любым ЯП.
Аноним 28/03/18 Срд 20:31:47  1164189
>>1164182
Не решается (кроме добавления эффекта пердения в ведро).
Аноним 28/03/18 Срд 20:34:22  1164193
>>1164189
И правда, как только без нейронок голоса раньше меняли. Кстати, какова математическая постановка задачи изменения голоса?
Аноним 28/03/18 Срд 20:36:28  1164194
>>1164189
Есть куча синтезаторов голоса, а если копнешь глубже в акустику, то какие проблемы в его изменение?
Аноним 28/03/18 Срд 20:40:37  1164199
>>1164181
Нет, всякие phd десятилетиями этим занимаются и в лучем случае могут побить какой-нибудь порог точности на 5-10% в имажнете или мнисте.
Любая крупная контора типа фейсбука, гугла, даже мейл ру имеют целые ресерч отделы, где лучшие в этом направлении люди за крупную зарплату каждодневно пытаются сделать что-то подобное. И тут такой вкатывается васян с двача после курсеры и мутит свой морфер изменятель голоса, бота для героев и прочих самореплецирующихся киборгов математиков.

А вот хуй, это так не работает
Аноним 28/03/18 Срд 20:42:12  1164200
Как научить нейросеть делать RYTP ролики как на ютубе? Равнозначно ли это научению машины способности шутить?
Аноним 28/03/18 Срд 20:55:51  1164209
>>1164193
>как только без нейронок голоса раньше меняли
Питч двигали, гармоник добавляли, да хорус. Это детский лепет. Автотюн незаметный до сих пор не могут сделать, епта.
>>1164194
>Есть куча синтезаторов голоса
Начнем с того, что они такое говно, что даже глухой отличит их от живого человека.
Под изменением голоса я понимаю качественный синтез, имитацию голоса конкретного человека, работу с интонацией.
Аноним 28/03/18 Срд 20:59:40  1164211
>>1164209
>имитацию голоса конкретного человека
А, ну да, тут без нейронки и поллитры смузи не обойтись.
Аноним 28/03/18 Срд 21:32:17  1164235
>>1163972
>Единственное адекватное деление машоба на два стула было сделано еще в 60-е - асимптотически-оптимальные и конечно-оптимальные алгоритмы
А можно поподробнее про второе? По каким запросам гуглить книги, что изучать.
Аноним 28/03/18 Срд 21:39:49  1164238
>>1164209
Вот не пиздел бы, для всяких английских и испанских есть много годных синтезаторов, просто языки простые. Работа с интонацией заключается в определение семантики текста, а это NLP, там нейронки сосут в первую очередь.
Аноним 28/03/18 Срд 21:46:51  1164246
>>1164200
Берёшь большое количество роликов, берёшь ган-ганчик, он тебе генерирует видосы. нет
Аноним 28/03/18 Срд 21:58:59  1164256
>>1164238
Языки с тонами самые устойчивые к имитированию?
Аноним 28/03/18 Срд 22:01:54  1164260
152178648316852[...].jpg (68Кб, 570x712)
>>1164256
Поковырял бы в матчасте что ли
Аноним 28/03/18 Срд 22:09:28  1164265
>>1164238
>Работа с интонацией заключается в определение семантики текста
Не
Аноним 28/03/18 Срд 22:11:26  1164268
>>1164265
Ты школьнег?
Аноним 29/03/18 Чтв 06:33:31  1164422
>>1164199
Ты мыслишь ограниченно.
>>1164182
Любым ЯП не получится сделать голос конкретного человека, например.>>1164209
>Под изменением голоса я понимаю качественный синтез, имитацию голоса конкретного человека
Не, это перебор. Я еще в теорию кодирования голоса не вникал, но мне кажется, что просто покрутить параметры (с помощью ГА, например) для создания похожего голоса недостаточно, т.к. параметры будут единые для всего потока. Нейронка же, возможно, сможет адапитроваться к определенным патернам изменения голоса.
Аноним 29/03/18 Чтв 06:47:04  1164426
>>1164422
>Я еще в теорию кодирования голоса не вникал
ясно
>Нейронка же, возможно
фейспалм
Аноним 29/03/18 Чтв 06:49:55  1164427
>>1164422
Когда хочется "ну вот так, чтобы охуенно было, как в фильме", но "ЯП это скучно, посоны засмеют", то всегда говори "нейронка сможет".
Аноним 29/03/18 Чтв 07:11:54  1164432
>>1164422
>Ты мыслишь ограниченно.
Лол, ну давай, неограниченный наш, не забывай хорошо учиться и заполнять дневник, чтобы когда обосрешься с первой тренировкой нейроночки(если вообще до этого осилишь) хоть аттестат был.
Аноним 29/03/18 Чтв 11:24:42  1164493
>>1164193
>как только без нейронок голоса раньше меняли
Хуёво, вот как. Даже тупо повысить голос на октаву не могли без артефактов.
Аноним 29/03/18 Чтв 12:23:40  1164516
>>1164493
Самое интересное, что в фантастических фильмах про будущее, голос искусственного интеллекта и суперкомпьютера сейчас изображает живая баба. А актеры, озвучивающие симпсонов, получают миллионы. Интересно, начнут ли они песдеть про авторские права и персональные данные, когда нейросетки их порешают? когда-нибудь
Аноним 29/03/18 Чтв 12:34:41  1164520
 
Аноним 29/03/18 Чтв 18:14:26  1164673
Мужики, назрел животрепещущий вопрос.
Учусь в маге в неплохом тех.вузе нерезиновой, решил пошароебиться по собесам, есть оффер на неплохую стартовую должность аналитика в полуайти компании(небезызвестная платежная система для школьников и наркоманов) с возможностью дальнейшего переката в мл. Мат.база минимальная есть, прохожу курсы, вся хуйня. Собсна, вопрос: стоит ли бросать нахуй магу, если я уверен, что по специальности работать не буду, или же продолжить учебу ради корки магистра?
Аноним 29/03/18 Чтв 18:17:28  1164677
>>1164673
Доучивайся 100%, без корки в Рашке (и не только) ты никому нахуй не сперся.
мимо старый бомж без корки шлют на всех собесах нахуй
Аноним 29/03/18 Чтв 18:32:50  1164688
>>1164677
Траблос в том, что у меня уже 3 знакомых ( 2 мидла-кодера и один джун дс) ща работают в яндексе вообще без каких-либо корок, поэтому и назревает вопрос. А проебывать 2 года на хуйню, которой заниматься я не особо хочу, - вообще не радужная перспектива
Аноним 29/03/18 Чтв 18:34:08  1164689
>>1164688
Не доучивайся 100%, корка в Рашке интересует только крыс из бухгалтерии, которые её ПРИКЛАДЫВАЮТ К ЛИЧНОМУ ДЕЛУ
Аноним 29/03/18 Чтв 18:43:35  1164691
>>1164673
Доучивайся, для мля тебе корка магистра особенно пригодиться.
Аноним 29/03/18 Чтв 18:47:49  1164693
>>1164688
Без корки ты будешь жить в рашке.
Аноним 29/03/18 Чтв 18:52:32  1164696
>>1164693
Словно что то плохое
Аноним 29/03/18 Чтв 19:10:01  1164701
вроссии.png (4575Кб, 1500x2300)
>>1164696
Если ты мазохист, то даже и хорошо.
Аноним 29/03/18 Чтв 19:11:51  1164702
152122150912195[...].jpg (62Кб, 700x523)
>>1164701
Поехавший либираха у которого на швятом жападе все в шоколаде? Ну, ну.
Аноним 29/03/18 Чтв 19:15:39  1164705
>>1164691
Дак бля это будет магистр по ядерной физике и технологиям, от которых прост пиздец воротит. Насчет мля - не уверен, можно ж проходить курсы вышки, например
Аноним 29/03/18 Чтв 19:17:05  1164707
>>1164693
С чего такая уверенность? Один хуй корка будет не по компьютер сайнсу, а если наработать опыта и сдавать языковые экзы - думаю, шансов все равно больше
Аноним 29/03/18 Чтв 19:19:32  1164708
>>1164702
Наводнение рольнул. Не самый плохой вариант, чо. Шансы есть в течение месяца-двух. Изменение климата? Ахаах, выдумки китайцев, да мы же только выиграем, засеем тундру, ой чтбульбульбульбульбуль
Аноним 29/03/18 Чтв 19:21:55  1164710
image.png (805Кб, 1200x628)
>>1164708
>чтбульбульбульбульбуль
Он утонул.
Аноним 29/03/18 Чтв 19:26:56  1164713
вапник.jpg (93Кб, 918x688)
При всем неуважении к рашке, не стоит забывать, что рашка точнее совок - родина настоящего машобчика. На гнилом жопаде одно шаманство, индусы и хипстеры-педерасты.
Аноним 29/03/18 Чтв 19:40:51  1164722
>>1164705
Ну так дропни и возьми магистратуру с чем-нибудь cs релейтед
Аноним 29/03/18 Чтв 19:41:39  1164723
>>1164713
Заебал ты вапником, чесслово.
Аноним 29/03/18 Чтв 19:44:06  1164730
>>1164723
Поддвачну.

>>1164713
Я хоть и сам не в восторге от нейронок, но ты уже просто задрал церковью этого своего деда.
Аноним 29/03/18 Чтв 20:44:35  1164748
>>1164723
>>1164730
Есть альтернативы?
Аноним 29/03/18 Чтв 21:41:28  1164787
мыльце.jpg (42Кб, 523x397)
>>1164748
Например, ты можешь свалить в туман.
Аноним 29/03/18 Чтв 21:43:36  1164790
>>1164787
А ты заставь.
Аноним 29/03/18 Чтв 21:48:52  1164800
>>1164790
Мервых не мучают мысли о Вапнике. Подумай об этом. Подумай. Думай.
Аноним 30/03/18 Птн 00:44:40  1164909
>>1164800
> Эти стоны даунича, не осилившего даже аннотации к работам великих
Аноним 30/03/18 Птн 01:11:26  1164917
>>1164705
Мифишник в треде? Сам мифишник закончивший в ядерную физику.
Аноним 30/03/18 Птн 03:25:42  1164947
>>1164909
Ты подумал о настоящих причинах своей нездоровой тяги к мертвым, похороненным теориям? Думай. Думай об этом постоянно. Каждый раз, когда отвлечешься от мыслей об этом, возвращайся к ним, как только заметишь это. С утра проснулся - первая мысль: почему же я некрофил? Перед сном вспоминай, размышляй о тлене, разложении, почему тебя именно это привлекает. Когда ешь, визуализируй сгнившую, червивую, иссохшую еду перед тобой, задавайся вопросом, почему тебе это нравится. Отныне все твои мысли заняты только этим, ничто другое не имеет значения. Представляй себе свою собственную смерть, при каких обстоятельсвах она произойдет, как скоро.
Аноним 30/03/18 Птн 06:46:26  1164953
>>1164947
> Ты подумал о настоящих причинах своей нездоровой тяги к мертвым, похороненным теориям?
Лол, мань, статистикал лернинг живее любых нейроночек. Бустинг тот же.
Аноним 30/03/18 Птн 23:25:53  1165466
Поцоны, есть ли тут кто-нибудь с опытом работы с нейросетками, применяемыми для создания диалоговых систем? Интересует следующая хуйня - можно ли, зная архитектуру, примерно понять, какими статистиками вроде объёма, частот слов, n-gram или ещё какой-нибудь хуйни должен обладать корпус диалогов для нормального обучения? Работаю в индустрии, делаю чатботов, а т.к датасетов на русском нихуя нет и данные мы сами собираем со всяких твиттеров, качество их хуй знает какое. Статей на эту тему не нашёл.
Аноним 31/03/18 Суб 01:27:56  1165494
>>1165466
>с нейросетками, применяемыми для создания диалоговых систем?
в голосяндру
Аноним 31/03/18 Суб 07:19:57  1165549
>>1165466
По вопросу ничего не могу сказать, но в ответ спрошу: а что такое чатботы, особенно в индустрии? Вообще что они делают, для чего там нейроночки?
Я слышал в реддите про это, но только какое-то невнятное бормотание. Никаких примеров этого я не видел. В жизни, например, сталкивался с чатботом на техподдержке моего сотового провайдера, было довольно круто, мой вопрос был решен. Но там банальное дерево диалога, как в РПГ из 70-х годов, только сверху прикручено распознавание и синтез голоса. Последние два, видимо, на нейроночках, но это из другой области вещи, как я понял. Чатботы же это именно про содержание текста?
Аноним 31/03/18 Суб 08:10:08  1165553
>>1165549
>Но там банальное дерево диалога, как в РПГ из 70-х годов
да и плюс статистическая поебота
Аноним 31/03/18 Суб 08:16:16  1165554
>>1165553
В моем случае чисто дерево диалога с выбором из вариантов. Единственное, можно было выбор сделать голосом, например что-то вроде: вам нужна техподдержка, проверка баланса или настройка голосовой почты? Говоришь техподдержка. Раньше надо было кнопками выбирать, очень неудобно.
Но это явно не про те чатботы, о которых идет речь в посте выше. Или это они и есть? Тогда зачем там корпус твитов нужен?
Аноним 31/03/18 Суб 08:21:57  1165556
>>1165554
>Или это они и есть? Тогда зачем там корпус твитов нужен?
ну смотри, тех поддержка там все просто, все вероятные проблемы захардкожены, если бот типа болталки там можно собрать ответы на типичные фразы из инета/твитора, если добвить к ней некую реакцию получится ассистент. все это симуляция ии, хотя может выглядеть впечатляющи.
Аноним 31/03/18 Суб 08:29:01  1165558
>>1165556
Что за бот типа болталки? Я совершенно не в теме, представления не имею, о чем идет речь. Это просто боты, отвечающие рандомными фразами, как Элиза из 66-го? Тогда какое отношение они имеют к индустрии? Или это индустрия развлечений какая-то, тогда где это все можно посмотреть?
И что это за ассистент? Если это как сири в айфоне, то там все точно так же захардкожено по ключевикам. Шаг влево, шаг вправо и "here is what I found on the web on your request", тупо в гугл забивает твой запрос.
Аноним 31/03/18 Суб 08:33:37  1165561
>>1165558
>болталки = Элиза из 66-го
да
>ассистент = сири в айфоне
да, отличие в том, что у сири будут реакция на фразы типа проверь почту
Аноним 31/03/18 Суб 08:38:04  1165563
>>1165561
Имхо сири на 100% по ключевикам работает, т.е. это проверь почту кто-то там забил в БД руками, посмотрев список частых запросов, которые не удалось распознать другими ключевиками. Ну на самом деле я не знаю, может там и правда пупир нейтронные касмические квантовые технологии на блохчейне, но по тупости эта система в точности равна БД ключевых слов.
Аноним 31/03/18 Суб 08:44:47  1165564
>>1165563
примерно как у яндексопидоров
https://habrahabr.ru/company/yandex/blog/339638/

а тот анон, просто еще не понимает, что нейронки это лютая хуета
Аноним 31/03/18 Суб 08:56:26  1165565
>>1165564
Спасибо, теперь какое-то представление получил. Наверное, там как раз описано то, что тот анон имел в виду.
Аноним 31/03/18 Суб 09:00:03  1165566
>>1165565
>что тот анон имел в виду.
наверное. тому анону пора спускаться с небес и хотя бы понять, что даже синтаксический разбор предложения является нерешенной задачей в nlp, не говоря уж о семантике, а под капотам цири и алис скрывается паровой двигатель.
Аноним 31/03/18 Суб 09:11:48  1165571
>>1165566
Да ведь на хабре все это как раз и описано. Там два варианта использования нейроночек: классификация текста по категориям, для чего глубокий разбор не нужен (по факту там просто несколько шаблонов распознается, т.е. можно сказать что нейроночка автоматически подбирает нужные ключевые фразы), и режим болталки где нет никаких гарантий, т.е. это классическая Элиза на модных технологиях. То, что нейроночка и близко не делает никакого разбора текста, их не особо волнует, оно им и не нужно.
Конечно, сказать что у нас тут ПОМОЩНИК С ИИ НА НЕЙРОНОЧКАХ, или Я ДЕЛАЛ ДИАЛОГОВЫЙ ИИ В ИНДУСТРИИ - бесценно. Ну да хрен с ними, пусть делают. Все равно в НЛП застой уже лет 30, хуже не будет.
Аноним 31/03/18 Суб 09:25:49  1165576
>>1165571
> Все равно в НЛП застой уже лет 30, хуже не будет.
Какой застой 30 лет, ты что-нибудь слышал про word2vec и лингвистические регулярности?
Аноним 31/03/18 Суб 09:33:03  1165579
>>1165576
>word2vec
не работоспособное говно
>лингвистические регулярности
это еще что такое?
Аноним 31/03/18 Суб 09:35:46  1165580
>>1165576
>word2vec
Едрить прорыв.
>лингвистические регулярности
Это ты про king - man + woman = queen? См. выше.
Аноним 31/03/18 Суб 10:08:28  1165596
>>1165580
> Это ты про king - man + woman = queen? См. выше.
Что там смотреть? Мнение очередного школьца? Алгебраические операции на пространствах векторных представлений текста уровня корпусов common crawl даёт огромные возможности, если уметь что-то кроме кукареканья.
>>1165579
> не работоспособное говно
Когда в голове прошлогоднее говнишко, то да. Но это проблема не word2vec, разумеется.
Аноним 31/03/18 Суб 10:18:43  1165608
Меня вот интересует вопрос, а работа для джуниоров в данной области (data science) вообще существует?
Аноним 31/03/18 Суб 10:31:26  1165611
>>1165596
>common crawl
че бля? какие на хуй возможности для нормальных языков с флексией и свободным порядком слов? еще эсперанто подтяни или бейсик.
Аноним 31/03/18 Суб 10:34:51  1165613
>>1165611
Нуя ж говорю, ты просто не понимаешь как это работает непосредственно, на уровне линейной алгебры и никогда не видел всего этого вживую.
Аноним 31/03/18 Суб 10:43:36  1165617
>>1165613
>ты просто не понимаешь как это работает непосредственно
ну да, я вот всего лишь ебусь с проджектом по нлп
Аноним 31/03/18 Суб 11:23:58  1165621
Трансляция яндекса по машобу.
гоу смотреть
https://events.yandex.ru/events/mltr/31-march-2018/
Аноним 31/03/18 Суб 11:38:22  1165628
>>1165621
>яндекса
нинужно
Аноним 31/03/18 Суб 11:44:31  1165630
>>1164707
Для релокейта нужна корка. Да и 95% вакансий МЛ на Западе её просят.
Аноним 31/03/18 Суб 12:02:21  1165640
>>1164673
но если это мага. то у тебя уже есть бакалавр?
Аноним 31/03/18 Суб 12:40:37  1165664
Какие зарплаты у машоберов в Яндексе?
Аноним 31/03/18 Суб 14:20:04  1165713
>>1165564
Если нужно сделать что-то, что будет.
1. Генерировать разнообразные ответы
2. Воспринимать больше, чем набор заготовленных фраз.
То нейронки с этим справляются лучше других алгоритмов. Ещё нейросети являются расширяемым фреймворком, то есть решение проблемы часто получается не очень костыльным, например здесь - https://arxiv.org/abs/1603.06155 чуваки просто и эффективно решают проблему несвязности разных ответов друг с другом.
Аноним 31/03/18 Суб 14:24:37  1165718
>>1165608
Нет
Аноним 31/03/18 Суб 19:22:36  1165876
Какой уровень знаний нужен для книги Vladimir N. Vapnik "The Nature of Statistical Learning Theory"? И какой уровень будет после?
Аноним 31/03/18 Суб 20:26:57  1165914
>>1165876
0.0.
Аноним 31/03/18 Суб 20:49:02  1165932
>>1165914
Не распарсил.
Аноним 31/03/18 Суб 21:01:17  1165941
>>1165876
> Какой уровень знаний нужен для книги Vladimir N. Vapnik "The Nature of Statistical Learning Theory"?
Матан, теорвер, линейная алгебра, основы вариационного исчисления.
> И какой уровень будет после?
Если осилишь - просветление. Поймешь, почему нынешний мейнстрим в машобе это путь в никуда и почему все кроме конечно-оптимальных алгоритмов в машобе это чистое шаманство.
Аноним 31/03/18 Суб 21:16:10  1165948
>>1165941
Сектанство не нужно.
Аноним 01/04/18 Вск 02:43:36  1166084
>>1165948
> Сектанство не нужно.
Это не сектантство. Из всего машоба это единственный подход без сектантства.
Аноним 01/04/18 Вск 04:56:10  1166093
>>1166084
Сектант, плес
Аноним 01/04/18 Вск 09:05:26  1166114
В сраной заблокируют AWS: https://torrentfreak.com/russia-asked-isps-to-block-13-5-million-amazon-ip-addresses-to-silence-one-app-180331/
Будете на Байкалах нейроночки тренировать, нефиг тут.
Аноним 01/04/18 Вск 10:51:54  1166146
>>1166114
> Будете на Байкалах нейроночки тренировать
На луньсунях, ты хотел сказать. Это же пижженые китайские процы longson. А так, сразу было ясно, для чего гебне цензура. AWS интересен тем, что позволяет с common crawl работать, нейроночки нахуй не нужны.
Аноним 01/04/18 Вск 10:59:54  1166149
>>1166146
>луньсунях
Луньхуюнях
Аноним 01/04/18 Вск 17:18:25  1166374
>>1165580
> king - man + woman = queen
О, вы тоже из mlcourse_open
Аноним 01/04/18 Вск 18:09:55  1166417
>>1165566
синтаксический парсер отлично работает, только он ничего не дает и непонятно, что с этим синтаксисом делать
Аноним 02/04/18 Пнд 00:14:42  1166589
>>1166417
Отлично работает (только если предложение не использует необычный синтаксис) (обычный синтаксис используют 3% предложений) (отлично значит приемлемо) (то есть результат можно отличить от выхлопа ГСЧ) (статистическая значимость отличия от ГСЧ 0.1 на выборке из 100000000 предложений)
Аноним 02/04/18 Пнд 00:39:40  1166591
>>1166417
Давай с примерами, шибко интересно как там нейронки пережуют синтаксис.
Аноним 03/04/18 Втр 12:48:48  1167309
Поясните за марковские процессы. Выглядит как какой-то математический наеб. Вот пишут что у них главное свойство в том, что чтобы перейти в следующий стейт достаточно знать текущий, типа они не зависят от истории.
Но разве я не могу свести любой не марковский процесс к марковсому тупо записывая все что нужно в стейт? Т.е. если мне например нужно знать какую-то хуитку, которая была три состояния назад, я просто беру и в стейте держу дополнительную величину "хуйнянейм три стейта назад", в конце концов я же могу тупо всю историю состояний записывать в текущий стейт.
Тогда нахуя они вообще нужны?
Аноним 03/04/18 Втр 16:08:04  1167396
вы дебилы
Аноним 03/04/18 Втр 16:08:51  1167397
>>1167396
нет вы
Аноним 03/04/18 Втр 16:09:58  1167399
>>1167397
ты дурак а я умный
Аноним 03/04/18 Втр 16:19:05  1167404
>>1167309
Манька, а как ты собираешься узнавать всю историю процесса? Или ты прого-дебич, не могущий вообразить ничего за пределами кампуктера?
Аноним 03/04/18 Втр 17:31:16  1167451
>>1167309
Можешь. Именно так и делают, если это возможно. Но это бывает невозможно реализовать на практике. Например, полное состояние может быть слишком большим, или содержать переменные к которым у тебя нет доступа.
Аноним 03/04/18 Втр 18:05:19  1167477
>>1167404
Чего так нагрелся то? Агрессивный вапникофорсер eto ti?
Во-первых, да не могу, иначе бы не спрашивал.
Во-вторых ессно меня интересует то, что можно реализовать на компьютере, иначе я бы спрашивал у чистопетухов в матаче, а не в зекаче.

Читаю книжку по RL, там часто делается на это акцент, вот и стало интересно. Писали бы уже про какую-нибудь markov representation, а так только запутывает.
Аноним 03/04/18 Втр 18:27:47  1167497
brouwer.jpg (462Кб, 752x1083)
>>1167477
>меня интересует то, что можно реализовать на компьютере, иначе я бы спрашивал у чистопетухов в матаче,
Они грязнопетухи на самом деле. То, что нельзя реализовать на кудахтере или что то же самое, в виде ментальных построений, нельзя реализовать никак. Это не математика, а аутизм.
Аноним 03/04/18 Втр 20:11:34  1167563
>>1167497
Анон, а есть какая-нибудь годная книжка по конструктивной математике? Чтобы только не ебали когомологиями колец с первых страниц.
Аноним 03/04/18 Втр 20:18:12  1167565
>>1167563
Да чего там учить.
| = 1
|| = 2
||| = 3
И т.д.
мимо
Аноним 04/04/18 Срд 04:34:19  1167748
>>1167563
Лучше сразу какой-нибудь прувер разбирай, непонятное догугливай. Когда будешь думать что понял, пробуй на нем написать что-нибудь из Барендрегта, "lambda calculi with types".
Аноним 04/04/18 Срд 14:07:22  1167881
>>1166591

https://cloud.google.com/natural-language/
https://habrahabr.ru/post/317564/ (немного криво обучено)

>>1166589
отлично - не хуже других NLP задач, где выше 90+% даже на простых задачах не получают/до недавнего времени не получали (типа несчастного определения частей речи)

и не очень понимаю проблем с нейронками и синтаксисом, задача почти не отличается от любых других задач, например, Named entity recognition и тд, да и проблемы те же самые
Аноним 04/04/18 Срд 14:15:40  1167882
>>1167881
https://github.com/tensorflow/models/blob/master/research/syntaxnet/g3doc/universal.md
и проценты для языков
Аноним 04/04/18 Срд 14:31:46  1167886
Решил написать простенькую нейроночку на питоне https://paste.ofcode.org/HyCrw8uaKDQPYGkjXAVGu9
Столкнулся с тем что было бы очень удобно получать элемент А по индексу A[index] если А - list, а не ndarray (index тоже list). Как-нибудь так можно?
Аноним 04/04/18 Срд 14:55:02  1167900
>>1167886
это не нейроночка. Нейроночка это то что ты фитишь. А ты юзаешь апи этой нейроночки. тебе в треб с радостным удавом на пике.
Аноним 04/04/18 Срд 14:56:49  1167902
>>1167900
Не пойму про какое апи ты говоришь когда я с нуля пишу.
Аноним 04/04/18 Срд 14:59:24  1167907
>>1167902
>когда я с нуля пишу
>from sklearn
Аноним 04/04/18 Срд 15:00:53  1167909
>>1167907
Ну train_test_split это не то чтобы апи нейроночки ) Или мне и перемножение матриц самому на плюсах писать?
Аноним 04/04/18 Срд 15:01:03  1167910
>>1167902
а ну да маленько не доглядел. извиняй
Аноним 04/04/18 Срд 15:02:35  1167912
>>1167909
кстати если тебе будет нужны датасеты обращяйся
Аноним 04/04/18 Срд 15:14:03  1167918
>>1167907
Так он же склерном только тестирует.
Ты из тех для которых с нуля это на своей ос, со своим языком и стандартными либами?
Аноним 04/04/18 Срд 15:14:08  1167919
>>1167886
Нафиг ты вручную эту дрисню пишешь, когда есть pytorch?
Аноним 04/04/18 Срд 15:15:13  1167920
>>1167919
потому что могу
Аноним 04/04/18 Срд 18:17:24  1167984
а вот я пытаюсь вкатится в классификаторы sklearn. Там обязательно ли таргетсы в порядке возрастания размещать а а а а ?
Аноним 04/04/18 Срд 19:17:02  1168016
>>1167984
В порядке возрастания это как? О каком порядке вообще может идти речь, если данные обычно смешаны и перетасованы?
Аноним 04/04/18 Срд 19:25:23  1168019
>>1168016
есть опыт с скашечкой?
я еще зелэный.
ну вот хуй знает. типа надо подготовить трейнинг сет, например чтобы его таргеты были в виде вектора
вот прикладываю скрин с туториала, 'y' это таргетсы из трейнинг сета
Аноним 04/04/18 Срд 19:30:19  1168020
>>1168019
Пройди туториал самый базовый хотя бы. У тебя вопросы на уровне как запустить хеллоуворд.

y_i у тебя должен соответствовать твоему ветору иксов из матрицы X т.е. y_2 соответствует второй строке твоей матрицы данных.

Аноним 04/04/18 Срд 19:38:37  1168026
>>1168020
>>1168020
спасибо. То есть не обязательно чтоб таргетсы были по возрастающей? Просто у меня не правильно сработало. правда таргетсы были не 1, 2, 3 а соотвественно 650, 400, 820
и модель только одну 820 правильно предсказала.. а остальных цифр которые она выдала вообще не было в таргетсах, что типа 118 и 500
Аноним 04/04/18 Срд 19:39:53  1168028
>>1168020
так же вектор имеется ввиду просто массив, необязательно чтоб он был именно возрастающим или убывающим?
Аноним 04/04/18 Срд 20:12:33  1168039
>>1168026
>>1168028
Блин, я вообще не очень понимаю что у тебя там с таргетсами. Разберись минимально и станет понятно. Ничего там возрастающим и убывающим быть не должно.
У тебя данные обычно представлены матрицей mXn, т.е. m - количество строк - это все твои наблюдения т.е. к примеру если это фильмы
то там будет строка со всеми характеристиками фильма типа название, жанр, длительность и т.д., n - количетство столбцов - это какие-то характеристики твоих данных т.е. в случае с фильмом первый столбец название, второй жанр, третий длительность и т.д.
Если тебе к примеру нужно предсказать жанр(т.е. в твоем тренировочном наборе этот столбец будет, а в тестово нет), ты берешь все остальные столбцы как x т.е. будет матрица mX(n - 1), а столбец y - это жанр mX1. Главное чтобы они у тебя соответсвтвовали твоему иксу т.е. пятый элемент твоего столбца y относился к пятой строке матрицы X.
Со своим датасетом можешь делать что хочешь, главное чтобы сохранялось это соответсвие. А когда ты наконец читанешь про numpy и pandas то поймешь что делать это элементарно и почему твой вопрос такое дно.
Аноним 04/04/18 Срд 20:45:47  1168052
>>1168039
>ты берешь все остальные столбцы как x т.е. будет матрица mX(n - 1), а столбец y - это жанр mX1
спасибо, пояснил за регрешн, спасибо!
но я пока на классификаторе сижу, до регрешина ещё не дошёл. Теперь вижу что те же яица вид сбоку как говорится
Аноним 04/04/18 Срд 21:31:36  1168071
>>1168052
А ты не думал сперва почитать о том что ты делаешь? На заметку, если у тебя классификатор выдает в результате классы которых не было в трейнинг сете >>1168026 , то это внезапный регрессор.
Аноним 04/04/18 Срд 21:34:04  1168072
>>1168071
спасибо
просто сложно въехать во всю эту поеботину. Написано сложновато
Аноним 04/04/18 Срд 21:38:02  1168075
Привет. Про tf. У меня есть матрица M (m x n) и массив целых чисел a длины k, такой что сумма по его элементам равна m. Мне нужно получить тензор T (k x p x n), следующим образом. Возьмем из M a[0] векторов, положим в первую строчку T, остальное дозабьем нулями, до размера p, потом возьмем ещё a[1] следующих элементов из M и так далее.

Какая ето функция?
Аноним 04/04/18 Срд 21:42:57  1168078
>>1168072
Я тебе даже больше скажу, тут не только написано сложновато, это вообще довольно сложные вещи, если ты рассчитываешь на что-то большее чем использование моделей из sklearn. Вероятно, тебе придется вообще всесторонне повышать уровень знаний, а твои вопросы и манера речи свидетельствуют о том что это будет долгий и тернистый путь. Зачем это тебе?
Аноним 04/04/18 Срд 21:49:53  1168083
>>1168078
Чё так агрессивно накинулся на мимокрокодила.
другой мимокрокодил
Аноним 04/04/18 Срд 21:51:06  1168084
Чёт я думал вы тут науку двигаете, а вы тут всё матрицы какие-то умножаете
Аноним 04/04/18 Срд 21:51:12  1168085
>>1168078
нет кроме моделей из sklearn ничего делать не собираюсь. хочу помаксимум с ними разобраться и использовать на благо своей макакской работы. Ну и для себя хочу попробовать написать AI который будет играть со мной в спейсфутбол. ну а на счёт манеры речи. да я неаккуратно пишу чёт ленюсь, извиняй
Аноним 04/04/18 Срд 21:52:50  1168087
>>1168083
Я вовсе не агрессивен. Я максимально дружелюбен. Я засыпаю улыбаясь и обняв подушку, потому что представляю как нахожу друзей в тредике, с которыми обмениваюсь статьями и идеями, разбираю практические проблемы и штурмую PhD.
Аноним 04/04/18 Срд 21:53:53  1168089
>>1168084
ебаные
Аноним 04/04/18 Срд 22:18:55  1168100
ура блять, почти правильно. бля охуенно, спасибо лол
Аноним 04/04/18 Срд 22:25:46  1168105
А можно ли представить нейронную в сеть в виде аналитической функции? Ну то есть в виде символьной записи. Ведь если в w1x1 + w2x2 + ... подставить вместо иксов функции второго слоя, и так далее, то можно выйти на символьную запись, не?
Аноним 04/04/18 Срд 22:30:06  1168111
>>1168105
Можно, это одно из известный свойств нейроночек.
Аноним 04/04/18 Срд 22:37:08  1168116
>>1168105
>>1168111
Удивительное рядом!
Аноним 04/04/18 Срд 22:40:09  1168117
>>1168116
Еще бы посмотреть на этот аналитический вид в общем случае (для сети из N слоев с Mi блоков в каждом слое). А то что-то не могу найти.
Аноним 04/04/18 Срд 22:42:45  1168119
>>1168117
Зачем?
Аноним 04/04/18 Срд 22:44:31  1168121
>>1168119
Я этого хочу.
Аноним 04/04/18 Срд 22:56:43  1168126
>>1167886
Более-менее привел код к рабочему виду,
https://paste.ofcode.org/YZeyPTuk4wckpu9eU3G5k6
вроде оно иногда работает, но как-то странно
Например на digits результаты сильно разные и иногда очень хуевые, если указать достаточно большой градиентный шаг (больше чем 0.01) то на digits обычно оно вообще нихуя не сходится.
Как можно бороться со всем этим?
Аноним 04/04/18 Срд 23:09:50  1168133
>>1168126
хотя не, для digits если указать побольше нейрончиков то точность почти 1
А вот почему такой маленький градиентный шаг непонятно
Аноним 05/04/18 Чтв 01:13:51  1168205
>>1168126
>если указать достаточно большой градиентный шаг (больше чем 0.01)
>вообще нихуя не сходится
>как можно бороться со всем этим
Ставить меньше, очевидно. Если не сходится, значит перелетаешь минимум постоянно. Шаг 0.001 и меньше это норма так-то.
Аноним 05/04/18 Чтв 02:55:22  1168225
>>1168117
> Еще бы посмотреть на этот аналитический вид в общем случае (для сети из N слоев с Mi блоков в каждом слое). А то что-то не могу найти.
Сам нарисуй схему и по ней выпиши, хуле ты. У прости господи Вапника перцептрон и SVM так описаны, да и вообще такая нотация на каждом шагу встречается.
Аноним 05/04/18 Чтв 02:58:37  1168226
>>1168225
>такая нотация на каждом шагу встречается
Прочитал всю фундаментальную книжку из шапки и не нашел такой встречающейся на каждом шагу нотации.
Аноним 05/04/18 Чтв 04:35:39  1168242
>>1168226
> Прочитал всю фундаментальную книжку из шапки и не нашел такой встречающейся на каждом шагу нотации.
Книжка в шапке хипстерская, фундаментальность там рядом не стояла. Поди даже не написано, зачем в нейроночках "нейроны", для чего вообще вход разбивать именно таким образом, из каких соображений это следует и что даёт.
Аноним 05/04/18 Чтв 07:50:24  1168255
Объясните на пальцах как делать imitation learning.
Никак не могу понять, в лекции от беркеле ебут обобщенными формулами без особой конкретики. В пейперах еще больше математической дичи.

Вот допустим есть простая игра где бот двигается в 2d плоскости и может стрелять в других врагов. Наиграл я пару сотен матчей и насобирал данных, что дальше то?
Аноним 05/04/18 Чтв 08:47:22  1168267
1522841597184078.jpg (425Кб, 700x1537)
>>1168255
Аноним 05/04/18 Чтв 09:22:41  1168275
Аноны, курс по теорверу на Udacity - норм? Надо осилить фильтр Калмана, а я на парах ебланил, ничего сложнее комбинаторики не помню.
Аноним 05/04/18 Чтв 09:24:09  1168278
>>1168255
Вряд ли тебе кто-то будет разжевывать тут столь нетривиальные вещи. Иди ботай статьи.
Аноним 05/04/18 Чтв 10:36:53  1168307
Может кто подсказать. Есть 14 временных рядов, значения которых в реальном времени с определенной частотой приходит на сервер (т.е. каждые N мс на серваке получаю массив (1,14) ). Стоит задача сделать классификатор, который сможет распознать в определенном промежутке этих временных рядов какой-то класс. То есть классы описываются не одной строкой (1,14), а определенным набором строк, например (64,14). Выборка для обучения есть (записи). Я сейчас экспериментирую с MLP и LSTM сетями. Но вот не знаю как лучше делать свертку матрицы (64,14) в какую нибудь (1,M). Сейчас я считаю разные статистики для каждого ряда окна (там дисперсию, эксцесс и т.д.) и формирую вектор статистик, который и подаю на вход нейронке. Но результаты не очень. Есть ли какие нибудь другие методы/либы, которые позволят свернуть это двухмерное окно в одномерный вектор? И вообще для такой задачи какие нейронные сети лучше использовать? Стоит ли ковырять LSTM вообще?
Аноним 05/04/18 Чтв 11:06:30  1168317
>>1168307
LSTM это особая атмосфера, с ними надо пару лет плотно позаниматься, чтобы начать понимать как их эффективно использовать. Для твоей задачи, если тебя устроит ограниченное окно, рекомендую банальную 1д свертку по времени.
Аноним 05/04/18 Чтв 11:07:46  1168318
>>1168307
Вот я о чем и говорю. Вы прочитаете про полторы хипстерские нейроночки, и не понимая зачем они вообще, пытаетесь засунуть их везде. У тебя задача на кластеризацию. Вот есть у тебя фичи, полученные из 14 временных рядов в пределах окна из 64 значений. Казалось бы, собирай их в один вектор и подсовывай карте Кохонена, построенной на исторических данных, где ты можешь отметить векторы фич, ассоциированных с искомыми событиями. Все, дальше смотришь насколько близко тестовый вектор фич проецируется к нужному тебе. Потом, если у тебя есть помеченные наборы таких фич, можно их попробовать разделить на классы с помощью SVM, м.б этого будет достаточно. Зачем тут lstm вообще, ты же пол не болгаркой подметаешь.
Аноним 05/04/18 Чтв 11:17:01  1168327
>>1168317
Спасибо за совет. А существуют ли какие нибудь готовые библиотеки python для выполнения сверток?
Аноним 05/04/18 Чтв 11:21:44  1168328
>>1168318
Линейные классификаторы я тоже использовал, но они отработали хуже чем тот же двухслойный MLP. Как на сырых рядах, так и на статистических фичах. Скорее всего, это из-за данных, потому что у них очень неявное разделение на классы. Поэтому не факт, что мое решение с подсчетом статистических фич для окон явно описывает класс. Но нейронка в пределах 80-85% смогла распознать. Но хотелось бы конечно результат получше.
Аноним 05/04/18 Чтв 11:26:00  1168330
>>1168328
> Линейные классификаторы я тоже использовал, но они отработали хуже чем тот же двухслойный MLP.
Но я про линейные классификаторы ничего не говорил. Как вариант, можешь ещё бустинг навернуть.
Аноним 05/04/18 Чтв 11:50:29  1168334
Блять, опять у вапникошизика обострение. Бро, иди нахуй отсюда, ты уже просто засираешь тему шитпостом, и не мешаешь другим.
Аноним 05/04/18 Чтв 12:36:54  1168355
Untitled.jpg (21Кб, 640x505)
Здравствуйте, я туп как пробка, учился на тройки, но поступил в магистратуру, чтобы не сесть на бутылку. У меня следующий косяк - мне задали здание в магистратуре сделать так, чтобы с помощью регрессионных методов машинного обучения я взял точки и соединил их корреляционной линией. Как на приложенной картинке. Я взял sklearn и скормил ему точки, а в ответ он выдал мне требуемую линию. Все счастливы, все довольны.

Но потом меня обоссали и сказали, что регрессионные методы уже давно известны, ты втёр нам старьё, Вася! Делай тоже самое, но только нейронными сетями! БЫСТРА! ОДНА СУТКА ВРЕМЕНИ ТЕБЕ!

ПОЭТОМУ, ПОДСКАЖИТЕ, ПОЖАЛУЙСТА, КНИГУ НА РУССКОМ, ГДЕ ОПИСАН КАКОЙ-НИБУДЬ ФРЕЙМВОРК ИЛИ БИБЛИОТЕКА С НЕЙРОННЫМИ СЕТЯМИ, ЧТОБЫ МОЖНО БЫЛО ЕЙ СКОРМИТЬ ТОЧКИ И ЧТОБЫ НЕЙРОННАЯ СЕТЬ НАРИСОВАЛА КОРРЕЛЯЦИОННУЮ ЛИНИЮ

Прошу книгу на русском, так как осталась одна сутка. Пока ищу, не могу найти. Вроде, задачу регрессии не принято нейронными сетями решать.

Ну или хотя бы подскажите библиотеку, которая может сделать регрессию нейронными сетями
Аноним 05/04/18 Чтв 12:40:34  1168356
>>1168355
Ты не поверишь.
http://scikit-learn.org/stable/modules/generated/sklearn.neural_network.MLPRegressor.html
Аноним 05/04/18 Чтв 12:43:36  1168357
>>1168356
О, как хорошо, спасибо огромное. Целую тебя, анон, ты просто прекрасен, ты как лучик света в тёмном царстве.
Аноним 05/04/18 Чтв 12:45:34  1168358
0011-1258241177[...].png (13Кб, 429x412)
>>1168357
Не смущай меня, пожалуйста.
Аноним 05/04/18 Чтв 13:10:06  1168369
сап двач мур мур мур мур мур
ЕensorFlow или Sklearn??? для макаки
Аноним 05/04/18 Чтв 13:23:46  1168373
>>1168369
sklearn проще, даже на русском много книг есть с описанием sklearn. А TensorFlow потяжелее хреновина.
Аноним 05/04/18 Чтв 13:28:56  1168374
>>1168242
>Поди даже не написано, зачем в нейроночках "нейроны"
Кек. А зачем?
Аноним 05/04/18 Чтв 13:34:47  1168375
>>1168374
>А зачем?
Да и действительно. А потом читари таких книжек приходят сюда и говорят, "а что нейроночку можно в виде функции записать?!?!", "а что, нейроночка может в регрессию????" итд.
Аноним 05/04/18 Чтв 13:51:43  1168381
>>1168375
А в каких книжках это фундаментально описано?
Аноним 05/04/18 Чтв 14:02:32  1168392
>>1168373
вкатился в sklearn, сейчас перекатываюсь на TesorFlow. Подкупило макакское комьюнити впику научному sklearn. И то что это гугл, который умеет в макакское API
Аноним 05/04/18 Чтв 15:26:29  1168416
>>1168375
Вместо чтобы выебываться и шизить, быстрее бы привел запись нейронки в виде функции, если уж в твоих совкодрочерских книжках это на каждом шагу.
Аноним 05/04/18 Чтв 15:41:38  1168421
1.png (101Кб, 1106x602)
2.png (59Кб, 1100x265)
3.png (108Кб, 813x622)
>>1168416
>в твоих совкодрочерских книжках это на каждом шагу.
Это вообще в принципе на каждом шагу, почти в любой книжке или статье в тему. Соотв-но: однослойный перцептрон, многослойный перцептрон, SVM в виде двуслойной сети.
Аноним 05/04/18 Чтв 15:55:43  1168426
>>1168421
А теперь то же без реккурентной формы для отдельного нейрона. Для всей сети, как чисто аналитическую функцию от входов и весов для N-слойного перцептрона.
Аноним 05/04/18 Чтв 15:58:32  1168429
>>1168426
Вторая же картинка, вся сеть.
Аноним 05/04/18 Чтв 16:07:54  1168435
>>1168429
>i-th neuron in the l-th layer
Аноним 05/04/18 Чтв 16:11:00  1168437
а что это такое?
Аноним 05/04/18 Чтв 16:12:01  1168439
>>1168437
Это сумма. Ты вообще читаешь, что тебе пишут? >>1168426
Аноним 05/04/18 Чтв 16:13:41  1168441
>>1168435
И? Подставляй нужные функции активации и сколько там тебе нужно слоев и нейронов в каждом слое и обрящешь. Можешь даже на бумаге посчитать. Это же общая формулировка, для любого случая.
>>1168437
Пиздец. Значок суммы впервые видят, какие вам нейроночки, таблицу умножения выучите хоть...
Аноним 05/04/18 Чтв 16:14:52  1168442
>>1168441
>Подставляй
Понятно. То есть в книгах в общей форме такой записи нет. А орали что на каждом шагу
Аноним 05/04/18 Чтв 16:17:37  1168444
алло.jpg (272Кб, 567x567)
>>1168442
>То есть в книгах в общей форме такой записи нет.
Алло, я и привел общую форму.
Аноним 05/04/18 Чтв 16:18:20  1168447
>>1168444
Алло, перечитай еще раз: >>1168426
Аноним 05/04/18 Чтв 16:22:28  1168456
>>1168327
Tensorflow, pytorch.
Аноним 05/04/18 Чтв 16:25:07  1168458
>>1168447
Достаточно.
Сьеби, жирун.
Аноним 05/04/18 Чтв 16:25:55  1168460
>>1168458
От тебя никакого толка, только выебыаешься. Как доходит до дела, сливаешься.
Аноним 05/04/18 Чтв 16:26:06  1168461
>>1168447
Ты хочешь частный, конкретный случай для конкретной архитектуры сети и конкретных функций активации. В этой книжке http://b-ok.xyz/s/?q=AE6CE64B978DCC3E4C0623C70D6D5973&e=1 похожие примеры разбираются, она даже в шапке была когда-то по моему совету, но выпилили. Я пользуясь случаем, еще раз посоветую эту книжку.
Аноним 05/04/18 Чтв 16:26:47  1168464
а что такое N-слойный перцептрон? ёбаныйврот
Аноним 05/04/18 Чтв 16:29:28  1168465
>>1168334
Да пусть сидит уже, он стал своим, домашним. Как старый таракан.
Все лучше чем времена нашествия дебильных шизиков из /ссы, бесконечно толкущих воду в ступе стенами словесного поноса про ишкуштвеный нтеллехт.
Аноним 05/04/18 Чтв 16:33:46  1168466
Что я могу сказать - читайте нормальную литературу, никакие хипстерские высеры а-ля то что в шапке вам никаких конкретных знаний по этой теме не дадут. И не надо кукарекать, что все типа как устарело, нихуя там не устарело, все, что есть сейчас - это продолжение работ тех самых дидов из 50-х (Арнольд, Колмогоров, Розенблатт), 60-х (Вапник) итд. Самые новомодные сверточные нейроночки - это просто фантазии на тему неокогнитрона + все того же перцептрона, ничего другого там нет и не было. И хуй вы поймете, как все это работает, если не знакомы с основами.
Аноним 05/04/18 Чтв 16:52:40  1168476
>>1168466
А по моему книга из шапки вполне так, если разобраться во всем что там написано то знать будешь куда больше большинства экспертов из этого треда.
Аноним 05/04/18 Чтв 16:54:57  1168477
>>1168476
Поддвачну. Тем более есть хороший русский перевод. Пока всякие недоснобы воротят нос, мол "мам, скажи им, читать на русском это никрута", другие ведут себя адекватно и вникают в интересные вещи.
Аноним 05/04/18 Чтв 17:32:16  1168496
>>1168477
Русек то тут причем? И это не снобство, одну книжку перевели, 1000 других не переведут. Про пейперы я вообще молчу + будешь путаться в терминологии + реддиты, стекоферфловы, кворы где можно задать вопрос или почитать развернутый ответ тебе тоже не доступны.
Вкатываться в датасаенс не зная английского край тупости. Даже русскоязычные курсы постоянно ссылаются на англоязычные термины и статьи
Аноним 05/04/18 Чтв 17:34:26  1168498
>>1168496
Никто и не спорит, что английский нужен.
Аноним 05/04/18 Чтв 18:36:23  1168544
image.png (736Кб, 976x1815)
>>1168437
Аноним 05/04/18 Чтв 22:55:41  1168762
>>1168544
Схоронил.
Аноним 05/04/18 Чтв 23:34:59  1168799
>>1168762
Теперь ничто тебе не помешает получить PhD по нейроночкостроению.
Аноним 05/04/18 Чтв 23:39:43  1168808
>>1162617
плюсую. сам сперва купил видеокарту для этого. занялся обучением. хватает проца с головой. даже достаточно сложные на мой взгляд модели требуют минут десять. а карта манит себе спокойно
Аноним 06/04/18 Птн 00:08:55  1168835
>>1168799
Куда поступать чтобы получить PhD? Мне нужны варианты если меня не возьмут в мит и калтех. В своем универе я уже всех задолбал.
Аноним 06/04/18 Птн 00:20:23  1168849
>>1168835
А ты наукой решил заняться? Зачем тебе пхд?
Аноним 06/04/18 Птн 00:25:21  1168851
>>1168849
Без него мне тянки не дают (
Аноним 06/04/18 Птн 00:28:53  1168853
>>1168851
Проведи исследование, собери данные миллионов мужчин, затем данные о том кому дают тянки и кому не дают, найди наиболее оптимальный вектор развития к локальному экстремуму, далее вкладывай время-деньги пока не начнут давать.
Аноним 06/04/18 Птн 01:24:15  1168883
>>1168853
Проанализировав данные о 12 826 322 мужчинах мне удалось доказать что в локальном максимуме, достижимом из моего текущего состояния, вероятность того что мне даст тянка не превышает q.7E-7
Аноним 06/04/18 Птн 01:43:34  1168903
>>1168883
Тебе нужно увеличить свой моментум, чтобы проскочить этот локальный минимум.
Аноним 06/04/18 Птн 01:45:10  1168905
>>1168903
Ему нужно совершать случайные блуждания по бабам.
Аноним 06/04/18 Птн 03:02:12  1168923
>>1168466
Арнольд, Колмогоров сложно пишут. Ты видел доказательство работы нейроночек у Колмогорова? Там очень не просто. Ну только если ты не выпускник матфака. Вапника не читал, не знаю, новерное все же стоит почитать.
Аноним 06/04/18 Птн 05:34:08  1168939
Новый топчик от диипмайнд: https://arxiv.org/abs/1804.01756
boosting vs bagging? Аноним 06/04/18 Птн 17:02:06  1169180
Няши, есть ли где-то исследования о: boosting vs bagging?
Не является ли bagging более продвинутым алгоритмом (хотя он и проще) хотя бы потому что он не может уйти в редкие цепочки вида (A>N1)&(B<N2)&(B>=N3)&(...) ? Покрывает ли boosting всё алгебраическое множество, когда положительные результаты в диаметрально противоположных углах пространства? Например (A>0.95)&(B>0.95) и (A<0.05)&(B<0.05) ?
Аноним 06/04/18 Птн 21:28:10  1169297
Еще свежачок от какого-то норвежского ноунейма: https://arxiv.org/abs/1804.01508
Вапниколюб должен быть доволен.
Аноним 07/04/18 Суб 09:26:08  1169493
>>1169297
сенсационные новости о том, что теория вапника не применима к нейронкам
https://calculatedcontent.com/2018/04/01/rethinking-or-remembering-generalization-in-neural-networks/
Аноним 07/04/18 Суб 10:01:46  1169505
>>1169493
Я знаю, и это давно известно. Собственно, это очевидно из практики, даже если не углубляться в детали теории.
Но моя ссылка вообще не об этом. Я люблю рассматривать радикально новые модели, а-ля всякие NTM и spiking networks, все-таки просто нейроночки уже мейнстрим и немного наскучили (хотя DNC и прочее еще нужно дорабатывать).
У этого чувака прям совсем другая идея, интересно же. Хотелось бы статью обсудить с кем-то серьезно.
Аноним 07/04/18 Суб 10:41:51  1169525
>>1169505
> Я люблю рассматривать радикально новые модели, а-ля всякие NTM и spiking networks,
Все равно эти модели либо конечно-оптимальны либо асимптотически- оптимальны. Даже если там нахуевертили столько всего, что vc- размерность для этой мутоты заебешься высчитывать. С этих двух стульев машоб не слезет, кроме них там и нет ничего. То, что на датасете типа белого шума SVM не работает, ебать Америку открыли. Будто что-то другое сработает в условиях чистого рандома. Эти все "радикально новые модели" от хипстеров ничего нового не несут, максимум - взгляд с другой стороны на общеизвестные вещи.
Аноним 07/04/18 Суб 11:08:11  1169535
Алсо, теория Вапника - не святое писание, а одна из возможных теорий, на базе которой можно строить алгоритмы машоба не вслепую. Естественно, могут быть созданы и другие, вот только пока ни у кого мозгов не хватило.
Аноним 07/04/18 Суб 16:33:00  1169674
а вот предположим, я натренировал классификатор в sklearn на 200 семплах и юзаю его для предсказаний что это за цеке. Можно ли его теперь дотренировывать ещё (дальше)?
мимокрокодил
Аноним 07/04/18 Суб 16:37:49  1169678
>>1169525
>Все равно эти модели либо конечно-оптимальны либо асимптотически- оптимальны
то есть не имеет смысл что то придумывать? имеет смысл брать модели из коробки как есть, и натренировывать их на датасетах под конкретную задачу (пиксели или лексика) та?
Аноним 07/04/18 Суб 16:47:20  1169681
>>1169674
Если есть в параметрах warm_start, то можно грузануть предыдущий результат и дообучить.
Аноним 07/04/18 Суб 16:54:05  1169685
>>1169681
забавно. то есть модель теоретически может расползтись на 3мб в оперативной памяти?
Аноним 07/04/18 Суб 16:54:57  1169686
>>1169678
> то есть не имеет смысл что то придумывать?
Придумывать можно по-разному. Нахуярить слоёв, непойми чего, а потом утверждать что Вапник хуй, потому что vc- размерность твоей ебулды подсчитать невозможно, это в любом случае не путь здорового человека. Алгоритм должен выводиться из математической постановки задачи обучения, а не из интуитивных представлений о том, "как нада".
Аноним 07/04/18 Суб 17:07:13  1169690
>>1169686
правильно ли я понял, что в sklearn есть дохера разных оценителей для всех задач с которыми сталкивается машоб и нужно просто выбрать один из этих об]ектов и обучить его и и nакой естимитор обучится мгновенно. Нежели собрать свою модель из слоёв во всяких хипстерских машоблибах типа Keras?
Аноним 07/04/18 Суб 17:50:03  1169699
>>1169686
>Алгоритм должен выводиться из математической постановки задачи обучени
Ну и как успехи, много алгоритмов вывел? Где можно ознакомится?
Аноним 07/04/18 Суб 18:41:56  1169734
>>1169685
>3 мб
Что-то вы совсем уж бедуете в своих нейроночках. Почему не делаете нейроночки на гигабайты?
Аноним 07/04/18 Суб 19:27:11  1169755
двач. Нахуя нужна фукнция активации внутри нейрона?
Аноним 07/04/18 Суб 19:29:29  1169759
>>1169755
Чтобы придать системе нелинейности.
Аноним 08/04/18 Вск 11:42:11  1170024
>>1169759
а разве не для того, чтобы смапить результат сложения предыдущего слоя в заданный рейндж для данной сети напр 0<activation<1 ?
Аноним 08/04/18 Вск 12:29:03  1170044
image.png (644Кб, 598x599)
Этот шум в гугл капче специально от нейроночек?
Аноним 08/04/18 Вск 14:27:33  1170123
>>1169759
Ответ математика - правильный, но бесполезный
Аноним 08/04/18 Вск 15:16:08  1170141
>>1170123
> Ответ математика - правильный, но бесполезный
Умный дохуя? Ответь полезнее. Нейроночки это изначально математика, тебе ответ пчеловода нужен?
Аноним 08/04/18 Вск 15:49:53  1170153
Двощ. Объясни, почему если пидарашки такие дохуя умные, в этом списке нет хвалёного МФТИ или Бауманки со своей опенсорсной либой для бекенда нейросетей?
Вот то-то поэтому хр выёбваться уже
Аноним 08/04/18 Вск 16:12:25  1170157
>>1170153
Тхеано мертв, мелгомягкие никому не нужны, слесарьплов для макак. Труъ это торч.
Аноним 08/04/18 Вск 16:25:41  1170163
>>1170157
ну и что что для макак. Я макака и горжусь этим
Аноним 08/04/18 Вск 16:48:37  1170168
>>1170153
>хваленого МФТИ

Хваленого кем? Абитурой в образоваче?

Пистех - та ещё помойка
Аноним 08/04/18 Вск 17:49:32  1170202
>>1170168
>Пистех - та ещё помойка
Обоснуй, пожалуйста.
Я слышал, что в Физтехе зубодробительно сложно учиться, но при этом дают очень хорошую физмат-подготовку. Что там?
Аноним 08/04/18 Вск 18:19:41  1170224
>>1170202
Это ПТУ для математиков, где тебя вусмерть задрочат решением примитивных пазлов, замаскированных под задачи.
Аноним 08/04/18 Вск 19:51:19  1170284
>>1170224
Что тогда не пту для математиков?
Аноним 08/04/18 Вск 19:53:28  1170286
>>1170284
MIT
Аноним 08/04/18 Вск 21:48:01  1170385
>>1170286
Вся суть хипстоты. Услышал что MIT круто, пересказал всем друзьям, пистех теперь говно потому что не MIT, а MIT эта крута.
Аноним 08/04/18 Вск 21:54:11  1170389
>>1170385
Даже если это так, он абсолютно прав.
Аноним 08/04/18 Вск 22:15:17  1170398
>>1170385
Ну ты бы хоть лекции по матану там посмотрел, сразу бы все вопросы отпали.
Аноним 08/04/18 Вск 23:51:58  1170464
>>1170398
Погуглил учебный план по калькулусу, посмотрел пдфы. Что там такого сверхъестественного? Я как-то смотрел программу пистеха, там примерно то же было.
мимо примат СПбГУ
Аноним 08/04/18 Вск 23:52:34  1170465
>>1170398
Там лекции по матану наконец-то превратили в интерактивный порно квест, в котором теория преподается в виде стендап комедий с Джорждем Карлином как высказался >>1164951 ?
Аноним 09/04/18 Пнд 01:47:48  1170510
>>1164239
Даже лучше - http://sicpvn.sdf.org/index.html
Аноним 09/04/18 Пнд 01:48:57  1170511
image.png (519Кб, 841x672)
anime.webm (1585Кб, 854x480, 00:00:07)
>>1170510
Аноним 09/04/18 Пнд 08:42:28  1170574
>>1170511
В голосяндру с носа пездоглазихи
Аноним 09/04/18 Пнд 09:32:15  1170600
>>1170511
Так в эту хуету можно поиграть или она ещё в разработке?
Аноним 09/04/18 Пнд 10:12:31  1170612
DWPLBfBXUAAr5f3[...].jpg (95Кб, 1400x825)
Где можно пообщаться о нейроночках без быдла и без $регистрации?
Аноним 09/04/18 Пнд 10:54:12  1170628
>>1170612
В этом треде. Если серьезный бизнес то надо идти регистрироваться и на реддит и писать там.
Аноним 09/04/18 Пнд 11:28:46  1170635
>>1170628
> без быдла
> пара десятков последних постов
Аноним 09/04/18 Пнд 12:13:47  1170653
>>1170635
Ну это просто ты пришел.
Аноним 09/04/18 Пнд 12:27:23  1170670
>>1170612
добавил быдло вопрос
Аноним 09/04/18 Пнд 16:03:47  1170740
>>1170464
Я про видеолекции(калькулус, теорвер, линал, диффуры), после них можно свободно наворачивать любую современную книгу в которой предпологается знание соответствующего раздела матана.
После постсовковых шаражек ты разве что можешь наворачивать ненужные упражнения на листочках, а понимания зачем все это нужно 0.
Аноним 09/04/18 Пнд 16:06:14  1170741
Господа, а неужели, чтобы воспользоваться Tensorflow в PyCharm обязательно надо устанавливать гигабайты Nvidia GPU софта?
Аноним 09/04/18 Пнд 16:14:20  1170744
>>1170740
Зочем видеолекции, когда прочитать быстрее?
Но могу подтвердить, матан стал лучше пониматься после забугорной книжки для идиотов 1917 года.
Аноним 09/04/18 Пнд 16:19:56  1170747
>>1170741
Можешь на процессоре считать.
Аноним 09/04/18 Пнд 16:51:14  1170766
Как бы так вкатиться в машоб, чтобы еще и хоть чуть-чуть денежек зарабатывать на нем?
Аноним 09/04/18 Пнд 17:01:44  1170771
>>1170766
Преподавай, снимай лекции, веди курсы.
Аноним 09/04/18 Пнд 17:11:29  1170777
финансовая аналитика жи
нет нет проскакивают жирные вакухи
Аноним 09/04/18 Пнд 17:13:39  1170779
>>1170744
> 1917 года
Ты красный как комуняка
Аноним 09/04/18 Пнд 17:17:57  1170782
>>1170779
от книг зависит.
У нас например тоже есть бодрые книги 60х годов. В то время у нас был расцвет науки. А потом в 80-е всё пришло в упадок и утонуло.
Аноним 09/04/18 Пнд 17:19:11  1170785
Пробовал я читать Колмогорова. Строго, академично, но нечитаемо. Поток формальных определений, не понятно зачем нужных.
Аноним 09/04/18 Пнд 17:25:22  1170789
>>1164705
С тобой можно где-нибудь вне треда пообщаться? У меня абсолютно та же ситуация.
Аноним 09/04/18 Пнд 19:47:49  1170860
>>1170740
Ок, посмотрел пару лекций. Там просто приводят примерчики типа "используется в физике", "почему производная - скорость" и "что такое двойной интеграл". Ну охуеть, как будто в России преподы такого не дают. Где обещанная магия-то? Я и до этого мог современные книжки читать. недавно, например, по теории управления и теории информации книжки из нулевых читал
Аноним 09/04/18 Пнд 20:34:12  1170882
Я взял простой пример нейронной сети выполняющей задачу регрессии:
http://mexuaz.com/opencv-machine-learning-03/

Код написан на Tensorflow 1.2/Keras 2.0.5

Я хотел взять ту же задачу, распараллелить её и выполнять в полотора-джва раза быстрее на нескольких ядрах. Я стал искать как же в Tensorflow/Keras делается параллельность на нескольких ядрах и нихрена не нашёл, нашёл только про подрубание GPU видеокарты.

Насколько мне показалось, в Tensorflow/Keras автоматически используется параллельность ядер.

НО! Узнать об этом точно у меня не получается, так как у меня всего два ядра. Я взял PyCharm в котором у меня код программы на Tensorflow/Keras, я и в диспетчере задач отрубил второе ядро, оставив только одно. И эта программа на Tensorflow/Keras выполнилась вдвое медленнее.

ПОЭТОМУ Я ХОЧУ СПРОСИТЬ, ПРАВИЛЬНО ЛИ Я ПОНЯЛ, ЧТО В ПРОГРАММЕ НА Tensorflow/Keras АВТОМАТИЧЕСКИ ИСПОЛЬЗУЮТСЯ ВСЕ ДОСТУПНЫЕ ЯДРА ДЛЯ УСКОРЕНИЯ НЕЙРОННОЙ СЕТИ?
Аноним 09/04/18 Пнд 21:59:25  1170942
>>1170882
Некоторые операции распараллеливаются, например умножение больших матриц. Но вообще ТФ это про ГПУ, там над ЦПУ производительностью никто не парится особо.
Аноним 10/04/18 Втр 09:53:26  1171110
>>1170882
Даже больше, если у тебя видюха от инвидии, слесарь тебе сам всё будет на ней считать
Аноним 10/04/18 Втр 10:06:30  1171118
>>1170782
Я не спорю, просто на 1917 год триггернулся как красный комуняка
Аноним 10/04/18 Втр 10:08:49  1171122
>>1170942
Спасибо
Аноним 11/04/18 Срд 12:28:06  1171615
Сап аноны, я короче просто анализирую что делают нейросетки, не связано с программированием, но у меня есть к вам вопрос.

Вот тренируется нейронка, она может сразу воспроизвести результат, фактически на этом всё и держится, на том что нейронка может что-то воспроизвести.

Может ли быть так, чтобы был проёбан этап тренировки, но оставался этап воспроизведения? нихуя непонятно наверное, но я не знаю как иначе спросить
Аноним 11/04/18 Срд 13:46:39  1171640
>>1171615
> Может ли быть так, чтобы был проёбан этап тренировки, но оставался этап воспроизведения?
Нет. Тренировка это настройка параметров функции, аппроксимирующей зависимости выходов датасета от входов. Перед тренировкой эти значения инициализируются какими-либо числами, но без тренировки ответ сети никак не будет связан с текущим датасетом.
Аноним 11/04/18 Срд 16:28:34  1171758
>>1171640
что такое
> аппроксимирующей
?
Аноним 11/04/18 Срд 17:22:04  1171780
>>1171758
Нда, крута...
Аноним 11/04/18 Срд 17:31:46  1171782
>>1171615
Можно, но зачем? Вон прямо берёшь и псевдокодишь:
function hellocommaworldwithoutneuralnetworks () {
print("Hello, world");
}

Или даже

If "еда":
call слюна;
Аноним 11/04/18 Срд 17:32:18  1171783
>>1171615
>>1171782
Аааа... Погугли мемоизацию или как-то так.
Аноним 11/04/18 Срд 17:50:20  1171789
>>1171782
>>1171640
Сорре, парни, вопрос обновился:
Воспроизведение рандома или пустоты это всё равно воспроизведение чего-то. Хотелось бы понять возможно ли оставить голую сущность "воспроизведение" без чего-то ещё.
Аноним 11/04/18 Срд 20:19:58  1171850
>>1171789
Ты не зная что такое аппроксимация пытаешься родить вопрос "можно ли получить вывод из нейронки которая не обучалась"?. Ответ - можно. Подавай что-то на вход, после умножения на случайно сгенерированные веса ты получишь свой мусор на выход. Если копать еще глубже в "голую сущность", то можно вывести веса девственной нейронки, и это будет тот же мусор. Простая нейронка это результат умножения массивов, никаких лишних сущностей нет. Я просто надеюсь что ты еще учишься в средней школе и пытаешься найти свой путь в жизни, поэтому не тыкаю мордой в то какой ты биомусор.
Аноним 11/04/18 Срд 20:46:28  1171874
>>1171850
Нет, парень, я спрашиваю как спрашиваю. Вопрос про воспроизведение. Голое воспроизведение без подразумеваемых в нём данных вообще. Продублировал вопрос также в философаче
https://2ch.hk/ph/res/71196.html#71997

>>1171758 это спросил тот кто не хотел гуглить.
Аноним 11/04/18 Срд 20:57:24  1171882
>>1171874
Если ты спрашиваешь так что тебя никто не может понять, то проблема на твоей стороне, учись формулировать мысли. Ты зачем-то упомянул нейронки в треде про машинное обучение, а оказывается имел ввиду абстрактные сущности. Если вопрос сугубо философский, можно ли воспроизводить пустоту, то ты ошибся тредом. Если вопрос научно-прикладной, то голым воспроизведением является функция воспроизведения, можешь не передавать в нее никаких данных, в контексте программы она является чистым и незамутненным воспроизведением.
Аноним 11/04/18 Срд 21:00:07  1171885
>>1171874
Я другой анон, но тоже не могу вкурить твой вопрос. На вход нейронки подается некий сигнал, на выход - преобразованный сигнал. То, как он будет преобразован, зависит от исследователя, от того, как он построит сеть и как обучит ее. Всё. Если не настраивать нейронку под задачу, то она будет выдавать что-то рандомное и никому нахуй не нужное.
Аноним 12/04/18 Чтв 02:56:48  1172039
>>1171874
> Голое воспроизведение без подразумеваемых в нём данных вообще.
Это тебе в лямбда исчисление. Там как раз такая нотация - голая абстракция функции любой сложности и структуры, в т.ч нейроночки конечно. Классика чтива - Барендрегт. Но ты не осилишь.
Аноним 12/04/18 Чтв 10:21:04  1172109
Сап нейронач
Собираюсь вкатываться в тему не бейте лучше обоссыте, но есть проблема: у меня достаточно старый комп, к тому же видюха от амд, пробовал запускать примеры на керасе, все жутко тормозит, тензорфлоу естественно не считает на гпу.
А я как раз собирался избавляться от десктопа в пользу ноутбука. И тут встал вопрос: стоит ли тратить дополнительные 20-30к за ноут с 1060? На буржуйских сайтах везде пишут, что практичнее будет купить ноут подешевле, разницу потратить на облако от Амазона. Но мне кажется, что это какой-то булшит: облако у Амазона стоит по несколько баксов в час, т.е. разницы в цене мне хватит примерно на 200-300 часов. Это же не очень много?

Вообще, на практике, насколько мне хватит 1060 для учебных заданий и своих проектов?
Аноним 12/04/18 Чтв 11:54:32  1172160
>>1172109
Если ты будешь гонять нейроночки на ноуте, он перегреется и сгорит через месяц. У них охлаждение не предназначено для этого.
Аноним 12/04/18 Чтв 11:57:26  1172164
>>1172109
Поступила на соответствующую специальность, гоняю нейронки на сервере универа, брат жив, зависимость есть.
Аноним 12/04/18 Чтв 16:06:12  1172315
>>1172109
>собирался избавляться от десктопа в пользу ноутбука
ну и дурак, энжой шейный хондроз
Аноним 12/04/18 Чтв 16:08:57  1172319
>>1172315
15 лет пользуюсь только ноутами, причем лежа на кровати. Никакого хондроза, шея говорит малацца, позвоночник воскрес. И никогда не вернусь на стационарный комп. Пиздец блять, 3018 год на дворе, а всё пользуются стационарными гробами.
Аноним 12/04/18 Чтв 16:32:18  1172346
>>1172319
>причем лежа на кровати.
А у меня кровати нет
Аноним 12/04/18 Чтв 16:33:13  1172348
>>1172346
>А у меня кровати нет
Попробуй. Базарю, еще захочешь.
Аноним 12/04/18 Чтв 17:21:13  1172387
Насколько вообще вкатившийся ценен на рынке труда?
У меня есть 2 года опыта серверной разработки на сях, щас ботаю мл по специализации яндекса, потом планирую нейронок навернуть и быдлопроектик свой навелосипедить.
Но я ведь просто червь-пидор по сравнению с ребятами из ШАД например, или даже просто профильных кафедр МФТИ/МГУ/ВШЭ. Кому я нужен то?
Сам физик изи МИФИ, c матаном +- дружу.
Аноним 12/04/18 Чтв 17:31:07  1172397
>>1172387
>2 года опыта серверной разработки на сях
>вкатывается в машоб
Ты ведь понимаешь, что перекатываешься из условного НИИ жопоебли в песочницу к детям с синдромом дауна, чтобы жрать вместе с ними песок?
Аноним 12/04/18 Чтв 17:32:36  1172399
>>1172397
>из условного НИИ жопоебли в песочницу к детям с синдромом дауна
Да ну так-то норм перемена.
Аноним 12/04/18 Чтв 17:36:09  1172400
>>1172397
>>1172399
Ну нет лол. Я в норм конторе веслаю.
По существу есть че сказать?
Аноним 12/04/18 Чтв 19:30:14  1172506
Анончик, как на основании истории прослушивания что рекомендовать?

user->items -> black box -> user -> must_to_see_items

Предполагаю что для начала нужно пользователей как то кластеризовать по схожести их историй просмотра, а затем из максимально близко расположенного выдавать пользователю рекомендации.

На ум приходит k-mean или там knn, но они как то слабо подходят, объектов для рекомендации порядка 100к.
Аноним 12/04/18 Чтв 20:00:42  1172526
>>1172506
SOM ежжи. Оно очень хорошо классифицирует музло по соотв. фичам, может само, без учителя, распознавать жанры. Примеры есть в этой книжке:
http://gen.lib.rus.ec/book/index.php?md5=6F2C8128E2ADE1815E1967AEB57AA351
Analysing the Similarity of Album Art with Self-Organising Maps....Pages 357-366
Где-то видел даже готовый софт для автоматической экстракции фич из папок с мп3 в виде, пригодном для самоорганизующихся карт, сейчас нагуглить не могу. Но это вот они http://www.ifs.tuwien.ac.at/dm/somtoolbox/ делали. Суть рекомендаций в случае карт Кохонена - рекомендовать близкорасположенные к истории просмотра пейсни и даже жанры.
Аноним 12/04/18 Чтв 20:44:13  1172544
>>1172319
>Никакого хондроза, шея говорит малацца
Сколько тебе лет, сынок? И что ты на кровати с ноутом делаешь? Дрочишь что ли? Люди вообще-то работают.
Аноним 12/04/18 Чтв 20:45:03  1172546
>>1172544
42 года. Я работаю лежа. Сынок.
Аноним 12/04/18 Чтв 22:09:57  1172590
>>1172109
Ноут "все в одном" - хуевая идея. Надо сделать так: иметь СЕРВЕР, который дома будет пахать 24х7 и обучать нейронки. И любой ноут, через который ты будешь подключаться к серверу в режиме терминала - даже через банальный тимвьювер. При чем за сервер вполне может сойти твой днищекомп, оперативы только докупить. У меня, например, в компе 2012 года пашет 1080Ti и пашет примерно на 30% медленнее, чем его сосед с современным процессором и SSD. То есть на уровне 1080, а разница в цене между 1080 и 1080Ti - 10 тысяч рублей. То есть особой выгоды мне менять мой комп 2012 года на более новый нет. Но тот комп у меня довольно неплохой, шестиядреный феном с кучей оперативы и хорошим кулером процессора, не знаю, что у тебя там за дно.

Теперь, почему такой ноут - хуевая идея.
1. Это хуевое вложение средств, потому что они слабо апгрейдятся. Ну купишь ты 1060, через 2 года эта 1060 будет дном днищенским, в десктопе ты ее продашь, купишь новую и вставишь в тот же самый десктоп, а в ноуте что? Ноут только продавать и покупать новый.
2. Ноуты аналогичного железа сильно дороже.
3 У геймерских ноутов (а это будет геймерский ноут) проблемы с охлаждением, они не расчитаны работать 24х7 и что-нибудь у тебя поплавится, поведет от температуры, а еще есть шанс проблем с питанием. Если только не брать убер-ноут с оверпрайсом - а ноуты и так оверпрайснуты по сравнению с десктопным железом.
4. Допустим тебе надо куда-то поехать и ты берешь ноут с собой... В итоге ты стопоришь обучение, или едешь с печкой в портфеле.
5. Ноут больше 13" и временем работы меньше 8 часов - зашквар для колхозников и гастарбайтеров, видюхи, мощной понятное дело, в таком ноуте быть не может.
Аноним 12/04/18 Чтв 22:16:03  1172594
performance.jpg (68Кб, 1417x752)
Что касается амазона, то стоит он не несколько баксов, а 20-30 центов за спот, но они уже очень тормозные и поэтому невыгодны (есть и более быстрые инстансы, но они дороже). Это или на недельку поиграться, или для бизнеса которому нужно запускать нейронки для комнсьюмера и они не хотят тратиться на свою серверную. А так очень невыгодно, и также неудобно, чем работа на своей машине.
Аноним 12/04/18 Чтв 23:08:45  1172625
>>1162357 (OP)
Может тут кто знает.
ставлю rpy2. Для этого поставил R последний, х64. У директории r\bin есть config.sh, который задействуется при установке
R.exe CMD config, но выдаётся ошибка "sh не является программой/командой". В интернете пишут, что может быть проблема в прописанных путях в переменных окружения, но у меня вроде всё ок.


-------------
C:\PROGRA~1\R\R-34~1.4\bin\R CMD config --ldflags
"sh" не является внутренней или внешней
командой, исполняемой программой или пакетным файлом.
Traceback (most recent call last):
File "C:\Python35\Scripts\rpy2-2.9.2\setup.py", line 374, in <module>
ri_ext = getRinterface_ext()
File "C:\Python35\Scripts\rpy2-2.9.2\setup.py", line 269, in getRinterface_ext
ldf = shlex.split(' '.join(rexec.cmd_config('--ldflags')))
File "C:\Python35\Scripts\rpy2-2.9.2\setup.py", line 222, in cmd_config
universal_newlines = True)
File "C:\Python35\lib\subprocess.py", line 629, in check_output
kwargs).stdout
File "C:\Python35\lib\subprocess.py", line 711, in run
output=stdout, stderr=stderr)
subprocess.CalledProcessError: Command '('C:\\PROGRA~1\\R\\R-34~1.4\\bin\\R', 'CMD', 'config', '--ldflags')' returned non-zero exit status 1
-------------------
Аноним 12/04/18 Чтв 23:23:47  1172638
>>1172625
Ставь линукс.
Аноним 13/04/18 Птн 00:01:56  1172665
>>1172594
Облако нужно в основном чтобы параллельно кучу всего тренировать. Дешевле, чем свой кластер содержать.
Аноним 13/04/18 Птн 00:19:47  1172671
>>1172625
> выдаётся ошибка "sh не является программой/командой".
Поди под глинукс собрано. Попробуй вместо простого R мокрософтовский r open. Как вариант, поставь пакет из исходников или вручную - скачай и распакуй в каталог libs.
Аноним 13/04/18 Птн 00:21:46  1172675
>>1172625
А, ещё вариант, поставь r tools.
Аноним 13/04/18 Птн 02:44:28  1172726
>>1172665
Не дешевле. Возьмем комп на базе 1080TI. Сам тиай стоит тысяч 60, комп к нему - полноценный комп с 16 гб памяти, ssd (в т.ч. для свопа) и нормальным блоком питания, в днищекорпусе, может быть с похилее амд процессором - 40 тысяч. Итого за 100К ты имеешь dedicated машину, в которую при желании ты можешь добавить второй GPU. Жрать этот комп будет ватт 500, то есть 2 рубля в час, или 3 цента.

По AWS цены на инстансы on demand:
G2.2x: 0.05 (сильно подешевели однако)
G3.4x: 1.14
P2.1x: 0.9
P3.2x: 3.06

По перформансу имеем следующие коэффициенты из-за разной скорости:
G2: 0.1
G3: 0.4
P2: 0.2
P3*: 1.0
Со звездочкой, потому что у P3 быстрее в 2 раза на float16, но трейнинг float16 это отдельная сложная тема.

Переводим в деньги: G2 - 0.5 в час, G3 - 2.85 в час, P2 - 4.5 в час, P3 - 3.06 в час.

А комп с тиаем нам достался за $1500. Значит после того, как он отработает 3000 часов (потратив 100 баксов на электричество), он будет работать в плюс. При этом заменять он будет 10 инстансов G2. Остальные же инстансы просто не конкуренты, P3 например вырабатывает цену нашего компа за каких-то 500 часов, то есть 20 дней, P2 и G3 просто нахуй не нужны за такие деньги.

То есть если ты планируешь нагрузить свой тиай больше, чем на 3000 часов, то амазон тебе менее выгоден, чем купить прекрасную машину, которая будет жужжать у тебя на балконе и с 0 мс доступом. А если ты вставишь шикарный тиай в свой днищепека, то и 2000 часов хватит.

Но - это был вопрос денег. А еще есть вопрос удобства. И одна быстрая карточка лучше, чем десять медленных. Во-первых, в нее влезет нейронка потолще, с батчсайзом побольше. Во-вторых, какая-нибудь байесова оптимизация гиперпараметров на ней будет более эффективной - вместо того, чтобы ждать 6 часов и получить 6 хуевых результатов, ты каждый час будешь уточнять свою модель. А у меня например модель тренируется часа 3, на g2 придется ждать сутки? Хуйня неудобная.

Короче амазон или для инференса на сервере (неизвестно сколько юзеров будет завтра и дешевые g2 подходят), для стартапов, которые не хотят вкладываться в железо до раунда инвестиций, для тех, кто кому результат нужен вчера. А для нормального исследователя-контрактора выгоднее иметь 2-4 топовых консьюмерских жпу, соединенных в локальную сеть и с синхронизацией файлов на них.
Аноним 13/04/18 Птн 02:55:59  1172734
>>1172726
Ты вообще не о том. Если тебе надо натренировать 1000 моделей для подбора гиперпараметров (это примерно минимум для средней статьи в 2к 18), то у тебя есть три стула:
- обсчитывать это 15 лет на своем домашнем пека;
- собрать кластер за 100 миллионов долларов, что займет 3 года работы, и потом натренировать модели на нем за неделю;
- натренировать за неделю на амазоне, заплатив несколько тысяч грина.
Аноним 13/04/18 Птн 03:58:54  1172770
>>1172734
Я о том, просто ты туповатый какой-то и говоришь какие-то цифры с потолка. Какие нахуй 15 лет, какие нахуй 100 миллионов долларов.
Берем инстанс P3. На $10000 ты можешь купить 3000 часов. В неделе 168 часов, то есть ты купишь на эти деньги 3000/168=18 инстансов.

Второй стул - это потратить $10000 на 4 компа с парой 1080TI. В этом случае ты будешь считать две с половиной недели. Не 15 лет, а две недели. Только в первом случае ты проебешь $10000 навсегда, а во втором будешь иметь 4 компа с двумя 1080TI. На которых, внезапно, свою следующую статью вообще бесплатно будешь считать. 5 компов - это не какой-то там высранный тобой кластер за 100 миллионов долларов, это меньше школьного компьютерного класса.

Твоя логика это что-то типа "квартиры за 6 млн. дорого, лучше буду снимать такую квартиру за 250 тысяч в месяц - это выгодно."
Аноним 13/04/18 Птн 08:56:00  1172800
>>1172506
https://en.wikipedia.org/wiki/Collaborative_filtering
Аноним 13/04/18 Птн 23:31:49  1173256
А нейроночку можно представить в виде "если-то", "свитч-технологии" и такого?
Аноним 14/04/18 Суб 02:06:35  1173354
>>1173256
не, это божественные Экспертные Системы
Аноним 14/04/18 Суб 03:55:37  1173378
>>1173256
С натяжкой случайный лес можно чем-то таким назвать, но не нейронки
Аноним 14/04/18 Суб 04:12:14  1173380
>>1173256
ЕСЛИ нейроночка сказала, что это кошка ТО это кошка
Аноним 14/04/18 Суб 04:32:35  1173381
>>1173256
Решающие деревья.
Аноним 14/04/18 Суб 04:34:44  1173382
>>1172387
> Но я ведь просто червь-пидор по сравнению с ребятами из ШАД например, или даже просто профильных кафедр МФТИ/МГУ/ВШЭ. Кому я нужен то?
Поверь, ты сильно переоцениваешь их.
Аноним 14/04/18 Суб 06:37:54  1173396
Untitled.jpg (24Кб, 640x505)
Здравствуйте. У меня задача регрессии. Я хочу на нейронной сети сделать регрессию с двумя входными переменными. То есть по двум входным переменным предсказывать третью.

В начале я пытаюсь на Keras сделать регрессию с одной входной переменной, например, для синуса или параболы. Всё получается отлично программа предсказывает по точкам правильно и синус и параболу.

Дальше я увеличиваю размерность входных данных для двух переменных. И получается как на картинке. Вместо правильной синей линии программа строит очень грубую усредненную прямую.

ПОДСКАЖИТЕ, ПОЖАЛУЙСТА, КАК НА АНГЛИЙСКОМ ПРАВИЛЬНО ЗАГУГЛИТЬ ПРИМЕР НА Keras, ЧТОБЫ ТАМ ВМЕСТО РЕГРЕССИИ С ОДНОЙ ВХОДНОЙ ПЕРЕМЕННОЙ БЫЛО ДВЕ ВХОДНЫХ, КАК У МЕНЯ НА КАРТИНКЕ?
Аноним 14/04/18 Суб 06:40:00  1173397
>>1173396
>ЧТОБЫ ТАМ ВМЕСТО РЕГРЕССИИ С ОДНОЙ ВХОДНОЙ ПЕРЕМЕННОЙ БЫЛО ДВЕ ВХОДНЫХ, КАК У МЕНЯ НА КАРТИНКЕ?
Домики деревянные набигают?
Аноним 14/04/18 Суб 06:40:21  1173398
>>1173396
фикс Вместо правильной ЗЕЛЕНОЙ линии программа строит очень грубую усредненную прямую - СИНЮЮ линию
Аноним 14/04/18 Суб 06:42:55  1173399
>>1173397
Обычно в примерах одна переменная 'х', а предсказывают 'y'. А я хочу найти с двумя 'x1', 'x2' и предсказывают 'y'.

То есть как у меня на картинке, вместо двух осей будет третья.
То есть ищу пример с тремя осями, вместо двух.
Аноним 14/04/18 Суб 06:45:45  1173400
>>1173397
Иными словами, я имею ввиду, чтобы было не точь в точь как у меня, а только лишь чтобы было три переменные как на картинке. Какие-нибудь 'x1','x2' и третья которую предсказывают 'y'.

Только я слова для поиска подобрать не могу.
Аноним 14/04/18 Суб 06:56:20  1173403
Untitled.jpg (24Кб, 640x505)
Короче я криво вопрос написал, сейчас переделаю

Здравствуйте. У меня задача регрессии. Я хочу на нейронной сети сделать регрессию с двумя входными переменными. То есть по двум независимым переменным предсказывать третью.

В начале я пытаюсь на Keras сделать регрессию с одной независимой переменной 'x' и второй переменной, которую предсказывают 'y', например, для синуса или параболы y=f(x). Всё получается отлично программа предсказывает по точкам правильно и синус и параболу.

Дальше я увеличиваю размерность входных данных для двух переменных z=f(x,y). И получается как на картинке. Вместо правильной зеленой линии программа строит очень грубую усредненную прямую - синюю линию.

ПОДСКАЖИТЕ, ПОЖАЛУЙСТА, КАК НА АНГЛИЙСКОМ ПРАВИЛЬНО НАПИСАТЬ ЗАПРОС ДЛЯ ГУГЛА, ЧТОБЫ НАЙТИ ПРИМЕР НА Keras С ДВУМЯ НЕЗАВИСИМЫМИ ПЕРЕМЕННЫМИ И С ТРЕТЬЕЙ ПЕРЕМЕННОЙ, КОТОРУЮ ПРЕДСКАЗЫВАЮТ?
Аноним 14/04/18 Суб 07:52:42  1173414
>>1173400
>>1173399
У тебя одна входная переменная X должна быть, просто большей размерности. Матрица размера (input size) × (training set size)
Аноним 14/04/18 Суб 07:54:05  1173415
>>1173403
>Я хочу
Истинно говорят: источник всех человеческих страданий в желаниях. Стоит лишь тебе правильно сделать регрессию с двумя переменными, и ты тут же захочешь регрессию с тремя. Очевидно, это никогда не закончится, и ты проведешь жизнь в бесплодных страданиях, плача и стеная на форумах о том, как твоя регрессия строит неправильные линии. Избавление от страданий придет к тебе только после осознания, что регрессия тебе не нужна.
Аноним 14/04/18 Суб 08:04:36  1173417
>>1173414
Это да, я изменил размерность массива х. Просто я для наглядности объяснил, что нужно вторую независимую переменную добавить z=f(x,y) вместо y=f(x).

А так да, лучше было бы объяснить, что нужно y=f(x1,x2) вместо y=f(x1)
Аноним 14/04/18 Суб 11:17:58  1173449
fdsf.png (100Кб, 943x903)
Ребят, че это за хуйня? Батч еле в 8 гигов влезает. Оптимизирую адамом. Хуйня в смысле возрастание лосса с падением lr.
Аноним 14/04/18 Суб 12:40:50  1173488
еврей.webm (1165Кб, 640x360, 00:00:23)
>>1173449
>Батч еле в 8 гигов влезает.
Пришло время купить у (((дяди))) оперативку.
>Хуйня в смысле возрастание лосса с падением lr.
Оверфиттинг?
Аноним 14/04/18 Суб 12:44:23  1173489
А что, нынче регрессия без диплернинха не в моде? У меня даже куркулятор в регрессию может, причем не только в линейную, я очень от жизни отстал?
Аноним 14/04/18 Суб 12:45:03  1173490
>>1173488
У меня на трейне растет, так что оверфиттинг не причем.
Аноним 14/04/18 Суб 12:46:21  1173491
>>1173490
Если лосс на трейне растет, значит ты какую-то вообще лютую хуйню сделал.
Аноним 14/04/18 Суб 13:41:35  1173511
>>1173449
Графики осей под подписей - молодец, ведь истинный специалист по ДЛ сразу поймет что у тебя там за хуйня.
Если лосс растет при падении lr, значит lr падает недостаточно быстро.
Аноним 14/04/18 Суб 15:19:34  1173568
>>1173511
>>1173449
Что такое lr?
Аноним 14/04/18 Суб 16:13:51  1173614
>>1173403
>>1173414
Вопрос решился, не знаю, что конкретно помогло, но я уменьшил скорость обучения, уменьшил decay и наделал много слоев. И всё сразу по красоте сошлось.
Аноним 14/04/18 Суб 16:16:03  1173618
>>1173511
>лосс
можешь по-человечески объяснить за лосс? Чё это воще такое то
Аноним 14/04/18 Суб 16:24:11  1173625
>>1173568
>>1173618
Я мимокрокодил и могу ошибиться, но, вероятно, lr - learning rate лосс - loss
Аноним 14/04/18 Суб 17:41:34  1173680
lr - learning rate, да
лосс по-русски называется функция потерь
>>1173614
Decay (то есть спад скорости обучения со временем) по логике надо бы увеличить.
Аноним 14/04/18 Суб 17:42:28  1173682
>>1173680
>лосс по-русски называется функция потерь
а что она делает?
Аноним 14/04/18 Суб 17:44:34  1173685
>>1173680
Мне другой перевод нравится decay - загнивание. Попробую увеличить, посмотрю.
Аноним 14/04/18 Суб 18:15:19  1173693
>>1173682
Потеряется
Аноним 14/04/18 Суб 18:53:14  1173710
>>1173693
ну мам
Аноним 14/04/18 Суб 19:31:06  1173736
>>1173682
Ты какую-то совсем азбуку ML спрашиваешь.
Математические функции ничего не делают, они вечны и находятся в пространстве идей. Все, что мы делаем, это подбираем с помощью оптимизатора ее параметры так, чтобы она была чем меньше, тем лучше.
Допустим у тебя есть набор чисел x1, x2, x3, и y1, y2, y3 и ты хочешь найти такие k и b чтобы f(x)=kx+b было равно y как можно точнее для всех трех случаев. Это случится, когда мы подберем такие k и b, что
loss(k, b) = (y1 - (k
x1+b))^2+(y2 - (kx2+b))^2+(y3 - (kx3+b))^2 будет минимальным. Вот это и называется функцией потерь. Именно у нее мы найдем градиент dloss/dk и dloss/db и будем минимизировать. Как можешь заметить, чем меньше у тебя лосс, тем лучше ты моделируешь, чем больше лосс, тем хуже.
С нейронками происходит то же самое, только вместо f(x) с параметрами k и b и скалярами x и y, у нас нейронка с миллиардами параметров, а вместо xi и yi - тренировочный датасет.
Если лосс-функция минимизирует квадраты разности входа и выхода, это называется l2-loss, если модули разности - l1-loss, можно еще минимизировать еще как-то. И туда же обычно включают разного рода регуляризирующие ограничения на параметры.
Аноним 14/04/18 Суб 21:33:20  1173812
>>1173736
> С нейронками происходит то же самое, только вместо f(x) с параметрами k и b и скалярами x и y, у нас нейронка с миллиардами параметров, а вместо xi и yi - тренировочный датасет.
То же самое и в нейрон очках ваших, каждый нейрон считает частную функцию от двух аргументов, а через их суперпозицию получается полная функция от многих аргументов. И лосс так же можно посчитать частный от двух аргументов, а потом общий, через суперпозицию.
Аноним 14/04/18 Суб 22:04:28  1173833
girl.jpg (47Кб, 500x500)
>>1173736
>а что деляет оптимизатур?
>а что деляет параметур?
>а что деляет прастранстуво?
>ыыы
>а что деляет датасет?
>егуляезищие ыыы
Аноним 14/04/18 Суб 22:30:24  1173842
autism.jpg (150Кб, 1600x935)
>>1173833
Да вообще пиздец. Такое ощущение, что тут пара-тройка жирных сидит и угарает со скота, который на подобное отвечает.
Аноним 14/04/18 Суб 23:03:41  1173859
спасибо аноны
>нейрон считает частную функцию от двух аргументов
разве не просто складывает значения от базы двух нейронов предыдущего слоя помноженную на соответсвенно вес своего синопсиса?
не ругайтесь позязя я есе мааенький
а что такое суперпозиция?
Аноним 14/04/18 Суб 23:34:45  1173877
>>1173489
Ну и как ты продолжишь последовательность чисел (1 5 9 13 ?) без нейросетей?
Аноним 14/04/18 Суб 23:45:15  1173883
>>1173877
Скажу, что это случайные числа и что здесь подойдёт любое число.
Аноним 15/04/18 Вск 00:10:22  1173897
1519878925964.png (2930Кб, 1920x1280)
Я делаю спонтанный сплит датасета трейн - 80/тест - 10/вал - 10 и стабильно получаю точность валидационного на 10% выше чем у тестового, насколько это здоровый результат? Вроде ошибок нет, но мне кажется что исходя из самого принципа валидации, точность должна быть близкой к точности тестового сета, так же?
Аноним 15/04/18 Вск 05:09:15  1173985
>>1173897
Это норма, настоящая точность на тестовом. Это тоже азбука.
Аноним 15/04/18 Вск 06:32:15  1174022
>>1164181
Говорят школьник из из пятого класса нейронки за неделю выучит, это только доктора наук из США считают что нужно образование магистра в информационных технологиях, чтобы изучать эту тему.
Аноним 15/04/18 Вск 06:40:21  1174025
>>1164432
>если вообще до этого осилишь
Вот вот я уже 5 месяц учу разные алгоритмы и математические правила для нейронных сетей и это всё чтобы только научиться писать нейронки, не говоря о том что я уже два года провёл за программированием. Как только смогу на дваче тред открою с моей нейронкой или вкину в тему.
Аноним 15/04/18 Вск 06:45:47  1174026
IMG201804151038[...].jpg (2254Кб, 2448x3264)
>>1173877
> Ну и как ты продолжишь последовательность чисел (1 5 9 13 ?) без нейросетей?
Смотри, дебилок. Простая линейная регрессия на копеешном китайском калькуляторе, считаем весь твой числовой ряд попарно (х 1, у 5), (х 5, у 9), (х 9, у 13), затем вводим последний пример из твоего числового ряда, 13, получаем предсказанное значение 17. Угадал? И где твой бог теперь? Я ж говорю, вы ебонажки, не зная азы лезете в какой-то диплернинх.
Аноним 15/04/18 Вск 06:56:20  1174029
>>1173859
Почему двух-то. В полносвязном слое - всех нейронов предыдущего слоя, в сверточном слое - в размере ядра свертки, и т. п.
Аноним 15/04/18 Вск 07:04:15  1174031
>>1170141
Пчеловод в треде. Без математики не куда.
Аноним 15/04/18 Вск 07:05:58  1174033
>>1164199
Ой, да не неси хуйни. Эти моченые ученые 30 лет не могли допереть до того, чтобы вместо сигмоида использовать relu. Они с чем только не ебались, машины больцмана, энтропии-хуепии, DBN, а до такой простой вещи не додумались. А потом оказалось, что lenet с relu и дропаутом можно отмасштабировать и натренировать на мощностях, доступных на супермкомьютерах 90-х, и выиграть imagenet.
Но для этого должна была случиться одна вещь - появились GPU, которые дали возможность тысячам васянов экспериментировать и пробовать комбинировать простые приемы, которые работают.
А моченые ученые выдумывают неработающую хуйню типа капсульных сетей.

В нейронках грамотный датасет решает все. А у ученых такой роскоши нет, если кто-то напишет, что он дописал 10000 примеров к mnist и повысил распознавание цифр до 99.99997%, ему скажут, ну ок, а новизна где, на minst твой метод сосет. А васян может наращивать датасет сколько угодно, поэтому и разработать крутой прикладной продукт.
Аноним 15/04/18 Вск 07:32:13  1174038
>>1172387
>бНо я ведь просто червь-пидор по сравнению с ребятами из ШАД например, или даже просто профильных кафедр МФТИ/МГУ/ВШЭ. Кому я нужен то?
>Сам физик изи МИФИ, c матаном +- дружу.
Пиздец с кем я на борде сижу. Меня в вузе только курсовые строчить немного научили да бумагу марать. Посколько я тогда был тупой ещё не сразу понял что мне пиздец, а потом я начал изучать питон, а потом data science, а сейчас когда я начал изучать machine learning я понимаю что моё образование дно и математику я не фига не знаю, понимаю 50-70% формул в machine learning. Ещё когда посмотрю какие задачи на олимпиадах студенты решают по программированию, то зависть берёт, я без гугла не одну олимпиадную задачу не решу.А у меня iq 108-114, а чувствую себя дауном, обидно.
Аноним 15/04/18 Вск 08:42:04  1174046
>>1174038
Ходил как то в ШАД, могу сказать что из МГУ и МФТИ реалли очень умные ребята. Если ты в ПТУ вроде Бауманки ходишь, то да, там тебя научат бумагу марать и чужое говно впаривать.
Аноним 15/04/18 Вск 09:21:42  1174050
>>1174033
Когда уже в моде васянов будут нейроночки с подкреплением?
Аноним 15/04/18 Вск 09:55:43  1174055
На реддите поговаривают, что мол диплернинг, как научная область, уже стал больше физики по количеству занятых в ней людей. Всей. Физики. Вместе взятой.
Аноним 15/04/18 Вск 11:59:35  1174080
СмехГоблача1.webm (1689Кб, 1280x720, 00:00:10)
>>1174055
Толпы студентов, крутящих гиперпараметры - это ноука теперь, что ли?
Аноним 15/04/18 Вск 12:01:02  1174082
>>1174038
у меня iq 104 и я вебмакака
пытался в машинлернинг, но не получилось, для меня тяжело я не очень умный
Аноним 15/04/18 Вск 12:01:43  1174083
>>1174055
Оно и объяснимо - чтобы накатать статейку по нейроночам, не нужно вообще ничего: взял датасет, накатал на керасе архитектуру от балды, ну и написал любой нужный вывод. Все равно это говно никто проверять и верифицировать не будет.
Корчеватель во все поля.
Аноним 15/04/18 Вск 12:03:02  1174085
>>1174055
> На реддите поговаривают, что мол диплернинг, как научная область, уже стал больше физики по количеству занятых в ней людей. Всей. Физики. Вместе взятой.
И хули толку? Там одни хипстеры, причём ан масс индусы. Поэтому прогресс по-сути зависит от десятка человек типа лекуна. Остальные просто лгбт- балласт.
Аноним 15/04/18 Вск 12:32:59  1174113
Надо обучать людей как нейроночек.
Аноним 15/04/18 Вск 13:02:40  1174132
Hammercoastscre[...].png (735Кб, 1280x996)
Сап, специалисты. Нужна небольшая консультация.

Насколько реально запилить хуйню, которая бы создавала уровни в 3д игре на основе уже созданных уровней другими людьми? Ну то есть нейросеть обучается на реальных картах и пытается высрать свою.

Если такой возможно, подскажите, куда копать? Может кто-то уже занимается подобными исследованиями?
Аноним 15/04/18 Вск 13:09:58  1174137
1521189634407.jpg (111Кб, 850x492)
>>1174132
Ты потратишь гораздо больше времени и сил на обработку данных и нейроночку, чем на то чтобы сделать карты руками. Хотя, что-то простое можно попробовать если ты скинешь мне описание карт таблицами [X, Y, Z, объект в этих координатах] или как-то так, ты лучше знаешь с чем работаешь, ну и конечно тебе нужно будет получив подобную сгенерированную таблицу сконвертировать ее обратно в карту.
Аноним 15/04/18 Вск 13:42:56  1174150
тоже нубасный вопрос
вот допустим у меня есть битмап
как я понимаю нейронка может или сказать является ли этот битмап чем то или не является
а может ли она сказать четыре координаты из этого битмапа, что между ними находится что-то, например кот?
Аноним 15/04/18 Вск 13:51:59  1174151
>>1174150
Может. Для этого даже не нужна нейронка, хаар-каскады отлично подходят для твоей задачи.
Аноним 15/04/18 Вск 14:00:01  1174154
>>1174151
а на нейронке можно такое сделать? некогда объяснять
Аноним 15/04/18 Вск 14:04:18  1174157
>>1174154
Еще раз, можно. Это классическая задача машинного зрения.
Аноним 15/04/18 Вск 14:04:39  1174158
>>1174154
>некогда объяснять
Хочешь побыстрей начать отлавливать котов?
Аноним 15/04/18 Вск 16:22:14  1174265
Байесовские методы через 10 лет будут в аналоге ЕГЭ.
Аноним 15/04/18 Вск 16:28:09  1174267
>>1174265
В аналоге ЕГЭ через 10 лет будет закон божий, патриотическое воспитание и домострой. Байесовские методы - от лукаваго, в рашке такого не нужно.
Аноним 15/04/18 Вск 16:47:12  1174276
15237999286860.png (1132Кб, 810x1080)
>>1174158
Аноним 15/04/18 Вск 16:49:37  1174277
>>1174267
домострой годная вещь. глядишь простой анон перестанет хрючевом питаться, научиться жарить картошечку и котлеты.
Аноним 15/04/18 Вск 17:07:49  1174288
>>1174277
> картошечку и котлеты
> не хрючево
Аноним 15/04/18 Вск 17:07:54  1174289
>>1174085
Как может прогресс зависеть от лекуна, если он с открытия ленет занимался хуй пойми чем? Прогресс двигает как раз толпа, на arxiv-sanity.com постоянно охуенные результаты от нонеймов.
А разгадка простая - отрасль экспоненциально взрывается и всем есть работа. Кроме тебя. Потому что ты тупой.
Аноним 15/04/18 Вск 17:09:09  1174291
>>1174150
Это называется object detection, решается с помощью сеток типа SSD
Аноним 15/04/18 Вск 17:50:11  1174318
>>1173897
Это не норма. У тебя overfitting на dev set. Увеличь его размер. Проверь, что dev и test содержат данные одинакового распределения.
Аноним 15/04/18 Вск 17:55:59  1174320
>>1174289
> Прогресс двигает как раз толпа, на arxiv-sanity.com постоянно охуенные результаты от нонеймов.
Ты дурилка картонная просто и не понимаешь что несешь. Толпа никогда и ни в какой области прогресс не двигала. То, что у одной обезьяны из барбершопа результаты случайно вышли на 0.01% лучше, чем у остальных - это не прогресс. Прогресс - это новые парадигмы, алгоритмы, которые меняют облик всей отрасли.
Аноним 15/04/18 Вск 20:50:43  1174435
>>1174320
А че, дип лернинг - это какие-то неебацо новые революционные алгоритмы? Да нихуя, просто комбинация из биг даты, возросшей вычислительной мощности и gpu.
Аноним 15/04/18 Вск 21:10:15  1174457
>>1174435
>А че, дип лернинг - это какие-то неебацо новые революционные алгоритмы?
Ну вообще, да. Даже до самых деревянных глубоких архитектур - стыкованных аутоэнкодеров и машин Больцмана нужно было додуматься. Ни один хипстер этого не сделал, хотя те же машины Больцмана известны с 80-х годов. Сверточные сети тоже никто до Лекуна не придумал, хотя неокогнитроны существовали до него, не говоря о перцептронах и работах Хьюбела и Визеля по структуре зрительной коры кошки (что и легло в основу). Борода не делает мудрецом, это еще в древней Греции понимали. И барбершоп мозгов так же не добавляет.
Аноним 15/04/18 Вск 23:26:42  1174601
Здравствуйте, я хочу поиграться с n_jobs в scikit_learn. По умолчанию n_jobs=1, а при n_jobs=2 должно случиться ускорение выполнения линейной регрессии.

Я ставлю n_jobs=1 и код выполняется за 4 секунды. Ставлю n_jobs=2 и код тоже выполняется 4 секунды.

https://ideone.com/B7KP3n

Помогите, пожалуйста, понять что неправильно. Почему n_jobs=2 не помогает ускориться?
Аноним 16/04/18 Пнд 00:33:39  1174644
>>1174055
Для физики нужно оборудование. Экспоненциально дорогое. Теоретиков достаточно.
Аноним 16/04/18 Пнд 02:58:13  1174692
>>1174644
Для дииплернинга тоже нужно оборудование, а еще и датасеты. Вон гугл клепает статьи в промышленных масштабах, а все потому что у них есть и то, и другое.
Почему теоретиков в физике достаточно, и сколько достаточно, а в нейроночках недостаточно?
Аноним 16/04/18 Пнд 07:40:25  1174730
>>1174320
Обезьян из барбершопа ты сам придумал. Дипленингом занимаются ученые, каждый из которых умнее тебя, и таких тысячи человек. Каждый выдумывает свою часть. А те, кого ты называешь, это, в основном, талантливые организаторы, чье имя по этой причине видно на куче статей.
Аноним 16/04/18 Пнд 07:52:21  1174734
>>1174692
Для дипленинга ничего особенного не нужно, даже на машине за $1500 можно прекрасно работать, а лаборатория для изучения automl будет стоить сраные по научным меркам $100000 - цена одного интерферометра.
А в физике просто ничего хорошего и интересного не происходит, одно уныние.
Аноним 16/04/18 Пнд 10:47:14  1174803
>>1174730
>ученые
В говне моченые.
Аноним 16/04/18 Пнд 10:52:15  1174804
>>1174137
Не все обьекты точечные. Есть блоки и любые другие выпуклые геометрические тела с гранями. Есть сетки дисплейсментов.
Аноним 16/04/18 Пнд 10:56:52  1174806
>>1174080
this.
Аноним 16/04/18 Пнд 11:16:52  1174813
Вечер в хату, погромизды. Мне нужно за максимально возможный срок въехать в регрессии, auc и roc-кривые. Какие ресурсы посоветуете?
Аноним 16/04/18 Пнд 11:41:55  1174821
>>1174813
а лучше расскажите своими словами
Аноним 16/04/18 Пнд 11:43:55  1174822
>>1174730
> Обезьян из барбершопа ты сам придумал. Дипленингом занимаются ученые
Ты их видел, этих т.н учёных? Хипстеры классические. Я понимаю, что сейчас такая мода ебанутая, но все равно смешно с деградантов.
> , каждый из которых умнее тебя,
Не умнее, доводилось переписываться в т.ч с топовыми специалистами. Первый раз слышат такие вещи, которые как по мне, каждая вторая собака знает. За пределами очень узкой специализации кругозора вообще 0, да и в своей области шаг влево - шаг вправо и ответ уровня "i have no idea what энныйтермин stands for", даже чисто на уровне загуглить. Ну и т.д.
Аноним 16/04/18 Пнд 11:46:13  1174824
>>1174033
>30 лет не могли допереть до того, чтобы вместо сигмоида использовать relu
Я больше чем уверен, что и в нынешних нейронках еще дохрена путей улучшения. Лет через 10 допрут ну как допрут, случайно получится
Аноним 16/04/18 Пнд 11:57:11  1174826
>>1174822
>но все равно смешно с деградантов.
И в чем заключается деградантство? Это ты похож на бабушку с подъезда или на гопника, которому лишь бы доебаться до внешности.
>За пределами очень узкой специализации кругозора вообще 0, да и в своей области шаг влево - шаг вправо и ответ уровня "i have no idea what энныйтермин stands for", даже чисто на уровне загуглить. Ну и т.д.
Это показатель уравновешенной личности, которая не боится сказать, что чего-то не знает, и не пытается казаться умнее. А вот когда человек начинает судорожно гуглить, чтобы произвести впечатление - тут начинается хуета.
Аноним 16/04/18 Пнд 12:04:13  1174828
>>1174824
Не, сейчас уже такого не будет, это было, когда в нейронки никто не верил и ими занимались 1.5 яйцеголовых. Сейчас проблема в другом, открытие может затеряться среди кучи говна. Например https://arxiv.org/abs/1802.05074 - говно или нет? Я попробовал, не сработало. Но мне кажется, что где-то там есть много хорошего.
Аноним 16/04/18 Пнд 12:06:53  1174829
>>1174828
>говно или нет?
говно
Аноним 16/04/18 Пнд 12:10:55  1174834
>>1174829
Обоснуй
Аноним 16/04/18 Пнд 12:13:01  1174835
>>1174834
очевидное очевидно. если в открытом доступе, значит говно.
Аноним 16/04/18 Пнд 12:15:36  1174836
>>1174835
Ты еще скажи что инсепшен говно. Наука не так работает.
Например, я могу спокойно опубликовать 90% своих открытий, которые касаются дл в целом, но не буду публиковать 10% конкретно своей предметной области, чтобы не плодить конкурентов.
Аноним 16/04/18 Пнд 12:25:59  1174841
>>1174836
>10% конкретно своей предметной области,
Тогда 90% нахуй не нужны. Наука в текущем виде это говно и этого говна особенно много в ИИ. Если ты притащил что то из открытого доступа, варианта джва и все они хуевые.
>инсепшен
В душе не ебу, что это такое
Аноним 16/04/18 Пнд 12:27:18  1174844
>>1174841
>В душе не ебу, что это такое
Тогда ваше мнение очень важно для нас
Аноним 16/04/18 Пнд 12:29:34  1174845
>>1174828
>оптимизация кручения ручек и танца с бубном
>открытие
Я не таким его себе представляю.
Аноним 16/04/18 Пнд 12:31:22  1174846
>>1174844
>Тогда ваше мнение очень важно для нас
И ты тоже иди на хуй
Аноним 16/04/18 Пнд 12:31:22  1174847
>>1174841
> >инсепшен
> В душе не ебу, что это такое
Ну ты и быдло. А Нолан - гений.
Аноним 16/04/18 Пнд 12:32:42  1174848
>>1174847
>А Нолан - гений.
А Дикаприо?
Аноним 16/04/18 Пнд 12:43:10  1174851
Вы вообще похоже не понимаете разницу между машобчиком как наукой и как макакингом. Ну неужели не очевидно, что применение готового, сколь угодно успешное и инновационное - это макакинг. Машоб как наука - это создание нового, чем занимаются хорошо если человек 20.
Аноним 16/04/18 Пнд 12:48:56  1174858
>>1174851
>машобчиком как наукой
Кокая это наука? Скинул все в череый чщик, хорошенько потряс и хуяк, вот на 0.7 обезьяна а на 0.2777 негр
Аноним 16/04/18 Пнд 13:07:56  1174868
>>1174851
Ты тогда и строительство мостов макакингом обзовешь. Хули, сопромат ведь уже изобрели.
В машобе есть фундаментальные исследователи, а есть прикладные. И фундаментальные не значит святые, зачастую они страдают соверешенно неудобоваримой хуйней, например, задрачивают свои методы для работы на популярных в науке датасетах.
>чем занимаются хорошо если человек 20.
Блядь, да открой месячный топ на arxiv-sanity и посмотри количество фамилий. То, что вы как говнари знаете только о существовании 3-4 фамилий говорит больше о вас, чем об отрасли.
Аноним 16/04/18 Пнд 13:27:46  1174886
>>1174804
Окей, центр объекта и радиус минимальной сферы в которую он вписывается. Или центр, высоту и радиус цилиндра.
Аноним 16/04/18 Пнд 13:28:55  1174887
>>1174858
пожалуйста сделайте это в хедер следующей темы. Ещё кота забыл упомянуть.
Аноним 16/04/18 Пнд 13:30:22  1174888
>>1174132
На хабре было недавно, https://habrahabr.ru/post/350718/
Малореально что-то выиграть на этом, проще rule based генератор запилить
Аноним 16/04/18 Пнд 14:25:15  1174902
>>1174868
>количество фамилий
Куча макак пытаются из говна слепить мозг макаки, ох лол. Лучше покажи прогресс, да на примере.
Аноним 16/04/18 Пнд 14:30:13  1174904
>>1174902
Нахуя метать бисер перед свиньей? Хочешь быть неандертальцем типа Карманова, будь им. А я продолжу революцию творить.
Аноним 16/04/18 Пнд 14:39:22  1174906
пистон.jpg (24Кб, 450x353)
>>1174904
>А я продолжу революцию творить.
Ох, лол, кто тут у нас. Образованный, революционер. Вот только предыдущий оратор прав, примеров реального прогресса от ноунейм хипстеров нет, поэтому ты их не смог бы привсти, даже если бы захотел. Ты такой же неандерталец, как Карманов. Я вот тоже кое-что пилю на тему машобчика, и даже не имеющего аналогов и реально с собственными разработками, однако я прекрасно понимаю, что я нихуя не творец по сравнению с титанами мысли. А вот у тебя похоже, ЧСВ реально опухло
Аноним 16/04/18 Пнд 15:16:48  1174925
>>1174906
Так нонейм хипстеров вы придумали. Прогресс как и везде в науке делают работающие в университетах ученые и их далеко не 20 человек, да и эти "20 человек" зачастую работают как хабы, присваивающие в глазах толпы открытия, сделанные внутри их тусовки.
А по поводу примеров "реального прогресса" - ты сначала define "реальный прогресс", а то я знаю логическую уловку "ненастоящий шотландец". А еще я знаю то, что многих после открытия перекупает из их нонейм университета гугл, и в итоге ща ты можешь сказать, что "ну вот он в гугле работаит, гугл прогресс!!!", а мне влом участвовать в этом манки-бизнесе. Если тебе это интересно, посмотри любой state of art на данный момент и изучи биографию авторов. Если ты меня на слабо хочешь взять - иди нахуй.
И последнее, что я знаю, что качество открытия проверяется временем, поэтому если бы я знал самое важное открытие 2017, допустим, года, я бы не тут с тобой сидел, а продавал бы свой стартап за миллиард долларов.
Аноним 16/04/18 Пнд 16:03:30  1174952
152377990512768[...].jpg (41Кб, 400x226)
>>1174925
Ебать у тебя маневры
Аноним 16/04/18 Пнд 16:11:49  1174962
>>1174813
https://ru.coursera.org/learn/ekonometrika
Не благодари
Аноним 16/04/18 Пнд 16:14:35  1174964
>>1174813
>за максимально возможный срок
тебе это не составит труда
Аноним 16/04/18 Пнд 16:20:24  1174966
>>1174692
Прикладников всегда на порядки больше чем фундаменталистов. Тем более учитывая демографический взрыв на планете. Нужно обслуживать потребности толпы.
Аноним 16/04/18 Пнд 17:09:27  1174984
>>1174966
>Нужно обслуживать потребности толпы.
Поэтому столько матанопетушни развелось?
Аноним 16/04/18 Пнд 17:11:31  1174985
>>1174984
Ты хоть читай, на что отвечаешь, дегрод. Или даже на это мозгов не хватает?
Аноним 16/04/18 Пнд 17:17:31  1174986
>>1174985
Нахуй мне всяких поехавших из 8'б' читать?
Аноним 16/04/18 Пнд 20:49:53  1175061
ЫЫЫ, а как нейроночками ускорить рендер?
Аноним 16/04/18 Пнд 20:52:38  1175064
>>1175061
Научить их денойзить зашумленные методом монте-карло изображения.
Аноним 16/04/18 Пнд 21:06:22  1175075
>>1175061
если ты о каком нибудь V-Ray, то в принципе можно научить нейронку предсказывать отскок луча от поверхностей в общих случаях. Но это будет не рендер а гадание на кофейной гуще. Если шарик стоит тут а свет тут а камера тут. Засовываем в черный ящик, трясём получаем зелёный конус под столом
Аноним 16/04/18 Пнд 21:07:40  1175076
14712393648650.gif (536Кб, 800x792)
Эх, опять во время очередного хайпа врывается толпа студентов, которые считают себя илиткой и что пик заинтересованности будет продолжаться вечно
Аноним 16/04/18 Пнд 21:17:26  1175088
>>1175076
и что же в этом плохого?
Хайп серьёзный. Технологические гиганты за последний год подняли рынок. Работы как правильно тут сказали на всех хватит. У кого есть время, ресурсы и заинтересованность не останется без дела.
Аноним 16/04/18 Пнд 21:20:35  1175090
>>1175075
Отскок одного луча и так слишком простая операция. А то, о чем я говорю, как водится, уже сделали
http://cvc.ucsb.edu/graphics/Papers/SIGGRAPH2017_KPCN/PaperData/SIGGRAPH17_KPCN_LowRes.pdf
Аноним 16/04/18 Пнд 21:21:02  1175092
>>1175088
Не мешай ему дрючить свое ЧСВ, он ведь выше всего этого.
Аноним 16/04/18 Пнд 21:31:28  1175102
>>1175090

ну это как посмотреть. Отскок одного - да. Но можно предсказывать отскок пачки. Денойзить Монтекарло тоже идея понятна. Но это уже больше умный шейдер, хотя без сомнения тоже рендер.
Аноним 16/04/18 Пнд 22:24:28  1175140
>>1175102
Да предсказывать отскок пачки тоже несложно и без нейронок. Проблема в том, что просчитать честно все равно быстрее. В пачке сколько лучей, ну тысячи, а при рендеренге речь идет как бы не о триллионах.
Если денойзить монтекарло, но не по rgb, а добавить depthmap, то должен получиться очень хороший плагин. Напишу боссу об этом...
Аноним 17/04/18 Втр 09:53:43  1175265
>>1173489
регрессии плохо работают на картинках (а если и работают, то без сверточек слишком вычислительно сложны), а в картинках основной хайп нейронок + рекурсивные данные и численные ряды (типа звука), а в банках и прочей ерунде и регрессий хватит
капитан
Аноним 17/04/18 Втр 11:03:54  1175283
>>1174888
Спасибо, почитаю.

>>1174886
Ну допустим, и что с этим делать дальше?
Аноним 17/04/18 Втр 12:50:45  1175304
Что в шапку следующего треда добавить?
инб4 грамотности
Аноним 17/04/18 Втр 13:01:24  1175305
>>1175304

вот это
>>1174858

Аноним 17/04/18 Втр 13:02:32  1175306
>>1175304
а если серъёзно, что что нибудь с котами, неграми и обезьянами.
Так же нужно сделать краткое резюме из обсуждений этого треда.
Аноним 17/04/18 Втр 13:04:22  1175307
>>1174962
спасибо
>>1174964
пошел нахуй
>>1174821
пошел нахуй
Аноним 17/04/18 Втр 13:05:43  1175308
>>1175307
мы здесь все учёные и не ругаемся плохими словами
Аноним 17/04/18 Втр 13:09:25  1175310
>>1175308
Этот мой коллега не пиздит.
Аноним 17/04/18 Втр 13:18:15  1175317
https://developers.googleblog.com/2018/04/text-embedding-models-contain-bias.html
Аноним 17/04/18 Втр 13:35:43  1175323
>>1175317
СЖВ проблемы в машобчике, лол. Вот я об этом говорю. Ученый - это тот, кто создал word2vec, а бородатые сойбои-куколды со смузи - те, кто пытается вымутить какую-то хуйню, чтобы негров не распознавало как макак, или чтобы в выдаче "she" было выше, чем "he".
Аноним 17/04/18 Втр 14:31:47  1175335
>>1175306
>обезьяны
Пара точно будет.
>резюме
Я даже не знаю, что написать. Так и не выяснили до конца, кто хипстер-хуесос, а кто ноуку двигает. Всуну предложение про то, что мощный комплюхтер нужен, если ты собираешься много моделей тренировать, но можно обойтись амазоновскими инстансами, если тебе нейронки только для развлечения/курсовой/етц.
Аноним 17/04/18 Втр 16:04:37  1175402
>>1175323
Лахтинец, ты заблудился. Твой поехавшие-тред ниже, /пораша слева.
Аноним 17/04/18 Втр 16:58:49  1175446
priroda-oboi-12[...].jpg (558Кб, 1280x800)
cEX9hNfiu4.jpg (44Кб, 604x386)
ScreenShot2014-[...].jpg (152Кб, 475x475)
pics-061.jpg (151Кб, 800x532)
аааа перекатывайте уже, я же не могу терпеть
Аноним 18/04/18 Срд 05:59:44  1175877
Новый взгляд на хеббовское обучение в свете современных результатов: http://arxiv.org/abs/1804.02464
Аноним 18/04/18 Срд 12:59:06  1175973
>>1175877
>We conclude that differentiable plasticity may provide a powerful novel approach to the learning-to-learn problem
>2018
>уравнения Хебба из позапрошлого века
>novel approach
Как перестать орать с деградантов? К концу второго десятилетия 21 века хипстеры узнали про уравнение Хебба. Глядишь, лет через 50-70 нечеткую логику для себя откроют, такими-то темпами. Апплодирую стоя, так держать!
Аноним 18/04/18 Срд 20:00:54  1176205
>tfw выкладываешь самые интересные статьи, надеясь на обсуждение, но получаешь единственный комментарий от поехавшего дебила, отвечающего на каждый пост ИТТ
Аноним 18/04/18 Срд 20:23:04  1176216
>>1176205
2ch.hk

Добро пожаловать. Снова.
Аноним 18/04/18 Срд 20:27:25  1176228
>>1176205
И что ты хочешь обсудить? Да, уравнения Хебба - это охуенная тема, и я бы мог написать, что Коско еще в начале 90-х показал 4 возможных варианта таких уравнений, которые можно использовать для чего угодно, от нейроночек до адаптивного настраиваемого поведения агентов в виртуальной реальности. Только какой в этом смысл? Ну открыли эти хипстеры америку, и что? Я там ничего нового не увидел.
Аноним 18/04/18 Срд 21:13:10  1176263
>>1176228
Да понятно всем, что тебе не наука интересна, а собственно ЧСВ. Нахуя варежку-то разеваешь, дрочи на себя в зеркале.
Аноним 18/04/18 Срд 21:25:31  1176270
>>1176263
>тебе не наука интересна,
Науку (настоящую, а не всякое говно из жопы) сливают в усиленном режиме, а вместо науки подсовывают всем смузи. Вот ты знал, что еще в 80-е были разработаны нейросети на основе осциллирующих аутокаталитических реакций типа Белоусова-Жаботинского, только на основе ферментов и т.п. полипептидов? А сейчас, спустя 30 лет, тебе вместо биочипов впаривают видюхи и прочий хлам, искусственно ограничивая использование не самого топового железа, чтобы ни в коем случае не пользовался чем-то дешевле 30-40 косарей. Что и порождает клоунов типа >>1173877 которые про линейную регрессию не слышали, зато твердо веруют, что без нейроночек никуда. Тьфу на вас, дегроды.
Аноним 18/04/18 Срд 21:32:04  1176279
Делайте перекат и я возможно в новом треде шокирую вас вопросом.
Аноним 18/04/18 Срд 21:39:35  1176284
>>1176270
Ты сам клоун, точнее фрик. Сколько ты тут лет сидишь уже, и всегда один и тот же паттерн: сейчас открытия говно, а вот говно мамонта тридцатилетней давности - вот там головы были.
Ну казалось бы, откопай это самое говно, отмасштабируй результат на GPU, разнеси всех на илсврц. Хотя бы тут идею запостил бы, тебе бы помогли. Однако почему-то ты почему-то продолжаешь токсично комментировать все по одному и тому же паттерну.
Аноним 18/04/18 Срд 21:40:55  1176288
>>1176284
Двочую. Почему он не может сделать красивую презентацию с методами прошлого столетия и выложить на видное место?
Аноним 18/04/18 Срд 21:42:10  1176291
>>1176270
джвачую, хотя я к нейропараше отношения не имею.
Аноним 18/04/18 Срд 21:46:56  1176297
>>1176270
Как стать таким же умным как ты?
Аноним 18/04/18 Срд 21:53:44  1176305
>>1176270
очевидно потому что биочипы не работают. Смысл компьюторных вычилений в том что они дают 100 процентов точный результат. соответсвенно принципы работы с бигдатой нельзя делать основной компьютерной архитектурой а лишь вспомогательным инструментом.
Аноним 18/04/18 Срд 22:06:43  1176322
ПЕРЕКАТ
>>1176320 (OP)
>>1176320 (OP)
>>1176320 (OP)
Аноним 20/04/18 Птн 10:55:23  1177080
>>1176205
я даже не читал абстракт, но в интернетах говорят, что они просто оверфитнули сетку и строят из этого философские выводы
Аноним 20/04/18 Птн 14:43:38  1177213
Screen Shot 201[...].png (411Кб, 1792x1404)
Жалуемся в Роскомандзор что телеграм все еще доступен
Аноним 07/05/18 Пнд 23:11:47  1185903
>>1162357 (OP)
Я в машобе не секу, но по работе нужно просчитать как одна штука во временном ряде коррелирует с другой.
Правильно-ли понимаю что если знать заранее что с чем должно коррелировать то именно машинное обучение здесь это overkill?
Аноним 07/05/18 Пнд 23:40:31  1185911
A topological data analysis и прочим persistence homology тоже от учения святого Вапника никуда не деться?


Топ тредов
Избранное