Главная Настройка Mobile Контакты NSFW Каталог Пожертвования Купить пасскод Pics Adult Pics API Архив Реквест доски Каталог стикеров Реклама
Доски


[Ответить в тред] Ответить в тред

Check this out!


[Назад][Обновить тред][Вниз][Каталог] [ Автообновление ] 506 | 48 | 152
Назад Вниз Каталог Обновить

НЕЙРОНОЧКИ & МАШОБЧИК #14 Аноним 24/04/17 Пнд 12:47:02  979045  
blob (264Кб, 591x524)
blob (773Кб, 1212x388)
книги
Pattern Recognition and Machine Learning, Bishop.
Information theory, inference & learning algorithms, MacKay http://www.inference.phy.cam.ac.uk/itila/
Machine Learning: A Probabilistic Perspective, Murphy

Introduction to Statistical Learning ( http://www-bcf.usc.edu/~gareth/ISL/ISLR%20Sixth%20Printing.pdf )
Elements of Statistical Learning ( http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Foundations of Machine Learning, أشهد أن لا إله إلا الله وأشهد أن محمد رسول الله. http://www.cs.nyu.edu/~mohri/mlbook/

Fundamentals of Neural Networks: Architectures, Algorithms, and Applications, Fausett L.

А. Пегат, "Нечёткое моделирование и управление"

другое
http://libgen.io / http://bookzz.org/ - здесь можно одолжить ^ книги и не только
http://arxiv.org/find/all/1/all:+nejronochki/0/1/0/all/0/1
https://www.reddit.com/r/MachineLearning/wiki/index

https://vk.com/deeplearning и http://deeplearning.net/reading-list/
https://www.kadenze.com/courses/creative-applications-of-deep-learning-with-tensorflow/info тюториал по slesarflow
http://rgho.st/8g68fTCSx две брошюры по deep learning для слесарей.

http://kaggle.com - весёлые контесты. денежные призы
https://www.hackerrank.com/domains/ai/machine-learning/difficulty/all/page/1 - олимпиадки

курс от китаёзы
http://videolectures.net/mlss09uk_cambridge/

яп
1. http://julialang.org/
2. https://www.microsoft.com/en-us/research/project/infernet/
3. https://www.r-project.org/
4. питухон и так все знают
5. idris/coq - модные яп для формально верифицированных нейроночек с тренировкой на этапе компиляции

ПЛАТИНА
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.

Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2017 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru

Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.

Что такое TensorFlow?
TensorFlow - опенсорсный гугловый инструмент для перемножения тензоров и оптимизации функционалов. Опенсорсный - потому что даже важные куски типа параллелизации уже выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.

будет ли ML нужен в ближайшие 10 лет, или это просто хайп?
будет. хайп.

смогу найти работу?
Яндекс, мейлру, касперский, несколько биоинформатических компаний (iBinom, можно еще blastim.ru поскролить на тему работы), билайн (они с НГ целое подразделение открыли под ML и биг дату), связной. Ну и западные аутсорсы, если готов рачить за валюту.

нужна математика?
для начинающего ничего особого знать не нужно
https://www.amazon.co.uk/Calculus-Michael-Spivak-x/dp/0521867444
https://www.amazon.co.uk/dp/0534422004/ref=pd_lpo_sbs_dp_ss_2?pf_rd_p=569136327&pf_rd_s=lpo-top-stripe&pf_rd_t=201&pf_rd_i=0980232716&pf_rd_m=A3P5ROKL5A1OLE&pf_rd_r=3TZ38AZ2BY28R19H4SA5
https://www.amazon.co.uk/Calculus-Several-Variables-Undergraduate-Mathematics/dp/0387964053
https://www.amazon.co.uk/Introduction-Probability-Dimitri-P-Bertsekas/dp/188652923X
"основы теории вероятностей" Вентцель

поясните за нейроночки
нейроночка - массив

шад)))
Нет там ничего ML-специфичного, знание матана и теорвера на уровне заборостроительного вуза. Теорвер проходится на третьем курсе, как раз 20 лет.
Рандомный хрен туда не сможет поступить, потому что планка намеренно задрана, а не потому что там такая охуенно сложная программа. Это традиционная наебка "элитных учебных заведений", в которой учат так же хуево, как и везде, но за счет отбора поступающих якобы формируются неебовые успехи, которые объясняются именно качеством преподавания.
Иными словами, у тех, кто способен поступить, и так в жизни проблем с трудоустройством не будет.

Тред #1: https://arhivach.org/thread/147800/
Тред #2: https://arhivach.org/thread/170611/
Тред #3: https://arhivach.org/thread/179539/
Тред #4: https://arhivach.org/thread/185385/
Тред #5: https://arhivach.org/thread/186283/
Тред #6: https://arhivach.org/thread/187794/
Тред #7: https://arhivach.org/thread/196781/
Тред #8: https://arhivach.org/thread/209934/
Тред #9: https://arhivach.org/thread/223216/
Тред #10: https://arhivach.org/thread/234497/
Тред #11: https://arhivach.org/thread/240332/
Тред #12: https://arhivach.org/thread/246273/
Тред #13: https://arhivach.org/thread/256401/
Аноним 24/04/17 Пнд 13:03:09  979055
Где можно почитать подробно о сверточных нейронных сетях?
Аноним 24/04/17 Пнд 13:03:24  979056
первыйнах
все кто ниже пидорасы ебал их мамок
Аноним 24/04/17 Пнд 13:53:16  979083
>>979055
http://cs231n.github.io/convolutional-networks/
Аноним 24/04/17 Пнд 14:15:08  979096
Кто-то из вас вкатился в индустрию?

Почему мне кажется что тут одни школьники...
Аноним 24/04/17 Пнд 14:20:21  979101
>>979096
нет ты мамку ебал
Аноним 24/04/17 Пнд 14:26:03  979110
Матанопитухи сасать
Аноним 24/04/17 Пнд 14:31:34  979117
blob (55Кб, 739x569)
blob (370Кб, 600x367)
blob (203Кб, 350x261)
blob (486Кб, 720x350)
Аноним 24/04/17 Пнд 22:23:59  979363
>>979045 (OP)
а тут в конкурсах кто-то занимал призовые места?
Аноним 24/04/17 Пнд 22:33:29  979372
>>979110
Они уже создали ИИ. Гугли AIXI.
Аноним 24/04/17 Пнд 22:34:53  979373
В чем суть байесовского подхода и всего, что начинается или имеет в составе "байес"? Поясните по хардкору, пожалуйста. Вот, что нейроночка это массив это я понял.
Аноним 24/04/17 Пнд 22:59:41  979395
>>979373
Суть в ебле твоей мамаши
Аноним 24/04/17 Пнд 23:01:44  979397
матанобляди, ваш тред в sci
Аноним 24/04/17 Пнд 23:07:17  979404
>>979373
задаешь приорное распределение над параметрами и теоремой баэса +данные вышисляешь постериор
вместо точечной оценки параметров как в устаревшем классическом/частотном подходе у тебя есть распределение вероятности над пространством параметров
Аноним 24/04/17 Пнд 23:11:28  979406
>>979404
Школьник, уйди в /сцай
Аноним 25/04/17 Втр 12:12:15  979703
https://www.reddit.com/r/MachineLearning/comments/679ffo/d_those_of_you_who_do_this_as_a_career_what_does/

Я работаю в стартапе. Теоретически это от 9 до 5, но, как правило, все мы остаемся позже. Большая часть дня действительно находится перед терминалом, отлаживая или записывая код, время от времени обучая модель или две, но часто это то, что просто работает в фоновом режиме, пока вы работаете над чем-то другим. Каждую неделю проводятся как минимум несколько встреч, но они, как правило, довольно короткие.
Мне нравится, что каждый день появляется что-то новое, и мы также стараемся идти в ногу с исследованиями. С другой стороны, неясность и отсутствие четкой документации - самые неприятные вещи, особенно если вы ищете какую-то загадочную причину, то что-то не работает.


Я работаю над своими задачами, которые обычно связаны с одним из:
Оценка модели, которая была обучена
Работа по настройке для обучения новой модели
Оценка литературы для перспективных технологий
Данные по очистке
Составление потенциального подхода к проблеме
Развертывание модели для производства


Я работаю в псевдо-исследовательской среде. Я заходила в 10 утра, выходила около 5 вечера. Вернитесь к компьютеру около 9 часов вечера и немного поработайте / играйте до 11 или 12 ночи. Я часто работаю во время одного из вечеров выходных (обычно в воскресенье вечером, когда у меня есть свободное время, чтобы поиграть с моделями и т. Д.).

Типичный проект состоит из бесконечных обсуждений и исследований, чтобы решить, что является подходящей целевой переменной и целевой группой. Лучше ли смоделировать вероятность дефолта в 1y? 6m? Что представляет собой дефолт (это действительно сложно)? Если я создаю модель для оценки вероятности того, что кто-то не оплатит свою кредитную карту, хочу ли я использовать данные из всех банков или только моих клиентов? Являются ли мои выбранные данные обновленными в рабочей среде? Могу ли я полагаться на эту информацию? Моя модель - это инструмент для принятия решений, но на самом деле решения будут приниматься на основе модели? Если ваша модель должна использоваться менеджерами филиалов, но они не могут понять ее логику, они могут просто игнорировать ее.
Аноним 25/04/17 Втр 18:24:14  979978
>>979083
Бля, хотелось бы на русском. Но, все равно спасибо.
Аноним 25/04/17 Втр 18:25:35  979979
>>979117
Не понял юмора.
Аноним 25/04/17 Втр 22:29:33  980138
>>979045 (OP)
> пик1
Зачем такие картинки в медленной тематике постить, где висеть на нулевой будет три дня? Не под NSFW же сидеть.
Аноним 25/04/17 Втр 22:33:10  980146
>>979979
>Не понял
Ты вообще не из понятливых.
Аноним 25/04/17 Втр 22:33:40  980148
>>980138
>под NSFW
Ты что - педофил?
Аноним 25/04/17 Втр 23:52:03  980203
Привет. Вы тут с просчетами на GPU и использованиями CUDA ядр умеете работать?
Аноним 25/04/17 Втр 23:59:01  980213
>>980203
Тебя это ебать не должно.
Аноним 26/04/17 Срд 00:00:59  980214
>>980213
Да меня вообще ничего уже не ебет. Просто пообщаться с кем-нибудь на эту тему интересно было бы. Чего сегодня такой злой?
Аноним 26/04/17 Срд 00:05:45  980216
>>980214
>сегодня
Проиграл вголосяндрий с розового оптимиста.
Аноним 26/04/17 Срд 00:08:09  980220
>>980216
Ну хоть на анонимной борде не хочу думать о ничтожной жизни ебучих животных.
Аноним 26/04/17 Срд 00:12:31  980224
>>980220
>не хочу думать
As expected.
Аноним 26/04/17 Срд 00:24:48  980234
>>980224
Увы, у нас разные системы ценностей, друже. Но ты не виноват, ты такое же животное как я, со своим набором нейромедиаторов в черепной коробке.
Аноним 26/04/17 Срд 00:28:42  980236
>>980203
всегда пользовался готовыми либами для алгебры/моделек под видюхи
свой кудакернел написать не смогу
Аноним 26/04/17 Срд 00:31:38  980240
>>979979
хинт: юмор не о твоём посте
Аноним 26/04/17 Срд 00:33:28  980241
>>980236
Какие либы для алгебры юзал? Интересен твой экспириенс.
Аноним 26/04/17 Срд 00:50:09  980249
>>980241
https://github.com/arrayfire/arrayfire
опенсорсная обёртка над другими опенсорс либами
много функций для матриц и прочих алгоритмов для массивов
доступна на многих яп, я пользовался на юле и эфсярпе
немного течёт (читай вызываешь сборку мусора вручную лол) но для моих говноподелок норм
простой пример ускорения: умножить 2 рандомных 10к х 10к матрих ~0.3 сек на 1080, где-то в 20 раз быстрее проца
Аноним 26/04/17 Срд 00:54:00  980252
>>980249
Вот это интересная вещь, сейчас изучу. Спасибо, доброанон!
Аноним 26/04/17 Срд 01:21:12  980259
>>980138
мамка в комнате рядом?
Аноним 27/04/17 Чтв 09:21:36  980898
Надо через месяц простой распознаватель наличия кошечек и людей на фотке сдать, а у меня из знаний по теме только общая суть (Ну там матрицы перемножаются, сравниваются и обратное распространение, тип уменьшить потерю, а еще сверточные слои какие-то есть хуе-мое) с парой формулок. Что подойдет для решения задачи "быстро-написать-и-обучить", Keras будет ок?
Аноним 27/04/17 Чтв 10:27:29  980910
>>980898
>Надо через месяц простой распознаватель наличия кошечек и людей на фотке сдать
смотри как в opencv это зделано
каскады хаара, если не ошибаюсь
шабллоны в хмл есть и для людей и для котов
Аноним 27/04/17 Чтв 10:31:18  980913
image.png (17Кб, 841x103)
Аноним 27/04/17 Чтв 11:23:16  980930
14841264828201.jpg (23Кб, 400x406)
>>980913
Аноним 27/04/17 Чтв 12:26:37  980943
>>980930
зассал, программистишка? скоро тебя заменят
мимо 2-классник
Аноним 27/04/17 Чтв 15:17:25  981013
Решил вкатиться в данную тематику. Что из матчасти изучать более-менее понятно. А вот на каком уровне нужно знать, скажем, Python? Требуется ли ООП или функциональщина?
Аноним 27/04/17 Чтв 16:43:51  981062
>>981013
Заебешься вкатываться.
Аноним 27/04/17 Чтв 17:44:43  981080
>>981013
>на каком уровне нужно знать, скажем, Python?
Уровня "import tensorflow as tf" хватит. Тебе ж не новые алгоритмы разрабатывать.
Аноним 27/04/17 Чтв 22:27:09  981221
>>981062
Почему заебется? Питон же не сложный. А линал на практических примерах гораздо проще и тверже усваивается.

перекатываюсь к вам из пхп-треда
Аноним 27/04/17 Чтв 22:56:12  981238
>>981221
Я уже тут два раза спрашивал, кто-то вкатился в индустрию на зарплату? Вот почему.
А учить дрочить можно хоть рокет саенс ради прикола, но ракеты ты от этого строить не будешь. Клоуны.
Аноним 27/04/17 Чтв 23:06:24  981242
>>981238
Зачем нон-стоп сидеть тут, если уже вкатился? Я в пхп-тред захожу пару раз за полгода, например.
А ответ на твой вопрос есть в архивах тредов.
Аноним 27/04/17 Чтв 23:09:06  981246
>>981242
Да никто не вкатился, что вы как маленькие, тут просто все как хобби ковыряют не спеша эту тему.
Аноним 27/04/17 Чтв 23:12:18  981253
>>981246
Так эта что, без профильного образования вкатиться — анрил?
А если я у мамы на глупенький?
Аноним 28/04/17 Птн 00:13:29  981316
>>981253
Ну вот пхд по физике вкатился
https://m.habrahabr.ru/post/295954/
Аноним 28/04/17 Птн 00:44:14  981325
>>981316
Доктор блять по физике, ну нихуя себе блять, тут на сосаке большинство закончили гуманитарошараги! шараги! блять. И эта говномасса мечтает о нейроночках.
Аноним 28/04/17 Птн 00:57:47  981329
>>981325
Ну я на 6 курсе мфти например
Аноним 28/04/17 Птн 01:24:01  981337
Я просто напомню, что на Степике есть русскоязычный вводный курс в нейросети на уровне "а вот сейчас мы перемножим две матрицы".
Аноним 28/04/17 Птн 01:35:59  981341
На каких уровнях надо знать физику, нейрофизику, химию, нейрохимию, математику, психологию и прочее чтобы создать ИИ?
Аноним 28/04/17 Птн 02:03:36  981347
>>981341
Математику на уровне Миши Громова или Макса Концевича на худой конец, физику хотя бы на уровне Эдварда Виттена итд ну ты понял
Аноним 28/04/17 Птн 09:19:44  981386
>>981341
Отталкивайся от AIXI и Solomonoff induction.
Аноним 28/04/17 Птн 12:14:21  981443
image-net часто падает или я такой неудачник?
Если часто, то какой базой можно еще воспользоваться для обучения говнонейроночки на распознавание?
Аноним 28/04/17 Птн 13:22:50  981461
>>981316
О! Спасибо! Чем-то напоминает мою ситуацию.

>>981325
PhD соответствует уровню кандидата, гуманитарий ты наш из шараги.
Аноним 28/04/17 Птн 13:36:53  981466
>>981461
>PhD
это прохфесор хфилософии? кек
Аноним 28/04/17 Птн 13:46:20  981468
>>981466
чое гуманитарий тип) азхах
Аноним 28/04/17 Птн 22:26:23  981675
>>981246
Та же херня. 3 курс, работаю жабомакакой. Из-за МЛ окончательно бросил развиваться как программист. А ведь хотел писать крутые архитектуры, знать паттерны и всё такое. И это всё ведь поможет мне стать крутче на рыночке, укатиться на другой континент. Но я как мудак сижу и дрочу нейрончики.
Аноним 28/04/17 Птн 22:30:12  981680
>>981675
Что мешает перекатиться в ml? Вакансий нет?
Аноним 28/04/17 Птн 22:32:42  981683
>>981680
Ну вот перекачусь. Может быть.
Аноним 28/04/17 Птн 22:52:21  981697
>>981675
Какие достижения в ml? Давно куришь тему?
Аноним 29/04/17 Суб 12:39:16  981874
Есть какие-нибудь дешевые сервисы облачных вычислений с уже установленными (возможностью установки) всякими кеглями и тензорфлоу? Хочу вкатиться, но совсем нищук.
Аноним 29/04/17 Суб 13:05:07  981881
>>981874
>совсем нищук.
Таким не положено.
Аноним 29/04/17 Суб 15:08:54  981956
А есть аналоги TensorFlow под js, вообще нормально машобом на js заниматься?
Аноним 29/04/17 Суб 15:12:11  981957
Ты не можешь выучить питон и хочешь заниматься машобом? Даже не начинай.
Аноним 29/04/17 Суб 15:51:27  981968
>>981956
>>981957
Да там чтобы написать простейшую нейросеть не нужно знать питон, нужно знать лишь базовый его синтаксис.
Аноним 29/04/17 Суб 18:10:39  982067
А на Go кто-нибудь пишет ИТТ? Питон #надоел, поставил R, а он как раз полминуты грузит 40метровый csv.
Аноним 29/04/17 Суб 18:26:21  982074
>>982067
всм надоел? какая у тебя задача?

> go
мало либ
Аноним 29/04/17 Суб 21:58:25  982172
>>982074
>всм надоел?
всм заебал
> задача
Вообще у меня метрика, но в го-тредике крудо-песатели долбоебы, а этот тред мне показался ревелантным. Ну в самом деле, не у веб макак же спрашивать. Что касается выбора технологии, то хозяин великодушно разрешил выбрать самому.
>мало либ
Жаль. Два года назад искал аналог nltk на Go, до сих пор с этим хуево.
Аноним 30/04/17 Вск 00:22:11  982232
Есть какие-нибудь гайды, как выбирать параметры для сверточных сетей? Размеры фильтров, learning rate и т.д.?
Аноним 30/04/17 Вск 02:18:11  982254
>>982232
задайишь плоские нормальные распределения и теоремой бейса ввыводишь
#гспди 14й тред уже
Аноним 30/04/17 Вск 02:38:04  982257
>>981956
Сайт тензорфлова говорит, что у него есть C API. Гугол говорит, что жабаскрипт умеет в FFI.
Вперед и с песней.
Аноним 30/04/17 Вск 03:21:40  982263
>>982254
ты охуел? Какая связь между нормальным распределением и размером фильтра?
Аноним 30/04/17 Вск 14:23:47  982376
>>982263
все вещественные параметры белые люди выводят теоремой бейса и плоским нормальным приором
Аноним 30/04/17 Вск 14:31:27  982379
А генетическое (или даже слышал какое-то меметическое) программирование на практике где-то, кроме научных статей, используют?
Аноним 30/04/17 Вск 15:43:24  982417
>>982376
а положительные целые параметры как выводят?
Аноним 30/04/17 Вск 16:48:45  982449
>>982417
аналогично, вместо нормального ебашат дискретнный равномерные приор
Аноним 30/04/17 Вск 19:18:42  982552
Как вкатится в слесари?
Что вообще почитать для биггинеров в машобе? Можно на английском.
Аноним 30/04/17 Вск 19:31:21  982565
>>982552
Ты уверен что сможешь стать настоящим слесарем, если не можешь прочесть оп-пост, придурок?
Аноним 01/05/17 Пнд 00:01:11  982692
Есть ли профит от многоядерного проца для всей этой хуйни?
Или даже потребности начинающего уже включают в себя аренду мощностей на амазонах, и домашний пека можно не апгрейдить?
Аноним 01/05/17 Пнд 00:56:15  982703
>>982692
Что за Потребности начинающего ?
Аноним 01/05/17 Пнд 01:45:53  982719
>>982703
ИИ
Аноним 01/05/17 Пнд 01:47:20  982722
>>982692
можно купить титан/1080ти
на амазоне тормозят видюхи, гоглоклауд лучше
Аноним 01/05/17 Пнд 13:41:39  982851
https://yandex.ru/jobs/vacancies/interns/intern_researcher

Кто нибудь подавал заявки?
Аноним 01/05/17 Пнд 13:42:48  982853
>>982851
Не отвечают долго?
Аноним 01/05/17 Пнд 14:56:29  982911
image.png (136Кб, 263x297)
image.png (58Кб, 175x197)
image.png (61Кб, 162x199)
image.png (87Кб, 201x231)
>>982851
может не надо?
у нас и в треде не так и плохо
Аноним 01/05/17 Пнд 15:14:06  982913
14873491511450.jpg (53Кб, 900x608)
Поясните за сверточные нейроночки, точнее могут ли они в такую задачу:
- есть набор картинок, на картинках зависящие друг от друга фигуры.
- датасет организован так, чтобы представить эту зависимость в форме 4картинка = f(3картинка,2картинка,1картинка), следующий набор - 5картинка = f(4картинка,3картинка,2картинка) и т.д., по-сути нечто вроде матрицы Ганкеля, но не с цифрами, а с картинками фигур, что есть стандартный метод представления динамической системы.
Вопрос - сможет ли сверточная нейроночка идентифицировать систему по такому датасету, конкретно требуется, чтобы она выдавала 4ую фигуру по предъявленным трем предыдущим?
Аноним 01/05/17 Пнд 16:12:55  982957
>>979045 (OP)
Школота блять
Аноним 01/05/17 Пнд 16:54:21  982992
>>982911
Что с ними не так? Обычные среднестатистические

Меня другое в яше поразило, как они относятся с людям, мне письмо от них пришло через ЕБУЧИЙ МЕСЯЦ, когда я уже нашел другую работу. Нахуй так делать? Или им кролики нужны которые только на Яндекс молятся?
Аноним 01/05/17 Пнд 17:04:18  983004
>>982911
Ну а что ты предлагаешь им делать? Чем богаты, тем и рады.
Первое лицо вообще непонятно почему тебя смутило.
Аноним 01/05/17 Пнд 17:33:57  983038
Какой самый пиздатый метод понижения размерности?
Аноним 01/05/17 Пнд 17:45:49  983052
>>983038
Пользуюсь PCA, брат жив, зависимость есть.
Аноним 01/05/17 Пнд 17:48:57  983058
Скачал Intro to Machine Learning. Ethem Alpaydın.
Ну хуй знает, как то сухо все идет повествование, мне бы что покрасочнее с картиночками графиками, охуительными историями.

Так сказать книга обзор, экскурс в область. Не углубляясь. И не сильно обмазываясь.
Аноним 01/05/17 Пнд 18:24:23  983076
>>982853
Просто интересно кем надо быть чтоб туда попасть. Если я обычный хуй с старших курсов мфти каковы мои шансы
Аноним 01/05/17 Пнд 19:46:05  983144
>>983076
>каковы мои шансы
высокие, для нормальных людей яндекс зашквар, только матанопитухи мечтают там петушиться
Аноним 01/05/17 Пнд 20:15:27  983197
>>983076
>мфти
>каковы шансы
Крайне высокие
Аноним 01/05/17 Пнд 21:08:47  983263
image.png (612Кб, 800x800)
Допустим, у нас есть два похожих изображения.
Будут ли веса нейросетей, распознающих эти изображения похожи хотя бы на начальных слоях?

Можно ли по схожести весов сказать о схожести изображений?
Аноним 01/05/17 Пнд 21:46:09  983283
>>983263
нет
Аноним 01/05/17 Пнд 22:06:15  983289
Пацаны, яндексовская 6месячная специализация имеет смысл чтоб за нее платить?

ML рассматриваю как возможный путь переката из мобайла в течение года, поэтому не особо спешу, и идея посматривать видосы параллельно с книжками кажется нормальной. Но вот сертификат этот - он вообще что-то даст?
Аноним 01/05/17 Пнд 22:11:31  983290
>>983289
Скорее всего ничего не даст, но я прохожу.
Половину специализации можно пройти за две недели, дальше пока не знаю. Хочу уложиться в два месяца. На мой нубский взгляд, очень крутая специализация.
мимо такой же перекатыватель
Аноним 01/05/17 Пнд 22:23:11  983295
>>983289
>>983290
Котаны, а я просрал все полимеры, не серьезно отнесся ко всей этой шляпе, и на 2-ом курсе специализации не сдал все домашки, и в итоге сертификат второй не получил.
Дропнул, думал может заного вкатиться пробовать.

Млять... и сейчас думаю может пробовать заного вкатываться...
Аноним 01/05/17 Пнд 22:46:14  983303
А где то есть инфографика что куда входит.
У меня просто каша в голове: Нейронные сети, Машинное обучение, БигДата, ИИ, Диплернинг, Компьютерное зрение, и т.п.

Типо как граф связей что от куда вытекает , что сначала надо изучать.
Аноним 01/05/17 Пнд 22:56:08  983308
>>983303
https://ulearn.me/Course/AIML/ там найдешь историю, короче
Аноним 01/05/17 Пнд 23:42:38  983323
>>983295
Почему бы и не попробовать?
Я сейчас заканчиваю первый курс, но морально настроен на его повторное прохождение и осмысление, т. к. чувствую, что знания усвоились недостаточно твёрдо (хотя ответы на все вопросы в тестах даю правильные).
Планирую найти какой-нибудь задачник по линейке, попрактиковаться с матрицами, векторами, функциями. Может кто подскажет годные варианты?
Аноним 01/05/17 Пнд 23:45:55  983325
>>983323
На втором курсе сложность просто по экспоненте вверх поползет, 1-ый просто лайтовый.
Аноним 01/05/17 Пнд 23:47:39  983326
>>983325
Что такое норма векторного пространства? Простым языком можешь объяснить?
Аноним 01/05/17 Пнд 23:48:47  983328
>>983308
Там в основном все до 1993 года освещается, а мне бы что происходит в настоящем.
Аноним 01/05/17 Пнд 23:50:07  983329
>>983326
Нет, я и сложно не смогу объяснить
Аноним 01/05/17 Пнд 23:54:46  983331
>>983329
Может тебе второй курс показался сложным, потому что материал первого не до конца понял?
Аноним 02/05/17 Втр 00:00:56  983333
>>983328
Большинство настоящего выросло из моделей систем безопасности из начала 90-х.
Аноним 02/05/17 Втр 00:10:04  983335
long-road-to-da[...].png (360Кб, 1554x1262)
>>983333
Ну вот что я нашел, что-то подобное еще встречали?
Аноним 02/05/17 Втр 00:17:56  983339
>>983326
Длина вектора
Аноним 02/05/17 Втр 00:42:06  983347
>>983326
У тебя линала в вузе не было, что ли?
Аноним 02/05/17 Втр 01:35:42  983359
В чем сильные стороны R в сравнение с питоном для машоба и наоборот.
Аноним 02/05/17 Втр 01:36:01  983360
В чем сильные стороны R в сравнение с питоном для машоба и наоборот.
Аноним 02/05/17 Втр 01:45:41  983363
>>983360
ПАКЕТЫ!
Аноним 02/05/17 Втр 03:51:46  983385
>>983363
В питоне же куча библиотек, тот же scikit, pandas, numpy, bob, opencv, tensorflow и еще 100500. И вряд ли на r есть пакеты уровня opencv. Вот собственно интересно чем же r так хорош
Аноним 02/05/17 Втр 05:18:17  983389
>>983385
Сто раз пояснял, что кроме сверточных нейроночек пистон для мл по сравнению с R пустое место. Но школьники все равно кроме сверточных сетей и хгбуста ничего не знают, поэтому пояснять что'то бесполезно.
Аноним 02/05/17 Втр 06:40:27  983399
>>983323
Я после каждой лекции смотрю видео на ютубе, там очень простым языком все понятия объясняются, и читаю книжку машин лернин виз питон. Мне кажется, простые понятия из линейки можно и на википедии смотреть, либо на том же ютубе.
Аноним 02/05/17 Втр 07:19:36  983404
>>983347
У меня вуза не было.
Что такое норма — мне понятно.
Аноним 02/05/17 Втр 07:59:19  983413
>>983399
>видео на ютубе
Эти?
https://www.youtube.com/playlist?list=PLZHQObOWTQDPD3MizzM2xVFitgF8hE_ab
Аноним 02/05/17 Втр 09:23:43  983429
>>983052
На моих данных PCA чот хуёво работал, сейчас нагуглил про автокодировщики, пасаны грят охуенная тема.
Аноним 02/05/17 Втр 14:50:15  983550
>>983413
В том числе. Я обычно просто набираю название непонятной вещи, типа ordinary least squares, и там вылезает куча видео, в которых простым языком именно эта вещь объясняется.
Аноним 02/05/17 Втр 17:00:10  983622
>>983290
ну хз за 2 недели можно пройти если ты нигде не работаешь/не учишься и просто щелкаешь правильные ответы.
>>983325
Интересно, с линалом у меня все ок, а вот больше проблемы с тервером.
Аноним 02/05/17 Втр 19:44:35  983708
>>983622
Ты почти прав. На работе куча свободного времени, там и прохожу. Да и первый курс крайне простой, за день осилить легко. В целом не вижу ничего не реального в том, чтобы неделю в день-два делать.
Аноним 02/05/17 Втр 21:00:15  983764
>>983404
А как ты вкатиться планируешь?
У меня тут пукан бомбит что у меня шарага техническая, а не божественный МФТИ, а ты голодранец вообще без ВО?
КАК? Или ты для души куришь машоб?
Аноним 02/05/17 Втр 21:14:07  983776
>>983764
Я пока не строю планов по вкату. Просто тема интересная.
Цель на текущий момент — заполнить пробелы в знаниях по матеше и запилить что-нибудь в машобчике, уровнем тянущее на диплом нормального вуза. Для себя.
Ещё мне почему-то начал нравиться питон.
Аноним 02/05/17 Втр 21:24:40  983787
>>983764
Ну и непохоже, что эти вакансии невозможно потянуть и без ВО:
https://yandex.ru/jobs/vacancies/research/mlspec_ydf/
https://yandex.ru/jobs/vacancies/analytics/data_scientist_market/

ВО нужно, если в твои должностные обязанности входит написание статей в научных журналах или ты метишь в глубокое R&D. Ну мне так кажется, возможно и неправ.
Аноним 02/05/17 Втр 21:27:43  983789
>>983787
Няшные вакансии. Как думаете, сколько там платят? Мой прогноз ~80k
Аноним 02/05/17 Втр 21:29:22  983792
>>983787
Я начитался что в яндексе одни петухи работают, и типо там маленькие ЗП, а мотивируют они это тем что "работать в нашей компании большая честь".
Аноним 02/05/17 Втр 21:53:41  983798
>>983789
Да, скорее всего, так и есть. Зарплата пых-макаки с годом опыта.

>>983792
>и типо там маленькие ЗП
Тоже слышал такое. Но после нескольких лет работы в яндексе, думаю, тебе в большинстве случаев не составит труда перекатиться на хорошие деньги в другие конторы.
Аноним 02/05/17 Втр 22:57:36  983844
>>983798
>труда перекатиться на хорошие деньги в другие конторы.
с опытом быгдота т.е. впаривания контекстной рекламы то до, прям всем нужны
Аноним 03/05/17 Срд 07:22:41  983967
Ньюфаг в треде, пытаюсь завести простенькую распознавалку на сверточной сети, уже по-всякому ее вертел, но больше 0.6 акьюраси на тестах не получал. Причем обычно в середине имею 0.6/0.6 на тренировочных/тестовых пикчах, а потом точность на тренировке растет вплоть до 0.85-0.90, а на тесте колеблется на 0.6+-0.02 и не может взлететь выше. С чем это связано, с малым числом сверточных слоев (больше 3 не ставил), со слишком малым размером базы данных (5 классов, ~3к пикч), с тем что я шакалю изображения до 120х120, со всем сразу?
Аноним 03/05/17 Срд 07:52:09  983969
>>983967
Читаешь https://followthedata.wordpress.com/2012/06/02/practical-advice-for-machine-learning-bias-variance/
Видишь, что у тебя high variance - то есть модель твоя переобучается, не генерализуя достаточно. Поэтому усложнять модель (ставить еще больше слоев) не надо, тогда она будет переобучаться еще сильнее.
Больше данных - ок. Больше пикселей - не совсем ок, так как ты, с одной стороны, увеличишь число данных, но при этом увеличишь и размер твоей модели.
Далее, можно добавить регуляризацию, например, batch normalization или дропаут. Это тоже поможет от переобучения. Начни с этого.
В конце концов скорее всего high variance превратится в high bias, тогда можно будет и усложнить модель, и так ебашить циклично, пока не добьешься нужных цифр.
Аноним 03/05/17 Срд 09:03:22  983988
Долго ли будет нейросеть распознающая котиков обучаться на довольно плохой видеокарте?
Аноним 03/05/17 Срд 15:04:13  984147
>>983988
Долго ли нога будет входить в твою задницу?
Если бинарные изображения 100 на 100 пикселей и датасет из тысячи картинок, то не долго.
Аноним 03/05/17 Срд 18:14:31  984229
>>983988
Зависит от сети. Если преобразовать сеть в целочисленную, то можно будет добиться скоростей намного быстрее рилтайма.
https://culurciello.github.io/assets/nets/acc_vs_net_vs_ops.svg
Аноним 03/05/17 Срд 19:06:31  984262
>>979045 (OP)
Кто-нибудь может пояснить за правую картинку? Что за иероглифы идут посел петуха?
Аноним 04/05/17 Чтв 20:03:41  984853
ВО ИМЯ ГОСПОДА [...].webm (729Кб, 720x576, 00:00:11)
!!!!!!!!!!!!!!![...].jpg (206Кб, 493x493)
!!!БУРЯТКО-ПОП.webm (15559Кб, 640x360, 00:02:35)
!!!!NIRVANA - S[...].webm (597Кб, 640x360, 00:00:09)
>>984262
Вкратце - Тета (H) - это гипотеза, Х - obseravation (данные). Теорема Байеса задаёт зависимость между вероятностью H|X (вероятность гипотезы при наблюдаемых данных Х, постериорная) и вероятностями H(априорная), X|H и H. Фреквинитсткий подход - думать в терминах X|H (как часто мы наблюдаем такие-то данные, если гипотеза верна). Не думать о данных - подход макаки (просто есть слепая вера в гипотезу). Не думать о гипотезе, а только о наблюдаемых данных - подход недалёкого позитивиста.
Очень сумбурно написал - если что-то непонятно попробую дополнить.

А вот что значит последний иероглиф я не знаю - поясните кто-нибудь.
Аноним 05/05/17 Птн 16:53:55  985287
ask.png (15Кб, 704x369)
ПОМОГИТЕ! Я делаю сверточную нейронную сеть с двумя слоями свертки. Вопрос: как отправить ошибку с предпоследней свертки следующему слою пикрелейтед? Я уже смог пропустить ошибку через прошлые слои части свертки, как ее отправить дальше? В интернете не нашел ничего, что рассказывает больше чем об одном слое свертки.
Аноним 05/05/17 Птн 18:25:55  985348
>>985287
И еще один вопрос после того, как я применил алгоритм обратного распространения ошибки к свертке я получил матрицу 64х64 как теперь этим обновить веса свертки, размер которых 6х3х3?
Аноним 05/05/17 Птн 21:55:26  985505
>>984853
Последний иероглиф про вореции.
В случаях, когда стат.модель достаточно сложна, апостериорное распределение можно приближать вариационным методами: mean field, expectation propagation, stochastic variational bayes там всякие.
Аноним 06/05/17 Суб 17:47:33  985892
>>983263
Вопрос собеседуещего петуха, а что под схожестью изображений понимаеться? Если основные цвета то возможно. Какая нейронка используеться, как кормим, но основе чего получаем веса?
Аноним 06/05/17 Суб 20:17:33  985980
Почему программисты так любят зашквареную машину Тьюринга?
Аноним 06/05/17 Суб 20:22:16  985987
>>985980
Не туда написал. Извините.
Аноним 06/05/17 Суб 20:26:41  985990
>>985980
Предложи лучше.
Аноним 06/05/17 Суб 20:35:52  986000
>>985980
Потому что программисты петухи - зашквары
Аноним 06/05/17 Суб 20:57:59  986018
>>985980
Почему она зашквар? Потому что Тьюринг пидор, или потому, что теория бредю?
Аноним 06/05/17 Суб 21:00:19  986020
>>986018
Да да
Аноним 06/05/17 Суб 22:42:11  986086
Кодить.webm (3136Кб, 640x360, 00:00:34)
Мне было нелегк[...].webm (4320Кб, 1280x720, 00:00:15)
Серп и Молоток.webm (8286Кб, 636x360, 00:02:09)
>>979045 (OP)
Поясните за дата аналитику. Я полный нуб в этой области. Позязя, братцы.

Где работают?
Что делают?
Что конкретно надо знать чтобы быть аналитиком: какая математика, какие инструменты?

Аноним 06/05/17 Суб 22:51:24  986097
Есть какие-то готовые инструменты с красивым веб-интерфейсом? Взял, загрузил данные, оно проанализировало и выплевывает такую йобастатистику, йобаграфики, йобакорреляции, всё такое йоба шо вообще.
Аноним 06/05/17 Суб 23:21:40  986118
>>986086
>>986097
Соси хуй, быдло.
Аноним 06/05/17 Суб 23:40:34  986128
>>986097
Я пользовался DataRobot. мне вообще ничего не пришлось делать, я загрузил CSV и он мне все показал, какте алгоритмы лучше кореллириуют, какие хуже и какие данные значимы как фичерсы.
Аноним 06/05/17 Суб 23:44:18  986131
>>986128
плюс потом дал мне точку с апи, и я слал туда новые данные, а он на основе классификатора высылал прогноз. Мартышкин труд.
Аноним 07/05/17 Вск 01:04:05  986178
>>986128
Хотел отправить сосать хуи, но таги годнота, пока оставайся тут
Аноним 07/05/17 Вск 02:20:28  986194
>>986118
За что ты называешь меня быдлом, быдло? Я даже не знаю норма это или нет.
Аноним 07/05/17 Вск 07:51:41  986216
>>986086
пандас нампай уметь гуглить ок да
Аноним 07/05/17 Вск 07:52:48  986217
>>986128
так чо он же платный же поход
Аноним 07/05/17 Вск 14:17:43  986308
>>986216
Да я кучу всего нагуглил, но узнавать из первых рук все равно надо, у того кто с этим работает. Я неб, но не дерево.
Аноним 07/05/17 Вск 16:15:42  986401
>>986308
уметь гуглить это что уметь надо
дата аналитики как суки гуглят эвридей
Аноним 07/05/17 Вск 19:20:13  986484
>>986401
Намек понятен
Аноним 08/05/17 Пнд 08:28:29  986692
Где можно достать картинки архивом в большем количестве?
Аноним 08/05/17 Пнд 08:49:34  986697
>>986692
Ты хочешь котиков распознавать научиться? Есть ImageNet, MNIST, https://en.wikipedia.org/wiki/List_of_datasets_for_machine_learning_research вот еще список
Аноним 08/05/17 Пнд 09:23:41  986700
m0reC5QZ.png (319Кб, 512x512)
Поясните за распознавание котиков. Суть такова. Оказывается, в природе не существует бесплатных математических OCR, которые бы распознавали скажем формулы в рендеренных пдф'ках в AMS'TeX нотацию. Если замутить датасет, где входом будет графическое изображение формулы в вышеуказанной нотации, а выходом соотв'но текст, рендерящийся в такое изображение, получится ли искомый мат OCR бесплатно и без смс?
Аноним 08/05/17 Пнд 09:41:28  986703
https://colah.github.io/posts/2015-09-NN-Types-FP/

Neural Networks, Types, and Functional Programming

Что можете сказать?
Аноним 08/05/17 Пнд 09:49:25  986707
>>986700
Вот, кстати да, если есть такие крутые нейросети, то почему всё-еще есть проблемы с распознаванием текста, а старые книги еще не сделаны, например, в нормальные pdf с текстом, который можно выделять и копировать?
Аноним 08/05/17 Пнд 10:11:13  986715
14896813492370.jpg (122Кб, 1200x1013)
>>986703
Ну я еще в прошлом году тут писал, что нейроночки это зависимый тип, в этом году писал, как алгоритмы на основе теории чтатистического обучения Вапника свести к типизированной лямбде и получать автосатически генетмческим программированием. Вот не только мне очевидно, что млтт это будущее не одной математики, но и машинного обучения. Ждем, когда до этой мысли дорастут ведущие специалисты в области мл.
Аноним 08/05/17 Пнд 10:25:26  986716
Нейроночки это алгоритм. И вот, кого'то осенило, что они представимы в парадигме функционального программирования. Але, гараж, Тьюринг об этом еще в 1937 году писал.
Аноним 08/05/17 Пнд 11:59:23  986731
>>986707
Есть, у гугл букс можно искать кучу книг по фразе, но копирайт, библиотеки и тд не дают выкладывать полностью в открытый доступ, кроме того, сканировать книги довольно трудоемко, ну, и если выложить в открытый доступ, не будет профита
Аноним 08/05/17 Пнд 12:44:31  986753
image.png (56Кб, 169x213)
http://www.openias.org/variational-coin-toss
Аноним 08/05/17 Пнд 12:47:56  986755
А почему в шапке нет видео курса от CalTech?

https://www.youtube.com/watch?v=mbyG85GZ0PI&list=PLD63A284B7615313A
Аноним 08/05/17 Пнд 14:32:36  986797
res.PNG (12Кб, 576x93)
conv2.jpg (0Кб, 256x256)
conv0.jpg (15Кб, 256x256)
17.png (4Кб, 300x168)
Хелп! Пишу сверточную нейронную сеть, и в какой-то момент она застряет в одном месте, а также картинки при обработке сверткой становятся очень сильно засвечены.
Аноним 08/05/17 Пнд 14:33:15  986798
>>986797
*засвечены либо затемнены.
Аноним 08/05/17 Пнд 14:39:25  986800
relu1.jpg (0Кб, 16x16)
relu2.jpg (0Кб, 16x16)
relu4.jpg (0Кб, 16x16)
>>986798
на последних слоях свертки они вообще уже становятся одного сплошного цвета.
Аноним 08/05/17 Пнд 14:50:04  986805
ask1.PNG (5Кб, 591x98)
head1.png (1Кб, 800x600)
body1.png (1Кб, 800x600)
Но, вот если использовать простые данные для обучения, то алгоритм справляется. На 2 и 3 пикче данные по которым СНС училась.
Аноним 08/05/17 Пнд 18:35:50  986927
>>986797
Сам пишешь? Или юзаешь готовую либу, а сам просто проектируешь нейросеть?

мимоньюфаг
Аноним 08/05/17 Пнд 18:37:45  986930
>>986927
Сам пишу, использую только либу для линейной алгебры.
Аноним 08/05/17 Пнд 19:04:21  986943
>>986927
Если бы только проектировал, то, наверное, таких проблем не было.
Аноним 09/05/17 Втр 10:03:30  987262
>>986755
Дискриминация индусов.
Аноним 09/05/17 Втр 10:04:33  987263
>>986930
И зачем ты так делаешь? В современным библиотеках строиться граф, бегают тензоры по графу, оптимизаций куча...
Аноним 09/05/17 Втр 10:09:48  987264
Машинным обучением, нейронками и прочим ИИ разве есть смысл заниматься самому, без профильного ВО? Это ведь дико математизированная штука и при устройстве на работу в области "ИИ" нужно иметь профильное ВО и не хилый математический профиль.
В смысле, без ВО и ИИ вкатиться и работать реально?
Аноним 09/05/17 Втр 10:22:32  987271
>>987263
Ну, мне кажется, что если оно все за меня делать будет, то я ничему не научусь.
Аноним 09/05/17 Втр 11:00:49  987284
>>987264
Обычно есть разделение на исследователей и простых макак. Исследователям желательно что-то типа PhD.
Аноним 09/05/17 Втр 11:05:25  987289
>>987284
И ведь макаки больше чем исследователи зарабатывают
Аноним 09/05/17 Втр 11:36:47  987300
>>987284
А есть смысл получать этот PhD?
Аноним 09/05/17 Втр 11:38:06  987301
>>987300
Если хочешь стать исследователем - то да.
>>987289
Да-да, а ещё кассиры в маке больше исследователя получают. Тебе с дивана виднее.
Аноним 09/05/17 Втр 11:39:52  987302
>>987301
>Если хочешь стать исследователем - то да.
В это дело я бы с радостью. Правда возраст уже не позволяет образование получать (24 года)
Аноним 09/05/17 Втр 11:41:56  987304
>>987284
но ведь спрос на макак больше

сейчас даже ссаные турагентства, которые должны умереть как мамонты, пытаются в БИГДАТУ, МАШИНЛЕНИНГ И КЛАСТЕРНЫЙ АНАЛИЗ
для их уровня хватит видосиков на ютубе и решения задачки про титаник
Аноним 09/05/17 Втр 12:09:14  987331
Чем нейронки и машин лернинги грозят рядовым программистам-макакам? 90% их "трудов" ведь можно автоматизировать и передать работу под ИИ.
Аноним 09/05/17 Втр 12:29:51  987348
>>987331
>90% их "трудов" ведь можно автоматизировать
лолнет
олсо
> нейронки и машин лернинги
>ИИ
хех
Аноним 09/05/17 Втр 12:42:12  987364
>>987331
нет
часть из них могут лиштся работы но всех сразу не выпрут

>>987264
если интересно - занимайся
a если нет то и работы не найдёшь

>>987262
он Египтянин
ты джизью заплатил, кафир?
Аноним 09/05/17 Втр 12:50:02  987371
автоматизация джуниор-юристов
https://www.ft.com/content/f809870c-26a1-11e7-8691-d5f7e0cd0a16

После финансового кризиса 2008 года их бизнес-модель оказалась под давлением, так как компании сократили расходы на юридические услуги, а технология воспроизвела повторяющиеся задачи, с которыми юристы более низкого уровня в начале своей карьеры работали в прошлом.

Раньше BLP собирал небольшую группу младших юристов и помощников юристов в кратчайшие сроки, а затем отправлял их в комнату для извлечения этих данных вручную из сотен страниц - процесс, который мог занять недели. Система Ravn проверяет и извлекает ту же информацию за считанные минуты.

Пока, говорят фирмы, технология не означает потери рабочих мест. Но профессор Сусскинд считает, что впереди волна увольнений - юридические фирмы все еще экспериментируют с ИИ вместо того, чтобы разворачивать их через свои офисы.

TRANSLATED BY НЕЙРОНОЧКА
Аноним 09/05/17 Втр 12:58:53  987377
>>987371
Какая нах нейроночка, если автоматизация в этой области полностью решается экспертной системой? То же самое и в области постановки мед диагнозов (этим вроде Ватсон сейчас занимается, а там коре - экспертная система). Но вообще всё это хуйня, поскольку юристику невозможно формализовать, там больше психологии. Разве что мелкую хуйню, типа административки с минимальной предысторией.
Аноним 09/05/17 Втр 13:00:34  987379
>>987264
Смотря что ты подразумеваешь под "заниматься машинным обучением". Есть немало дата аналитиков, которые, грубо говоря, просто юзают алгоритмы как чёрные коробки.
Аноним 09/05/17 Втр 13:04:38  987386
>>987379
>987264
>Смотря что ты подразумеваешь под "заниматься машинным обучением"
Как раз и заниматься разработкой этих самых "черных коробок", теорией алгоритмов, статистикой, теорией информации и обучением интеллектуальны систем.
Я в общем понимаю, что это больше в "исследователи", а это значит, что нужно "ВО". Но надеялся всё же на лазейку. Мол, можно ли без ВО каким-либо образом этим заниматься, ибо в 24 года поступать в универ такая себе идея
Аноним 09/05/17 Втр 13:14:52  987399
Я так понимаю, без пары титанов в лидерборды на кегле лучше не пытаться лезть?
Аноним 09/05/17 Втр 13:16:12  987400
>>987377
>юристику невозможно формализовать
Внезапно, нейронки решают то, что нельзя формализовать.
Скорее бы юристов пидорнули, не люблю этих ЧСВ-шных говнокодомакак уровня 1С.
Аноним 09/05/17 Втр 13:21:10  987406
>>987399
Ну почему же, там сейчас у сбера конкурс есть по оценке недвижимости, можно на CPU считать.
Да и по другим конкурсам я не очень понимаю, зачем там титаны, если конечно ты не обучаешь десять ансамблей по тридцать моделей в каждом, как некоторые отбитые товарищи.
Аноним 09/05/17 Втр 13:22:46  987408
>>987399
Так при чём тут титаны. Дата саенс это же не про "давайте навернём десять тыщ слоёв", а про грамотный анализ данных, отбор фич, генерирование макрофич, очистку датасета и т.д. Для всего этого титаны не нужны.
Аноним 09/05/17 Втр 13:27:51  987413
>>987406
>>987408
Ну я сам не лез еще, но краем уха на хабрах всяких неоднократно слышал что одна из проблем использования кегли для саморазвития - что там в топах и кернелах часто висят парни, которые просто стакают сетки в ансамбли, а не придумывают что-то новое или поясняют за анализ.
Аноним 09/05/17 Втр 13:48:10  987431
>>987413
Если тебе для саморазвития - какая разница, кто там в топе? Просто решай задачи, получай бесценный опыт.
>парни, которые просто стакают сетки в ансамбли
Ну есть такое. А ты придумай новое.
>поясняют за анализ
Победители обычно расписывают свое решение, но там редко что-то ценное. Чаще всего ансамбли и дрочево
Аноним 09/05/17 Втр 14:16:22  987472
>>987431
>Если тебе для саморазвития - какая разница, кто там в топе
Ну так интересней гораздо, когда на что-то претендуешь

Плюс:
>Победители обычно расписывают свое решение, но там редко что-то ценное. Чаще всего ансамбли и дрочево
Ну в том и суть, что, выходит, найти интересные решения сложно среди тонны решений в стиле "Я запускаю керас и собираю ансамбль из 500 тыщ моделей..." как раз из-за титанщиков в в топе.

Но я понял суть, попробую-таки кагл, спасибо за ответы
Аноним 09/05/17 Втр 15:22:21  987595
image.png (513Кб, 561x500)
>>987377
TRANSLATED значит "переведено" по англ
http://www.dictionary.com/browse/translate
Аноним 09/05/17 Втр 15:25:08  987602
>>987348
А на чем делать ИИ? Нейросети же обладают гладкостью.
Аноним 09/05/17 Втр 16:44:26  987644
>>987377
>юристику невозможно формализовать,
Юристика - это формализация курильщика, конкретный пример, когда формализацию делают гуманитарии. Как итог - закон что дышло, кто больше занес / имеет больше связей, тому и вышло. И без видимых противоречий, все по закону. Потому что начни там копать формально, пиздец сколько хуйни повылезет, противоречие на противоречии противоречием погоняет. Еще Лейбниц понимал необходимость формализовать эту область, сейчас это даже возможно технически (я про пруверы), только всем похуй - законы крутятся, баблишко мутится.
Аноним 10/05/17 Срд 13:47:08  988150
>>979045 (OP)
Пока довены-ботанидзе в этом итт треди пердят и превозмогают во имя светлого машинного будущего, нормальные пацаны используют ML по назначению.
https://medium.com/the-mission/rocket-ai-2016s-most-notorious-ai-launch-and-the-problem-with-ai-hype-d7908013f8c9

P.S. Лол, приямо можно провести аналогию с гоммунизмом и тому подобным разводиловом для лохов под видом реформаторства.
Аноним 10/05/17 Срд 14:42:27  988192
щас бы продать говностартап за 10м
Аноним 11/05/17 Чтв 01:50:34  988537
Посоветуйте два схожих датасета чтобы показать оверфитинг модели. MNIST распознает на 100%, но я знаю что это лютый оверфит.
Аноним 11/05/17 Чтв 03:10:13  988550
Как изменяется variance и bias эстиматора при увеличении делений(итераций) в кросс валидации?
Аноним 11/05/17 Чтв 03:28:08  988551
2-55.jpg (647Кб, 2000x2109)
Как дойти от likelihood модели Naive Bayes (Бернулли) в записи как p(Y | X, \theta) до MLE в такой же записи?
Аноним 11/05/17 Чтв 04:04:25  988554
>>988537
Подели MNIST на две части
Аноним 11/05/17 Чтв 12:11:14  988712
>>988554
Делил, слишком однородные данные, распознается почти все.
Аноним 11/05/17 Чтв 13:53:57  988767
Эксперты, расскажите как может работать эта штука: http://www.wibbitz.com/

То есть, наверняка, там используются topic modelling и sentiment analysis, но это явно не вся история. Чего еще не хватает?
Аноним 11/05/17 Чтв 14:10:42  988788
>>988767
Ну еще сверточные сети, как обычно. Еще в прошлом году тута постили ссылку на пейпер, в котором это описано. Мне вот интересно, ЦП оно генерировать может из текста?
Аноним 11/05/17 Чтв 14:16:19  988790
>>988788
спасибо. Было бы совсем круто, если кто-нибудь поделится ссылочкой на пейпер)
Аноним 12/05/17 Птн 08:29:23  989121
Тренирую сверточную нейросеть на классификацию изображений, на данных из инета (imagenet, google) работает относительно нормально с 76% акьюраси на тестовых, но на реальных фотках с камеры дает не выше 30%, хотя камера вроде не слишком хуевая да и фото вблизи сделано. Как пофиксить? Больше данных/портить исходные, углублять? Конечная цель - распознавание с камеры, так что жизненно необходимо работать именно с хуевыми фотками
Аноним 12/05/17 Птн 11:18:44  989156
>>988788
Рассказы брать на стульчик.нет?
Аноним 12/05/17 Птн 16:09:19  989318
>>989121
Портить исходные. При чем в теории портить можешь с помощью GAN сетки, подавая дискриминатору на вход порченные данные или же фото с камеры, а генератору на вход имейджнет, а на выходе собственно чтобы он портил.
Аноним 12/05/17 Птн 19:08:31  989436
Есть вопрос по поводу нормализации градиента. У градиента в моей нейронке могут быть значения от 1000 до -0.0000001. Как это собрать в значения от 1 до -1, причем чтобы маленькие градиенты типа 0.001 не изменялись(или их нужно тоже менять, чтобы все было верно?)?
Аноним 12/05/17 Птн 19:25:46  989457
>>989436
ReLU.
Аноним 12/05/17 Птн 21:14:58  989567
>>989457
Нет, мне не нужно избавляться от отрицательных значений, мне нужно нормализировать градиент к значениям от -1 до 1.
Аноним 13/05/17 Суб 02:16:40  989808
>>987386
Так "исследователи", этим всем занимающиеся, и сидят в основном в вузиках, а работают всякие хадуп-макаки, у которых вместо теорий - ноухау.
Если ты всю математику знаешь без диплома и вообще умен, можешь и поступить, и сразу пойти искать лабораторию, в которой тебе дадут разрабатывать коробки. Тем, кто делом занимается, диплом не нужен, главное чтоб работа выполнялась, а то грант отберут.

Если не знаешь, то какое тебе исследование? Выйдет только новое поколение кадров для РАЕН.
Аноним 13/05/17 Суб 02:59:23  989813
>>989436
С помощью функции f(x) = atan(Cx)/(pi/2) ты можешь смапить -inf...inf в -1..1, оставив маленькие значения более-менее такими же, а большие сильно уменьшив, управляя силой сжатия параметром C. А дальше нормируешь вектор как обычно к новой длине.
длина_вектора=sqrt(sum(градиент.^2));
новая_длина_вектора = f(длина_вектора)
новый_градиент = градиент
новая_длина_вектора/длина_вектора

Вместо atan можно взять tanh или sigmoid. Если возмешь C=1, то маленькие значения меняться не будут, так как касательная у арктангенса в нуле имеет угол 45 градусов.
Аноним 13/05/17 Суб 10:07:00  989853
sk.PNG (2Кб, 222x72)
>>989813
Спасибо, но я что-то не понял. Зачем нужна эта
>А дальше нормируешь вектор как обычно к новой длине.
>длина_вектора=sqrt(sum(градиент.^2));
>новая_длина_вектора = f(длина_вектора)
>новый_градиент = градиент новая_длина_вектора/длина_вектора
часть? Я посчитал тут, и особой разницы не заметил.
Аноним 13/05/17 Суб 14:08:19  989931
>>989853
Твой реквест был сократить длину больших векторов до 1, при этом маленькие не трогать. Для этого нужно использовать функцию типа atan, которая примерно это и сделает.
Аноним 13/05/17 Суб 14:09:59  989934
>>989931
Я понял зачем нужна функция atan. Зачем нормировать вектор? Может я что-то не понял?
Аноним 13/05/17 Суб 14:12:53  989935
>>989934
Во-первых посмотри на тот пост со звездочками в нужных местах https://pastebin.com/JPynJ8cM
Если тебе это ясно, то градиент - это вектор. Ты хочешь изменить его длину. Чтобы из вектора длиной l1 сделать вектор длиной l2 и сохранить его направление, нужно сделать v_new=v_old*l2/l1, простейший линал или даже аналитическая геометрия.
Аноним 13/05/17 Суб 14:15:59  989936
>>989931
Тут >>989853
orig - начальные данные
map - данные после использования atan
length - длина оригинального вектора
nlength - длина вектора после использования atan
ngrad - данные после нормирования вектора

Я имел ввиду, что не заметил особой разницы между ngrad и map. Почему нельзя остановиться на map?
Аноним 13/05/17 Суб 14:16:44  989937
>>989935
Спасибо
за пояснение.
Аноним 13/05/17 Суб 21:11:34  990121
Поясните за transfer learning.
Аноним 14/05/17 Вск 10:45:42  990309
Уважаемые господа резёрчеры, а сколько статей в день вы читаете? Я утром пролистываю твиттер с архивом и всякими топовыми чуваками и пополняю турид пул, потом читаю и разбираю одну самую интересную статью из пула. На это уходит около часа времени, больше позволить себе не могу. Правильно ли я делаю?
Аноним 14/05/17 Вск 10:56:34  990315
Screenshot2017-[...].png (42Кб, 1014x159)
Типичный посетитель >>988767 этого треда.
Аноним 14/05/17 Вск 12:38:56  990347
xpln.png (21Кб, 800x1073)
Объясните одну штуку, пожалуйста. Вот у меня в сверточной нейронной сети есть ошибка которую я получил из прошлых слоев. Потом я переворачиваю свертку каждого сверточного нейрона по высоте и длине, но не по глубине и провожу ошибку через эти свертки. В итоге у каждого фильтра получается своя ошибка. После этого я складываю соответствующие ошибки и передаю в следующий слой. Правильно ли я все это делаю?
Аноним 14/05/17 Вск 14:46:24  990400
>>990309
Прочесть любой даун может, а ты имплементируй и потести.
Аноним 14/05/17 Вск 14:51:00  990402
>>990400
Двачую, теоретические знания без практической части - полный ноль.
Аноним 14/05/17 Вск 20:07:01  990587
Посоны, выкладывать проги по МО на гитхаб иль kaggle не на питоне или плюсах совсем зашквар?
на c# прост пилю, вроде норм, но выкладывать в публично чот стыдно
Аноним 14/05/17 Вск 20:35:46  990612
>>990587
>на c#
Без GPU поди? Нах оно кому надо
Аноним 14/05/17 Вск 20:37:50  990615
>>990587
О, привет, братишка. Я вообще для себя пишу чисто. Думаю тоже начать куда-то выкладывать может заметят и куда-то на работу примут нет.
C#-кун
Аноним 14/05/17 Вск 20:40:22  990618
>>990615
Хай, что пилишь?
Аноним 14/05/17 Вск 20:41:38  990620
magic2.png (84Кб, 681x338)
>>990618
Сверточную нейронную сеть. Использую аккорд для ускорения через линейную алгебру. Вроде бы работает)
Аноним 14/05/17 Вск 20:42:36  990622
pzeQZsJOTE.jpg (266Кб, 1366x768)
Дорогие аноны, простите, что не туда, просто это один активный тред. Делаю сайт через блокнот, задали в школе. Получается какая-то ерунда (пикрелейтед), перехожу по ссылке, пишет, что проблемы с сетевым соединением. Что это? Сил моих уже нет.
Аноним 14/05/17 Вск 20:52:53  990631
>>990620
ну кроме аккорда на шарпе нынче ничего нет как знаю
Аноним 14/05/17 Вск 20:58:00  990634
>>990631
Да и он работает кое-как. Планирую перейти на пистон или что-то другое с норм либами после этого проекта. Аж грустно.
Аноним 15/05/17 Пнд 03:02:39  990816
>>985287
Сам когда-то сталкивался с подобным вопросом, но тут тебе не ответят, потому что сидят те кто использует готовые скриптовые решения на питонах и т.д. или вообще только с вопросом как вкатиться и пропадают. Посмотри как соединены и вычисли производную, вот и все.
Аноним 15/05/17 Пнд 11:39:58  990954
>>990816
Спасибо, за ответ. Я вот предположил, как оно работает.
>>990347
Это правильно?
Аноним 15/05/17 Пнд 14:30:01  991060
>>990816
>использует готовые скриптовые решения на питонах
А нахуя поступать как-то иначе? Вы ебнутые из разряда тех, кто в 90-е на ассемблере писал.
Аноним 15/05/17 Пнд 15:48:00  991093
>>991060
Посмотрите на это быдлецо, быдцело делает import tensorflow as tf и по примерам со стековерфлоу рисует графики в своих поделках или на датаслесарской работке. Быдлецо не знает алгоритмов и математики, которая стоит за тем что он использует, поэтому вынуждено подбирать инструменты спрашивая тех, кто в 90-е на ассемблере писал, или простым перебором. Если в интернете нет гайда как на питоне что-то сделать, быдлецо прибежит сюда беспомощно спрашивать в какой библиотеке можно найти нужную ему функцию.
Аноним 15/05/17 Пнд 16:36:44  991127
>>991093
"Небыдлецо" закукарекало вместо авроры. Ты сам читаешь, что постишь? Как тебе самописные говнонейроночки помогут узнать, в какой либе что реализовано? Совсем уже одурели школоилитарии, возомнившие себя гуру машинлернинга по той причине, что осилили набыдлокодить игрушечный вариант ленета из 80х годов последнего века прошлого тысячелетия. Сам ты все равно эту быдлонейроночку не улучшишь даже, не говоря о своем алгоритме. Так к чему все эти пальцы веером и сопли пузырем? Ты такой же слесарь, который не смог нагуглить как пропагейшн реализован между слоями, т.к. в интернете нет гайда (или что скорее всего, есть, причем не удивлюсь, если все детально описано в оригинальной работе самого Лекуна но ты не смог найти по причине общей одаренности).
Аноним 15/05/17 Пнд 17:00:52  991144
>>991093
>Быдлецо не знает алгоритмов и математики
И с хуя ты так решил? Я знаю алгоритмы и математику намного лучше тебя, потому что я учил алгоритмы и математику, а не низкоуровневый дроч. Я понимаю, если бы ты решил вручную запилить tf.nn.conv2d, чтобы понять архитектуру tf и как пилить кастомные слои (чего я не умею и мое почтение), но ты ведь реально делаешь самописную говнонейронку на C#, которая пригодится тебе примерно так же, как взятие производных на первом курсе универа помогло тебе впоследствии заниматься программированием.
Аноним 15/05/17 Пнд 17:12:33  991157
>>991144
Написав свою нейронку, он потом и кастомные слои сможет, и кастомные сольверы, и все остальное гипотетически. А ты предлагаешь ему погружаться в очередной говнофреймворк, который еще десять раз перепилят. Кто-то дрочит теорию, кто-то практику, каждому свое
Аноним 15/05/17 Пнд 17:13:59  991158
8058.jpg (878Кб, 1920x1200)
>>991144
Это не я >>985287 тебе писал если что, а тот анон который мне помог. Какой ты агрессивный.
Аноним 15/05/17 Пнд 17:41:46  991184
>>991127
У меня кстати на работе есть датасаентист топовый, который раньше несколько лет слесарем работал. Он и сейчас для души иногда слесарит.
Аноним 15/05/17 Пнд 17:44:15  991187
>>991184
Уроки иди делай.
Аноним 15/05/17 Пнд 18:55:26  991257
>>979045 (OP)
Посоветуйте книжку по матану хорошую.
Аноним 16/05/17 Втр 02:26:16  991538
>>979045 (OP)
ОБЧИТАЛСЯ НЕЙРОТРЕДЖА НА ДВАЧЕ И РЕШИЛ УГОРЕТЬ ПО ML
@
НАПИСАЛ ПРОСТЕНЬКУЮ НЕЙРОНКУ, ПРОДАЮЩУЮ %ПРОДУКТ_НЕЙМ% ТВОЕЙ КОМПАНИИ КЛИЕНТОЛОХАМ
@
ОБ ЭТОМ УСЛЫШАЛО РУКОВОДСТВО, ЗАИНТЕРЕСОВАЛОСЬ
@
ПООЩРИЛИ РАЗРАБОТКУ ПИЗДЮЛЯМИ И ДОБРЫМ СЛОВОМ
@
ЕБОШИШЬ ВТОРУЮ ВЕРСИЮ, ОТ РЕАЛЬНОГО ПРОДАЖНИКА ПОЧТИ НЕ ОТЛИЧИТЬ
@
ЗАКУПАЮТ НЕСКОЛЬКО СЕРВЕРОВ, СТАВЯТ НА НИХ ТВОИ НЕЙРОНКИ И ВЫПИЗДЫВАЮТ НАХУЙ ВСЕХ ПРОДАЖНИКОВ
@
СПЛОШНЫЕ ПРОФИТЫ
@
РУКОВОДСТВО НАЧИНАЕТ НЕДОБРО ПОГЛЯДЫВАТЬ НА ТЕБЯ
@
ВСЁ ЧАЩЕ СЛЫШИШЬ "А ЗАЧЕМ НАМ СИСАДМИН/РАЗРАБОТЧИК, ЕСЛИ И ТАК ВСЁ УЖЕ РАЗРАБОТАЛ НАМ, ДА И НАПИСАТЬ СЕБЕ ЗАМЕНУ СМОЖЕТ?"
@
ДАВЯТ И ПРИКАЗЫВАЮТ НАПИСАТЬ НЕЙРО-СИСАДМИНА, КОТОРЫЙ ЕЩЁ МОЖЕТ В НАПИСАНИЕ НЕЙРОННЫХ СЕТЕЙ, ИНАЧЕ УВОЛЯТ ПО СТАТЬЕ
@
ПИШЕШЬ
@
УВОЛЬНЯЮТ ПО СОБСТВЕННОМУ
@
@
@
@
СПУСТЯ ПАРУ МЕСЯЦЕВ НЕЙРОТЫ ПИШЕТ НЕЙРУКОВОДСТВО
@
МЯСНОЕ РУКОВОДСТВО УВОЛЕНО
@
СПРАВЕДЛИВОСТЬ ТОРЖЕСТВУЕТ
@
А В ТВОИХ ТРУСАХ И МАТРАСЕ ХЛЮПАЕТ ПОДЛИВА%%
@
ДОБRО ПОЖАЛОВАТЬ, СНОВА
Аноним 16/05/17 Втр 11:13:36  991640
>>991157
Ну вот ты и говоришь как типичная низкоуровневая блядь из начала нулевых. Сейчас мало кто из любителей компьютерной графики способен написать алгоритм Брезенхема на асме, а тогда сказать о том, что это нахуй не нужно, потому что у тебя есть OpenGL - это наткнуться на такую реакцию, что как так можно, если ты не знаешь, как выводить линию, то как ты будешь разбираться с выводом тысяч треугольников и шейдингом... А вот так, лол, что жизнь усложняется и практическая имплементация основ нахуй не нужна. Возможно, мне нужно знать, как устроен топор, чтобы построить дом, но мне точно не нужно делать топор вручную, чтобы доказать, что я мог построить дом. Чтобы знать, как устроен топор, достаточно почитать абзац текста. Чтобы знать, что такое chain rule и как берется производная свертки - тоже. Нахуя тут что-то имплементировать - не понятно. Особенно утверждая при этом, что те, кто этого не сделал, ну нихуяшеньки не понимают в математике.
Примерно та же хуйня была с вебом. Современные фреймворки далеки от кода, написанного в ручную, как диды завещали, примерно так же, как современные MVC-фреймворки далеки от CGI-софта, написанного на С++ в 2000 году. Этот софт был ужасен, разработка была дико медленной и хуевой, пока сообщество с болью не вывело более-менее успешную формулу - на С написана только БД, все остальное на динамическом языке. Дальше та же самая хуйня повторилась на новом уровне - дидами тут уже были те, кто писал без помощи rails-подобных фреймворков и CMS. Сейчас в здравом уме уже никто не будет писать CGI-софт или разрабатывать игру на ассемблере, ровно по одной причине - диды стали прадедами, и мы стали дидами.
С графическими интерфейсами было то же самое. Высшим шиком было написать на голом WinAPI софтину, или же на MFC. А выиграл в итоге кто? Кто уже тогда начал писать на Qt и спокойно портирует свои наработки без привязки к wine.

Короче, из года в год повторяется одно и тоже.
1. Диды пишут как могут. Хуево, неэффективно, убивая кучу времени на отладку одних и тех же багов.
2. В конце концов рождается инструмент, ускоряющий разработку. В данном случае CAS-фреймворки. Качественно новая схема.
3. И дальше общество делится на два типа людей. У одни - "ну, диды же так писали, надо как они, по-другому научиться ничему нельзя", а перед пилением своего изучают best practices в отрасли, и только потом пилят что-то свое. И первый тип сосет примерно как соснул вот этот хуй https://habrahabr.ru/post/327596/

Вот и все. Ты из подобного дроча получишь ноль знаний, которые тебе бы пригодились в будущем. Первым делом надо выкинуть нахуй C#, это ебаное делфи современности, затем взять http://cs231n.github.io/assignments2017/assignment2/ , прорешать, и забыть о производной свертки как о страшном сне. Это при условии, если не уверен, что понимаешь, как она берется. Если понимаешь, то и этого делать не обязательно, лучше внимательно почитать материалы этого самого cs231n и не ебать мозг далее, в мире куча статей нечитаных.
Аноним 16/05/17 Втр 11:52:56  991648
>>991640
>И первый тип сосет примерно как соснул вот этот хуй
Он не совсем соснул.
Во-первых разработка началась под актуальный конфиг компа 99 года, а закончилась, когда таких компов уже не осталось, отсюда большинство хитрых изъебств с графеном стали не нужны, но если бы игру запилили быстрее они пришлись очень кстати.
Во-вторых его игру можно найти на торрентах и она вполне себе играбельна не хуже близовского старика. Для бородатого индюка из двухтысячных это сорт оф вин.
Аноним # OP  16/05/17 Втр 12:34:37  991661
> я луцше знаю мотимотику!
> нит я!
долбоёбы
Аноним 16/05/17 Втр 12:50:11  991663
bk5xeva0s3iy.jpg (40Кб, 622x582)
Давайте все-таки обкашляем такую тему, как LaTeX-OCR. Казалось бы, самое очевидное применение этим вашим сверточным нейроночкам. Потом, подобного софта или онлайн-сервисов вообще не существует, кроме платной в 2017-то году подмывальни Infty, опять же весьма посредственного качества. Как же так? Я никогда не поверю, что мне одному нужен OCR для математических пдфок. А все, что есть - полтора прожекта в зачаточном состоянии, ни одного готового решения уровня "загрузил пдф - получил результат". Что нагуглил:
http://lstm.seas.harvard.edu/latex/
https://github.com/harvardnlp/im2markup
то же в виде порта для слесарьфлоу https://github.com/ssampang/im2latex
пейпер https://arxiv.org/pdf/1609.04938v1.pdf
датасет https://zenodo.org/record/56198#.V2p0KTXT6eA
полтора онлайн-ресурса посмеяться:
http://detexify.kirelabs.org/classify.html
http://shapecatcher.com/
этот, правда, впечатляет - https://webdemo.myscript.com/views/math.html
Пик стронгли релейтед.
Аноним 16/05/17 Втр 14:14:59  991697
>>991640
А ты говоришь, как типичная вебмакака. Кроме скорости разработки есть еще много важных критериев, и по ним твои фреймворки сосут. Например, гибкость разработки и эффективность софта. Для клепания гостевух и вебшопов твой говнофреймворк еще годится, а чуть что сложнее или highload - и сразу начинается пердолинг с С++, архитектура микросервисов, fastcgi, вот это все. А когда я качаю какой-нибудь калькулятор на Qt, то охуеваю сначала от размера дистрибутива в 100Мб, а потом от уебищного интерфейса а-ля "Gnome в нулевых". Все потому, что затраты на поддержку кросплатформенности разработчик перенес на конечного пользователя. Ему же ничего не стоит еще восемь гигов памяти прикупить и новый винт.
Но это отдельная большая тема, по которой очень много чего можно сказать, давай не будем разводить тут срач. Пусть каждый сам решает, пилить свое или использовать чужой код, новые Кармаки и Торвальдсы тоже нужны.
Аноним 16/05/17 Втр 14:37:36  991706
>>991640
>ебаное делфи современности
Это пайтон.
Аноним 16/05/17 Втр 15:19:36  991727
>>991697
Обоссал студентика.
Аноним 16/05/17 Втр 22:37:27  991990
>>990622
Тонко.
Аноним 17/05/17 Срд 01:44:30  992052
>>991697
>Например, гибкость разработки и эффективность софта.
Но ведь в машобе гибкость разработки - это возможность в пару кликов запилить новую модель для тестов, а эффективность напрямую завязана на скорости матана, который в готовых фреймворках прокинут на всякие бласы, эйгены и ффтв, работающие на магии, ассемблере и изредка на С, скомпилированном под задачу в рантайме.
Аноним 17/05/17 Срд 02:12:07  992060
Как научиться подбирать правильные параметры Sequential в керасе? Сгенерировал рандомный датасет на два класса, учу модель, перебрал все возможные варианты losses, optimizers и activations со стандарными значениями, а у распознавания потолок все равно 80%
Аноним 17/05/17 Срд 08:25:44  992091
>>992052
>возможность в пару кликов запилить новую модель для тестов
Это если дальше тьюториалов не отходить. Но однажды ты столкнешься с тем, что просто "запилить модель" для успеха недостаточно. Нужно делать что-то еще.
Например, если я захочу гиперпараметры динамически во времени менять или даже датасеты? А если мне понадобится кастомный слой?
Машоб еще очень сырой, и библиотеки для него тоже, их сочиняют на ходу.
Аноним 17/05/17 Срд 09:59:56  992109
>>990954
Честно - хз. Я считал точно так же как для полносвязной, толь с учетом того что, теперь связей у меня меньше. Получается, что дельта ошибки суммируется для последующего вычисления дельты веса. Прежде чем пробовать сверточную, желательно пробовать полносвязную.
Аноним 17/05/17 Срд 10:04:09  992110
>>992109
>полносвязную
У полносвязной все легко получается из-за того, что там одна связь - один вес и легко все программится. Со сверточной надо смотреть не проебаться с индексами и краевыми эффектами, потом еще оптимизировать желательно код, т.к. не всегда с первого раза напишешь самую быструю версию.
Аноним 17/05/17 Срд 17:45:22  992299
Антоны, такой вопрос, если я начал изучать TensorFlow, то мне его хватит для задач по МашОбр?
или еще что-то там изучить над, кофе разные ?
Аноним 17/05/17 Срд 18:23:47  992304
>>992299
Кофе удобно деплоить, никакого питона, BSD-лицензия.
Аноним 17/05/17 Срд 18:38:25  992305
>>992304
Кофе умеет под андр собираться?
Аноним 17/05/17 Срд 19:41:05  992326
Без ВО этим всем вообще реально заниматься?
Аноним 17/05/17 Срд 19:54:29  992328
>>992326
Да. Меня из двух университетов числанули, сижу на шее у мамки и подбираюсь к кагглу.
Аноним 17/05/17 Срд 20:01:38  992329
>>992328
возраст?
Аноним 17/05/17 Срд 20:17:36  992334
Заранее извиняюсь за нубовские вопросы

Какое представление цветных изображений больше подходит для сверточной сети? Например, есть jpeg в RGB, его можно привести к трехмерному массиву со значениями от 0 до 255 (или от 0.0 до 1.0 (или от -1.0 до 1.0)). Какой вариант лучше?
И еще: для цветных изображений больше годится двумерная или трехмерная свертка? Насколько я понял, в первом случае к R,G и B каналам фильтры применяются по отдельности, а во втором сразу ко всем (т.е. фильтр тоже имеет 3 канала).
Аноним 18/05/17 Чтв 01:58:25  992498
>>992329
21. Летом опять поступать буду.
Аноним 18/05/17 Чтв 11:19:55  992628
14754503996421.jpg (87Кб, 1920x1080)
Поясните за reinforcement learning. Вот есть такие вещи как openai gym и universe. И оно даже работает, но на уже существующих енвайроментах. А если я хочу свою среду добавить вместо не нужных мне атари игор, это возможно? Ничего не могу нагуглить, как там сделать чтобы работало на заданной пользователем среде.
Аноним 18/05/17 Чтв 12:37:16  992658
>>992628
Возможно. https://gym.openai.com/docs
Аноним 18/05/17 Чтв 12:50:29  992672
>>992658
А где там конкретно? Это https://github.com/openai/gym/blob/master/gym/envs/registration.py ?
Аноним 19/05/17 Птн 20:53:30  993473
>>992299
хватит с глазами, если чего-то нет, то пишешь кастомный слой, функцию или еще что-то, так же тебе хватит любой другой либы
Аноним 20/05/17 Суб 00:38:04  993588
>>993473
Скопирую из старого треда, ибо я даун
Анон. Тупой вопрос. Как заставить нейронку рисовать? Тупой ньюфаг в этой сфере, да. Запилил лишь самую базовую (банальный массив х на у с пересчетом нейронов и обучением).
Как нейронке потенциально скармливать что-то и как получать на выхоод что-то? Что юзать и что прикручивать? Куда копать?
Аноним 20/05/17 Суб 20:40:46  993929
>>993588
Зависит от того, что хочешь получить.
Аноним 21/05/17 Вск 12:38:36  994107
Почему, когда я тренирую говнонейроночку на распознование пикч, нормализуя вход простым делением всех пикселей на 255, она упирается в 78-79%, но стоит заменить /255 на вычитание среднего и деление на стандартное отклонение, как точность падает до 62-65%? Ничего больше не трогаю.
Аноним 21/05/17 Вск 15:51:40  994225
>>993929
Меня интересует именно аутпут изображений. В духе тех, что ща в гугл плеях наводнили тоннами. Понимаю, что это через сверточную нейронку делается, но вот детали - полный туман просто.
Аноним 22/05/17 Пнд 16:24:11  994762
>>993588
если прям рисоваь, то нужно копать в сторону attention models
Аноним 22/05/17 Пнд 16:29:10  994763
>>994107
В первом случае у тебя распределение 0--1, во втором - -3--3. В чем разница? Наверное зависит от того, какие у тебя нелинейности и как ты их инициализируешь. А еще, скорее всего, у тебя адский оверфит.
Аноним 22/05/17 Пнд 20:35:53  994884
Откуда брать картинки для обучения? Имагнет - хорошо, но очень многие урлы устарели, потому для значительной части классов очень мало. Гугл - обычно первые пикч 400-500 по теме, потом начинается дичь с мемасами. Хотел по фликру пошарить - но там зачастую метки вообще не соответствуют тому что на фотке.
Аноним 23/05/17 Втр 00:07:18  995044
>>994884
safebooru.org
Аноним 23/05/17 Втр 00:43:05  995055
>>994884
Скачай imagenet в виде картинок с торрентов.
Аноним 23/05/17 Втр 02:33:05  995072
14950145118000.jpg (197Кб, 1100x1050)
Поясните, какой сейчас самый топовый алгоритм для анализа и предсказания временных рядов?
Аноним 23/05/17 Втр 03:36:29  995079
>>995072
"Попал или промазал".
Аноним 23/05/17 Втр 06:29:12  995090
>>994884
пинтерест
Аноним 24/05/17 Срд 21:09:51  995892
14899353889920.jpg (147Кб, 720x540)
Машобчан, посоветуй правильную литературу под мои нужды.
Конечная задача: распознование изображений
Текущая ситуация: джава макака, скачал Бишопа, так как начитался хвалебных отзывов. Но понял, что это пока не ля моего уровня. Хотелось бы что то поближе к программированию, но не слепое использование модных библиотек.
Аноним 24/05/17 Срд 21:18:08  995901
>>995892
cs221n
Аноним 26/05/17 Птн 00:37:33  996430
gu.jpg (306Кб, 950x1080)
Привет. Я учусь на гуманитарной специальности. Этим летом планирую приступить к изучению математики и машинного обучения. Велика ли вероятность, допустим, через год-два подготовки попасть на стажировку или на работу в нормальную компанию без технического образования?
Аноним 26/05/17 Птн 12:08:04  996499
>>996430
зависит от того, насколько сильно будешь задрачивать и насколько слабая у тебя база. Есть вероятность устроиться менеджером в области машиночек, айти и тд. Сейчас у каждого второго студента техвуза нейронки в дипломе.
Аноним 26/05/17 Птн 15:44:13  996644
>>995072
lstm нейронки
Аноним 26/05/17 Птн 16:03:48  996645
>>995901
cs231n же, а не 221
Аноним 26/05/17 Птн 18:54:20  996682
Поясните про Auto ML технологию. Изменит ли она что-то в возможностях ML, и если да, то что(в общем плане)?

Аноним 26/05/17 Птн 20:58:46  996725
Что хорошо использовать для сжатия данных в файлопомойке? Слышал нейросети хорошо сжимают, но какие надо?
Аноним 26/05/17 Птн 20:59:36  996726
Нейросеть можно перенести на целочисленные вычисления?
Аноним 26/05/17 Птн 22:02:49  996775
>>996725
Сжимают шикарно, аутоэнкодеры могут целый фильм сохранить как веса, но и потери большие. Это совсем не вариант.
>>996726
Можно из чистого хулиганства, но лютый костыль же. Регрессия, классификация, кластеризация - вот хорошие области для нейросеточек.
Аноним 27/05/17 Суб 03:03:49  996903
Работаю в датасцайнс, если бы я потратил все это время и мыслительный ресурс на модные тырпрайз фреймворки, зарплата была бы в пару раз больше и у меня бы был свой холодильник для смузи на рабочем месте. Подумайте нужно ли вам это.
Аноним 27/05/17 Суб 11:05:36  996940
>>996903
Это потому что ты свой стартап гуглу не продал.
Аноним 27/05/17 Суб 14:15:40  996996
>>996903
>датасцайнс
этож оверхайпнутое говно
Аноним 27/05/17 Суб 14:21:46  996998
Рекомендуемые в ОП-посте книги и в правду хороши?

И да, >И, в отличии от TF, он уже находится в стабильной фазе.
TensorFlow разве не стабильный уже?
Аноним 27/05/17 Суб 16:23:58  997048
>>996996
Ворвалась вебмакака, которая не может в матан.
Аноним 27/05/17 Суб 17:13:51  997075
1492535887fires[...].png (486Кб, 592x592)
Как они это делают? Автокодировщиком? У меня нет идей. Ну допустим сверточной сетью извлекли фичи, а дальше-то что, как их обратно собрать с такой точностью.
Аноним 27/05/17 Суб 18:46:22  997115
Посоны, можете привести пример полумодулярной, но не модулярной решетки. Читаю этого мудака
https://books.google.ru/books?id=V3r_AgAAQBAJ&pg=PA69&lpg=PA69&dq=%D0%BF%D0%BE%D0%BB%D1%83%D0%BC%D0%BE%D0%B4%D1%83%D0%BB%D1%8F%D1%80%D0%BD%D0%B0%D1%8F+%D1%80%D0%B5%D1%88%D0%B5%D1%82%D0%BA%D0%B0&source=bl&ots=Uv8jWu1O4f&sig=-0r_vBnhKFGFzKYv_OIh_bcFpPg&hl=ru&sa=X&ved=0ahUKEwjgpprtqZDUAhUEG5oKHerMBd0Q6AEILDAD#v=onepage&q=%D0%BF%D0%BE%D0%BB%D1%83%D0%BC%D0%BE%D0%B4%D1%83%D0%BB%D1%8F%D1%80%D0%BD%D0%B0%D1%8F%20%D1%80%D0%B5%D1%88%D0%B5%D1%82%D0%BA%D0%B0&f=false
Он утверждает что N5 полумодулярная но
c^b<.b
c#b.>a.>c
Аноним 27/05/17 Суб 18:47:28  997116
>>997115
пункт 7 в сылке
Аноним 27/05/17 Суб 20:29:57  997148
Антоны, каким образом нейронная сеть обучаясь без учителя сможет контролировать обратный маятник.
По сути это тоже ведь можно решить с помощью регрессии.
Но каким образом нейроночка начинает подбирать значения?
Аноним 27/05/17 Суб 22:13:17  997192
000041-nb02xt16[...].jpg (216Кб, 700x710)
Я личинка датасаентиста, через год хочу свалить на PhD в какое-то серьезное место, а для этого не последнюю роль играет тема диплома, который я должен защитить в своей шараге. Научрук алкаш и забил на меня, единственное полезное что он сделал это отправил читать Бишопа и заставил разобраться в математике. На него надежды нет, так что реквестирую годную тему рокет-саенс-диплома по машобу или ИИ. Где вообще можно посмотреть темы прошлогодних дипломов по сабжу в топовых зарубежных вузах?
Аноним 27/05/17 Суб 22:36:41  997199
Мимо-вброшу
http://fpi.gov.ru/activities/konkurs/robot

У студентиков есть еще 3 дня чтобы кинуть заявку.

Участвовал в прошлой хуйне http://fpi.gov.ru/activities/konkurs/spacemap,
было довольно годно. Уникальный ни с чем не сравнимый экспириенс по обучению годной нейроночки на пиздецовом просто говнище вместо данных - редко такое встретишь. Хочется побольше конкурентов.
Аноним 27/05/17 Суб 23:40:17  997235
>>995072
ARIMA, если ряд 1. Регрессия ансамблями деревьев (только надо нагенерировать кучу признаков), если рядов много.
Аноним 28/05/17 Вск 00:46:28  997261
>>996726
Можно даже на чисто бинарные вычисления перевести, но только уже натренированную.
>>996775
А ты хуй.
Аноним 28/05/17 Вск 00:47:26  997262
>>996645
>cs231n
Да, сорян.
Аноним 28/05/17 Вск 01:30:04  997273
Народ, сейчас учусь на первом курсе прикладной математики, хочу заниматься машинным обучением, с чего начинать, нужны ли там все эти ваши матанализы?
Аноним 28/05/17 Вск 01:32:40  997277
>>997273
Нужны, я первое время жалел о проебанном матане, но там ничего выше 2-го курса шараги не встречалось.
Аноним 28/05/17 Вск 01:38:37  997279
>>997277
А работу вообще трудно найти? Порог входа в специальность не слишком высок?
Аноним 28/05/17 Вск 01:39:50  997280
>>997279
Работу найти будет невозможно скорее всего, выбирай это как хобби или делай свой проект. Порог входа высокий.
Аноним 28/05/17 Вск 01:44:41  997282
>>997280
Яйкс, спасибо что предупредил
Аноним 28/05/17 Вск 02:47:58  997295
В чем смысл применения PCA без редукции размерности?
Аноним 28/05/17 Вск 08:49:37  997337
14931470445440.jpg (89Кб, 594x1069)
Если самому вкатываться, то ясен хуй трудно работу найти. А если есть вариант получить профильное образование за бугром на примете TUM, если получится подтянуть немчик - это сильно поможет в трудоустройстве в сфере DS/ML? знаю, что это совершенно разные вещи, но всё же
Аноним 28/05/17 Вск 09:03:04  997339
>>997192
кто тебя в серьёзное место возьмёт если ты лол даже в маге не знаешь про что диплом писать будешь!!!
Аноним 28/05/17 Вск 13:01:31  997388
>>997337
В TUM спокойно можно поступать на англоязычное обучение, со знанием немецкого уровня спросить дорогу (кажись, цитата с оффсайта).
Аноним 28/05/17 Вск 13:20:18  997394
>>997235
> Регрессия ансамблями деревьев (только надо нагенерировать кучу признаков), если рядов много.
Бустинг? Хгбуст например? А как генерировать признаки?
Аноним 28/05/17 Вск 13:41:43  997409
data.png (39Кб, 616x596)
Есть Один Датасет, пытаюсь написать нейроночку в керасе, но не распознается максимум 85%, Подскажите подходящую архитектуру, пожалуйста!
Аноним 28/05/17 Вск 14:34:49  997451
>>997048
матан для питухов
Аноним 28/05/17 Вск 14:42:06  997457
>>997409
Вопрос снят, все получилось.
Аноним 28/05/17 Вск 15:29:59  997488
>>997388
Так а с перспективами в нём что? Можно будет легко вкатиться в индустрию, если есть профильное образование?
Аноним 28/05/17 Вск 15:37:54  997493
>>997488
Что значит "легко вкатиться в индустрию"? Пишешь пейперы, проекты, потом можешь с однокурсниками загонять стартапы гуглу или подаваться на позицию датаентиста. Без образования в это вкатиться нереально, тебе не будут воспринимать как серьезного соискателя. Профильный диплом известного вуза ставит тебя на уровень со всеми, игра идет на публикации, гитхаб, каггл и опыт работы.
Аноним 28/05/17 Вск 16:14:52  997514
>>997493
Спасибо! Первый адекватный ответ, который я встречал. А где можно почитать про этот путь подробнее? Статьи йоба-физика, криво и раком, но в итоге вкатившегося в сферу, уже читал, а вот описание своего пути человеком, который получил профильное образование, найти пока что не удалось.
Аноним 28/05/17 Вск 16:16:37  997516
>>997493
Чет глупость, тягаться с гуру индустрии можно и без образования, а шанс выстрелить со своим проектом такой же.
Аноним 28/05/17 Вск 16:22:45  997522
>>997516
Единственное, что дает учреждение и такое вот, подобное образование - это возможности.
Идти у университет за знаниями - глупость, ты должен заводить максимум знакомств и использовать возможности.
Так что с такой позиции вкатиться в индустрию проще.
Кстати, а сколько стоит обучение в таких вот местах?
Аноним 28/05/17 Вск 16:48:08  997533
>>997514
Постоянные лабораторки, а потом ресерч как-то не способствуют ведению блога, но я не вижу причин не поискать "become a data scientist blog", первый в выдаче так и называется. В этом пути нет никаких секретов - ты учишь реально много математики, какие-то бесполезные вещи, если повезет с преподом то сдаешь пет проекты в качестве семестровых работ. Как сказал >>997522 , в универе ты получишь знакомства, научного руководителя, какое-то наследие и финансирование - получить стипендию довольно просто (если ты девушка, то еще целая куча фондов будут бегать за тобой чтобы дать денег на то чтобы ты двигала науку). Все практические навыки должен приобретать сам, за ручку тебя никто водить не будет, только проверять соответствует ли твой скилл минимальным требованиям.
Аноним 28/05/17 Вск 17:21:17  997543
14916147301860.jpg (32Кб, 600x180)
>>997533
Ещё раз спасибо тебе, добрый человек! Теперь более-менее понятно, куда двигаться. Надеюсь, из меня что-нибудь да получится, кроме уборщика в макдаке.
Аноним 30/05/17 Втр 00:26:27  998307
https://youtu.be/8dfi-r_DCfA
Аноним 30/05/17 Втр 14:12:25  998563
Антон, формула про вычисление мап.
Почему у нас D через запятую стоит?
>p(y|x, D)
В книге написано In our notation, we make explicit that the probability is conditional on the test input x, as well as the training set D, by putting these terms on the right hand side of the conditioning bar |.
Типа условная вероятность на тестовом входе x такая же, как у всего тренировочного набора D и поэтому их переносят на правую часть.
А как тогда идёт деление, сначала на x, потом полученное на D?
Аноним 30/05/17 Втр 14:19:11  998565
>>998563
Условная вероятность от тренировочного и тестового набора данных вместе.
p(y|x,d) = p(y,x,d)/p(x,d)
Аноним 30/05/17 Втр 14:42:27  998572
>>998565
Понял, это же два разных набора данных.
Кстати, а что с этим вычислением мы делаем потом?
Полученное делим ещё раз на максимизированное значение x и d? И тогда уже получаем map?
Аноним 30/05/17 Втр 14:44:26  998573
>>998572
И argmax - это, например, если у нас есть статистика температуры за все дни и мы берём наивысший показатель?
Аноним 30/05/17 Втр 15:03:32  998582
https://www.youtube.com/watch?v=5KdWhDpeQvU&index=1&list=PLAbhVprf4VPlqc8IoCi7Qk0YQ5cPQz9fn
Аноним 30/05/17 Втр 19:25:40  998750
А че в шапке нет мекки для всех и каждого, кто гонится за хайпом?

https://www.deeplearningbook.org/
Аноним 30/05/17 Втр 19:31:00  998755
>>998750
бишоп же на первой ссылке
Аноним 30/05/17 Втр 19:58:01  998759
>>979045 (OP)
Ну всё, пацандре, я вот сегодня закончил курс по машин лернингу у себя в универе. Это такой интродакшн был скорее: обо всём по чуть-чуть. Но я многое узнал и запомнил, теперь буду знать хоть, куда копать если чё.
Я вот теперь думаю, стоит ли пилить дипломку на магитра на какую-нибудь такую тему или не стоит? Слишком уж дохуя времени наверное уйдёт, да и ещё сама по себе тема сложная, я не знаю, как я с работой осилю. Да и тем более надо же придумать саму тему, где можно эту шнягу всю применить, да и то просто сравнением нескольких способов, решением какого-нибудь компетишена с каггла и небольшим анализом результатов отделаться на получиться, нужно что-то СУРЬЁЗНО будет делать наверное... Ужас короче, как меня эта дипломка изводит!
Аноним 31/05/17 Срд 01:13:22  998889
Поясните за специализацию Яндекса по машобу на курсере. Стоит ли тратить время?
Аноним 31/05/17 Срд 01:27:08  998903
>>997493
> Пишешь пейперы
ПРОСТО БЕЗ ЗАДНЕЙ МЫСЛИ БЕРЕШЬ И ПИШЕШЬ
Вообще хуйня это все, проебали мы хайп, можно дальше дрочить жаваскрипт.
Аноним 31/05/17 Срд 01:30:52  998905
>>998889
Долго и затянуто. Лучше сразу глянуть https://yandexdataschool.ru/edu-process/courses/machine-learning, а курсеру для практики использовать.
Аноним 31/05/17 Срд 15:21:27  999164
>>998905
Спасибо! И еще такой вопрос, есть ли смысл читать Elements of Statistical Learning, или после Бишопа там ничего полезного уже не будет?
Аноним 01/06/17 Чтв 20:23:15  999770
Антоны, помогите вспомнить книжку по нейронным сетям. Там еще код на питоне давали и объясняли.
В начале, кажется, рассказывалось про решение проблемы деления информации на test и training сеты
Аноним 01/06/17 Чтв 21:04:30  999787
>>999770
А все, нашел
Machine Learning: An Algorithmic Perspective, Second Edition
Кстати, местные эксперты, оцените ее годность.
Аноним 02/06/17 Птн 00:02:16  999862
Machine Learning: A Probabilistic Perspective, Murphy
Блин, как же тяжело читать эту книжку, только сейчас допер до этой Map estimate, боюсь, что до матана в последующих частях буду добираться годами.
Есть ли годные учебники по матану, что помогут разобраться с написанным там? Гугл далеко не всегда спасает.
Аноним 02/06/17 Птн 02:39:40  999906
>>979045 (OP)
А чего в scipy нейросеть считает так ровно? Она там сама анализирует классы по инпуту и округляет результат до них?
Аноним 02/06/17 Птн 10:12:11  999932
Анон, подскажи куда двигаться дальше?
Написал простую нейросеть, которая решает задачи прогнозирования (массив на входе с ответами, на выходе ответ на частный случай).

Тексты? Изображения?

Давайте оживим тредж
Аноним 02/06/17 Птн 11:17:07  999962
>>999787
>оцените ее годность.
Выше среднего. Для умеющих в пистон вообще около 10/10, т.к. не только теория, но и конкретный код, что при желании поможет вкатиться в тему не простым слесарем, а с более глубоким пониманием как что работает и как реализовать общие для всего МЛ моменты даже под алгоритмы, не описанные в книжке.
Аноним 02/06/17 Птн 11:43:38  999975
Посоветуйте годных материалов по natural language processing.
Аноним 02/06/17 Птн 12:53:03  1000018
Поставил тренироваться нейроночку, одна эпоха тренируется вечность, а у меня лаба горит. Где можно арендовать/попросить мощности?
Аноним 02/06/17 Птн 14:39:38  1000052
>>999932
>массив на входе с ответами, на выходе ответ на частный случай
Я тебя не понимаю. Можешь подробней объяснить?
Аноним 02/06/17 Птн 14:40:00  1000053
>>999975
https://www.quora.com/As-a-beginner-in-Natural-Language-processing-from-where-should-I-start
Аноним 02/06/17 Птн 14:41:20  1000054
>>1000018
Жди сука!
Мимо тренировал Нейронки 24 часа и более.
Аноним 02/06/17 Птн 14:42:21  1000056
Кстати, посоветуйте книги по теории, чтобы было расписано как оно математически работает.
Аноним 02/06/17 Птн 14:52:43  1000059
>>1000054
Ждать неделю?
Аноним 02/06/17 Птн 14:59:22  1000062
>>1000059
Чему ты там ее учишь? Сжимать данные перед обучением пробовал?
Аноним 02/06/17 Птн 15:02:43  1000064
>>1000062
CIFAR-10, надо хотя бы 60% С радостью выслушаю любые советы.
Аноним 02/06/17 Птн 15:23:56  1000077
>>1000064
На чем пишешь? Какая архитектура? Какая альфа?
Аноним 02/06/17 Птн 15:27:54  1000081
>>1000077
Питон, керас, конволюционная, альфа?
Аноним 02/06/17 Птн 15:29:32  1000083
>>1000081
Скорость обучения?
Аноним 02/06/17 Птн 15:33:05  1000084
>>1000018
>Где можно арендовать/попросить мощности?
Вся же суть пистономартышек. Даже про облачные сервисы не слышали. Когда еще гугл для себя откроют...
Аноним 02/06/17 Птн 15:39:24  1000087
>>1000083
Полагаю, ты про ETA: 3060s
>>1000084
Это моя почти лаба1 по нейронкам после семестра анализа данных и в задницу гугол.
Аноним 02/06/17 Птн 15:48:13  1000091
ans.PNG (96Кб, 571x423)
>>1000087
Нет, я про альфу. Этот аргумент пикрил. И сколько у тебя слоев и сколько нейронов в каждом слое?
Аноним 02/06/17 Птн 15:59:12  1000096
>>1000091
По иронии, это буква эта и в керасе я ее руками не задаю.
Два слоя, пулинг, дропаут, два слоя, пулинг, дропаут. Если результат меня устроит, срежу половину и попробую еще раз. Нейронов изначально задал 1024 (и вот тут меня ждало бы несколько дней с урчащей грелкой вобнимку), но поскольку времени мало, сократил до 128, скорость приемлемая, но волнуюсь за результат.
Вообще, было бы полезно почитать про более осмысленный подбор гиперпараметров и добавить какой-то препроцессинг, оба этих пункта оставили на мою совесть или деньги мажоров с титанами.
Аноним 02/06/17 Птн 16:03:44  1000098
>>1000096
Господи, у вас в пистоне нельзя даже альфу задать? Это пиздец, господа. А насчет нейронов в полносвязных слоях, для скрытого слоя я использую такую формулу (размер_входа + размер_выхода)^(1/2). Размер входа это количество выходных параметров после всей свертки. Меня эта формула еще не подводила.
Аноним 02/06/17 Птн 16:16:24  1000103
>>1000098
Можно все, только в других пакетах или на самописной поделке, в керасе подбирается сама, кажется.
Вообще, как раз надо поставить тренироваться один велосипед и сесть писать второй на нумпае - своя реализация нейроночки, forward\backward pass, обновление весов, активаторы, оптимизаторы, функции стоимости. Вот и разберусь как все устроено.
Аноним 02/06/17 Птн 16:17:48  1000104
>>1000103
Правильно мыслишь.
Аноним 02/06/17 Птн 18:00:28  1000148
Еще один даун с лабой и керасом. Учу нейронку на распознавание 3 классов, по 1500 фоток на класс. Пробовал брать пикчи 60х60, урезать число цветов до десятков, делать 3-4 сверточных слоя по 16-64 фильтра на слой, херачить побольше макспулинга - в итоге максимум 68%, и то повезло, обычно 65% максимум. Беру 120х120, полный RGB от 0 до 255, 5 слоев от 32 до 128, всего 2-3 пулинг слоя, порчу картинки вращениями и сдвигами; предел выходит 75-78% на тестовых, но зато учит по буквально пол-суток. А надо хотя бы 80-85%, с хорошими результатами на фото с камер (на котором у меня итог куда хуже чем на фото из гугла, хотя камера более-менее, а в тренировочных данных много фоток с групп вк, лол).
Аноним 02/06/17 Птн 18:04:15  1000149
>>1000056
Хайкин.
Аноним 02/06/17 Птн 18:04:58  1000150
>>1000148
Ах да, забыл про Dense - в первом случае 128-256, во втором 512-1024
Короче, какое из этих направлений в моем случае правильней и с чем лучше экспериментировать? Уменьшать вторую или увеличивать первую? Может, фильтры, которые стабильно 3х3 всегда, попробовать пощупать?
Олсо, в обоих случаях оверфит начинается обычно с 7-9 эпох
Аноним 02/06/17 Птн 18:06:15  1000152
>>1000103
>В керасе подбирается сама
Нихуя, читай: https://keras.io/optimizers/
Аноним 02/06/17 Птн 18:06:18  1000153
>>1000148
>а в тренировочных данных много фоток с групп вк, лол
что
Аноним 02/06/17 Птн 18:07:25  1000154
>>1000149
>Хайкин.
Аутизм.
>>1000056
Fundamentals of Neural Networks: Architectures, Algorithms, and Applications, Fausett L. И Рохас http://gen.lib.rus.ec/book/index.php?md5=82D428AEE58085A79AFC4E08F1A0628F
Аноним 02/06/17 Птн 18:07:32  1000155
>>1000153
Не ну а чо а почему бы и нет. Там много людей, кошечек и собак в среднем качестве, с камеры мобилки, как раз как мне надо. Основные данные конечно с имажнета.
Аноним 02/06/17 Птн 19:55:46  1000179
squeezing-deep-[...].jpg (52Кб, 638x359)
>>1000148
Еще один даун не прочитал про bias-variance tradeoff. На тестовых у тебя 75%, а на тренировочных? Если тоже 75%, значит усложняй модель (тут или 120х120 тебе мало или бери inception+resnet, архитектуры типа VGG - самые тормозные, смотри пикрелейтед, а судя по описанию у тебя именно VGG со стэком сверток и пулингов), если 99, увеличивай число данных - или вращениями-поворотами (сдвиги НЕ нужны, сверточные сети к ним устойчивы by design), а еще лучше намайнить больше. И так до победного.
Аноним 02/06/17 Птн 20:05:56  1000184
>>1000179
Кстати, про "намайнить больше" не пишут в научной литературе и кагле, которые заточена на победу в фиксированном датасете. Но в реальном мире это как раз основной способ, потому что рабочий день человека, размечающего данные, стоит раз в 10 меньше рабочего дня емельщика.
Аноним 02/06/17 Птн 20:22:10  1000191
ии трхеда нинашел пишу здесь. накидайте годных челенджей с жирным призовым фондом из области ии, желательно кудахтер вижен.
Аноним 02/06/17 Птн 20:32:07  1000206
>>1000191
Рак легких вроде.
Аноним 02/06/17 Птн 20:42:24  1000213
>>1000206
на рентгене не могут найти черные пятна? хуета какаято
Аноним 02/06/17 Птн 21:24:25  1000234
Что можно почитать конкретно про подбор гиперпараметров нейроночек, с полным математическим обоснуем, но контрентрировано именно об этом?
Аноним 03/06/17 Суб 00:37:08  1000284
>>1000206
Дай ссылку
Аноним 03/06/17 Суб 13:41:19  1000408
>>983326
Блядь, ты че, не можешь определение загуглить?
Норма линейного пространства это отображение из V в R >=0 такое что ||av||=|a| ||v||, неравенство треугольника ||u+v||<=||u||+||v|| и что нулевую норму имеет только нулевой элемент. векторного пространства.
Аноним 03/06/17 Суб 14:15:01  1000428
Есть большой датасет X_train и маленький x_train с лейблами y_train. Как в керасти претренировать модель на одном X_train и потом доучить на (x_train, y_train)?
Аноним 03/06/17 Суб 19:13:22  1000548
Посоветуйте хорошее по математической оптимизации.
Аноним 03/06/17 Суб 19:34:48  1000555
>>1000548
Ты сначала напиши на чем пишешь код. Нейросети не только на пистоне пишутся, если что.
Аноним 03/06/17 Суб 20:13:58  1000569
>>1000555
А это имеет значение? Я думал в таких вещах обычно псевдокод какой-то. Всяко умею калякать.
Аноним 03/06/17 Суб 20:38:37  1000589
>>983988
Продливаю вопрос этого анона.
Как там обучаться на 950, 1050ti? Или меньше 1060 даже не стоит пытаться?
Аноним 03/06/17 Суб 20:59:23  1000604
predict нейросеточки в керасе распознающей 10 категорий возвращает массив из 10 элементов, как собрать его в один ответ?
Аноним 03/06/17 Суб 22:35:26  1000671
Посоветуйте годную книгу по теории вероятности для совсем нубов.
Аноним 03/06/17 Суб 22:49:32  1000677
>>1000604
взять класс с наибольшей вероятностью?
Аноним 03/06/17 Суб 23:02:30  1000681
>>1000677
Чем взять?
Аноним 04/06/17 Вск 05:21:08  1000754
>>1000589
Зависит от задач. Если googlenet тебе норм, то можно и на 750M обучать, как я делаю. Вот VGG уже в пытку превращается. Но мне проще поработать с датасетом на простенькой сетке типа alexnet, добиться максимума производительности, а дальше взять сеть покруче и или подождать пару дней, или взять AWS. И только сейчас я созрел до покупки чего-то покруче, но это не то, без чего нельзя жить.
Аноним 04/06/17 Вск 11:21:44  1000777
>>1000548
Аноним 04/06/17 Вск 13:09:04  1000809
>>1000681
Интегралом Коши.
Аноним 04/06/17 Вск 18:40:19  1001012
>>999787
Очень годная книга, написано все связно и очень понятно.
Аноним 04/06/17 Вск 20:34:06  1001065
Нейроны какие есть наиболее полные книги и ресурсы по обработке текстовых данных? Нероночки конечно заебись, но хотелось бы посмотреть на что-то кроме bag of words, tf-idf и word2vec.
Аноним 04/06/17 Вск 21:25:49  1001096
14946670664010.jpg (126Кб, 454x807)
>>1001065
LSA, LDA, topicmodels например. Профильный обзор пакетов для R - https://cran.r-project.org/web/views/NaturalLanguageProcessing.html Тута любят кукарекать против R, специально для таких реквест - покажите-ка мне аналог вот такой штуки ftp://cran.r-project.org/pub/R/web/packages/LSAfun/LSAfun.pdf вна каком-нибудь пистоне, или что там сейчас модно у школьцов. Особенно обратите внимание на функцию MultipleChoice().
Аноним 04/06/17 Вск 21:49:32  1001112
>>1000681
но мог бы и погуглить

Foundations of Statistical Natural Language Processing - Christopher D. Manning

Speech and Language Processing - Daniel Jurafsky and James H. Martin

есть большой пласт статей/книг по парсингу (синтаксису)

в этом курсе неплохой силлабас дан
http://cs287.fas.harvard.edu
Аноним 04/06/17 Вск 23:28:39  1001158
>>997533
> в универе ты получишь знакомства
Если с этим никак?
Аноним 05/06/17 Пнд 11:01:06  1001285
>>1001158
То и идти туда тебе особо не надо.
Аноним 05/06/17 Пнд 11:32:31  1001295
>>1001158

То ты аутист и уже в этой жизни проиграл, скорее всего.
Аноним 05/06/17 Пнд 12:52:35  1001330
3663
Аноним 05/06/17 Пнд 16:37:38  1001446
>>1001295
То есть вкатиться с "аутизмом" мне уже не получится?
Аноним 05/06/17 Пнд 16:50:37  1001453
Антон, поясни пожалуйста, что такое пространство весов, а то я что-то ничего не понимаю
>We think about the weights that connect into a particular neuron, and plot the strengths of the weights by using one axis for each weight that comes into the neuron, and plotting the position of the neuron as the location, using the value of w1 as the position on the 1st axis, the value of w2 on the 2nd axis, etc
Что такое particular neurons и strengths of the wrights
А то я пока лишь понял, что весы у нас принимаются за оси координат и ориентируясь на них мы можем разместить нейроны, это правильно?
Аноним 05/06/17 Пнд 16:58:11  1001459
>>1001446
Не слушай его.
Во-первых, у тебя будет научный руководитель. Правильное поступление, это когда ты поступаешь чтобы учиться-работать с конкретным человеком, с которым ты заранее познакомился в деловой (у меня было не очень деловой) переписке. Он пропихнет тебя в исследовательские группы и будет со всем помогать, потому вы связаны и ты тоже приносишь ему профит. Ну или если это старпер с перманентом, то будешь мыть полы в лаборатории и от него получишь только его имя на всех твоих пейперах, да пару внезапных встреч в году, во время которых он для профилактики тебя размажет.
Университет это первая и самая многообещающая ситуация, в которой ты оказываешься вместе с наиболее близкими тебе по интересам людьми, некоторым она так нравится, что они пробуют еще и еще с разными наборами человеков.
Аноним 05/06/17 Пнд 17:24:07  1001466
>>1001453
Представь себе сетку из нейрона и двух весов. Тогда все возможные состояния такой сетки могут быть описаны парой чисел или точкой на плоскости. А обучение сети -- движением точки на плоскости по направлению градиента двумерной функции потерь. А теперь обобщи на случай миллиона весов. Все то же самое, только пространство многомерное.
Аноним 05/06/17 Пнд 18:08:25  1001492
Снимок.PNG (139Кб, 746x649)
>>1001466
>обучение сети -- движением точки на плоскости по направлению градиента двумерной функции потерь.
Причем, для доказательства сходимости нейроночки достаточно показать, что дифференциал функции Ляпунова отрицателен в любой момент времени.
Аноним 05/06/17 Пнд 18:22:55  1001500
>>1001492
Когда уже запретять всё это leave as an exercise говно.
Аноним 05/06/17 Пнд 18:26:35  1001501
>>1001459
Ну хуй знает, я не представляю кто будет моим руководителем, слава богу мне еще больше года до этого.
> которой ты оказываешься вместе с наиболее близкими тебе по интересам людьми,
Как блять это поможет если никто с тобой не хочет общаться, Да никак.
Аноним 05/06/17 Пнд 18:56:33  1001527
>>1001492
>>1001466
Не владею матаном на том уровне, чтобы тебя понимать.
Аноним 05/06/17 Пнд 18:59:02  1001528
>>1001527
Ты просто тупой и машоб не для тебя.
Аноним 05/06/17 Пнд 19:01:48  1001530
>>1001528
Не правда, думаю единицы людей из треда и вообще машоба знают про функцию Ляпунова, а ты просто потраллить решил.
Аноним 05/06/17 Пнд 19:12:03  1001534
>>1001530
Я другой анон, >>1001492
Аноним 05/06/17 Пнд 20:25:16  1001594
>>1001530
Все кто нормально слушал курс в универе должны знать.
Аноним 05/06/17 Пнд 20:29:33  1001599
>>1001594
Как же вы заебали.
Аноним 05/06/17 Пнд 20:33:33  1001602
>>1001594
Этого нет в программе, только если йоба-вуз.
Аноним 05/06/17 Пнд 20:57:15  1001619
>>1001466
А где в такой сетке будет располагаться вход?
Аноним 05/06/17 Пнд 21:12:15  1001626
Сап двачик, дай совет нубасу. Сейчас штудирую Мёрфи , параллельно с этим какой практикой заняться?
Аноним 05/06/17 Пнд 21:26:33  1001632
>>1001619
Какая разница? Такая сетка - это функция f(x,y), а вид этой функции может быть любым.
Аноним 05/06/17 Пнд 21:46:43  1001643
Тут есть биомнформатики? Заканчиваю 6 курс, хочу в вкатиться в машобчик, что посоветуете, куда идти? Что-нибудь про Михаила Бурцева с его нейросетями можете сказать?
Аноним 06/06/17 Втр 16:00:13  1002024
Есть профит объединять LPCC и MFCC?
Аноним 06/06/17 Втр 17:13:43  1002079
>>1001626
Kaggle, MNIST
Аноним 06/06/17 Втр 19:49:28  1002150
previewe1b02ceb[...].jpg (80Кб, 707x1000)
Какие вы используете алгоритмы для подбора количества нейронов, слоев, всяких размеров, скорости обучения?
Аноним 07/06/17 Срд 10:40:25  1002520
Каким образом нейроны из пространства весов размещаются в пространстве входов? Если нейроны из пространства весов меняют свое местоположение в зависимости от значений весов, то как устроено пространство входов?
Аноним 07/06/17 Срд 11:08:27  1002528
>>1002520
>Каким образом нейроны из пространства весов размещаются в пространстве входов?
Ты походу представляешь себе какое-то космическое пространство, где что-то где-то размещается.
А есть просто нейроночка, которая является просто функцией вида выход1...выходN=f(вход1, ... входN, параметр1, ..., параметрN).
Чтобы подогнать вход к выходу мы должны зафиксировать вход и выход и сделать границентный спуск в пространстве параметр1...параметрN. Отсюда собственно это пространство и возникает. А если ты фиксируешь параметры, то возникает пространство входных данных. А если ничего не фиксируется - еще какое-то пространство. И т. п.

Поэтому все обучение машобу и начинают с линейной регрессии выход=вход*k+b. Всего 1 вход, 1 выход и 2 параметра. Поэтому легко представить аналогии в 2д или 3д пространстве. А если ты сразу начинаешь работать с глубокими сетями, где у сетки миллиарды параметров и сотни тысяч входов с выходами, понятно, что нихуя не понятно, что происходит.
Аноним 08/06/17 Чтв 00:25:14  1002902
АНОН ПОМОГАЙ!
Вот есть у меня классификатор. Он дает на тестовом датасете из 10 примеров 80% пресижона и 80% реколла.
А вот есть другой классификатор, он на миллионе примеров дает 80% пресижона и 80% реколла.
Можно ли как-нибудь обоснованно сравнить (а еще лучше - измерить количественно) их качество?
На уровне ощущений понятно, что тот, который измерен на тысяче примеров более правдоподобед, но не знаю как это доказать.
Память подсказывает что на втором курсе и лабах по физике что-то было связанное с коэффицентами стьюдента и хи квадратом, но я пока не уверен, туда ли я копаю.
Аноним 08/06/17 Чтв 01:17:20  1002915
>>1002902
Что мешает проверить на одном датасете?
Аноним 08/06/17 Чтв 07:31:43  1002970
>>1002915
Я про оценку точности классификации. Не может же оценка точности базироваться только на отношениями внутри конфьюжен матрикс, естественно, что чем больше выборка, тем более классификатор правдоподобен.
Аноним 08/06/17 Чтв 08:57:32  1002986
>>1002970
Да нет, конечно правдоподобность классификатора не зависит от того, как ты его тестируешь. Что изменится, так это доверительный интервал. Довольно бесполезная штука на самом деле, поэтому если интересно, поройся сам.
То есть если в первом случае у тебя вероятность false positive 80+-3sigma1 с вероятностью 99%. Во втором - 80+-3sigma2 с вероятностью 99%, и там и там будет 80, но отличаться будет этот +-, ведь чем меньше ты протестировал, тем меньше ты знаешь.

Смотри https://stackoverflow.com/questions/41068858/confidence-interval-margin-of-recall-or-precision

Формулу он предлагает следующую:

p +/- Z_score_at_alpha * std_error где
p = adjusted_recall=TP+2/(TP+FN+4)
std_error = sqrt(adjusted_recall(1-adjusted_recall)/(N+4))
TP - true positive, FN - false negative, N - число в выборке,
Z_score_at_alpha - какаую-то хуйня по типу коэффициента Стьюдента

Но это довольно бесполезная вещь, мы не ракеты производим, чтобы делать выводы по 10 образцам, сравнивать классификаторы нужно на одном датасете.
Аноним 08/06/17 Чтв 18:33:48  1003230
Как в играх с неполной информацией оценивать в какой момент был сделан ход, приведший к проигрышу?

Вот пример. Играю в покер. Мне на префлопе пришли ракеты (два туза). Это лучшая комбинация, которая может придти. Мы проходим флоп, тёрн и ривер и оказывается, что победил чувак, которому на префлопе пришли AK (туз и король), на флопе на столе лежал один короли, и на ривере пришел один король, таким образом он выигрывает с сетом из королей. Вот в какой момент решение не скидывать/коллировать/рейзить было неправильным? Или оно было правильным в любом случае?
Аноним 08/06/17 Чтв 19:30:26  1003258
>>1002986
Спасибо, примерно такое я и хотел прочитать.
Аноним 08/06/17 Чтв 19:55:02  1003263
>>1003230

Было правильным в любом случае
Аноним 08/06/17 Чтв 20:04:12  1003268
Сап двачик. Что можно почитать что-бы понять графовые модели если мне еще не читали дисткретку и теорвер.
Аноним 08/06/17 Чтв 20:27:03  1003283
Я смогу в ИИ на Питоне?
Аноним 08/06/17 Чтв 20:29:12  1003284
>>1003263
Хорошо, и как это задавать? В смысле как распознавать ситуацию "этот ход правильный в любом случае". Не в контексте покера, а вообще. Перебором что ли?
Аноним 08/06/17 Чтв 20:30:55  1003285
>>1003283
Потребуется на порядок больше мощностей чем на си и пропорционально ускорится скорость разработки.
Аноним 08/06/17 Чтв 20:52:07  1003291
>>1003285
на питоне быстрее же
Аноним 08/06/17 Чтв 21:30:42  1003312
>>1003285
зачем си, когда плюсы есть?
Аноним 08/06/17 Чтв 22:33:15  1003346
Помогите за три минуты простенький ИИ слепить на питоне.
Аноним 08/06/17 Чтв 23:12:17  1003366
>>1003346
https://github.com/ddtm/dl-course
Учись, там почти все есть
Аноним 09/06/17 Птн 00:06:22  1003372
>>1003366
а чего нет?
Аноним 09/06/17 Птн 00:40:25  1003378
>>1003366
>>1003372
Дьявол кроется в деталях же.
Аноним 09/06/17 Птн 01:48:45  1003398
Что ещё понадобится кроме этого?
https://github.com/ddtm/dl-course

Хочу тему целиком знать.
Аноним 09/06/17 Птн 07:11:49  1003426
>>1003284
Ну не совсем перебором. Есть такая тема как reinforcement learning, в частности, POMDP, марковский процесс принятия решений в частично наблюдаемой ситуации. Возможно, подобные алгоритмы и могут в покер, но количество партий для обучения должно быть большим.
Аноним 09/06/17 Птн 11:03:05  1003473
Как сделать ИИ, как сделать ИИ, как сделать ИИ?
Аноним 09/06/17 Птн 11:16:17  1003477
>>1003426
Да там же ещё с подпивасами нельзя играть, которые просто на #yolo идут в алл ин, когда у них 2 2.
Аноним 09/06/17 Птн 15:51:27  1003578
Ну, посоветуйте чего-то там по математической оптимизации и всему подобному. Дабы легко разбираться во всех этих целевых функциях, имитациях отжига и прочим.
Аноним 09/06/17 Птн 16:08:51  1003589
>>1003473
Берешь AIXI и оптимизируешь, ну ты понел
Аноним 09/06/17 Птн 18:57:55  1003663
>>1003589
ты всё усложняешь, вот что я понел
Аноним 09/06/17 Птн 20:18:44  1003708
анон, а что насчет улучшения нейрочки после обучения, каким образом тот же предиктивный набор подстраивается под владельца? Можно как то "дообучивать" нейронку или как?
Аноним 09/06/17 Птн 20:26:40  1003714
>>1003708
Сохраняй архитектуру, веса, параметры и доучивай сколько хочешь. Обязательное условие для лаба2 по нейроночкам.
Аноним 09/06/17 Птн 21:07:54  1003731
4.jpg (433Кб, 640x960)
Сейчас только один тип ИИ что ли? Тот который машинное обучение, а другие типы что?
Аноним 09/06/17 Птн 21:18:27  1003732
>>1003731
обучение с подкреплением есть еще.
Аноним 09/06/17 Птн 21:24:39  1003739
>>1003578
Ну что же вы бэтмэны
Аноним 09/06/17 Птн 21:36:01  1003743
>>1003732
>обучение с подкреплением
Это тоже обучение, я же говорю вообще не про обучение.
Аноним 09/06/17 Птн 21:42:40  1003744
>>1003743
Т.е. ИИ эволюционирует и может взаимодействовать с внешним миром, ясное дело.
Но это лишь вспомогательная возможность. Когда ИИ изучит окружающий Мир, Вселенную и то, что рядом с ней, на этом же эволюция не должна будет остановиться.
Аноним 09/06/17 Птн 22:31:49  1003774
>>1003743
Это обучение не на данных размеченных экспертами, а на собственном опыте модели, взаимодействующей со средой, при этом она сама определяет как взаимодействовать. Видишь разницу.
Аноним 09/06/17 Птн 23:55:04  1003825
Возникла идея в целях мам-саморазвития и изучения нейроночек на примере написать бота для одной древней пошаговой карточной онлайн-игры.
Проблема в том, что там реплеи черезжопные, а именно -не видно карт ни того, ни другого игрока. Видна вся остальная информация - мана, ее прирост, ходы, хп и тд, а вот карт нет. Но при этом карт достаточно много, и при выборе хода, офк, надо обязательно учитывать текущую твою руку.
Насколько отсутствие информации о возможных ходах в данном случае является проблемой при обучении? Как подойти вообще к обучению, чтобы это не сильно снизило итоговый % побед?
Аноним 10/06/17 Суб 00:29:57  1003835
Есть 2 разные новостные статьи. Нужно как-нибудь определить общая ли у них тема или нет. Есть готовые решения?
Аноним 10/06/17 Суб 10:49:28  1003914
aai.png (173Кб, 2268x1538)
Как вам концепт ИИ?
Аноним 10/06/17 Суб 10:50:38  1003915
>>1003914
Говно. А теперь съебал отсюда.
Аноним 10/06/17 Суб 10:53:27  1003916
>>1003915
покажи свой концепт тогда, сам съебал.
Аноним 10/06/17 Суб 14:42:23  1004014
P(Ci, Xj ) = P(Xj |Ci)P(Ci)
Антон, я правильно понимаю, чтобы найти совместную вероятность, надо сначала найти сколько Ci есть в Xj (условная вероятность) и потом умножить на Ci?
В книге почему-то говорится находить условную вероятность и делить на число примеров из вообще любого класса.
>We do this by looking in histogram bin Xj , counting the number of examples of class Ci that are in it, and dividing by the total number of examples (of any class).
А в формуле из гугла, согласно Multiplication rulre умножение.
Аноним 10/06/17 Суб 14:47:26  1004019
>>1004014
>сколько Ci есть в Xj
А потом поделить на Xj
Аноним 10/06/17 Суб 14:55:52  1004026
>>1003578
Ну, какие бы книги?
Аноним 11/06/17 Вск 03:21:55  1004307
>>1003578
Мехмат можешь закончить
Аноним 11/06/17 Вск 08:02:00  1004321
Я сворачиваюсь клубочком и плачу. Я выделил из объектов фичи, классифицировал объекты (там 50% принадлежат одному классу), подал всё на XGBoost, он натренировал свой лес так, что лес всегда отдаёт константу. Я стёр 80% фич и оставил только те, которые 100% (заведомо) имеют корреляцию с классом объета. xgboost всё равно отдаёт константу, но чуть другую. Я срезал всё кроме 3+2x2 фич (ещё 2 фичи всегда null). xgboost отдаёт третью константу. В 46% случаев он прав, но это бесполезно, потому что я и так знаю, что половина объектов принадлежит конкретно этому классу.

Что делать? Реальных объектов осталось мало, потому что я оставил только те объекты, которые имеют хотя бы одну из двух пар фич.

http://rgho.st/8vTLNcg5b вот входные данные для обучения. Думаю, понятно что тут где
Аноним 11/06/17 Вск 09:07:55  1004324
>>1001643
я здесь, занимаюсь биоинфой и машобом нейронок. Вкатывайся на запад, че в рашке сидеть.
Аноним 11/06/17 Вск 14:51:04  1004402
>>1004321
Увеличить количество итераций, очевидно оно у тебя 1.
Аноним 11/06/17 Вск 16:10:22  1004471
Снимок.PNG (38Кб, 858x417)
>>1004402
Что из этого итерации? maxdepth? Я до 15 увеличил.
Да, я неофициальную обертку использую https://github.com/PicNet/XGBoost.Net
Аноним 11/06/17 Вск 16:31:39  1004485
>>1004471
Booster = null WTF?
Используй нормальный бустер или dart
Аноним 11/06/17 Вск 16:39:59  1004489
>>1004471
>>1004402
ага, заглянул в исходники библиотеки. "Итерации" это "estimators"

>>1004485
Сейчас разбираюсь как задать
Аноним 11/06/17 Вск 16:52:21  1004493
4.jpg (433Кб, 640x960)
nya="Всем привет, Няши!";print(gdjh.replace('т', 'У').replace('ши', 'И!!').replace("Все", "Я").replace('Н', 'Х').replace('м п', ' С').replace('р', 'О').replace('я', 'У').replace('иве', 'С'));
Аноним 11/06/17 Вск 17:18:56  1004499
Снимок.PNG (7Кб, 728x77)
>>1004489
>>1004485
Замечательная библиотека. Чтобы передать параметр, надо его установить через SetParameter, а потом в fit передать любой Dictionary, его библиотека всё равно игнорирует.

В общем, я задавал gbtree, gblinear и dart. Если не задавать параметр, то XGBoost всегда возвращает 0.6091954. Если задавать любой из трёх, то возвращается всегда (при каждом запуске) немного разное 0.6091884 / 0.6091871 / 0.6091864. Но больше ничего не меняется. Функция Update точно запускается 100-1000 раз, тоже ничего не меняется. Кол-во деревьев тоже менял — тоже ничего не меняется.

Ни у кого нет возможности взять тот дата-сет, который я скинул http://rgho.st/8vTLNcg5b и прогнать в Питоне, например, или в Джаве? Может дело всё таки в дата-сете. Я уверен, что там есть корреляция
Аноним 11/06/17 Вск 17:25:51  1004501
>>1004499
Хгбуст здорового человека - через враппер для R https://cran.r-project.org/web/packages/xgboost/ , хгбуст курильщика - всякие мутные сборачки, в которых хуй проссышь как передать программе нужный параметр.
Аноним 11/06/17 Вск 17:29:44  1004503
>>1004501
Если бы я хотел выучить R/Пистон, я бы их выучил. Сама библиотека в целом работает. На синтетических данных выдаёт то, что надо. Вот сейчас ещё синтетики генерю, чтобы убедиться
Аноним 11/06/17 Вск 17:57:03  1004524
А что за язык R, в чем его фишка?
Я смотрел примеры в гугле, какая-то хуита, построение графиков, это и на Visual Basic в Excel можно сделать.
мимокрокодил
Аноним 11/06/17 Вск 17:59:53  1004525
>>1004524
язык для мат. анализа
Аноним 11/06/17 Вск 18:00:18  1004527
4.jpg (433Кб, 640x960)
nya="Всем привет, Няши!";print(nya.replace('т', 'У').replace('ши', 'И!!').replace("Все", "Я").replace('Н', 'Х').replace('м п', ' С').replace('р', 'О').replace('я', 'У').replace('иве', 'С'));


while True:print(u'\u041F\u041E\u041A\u002D', end="")
Аноним 11/06/17 Вск 18:02:02  1004530
>>1004524
>А что за язык R, в чем его фишка?
Язык для любой обработки данных, статистических вычислений, машинного обучения.
>какая-то хуита, построение графиков, это и на Visual Basic в Excel можно сделать.
В екселе нет 10000+ библиотек, реализующих сотни тысяч алгоритмов для любой работы с данными.
Аноним 11/06/17 Вск 18:07:00  1004533
>>1004503
Пинаю керас в питоне, как реализовать конволюционный энкодер? У меня на вход подается картинка (32,32,3), а на выходе я хочу получить (8, 4, 4), но как бы я не делал, выводится ошибка что последний слой нейроночки ожидает получить (8, 4, 4), а получает (32,32,3).
Аноним 11/06/17 Вск 18:41:14  1004552
>>1004533
Код бы в пастбине скинул.
Аноним 11/06/17 Вск 19:11:17  1004565
>>1004503
Сук, эта либа меня затролила))
Я уже генерю сеты из рандомных значений, где output вообще не связан с input. Даже там библиотека каким-то образом умудряется возвращать разные числа. А на реальных данных — константу
Аноним 11/06/17 Вск 19:12:34  1004567
>>1004552
Да, конечно, сори, я не спал уже очень-очень давно. Спасибо, уже отдебажил через model.summary()
Аноним 11/06/17 Вск 19:56:58  1004583
>>1003477
>>1003426
Стоп-стоп. Что касается покера, там играются не карты, а человек. Само собой, что ты должен подавать на нейронки фичи, снятые с самих людей. Если ты играешь в покер карты, то ты игрой ошибся, братишка
Аноним 11/06/17 Вск 20:47:29  1004609
1496443955803.jpg (47Кб, 550x449)
Чем можно добиться хотя бы 50% на CIFAR-10, если можно учить всего на 5 000 изображениях из 50 000? Да, датасет тот же, но в нем только десятая часть, в этом суть.
Аноним 11/06/17 Вск 22:11:50  1004651
А вы можете, епта, читать научные статьи свежайшие по теме машинного обучения и даже понимать их? Долго надо прокачивать сей навык? А как?

Ну, а внедрять последние технологии, наверное, сложновато, да? Мол там в научных статьях всяких кластеры, хитрые сплетения и прочее.
Аноним 11/06/17 Вск 22:52:49  1004678
>>979045 (OP)
Только сейчас заметил:
> В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй.
>Хуавэй
>В России
Наркоманы штоле?
Аноним 11/06/17 Вск 23:02:47  1004684
>>1004678
https://hh.ru/vacancy/20684187?query=huawei%20machine%20learning
Аноним 11/06/17 Вск 23:28:07  1004697
>>1004684
Интересно, зачем ML специалисты компании, бизнес которой построен на продаже нищебродских ноунейм модемов.
Аноним 12/06/17 Пнд 01:42:23  1004745
>>1004697
> зачем ML макаки компании
> продаже нищебродских ноунейм модемов
именно для этого, лол
Аноним 12/06/17 Пнд 02:09:30  1004752
https://2ch.hk/pr/res/1004751.html
https://2ch.hk/pr/res/1004751.html
https://2ch.hk/pr/res/1004751.html
https://2ch.hk/pr/res/1004751.html
https://2ch.hk/pr/res/1004751.html
https://2ch.hk/pr/res/1004751.html
https://2ch.hk/pr/res/1004751.html
https://2ch.hk/pr/res/1004751.html
https://2ch.hk/pr/res/1004751.html
https://2ch.hk/pr/res/1004751.html
https://2ch.hk/pr/res/1004751.html
Аноним 12/06/17 Пнд 03:14:50  1004764
>>1004651
Вот там SOTA принесли с SELU.
Внедрять как нехуй. Понимать сложновато.
Аноним 12/06/17 Пнд 12:21:39  1004831
>>1004324
А ты откуда, как съебал?
Аноним 13/06/17 Втр 04:32:04  1005192
>>1004533
у всех подобных библиотек на вход картинки ожидаются в формате (3, 32, 32). Свапни размерности и все будет работать. А вообще надо бы маны сначала было покурить, а потом вопросы задавать.

>>1004831
канада. самолетом съебал.

Аноним 13/06/17 Втр 04:34:34  1005193
>>1004609
прочитай про one-shot learning или few-shot learning. Там такая задача как раз решается.
Аноним 20/06/17 Втр 18:02:51  1008842
Заебался вручную писать нейросети. Понял, что нужно писать на питоне, но какую либу использовать и какие книги читать?
Аноним 24/06/17 Суб 03:05:39  1010735
ИИ - прошлый век. Совсем другое дело - Распределённый планетарный СверхИнтеллект!
Аноним 08/07/17 Суб 22:00:35  1018940
Сап двачик. Если я через анаконду скачал py-xgboost это тоже самое что и просто xgboost?

[Назад][Обновить тред][Вверх][Каталог] [Реквест разбана] [Подписаться на тред] [ ] 506 | 48 | 152
Назад Вверх Каталог Обновить

Топ тредов
Избранное