[Ответить в тред] Ответить в тред

09/10/16 - Открыта доска /int/ - International, давайте расскажем о ней!
30/09/16 - BREAKING NEWS ШОК АБУ ПРОДАЛСЯ МЭЙЛУ (на самом деле нет)
25/09/16 - Персональное обращение Абу - СБОР ПОЖЕРТВОВАНИЙ НА ДВАЧ



Новые доски: /2d/ - Аниме/Беседка • /wwe/ - WorldWide Wrestling Universe • /ch/ - Чатики и конфочки • /int/ - International • /ruvn/ - Российские визуальные новеллы • /math/ - Математика • Создай свою

[Назад][Обновить тред][Вниз][Каталог] [ Автообновление ] 509 | 62 | 138
Назад Вниз Каталог Обновить

machine learning #7 Аноним 10/08/16 Срд 22:06:15  817451  
14708559752570.jpg (147Кб, 800x661)
14708559752601.png (740Кб, 1212x388)
14708559752762.jpg (148Кб, 1920x1080)
книги
Pattern Recognition and Machine Learning, Bishop.
Information theory, inference & learning algorithms, MacKay. http://www.inference.phy.cam.ac.uk/itila/
Machine Learning: A Probabilistic Perspective, Murphy
Introduction to Statistical Learning ( http://www-bcf.usc.edu/~gareth/ISL/ISLR%20Sixth%20Printing.pdf )
Elements of Statistical Learning ( http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Foundations of Machine Learning, أشهد أن لا إله إلا الله وأشهد أن محمد رسول الله. http://www.cs.nyu.edu/~mohri/mlbook/
А. Пегат, "Нечёткое моделирование и управление"

другое
http://libgen.io / http://bookzz.org/ - здесь можно одолжить ^ книги и не только
https://vk.com/deeplearning и http://deeplearning.net/reading-list/
http://arxiv.org/find/all/1/all:+nejronochki/0/1/0/all/0/1
http://videolectures.net/mlss09uk_cambridge/
kaggle.com - весёлые контесты. денежные призы
https://www.reddit.com/r/MachineLearning/wiki/index
http://katbailey.github.io/

яп
1. http://julialang.org/
2. https://www.microsoft.com/en-us/research/project/infernet/
3. https://www.r-project.org/
4. питухон и так все знают

ПЛАТИНА
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.

Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2016 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru

Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.

Что такое TensorFlow?
TensorFlow - опенсорсный гугловый инструмент для перемножения тензоров и оптимизации функционалов. Опенсорсный - потому что даже важные куски типа параллелизации уже выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.

будет ли ML нужен в ближайшие 10 лет, или это просто хайп?
будет. хайп.

смогу найти работу?
Яндекс, мейлру, касперский, несколько биоинформатических компаний (iBinom, можно еще blastim.ru поскролить на тему работы), билайн (они с НГ целое подразделение открыли под ML и биг дату), связной. Ну и западные аутсорсы, если готов рачить за валюту.

нужна математика?
для начинающего ничего особого знать не нужно

поясните за нейроночки
нейроночка - массив

Тред #1: https://arhivach.org/thread/147800/
Тред #2: https://arhivach.org/thread/170611/
Тред #3: https://arhivach.org/thread/179539/
Тред #4: https://arhivach.org/thread/185385/
Тред #5: https://arhivach.org/thread/186283/
Тред #6: https://arhivach.org/thread/187794/
Аноним 10/08/16 Срд 23:07:09  817496
Весь айти это хайп.
Аноним 10/08/16 Срд 23:34:34  817514
14708612741630.jpg (77Кб, 750x682)
>>817496
бля, и правда же
расходимся, хайпаны
Аноним 11/08/16 Чтв 07:03:43  817602
Второй пик не понял. Что это за символы?

Кроме шутки про R конечно.
Аноним 11/08/16 Чтв 13:26:40  817784
>>817602
это иллюстрация эволюции подхода к статистическому выводу у приматов
например, первые шерстяные обезьяны умели работать только с априорными распределениями вероятности
более продвинутые человекообразные безшерстяные приматы уже могли генерировать данные используя заданные параметры модели
на данный момент пик развития - вывод распределения параметров модели по наблюдаемым данным
Аноним 11/08/16 Чтв 15:18:35  817867
Котаны. Я знаю с++ на уровне шаблонов, ооп, stl, умных указателей, перегрузок и прочего говна осваиваемого за месяц.
Как вкатится? Буду использовать шинду, не хочу и вряд ли хватит терпения перейти на новую ОС.
Что почитать чтобы с нуля как дебилу объяснялось?
И
> нейроночка - массив
Что это значит? И что по нейронкам почитать?
Аноним 11/08/16 Чтв 17:54:16  817973
>>817867
Для начала напиши нейроночку на шаблонах, чтобы во время компиляции тренировалась.
Аноним 11/08/16 Чтв 17:55:44  817974
>>817973
Хорошо пошутил.
Аноним 12/08/16 Птн 01:04:10  818209
>>817867
https://www.youtube.com/user/victorlavrenko/playlists?shelf_id=10&view=50&sort=dd
Аноним 12/08/16 Птн 02:26:02  818231
14709579621570.jpg (212Кб, 996x1024)
Это сообщение предоставляется только для тех читателей, которые любопытно Теория выборки / байесовский методы дебаты. Если вы обнаружите какие-либо из этого поста трудно понять, пожалуйста, пропустите его. Там нет смысла пытаться понять дебаты. Просто используйте байесовские методы (они гораздо легче понять, чем сами дебаты!)
Аноним 12/08/16 Птн 18:34:11  818606
Посаны, посаны, а кто-то прикидывал, сколько слоев нужно будет в сети заделать, чтобы сеточка очень качественно переводила с одного языка на другой?
Аноним 12/08/16 Птн 20:59:20  818674
>>818606
42
Аноним 12/08/16 Птн 22:40:21  818728
>>818674
так на видюшках под 200 слоев делают и чет не видно пока переводов нормальных.
Аноним 12/08/16 Птн 22:58:47  818741
>>818728
при чём тут вообще слои-то?
>>818606
Аноним 13/08/16 Суб 03:27:16  818812
>>818606
Параллельных текстов мало, а не слоев.
Аноним 13/08/16 Суб 16:59:09  819075
>>818741
Ну в распознавании графических образов получается чем больше слоев - тем лучше распознает. Каждый новый слой - новое правило(условие) в распознавании. Т.е. тебе не приходится искать эту закономерность самому, а алгоритм оптимизации ее сам найдет.
Аноним 13/08/16 Суб 17:00:52  819077
>>818812
Вот это похоже на правду. И щас кто-то занимается их составлением? Или слишком много их нужно?
Аноним 13/08/16 Суб 22:02:36  819285
>>817784
>>817602
а я шутки про R не уловил, разви это не стандар для биг даты и мл?
Аноним 13/08/16 Суб 22:17:58  819309
>>819077
Роботы поисковиков ходят по интернету и помимо индексации ищут параллельные тексты, есть методы. Или ты думал почему сейчас этим занимаются гуглы да яндексы? У них мощности есть. А качество можешь сам оценить.

Параллельные тексты сейчас это
а) Художественная литература. Очень хуево, потому что художественный перевод не дословный, даже порядок предложений местами меняется.
б) Различного рода мануалы к стиральным машинкам и софту - язык совершенно особый.
в) Новости - самое норм, но, опять же, это не бытовой язык, и контента оче мало. Там, где дохуя (например, русско-украинская языковая пара), переводы качественные.

Человек делает это лучше, потому что понимает смысл текста. Т.е. преобразование идет не напрямую текст-текст, а в некоторое промежуточное представление, а далее из этого представления генерится переведенный текст. Но для понимания смысла нужны нейроночки совершенно другого рода - например, умеющие отвечать на вопросы.
Аноним 13/08/16 Суб 22:39:45  819318
>>819285
ща вроде перекатываются на пестон.
Аноним 14/08/16 Вск 12:35:09  819533
14711673092740.jpg (27Кб, 400x366)
>>817451 (OP)
>нейроночка - массив
Зависимый тип.
Аноним 14/08/16 Вск 12:36:53  819536
>>819318
На пистоне по ML нет нихуя по сравнению с R. Только диплернинг, xgboost, всякий рандомфорест и прочие школоалгоритмы, которые и вне пейстнона есть на каждом углу, не говоря про R.
Аноним 14/08/16 Вск 12:55:58  819547
>>819536
Дебилы блядь. R для статистического анализа. Если вы готовы часами/днями жечь электричество в ожидании результатов - флаг в жопу.
Аноним 14/08/16 Вск 12:57:35  819549
>>819547
>R для статистического анализа
Как там, в 1996? https://cran.r-project.org/web/views/
Аноним 14/08/16 Вск 13:16:02  819562
>>819536
Нормальные люди пользуются Scala/Java, так что вы оба соснули с проглотом.
Аноним 14/08/16 Вск 13:18:37  819566
14711699173590.jpg (78Кб, 858x570)
>>819562
>Scala
>Java,
>для ML
>Нормальные люди
Даже слов нет.
Аноним 14/08/16 Вск 13:53:44  819596
Вы ебанулись. R и Java/Scala будут выдавать производительность в сотни раз меньше, поскольку все фреймворки для machine learning пишутся на плюсах/CUDA и портируются затем только на пайтон и плюсы за редкими исключениями.
Аноним 14/08/16 Вск 13:59:23  819599
>>819536
А в яндексе и гугле вот пистон юзают, а не R
Аноним 14/08/16 Вск 14:11:34  819608
>>819596
>все фреймворки для machine learning пишутся на плюсах/CUDA и портируются затем только на пайтон и плюсы за редкими исключениями.
В массе своей ничего никуда не портируется, сам код как есть на крестах/куде, так и остается, на пистонах или R там только враппер.
>>819599
Во что больше индусов может, то и юзают, очевидно же.
Аноним 14/08/16 Вск 14:13:12  819609
>>819608
Хочешь сказать, что в самом гугле работают "индусы"? Не путай с аутсорсом.
Аноним 14/08/16 Вск 14:17:18  819613
14711734388160.jpg (54Кб, 500x500)
>>819609
>Хочешь сказать, что в самом гугле работают "индусы"?
А ты хочешь сказать, что нет? Автор так до сих пор и не вышедшей книги по TensorFlow пикрелейтед - индус.
Аноним 14/08/16 Вск 14:23:16  819616
>>819613
>Во что больше индусов может, то и юзают, очевидно же.

В данном контексте индус рассматривался, как быдлокодер, так, что не виляй.
Аноним 14/08/16 Вск 14:25:27  819619
>>819616
Лол, ты не в курсе, откуда взялась традиция называть быдлокодеров индусами?
Аноним 14/08/16 Вск 14:28:00  819621
>>819619

Ну очевидно в гугле работают не быдлокодеры.
Аноним 14/08/16 Вск 14:28:03  819622
>>819619
>Лол, ты не в курсе, откуда взялась традиция называть быдлокодеров индусами?
расизм?
Аноним 14/08/16 Вск 14:31:10  819627
>>819536
ты совсем дурачек, да?
http://scikit-learn.org/stable/
Аноним 14/08/16 Вск 14:31:10  819628
>>819619
Среди них это распространено, и там еще фишка, что чем больша кода, тем больше денег, вот они и пишут бредовые конструкции по типу сделать 10 присваиваний вместо цикла.
Аноним 14/08/16 Вск 14:37:44  819631
>>819622
>расизм?
Нет, статистика.
>>819627
Все так как я и сказал же, полтора алгоритма. Сравни это с почти 9000 пакетов для R.
Аноним 14/08/16 Вск 14:40:41  819635
>>819631
ну приведи пример алгоритма, которого нет в сциките и который есть в R.
Аноним 14/08/16 Вск 14:44:49  819637
>>819635
Смеешься? В R по одним байесовским методам десятки, если не сотни алгоритмов. https://cran.r-project.org/web/views/Bayesian.html обзор самого основного. Сцикит этот ваш примерно равен 1-2 пакету R для ML.
Аноним 14/08/16 Вск 14:50:33  819641
>>819637
pyMC & pomegranate это та часть баесовских методов, которые нужны в ML. С остальным говном иди к статистикам, ебаный свидетель баеса.
Аноним 14/08/16 Вск 14:55:53  819646
>>819641
Лол, "нинужно". Ну кот бы сомневался. Ладно, раз школьник яскозал, то так и есть. Там еще SVM фигурирует, поди 3-4 основных варианта, да? https://cran.r-project.org/web/packages/kernlab/index.html целый конструктор кернел-алгоритмов, помимо кучи готовых вариантов, можно самому прописывать свои кернелы и многое другое. Потом, что там было? Кластеризация? https://cran.r-project.org/web/views/Cluster.html обзор основных пакетов.
Аноним 14/08/16 Вск 23:42:20  820049
Есть ли курсы по МЛ на русском языке?
Да, да, обоссыте. Гуглить не умею, в английский не хочу.
Но я точно знаю, что есть, правда на курсере только какая-то платная параша.
Аноним 15/08/16 Пнд 01:36:36  820086
>>820049
Есть. На хабре поковыряй бложек яндекса.
Но с таким отношением тебе только хуй сосать, а не ML себе в жопу тыкать.
Аноним 15/08/16 Пнд 10:38:47  820186
14712467279360.jpg (2Кб, 170x154)
>>820049
>курсы по МЛ на русском языке
Наверное, есть и на таджикском. Вот только зачем? Вся литература кроме 3,5 переводных изданий по этой теме на английском. Весь софт вместе со всей документацией к нему на английском. Если захочется общения/возникнут вопросы к авторам, вся тусовка англоязычная. И так далее.
Аноним 15/08/16 Пнд 11:01:45  820198
>>820086
>хуй сосать
>в жопу тыкать
а в чем тогда разница?
Аноним 15/08/16 Пнд 11:25:41  820213
>>820198
Очевидно, в месте, с которого ты начнёшь заполнять экзистенциальную пустоту.
Аноним 15/08/16 Пнд 16:27:28  820420
14712676484760.png (43Кб, 561x556)
Итак, ИТТ мы выяснили, что вообще всё, что на пиструне есть по ML, примерно на уровне пары пакетов для R. Более того, есть и более серьезные расстановки точек, чем дискуссии на этой параше, https://www.r-bloggers.com/more-data-scientists-prefer-r-survey/ например, пикрелейтед, http://www.burtchworks.com/2016/07/13/sas-r-python-survey-2016-tool-analytics-pros-prefer/ и т.д. Так откуда, из какой школы есть пошел форс пистона как якобы стандарта в датасаенс?
Аноним 15/08/16 Пнд 16:36:49  820433
>>820420
R, как и слово "датасаенс" - это недавно выплывшие хипстерские баззворды, причем одно тянет за собой другое. А здесь machine learning тред и пожалуйста без этой аналитической параши. Аналитики и эксель предпочитают, и хули.
Аноним 15/08/16 Пнд 16:42:38  820440
>>820433
Так про ML и речь. Вчера еще выяснили, что на пистоне алгоритмов ML реализовано хуй да нихуя по сравнению с R. Предыдущий оратор, правда, сказал что и нинужно.
Аноним 15/08/16 Пнд 16:50:10  820446
>>820420
SAS, кек. Мож еще эксель посчитаем, он там всех порвет.
R умер, да здравствует Питон.
Аноним 15/08/16 Пнд 16:52:51  820449
>>820446
>R умер,
Потому что так сказал школьник с подтирача?
Аноним 15/08/16 Пнд 16:55:23  820450
>>820449
Большего и не надо.
Мы все мертвы вместе с этим тредиком.
Аноним 15/08/16 Пнд 17:14:18  820460
>>820440
На питоне реализовано ровно то, что нужно, а на R - тонны невменяемого говна из левых пейперов.
Аноним 15/08/16 Пнд 17:16:39  820462
14712705998760.png (871Кб, 2480x3508)
только мои пять копеек:

Я использовал R для нескольких крупных проектов. это отстой несколькими способами для проектов я работал на:

1. крайне медленно для числовых значений. медленнее, чем MATLAB. медленнее, чем Python (с NumPy). после разговора с несколькими людьми статистике, кажется, в значительной степени все заканчивается тем, что писал большую часть своего кода в C при использовании R. (в отличие от этого, я не нашел это необходимым в Python или MATLAB для аналогичных проектов.)

2. его синтаксис довольно неуклюжим. хотите соединить две строки? макаронные изделия (string_a, string_b, отд = ''). Рэдфорд уплотнение имеет ряд постов в блоге на недостатки дизайна R в: HTTP: //radfordneal.wordpress.com/2008/09/21/design-flaws-in -...

3. неинформативные сообщения об ошибках. по умолчанию, трассировки стека не печатается. даже если это, часто ошибки на самом деле не сказать вам, что пошло не так.

я не вижу каких-либо преимуществ для R над питона. выход делает хорошую замену для ленивых оценки R.
Аноним 15/08/16 Пнд 17:20:41  820464
>>820462
Ты текст через машинный перевод прогоняешь что ли?

Подмножество Matlab умеет компилироваться в C с помощью matlab coder. И это киллерфича на самом деле. Но и то в основном для аналитики и обработки сигналов. А для ML лучше питона не придумали.
Аноним 15/08/16 Пнд 17:21:27  820466
>>820460
"Нинужно" уже было, как говорится, вчерашняя хохма уже не хохма.
>тонны невменяемого говна из левых пейперов.
Опять же, школомаксимализм тоже уже был. Согласись, если лично ты не знаешь за какой-то алгоритм, это вообще никак не доказывает что этот алгоритм "невменяемое говно из левого пейпера".
Аноним 15/08/16 Пнд 17:24:52  820469
14712710925120.jpg (19Кб, 200x256)
>>820464
> Ты текст через машинный перевод прогоняешь что ли?
ну да

> А для ML лучше питона не придумали.
юляша > пиздон > Rговно
Аноним 15/08/16 Пнд 17:26:07  820470
>>820469
Юляша уже научилась REPL в дебаггере запускать? Я сомневаюсь, потому что как работает LLVM-JIT примерно представляю.
Аноним 15/08/16 Пнд 17:29:16  820475
>>820469
>юляша > пиздон
Откуда вы лезете?
>юляша
Там вообще хоть что-то полезное есть?
Аноним 15/08/16 Пнд 17:29:45  820476
>>820475
Система типов там полезная.
Аноним 15/08/16 Пнд 17:32:01  820477
>>820476
Зависимые типы штоле? В прошлом треде говорили, что нинужно это в ML.
Аноним 15/08/16 Пнд 17:32:28  820478
>>820470
https://github.com/Keno/Gallium.jl

>>820475
> Там вообще хоть что-то полезное есть?
Откуда вы лезете?
Аноним 15/08/16 Пнд 17:34:29  820480
>>820478
И что это?
Аноним 15/08/16 Пнд 17:34:40  820481
>>820478
Смотри. Я хочу встать на точке останова, взять текущий стекфрейм и, допустим, вывести график какого-то массива в виде мультика. Так можно?
Аноним 15/08/16 Пнд 17:34:56  820482
14712716969420.jpg (41Кб, 600x450)
>>820477
Аноним 15/08/16 Пнд 17:35:46  820483
>>820477
Нет, это динамический язык в котором можно опционально проставлять типы для очень быстрого JIT. Грубо говоря, преставь крестовые темплейты в рантайме (которые работают в рантайме за счет JIT-компиляции). Это система типов Julia.
Аноним 15/08/16 Пнд 17:39:08  820486
>>820466
Если с аргументом тебе неудобно спорить, это не значит, что он не состоятелен. Большая часть таких методов - это вещи уровня "а вот мы ебались полгода и улучшили показатели в такой-то задаче при таких-то условиях на 0,05% по сравнению с SVM". Наука-то, может, и вперед идет, но на деле никаких новых чудес такой метод не дает, проще больше данных наебенить, чем сидеть и рассматривать эти методы. И scikit learn содержит только лучшее, и при этом в виде консистентного интерфейса. Короче, python - это как мак, а R - это как линукс. Причем оба бесплатные. Одни работают, другие пердолятся.
Аноним 15/08/16 Пнд 17:39:17  820487
>>820481
ладно да, с дебагом не очень
но так-то ведь всё збс)
Аноним 15/08/16 Пнд 17:41:47  820490
>>820487
Вот поэтому я ебусь с ворованным матлабом :( Даже для питона не нашел нормальной IDE (хотя и не искал особо), а уж Julia с JIT принципиально ограничена и ближе к С++ по look and feel разработки.
Аноним 15/08/16 Пнд 17:46:51  820494
>>820490
PyCharm
Хотя мне, как человеку частично связанному с сигналами, проще работать с матлабом.
Аноним 15/08/16 Пнд 17:55:15  820499
14712729158180.png (168Кб, 1906x988)
>>820490
Так можно в pycharm.
Аноним 15/08/16 Пнд 18:03:57  820502
>>820499
Что за расцветка от Васяна?
Аноним 15/08/16 Пнд 18:04:14  820503
начали читать Introduction to Statistical Learning , блять я до 40 стр. дочитал и почти нихуя не понял, а это блять Introduction! Что за ебанутые формулы берущиеся с неоткуда? Откуда их взяли? Это нормально вообще так тупить или вы сразу вдуплились в эту книгу? я уверен что большинство из здесь седящих читали её мб матан подучить, если да то что именно?
Аноним 15/08/16 Пнд 18:08:14  820506
>>820503
В ISL никакого матана нет, родной.
Аноним 15/08/16 Пнд 18:09:16  820507
>>820503
где ебанутые формулы?
всё должно нормально выводиться или это просто определения
Аноним 15/08/16 Пнд 18:09:25  820508
>>820502
По умолчанию такая, Darcula.
Аноним 15/08/16 Пнд 18:13:18  820510
14712739989020.png (107Кб, 834x537)
>>820507
>>820506
а что это? как это понимать? что это значит? это при чем одна из таких формул котрые раз 20 встречались, нихуя не понятно ведь
Аноним 15/08/16 Пнд 18:26:16  820520
>>820510
это вероятность того что х0 принадлежит классу j
алгоритм берёт К ближайших точецк к x0
сумма даёт вероятность для конкретного класса j
I(true) = 1
I(false) = 0
Аноним 15/08/16 Пнд 18:31:24  820523
>>820520
спс, но мой вопрос скорее нормально ли то что я этого не понимаю, даже после того как ты разжевал я еле понял как все это работает ибо в каком то треде по ML в шапке было написано мол в этой книге всё разжевано, но я и половины не понимаю
Аноним 15/08/16 Пнд 18:32:44  820524
14712751650210.png (61Кб, 1344x444)
>>820510
Все расписывают же, там даже картинка дальше есть из которой должно стать понятным всё.
Слева: вероятность класса j из распределения Y для точки x0 из распределения X.
Справа: взять K точек около x0 и посчитать сумму значений индикаторной переменной, деленную на К.
Т.е. вероятность класса j для точки х0 при произвольном К будет равна количеству рядом лежащих точек с классом j, деленное на K.
Аноним 15/08/16 Пнд 18:38:01  820530
>>820466
Тибе ж бамбит, паринь. Это потому, что ты и сам знаешь, что Р мертв, но изучать что-то новое ты неспособен.
Аноним 15/08/16 Пнд 18:43:10  820532
>>820524
а что это за дата сэт вообще, откуда берётся эта вероятнось, предыдущие примеры с зарплатой были более понятные но тут даже ничего абстрактного нету, просто вероятность что в том или ином месте точка будет синей или желтой и ещё есть граница где эта вероятность 50%, где такое вообще на практике применяют? Зачем? Мб начать заново читать эту книгу, хотя боюсь что все равно ничего не пойму
Аноним 15/08/16 Пнд 18:54:25  820542
>>820532
Применяют для классификации, внезапно.
Аноним 15/08/16 Пнд 18:56:03  820545
>>820542
классификации чего?
Аноним 15/08/16 Пнд 18:58:59  820548
>>820532
Тебе объясняют как работает k-means classifier. Все алгоритмы так "абстрактно" работают — сопоставляют заданной точке из дата сета какой-либо класс или число.
>откуда берётся эта вероятнось
Алгоритм её считает. Алгоритму дают произвольную новую точку, заданную вектором параметров, алгоритм выдает вероятность принадлежности её к классу.
>где такое вообще на практике применяют?
Ну, ты подставь вместо цветов классы из реальной задачи, а по осям отложи любые параметры. Синие кружочки товар купили, желтые не купили.
Аноним 15/08/16 Пнд 18:59:58  820550
14712767990320.jpg (176Кб, 1500x1566)
следующая волна хайпа будет связана с гауссовскими процессами
новoмодные библиотеки и фреймворки будут реализованы на языке программирования "юляся"
глубокие нейронные сеточки уйдут на второй план
Аноним 15/08/16 Пнд 19:01:37  820553
>>820550
>гауссовскими процессами
В двух словах суть?
Тут кидали блог тётки, но читать лень.
Аноним 15/08/16 Пнд 19:02:49  820557
>>820548
>заданную вектором параметров
сори за очередной тупой вопрос но какой ещё вектор, ни слова о векторе не нашел в том параграфе
Аноним 15/08/16 Пнд 19:07:00  820560
14712772203270.png (30Кб, 800x600)
>>820553
безпараметрическая бейсовская модель с кернелами
тренировка - обращение матрицы грама
Аноним 15/08/16 Пнд 19:09:36  820561
>>820560
Intrinsic Gaussian Markov Random Field?
Аноним 15/08/16 Пнд 19:10:18  820562
14712774184890.jpg (144Кб, 1000x800)
>>820557
вектор - массив
Аноним 15/08/16 Пнд 19:12:35  820564
>>820545
Любого множества точек. А виде множества точек представимо вообще все что угодно.
Аноним 15/08/16 Пнд 19:14:52  820566
14712776924500.png (173Кб, 755x496)
>>820557
Датасет задан набором векторов (строк). Вектор — n-мерный массив, n — число параметров (фич). Каждый вектор задает точку в n-мерном пространстве. Потом для этого пространства задается метрика — функция, которая берет две точки и выдает расстояние между ними. И так далее.
Чтобы понять про что это, можешь посмотреть как делают классификацию текстов.
Аноним 15/08/16 Пнд 19:18:51  820570
>>820550
> на языке программирования "юляся"
А как же симит?
Аноним 15/08/16 Пнд 19:22:01  820571
>>820566
тогда если я правильно понял, на твоем пике ветора это ТВ и радио которые задают крассные точки, а метрика(функция) это синезелёный квадрат?
Аноним 15/08/16 Пнд 19:24:13  820576
14712782536170.jpg (298Кб, 1500x1566)
>>820570
за антисимитизм будет смертная казнь
как преступника, так и его семьи
Аноним 15/08/16 Пнд 19:30:19  820581
>>820570
Захайпленное говно, без нихуя. Никаких преимуществ перед Юлей кроме хайпа нагнанного именем "МИСАЧУСЕСКЕЙ ИНСТЕТУТ ТИХНАЛОГЕЙ" не имеет.
Аноним 15/08/16 Пнд 19:31:02  820582
>>820571
Вектор — это точка, то есть массив значений параметров. ТВ и радио — параметры, точки задаются векторами вида [значение ТВ, значение Радио]. Метрика нужна для определения расстояния между двумя точками, в обычном случае берется евклидово расстояние из школьной программы. Синезеленый квадрат — это то, что тебе выплевывает алгоритм, плоскость или поверхность, которая, как предполагается, отображает что-то в исходных данных и может использовать для предсказания новых значений.
Аноним 15/08/16 Пнд 19:39:42  820590
>>820582
то есть вектор это всего лишь точка с значениями параметров? Просто насколько я помню вектор это направление или отрезок, тогда выходит вектор в МЛ это массив со значениями? Поправь если не прав
Аноним 15/08/16 Пнд 19:46:09  820595
14712795696340.png (219Кб, 542x890)
>>820590
Да.
Аноним 15/08/16 Пнд 19:51:02  820598
>>820595
ок, спс
Аноним 15/08/16 Пнд 21:41:03  820664
куда пихнуть .data файл для R на линуксе что б открыть через read.table
Аноним 15/08/16 Пнд 21:43:27  820666
пох, уже открыл указав полную деректорию вместо одного названия фала, хотя было б неплоххо узнать все же куда пихать что б открыть не указывая полную деректорию
>>820664
Аноним 15/08/16 Пнд 21:46:59  820670
>>820666
http://astrostatistics.psu.edu/su07/R/html/base/html/getwd.html
Аноним 15/08/16 Пнд 21:47:42  820674
>>820670
спс
Аноним 15/08/16 Пнд 22:18:04  820695
>>820550
Рассказывай о их достижениях.
Аноним 15/08/16 Пнд 22:22:25  820700
>>820695
их нет
Аноним 16/08/16 Втр 08:26:31  820826
>>820590
>Просто насколько я помню вектор это направление или отрезок
Вектор можно рассматривать как направление от начала координат до точки, указанной в массиве.
Аноним 16/08/16 Втр 21:09:17  821275
http://ailev.livejournal.com/1240509.html
Аноним 16/08/16 Втр 23:12:30  821388
Поясните плиз вкратце что такое bias второй раз перечитываю страницу так и не понял.
>As a general rule, as we use more flexible methods, the variance will
increase and the bias will decrease
Если это, насколько я понял, степень наклона графика, то почему более гибкие методы выдают меньшый bias?
ISLR стр. 36
Аноним 16/08/16 Втр 23:55:43  821409
14713809440930.png (43Кб, 1016x499)
>>821388
Думай об этом в терминах overfit/underfit.
Bias -- ошибка от того, что извлек из данных грубую модель, слабо чувствительную к твоей выборке. Underfit.
Variance -- ошибка от того, что приложил извлек нежную модель, очень чувствительную к твоей выборке. Overfit.
Гибкие методы соответственно могут легче сделать overfit и выдать большой bias, ригидные могут сделать underfit и выдать большой variance.
см. пикрелейтед гибкое vs негибкое
Аноним 17/08/16 Срд 00:13:03  821419
>>819566
По делу есть что сказать? На жабе огромное количество инструментов для бигдаты написано и для машин лёргнинга, а всё, что написано для жабы, написано и для скалы.
Рка же - ограниченная хуета и отомрёт из-за питона и Джулии в будущем. У пестона возможностей мало по сравнению со скалой/Джулией.
Аноним 17/08/16 Срд 00:15:25  821420
>>820420
>пестон - стандарт для датасцаенс
Это где ты такое услышал? Стандарт для даты - это скала.
Аноним 17/08/16 Срд 00:37:46  821431
>>821409
Спс, вродь понял что такое bias, но вот насчет твоего примера не пойму, разви variance это не несоответствие графиков в разных дата сетах? Почему тогда грубые (ригидные) методы выдают большой variance, в книге наоборот написанно что большой variance выдают гибкие методы, а у линейного спада variance маленький
Аноним 17/08/16 Срд 01:08:39  821441
>>821431
Я обосрался.
>Гибкие методы соответственно могут легче сделать overfit и выдать большой variance, ригидные могут сделать underfit и выдать большой bias.
Алсо, вот вроде понятное из вики:
>The bias is error from erroneous assumptions in the learning algorithm. High bias can cause an algorithm to miss the relevant relations between features and target outputs (underfitting).
>The variance is error from sensitivity to small fluctuations in the training set. High variance can cause overfitting: modeling the random noise in the training data, rather than the intended outputs.
Аноним 17/08/16 Срд 01:36:41  821449
14713870019620.png (77Кб, 852x946)
точечные оценки сломают вам жизнь
все проблемы с оверфиттингом/выбором моделей можно решить маргинализируясь над постериором и грамотно применяя теорему бейса
алсо бейс выводит оптимальные значения гиперпараметров прямо из данных, без пердолинга с кросс-валидейшеном
Аноним 17/08/16 Срд 01:43:25  821451
>>821449
https://www.youtube.com/watch?v=6aNDpVOWJjo
Аноним 17/08/16 Срд 01:47:03  821452
14713876238660.jpg (41Кб, 400x400)
>>821451
> вексельштейн
шалом!
Аноним 17/08/16 Срд 05:25:45  821481
>>821275
Крутой блог, спасибо.
Аноним 17/08/16 Срд 11:19:55  821573
14714219955430.jpg (28Кб, 604x403)
>>821449
>>820560
>>820550
А потом может быть до кого-нибудь дойдет, что теорема бейса - частный случай своего более общего нечеткого варианта. Или не дойдет, что скорее всего.
Аноним 17/08/16 Срд 11:53:42  821582
>>821573
Обоснуй.
Аноним 17/08/16 Срд 11:54:27  821583
>>821582
Что обосновать?
Аноним 17/08/16 Срд 11:56:49  821584
>>821583
За базар.
Аноним 17/08/16 Срд 12:00:47  821587
>>821584
Обосновывал уже. Вероятность сводится к множествам, бейс - к нечеткому бейсу. http://sipi.usc.edu/~kosko/Fuzziness_Vs_Probability.pdf Местные школьники ответили "ко-ко-коско" (см. оп-пик 2). Причем, все это на фоне кукареканий, что а бейс-то оказывается годнота и даже будующее ML (см. выше). Наркоманы.
Аноним 17/08/16 Срд 12:04:22  821590
>>821573
Нечеткое множество неопределенности измеряет совершенно различное количество, чем вероятности и ее меры неопределенности, как функция Хартли (для неспецифичностью) или энтропией Шеннона. Нечеткость и неопределенность вероятностная не влияют друг на друга вообще. Есть целый ряд мер нечеткости доступных, которые количественно оценить неопределенность в границах измерения (это по касательной к неопределенности измерений, обычно обсуждаемых на CrossValidated, но не идентичны). "Пушок" добавляется в основном в тех случаях, когда было бы полезно рассматривать порядковое переменную как непрерывным, ни один из которых имеет много общего с вероятностями.
Аноним 17/08/16 Срд 12:48:23  821622
>>821590
Ебал её рука с форчана, мы знаем.
Аноним 17/08/16 Срд 15:50:22  821750
http://www.nvidia.com/object/deep-learning-system.html
Аноним 17/08/16 Срд 16:13:42  821767
14714396228120.png (6Кб, 885x108)
>>821750
Всего-то 129к далларов))) Зато глубокие нейроночки будут сходиться по 1 месяцу, а не по 3 года.
Аноним 17/08/16 Срд 16:33:39  821776
>>821767
https://www.youtube.com/watch?v=bYkl3XlEneA
Аноним 17/08/16 Срд 18:30:40  821885
Слыште, вы, уебки, почему в шапке нет БОЖЕСТВЕННОГО https://www.coursera.org/learn/machine-learning?
Аноним 17/08/16 Срд 18:53:51  821893
>>821885
Потому что в книгах в шапке это всё изложено гораздо пизже. А этот курс годится разве что помощникам слесарей.
Аноним 17/08/16 Срд 21:20:26  821982
>>821893
Хорошо, тогда какую бы ты книгу посоветовал тому, кто не знает логической регрессии, градиентного спуска и т.д., а знает только как программировать?
Какую бы я книгу не открывал, обычно там сразу в лоб, без объяснений, рассказывают о нейросетях и предполагается, что тот кто читает знает что такое логическая регрессия, overfitting, underfitting. Я когда читал эти книги, я просто ничего не понимал. А в этом курсе мне все разжевали, а я просто доел. Очень он хорош для того, чтобы вкатится в ml. После него стало намного понятнее, что в этих книгах происходит.
Аноним 17/08/16 Срд 21:30:14  821985
http://rgho.st/8g68fTCSx
Добавьте в шапку две брошюры по deep learning для слесарей.
Аноним 17/08/16 Срд 21:32:59  821988
>>821982
Introduction to Statistical Learning, An Elementary Introduction to Statistical Learning Theory
Аноним 17/08/16 Срд 21:55:13  822006
>>821982
бишоп и маккай - лучшие вводные тексты без особых требований к читателю
грамотно разжёваны все важные темы, типа вариационных методов и гауссовских процессов, параллельно уринируя на классико-и-нечётко-питушков
от всего тредика рекомендуем эти книги, не даром же они в самом верху шапки!
Аноним 17/08/16 Срд 21:57:43  822008
>>821985
>>821988
>>822006
Спасибо, мужики, от души. Долго искал книги для чайников, нашел только тот курс. Ну, теперь буду обучаться. Храни вас Бог.
Аноним 17/08/16 Срд 21:57:59  822009
14714602793090.jpg (32Кб, 711x560)
кому мы сегодня пощекотали очко?
А. нейро-школоте
В. классико-даунам
С. нечётко-питушку
D. R-макаке
Аноним 17/08/16 Срд 21:59:02  822010
>>822006
>>822009
Поясните уже за все локальные мемесы, заебали своими петушками.
Аноним 17/08/16 Срд 22:00:45  822014
>>822009
Бля, месяц был в деревне. Что за классико-дануы? Пидоры с точечными оценками? Частотнобляди?
Аноним 17/08/16 Срд 22:06:49  822022
>>822010
нейро-школота - очевидные пидоры, прикатившиеся сюда из-за хайпа с глубинкой, которые хотят объяснения нейроночек на пальцах. Один такой охуел сюда с вопросом: "Нероночка - это что просто массив?"

нечётко-питушок здесь унижается с самых первых тредов, кукарекает что-то про оптимальность, коско и нечёткого Байеса, не показывая сколько-нибудь охуительных результатов в ML на основе нечёткой логики. Копипастит свои посты из треда в тред, на что часто в ответ получает пасту от Байесионистов про маргинализацию постериоров с минимизацией KL-дивергенции.

R-макака возникла здесь хуй пойми каким боком, вещая про стандарты ЯП в дата сцайнсе. Посылаем фанатиками пиздонистами. Но мы то в /зк знаем, что все эти споры про молотки для долбоёбов, школьников и троллей.

А вот про классико-даунов чот сам всё пропустил.
Аноним 17/08/16 Срд 22:17:07  822031
>>822022
ещё намечается зависимые-типы-гребешок, с формальными нейроночками на идрисе или что у них там
Аноним 17/08/16 Срд 22:19:32  822034
>>822031
и с тренировкой во время компиляции ох лол
Аноним 17/08/16 Срд 22:31:27  822036
>>822009
>>822022
Шагоход ещё куда-то исчез. Чем там всё закончилось? Напомните, датаны.
Аноним 18/08/16 Чтв 07:35:12  822179
>>822022
>Один такой охуел сюда с вопросом: "Нероночка - это что просто массив?"
Лол, ньюфаг.
Аноним 18/08/16 Чтв 07:40:34  822180
>>822008
ml-class.org в разы лучше этих книг. Просто тред сам по себе захвачен слесарями, которые пытаются сделать вид, что они не слесари. Отсюда и комплексы.
Аноним 18/08/16 Чтв 12:37:29  822327
14715130497570.jpg (60Кб, 420x433)
>>822180
> ml-class.org
> Linear Algebra Review
> Linear Regression with One Variable
> Octave/Matlab Tutorial
> курс не для слесарей
твой вскукарек заслуживает ехидной ухмылки жёлтого блинчика))
Аноним 18/08/16 Чтв 12:49:55  822336
>>817451 (OP)
> нейроночка — массив
Ну нихуя себе поскроллил /pr/.
Аноним 18/08/16 Чтв 12:50:42  822337
>>821767
>in select countries
Угадай, входит ли сраная в их число.
Аноним 18/08/16 Чтв 14:02:53  822374
>>822034
На крестах сейчас можно на constexpr все зделоть, даже не напрягаясь с шаблонами. Просто пишешь обычный код, помечая все constexpr'ами, и засовываешь тренировочные данные в код опять же constexpr'ом, и натренируется при компиляции без проблем.
Аноним 18/08/16 Чтв 14:08:29  822381
>>822374
> срать, не снимая свитер

А как выборку в compile-time загрузить?
Аноним 18/08/16 Чтв 14:11:08  822384
14715186689510.gif (1313Кб, 350x197)
>>822327
Разве не нужно разбираться как оно вообще внутри работает, чтобы понимать как лучше делать? Или это не про МЛ?
мимокрок
Аноним 18/08/16 Чтв 14:17:42  822394
14715190629010.png (678Кб, 1032x724)
>>822384
нахуя?
from theano import *
a ботаны пускай дрючат свои формулки))
Аноним 18/08/16 Чтв 14:20:40  822396
>>822394
жизаа))
Аноним 18/08/16 Чтв 14:22:01  822398
>>822381
Никак, грю же в код вбивать надо:
constexpr double input[][] = {и поехали};
Аноним 18/08/16 Чтв 14:42:25  822415
>>822327
Не пытайся делать вид, что ты не слесарь. Новых методов ты не разрабатываешь (да и нахуй они не нужны сейчас). Поэтому разница между книжкой и ml-class в одном, ml-class помогает быстро ухватить суть и далее читать документацию по конкретным методам. А книжки твои... это уровня типичного "повторения документации", когда автор хуевой книжки по языку программирования тупо перечисляет методы. Налита куча воды, а толку - ноль.
Аноним 18/08/16 Чтв 14:42:59  822417
На реддите рекомендовали курс Нанды https://www.cs.ox.ac.uk/people/nando.defreitas/machinelearning/
Чо скажите?
Аноним 18/08/16 Чтв 14:45:29  822420
>>822417
Lecture 7: Logistic regression
Lecture 12: Recurrent neural networks and LSTMs

Галопом по европам.
Аноним 18/08/16 Чтв 14:47:01  822421
>>822420
Чо тебе еще между ними надо вставить?
Аноним 18/08/16 Чтв 14:47:30  822422
>>822415
о какой ты книжке щас говоришь?
Аноним 18/08/16 Чтв 14:49:44  822423
>>822415
Ага, а потом ебись с bias-variance tradeoff с этим мизерным количеством знаний. Model selection в mlclass вообще не затрагивается, Байесовской бритвы Оккама нет, вариационных методов нет.
Как уже было сказано, этот курс позволяет только вкатиться, дальше нужно дрочить что-нибудь помощнее.
Я не говорю, что после этого ты будешь круче слесаря, но хотя бы разряд поднимешь.
Аноним 18/08/16 Чтв 15:02:08  822437
>>822423
>Model selection в mlclass вообще не затрагивается
ну про биас/варианс, клюшку и кроссвалидацию рассказали и то хлебушек
Аноним 18/08/16 Чтв 15:04:12  822439
>>822423
Потому что, внезапно, это курс по machine learning, а не по нахуй никому не нужному statistical learning. Statistical learning умирает и туда ему и дорога, ML как новая дисциплина учит другому и по-другому. Вся суть-то в том, что тред захватили статистические слесари с R головного мозга.
Аноним 18/08/16 Чтв 15:08:35  822443
>>822439
в чём разница между
> machine learning
> Statistical learning
Аноним 18/08/16 Чтв 15:10:09  822447
>>822443
Statistical learning -- наука, статистика, функан.
Machine learning -- компьютерные обезьяны.
Аноним 18/08/16 Чтв 15:14:58  822450
>>822439
> умирает
Просто посмотри на количество публикаций по Stat.ML

> нахуй никому не нужному
> CD-k в RBM
> Variational Autoencoders
> Variational IMRL
> DBM
> вероятностное программирование
> Гауссовские процессы в управлении и обучении с подкреплением
Ага, нахуй не нужно. Статистика в ML жила и будет жить.

> R головного мозга
Да, на пиздоне/любой-другой-ЯП этого же не написать.

> ML как новая дисциплина учит другому и по-другому
Расскажи нам
Аноним 18/08/16 Чтв 15:17:50  822451
>>822439
Никто тред не захватил, это официальный тред нейроночек, а над устаревшими петухами тут только потешаются, как над старыми клоунами.
Аноним 18/08/16 Чтв 15:23:13  822454
я всё не пойму
ML можно как-то делать без статистики?
как?
Аноним 18/08/16 Чтв 15:25:27  822455
14715231276180.jpg (67Кб, 727x612)
>>822454
> from sklearn import svm
Аноним 18/08/16 Чтв 16:01:31  822477
>>822455
Одна из худших вот ай ду картинок, что я видел.
Аноним 18/08/16 Чтв 16:03:42  822478
14715254229650.png (678Кб, 1032x724)
14715254229801.jpg (41Кб, 600x399)
>>822477
Аноним 18/08/16 Чтв 16:04:02  822479
>>822455
Хотя, не, нормальная. Посмотрев ещё пару итераций, нашёл в ней структуру.
Аноним 18/08/16 Чтв 16:06:44  822481
>>822443
Ты бы хоть загуглил. Вот, например, рассуждают https://brenocon.com/blog/2008/12/statistics-vs-machine-learning-fight/
На курсере есть 2 курса, ml-class от Энрю Ына, основанный на CS229 и конкурирующий от статистика Тревора Хасти. Можешь сравнить подходы. И какой подход лучше УЖЕ очевидно - это именно ML-коммьюнити всю движуху делает, а статистики копашатся в том говне, которое и пять лет назад тем же говном было, и десять, зато пафосу при этом куча - хули, они же фундаментальные, а ML - это обезьяны. Особенно смешна попытка представить, будто в ml-class нет теории (все эти аутичные шуточки про import svm), хотя она там есть.

ML по сути смежная дисциплина на стыке наук, которая взяла что-то из статистики, но оверхайпить при этом статистику не нужно, вся это байесовщина тебе ничего не даст.

И главное как бы похуй, может халялные фундаменталисты статистики и окай, но нахуя подсовывать эту парашу в оппосте и делать вид, что это и есть machine learning? Типа Machine Learning: A Probabilistic Perspective, Introduction to Statistical Learning, Elements of Statistical Learning? Отдельный мусор - Нечёткое моделирование и управление. При этом нет ни ml-class (даже в виде CS229), ни книг deep learning. Ибо нехуй, деды страдали, и ты страдай.
Аноним 18/08/16 Чтв 16:08:58  822484
>>822481
> книг по deep learning
Предобучение -> статистический подход в автоэнкодерах и RBM.
inb4: pretraining is dead
Аноним 18/08/16 Чтв 16:14:12  822490
>>822481
В посте все верно расписано. Statisticians -- ученые, ориентированные на научную работу и публикации. ML -- обезьяны с модными баззвордами и конференциями.
Аноним 18/08/16 Чтв 16:16:05  822493
>>822490
Окей, теперь посмотри на название треда, и съеби в свой. Упс, в него же никто заходить не будет, ведь это обезьяны state of art на ILSVRC делают.
Аноним 18/08/16 Чтв 16:17:59  822497
>>822493
Тренд для стремящихся ML-обезьян, которые хотят стать хоть немного человекоподобными.
Аноним 18/08/16 Чтв 16:19:50  822499
терминология-срачи это всегда увлекательно
вспомнился дебил с backpropagation vs gradient descent
Аноним 18/08/16 Чтв 16:20:32  822500
>>822484
Статистические методы - это как асм в 90-е годы. Когда вроде бы еще и остались места, где он нужен, но понятно, что это не надолго, и далее ниши будут совсем узкими. Но пафосу при этом от красноглазых васянов, умеющих в masm32 и сегментированную память столько, что все вокруг, кто пользуется высокоуровневыми языками - обезьяны.
Так и здесь. Никаких прорывов в state-of-art статистики не делают, в тырпрайзе же вообще ML слесарная работа по подбору лучшего алгоритма и этот слесаризм может быть автоматизирован целиком, но нет, деды пердолили LDA, QDA и прочую хуйню, и ты пердоль. А то как же.
Аноним 18/08/16 Чтв 16:29:44  822517
>>822499
Это не терминология-срач, это подход-срач. Кому-то не понравился божественный ml-class и вместо него советуется какашка в виде Introduction to Statistical Learning из оппика. В которой на 265-й странице (после охуенно нужного QDA например) пишется следующее:

>Polynomial regression extends the linear model by adding extra pre- dictors, obtained by raising each of the original predictors to a power. For example, a cubic regression uses three variables, X, X 2 , and X 3 , as predictors.

Это когда Ын дает это второй неделе (http://www.holehouse.org/mlclass/04_Linear_Regression_with_multiple_variables.html). Большая разница, однако.
Аноним 18/08/16 Чтв 16:38:26  822530
>>822517
так разница только в порядке подачи материала?
Аноним 18/08/16 Чтв 16:49:13  822540
>>822530
Не только, но и в акцентах. Разные дисциплины по сути.
Аноним 18/08/16 Чтв 17:03:46  822557
>>822500
Однако знание низкоуровневых основ порой помогает программерам писать более качественный код. Здесь то же самое.
Аноним 18/08/16 Чтв 17:15:48  822567
>>822557
Сейчас низкоуровневые основы - это плоская модель памяти (+кэши), сишка, интринсики. А не особенности синтаксиса masm и реальный режим процессора. Вот Ын он дает тот низкий уровень, который нужен в ML. Градиенты, нормальные уравнения, SVM там, хуе-мое. А не гауссовские процессы, от которых бежать надо, как от чумы.
Поехавшее утверждение #1: >>820550 Здесь как бы видно сразу, что оно поехавшее, чел замахнулся ни много ни мало, на state of art, причем беспруфно. Но далее раз >>822006 и два >>822008
Т.е. тот есть то же утверждение кормит ньюфага говном. Что гауссовские процессы-то, важная тема, оказывается. Хотя это типичный статистикодроч. Который да, используется в ML, но по важности он где-то на уровне дна.
Аноним 18/08/16 Чтв 18:42:01  822641
>>822567
> А не гауссовские процессы, от которых бежать надо, как от чумы.
Чому это?
Аноним 18/08/16 Чтв 18:49:55  822647
>>822641
Читать придется, а эта сложна нипонятно тупо
Аноним 19/08/16 Птн 02:47:26  822905
>>822567
> Градиенты, нормальные уравнения
лол, это же школьная примитивщина, при чём тут мл-чик?

> вскукарек на божественные гауссовские процессы
обоснуй
гауссовские процессы в каком-то там пределе эквивалентны нейроночкам, при этом обладая замкнутой формулой для тренировки
и заслуживают не меньшего дроча

> прочее кококо
лень кормить такую толстоту
Аноним 19/08/16 Птн 06:53:35  822929
>>822905
>гауссовские процессы в каком-то там пределе эквивалентны нейроночкам
Типичный вкукарек а-ля фуззипетух. Все в каком-то пределе эквивалентно, но нас-то интересует, как решать задачи, а не ковыряться в в говне ради ковыряния в говне. В говне пусть статистики типа тебя ковыряются.
Аноним 19/08/16 Птн 14:19:44  823101
>>822929
>но нас-то интересует, как решать задачи
Типичные быдло-вскукареки.
"У нас тут мозолистые руки от укладки шпал, а вы там со своими когомологиями де Рама возитесь, мрази!!"
Аноним 19/08/16 Птн 14:27:08  823110
https://www.coursera.org/learn/probabilistic-graphical-models
Аноним 19/08/16 Птн 14:35:01  823117
>>823110
Дафна пиздата, но прошлый курс как-то мне не очень вкатил.
Аноним 19/08/16 Птн 14:40:14  823121
>>823117
мало задачек/теории?
думаю попробовать пройти
Аноним 19/08/16 Птн 14:44:55  823125
>>823121
Курс показался очень поверхностным. Сейчас попытаюсь посмотреть ещё раз.
Вообще, почти всё необходимое по теории графических моделей есть в "монстре":
https://people.eecs.berkeley.edu/~wainwrig/Papers/WaiJor08_FTML.pdf

Для прохождения курса и адекватного его понимания неплохо было бы понимать основы Байесовского вывода и Байесовскую теорию принятия решений.
Аноним 19/08/16 Птн 15:10:08  823138
Кстати, есть кто-нибудь разбирается в графических моделях. Есть какой-нибудь прок от junction tree algorithm вообще? Или лучше сразу ебашить variational message passing или expectation propagation?
Аноним 19/08/16 Птн 15:14:13  823145
>>823138
В своих статьях Минка говорит, что EP работает примерно так же хорошо, как и точный вывод, но быстрее.
Аноним 19/08/16 Птн 20:32:38  823391
Пацаны, что посоветуете почитать по нейросетям? Чтоб было побольше практики.
Аноним 19/08/16 Птн 20:35:17  823392
>>823391
Практики а ля from keras import *?
Аноним 19/08/16 Птн 20:37:24  823394
>>823392
Ну, чтобы кода было побольше. Хочу вникнуть в саму суть нейросетей.
Аноним 19/08/16 Птн 21:22:08  823422
>>823394
сначала нужно разобраться с линейной и логистической регрессиями
ну и гауссовские процессы не помешают
всё это есть в бишопе/маккае
Аноним 19/08/16 Птн 21:24:21  823426
>>823422
Линейную и логистическую регрессию я уже кое как знаю. А зачем гауссовские процессы?
Аноним 19/08/16 Птн 23:35:41  823515
>>822394
>*
Предлагаю заменить на "всю хуйню"
Аноним 19/08/16 Птн 23:41:25  823517
>>823101
Я уважаю математиков. Они тусят в /sci/ в своем треде и обсуждают действительно что-то возвышенное и неведомое (кто из них картофан, например). А вас я не уважаю, потому что вы балаболы, которые человеку, который задал вопрос про нейросети, впаривают гауссовские процессы, а свой тред назвали почему-то machine learning, чтобы впаривать свое говно другим. Вы как ебаные MLM-щики.
Аноним 20/08/16 Суб 02:57:42  823638
http://www.gaussianprocess.org/gpml/chapters/RW.pdf
Аноним 20/08/16 Суб 03:00:13  823639
>>823426
ну тогда начинай читать бишопа или маккая
у них наиболее толковые введения из встречающихся
у бишопа алсо есть целая книженька о нейроночках "Neural networks for pattern recognition" написанная до начала хайпа dl
Аноним 20/08/16 Суб 05:58:18  823658
http://colah.github.io/posts/2014-03-NN-Manifolds-Topology/
Интересно.
>The manifold hypothesis is that natural data forms lower-dimensional manifolds in its embedding space. There are both theoretical and experimental reasons to believe this to be true. If you believe this, then the task of a classification algorithm is fundamentally to separate a bunch of tangled manifolds.
Аноним 20/08/16 Суб 08:07:03  823688
>>823517
А что ты посоветуешь по нейросетям тогда?
Аноним 20/08/16 Суб 10:10:32  823706
>>823688
cs231n, http://www.iro.umontreal.ca/~bengioy/dlbook/, http://deeplearning.stanford.edu/tutorial/ , блог colah.github.io , http://karpathy.github.io/2015/05/21/rnn-effectiveness/
Аноним 20/08/16 Суб 14:14:27  823846
Delphi+CUDA=pascuda?
Аноним 20/08/16 Суб 14:28:28  823854
>>823846
Это нонсенс.
Аноним 20/08/16 Суб 14:35:50  823863
С кудой лучше всего обучать батчами. Когда я пробнул обучение батчем, у меня получилось так, что сетка приспособилась к нагенеринным данным(перед этим я обучал не батчем), но новые данные стала распознавать еще хуже.
Аноним 20/08/16 Суб 15:08:06  823882
>>823706
Спасибо.
Аноним 20/08/16 Суб 19:43:18  824051
Так, пацаны, я вкатываюсь кароч, берегитесь.
Аноним 20/08/16 Суб 22:11:54  824194
14717203149920.jpg (43Кб, 595x354)
>>824051
ну как? ещё не выкатился?
Аноним 21/08/16 Вск 01:06:20  824328
>>823706
этот анон шарит. он читает colah.
Аноним 21/08/16 Вск 01:08:36  824331
>>823863
> лучше всего обучать батчами
> ухудшилась производительность на тестовом сете
Аноним 21/08/16 Вск 01:18:14  824338
В предыдущих тренделях было крайне дохуя шикарных паст и мемсов.
Давайте соберём их в одном месте?
Аноним 21/08/16 Вск 01:21:06  824340
>>824338
Хуйня же протухшая.
Аноним 21/08/16 Вск 03:13:14  824388
Гауссовские модели процессов, как они применяются в области машинного обучения являются привлекательным способом сделать непараметрического байесовского моделирование в поднадзорной задачи обучения, и поэтому их сравнения с нейронными сетями (которые, как правило, параметрический, и оптимизированы для получения точечной оценки) является немного несправедливое сравнение. Они также могут быть привлекательным способом добавления дополнительной информации в виде до более функций многих параметров (см Adams, Dahl & Мюррей, от UAI 2010). Их недостаток заключается в том, что они масштабироваться довольно слабо (логический вывод, а точнее, это O (N ^ 3) дело, хотя есть некоторые хитрости, которые были предложены), в то время как нейронные сети, как параметрических моделей, которые могут быть обучены онлайн с помощью стохастического градиентного спуска , имеют почти наиболее благоприятные свойства масштабирования мыслимые.

Нейронные сети также могут быть сделаны непараметрический, принимая число скрытых блоков до бесконечности, и в этом случае оказывается, что такие "бесконечный скрытый слой" нейронные сети эквивалентно гауссовских процессов с определенной ковариационной ядром. См 1994 кандидатскую диссертацию Рэдфорд Нила, Байесовское обучение нейронных сетей.
Аноним 21/08/16 Вск 03:15:05  824390
>>824388
квору все умеют читать
Аноним 21/08/16 Вск 03:17:54  824391
14717386744250.png (8Кб, 147x605)
>>824390
> 01:13:14
> 01:15:05
а ты быстрый
Аноним 21/08/16 Вск 15:55:40  824574
Есть одна плоскость на которой дохуя точек. Точки имеют цвет. Задача узнать есть ли где-нибудь на плоскости скопление точек одного цвета. Есть обучающие выборки. Что почитать чтобы такое сделать? Мне не нужен весь ml мне нужна только одна программа
Аноним 21/08/16 Вск 16:08:41  824580
>>824574
http://scikit-learn.org/stable/auto_examples/neighbors/plot_classification.html
Аноним 21/08/16 Вск 16:14:18  824582
>>824580
А если мне не известно минимальное расстояние до k-ого соседа чтобы назвать группу точек скоплением и не известно k? Как получить эти данные из обучающих выборок?
Аноним 21/08/16 Вск 16:27:27  824587
>>824582
А что в выборках?
Аноним 21/08/16 Вск 16:43:26  824595
>>824574
>>824582
бейсовская вариационная комбинация гауссовых распределений (bishop, PRML 10.2 глава)
k выводится прямо из данных
минимальное расстояние выводится прямо из данных
Аноним 21/08/16 Вск 16:47:30  824597
>>824587
То же что и в тестовых, но только есть координаты и радиус скоплений которые вручную обозначил.
Аноним 21/08/16 Вск 18:31:07  824655
>>824595
Если вы все еще задаетесь вопросом, почему нам нужна эта вещь, то вот маленький бонус: байесовский регрессионный иммунитет к переквалифицироваться (переобучения). И я не имею в виду только "стабильный" или "надежный" как регресса с регуляризацией - в определенной степени это, как правило, иммунитет к нему.

Что переобучения, опять? Именно тогда, когда мы "слишком настроить" модели имеющимся данным (например, выбрать кривую, которая идеально проходит через точку набора данных, но будет показывать плохие прогнозы на новых данных). В переводе на философский язык в последнем разделе, это означает, что, когда мы искали «правых» набор опций, мы нашли некоторые неправильно, неправильно. Это невозможно сделать с байесовского подхода, потому что просто нет понятия «права» набор параметров! Странно, черный и желтый конус на картинке выше говорит нам: "Да, скорее всего, следующие пункты будут находиться где-то в середине вдоль белых линий, но может оказаться на краю, а сверху и снизу, без проблем. " Степень полинома может быть увеличена столько, сколько нужно: с это увеличит число возможных кривых, и каждый из них по отдельности уменьшит вероятность.
Аноним 21/08/16 Вск 21:01:07  824706
>>824655
Вы можете смеяться все, что вы хотите, но я в принципе знаю двух принципов для лечения сложных систем в простых способов: первый принцип модульности, а второй является принцип абстракции. Я апологетом вычислительной вероятности в машинном обучении, потому что я считаю, что байесовский теория вероятностей реализует эти два принципа в глубоких и интригующих способов, а именно - через факторизации и через усреднение. Эксплуатируя эти два механизма настолько полно, насколько это возможно, мне кажется, что путь вперед в машинном обучении.
Аноним 22/08/16 Пнд 23:43:37  825432
>>824597
Ну, это тогда простая задача классификации, если у тебя есть набор точек размеченных по кластерам. Бери опорные вектора и вперед. http://scikit-learn.org/stable/auto_examples/svm/plot_iris.html#example-svm-plot-iris-py
Аноним 23/08/16 Втр 14:35:02  825688
14719521026050.jpg (130Кб, 832x690)
Помогите нейрошколоте великовозрастной с выбором курса ( на книжицы нет времени). Есть два варианта:

https://www.edx.org/course/applied-machine-learning-microsoft-dat203-3x#!
https://ru.coursera.org/specializations/machine-learning
Аноним 23/08/16 Втр 15:08:27  825712
>>825688
>https://ru.coursera.org/specializations/machine-learning
Я второе дропнул. После божественного ЫНа выглядит убого, растянуто и бесполезно
Аноним 23/08/16 Втр 15:15:35  825716
https://arxiv.org/pdf/1511.09230v1.pdf
Аноним 23/08/16 Втр 15:56:49  825748
>>825712
>божественного ЫНа
Что это? В шапке треда не нашел.
Аноним 23/08/16 Втр 16:24:35  825776
>>825748
ml-class.org
Аноним 23/08/16 Втр 17:08:32  825830
>>825712
поддерживаю
Аноним 23/08/16 Втр 18:04:30  825870
Хера се сколько текста под куда на один конволюшионал слой и это мы еще не дошли до обучения.

http://igm.univ-mlv.fr/~biri/Enseignement/MII2/Donnees/convolutionSeparable.pdf
Аноним 23/08/16 Втр 18:37:54  825907
>>825870
Это не про слои же, а просто про эффективную реализацию свертки под куду.
Аноним 23/08/16 Втр 20:12:16  825979
Почему на kaggle сбрасываются результаты соревнования digit recognition? Я хочу заходить к себе в профиль и видеть там, что у меня 98% распознано. Чому все так?
Аноним 23/08/16 Втр 20:16:28  825985
>>825979
как то связано с тем что соревнование тренировочное
где-то читал, уже не помню
Аноним 23/08/16 Втр 23:02:14  826079
>>825907
Ну да, а со слоями там хер пойми вообще что.


Какой пиздец.
ATL is not available in Express version of Visual Studio. CImage class
Аноним 23/08/16 Втр 23:32:38  826089
>>826079
> ATL is not available in Express version of Visual Studio. CImage class

Слоупочное мелкомягкое говно, лучше бери OpenCV или dlib. Хотя тоже сорта говна.
и чем вы тут занимаетесь блять Аноним 23/08/16 Втр 23:55:22  826102
в шапке треда нихуя не написано, поэтому спрошу тут. Хули в делаете ребята? зачем это все? Я нихуя не шарю в матане. Сегодня я узнал, что такое тензор. Ну как, посмотрел видосик на 13 минут и понял что это типа вектор, только не первого ранга, а разных...
В общем я тоже хочу вкатиться, тема видимо интересная.
Скажите с чего начать? Я могу писать на это вашем пистоне например бэкэнд. Сделал штук 15 задачек на projectEuler или как его там блять.

Скажите что это, с чего начать, откуда читать и тд. спасибо.
Аноним 23/08/16 Втр 23:56:54  826104
ах ну еще зашел на www.kaggle.com и тоже нихуя не понял.
Аноним 23/08/16 Втр 23:56:56  826105
>>826102
Сначала >>825776

Потом книжки из шапки
Аноним 24/08/16 Срд 16:55:42  826495
Пацаны, что думаете о "Л. П. Коэльо, В. Ричард - Построение систем машинного обучения на языке Python"?
Аноним 24/08/16 Срд 17:15:18  826508
>>826495
Платиновый вопрос. Хуйня.
Аноним 24/08/16 Срд 17:22:21  826514
>>826508
Обоснуй?
Аноним 24/08/16 Срд 17:33:00  826531
>>826514
Держи цитату из книги за щеку:
"Математические идеи, лежащие в основе метода латентного размещения Дирнхле, довольно сложны, и мы не будем вдаваться в детали. Интересующиеся читатели с авантюрным складом ума най­дут все относящиеся к делу уравнения в википедии по адресу en.wikipedia.org/wiki/Latent_Dirichlet_allocation ."

> мат. идеи - детали
> не будем вдаваться в детали
> детали для авантюристов
> ссылка на википедию

Хочешь лёгкого введения? Пиздуй к Ыну.
Аноним 24/08/16 Срд 17:49:16  826554
>>826531
это не аргумент
-> >>826514
Аноним 24/08/16 Срд 17:51:24  826557
14720502847610.png (445Кб, 760x695)
14720502847701.png (391Кб, 756x710)
14720502847792.jpg (108Кб, 728x546)
>>826495
Хуйня, причем из-под коня. Обыкновенная документация к пистоновскому пакету для ML, сцикит или как там его, ну плюс некоторые бесполезные комментарии. Мне другое интересно, почему пикрелейтед шлюха - какой-то стандарт в области обработки изображений? Встречал эту фотку в самых разных книгах.
Аноним 24/08/16 Срд 17:55:00  826558
>>826557
Просто прижившаяся шлюха из плейбоя. Пацанам нравится её Фурье спектр и всё.
Аноним 24/08/16 Срд 18:03:28  826563
>>826558
Я бы сделал свёртку в её вейвлет-преобразование.
Аноним 24/08/16 Срд 18:04:55  826564
>>826557
Побольше уважения к Ленке.
Аноним 24/08/16 Срд 18:06:12  826566
>>826564
Ленка коленка
Аноним 24/08/16 Срд 23:30:07  826771
>>823706
>karpathy
TRIGGERED
Аноним 24/08/16 Срд 23:36:20  826777
>>821452
Ауф видер зиен!
Аноним 25/08/16 Чтв 23:58:15  827394
>>820595
Отсыпь своего терпения, анон.
Аноним 26/08/16 Птн 17:53:43  827935
14722232234510.jpg (24Кб, 329x400)
Истинно вам говорю, школьники, будущее ML - это нейроночки и не только на языках с зависимыми типами. Можете скринить. Абсолютно корректные алгоритмы, соответствующие спецификациям - это то, что откроет нейроночкам путь в серьезный продакшен и промышленные решения. Вот пример многослойного перцептрона на хачкелле - https://www-lisic.univ-littoral.fr/~dehos/nn42h/index.html https://themonadreader.files.wordpress.com/2013/03/issue214.pdf http://colah.github.io/posts/2015-09-NN-Types-FP/
Вот эту книжку http://haskelldata.com/ http://gen.lib.rus.ec/book/index.php?md5=37E36A4652A2355552FFFC7180D6E81B в шапку треда добавьте.
Аноним 26/08/16 Птн 17:59:25  827938
Вот еще на окамле нейроночка https://github.com/ihodes/brainy-caml 162 строки, прошу заметить.
Аноним 26/08/16 Птн 18:04:28  827943
И лекция про имплементацию нейроночки на окамле же.
https://www.youtube.com/watch?v=HanQoB-dXBM
Аноним 26/08/16 Птн 18:09:03  827947
Хипстеры уходите. Пока ваше говно не компилится в код для видеокарты оно вообще никому не нужно.
Аноним 26/08/16 Птн 18:12:19  827951
>>827947
Видеокарты и прочее наращивание системных требований до бесконечности - это путь в никуда. Маняалгоритм, которому для работы нужен кластер из сотен GPU - это хуйня без задач, а не алгоритм для повседневной работы.
Аноним 26/08/16 Птн 18:18:55  827956
>>827943
Да хоть на губной гармошке. Лучше бы под ЖПУ учили как делать, не все хотят юзать питон с готовыми решениями.
Аноним 26/08/16 Птн 18:22:50  827959
>>827956
А пистон и не нужен. Будущее языков программирования - это зависимые типы. Говнокод на говноязыках, работающий не как нужно, а как получится, программное обеспечение, в котором глюк на глюке едет и глюком погоняет, все это так или иначе отомрет за ненадобностью.
Аноним 26/08/16 Птн 18:25:07  827963
>>827956
>>827947
двачну

пользуясь случаем:
посоветуйте библиотеку алгебры под видюху
хочу чтоб все операции с матрицами выполнялись на видюхе, при этом без куда-ёбли в моём коде
Аноним 26/08/16 Птн 18:29:03  827965
>>827935
Среди шведов тоже говноглазые встречаются?
Не знал...
Аноним 26/08/16 Птн 18:32:26  827969
14722255466890.png (9Кб, 333x293)
>>827965
>рабби Лёф
>швед
Ой-вей. Шведы у заезжих нигр kuk сосут, губой трясут, и детей своих к этому же с детства готовят. В то время как Люди создают целые парадигмы в математике.
Аноним 26/08/16 Птн 18:45:51  827979
>>827969
> Шведы у заезжих нигр kuk сосут
Sverige ja!
Аноним 26/08/16 Птн 18:46:14  827980
>>827935
>с зависимыми типами
макс, ты?
Аноним 26/08/16 Птн 18:46:43  827981
>>827963
torch вроде могет
Аноним 26/08/16 Птн 19:02:33  827992
>>827980
Нит, ни я)) Сохатского отсюда выгнали ссаными тряпками, и тред его снесли, хотя он единственный серьезный программист в этом разделе, вряд ли тута еще кто-то осилит написать свой прувер (!) да еще на ерланге. Но факт остается фактом - единственный способ избежать ошибок в ПО - это изначально писать его на правильных языках, с возможностью проверки корректности, а не на бесполезных парашах. К ML все это особенно относится, т.к. там важна полная прозрачность происходящего, а не мутное шаманство, которое никто толком не может объяснить (типа "магического коэффициента" в многомерной проекции Сэммона).
Аноним 26/08/16 Птн 19:04:37  827993
>>827992
покажи свой гитхаб с правильным мл кодом
Аноним 26/08/16 Птн 19:11:11  827999
>>827993
Че сразу свой-то? Я говорю о том, что это перспективное направление, на эту тему пока почти ничего нет, я выше постил же примеры нейроночек на хаскелле в 42 строки и на окамле. Даже целую книгу принес про анализ данных на хаскелле. Правильный мл на ЯП с зависимыми типами - это дело будущего, хотя и обозримого.
Аноним 26/08/16 Птн 19:13:59  828004
>>827999
> после предложения обосновать своё кукареканье школьник жиденько обдристался
ок
Аноним 26/08/16 Птн 19:14:35  828005
>>827999
Блджад, вот за книгу спасибо. Обмолофился от содержания, надеюсь, что будет очень годно.
Аноним 26/08/16 Птн 19:17:54  828010
алсо
> зависимые типы
при чём тут вообще хаскел? и тем более мёртвое кемло-говно
Аноним 26/08/16 Птн 19:20:53  828013
>>828010
Их на нём тоже можно реализовать.
Аноним 26/08/16 Птн 19:22:35  828014
>>828013
ну покажи поцанам нейроночку на хачкеле с завтипами лол
Аноним 26/08/16 Птн 19:24:26  828015
>>828014
Вот это https://www-lisic.univ-littoral.fr/~dehos/nn42h/index.html я для чего выше давал?
Аноним 26/08/16 Птн 19:24:31  828016
>>817451 (OP)
>нужна математика?
>для начинающего ничего особого знать не нужно

Опять наёбываешь?
Аноним 26/08/16 Птн 19:25:23  828017
>>828015
там нет завтипов
Аноним 26/08/16 Птн 19:27:41  828018
14722288610640.png (8Кб, 848x80)
>>828017
А это не типы, зависящие от параметров?
Аноним 26/08/16 Птн 19:27:46  828020
>>828017
Я говорил, что их самих можно в хачкеле реализовать, а на счёт машинного обучения я не в курсах.

Is Haskell a dependently typed programming language? Many
would say no, as Haskell fundamentally does not allow expressions
to appear in types (a defining characteristic of dependently-typed
languages). However, the type system of the Glasgow Haskell
Compiler (GHC), Haskell’s primary implementation, supports two
essential features of dependently typed languages: flow-sensitive
typing through Generalized Algebraic Datatypes (GADTs) (Peyton Jones et al. 2006; Schrijvers et al. 2009), and rich typelevel computation through type classes (Jones 2000), type families (Chakravarty et al. 2005), datatype promotion and kind polymorphism (Yorgey et al. 2012). These two features allow clever
Haskellers to encode programs that are typically reputed to need
dependent types.
Аноним 26/08/16 Птн 19:28:01  828021
>>828015
И где тут зависимые типы, школьник?
Не позорь хаскеллистов
Аноним 26/08/16 Птн 19:29:51  828023
>>828018
неа, прост переименования
Аноним 26/08/16 Птн 19:31:32  828024
>>828023
Почему нет-то? Есть типы, зависящие от параметров. Получают входные значения и выдают выходные. Что еще надо?
Аноним 26/08/16 Птн 19:31:55  828026
>>828020
> на счёт машинного обучения я не в курсах
чего тогда раскукарекался в мл-треде?
Аноним 26/08/16 Птн 19:33:41  828030
>>828016
?
Аноним 26/08/16 Птн 19:36:24  828034
>>828024
Так толсто, что даже тонко.
Аноним 26/08/16 Птн 19:40:44  828039
14722296442650.png (5Кб, 200x121)
>>828034
Где толсто-то?
Аноним 26/08/16 Птн 19:54:58  828056
14722304991320.png (201Кб, 1209x828)
собираю свой первый комплюхтер для мачин лёрнинга
рейт
Аноним 26/08/16 Птн 19:56:37  828057
>>827963
>посоветуйте библиотеку алгебры под видюху
cuBLAS
Аноним 26/08/16 Птн 20:01:19  828066
>>828056
осторожно с материнкой и процем. Они должны поддерживать 16 PCI дорожек на полной скорости.
Вот мой конфиг для референса:
Name Price
Seagate Technology Desktop HDD - 3 To $106.40
Kingston Kingston Technology SSDNow KC300 - SSD 180 Go $108.00
Intel Core i7-5930K $622.00
Kingston HyperX FURY noir 16GB (2x8GB) DDR4 2400MHz CL15 $150.00
ASUS X99-A/USB 3.1 $271.50
Corsair RM1000 - 1000W $178.60
BitFenix NEOS $43.90
Аноним 26/08/16 Птн 20:04:06  828068
>>828066
> осторожно с материнкой и процем. Они должны поддерживать 16 PCI дорожек на полной скорости.
незнал, спасибо
надо больше узнать по этой теме перед покупкой
Аноним 26/08/16 Птн 20:43:26  828124
>>828068
и еще мне непонятно зачем тебе столько SSD. Обычно схема такая: память на гпу 24гб, туда ты загрузишь модели и батч, батч не превысит 200мб, соответственно тебе нужно будет загрузить в память максимум 100 батчей, что будет 20Гб, соответственно берем 32Гб оперативки. В оперативную память с ссд загружается все довольно медленно, плюс трудно представить себе обработанный датасет больше 200Гб. Даже необработанный ImageNet меньше. А потом ты фигачишь необработанные датасеты и просто всякие долго хранящиеся вещи с ХДД драйва.
Аноним 26/08/16 Птн 23:28:52  828357
14722433324210.png (6Кб, 362x608)
Есть два набора точек. Допустим, расположены они произвольно, хоть друг на друге, можно их деформировать и поворачивать, лишь бы результат был. Показал для наглядности рядом. Как для каждой точки в одном наборе найти пару для другого? Если просто начать парить самые близкие, то вскоре начнут соединяться уже очень далёкие точки. Хотя путём уступки можно было освободить пару для точки, которая отстояла бы чуть дальше, но суммарная дистанция двух получившихся пар была бы меньше. Нихуя не понятно объяснил, наверное. Нужно найти именно пары, а не оптимальную матрицу трансформации для одного из наборов точек.

Ваши шальные мысли.
Аноним 26/08/16 Птн 23:59:13  828374
14722451536740.gif (133Кб, 472x527)
>>828357
Приблизительная демка перехода наборов один в другой для спейренных и рандомных точек.
Аноним 27/08/16 Суб 00:04:47  828378
>>828124
вообще особого смысла ssd брать нет, возьму простой винт на пару тб
мощный процессор вроде тоже не особо нужен
насчёт 2 видеокарт не уверен

>>828357
я беру каждую точку из первого набора и сопоставляю её со случайной точкой из второго на видюхе
Аноним 27/08/16 Суб 01:23:43  828428
>>828357
Что такое пара?
Аноним 27/08/16 Суб 01:43:09  828440
14722513896500.gif (253Кб, 1246x530)
>>828428
Вот точки, которые спарены рандомно и так, как мне хочется. То есть чтобы суммарная длина была самой оптимальной (со штрафом для длинных, чтобы две полуметровые дистанции были лучше, чем нулевая и метровая).

Заметь, что редко, когда ближайшей синей соответствует ближайшая жёлтая. То есть пара была переуступлена более далёкой для всеобщего блага.
Аноним 27/08/16 Суб 01:45:21  828441
>>828440
А, и тут неоптимально найдены пары, лишь по большей части. Я руками это делал.
Аноним 27/08/16 Суб 08:36:15  828519
>>828378
>особого смысла ssd брать нет
есть, загрузка данных в память с диска для больших датасетов норма, каждая секунда при обучении будет превращаться в дни.

>мощный процессор вроде тоже не особо нужен
у меня знакомый из соседней лабы купил титан х паскаль и оставил свой старый ксенон. В итоге он использует видеокарту на 10-20 процентов. Для него это означает что код работает не день-два а неделю.
Аноним 27/08/16 Суб 10:19:17  828550
>>828357
>>828374
>>828440
Двунаправленные карты Кохонена - XYF или BDK. Первый набор на вход, второй на выход. https://www.jstatsoft.org/article/view/v021i05/v21i05.pdf
Аноним 27/08/16 Суб 12:32:51  828606
Бля, хотел вкатиться в машин лернинг, думал типа буду пиздатым, а тут написано что все машин лернингисты - слесари и компьютерные макаки. Хочу ученым быть епт и свои алгоритмы придумывать
Аноним 27/08/16 Суб 12:49:13  828613
Тут есть биоинформатики? Что из машинного обучения посоветуете выучить в обязательном порядке?
Аноним 27/08/16 Суб 12:49:20  828614
>>828606
>Хочу ученым быть епт и свои алгоритмы придумывать
Ну так придумывай. Я вот придумывал, только реализовать руки не доходят, долго и сложно жи.
Аноним 27/08/16 Суб 14:01:19  828645
>>828606
Получай магистра, потом доктора по мл\прик.мат.\кс или чему-то подобному, потом будешь алгоритмы придумывать.
Аноним 27/08/16 Суб 17:40:56  828837
14723088571370.webm (2526Кб, 480x360, 00:00:32)
https://www.udacity.com/course/intro-to-parallel-programming--cs344
cud-cud-cuda!
Аноним 27/08/16 Суб 17:47:29  828842
>>828519
ну ок
есть ли какие нибудь спец-требования по охлаждению?
Аноним 27/08/16 Суб 17:48:37  828845
>>828837
Эта шутка была здесь 2 года назад, как сейчас помню.
Аноним 27/08/16 Суб 20:21:00  828981
14723184605800.webm (690Кб, 640x640, 00:00:06)
>>828845
))
Аноним 27/08/16 Суб 20:24:31  828983
>>828981
конкретно с кудой и бегущими петухами
Аноним 27/08/16 Суб 20:52:10  829001
Спиздил ссылку с БД треда. Были нейроночки на хачкелле, камле, вот вам на сиквеле:
http://blog.itdxer.com/2016/07/01/neural-networs-in-mysql.html
Аноним 27/08/16 Суб 23:19:17  829083
>>828842
стандартные: если будет греться до выше чем 85, добавь в smi-settings config управление вентиляторами и выкрути их на 100 по умолчанию.
Аноним 28/08/16 Вск 14:44:00  829466
Объясните второй пик из оп поста пожалуйста.
Аноним 28/08/16 Вск 14:45:47  829467
>>828374
>>828440
Олтичные гифки, как делал?
Аноним 29/08/16 Пнд 10:44:58  830139
>>829001
Это норма, говорили ж что нейроночка = массив.
Аноним 29/08/16 Пнд 12:44:29  830239
>>828613
Нейроночки учи, датаслесарь.
Аноним 29/08/16 Пнд 12:46:28  830241
>>828606
Любая пхпмакака, считай, "придумывает алгоритмы". Подобно тому как слесарь "придумывает алгоритм" как добраться до поврежденной трубы, минимизировав контакт с говном.
Аноним 29/08/16 Пнд 14:00:03  830277
>>830241
Не пизди, нихуя они не придумывают, даже не пишут реализацию уже известных, просто импортируют библиотеки и все.
>>830239
И зачем они в биоинфе?
Аноним 29/08/16 Пнд 14:15:35  830289
>>830277
Ты тоже не в машинных кодах пишешь. Последовательность вызовов библиотечных функций тоже алгоритм.

Как зачем? Все теперь на нейроночках будеть, тебе разве не сообщили? Скоро нейроночки все протеины повычисляют, и мы тут бессмертными сидеть будем, до скончания веков. Просвещайся, лапоть: http://www.nature.com/nature/journal/v521/n7553/abs/nature14539.html
Аноним 29/08/16 Пнд 14:29:21  830308
>>830289
Ну причем тут машинные коды, ты же понимаешь о чем я. Новые алгоритмы, всякие блять нейросети, вот это все придумывать.

Там платно. И вообще, такое ощущение что весь дипленинг переоценен, вот квантовый компьютер изобретут, туда дипленинг впердолят вот заживем
Аноним 29/08/16 Пнд 15:05:43  830350
>>830308
Лови бесплатно: https://www.cs.toronto.edu/~hinton/absps/NatureDeepReview.pdf

Нейросети придумывать это в науку надо. Умей различать МЛ как научную область (там надо быть ПхД и публиковать статьи) и МЛ как слесарное дело (там надо import tensorflow as tf).
Аноним 29/08/16 Пнд 15:07:36  830354
>>830350
Пиздец ты дурик, он тебе про это и писал.
Аноним 29/08/16 Пнд 16:54:08  830464
>>830139
Нейроночка - таблица.
Аноним 29/08/16 Пнд 16:56:13  830465
>>830308
Тут по поводу квантов в вычислениях такая мысль есть:
https://youtu.be/T1Ogwa76yQo

tl;dr: кванты мертвы, мир детерминирован
Аноним 29/08/16 Пнд 22:53:38  830841
>>830241
Как вы заебали с своими охуительными сравнениями мл с слесарным делом и сантехникой. Так получается что врачебное дело сантехника. Да почти все. А что не слесарство тогда?
Аноним 29/08/16 Пнд 23:08:00  830852
>>830841
Всё слесарство, даже дрочка.
Аноним 30/08/16 Втр 00:59:57  830898
14725079975860.jpg (53Кб, 957x540)
>>827963
>>827981 >>828057
взял короче
http://arrayfire.org/docs/index.htm
https://github.com/JuliaComputing/ArrayFire.jl/
в целом охуенная вещь
куда-гемора вообще никакого, пользуешся как обычными матфункциями из библиотеки
жаль только свд и чолески на видюхе притормаживают

слесарь с видюхой
Аноним 30/08/16 Втр 03:57:49  830938
14725186691980.png (58Кб, 523x343)
Подскажите туториал, чтобы быстро вкатиться в сентимент-анализ. Хочу хотя бы простейший рабочий пример, чтобы было откуда двигаться.
Аноним 30/08/16 Втр 04:22:28  830941
>>830938
Уточню пожелание - примеры на простейший сентимент анализ текста целиком с разбиением на N-грамы у меня есть. Меня интересует извлечение из большой статьи троек [объект, субъект, отношение].
Аноним 30/08/16 Втр 05:06:49  830942
>>830938
>>830941
http://nlp.stanford.edu:8080/sentiment/rntnDemo.html
Аноним 30/08/16 Втр 05:18:56  830943
>>830942
Спасибо, держи исследование Sentiment Analysis in Financial News.
http://muonium.rgho.st/8fmkRsRcF
Аноним 30/08/16 Втр 11:44:07  831069
>>830841
Так и есть. Это помогает от снобизма и неумеренного ЧСВ. Некоторые макаки возомнили о себе невесть что, придумали себе титул "data scientist". Ну какой ты ученый, если ты просто чистишь данные и запускаешь хгбуст/нейроночки на видюхе? Эти чуваки разбираются в науке не лучше слесарей, каковыми по сути и являются. Так и появился термин "data plumber", точно описывающий суть этой работы.

Скромнее надо быть, и реально оценивать себя и свои достижения. Самозваных "ученых" с распухшим ЧСВ никто не любит.
Аноним 30/08/16 Втр 12:09:04  831095
>>831069
зануда
Аноним 30/08/16 Втр 17:26:50  831338
>>831069
Чётко пояснил, две видюхи этому господину.
Аноним 30/08/16 Втр 18:51:35  831391
>>831069
Термин data plumber имеет другой смысл, если верить этой статье
http://www.business2community.com/tech-gadgets/big-data-you-dont-need-a-data-scientist-you-need-a-data-plumber-0268818#9MjOx8Du7djIFEve.97

он не подразумевает уничижительного оттенка.
А вообще, data sceintistы именно сидят во всяких лабораториях и разрабатывают новые методы. Просто слово стало как слово ПРОГРАММИСТ, которое теперь обозначает вообще всех, начиная от системных архитекторов и заканчивая теми, кто помогает тетенькам из бухгалтерии принтер настроить
Аноним 31/08/16 Срд 10:38:00  831799
>>831069
>>831391
>>831338
ДАТАСЛЕСАРЬ
Аноним 31/08/16 Срд 11:04:06  831824
>>831799
Data Miner
Шахтер по данным
Сфера деятельности же называется Data Mining.
Аноним 31/08/16 Срд 14:40:12  831947
Признавайтесь, кто из местных запилил? https://twitter.com/neuromzan
Аноним 01/09/16 Чтв 16:59:26  832876
>>817451 (OP)
bump
Аноним 02/09/16 Птн 03:18:30  833331
14727755109070.png (134Кб, 1920x1080)
купил таки новый комп для мл
взял нормальный проц и7, 30гб оперативки, ссд ещё 500гб, всё как советовали
карточку решил всего одну брать, потом всегда можно добавить
значит на видюхе перемножить 2 матрички 10к х 10к занимает полторы секунды, это нормальная производительность?
на чистом проце уходит секунд 8
Аноним 02/09/16 Птн 04:15:17  833334
>>833331
Ты так спрашиваешь, словно купил себе пк для мл, а не знаешь зачем толком.
Аноним 02/09/16 Птн 07:33:18  833350
>>833337
Нахуй иди и свою говноконфу забери. Пожаловался.
Аноним 02/09/16 Птн 07:38:03  833352
>>833350
Ябеда
Аноним 02/09/16 Птн 08:25:22  833360
>>833352
Ябедничать - это хорошо. И только в воспаленном сознании совка это что-то плохое.
Аноним 02/09/16 Птн 11:42:25  833438
>>833331
>OpenCL
Аноним 02/09/16 Птн 16:41:27  833624
>>833331
схуяли у тебя форточки. ты его гамать купил, а не МЛ хуячить?
Аноним 02/09/16 Птн 17:34:45  833670
>>833334
> Ты так спрашиваешь, словно купил себе пк для мл, а не знаешь зачем толком.
очень хочется вкатиться в мл, но мне надоело ждать пока мои поделки выполняются
пробовал делать кагловский "титаник" на гауссовских процессах, одна итерация градиентного подъёма занимала несколько секунд на моём старом ноутбуке

>>833438
>OpenCL
это сильно плохо? восьмая куда ещё не вышла

>>833624
> играться в игрули в 23 годика
)
Аноним 02/09/16 Птн 17:40:25  833682
>>833670
То есть ты, полуебок, вместо того, чтобы ботать бишопа для "вкатывания в мл", побежал получать наслаждения от покупки нового компа? Далеко пойдешь. Не забудь еще новый стол купить, мебель обновить, а то с этой как-то плохо работается.
Аноним 02/09/16 Птн 17:53:47  833707
14728280278950.jpg (1524Кб, 1824x3264)
>>833682
> ботать бишопа
я его с марта ботаю, уже надоело, лол
хочется больше хэндс-он экспириенса
Аноним 02/09/16 Птн 18:07:48  833717
>>833707
Ну так попробуй еще раз "титаник" и сравни.
Аноним 03/09/16 Суб 11:49:54  834225
а хуле в шапка ни курса ни с едкс ни с курсеры?
Аноним 03/09/16 Суб 12:44:34  834285
>>834225
Чтобы эти ебанутые вопросы с платиной появлялись по десять раз за трендж, мелкобуквенная ты поебота.
Аноним 03/09/16 Суб 12:57:59  834297
>>834285
тссс, не надо
вдруг это будущий %ИМЯ_ВСЕМИРНОГО_ИЗВЕСТНОГО_ЭКСПЕРТА_ПО_МЛ%
Аноним 03/09/16 Суб 14:40:33  834401
>>834285
нахуй ты грубишь, пидор, это мое право писать с большой или маленькой буквы, по делу лучше б ответил бы, агрессивный выблядок.
Аноним 03/09/16 Суб 16:33:04  834487
>>820508
В Darcula нет вырвиглазного черного фона редактора.
Аноним 03/09/16 Суб 16:41:00  834492
14729100603430.png (69Кб, 958x872)
>>834487
Возможно, я сам настроил. Быдло не может в православные цвета.
Аноним 03/09/16 Суб 16:42:17  834494
14729101370920.png (294Кб, 1680x1050)
>>834487
Хотя, вот пикрелейтед из гугла.
Аноним 03/09/16 Суб 17:15:32  834509
>>834494
>>834492
Это всё кастомизация.
Поставь новую копию с дефолтными настройками и увидишь.
Аноним 03/09/16 Суб 17:46:19  834527
14729139791920.png (1636Кб, 1902x970)
>>834509
У всех так скастомизирован?
Аноним 03/09/16 Суб 19:13:35  834597
>>834527
А ты не замечаешь, что на всех пиках по-разному фон у редактора выглядит?
блять, ты споришь с человеком который эту самую Идею минуту назад из исходников компилировал и запускал, чтобы пофиксить багу
Аноним 04/09/16 Вск 18:44:18  835356
>>834597
> Идею минуту назад из исходников компилировал и запускал, чтобы пофиксить багу
Кулстори сис
Аноним 04/09/16 Вск 18:53:02  835362
>>835356
Лол, как будто это дохуя сложно. Там инструкция на гитхабе есть для этого.
Аноним 06/09/16 Втр 21:34:50  836781
14731868902260.jpg (38Кб, 400x300)
Хочу вкатиться, но не знаю как.
Работать в яндексе не потяну.

Кодил всякие вещи на векинатор, ну с mnist и прочими тензорфлоу игрался.
Живу в мухосрани, чем бы мне таким заняться в ML, чтобы не пропустить очередной тренд?

Или всё таки машинное обучение останется прерогативой больших компаний вроде Гугла и Байду, а простые ML-макаки повсеместно нужны не будут?

Есть, конечно, вариант сделать ололо-стартап вроде призмы. Но что-то нет идей/готовых алгоритмов, для которых можно сделать красивую обёртку, не делая научных открытий в области ML. Ну и очередной конв-нет "хаха-смотрите, моя софтина рисует как Моне))" никому не нужен.

Все говорят про повсеместное использование, уже даже нейронные процессоры появляются, но где всё это использовать - не очень понятно.

Что думаете?
Аноним 07/09/16 Срд 04:56:50  836995
Наткнулся на такой гайд, если кому интересно:
https://www.quantstart.com/articles/How-to-Learn-Advanced-Mathematics-Without-Heading-to-University-Part-1
Аноним 08/09/16 Чтв 02:21:51  837829
Сап, котаны. Решаю проблему мультиклассовой классификации таким методом, что соединяю классы в определенные мета-классы и выстраиваю это все дело в дерево. На каждом узле дерева присваиваю признакам разные весы и в конечном итоге классифицирую ближайшим соседом. Есть кто занимался чем-то подобным или хотя бы слышал/читал, подкиньте какую-нибудь литературу или статьи без хардкорной математики.

Эту йобу я придумал сам, потом нагуглив классификаторы называются иерархическими, а конкретно мой пример вроде как local per node classifier.

Вот здесь чуваки занимались чем-то подобным goo.gl/UGOmSB например.
Аноним 08/09/16 Чтв 11:53:01  837931
Ребята, поясните неофиту. Нужно кластеризовать объекты, с разными метриками по разным признакам. Условно, если у объекта есть текст и координаты, то оценивать схожесть нужно по cosine similarity с tf-idf для текста и эвклиду по координатам. Но одна мера в километрах, а другая попугаях. Достаточно ли стандартизировать матрицы расстояний и сложить их?
Аноним 08/09/16 Чтв 12:21:41  837952
Тут вам вряд ли помогут, тут сидят олухи которые только и умеют что кричать ОЛОЛО НЕ УЧЕНЫЙ А САНТЕХНИК))))
Аноним 08/09/16 Чтв 15:14:24  838081
>>837952
Сантехнику неприятно.
>>836781
Я думаю что жизнь пройдет мимо тебя. Какой в мухосрани МЛ может быть?
>>837931
В кластеризации метрику тебе придется самому делать, исходя из здравого смысла. Стандартизируя матрицы ты искажаешь расстояния.
Аноним 08/09/16 Чтв 16:12:24  838146
>>838081
>Сантехнику неприятно
Нет, вы оффтопите вместо нормального обсуждения.
Аноним 08/09/16 Чтв 17:09:32  838215
>>838081
Почему искажаю, скорее привожу к одной шкале.
Тер.вер. 11/09/16 Вск 16:00:45  840044
Ку, привет, двачаны.

хочу спросить совета:

1) Вот книга по тер.веру. Годная?
http://www.math.louisville.edu/~pksaho01/teaching/Math662TB-09S.pdf
Если нет, посоветуйте лучшую.

3) Если выше книга годнач, идти дальше по пути ( https://www.quora.com/What-are-some-good-books-for-learning-probability-and-statistics )
Говно/не говно?
2) Есть ли годнач на курсере по тер.веру и статистике.
Аноним 11/09/16 Вск 18:24:43  840185
>>840044
у (((розенталя))) есть хорошие книги и не вода на 700 страниц
алсо если тебя интересует мл то можешь сразу начать читать книги из шапки
Аноним 11/09/16 Вск 18:49:48  840218
>>840185

Спасибо, прочитаю.

Я ничего не пойму из этих книг, за спиной только школьная база. (Я не про английский, а про матем.)
Уж больно сложные формулы.

Ну а так, спасибо.
Аноним 12/09/16 Пнд 12:37:35  840538
14736730554110.jpg (4Кб, 100x100)
https://medium.com/learning-new-stuff/machine-learning-in-a-year-cdb0b0ebd29c#.hjw2pjc9r

> Я продолжал учиться в свое свободное время и почти ровно через год я сделал свой первый проект мл на работе, которая связана с использованием различных мл и обработки естественного языка (NLP) методы, чтобы квалифицировать продаж приводит в Xeneta.
> Это ощущается как благословение: получать деньги, чтобы сделать что-то я обычно делал для удовольствия!

> Он также разорвал меня из заблуждения, что только люди с мастерами градусов или работы доктора философии с мл профессионально.
> Истина заключается в том что вам не нужно много математики, чтобы начать работу с машинного обучения, и вам не нужна степень, чтобы использовать его профессионально.

> Изучение нового языка в то же время пытается кодировать мл алгоритмы слишком сложно для новичка.

> должен знать Scikit Узнать
> пытавшиеся мл на реальном мире набора данных
> закодированы алгоритм линейной регрессии с нуля (в Python)
> сделал чуть-чуть NLP

> Тем не менее, я начал с нейронными сетями, по крайней мере, и начал медленно понять концепцию. В июле мне удалось закодировать свой первый сеть. Это, вероятно, crappiest реализация когда-либо созданных, и я на самом деле считаю стыдно показать. Но это сделал трюк; Я доказал себе, что я понял, такие понятия, как и обратного распространения градиентного спуска.
Аноним 12/09/16 Пнд 12:41:13  840540
>>840538
Пиздец, текст уровня привлечения в продажники орифлейм и прочего дерьма. Ощущение, что пишут это для привлечения толпы макак в дата саенс, которые будут from sklearn import svm.
Хотя я и не прочь переквалифицироваться из дворника в дата-слесаря.
Аноним 12/09/16 Пнд 13:27:26  840569
Вот вам ещё говна НЕЙРОНОЧЕК на ваши кулеры на видяхе:
https://youtu.be/QfNvhPx5Px8
Аноним 12/09/16 Пнд 13:50:11  840580
>>840540
Потому что с дата саенсом сейчас полный пиздец. Не так давно смотрел выступления пасанов из фейсбука, такое чувство, что первокуров заставили делать лабы, вот на таком уровне у них знания.

Жду БУТКЕМПЫ за 20 ТЫСЯЧ ДАЛЛАРОВ уровня СТАНЬ ДАТА САЕНТИСТОМ или ИКСПЕРТОМ ПО МАШИН ЛЕРНИНГУ за 12 недель!
Аноним 12/09/16 Пнд 14:12:27  840591
>>840538
кек. На реддите все старательно делают вид, что у них не пригорело от этого поста, но мы-то знаем.
Аноним 12/09/16 Пнд 14:21:52  840594
>>840580
>>840540
Ну это с любой расхайпленной областью происходит, но мы то знаем что настоящие пасаны как минимум ШАД должны закончить и знать математику на уровне мехмата МГУ.
А про фейсбук странно, у них там тот самый Ян Лекун работает
Аноним 12/09/16 Пнд 14:47:12  840618
>>840594
> настоящие пасаны как минимум ШАД должны закончить
Надеюсь, что это сарказм.
Аноним 12/09/16 Пнд 14:58:26  840629
>>840594
>как минимум ШАД должны закончить
Это профтехучилище для слесарей высшей категории. Настоящие пацаны даже не знают о его существовании.
Аноним 12/09/16 Пнд 15:17:39  840640
>>840618
>>840629
Я в шад собираюсь, а чем он плох? Там программа вроде нормальная и вообще яндекс в авангарде дата лернинга.
Аноним 12/09/16 Пнд 15:19:25  840641
>>840640
> в авангарде дата лернинга
В России. Яндекс хорош, без базара. Но мне кажется неправильным считать, что хорошим слесарем можно стать только в шаде.
Аноним 12/09/16 Пнд 15:22:37  840643
>>840641

Ну я не спорю, что есть места настолько же хорошие/лучше, просто те отписались, как будто шад - это вообще зашквар
Аноним 12/09/16 Пнд 15:24:18  840644
>>840643
Это >>840618 я отписался. Не зашквар, но на шаде мл в России не сошёлся.
Аноним 12/09/16 Пнд 15:27:03  840647
>>840629
Профтехучилище, в которое не все студенты мфти и мгу могут поступить. Эх, хотел бы там учиться.
Аноним 12/09/16 Пнд 16:34:44  840673
>>840647
Не все студенты мфти и мгу настоящие пацаны.
Аноним 13/09/16 Втр 10:27:13  841141
Закончил недавно вводный курс по сетям. Посоветуйте какую простую сеть написать, чтобы не очень сложно и самое главное чтобы были тренировочные данные в открытом доступе.
Аноним 13/09/16 Втр 11:52:44  841161
>>840644
Как я понял, в шад ты поступить не смог.
Аноним 13/09/16 Втр 12:07:58  841166
>>841141
можешь сам нагенерить простых данных и тренировать по ним
Аноним 13/09/16 Втр 12:11:57  841168
>>841166
Данные же должны быть закономерны вроде как.
Имеешь ввиду создать математическую закономерность и попытаться научить сеть её понимать?
Аноним 13/09/16 Втр 12:23:37  841169
>>841168
ну да, возьми функцию, добавь к ней гауссовского шума, нагенерь данных и попробуй вывести функцию
Аноним 13/09/16 Втр 12:44:11  841177
>>841141
Мнист распознай свертками.
Аноним 13/09/16 Втр 17:31:45  841341
>>841161
И не пытался.
Аноним 14/09/16 Срд 01:09:36  841574
14738045771250.jpg (74Кб, 600x600)
дрочу титаниц, пытаюсь вывести недостающие возрасты
вот что получилось: http://pastebin.com/Gqc3W2ry пиздоватые значения с кучей знаков после точки есть вывод алгоритма
кто нибудь ещё пытался их вывести? покажите что получалось
или скажите где найти полный сет, в интернете чо то не нашлось

стремящийся датаслесарь
Аноним 14/09/16 Срд 07:29:41  841625
То чувство, когда ты сто лет назад запилил тред, ушел с двача, вернулся на двач, а тут и шапка твоя, и тред уже в седьмом номере.
Аноним 14/09/16 Срд 16:09:07  841769
>>841625
Ничего не изменилось. Почти те же вопросы, те же ответы.
Аноним 14/09/16 Срд 17:03:01  841799
А машинное обучение и анализ данных используются в мобильных приложениях допустим по сети, так как очевидно мощностей смартфонов не хватит? Мне просто интересно, можно ли сочетать мобильную разработку и машинное обучение хотя бы на уровне использования апи.
Аноним 14/09/16 Срд 17:07:26  841803
>>841799
Естественно. Распознавание голоса в айфоне и ведре, например, через сервер делается. Хотя все тужатся сделать суперчип для исполнения нейроночек с низким энергопотреблением, но пока что это мечты.
Аноним 14/09/16 Срд 17:20:09  841818
>>841803
Спасибо за ответ, ну круто тогда.
Аноним 14/09/16 Срд 20:05:43  841930
>>841574
У меня шишка задымелась.
Аноним 14/09/16 Срд 20:24:30  841938
>>841574
Она сосёт? У неё кансырь?
Дональд Трамп - наш президент?
Аноним 14/09/16 Срд 20:58:19  841956
>>841625
>>841769
Надо бы шапку подновить. Новый ОП молодец, но тему сисек не до конца раскрыл - книг можно досыпать, как минимум, и FAQ в последних вопросах подробнее сделать. И куда-то делись описания книг. КМК, это важно было - новички охренеют, если случайно первой из списка откроют ESL.
Какую же хуевую тут сделали капчу
Аноним 14/09/16 Срд 21:50:45  842015
>>841938
хилари няша-змеяша
https://www.youtube.com/watch?v=zXX6XZuV4zI
Аноним 14/09/16 Срд 21:57:19  842022
http://www.asimovinstitute.org/neural-network-zoo/
Аноним 15/09/16 Чтв 15:52:29  842359
>>840591
реддит - кармапараша. Стоит кому-то написать что-то, что противоречит всеобщему "правильному" мнению - заминусуют.
Аноним 15/09/16 Чтв 16:00:13  842365
>>842359
как и весь "демократический" запад
Аноним 15/09/16 Чтв 16:15:04  842368
>>842359
Приведи пример адекватного поста, который заминусовали в /r/machinelearning или в /r/programming.
Аноним 16/09/16 Птн 03:01:09  842751
Вечер в хату.Скоро предстоит писать НИР, умею в мат. статистику и теорвер(в рамках двухсеметрового курса).Хочу убить двух зайцев, заодно начать вьезжать в машинное обучение.Какого формата задачу поставить?Накидайте примеров.
Аноним 16/09/16 Птн 11:31:18  842815
>>842751
Гиперспектральные изображения. Сделай с ними что-нибудь. Можешь запилить сегментацию, классификацию. Там же потренерироваться в feature selection.
Только хз, где размеченные данные достать. У меня где-то были сами изображения.
Аноним 16/09/16 Птн 11:37:18  842817
>>842751
>>842815
Есть в гугле даже.
https://scien.stanford.edu/index.php/hyperspectral-image-data/
http://www.ehu.eus/ccwintco/index.php?title=Hyperspectral_Remote_Sensing_Scenes
http://www.cvc.uab.es/color_calibration/bristol_hyper/
Аноним 16/09/16 Птн 13:36:00  842862
>>842751
распознай мнист
Аноним 16/09/16 Птн 23:02:59  843140
https://www.coursera.org/learn/julia-programming
Аноним 18/09/16 Вск 19:13:57  844087
>>817451 (OP)
Привет, поцоны, кто курил Wavenet от DeepMind? У меня что-то подозрения, что это какой-то хайп. Я сам не смотрел толком, только на ютубе обзоры, на слух звучит не лучше обычного RNN, смотрел комментарии на реддите, там кидали ссылку на свертку новую какую-то, потом, руки дойдут, прочитаю.
Аноним 18/09/16 Вск 19:26:27  844096
>>840580
Так еще Ын же постоянно во время курса жаловался на то, что у него пложно знакомых датасаентистов с зарплатами в шесть знаков, которые и малой части того, что он в своем курсе дает совсем не знают.
Аноним 18/09/16 Вск 19:46:11  844104
14742171717360.jpg (72Кб, 604x575)
>>844096
знатоки вроде тебя наверно по 7-8 знаков загребают, правда?
Аноним 18/09/16 Вск 19:50:27  844105
>>844087
Звучит очень хорошо, но 90 минут на топовой карте для рендера 1 секунды, это слегка неюзабельно. Так что подожди полгодика, может оптимизацию какую придумают.
Аноним 18/09/16 Вск 20:18:09  844109
>>844104
Я-то тут причем вообще?
Аноним 18/09/16 Вск 21:40:04  844127
>>844109
да не ты
я о том школьнике что форсит тут слесарские курсы от китаёзы
Аноним 18/09/16 Вск 22:03:17  844135
>>844127
Съебал бы ты в обосцай со своими слесарями.
Аноним 19/09/16 Пнд 11:24:51  844385
>>844087
> DeepMind
> hype
> CNN
Лол.

Работает неплохо, вангую, что там будут ещё пытаться уменьшить количество настраиваемых параметров с помощью какой-нибудь архитектуры типа Inception.
Аноним 19/09/16 Пнд 21:51:17  844688
>>817451 (OP)
Поясните за предмет.
Я так понимаю у вас тут три основных ветки: Большие данные, машинное обучение и нейронные сети.
Не пойму в чем их различия, что востребовано и что куда втыкается.
Аноним 19/09/16 Пнд 23:02:13  844738
>>844688
большие данные ет тип ентерпраиз, денюжка))
мошинное обучене ет для задратов
нейроночки ет тип когда import tensorflow as tf
Аноним 19/09/16 Пнд 23:29:39  844756
>>844738
Не до конца понятно, но все же.
Аноним 19/09/16 Пнд 23:46:14  844763
>>844688
Машинное обучение и нейронки - одни из методов анализа биг даты.
Нейронки в свою очередь можно вписать под машинное обучение.
Аноним 19/09/16 Пнд 23:57:43  844768
>>844688
Ты бы википедию почитал сначала, прежде чем тут спрашивать.
Аноним 20/09/16 Втр 00:00:19  844769
>>844768
>>844763
Спасибо, теперь все попроще стало.
Аноним 20/09/16 Втр 01:25:27  844790
Антош, введи меня, пожалуйста, в курс дела. Уже придумали охуенно умных ботов, способных вести осмысленный диалог?
Аноним 20/09/16 Втр 02:20:27  844795
>>844790
нероночка - массив
гауссов процес - два масива
тренировка - обращение матрицы
нечётко-питушки соснули

> Уже придумали охуенно умных ботов, способных вести осмысленный диалог?
не
Аноним 20/09/16 Втр 04:35:30  844807
https://www.reddit.com/r/MachineLearning/comments/53ilcr/fast_wavenet_an_efficient_wavenet_generation/
Аноним 20/09/16 Втр 10:41:05  844864
>>844795
>не
А что является проблемой?
Во что упирается человечество?
Аноним 20/09/16 Втр 14:02:07  844872
>>844864
чатботы не приносят деньги
Аноним 20/09/16 Втр 14:07:40  844875
>>844738
четко расписал для нуба)
по полочкам разложил))
Аноним 20/09/16 Втр 14:10:37  844877
>>844807
С этими товарищами не поймешь. Этот чел в каментах говорит, что в дипмайнде уже используют эту оптимизацию. При этом один чел якобы из дипмайнда скозал, что генерация секунды звука занимает полтора часа, а этот говорит, что две минуты. Крутят они что-то, секретность навели какую-то, наверное думают что это золотая жила. Хотя оно всего-то немного лучше старых рилтаймовых подходов.
Аноним 20/09/16 Втр 14:12:20  844879
>>844864
человечество не может четко понять, что такое смысл
пытаются заменить его рандомом, выходит плохо
Аноним 20/09/16 Втр 16:46:44  844962
Недавно начал изучать Prolog, цель которого, судя по интернетам, писать искусственный интеллект и экспертные системы. Сам я в этом (как и в сабже данного треда) абсолютно не шарю, за несколько дней успел выучить только несколько базвордов и разобраться в устройстве языка. Но насколько я понял, язык и правда предоставляет удобные инструменты для описания кучки правил в какой-либо предметной области.
Так вот вопрос местным экспертам - раз пролог был создан для искусственного интеллекта, можно ли его средства применить в машинном обучении?
Аноним 20/09/16 Втр 16:48:48  844966
>>844962
ты опоздал на 50 лет
Аноним 20/09/16 Втр 17:00:11  844978
>>844962
Имхо, всякие императивные вещи на нём описывать очень неудобно. Но можно удобно делать запросы, да.

> удобные инструменты для описания кучки правил в какой-либо предметной области
Но их нужно забивать вручную.

Обучать подобные вещи (тащить структуру из данных) можно, используя графические модели:
http://research.microsoft.com/en-us/um/people/heckerman/tutorial.pdf

Аноним 20/09/16 Втр 17:17:29  844984
>>844978
Вопрос как раз возник из того, что, насколько я понял, заставить систему получать знания извне геморройно настолько, что люди стали использовать для этого питон.
>tutorial.pdf
Ни черта не понял, что там говорится и как это относится к вопросу, объясни ньюфагу, пожалуйста.
Аноним 20/09/16 Втр 17:39:06  844994
>>844984
Кароч, пролог хорошо умеет в семантические сети, семантические сети могут хорошо (неоч) представлять предметные знания. Эти сети в пролог должны вбивать людишки, а этого делать не охота. Поэтому начали придумывать сети, которые могли бы строиться по данным.

Сейчас вроде ещё модны гиперграфы, знаю, что их где-то в когнитивных архитектурах используют, но ссыль не дам.
Аноним 21/09/16 Срд 01:19:09  845246
>>817451 (OP)
Платина, но пох. (В архивах не нашел)

Что есть градиент для backprobagation на softmax слое?
Аноним 21/09/16 Срд 01:37:18  845253
>>845246
Тебя в школе производные не научили находить?
Аноним 21/09/16 Срд 02:11:51  845260
>>845253
Нет, не учили.

softmax слой это вектор-функция от многих переменных.
Марицу Якоби я найти смогу. Но я не понимаю, что передавать на предыдущий слой в backpropagation.
Аноним 21/09/16 Срд 12:37:18  845377
>>844127
Чем тебе курсы откитаезы не угодили?
Аноним 21/09/16 Срд 17:13:05  845481
14744671853450.jpg (81Кб, 700x963)
Можно ли с помощью МЛ научиться дорисовывать недостающие части картинки?
Пример на пикрилейтед. Стоит закрасить купальник и наш мозг думает, что баба голая.
То есть, если скормить АИ сотню тыщ голых баб, сможет ли он дорисовать сиськи в данном случае?
Аноним 21/09/16 Срд 17:14:00  845482
>>845481
попробуй
Аноним 21/09/16 Срд 17:15:44  845483
>>845481
И хуйцы тоже дорисует.
Аноним 21/09/16 Срд 17:28:13  845489
>>845481
Гугли image inpainting.
https://people.eecs.berkeley.edu/~pathak/context_encoder/resources/result_fig.jpg
Аноним 21/09/16 Срд 18:14:25  845536
>>845481
На автоэнкодерах можно сделать.
Слушай этого >>845489 господина.
Аноним 21/09/16 Срд 18:43:31  845582
14744726114280.png (274Кб, 864x396)
14744726114331.png (348Кб, 881x754)
>>845481
ML здорового человека в это могло еще в начале 80-х. Это потом поналезло бабуинов с быдлонейроночками, которые на гугловских кластерах еле дышат.
>>845489
>>845536
Ага, нейроночка ищет в гугле оригинальную картинку вместо покоцаной.
Аноним 21/09/16 Срд 18:46:37  845583
>>845582
Hipster kitten-клоун в ML, спешите видеть.
Аноним 21/09/16 Срд 23:43:09  845804
>>845481
Learning Deep Generative Models - Ruslan Salakhutdinov
DRAW: A Recurrent Neural Network For Image Generation
Generative Adversarial Nets
и тд
Тысячи статей, и на гитхабе 100% есть имплементации, только обучуающие данные нужны "баба в купальнике -> голая баба", это сложно достать. Легче будет закрашивать уже голым бабам сиськи. Но все равно это нудная и рутинная работа.
Аноним 22/09/16 Чтв 00:58:26  845835
Что по поводу сканирования людей и создания на основе этого трехмерных моделей, которые повторяют контуры лица, тела и тд? Есть успехи?
Аноним 22/09/16 Чтв 01:37:29  845844
>>845835
сними шлюху ёпт
Аноним 22/09/16 Чтв 01:47:49  845848
>>845844
У меня научный интерес к данному вопросу. Если говорить о практическом применении, можно было бы сделать виртуальные примерочные, не выходя из дома подбирать себе одежду, опять же аватары для виртуальных миров. Или распознавание картинок - это предел?
Аноним 22/09/16 Чтв 02:09:51  845854
>>845848
При чем тут machine learning?
Аноним 22/09/16 Чтв 02:18:44  845856
>>845854
Ну я думал это из области ai, чем как раз машинное обучение занимается, научить программу строить трехмерные модели на основе видео/фото файлов
Аноним 22/09/16 Чтв 16:49:42  846139
>>845804
натрави другую сеть на локализацию сисек
Аноним 22/09/16 Чтв 18:07:33  846171
>>845856
Больше похоже на классический computer vision. Другой вопрос, что без системы типа кинекта (с освещением сеткой) нормальную точность не получишь.
Аноним 22/09/16 Чтв 23:20:45  846447
>>845835
http://old.ektf.hu/tanszek/matematika/hofi/head_model_NN.pdf
хотел другую статью найти, там строили 3д модели зданий и тд, в глубину можно было ходить, но 10 секунд в гугле только это выдали
Аноним 23/09/16 Птн 00:04:42  846461
>>846447
Спасибо, схоронил, я вообще по фану спросил, но сама тема интересна
Аноним 23/09/16 Птн 23:01:53  847011
>>840580
> Жду БУТКЕМПЫ за 20 ТЫСЯЧ ДАЛЛАРОВ уровня СТАНЬ ДАТА САЕНТИСТОМ или ИКСПЕРТОМ ПО МАШИН ЛЕРНИНГУ за 12 недель!
Уже есть такое. Видел на днях даже.
http://newprolab.com/bigdata/?utm_source=habr&utm_medium=habr&utm_campaign=new
Аноним 23/09/16 Птн 23:21:12  847027
>>847011
Интересно, за сколько времени окупается этот курс?
От курса Ына отличается лишь наличием хадупов, азуры и прочей энтерпрайзной мишуры без бара, важной, но 180к это не стоит
Аноним 23/09/16 Птн 23:22:00  847028
>>847027
> без базара
быстрофикс
Аноним 24/09/16 Суб 05:55:22  847139
>>844790
>Уже придумали охуенно умных ботов, способных вести осмысленный диалог?
https://www.youtube.com/watch?v=pIORV4DMbHQ
Аноним 25/09/16 Вск 00:33:00  847568
14747527809250.jpg (24Кб, 615x410)
https://www.scan.co.uk/3xs/configurator/nvidia-dgx1-deep-learning-system?utm_source=google+shopping&utm_medium=cpc&gclid=Cj0KEQjwyJi_BRDLusby7_S7z-IBEiQAwCVvn6libSWinwBvkm1afW_piBXby446V4wv6SSb1IYYnP8aArgE8P8HAQ
пиздец как дорого
почему с этими пидорасами никто не конкурирует
где амуде?
Аноним 25/09/16 Вск 00:34:55  847570
алсо
> Delivery £11.99
лолблядь
Аноним 25/09/16 Вск 17:03:28  847714
>>847568
можно было бы от гарантии отказаться, цены бы им не было :3
Аноним 28/09/16 Срд 12:52:36  848019
>>817451 (OP)
Кароч, пацаны, я в универе немного мутил регресси в ехеле + смотрел пару курсов по анализу данных, но из-за этого хайпа не могу понять что и как изучать, в каком порядке.
Энивей, тут такое дело.
Наткнулся на вакансию младшего аналитика, прислали несколько тестовых заданий.

1. 1 сентября 2015 года на двух телеканалах разместили два ролика с различными номерами заказа такси. В течение недели оба ролика прокрутили по 40 000 раз. В течении этой недели на первый номер поступило 10 000 звонков и было совершено 7 670 поездок, а на второй — 12 000 звонков и 8100 поездок. Маркетолог просит у вас совета: какой канал оставить, а какой отключить? Что вы ему ответите? Обоснуйте свой ответ.

2. При доставке товара, заказчик может оценить качество работы курьера, либо положительно (поставив «лайк»), либо отрицательно (поставив «дислайк»). Предложите систему (формулу или набор правил) расчета рейтинга курьеров на основе истории их оценок, которая позволила бы определять и отсеивать курьеров, которые работают хуже остальных (код или какие-то другие материалы, созданные в ходе решения приветствуются).

Выглядит одновременно и легко и, мне кажется, не все тут так просто.
Эни айдиас в какую сторону копать?
Аноним 30/09/16 Птн 22:11:19  848722
>>848019
Конверсия-хуеверсия.

> Эни айдиас в какую сторону копать?
Что копать? Чего ты хочешь?
Аноним 02/10/16 Вск 22:54:20  849703
какая няшка
https://github.com/SullyChen
https://github.com/SullyChen/Nvidia-Autopilot-TensorFlow
Аноним 04/10/16 Втр 17:04:58  850533
>>849703
Отняшил бы красавца в попчан?
Отдался бы ему за место с ним в команде кегли?
Аноним 04/10/16 Втр 18:28:14  850581
>>850533
Чувак в 17 лет имплементит топовую статью с переднего края машинлернинга. Если это не круто, то что тогда круто? Вспомни что ты делал в 17 и ужаснись.
Аноним 04/10/16 Втр 18:43:39  850587
>>850581
Круто делать что-то новое, а не import tf.
Аноним 04/10/16 Втр 18:54:03  850591
>>850581
Не спорю, что он крут, но на вопрос ты не ответил.
Аноним 05/10/16 Срд 12:17:59  850966
>>850591
Ну... Я бы, пожалуй, сделал его членом своего стартапа. Если ты понимаешь, о чем я.
Аноним 07/10/16 Птн 12:49:30  852131
Один раз мне здесь подсказали годную литературу, мб в этот раз тоже прокатит.
Анончики, есть ли исчерпывающие туторы по information theoretic learning? Чтобы с ответами на вопросы, чем критерий коррэнтропии пизже критерия относительной энтропии и прочее. Гугл даёт только что-то отдельными статьями. Я заебался.
Аноним 08/10/16 Суб 00:17:00  852587
сап аноны, есть ли тут кто-то кто работает в ML сфере без вышки?
поделитесь опытом/историей плиз
Аноним 08/10/16 Суб 19:55:41  853000
>>852587
это невозможно
для ML нужно знать много математики, а математику учат только в вузах
Аноним 08/10/16 Суб 20:14:16  853007
>>853000
А в чём проблема изучить её самостоятельно?
Благо литературы, курсов, ресурсов всяких более чем достаточно.
Аноним 08/10/16 Суб 20:22:53  853012
>>852587
Здесь проблема втом, чтобы вообще найти кого-нибудь, работающего в сфере ML. А ты тут ещё без вышки просишь, лол.

>>853007
> А в чём проблема изучить её самостоятельно?
Количество времени, которое нужно потратить, высокий порог вхождения, постоянное ощущение того, что ты что-то не понимаешь. Не каждому дано это.
Аноним 08/10/16 Суб 20:26:22  853016
>>853012
А вуз то чем тебе поможет? Единственное чем вуз отличается от самообразования, это то, он более менее заставляет учиться
Аноним 08/10/16 Суб 20:31:20  853017
>>853016
Ничем.
Однако, практика показывает, что порой распиздяй, дотянувший до четвёртого курса, может вытащить из глубин разума хоть какие-то минимальные знания анализа.
Аноним 08/10/16 Суб 20:43:54  853022
Вступительные в ШАД пиздос дизморалят, и это после того, как я ботал как зверь последние полгода.
Аноним 08/10/16 Суб 21:54:42  853050
>>853022
Проглядел:
https://download.cdn.yandex.net/shad/exam-2014.pdf
Знаю как решается одна задача, видел ее в учебнике по терверу.
Монеты наверное тоже просто, все остальное сходу не знаю как решать. 5 часов мне явно не хватит.
Аноним 08/10/16 Суб 23:35:15  853121
>>853022
>>853050
Умение решать подобные задачи - без пизды охуительный и полезный навык, без сарказма. Но освоить мл на слесарском уровне можно, и не попадая под монструозные требования шада.
Просто берёшь курсы китаёзы, бишоп и мёрфи и без задней мысли проходишь весь материал с прорешиванием всех задач. Времени уйдёт уйма, но другого пути я не знаю.
Аноним 09/10/16 Вск 01:55:23  853163
>>853121
Только такой путь и есть. ШАД - ебота та еще. Типичная подмена понятий "раз мы соберем умнейших людей ебическими экзаменами не по теме, ЭТО ЗНАЧИТ, что мы учим хорошо". А не потому что люди умные и их похуй, как учить.
Аноним 09/10/16 Вск 02:48:10  853176
>>853121
Ng вьетнамская фамилия, не?
Аноним 09/10/16 Вск 02:55:06  853178
14759709068760.jpg (188Кб, 1024x768)
>>853176
отклеилась
Аноним 09/10/16 Вск 12:27:29  853262
>>853176
Пойду у соседа вьетнамца спрошу, а нет, не спрошу, мне похуй.
Аноним 09/10/16 Вск 12:29:19  853264
>>853176
Он китаец из гонконга.
Аноним 11/10/16 Втр 20:55:13  854889
Так чо, есть работа по ML или нету? Что профитнее, на питоне сайтики клепать или табличке в pandas мерджить?
Аноним 11/10/16 Втр 21:17:41  854904
>>854889
Для кого-то есть. для кого-то нет. Сам то кем будешь?
Аноним 11/10/16 Втр 23:25:04  854999
>>854904
чел с высшим техническим, инженер. прошел курсы от Ng,на кэгле есть опыт, несколько книжек прочитал.
Пока что вакансии видел только для лютых задротов-надмозгов, к коим не отношусь
Аноним 11/10/16 Втр 23:34:39  855002
>>854889
я работал неделю на апверке за 15 баксов в часов, потом уехал на юга и забил. Мне очень стыдно, и, боюсь, другой шанс устроиться в мл с моим гуманитарным образованием у меня очень нескоро появится.
Аноним 11/10/16 Втр 23:39:20  855006
>>855002
и очень странно было работать, так как если клепать сайтики, то там все отлично, а тут большая часть времени уходит на тренировку моделей, чтение нужных статей и тд, а импорт тензорфлоу эз тф - это 2 минуты.
Аноним 11/10/16 Втр 23:47:18  855009
14762188385300.jpg (32Кб, 512x512)
> Быть великовозрастным вкатывальщиком, полным нубом в кодинге
> Не знать матана, не мочь даже вывести формулу для квадратных уравнений
> Никогда не осилить и 20% обсуждаемых в треде вещей, куда уж там прочесть Бишопа/Мёрфи
> Никогда не побывать в писечке няшной мл-щицы Леночки и не уехать к ней в Канаду няшиться под пледиком
Зачем жить, байесаны?
Аноним 12/10/16 Срд 00:43:21  855027
>>855006
а что за работа была, что делал? И как её получил?
Аноним 12/10/16 Срд 01:29:55  855045
>>855027
ну, профиль на upwork.com (тогда одеск еще) у меня давно висит, хотя опыта вообще нет. Один раз получил заказ года три назад на парсинг, когда осваивал только питон и программирование, но я не смог разобраться с автоматическими сменами прокси и прочим, денег за проект не получил. Летом обновил профиль, добавил туда инфу про машинное обучение. Поговорил с дядькой по скайпу на английском. Что делал - в этом весь вопрос. Меня просили помочь придумать, как их проект можно улучшить с помощью нейроночек, но фирма, видимо, не очень большая, и данных мало (мне дали всего 300 картинок с описаниями, обучаться было проблематично), так по картинкам выдавал текст из скольки-то там категорий, категории пересекались. Я порыпался с недельки две-три, что-то обучил сильно переобученное и с низкими результатами, на том и все закончилось.
Аноним 12/10/16 Срд 07:40:02  855117
14762472028050.jpg (41Кб, 314x604)
>>854999
I know that feel, bro.

Ищи трактор.
Optical character recognition Аноним 12/10/16 Срд 22:03:14  855552
Подскажите, какие существуют открытые библиотеки для распознавания текста с изображений с возможностью подключения в С++? Помимо OpenCV и TesseractOCR
Аноним 13/10/16 Чтв 00:21:46  855670
>>855552
https://www.google.co.uk/#q=c%2B%2B+ocr+library+open+source
Аноним 13/10/16 Чтв 20:39:49  856142
Двачик с какой книжечки в шапке начинать изучать ML?
Аноним 13/10/16 Чтв 20:45:05  856149
>>856142
Зависит от твоего бэкграунда.
Нубам с курсы китаёзы.
Людям с оброзованием можно сразу брать пару из Бишопа и Мёрфи.
Аноним 13/10/16 Чтв 20:49:32  856151
>>856149
Че за китаёзы? В шапке только хачи.
Аноним 13/10/16 Чтв 20:50:29  856153
>>856151
Andrew Ng, mlclass на coursera
Аноним 13/10/16 Чтв 22:21:47  856180
Надо бы запилить перекат, но мне впадлу.
Аноним 13/10/16 Чтв 23:38:15  856237
>>856180
хуяк-хуяк и перекат
https://2ch.hk/pr/res/856234.html
https://2ch.hk/pr/res/856234.html
https://2ch.hk/pr/res/856234.html
https://2ch.hk/pr/res/856234.html
https://2ch.hk/pr/res/856234.html

[Назад][Обновить тред][Вверх][Каталог] [Реквест разбана] [Подписаться на тред] [ ] 509 | 62 | 138
Назад Вверх Каталог Обновить

Топ тредов
Избранное