книгиPattern Recognition and Machine Learning, Bishop.Information theory, inference & learning algorithms, MacKay. http://www.inference.phy.cam.ac.uk/itila/Machine Learning: A Probabilistic Perspective, MurphyIntroduction to Statistical Learning ( http://www-bcf.usc.edu/~gareth/ISL/ISLR%20Sixth%20Printing.pdf )Elements of Statistical Learning ( http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )Foundations of Machine Learning, أشهد أن لا إله إلا الله وأشهد أن محمد رسول الله. http://www.cs.nyu.edu/~mohri/mlbook/А. Пегат, "Нечёткое моделирование и управление"другоеhttp://libgen.io / http://bookzz.org/ - здесь можно одолжить ^ книги и не толькоhttps://vk.com/deeplearning и http://deeplearning.net/reading-list/http://arxiv.org/find/all/1/all:+nejronochki/0/1/0/all/0/1http://videolectures.net/mlss09uk_cambridge/kaggle.com - весёлые контесты. денежные призыhttps://www.reddit.com/r/MachineLearning/wiki/indexhttp://katbailey.github.io/яп1. http://julialang.org/2. https://www.microsoft.com/en-us/research/project/infernet/3. https://www.r-project.org/4. питухон и так все знаютПЛАТИНАКниги хорошо, но с чего начать практический вкат?Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2016 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ruЗдорово, но я так и не понял чем же вы занимаетесь в IT компаниях?Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.Имхо, мы все же остаемся в первую очередь разработчиками.Что такое TensorFlow?TensorFlow - опенсорсный гугловый инструмент для перемножения тензоров и оптимизации функционалов. Опенсорсный - потому что даже важные куски типа параллелизации уже выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.будет ли ML нужен в ближайшие 10 лет, или это просто хайп?будет. хайп.смогу найти работу?Яндекс, мейлру, касперский, несколько биоинформатических компаний (iBinom, можно еще blastim.ru поскролить на тему работы), билайн (они с НГ целое подразделение открыли под ML и биг дату), связной. Ну и западные аутсорсы, если готов рачить за валюту.нужна математика?для начинающего ничего особого знать не нужнопоясните за нейроночкинейроночка - массивТред #1: https://arhivach.org/thread/147800/Тред #2: https://arhivach.org/thread/170611/Тред #3: https://arhivach.org/thread/179539/Тред #4: https://arhivach.org/thread/185385/Тред #5: https://arhivach.org/thread/186283/Тред #6: https://arhivach.org/thread/187794/
Весь айти это хайп.
>>817496бля, и правда жерасходимся, хайпаны
Второй пик не понял. Что это за символы?Кроме шутки про R конечно.
>>817602это иллюстрация эволюции подхода к статистическому выводу у приматовнапример, первые шерстяные обезьяны умели работать только с априорными распределениями вероятностиболее продвинутые человекообразные безшерстяные приматы уже могли генерировать данные используя заданные параметры моделина данный момент пик развития - вывод распределения параметров модели по наблюдаемым данным
Котаны. Я знаю с++ на уровне шаблонов, ооп, stl, умных указателей, перегрузок и прочего говна осваиваемого за месяц. Как вкатится? Буду использовать шинду, не хочу и вряд ли хватит терпения перейти на новую ОС.Что почитать чтобы с нуля как дебилу объяснялось?И > нейроночка - массивЧто это значит? И что по нейронкам почитать?
>>817867Для начала напиши нейроночку на шаблонах, чтобы во время компиляции тренировалась.
>>817973Хорошо пошутил.
>>817867https://www.youtube.com/user/victorlavrenko/playlists?shelf_id=10&view=50&sort=dd
Это сообщение предоставляется только для тех читателей, которые любопытно Теория выборки / байесовский методы дебаты. Если вы обнаружите какие-либо из этого поста трудно понять, пожалуйста, пропустите его. Там нет смысла пытаться понять дебаты. Просто используйте байесовские методы (они гораздо легче понять, чем сами дебаты!)
Посаны, посаны, а кто-то прикидывал, сколько слоев нужно будет в сети заделать, чтобы сеточка очень качественно переводила с одного языка на другой?
>>81860642
>>818674так на видюшках под 200 слоев делают и чет не видно пока переводов нормальных.
>>818728при чём тут вообще слои-то?>>818606
>>818606Параллельных текстов мало, а не слоев.
>>818741Ну в распознавании графических образов получается чем больше слоев - тем лучше распознает. Каждый новый слой - новое правило(условие) в распознавании. Т.е. тебе не приходится искать эту закономерность самому, а алгоритм оптимизации ее сам найдет.
>>818812Вот это похоже на правду. И щас кто-то занимается их составлением? Или слишком много их нужно?
>>817784>>817602а я шутки про R не уловил, разви это не стандар для биг даты и мл?
>>819077Роботы поисковиков ходят по интернету и помимо индексации ищут параллельные тексты, есть методы. Или ты думал почему сейчас этим занимаются гуглы да яндексы? У них мощности есть. А качество можешь сам оценить.Параллельные тексты сейчас этоа) Художественная литература. Очень хуево, потому что художественный перевод не дословный, даже порядок предложений местами меняется.б) Различного рода мануалы к стиральным машинкам и софту - язык совершенно особый.в) Новости - самое норм, но, опять же, это не бытовой язык, и контента оче мало. Там, где дохуя (например, русско-украинская языковая пара), переводы качественные.Человек делает это лучше, потому что понимает смысл текста. Т.е. преобразование идет не напрямую текст-текст, а в некоторое промежуточное представление, а далее из этого представления генерится переведенный текст. Но для понимания смысла нужны нейроночки совершенно другого рода - например, умеющие отвечать на вопросы.
>>819285ща вроде перекатываются на пестон.
>>817451 (OP)>нейроночка - массивЗависимый тип.
>>819318На пистоне по ML нет нихуя по сравнению с R. Только диплернинг, xgboost, всякий рандомфорест и прочие школоалгоритмы, которые и вне пейстнона есть на каждом углу, не говоря про R.
>>819536Дебилы блядь. R для статистического анализа. Если вы готовы часами/днями жечь электричество в ожидании результатов - флаг в жопу.
>>819547>R для статистического анализаКак там, в 1996? https://cran.r-project.org/web/views/
>>819536Нормальные люди пользуются Scala/Java, так что вы оба соснули с проглотом.
>>819562>Scala>Java,>для ML>Нормальные людиДаже слов нет.
Вы ебанулись. R и Java/Scala будут выдавать производительность в сотни раз меньше, поскольку все фреймворки для machine learning пишутся на плюсах/CUDA и портируются затем только на пайтон и плюсы за редкими исключениями.
>>819536А в яндексе и гугле вот пистон юзают, а не R
>>819596>все фреймворки для machine learning пишутся на плюсах/CUDA и портируются затем только на пайтон и плюсы за редкими исключениями. В массе своей ничего никуда не портируется, сам код как есть на крестах/куде, так и остается, на пистонах или R там только враппер. >>819599Во что больше индусов может, то и юзают, очевидно же.
>>819608Хочешь сказать, что в самом гугле работают "индусы"? Не путай с аутсорсом.
>>819609>Хочешь сказать, что в самом гугле работают "индусы"?А ты хочешь сказать, что нет? Автор так до сих пор и не вышедшей книги по TensorFlow пикрелейтед - индус.
>>819613>Во что больше индусов может, то и юзают, очевидно же.В данном контексте индус рассматривался, как быдлокодер, так, что не виляй.
>>819616Лол, ты не в курсе, откуда взялась традиция называть быдлокодеров индусами?
>>819619Ну очевидно в гугле работают не быдлокодеры.
>>819619>Лол, ты не в курсе, откуда взялась традиция называть быдлокодеров индусами?расизм?
>>819536ты совсем дурачек, да?http://scikit-learn.org/stable/
>>819619Среди них это распространено, и там еще фишка, что чем больша кода, тем больше денег, вот они и пишут бредовые конструкции по типу сделать 10 присваиваний вместо цикла.
>>819622>расизм? Нет, статистика.>>819627Все так как я и сказал же, полтора алгоритма. Сравни это с почти 9000 пакетов для R.
>>819631ну приведи пример алгоритма, которого нет в сциките и который есть в R.
>>819635Смеешься? В R по одним байесовским методам десятки, если не сотни алгоритмов. https://cran.r-project.org/web/views/Bayesian.html обзор самого основного. Сцикит этот ваш примерно равен 1-2 пакету R для ML.
>>819637pyMC & pomegranate это та часть баесовских методов, которые нужны в ML. С остальным говном иди к статистикам, ебаный свидетель баеса.
>>819641Лол, "нинужно". Ну кот бы сомневался. Ладно, раз школьник яскозал, то так и есть. Там еще SVM фигурирует, поди 3-4 основных варианта, да? https://cran.r-project.org/web/packages/kernlab/index.html целый конструктор кернел-алгоритмов, помимо кучи готовых вариантов, можно самому прописывать свои кернелы и многое другое. Потом, что там было? Кластеризация? https://cran.r-project.org/web/views/Cluster.html обзор основных пакетов.
Есть ли курсы по МЛ на русском языке?Да, да, обоссыте. Гуглить не умею, в английский не хочу.Но я точно знаю, что есть, правда на курсере только какая-то платная параша.
>>820049Есть. На хабре поковыряй бложек яндекса.Но с таким отношением тебе только хуй сосать, а не ML себе в жопу тыкать.
>>820049>курсы по МЛ на русском языкеНаверное, есть и на таджикском. Вот только зачем? Вся литература кроме 3,5 переводных изданий по этой теме на английском. Весь софт вместе со всей документацией к нему на английском. Если захочется общения/возникнут вопросы к авторам, вся тусовка англоязычная. И так далее.
>>820086>хуй сосать>в жопу тыкатьа в чем тогда разница?
>>820198Очевидно, в месте, с которого ты начнёшь заполнять экзистенциальную пустоту.
Итак, ИТТ мы выяснили, что вообще всё, что на пиструне есть по ML, примерно на уровне пары пакетов для R. Более того, есть и более серьезные расстановки точек, чем дискуссии на этой параше, https://www.r-bloggers.com/more-data-scientists-prefer-r-survey/ например, пикрелейтед, http://www.burtchworks.com/2016/07/13/sas-r-python-survey-2016-tool-analytics-pros-prefer/ и т.д. Так откуда, из какой школы есть пошел форс пистона как якобы стандарта в датасаенс?
>>820420R, как и слово "датасаенс" - это недавно выплывшие хипстерские баззворды, причем одно тянет за собой другое. А здесь machine learning тред и пожалуйста без этой аналитической параши. Аналитики и эксель предпочитают, и хули.
>>820433Так про ML и речь. Вчера еще выяснили, что на пистоне алгоритмов ML реализовано хуй да нихуя по сравнению с R. Предыдущий оратор, правда, сказал что и нинужно.
>>820420SAS, кек. Мож еще эксель посчитаем, он там всех порвет.R умер, да здравствует Питон.
>>820446>R умер,Потому что так сказал школьник с подтирача?
>>820449Большего и не надо.Мы все мертвы вместе с этим тредиком.
>>820440На питоне реализовано ровно то, что нужно, а на R - тонны невменяемого говна из левых пейперов.
только мои пять копеек:Я использовал R для нескольких крупных проектов. это отстой несколькими способами для проектов я работал на:1. крайне медленно для числовых значений. медленнее, чем MATLAB. медленнее, чем Python (с NumPy). после разговора с несколькими людьми статистике, кажется, в значительной степени все заканчивается тем, что писал большую часть своего кода в C при использовании R. (в отличие от этого, я не нашел это необходимым в Python или MATLAB для аналогичных проектов.)2. его синтаксис довольно неуклюжим. хотите соединить две строки? макаронные изделия (string_a, string_b, отд = ''). Рэдфорд уплотнение имеет ряд постов в блоге на недостатки дизайна R в: HTTP: //radfordneal.wordpress.com/2008/09/21/design-flaws-in -...3. неинформативные сообщения об ошибках. по умолчанию, трассировки стека не печатается. даже если это, часто ошибки на самом деле не сказать вам, что пошло не так.я не вижу каких-либо преимуществ для R над питона. выход делает хорошую замену для ленивых оценки R.
>>820462Ты текст через машинный перевод прогоняешь что ли?Подмножество Matlab умеет компилироваться в C с помощью matlab coder. И это киллерфича на самом деле. Но и то в основном для аналитики и обработки сигналов. А для ML лучше питона не придумали.
>>820460"Нинужно" уже было, как говорится, вчерашняя хохма уже не хохма. >тонны невменяемого говна из левых пейперов. Опять же, школомаксимализм тоже уже был. Согласись, если лично ты не знаешь за какой-то алгоритм, это вообще никак не доказывает что этот алгоритм "невменяемое говно из левого пейпера".
>>820464> Ты текст через машинный перевод прогоняешь что ли?ну да> А для ML лучше питона не придумали. юляша > пиздон > Rговно
>>820469Юляша уже научилась REPL в дебаггере запускать? Я сомневаюсь, потому что как работает LLVM-JIT примерно представляю.
>>820469>юляша > пиздон Откуда вы лезете? >юляшаТам вообще хоть что-то полезное есть?
>>820475Система типов там полезная.
>>820476Зависимые типы штоле? В прошлом треде говорили, что нинужно это в ML.
>>820470https://github.com/Keno/Gallium.jl>>820475> Там вообще хоть что-то полезное есть?Откуда вы лезете?
>>820478И что это?
>>820478Смотри. Я хочу встать на точке останова, взять текущий стекфрейм и, допустим, вывести график какого-то массива в виде мультика. Так можно?
>>820477
>>820477Нет, это динамический язык в котором можно опционально проставлять типы для очень быстрого JIT. Грубо говоря, преставь крестовые темплейты в рантайме (которые работают в рантайме за счет JIT-компиляции). Это система типов Julia.
>>820466Если с аргументом тебе неудобно спорить, это не значит, что он не состоятелен. Большая часть таких методов - это вещи уровня "а вот мы ебались полгода и улучшили показатели в такой-то задаче при таких-то условиях на 0,05% по сравнению с SVM". Наука-то, может, и вперед идет, но на деле никаких новых чудес такой метод не дает, проще больше данных наебенить, чем сидеть и рассматривать эти методы. И scikit learn содержит только лучшее, и при этом в виде консистентного интерфейса. Короче, python - это как мак, а R - это как линукс. Причем оба бесплатные. Одни работают, другие пердолятся.
>>820481ладно да, с дебагом не оченьно так-то ведь всё збс)
>>820487Вот поэтому я ебусь с ворованным матлабом :( Даже для питона не нашел нормальной IDE (хотя и не искал особо), а уж Julia с JIT принципиально ограничена и ближе к С++ по look and feel разработки.
>>820490PyCharmХотя мне, как человеку частично связанному с сигналами, проще работать с матлабом.
>>820490Так можно в pycharm.
>>820499Что за расцветка от Васяна?
начали читать Introduction to Statistical Learning , блять я до 40 стр. дочитал и почти нихуя не понял, а это блять Introduction! Что за ебанутые формулы берущиеся с неоткуда? Откуда их взяли? Это нормально вообще так тупить или вы сразу вдуплились в эту книгу? я уверен что большинство из здесь седящих читали её мб матан подучить, если да то что именно?
>>820503В ISL никакого матана нет, родной.
>>820503где ебанутые формулы?всё должно нормально выводиться или это просто определения
>>820502По умолчанию такая, Darcula.
>>820507>>820506а что это? как это понимать? что это значит? это при чем одна из таких формул котрые раз 20 встречались, нихуя не понятно ведь
>>820510это вероятность того что х0 принадлежит классу jалгоритм берёт К ближайших точецк к x0сумма даёт вероятность для конкретного класса jI(true) = 1I(false) = 0
>>820520спс, но мой вопрос скорее нормально ли то что я этого не понимаю, даже после того как ты разжевал я еле понял как все это работает ибо в каком то треде по ML в шапке было написано мол в этой книге всё разжевано, но я и половины не понимаю
>>820510Все расписывают же, там даже картинка дальше есть из которой должно стать понятным всё.Слева: вероятность класса j из распределения Y для точки x0 из распределения X.Справа: взять K точек около x0 и посчитать сумму значений индикаторной переменной, деленную на К. Т.е. вероятность класса j для точки х0 при произвольном К будет равна количеству рядом лежащих точек с классом j, деленное на K.
>>820466Тибе ж бамбит, паринь. Это потому, что ты и сам знаешь, что Р мертв, но изучать что-то новое ты неспособен.
>>820524а что это за дата сэт вообще, откуда берётся эта вероятнось, предыдущие примеры с зарплатой были более понятные но тут даже ничего абстрактного нету, просто вероятность что в том или ином месте точка будет синей или желтой и ещё есть граница где эта вероятность 50%, где такое вообще на практике применяют? Зачем? Мб начать заново читать эту книгу, хотя боюсь что все равно ничего не пойму
>>820532Применяют для классификации, внезапно.
>>820542классификации чего?
>>820532Тебе объясняют как работает k-means classifier. Все алгоритмы так "абстрактно" работают — сопоставляют заданной точке из дата сета какой-либо класс или число. >откуда берётся эта вероятносьАлгоритм её считает. Алгоритму дают произвольную новую точку, заданную вектором параметров, алгоритм выдает вероятность принадлежности её к классу.>где такое вообще на практике применяют?Ну, ты подставь вместо цветов классы из реальной задачи, а по осям отложи любые параметры. Синие кружочки товар купили, желтые не купили.
следующая волна хайпа будет связана с гауссовскими процессаминовoмодные библиотеки и фреймворки будут реализованы на языке программирования "юляся"глубокие нейронные сеточки уйдут на второй план
>>820550>гауссовскими процессамиВ двух словах суть?Тут кидали блог тётки, но читать лень.
>>820548>заданную вектором параметровсори за очередной тупой вопрос но какой ещё вектор, ни слова о векторе не нашел в том параграфе
>>820553безпараметрическая бейсовская модель с кернеламитренировка - обращение матрицы грама
>>820560Intrinsic Gaussian Markov Random Field?
>>820557вектор - массив
>>820545Любого множества точек. А виде множества точек представимо вообще все что угодно.
>>820557Датасет задан набором векторов (строк). Вектор — n-мерный массив, n — число параметров (фич). Каждый вектор задает точку в n-мерном пространстве. Потом для этого пространства задается метрика — функция, которая берет две точки и выдает расстояние между ними. И так далее.Чтобы понять про что это, можешь посмотреть как делают классификацию текстов.
>>820550> на языке программирования "юляся"А как же симит?
>>820566тогда если я правильно понял, на твоем пике ветора это ТВ и радио которые задают крассные точки, а метрика(функция) это синезелёный квадрат?
>>820570за антисимитизм будет смертная казнькак преступника, так и его семьи
>>820570Захайпленное говно, без нихуя. Никаких преимуществ перед Юлей кроме хайпа нагнанного именем "МИСАЧУСЕСКЕЙ ИНСТЕТУТ ТИХНАЛОГЕЙ" не имеет.
>>820571Вектор — это точка, то есть массив значений параметров. ТВ и радио — параметры, точки задаются векторами вида [значение ТВ, значение Радио]. Метрика нужна для определения расстояния между двумя точками, в обычном случае берется евклидово расстояние из школьной программы. Синезеленый квадрат — это то, что тебе выплевывает алгоритм, плоскость или поверхность, которая, как предполагается, отображает что-то в исходных данных и может использовать для предсказания новых значений.
>>820582то есть вектор это всего лишь точка с значениями параметров? Просто насколько я помню вектор это направление или отрезок, тогда выходит вектор в МЛ это массив со значениями? Поправь если не прав
>>820590Да.
>>820595ок, спс
куда пихнуть .data файл для R на линуксе что б открыть через read.table
пох, уже открыл указав полную деректорию вместо одного названия фала, хотя было б неплоххо узнать все же куда пихать что б открыть не указывая полную деректорию>>820664
>>820666http://astrostatistics.psu.edu/su07/R/html/base/html/getwd.html
>>820670спс
>>820550Рассказывай о их достижениях.
>>820695их нет
>>820590>Просто насколько я помню вектор это направление или отрезокВектор можно рассматривать как направление от начала координат до точки, указанной в массиве.
http://ailev.livejournal.com/1240509.html
Поясните плиз вкратце что такое bias второй раз перечитываю страницу так и не понял.>As a general rule, as we use more flexible methods, the variance willincrease and the bias will decreaseЕсли это, насколько я понял, степень наклона графика, то почему более гибкие методы выдают меньшый bias? ISLR стр. 36
>>821388Думай об этом в терминах overfit/underfit.Bias -- ошибка от того, что извлек из данных грубую модель, слабо чувствительную к твоей выборке. Underfit.Variance -- ошибка от того, что приложил извлек нежную модель, очень чувствительную к твоей выборке. Overfit.Гибкие методы соответственно могут легче сделать overfit и выдать большой bias, ригидные могут сделать underfit и выдать большой variance.см. пикрелейтед гибкое vs негибкое
>>819566По делу есть что сказать? На жабе огромное количество инструментов для бигдаты написано и для машин лёргнинга, а всё, что написано для жабы, написано и для скалы. Рка же - ограниченная хуета и отомрёт из-за питона и Джулии в будущем. У пестона возможностей мало по сравнению со скалой/Джулией.
>>820420>пестон - стандарт для датасцаенс Это где ты такое услышал? Стандарт для даты - это скала.
>>821409Спс, вродь понял что такое bias, но вот насчет твоего примера не пойму, разви variance это не несоответствие графиков в разных дата сетах? Почему тогда грубые (ригидные) методы выдают большой variance, в книге наоборот написанно что большой variance выдают гибкие методы, а у линейного спада variance маленький
>>821431Я обосрался. >Гибкие методы соответственно могут легче сделать overfit и выдать большой variance, ригидные могут сделать underfit и выдать большой bias.Алсо, вот вроде понятное из вики:>The bias is error from erroneous assumptions in the learning algorithm. High bias can cause an algorithm to miss the relevant relations between features and target outputs (underfitting).>The variance is error from sensitivity to small fluctuations in the training set. High variance can cause overfitting: modeling the random noise in the training data, rather than the intended outputs.
точечные оценки сломают вам жизньвсе проблемы с оверфиттингом/выбором моделей можно решить маргинализируясь над постериором и грамотно применяя теорему бейсаалсо бейс выводит оптимальные значения гиперпараметров прямо из данных, без пердолинга с кросс-валидейшеном
>>821449https://www.youtube.com/watch?v=6aNDpVOWJjo
>>821451> вексельштейншалом!
>>821275Крутой блог, спасибо.
>>821449>>820560>>820550А потом может быть до кого-нибудь дойдет, что теорема бейса - частный случай своего более общего нечеткого варианта. Или не дойдет, что скорее всего.
>>821573Обоснуй.
>>821582Что обосновать?
>>821583За базар.
>>821584Обосновывал уже. Вероятность сводится к множествам, бейс - к нечеткому бейсу. http://sipi.usc.edu/~kosko/Fuzziness_Vs_Probability.pdf Местные школьники ответили "ко-ко-коско" (см. оп-пик 2). Причем, все это на фоне кукареканий, что а бейс-то оказывается годнота и даже будующее ML (см. выше). Наркоманы.
>>821573Нечеткое множество неопределенности измеряет совершенно различное количество, чем вероятности и ее меры неопределенности, как функция Хартли (для неспецифичностью) или энтропией Шеннона. Нечеткость и неопределенность вероятностная не влияют друг на друга вообще. Есть целый ряд мер нечеткости доступных, которые количественно оценить неопределенность в границах измерения (это по касательной к неопределенности измерений, обычно обсуждаемых на CrossValidated, но не идентичны). "Пушок" добавляется в основном в тех случаях, когда было бы полезно рассматривать порядковое переменную как непрерывным, ни один из которых имеет много общего с вероятностями.
>>821590Ебал её рука с форчана, мы знаем.
http://www.nvidia.com/object/deep-learning-system.html
>>821750Всего-то 129к далларов))) Зато глубокие нейроночки будут сходиться по 1 месяцу, а не по 3 года.
>>821767https://www.youtube.com/watch?v=bYkl3XlEneA
Слыште, вы, уебки, почему в шапке нет БОЖЕСТВЕННОГО https://www.coursera.org/learn/machine-learning?
>>821885Потому что в книгах в шапке это всё изложено гораздо пизже. А этот курс годится разве что помощникам слесарей.
>>821893Хорошо, тогда какую бы ты книгу посоветовал тому, кто не знает логической регрессии, градиентного спуска и т.д., а знает только как программировать?Какую бы я книгу не открывал, обычно там сразу в лоб, без объяснений, рассказывают о нейросетях и предполагается, что тот кто читает знает что такое логическая регрессия, overfitting, underfitting. Я когда читал эти книги, я просто ничего не понимал. А в этом курсе мне все разжевали, а я просто доел. Очень он хорош для того, чтобы вкатится в ml. После него стало намного понятнее, что в этих книгах происходит.
http://rgho.st/8g68fTCSxДобавьте в шапку две брошюры по deep learning для слесарей.
>>821982Introduction to Statistical Learning, An Elementary Introduction to Statistical Learning Theory
>>821982бишоп и маккай - лучшие вводные тексты без особых требований к читателюграмотно разжёваны все важные темы, типа вариационных методов и гауссовских процессов, параллельно уринируя на классико-и-нечётко-питушковот всего тредика рекомендуем эти книги, не даром же они в самом верху шапки!
>>821985>>821988>>822006Спасибо, мужики, от души. Долго искал книги для чайников, нашел только тот курс. Ну, теперь буду обучаться. Храни вас Бог.
кому мы сегодня пощекотали очко?А. нейро-школотеВ. классико-даунамС. нечётко-питушкуD. R-макаке
>>822006>>822009Поясните уже за все локальные мемесы, заебали своими петушками.
>>822009Бля, месяц был в деревне. Что за классико-дануы? Пидоры с точечными оценками? Частотнобляди?
>>822010нейро-школота - очевидные пидоры, прикатившиеся сюда из-за хайпа с глубинкой, которые хотят объяснения нейроночек на пальцах. Один такой охуел сюда с вопросом: "Нероночка - это что просто массив?" нечётко-питушок здесь унижается с самых первых тредов, кукарекает что-то про оптимальность, коско и нечёткого Байеса, не показывая сколько-нибудь охуительных результатов в ML на основе нечёткой логики. Копипастит свои посты из треда в тред, на что часто в ответ получает пасту от Байесионистов про маргинализацию постериоров с минимизацией KL-дивергенции.R-макака возникла здесь хуй пойми каким боком, вещая про стандарты ЯП в дата сцайнсе. Посылаем фанатиками пиздонистами. Но мы то в /зк знаем, что все эти споры про молотки для долбоёбов, школьников и троллей.А вот про классико-даунов чот сам всё пропустил.
>>822022ещё намечается зависимые-типы-гребешок, с формальными нейроночками на идрисе или что у них там
>>822031и с тренировкой во время компиляции ох лол
>>822009>>822022Шагоход ещё куда-то исчез. Чем там всё закончилось? Напомните, датаны.
>>822022>Один такой охуел сюда с вопросом: "Нероночка - это что просто массив?" Лол, ньюфаг.
>>822008ml-class.org в разы лучше этих книг. Просто тред сам по себе захвачен слесарями, которые пытаются сделать вид, что они не слесари. Отсюда и комплексы.
>>822180> ml-class.org> Linear Algebra Review> Linear Regression with One Variable> Octave/Matlab Tutorial> курс не для слесарейтвой вскукарек заслуживает ехидной ухмылки жёлтого блинчика))
>>817451 (OP)> нейроночка — массивНу нихуя себе поскроллил /pr/.
>>821767>in select countriesУгадай, входит ли сраная в их число.
>>822034На крестах сейчас можно на constexpr все зделоть, даже не напрягаясь с шаблонами. Просто пишешь обычный код, помечая все constexpr'ами, и засовываешь тренировочные данные в код опять же constexpr'ом, и натренируется при компиляции без проблем.
>>822374> срать, не снимая свитерА как выборку в compile-time загрузить?
>>822327Разве не нужно разбираться как оно вообще внутри работает, чтобы понимать как лучше делать? Или это не про МЛ?мимокрок
>>822384нахуя?from theano import *a ботаны пускай дрючат свои формулки))
>>822394жизаа))
>>822381Никак, грю же в код вбивать надо:constexpr double input[][] = {и поехали};
>>822327Не пытайся делать вид, что ты не слесарь. Новых методов ты не разрабатываешь (да и нахуй они не нужны сейчас). Поэтому разница между книжкой и ml-class в одном, ml-class помогает быстро ухватить суть и далее читать документацию по конкретным методам. А книжки твои... это уровня типичного "повторения документации", когда автор хуевой книжки по языку программирования тупо перечисляет методы. Налита куча воды, а толку - ноль.
На реддите рекомендовали курс Нанды https://www.cs.ox.ac.uk/people/nando.defreitas/machinelearning/Чо скажите?
>>822417Lecture 7: Logistic regressionLecture 12: Recurrent neural networks and LSTMsГалопом по европам.
>>822420Чо тебе еще между ними надо вставить?
>>822415о какой ты книжке щас говоришь?
>>822415Ага, а потом ебись с bias-variance tradeoff с этим мизерным количеством знаний. Model selection в mlclass вообще не затрагивается, Байесовской бритвы Оккама нет, вариационных методов нет.Как уже было сказано, этот курс позволяет только вкатиться, дальше нужно дрочить что-нибудь помощнее.Я не говорю, что после этого ты будешь круче слесаря, но хотя бы разряд поднимешь.
>>822423>Model selection в mlclass вообще не затрагиваетсяну про биас/варианс, клюшку и кроссвалидацию рассказали и то хлебушек
>>822423Потому что, внезапно, это курс по machine learning, а не по нахуй никому не нужному statistical learning. Statistical learning умирает и туда ему и дорога, ML как новая дисциплина учит другому и по-другому. Вся суть-то в том, что тред захватили статистические слесари с R головного мозга.
>>822439в чём разница между> machine learning> Statistical learning
>>822443Statistical learning -- наука, статистика, функан.Machine learning -- компьютерные обезьяны.
>>822439> умираетПросто посмотри на количество публикаций по Stat.ML> нахуй никому не нужному> CD-k в RBM> Variational Autoencoders> Variational IMRL> DBM> вероятностное программирование> Гауссовские процессы в управлении и обучении с подкреплениемАга, нахуй не нужно. Статистика в ML жила и будет жить.> R головного мозгаДа, на пиздоне/любой-другой-ЯП этого же не написать.> ML как новая дисциплина учит другому и по-другомуРасскажи нам
>>822439Никто тред не захватил, это официальный тред нейроночек, а над устаревшими петухами тут только потешаются, как над старыми клоунами.
я всё не поймуML можно как-то делать без статистики?как?
>>822454> from sklearn import svm
>>822455Одна из худших вот ай ду картинок, что я видел.
>>822477
>>822455Хотя, не, нормальная. Посмотрев ещё пару итераций, нашёл в ней структуру.
>>822443Ты бы хоть загуглил. Вот, например, рассуждают https://brenocon.com/blog/2008/12/statistics-vs-machine-learning-fight/На курсере есть 2 курса, ml-class от Энрю Ына, основанный на CS229 и конкурирующий от статистика Тревора Хасти. Можешь сравнить подходы. И какой подход лучше УЖЕ очевидно - это именно ML-коммьюнити всю движуху делает, а статистики копашатся в том говне, которое и пять лет назад тем же говном было, и десять, зато пафосу при этом куча - хули, они же фундаментальные, а ML - это обезьяны. Особенно смешна попытка представить, будто в ml-class нет теории (все эти аутичные шуточки про import svm), хотя она там есть.ML по сути смежная дисциплина на стыке наук, которая взяла что-то из статистики, но оверхайпить при этом статистику не нужно, вся это байесовщина тебе ничего не даст.И главное как бы похуй, может халялные фундаменталисты статистики и окай, но нахуя подсовывать эту парашу в оппосте и делать вид, что это и есть machine learning? Типа Machine Learning: A Probabilistic Perspective, Introduction to Statistical Learning, Elements of Statistical Learning? Отдельный мусор - Нечёткое моделирование и управление. При этом нет ни ml-class (даже в виде CS229), ни книг deep learning. Ибо нехуй, деды страдали, и ты страдай.
>>822481> книг по deep learningПредобучение -> статистический подход в автоэнкодерах и RBM.inb4: pretraining is dead
>>822481В посте все верно расписано. Statisticians -- ученые, ориентированные на научную работу и публикации. ML -- обезьяны с модными баззвордами и конференциями.
>>822490Окей, теперь посмотри на название треда, и съеби в свой. Упс, в него же никто заходить не будет, ведь это обезьяны state of art на ILSVRC делают.
>>822493Тренд для стремящихся ML-обезьян, которые хотят стать хоть немного человекоподобными.
терминология-срачи это всегда увлекательновспомнился дебил с backpropagation vs gradient descent
>>822484Статистические методы - это как асм в 90-е годы. Когда вроде бы еще и остались места, где он нужен, но понятно, что это не надолго, и далее ниши будут совсем узкими. Но пафосу при этом от красноглазых васянов, умеющих в masm32 и сегментированную память столько, что все вокруг, кто пользуется высокоуровневыми языками - обезьяны.Так и здесь. Никаких прорывов в state-of-art статистики не делают, в тырпрайзе же вообще ML слесарная работа по подбору лучшего алгоритма и этот слесаризм может быть автоматизирован целиком, но нет, деды пердолили LDA, QDA и прочую хуйню, и ты пердоль. А то как же.
>>822499Это не терминология-срач, это подход-срач. Кому-то не понравился божественный ml-class и вместо него советуется какашка в виде Introduction to Statistical Learning из оппика. В которой на 265-й странице (после охуенно нужного QDA например) пишется следующее:>Polynomial regression extends the linear model by adding extra pre- dictors, obtained by raising each of the original predictors to a power. For example, a cubic regression uses three variables, X, X 2 , and X 3 , as predictors.Это когда Ын дает это второй неделе (http://www.holehouse.org/mlclass/04_Linear_Regression_with_multiple_variables.html). Большая разница, однако.
>>822517так разница только в порядке подачи материала?
>>822530Не только, но и в акцентах. Разные дисциплины по сути.
>>822500Однако знание низкоуровневых основ порой помогает программерам писать более качественный код. Здесь то же самое.
>>822557Сейчас низкоуровневые основы - это плоская модель памяти (+кэши), сишка, интринсики. А не особенности синтаксиса masm и реальный режим процессора. Вот Ын он дает тот низкий уровень, который нужен в ML. Градиенты, нормальные уравнения, SVM там, хуе-мое. А не гауссовские процессы, от которых бежать надо, как от чумы.Поехавшее утверждение #1: >>820550 Здесь как бы видно сразу, что оно поехавшее, чел замахнулся ни много ни мало, на state of art, причем беспруфно. Но далее раз >>822006 и два >>822008Т.е. тот есть то же утверждение кормит ньюфага говном. Что гауссовские процессы-то, важная тема, оказывается. Хотя это типичный статистикодроч. Который да, используется в ML, но по важности он где-то на уровне дна.
>>822567> А не гауссовские процессы, от которых бежать надо, как от чумы.Чому это?
>>822641Читать придется, а эта сложна нипонятно тупо
>>822567> Градиенты, нормальные уравнениялол, это же школьная примитивщина, при чём тут мл-чик?> вскукарек на божественные гауссовские процессыобоснуйгауссовские процессы в каком-то там пределе эквивалентны нейроночкам, при этом обладая замкнутой формулой для тренировкии заслуживают не меньшего дроча> прочее кококолень кормить такую толстоту
>>822905>гауссовские процессы в каком-то там пределе эквивалентны нейроночкамТипичный вкукарек а-ля фуззипетух. Все в каком-то пределе эквивалентно, но нас-то интересует, как решать задачи, а не ковыряться в в говне ради ковыряния в говне. В говне пусть статистики типа тебя ковыряются.
>>822929>но нас-то интересует, как решать задачиТипичные быдло-вскукареки. "У нас тут мозолистые руки от укладки шпал, а вы там со своими когомологиями де Рама возитесь, мрази!!"
https://www.coursera.org/learn/probabilistic-graphical-models
>>823110Дафна пиздата, но прошлый курс как-то мне не очень вкатил.
>>823117мало задачек/теории?думаю попробовать пройти
>>823121Курс показался очень поверхностным. Сейчас попытаюсь посмотреть ещё раз.Вообще, почти всё необходимое по теории графических моделей есть в "монстре":https://people.eecs.berkeley.edu/~wainwrig/Papers/WaiJor08_FTML.pdfДля прохождения курса и адекватного его понимания неплохо было бы понимать основы Байесовского вывода и Байесовскую теорию принятия решений.
Кстати, есть кто-нибудь разбирается в графических моделях. Есть какой-нибудь прок от junction tree algorithm вообще? Или лучше сразу ебашить variational message passing или expectation propagation?
>>823138В своих статьях Минка говорит, что EP работает примерно так же хорошо, как и точный вывод, но быстрее.
Пацаны, что посоветуете почитать по нейросетям? Чтоб было побольше практики.
>>823391Практики а ля from keras import *?
>>823392Ну, чтобы кода было побольше. Хочу вникнуть в саму суть нейросетей.
>>823394сначала нужно разобраться с линейной и логистической регрессиямину и гауссовские процессы не помешаютвсё это есть в бишопе/маккае
>>823422Линейную и логистическую регрессию я уже кое как знаю. А зачем гауссовские процессы?
>>822394>*Предлагаю заменить на "всю хуйню"
>>823101Я уважаю математиков. Они тусят в /sci/ в своем треде и обсуждают действительно что-то возвышенное и неведомое (кто из них картофан, например). А вас я не уважаю, потому что вы балаболы, которые человеку, который задал вопрос про нейросети, впаривают гауссовские процессы, а свой тред назвали почему-то machine learning, чтобы впаривать свое говно другим. Вы как ебаные MLM-щики.
http://www.gaussianprocess.org/gpml/chapters/RW.pdf
>>823426ну тогда начинай читать бишопа или маккаяу них наиболее толковые введения из встречающихсяу бишопа алсо есть целая книженька о нейроночках "Neural networks for pattern recognition" написанная до начала хайпа dl
http://colah.github.io/posts/2014-03-NN-Manifolds-Topology/Интересно.>The manifold hypothesis is that natural data forms lower-dimensional manifolds in its embedding space. There are both theoretical and experimental reasons to believe this to be true. If you believe this, then the task of a classification algorithm is fundamentally to separate a bunch of tangled manifolds.
>>823517А что ты посоветуешь по нейросетям тогда?
>>823688cs231n, http://www.iro.umontreal.ca/~bengioy/dlbook/, http://deeplearning.stanford.edu/tutorial/ , блог colah.github.io , http://karpathy.github.io/2015/05/21/rnn-effectiveness/
Delphi+CUDA=pascuda?
>>823846Это нонсенс.
С кудой лучше всего обучать батчами. Когда я пробнул обучение батчем, у меня получилось так, что сетка приспособилась к нагенеринным данным(перед этим я обучал не батчем), но новые данные стала распознавать еще хуже.
>>823706Спасибо.
Так, пацаны, я вкатываюсь кароч, берегитесь.
>>824051ну как? ещё не выкатился?
>>823706этот анон шарит. он читает colah.
>>823863> лучше всего обучать батчами> ухудшилась производительность на тестовом сете
В предыдущих тренделях было крайне дохуя шикарных паст и мемсов.Давайте соберём их в одном месте?
>>824338Хуйня же протухшая.
Гауссовские модели процессов, как они применяются в области машинного обучения являются привлекательным способом сделать непараметрического байесовского моделирование в поднадзорной задачи обучения, и поэтому их сравнения с нейронными сетями (которые, как правило, параметрический, и оптимизированы для получения точечной оценки) является немного несправедливое сравнение. Они также могут быть привлекательным способом добавления дополнительной информации в виде до более функций многих параметров (см Adams, Dahl & Мюррей, от UAI 2010). Их недостаток заключается в том, что они масштабироваться довольно слабо (логический вывод, а точнее, это O (N ^ 3) дело, хотя есть некоторые хитрости, которые были предложены), в то время как нейронные сети, как параметрических моделей, которые могут быть обучены онлайн с помощью стохастического градиентного спуска , имеют почти наиболее благоприятные свойства масштабирования мыслимые.Нейронные сети также могут быть сделаны непараметрический, принимая число скрытых блоков до бесконечности, и в этом случае оказывается, что такие "бесконечный скрытый слой" нейронные сети эквивалентно гауссовских процессов с определенной ковариационной ядром. См 1994 кандидатскую диссертацию Рэдфорд Нила, Байесовское обучение нейронных сетей.
>>824388квору все умеют читать
>>824390> 01:13:14 > 01:15:05 а ты быстрый
Есть одна плоскость на которой дохуя точек. Точки имеют цвет. Задача узнать есть ли где-нибудь на плоскости скопление точек одного цвета. Есть обучающие выборки. Что почитать чтобы такое сделать? Мне не нужен весь ml мне нужна только одна программа
>>824574http://scikit-learn.org/stable/auto_examples/neighbors/plot_classification.html
>>824580А если мне не известно минимальное расстояние до k-ого соседа чтобы назвать группу точек скоплением и не известно k? Как получить эти данные из обучающих выборок?
>>824582А что в выборках?
>>824574>>824582бейсовская вариационная комбинация гауссовых распределений (bishop, PRML 10.2 глава)k выводится прямо из данныхминимальное расстояние выводится прямо из данных
>>824587То же что и в тестовых, но только есть координаты и радиус скоплений которые вручную обозначил.
>>824595Если вы все еще задаетесь вопросом, почему нам нужна эта вещь, то вот маленький бонус: байесовский регрессионный иммунитет к переквалифицироваться (переобучения). И я не имею в виду только "стабильный" или "надежный" как регресса с регуляризацией - в определенной степени это, как правило, иммунитет к нему.Что переобучения, опять? Именно тогда, когда мы "слишком настроить" модели имеющимся данным (например, выбрать кривую, которая идеально проходит через точку набора данных, но будет показывать плохие прогнозы на новых данных). В переводе на философский язык в последнем разделе, это означает, что, когда мы искали «правых» набор опций, мы нашли некоторые неправильно, неправильно. Это невозможно сделать с байесовского подхода, потому что просто нет понятия «права» набор параметров! Странно, черный и желтый конус на картинке выше говорит нам: "Да, скорее всего, следующие пункты будут находиться где-то в середине вдоль белых линий, но может оказаться на краю, а сверху и снизу, без проблем. " Степень полинома может быть увеличена столько, сколько нужно: с это увеличит число возможных кривых, и каждый из них по отдельности уменьшит вероятность.
>>824655Вы можете смеяться все, что вы хотите, но я в принципе знаю двух принципов для лечения сложных систем в простых способов: первый принцип модульности, а второй является принцип абстракции. Я апологетом вычислительной вероятности в машинном обучении, потому что я считаю, что байесовский теория вероятностей реализует эти два принципа в глубоких и интригующих способов, а именно - через факторизации и через усреднение. Эксплуатируя эти два механизма настолько полно, насколько это возможно, мне кажется, что путь вперед в машинном обучении.
>>824597Ну, это тогда простая задача классификации, если у тебя есть набор точек размеченных по кластерам. Бери опорные вектора и вперед. http://scikit-learn.org/stable/auto_examples/svm/plot_iris.html#example-svm-plot-iris-py
Помогите нейрошколоте великовозрастной с выбором курса ( на книжицы нет времени). Есть два варианта:https://www.edx.org/course/applied-machine-learning-microsoft-dat203-3x#!https://ru.coursera.org/specializations/machine-learning
>>825688>https://ru.coursera.org/specializations/machine-learningЯ второе дропнул. После божественного ЫНа выглядит убого, растянуто и бесполезно
https://arxiv.org/pdf/1511.09230v1.pdf
>>825712>божественного ЫНаЧто это? В шапке треда не нашел.
>>825748ml-class.org
>>825712поддерживаю
Хера се сколько текста под куда на один конволюшионал слой и это мы еще не дошли до обучения.http://igm.univ-mlv.fr/~biri/Enseignement/MII2/Donnees/convolutionSeparable.pdf
>>825870Это не про слои же, а просто про эффективную реализацию свертки под куду.
Почему на kaggle сбрасываются результаты соревнования digit recognition? Я хочу заходить к себе в профиль и видеть там, что у меня 98% распознано. Чому все так?
>>825979как то связано с тем что соревнование тренировочноегде-то читал, уже не помню
>>825907Ну да, а со слоями там хер пойми вообще что.Какой пиздец.ATL is not available in Express version of Visual Studio. CImage class
>>826079> ATL is not available in Express version of Visual Studio. CImage classСлоупочное мелкомягкое говно, лучше бери OpenCV или dlib. Хотя тоже сорта говна.
в шапке треда нихуя не написано, поэтому спрошу тут. Хули в делаете ребята? зачем это все? Я нихуя не шарю в матане. Сегодня я узнал, что такое тензор. Ну как, посмотрел видосик на 13 минут и понял что это типа вектор, только не первого ранга, а разных...В общем я тоже хочу вкатиться, тема видимо интересная.Скажите с чего начать? Я могу писать на это вашем пистоне например бэкэнд. Сделал штук 15 задачек на projectEuler или как его там блять. Скажите что это, с чего начать, откуда читать и тд. спасибо.
ах ну еще зашел на www.kaggle.com и тоже нихуя не понял.
>>826102Сначала >>825776Потом книжки из шапки
Пацаны, что думаете о "Л. П. Коэльо, В. Ричард - Построение систем машинного обучения на языке Python"?
>>826495Платиновый вопрос. Хуйня.
>>826508Обоснуй?
>>826514Держи цитату из книги за щеку:"Математические идеи, лежащие в основе метода латентного размещения Дирнхле, довольно сложны, и мы не будем вдаваться в детали. Интересующиеся читатели с авантюрным складом ума найдут все относящиеся к делу уравнения в википедии по адресу en.wikipedia.org/wiki/Latent_Dirichlet_allocation ."> мат. идеи - детали> не будем вдаваться в детали> детали для авантюристов> ссылка на википедиюХочешь лёгкого введения? Пиздуй к Ыну.
>>826531это не аргумент-> >>826514
>>826495Хуйня, причем из-под коня. Обыкновенная документация к пистоновскому пакету для ML, сцикит или как там его, ну плюс некоторые бесполезные комментарии. Мне другое интересно, почему пикрелейтед шлюха - какой-то стандарт в области обработки изображений? Встречал эту фотку в самых разных книгах.
>>826557Просто прижившаяся шлюха из плейбоя. Пацанам нравится её Фурье спектр и всё.
>>826558Я бы сделал свёртку в её вейвлет-преобразование.
>>826557Побольше уважения к Ленке.
>>826564Ленка коленка
>>823706>karpathyTRIGGERED
>>821452Ауф видер зиен!
>>820595Отсыпь своего терпения, анон.
Истинно вам говорю, школьники, будущее ML - это нейроночки и не только на языках с зависимыми типами. Можете скринить. Абсолютно корректные алгоритмы, соответствующие спецификациям - это то, что откроет нейроночкам путь в серьезный продакшен и промышленные решения. Вот пример многослойного перцептрона на хачкелле - https://www-lisic.univ-littoral.fr/~dehos/nn42h/index.html https://themonadreader.files.wordpress.com/2013/03/issue214.pdf http://colah.github.io/posts/2015-09-NN-Types-FP/Вот эту книжку http://haskelldata.com/ http://gen.lib.rus.ec/book/index.php?md5=37E36A4652A2355552FFFC7180D6E81B в шапку треда добавьте.
Вот еще на окамле нейроночка https://github.com/ihodes/brainy-caml 162 строки, прошу заметить.
И лекция про имплементацию нейроночки на окамле же.https://www.youtube.com/watch?v=HanQoB-dXBM
Хипстеры уходите. Пока ваше говно не компилится в код для видеокарты оно вообще никому не нужно.
>>827947Видеокарты и прочее наращивание системных требований до бесконечности - это путь в никуда. Маняалгоритм, которому для работы нужен кластер из сотен GPU - это хуйня без задач, а не алгоритм для повседневной работы.
>>827943Да хоть на губной гармошке. Лучше бы под ЖПУ учили как делать, не все хотят юзать питон с готовыми решениями.
>>827956А пистон и не нужен. Будущее языков программирования - это зависимые типы. Говнокод на говноязыках, работающий не как нужно, а как получится, программное обеспечение, в котором глюк на глюке едет и глюком погоняет, все это так или иначе отомрет за ненадобностью.
>>827956>>827947двачнупользуясь случаем: посоветуйте библиотеку алгебры под видюхухочу чтоб все операции с матрицами выполнялись на видюхе, при этом без куда-ёбли в моём коде
>>827935Среди шведов тоже говноглазые встречаются?Не знал...
>>827965>рабби Лёф>шведОй-вей. Шведы у заезжих нигр kuk сосут, губой трясут, и детей своих к этому же с детства готовят. В то время как Люди создают целые парадигмы в математике.
>>827969> Шведы у заезжих нигр kuk сосутSverige ja!
>>827935>с зависимыми типамимакс, ты?
>>827963torch вроде могет
>>827980Нит, ни я)) Сохатского отсюда выгнали ссаными тряпками, и тред его снесли, хотя он единственный серьезный программист в этом разделе, вряд ли тута еще кто-то осилит написать свой прувер (!) да еще на ерланге. Но факт остается фактом - единственный способ избежать ошибок в ПО - это изначально писать его на правильных языках, с возможностью проверки корректности, а не на бесполезных парашах. К ML все это особенно относится, т.к. там важна полная прозрачность происходящего, а не мутное шаманство, которое никто толком не может объяснить (типа "магического коэффициента" в многомерной проекции Сэммона).
>>827992покажи свой гитхаб с правильным мл кодом
>>827993Че сразу свой-то? Я говорю о том, что это перспективное направление, на эту тему пока почти ничего нет, я выше постил же примеры нейроночек на хаскелле в 42 строки и на окамле. Даже целую книгу принес про анализ данных на хаскелле. Правильный мл на ЯП с зависимыми типами - это дело будущего, хотя и обозримого.
>>827999> после предложения обосновать своё кукареканье школьник жиденько обдристалсяок
>>827999Блджад, вот за книгу спасибо. Обмолофился от содержания, надеюсь, что будет очень годно.
алсо> зависимые типыпри чём тут вообще хаскел? и тем более мёртвое кемло-говно
>>828010Их на нём тоже можно реализовать.
>>828013ну покажи поцанам нейроночку на хачкеле с завтипами лол
>>828014Вот это https://www-lisic.univ-littoral.fr/~dehos/nn42h/index.html я для чего выше давал?
>>817451 (OP)>нужна математика?>для начинающего ничего особого знать не нужноОпять наёбываешь?
>>828015там нет завтипов
>>828017А это не типы, зависящие от параметров?
>>828017Я говорил, что их самих можно в хачкеле реализовать, а на счёт машинного обучения я не в курсах.Is Haskell a dependently typed programming language? Manywould say no, as Haskell fundamentally does not allow expressionsto appear in types (a defining characteristic of dependently-typedlanguages). However, the type system of the Glasgow HaskellCompiler (GHC), Haskell’s primary implementation, supports twoessential features of dependently typed languages: flow-sensitivetyping through Generalized Algebraic Datatypes (GADTs) (Peyton Jones et al. 2006; Schrijvers et al. 2009), and rich typelevel computation through type classes (Jones 2000), type families (Chakravarty et al. 2005), datatype promotion and kind polymorphism (Yorgey et al. 2012). These two features allow cleverHaskellers to encode programs that are typically reputed to needdependent types.
>>828015И где тут зависимые типы, школьник?Не позорь хаскеллистов
>>828018неа, прост переименования
>>828023Почему нет-то? Есть типы, зависящие от параметров. Получают входные значения и выдают выходные. Что еще надо?
>>828020> на счёт машинного обучения я не в курсахчего тогда раскукарекался в мл-треде?
>>828016?
>>828024Так толсто, что даже тонко.
>>828034Где толсто-то?
собираю свой первый комплюхтер для мачин лёрнингарейт
>>827963>посоветуйте библиотеку алгебры под видюхуcuBLAS
>>828056осторожно с материнкой и процем. Они должны поддерживать 16 PCI дорожек на полной скорости.Вот мой конфиг для референса:Name PriceSeagate Technology Desktop HDD - 3 To $106.40Kingston Kingston Technology SSDNow KC300 - SSD 180 Go $108.00Intel Core i7-5930K $622.00Kingston HyperX FURY noir 16GB (2x8GB) DDR4 2400MHz CL15 $150.00ASUS X99-A/USB 3.1 $271.50Corsair RM1000 - 1000W $178.60BitFenix NEOS $43.90
>>828066> осторожно с материнкой и процем. Они должны поддерживать 16 PCI дорожек на полной скорости.незнал, спасибонадо больше узнать по этой теме перед покупкой
>>828068и еще мне непонятно зачем тебе столько SSD. Обычно схема такая: память на гпу 24гб, туда ты загрузишь модели и батч, батч не превысит 200мб, соответственно тебе нужно будет загрузить в память максимум 100 батчей, что будет 20Гб, соответственно берем 32Гб оперативки. В оперативную память с ссд загружается все довольно медленно, плюс трудно представить себе обработанный датасет больше 200Гб. Даже необработанный ImageNet меньше. А потом ты фигачишь необработанные датасеты и просто всякие долго хранящиеся вещи с ХДД драйва.
Есть два набора точек. Допустим, расположены они произвольно, хоть друг на друге, можно их деформировать и поворачивать, лишь бы результат был. Показал для наглядности рядом. Как для каждой точки в одном наборе найти пару для другого? Если просто начать парить самые близкие, то вскоре начнут соединяться уже очень далёкие точки. Хотя путём уступки можно было освободить пару для точки, которая отстояла бы чуть дальше, но суммарная дистанция двух получившихся пар была бы меньше. Нихуя не понятно объяснил, наверное. Нужно найти именно пары, а не оптимальную матрицу трансформации для одного из наборов точек.Ваши шальные мысли.
>>828357Приблизительная демка перехода наборов один в другой для спейренных и рандомных точек.
>>828124вообще особого смысла ssd брать нет, возьму простой винт на пару тбмощный процессор вроде тоже не особо нуженнасчёт 2 видеокарт не уверен>>828357я беру каждую точку из первого набора и сопоставляю её со случайной точкой из второго на видюхе
>>828357Что такое пара?
>>828428Вот точки, которые спарены рандомно и так, как мне хочется. То есть чтобы суммарная длина была самой оптимальной (со штрафом для длинных, чтобы две полуметровые дистанции были лучше, чем нулевая и метровая).Заметь, что редко, когда ближайшей синей соответствует ближайшая жёлтая. То есть пара была переуступлена более далёкой для всеобщего блага.
>>828440А, и тут неоптимально найдены пары, лишь по большей части. Я руками это делал.
>>828378>особого смысла ssd брать нетесть, загрузка данных в память с диска для больших датасетов норма, каждая секунда при обучении будет превращаться в дни.>мощный процессор вроде тоже не особо нужену меня знакомый из соседней лабы купил титан х паскаль и оставил свой старый ксенон. В итоге он использует видеокарту на 10-20 процентов. Для него это означает что код работает не день-два а неделю.
>>828357>>828374>>828440Двунаправленные карты Кохонена - XYF или BDK. Первый набор на вход, второй на выход. https://www.jstatsoft.org/article/view/v021i05/v21i05.pdf
Бля, хотел вкатиться в машин лернинг, думал типа буду пиздатым, а тут написано что все машин лернингисты - слесари и компьютерные макаки. Хочу ученым быть епт и свои алгоритмы придумывать
Тут есть биоинформатики? Что из машинного обучения посоветуете выучить в обязательном порядке?
>>828606>Хочу ученым быть епт и свои алгоритмы придумывать Ну так придумывай. Я вот придумывал, только реализовать руки не доходят, долго и сложно жи.
>>828606Получай магистра, потом доктора по мл\прик.мат.\кс или чему-то подобному, потом будешь алгоритмы придумывать.
https://www.udacity.com/course/intro-to-parallel-programming--cs344cud-cud-cuda!
>>828519ну окесть ли какие нибудь спец-требования по охлаждению?
>>828837Эта шутка была здесь 2 года назад, как сейчас помню.
>>828845))
>>828981конкретно с кудой и бегущими петухами
Спиздил ссылку с БД треда. Были нейроночки на хачкелле, камле, вот вам на сиквеле:http://blog.itdxer.com/2016/07/01/neural-networs-in-mysql.html
>>828842стандартные: если будет греться до выше чем 85, добавь в smi-settings config управление вентиляторами и выкрути их на 100 по умолчанию.
Объясните второй пик из оп поста пожалуйста.
>>828374>>828440Олтичные гифки, как делал?
>>829001Это норма, говорили ж что нейроночка = массив.
>>828613Нейроночки учи, датаслесарь.
>>828606Любая пхпмакака, считай, "придумывает алгоритмы". Подобно тому как слесарь "придумывает алгоритм" как добраться до поврежденной трубы, минимизировав контакт с говном.
>>830241Не пизди, нихуя они не придумывают, даже не пишут реализацию уже известных, просто импортируют библиотеки и все.>>830239И зачем они в биоинфе?
>>830277Ты тоже не в машинных кодах пишешь. Последовательность вызовов библиотечных функций тоже алгоритм.Как зачем? Все теперь на нейроночках будеть, тебе разве не сообщили? Скоро нейроночки все протеины повычисляют, и мы тут бессмертными сидеть будем, до скончания веков. Просвещайся, лапоть: http://www.nature.com/nature/journal/v521/n7553/abs/nature14539.html
>>830289Ну причем тут машинные коды, ты же понимаешь о чем я. Новые алгоритмы, всякие блять нейросети, вот это все придумывать.Там платно. И вообще, такое ощущение что весь дипленинг переоценен, вот квантовый компьютер изобретут, туда дипленинг впердолят вот заживем
>>830308Лови бесплатно: https://www.cs.toronto.edu/~hinton/absps/NatureDeepReview.pdfНейросети придумывать это в науку надо. Умей различать МЛ как научную область (там надо быть ПхД и публиковать статьи) и МЛ как слесарное дело (там надо import tensorflow as tf).
>>830350Пиздец ты дурик, он тебе про это и писал.
>>830139Нейроночка - таблица.
>>830308Тут по поводу квантов в вычислениях такая мысль есть:https://youtu.be/T1Ogwa76yQotl;dr: кванты мертвы, мир детерминирован
>>830241Как вы заебали с своими охуительными сравнениями мл с слесарным делом и сантехникой. Так получается что врачебное дело сантехника. Да почти все. А что не слесарство тогда?
>>830841Всё слесарство, даже дрочка.
>>827963>>827981 >>828057 взял короче http://arrayfire.org/docs/index.htmhttps://github.com/JuliaComputing/ArrayFire.jl/в целом охуенная вещькуда-гемора вообще никакого, пользуешся как обычными матфункциями из библиотекижаль только свд и чолески на видюхе притормаживаютслесарь с видюхой
Подскажите туториал, чтобы быстро вкатиться в сентимент-анализ. Хочу хотя бы простейший рабочий пример, чтобы было откуда двигаться.
>>830938Уточню пожелание - примеры на простейший сентимент анализ текста целиком с разбиением на N-грамы у меня есть. Меня интересует извлечение из большой статьи троек [объект, субъект, отношение].
>>830938>>830941http://nlp.stanford.edu:8080/sentiment/rntnDemo.html
>>830942Спасибо, держи исследование Sentiment Analysis in Financial News.http://muonium.rgho.st/8fmkRsRcF
>>830841Так и есть. Это помогает от снобизма и неумеренного ЧСВ. Некоторые макаки возомнили о себе невесть что, придумали себе титул "data scientist". Ну какой ты ученый, если ты просто чистишь данные и запускаешь хгбуст/нейроночки на видюхе? Эти чуваки разбираются в науке не лучше слесарей, каковыми по сути и являются. Так и появился термин "data plumber", точно описывающий суть этой работы.Скромнее надо быть, и реально оценивать себя и свои достижения. Самозваных "ученых" с распухшим ЧСВ никто не любит.
>>831069зануда
>>831069Чётко пояснил, две видюхи этому господину.
>>831069Термин data plumber имеет другой смысл, если верить этой статье http://www.business2community.com/tech-gadgets/big-data-you-dont-need-a-data-scientist-you-need-a-data-plumber-0268818#9MjOx8Du7djIFEve.97он не подразумевает уничижительного оттенка.А вообще, data sceintistы именно сидят во всяких лабораториях и разрабатывают новые методы. Просто слово стало как слово ПРОГРАММИСТ, которое теперь обозначает вообще всех, начиная от системных архитекторов и заканчивая теми, кто помогает тетенькам из бухгалтерии принтер настроить
>>831069>>831391>>831338ДАТАСЛЕСАРЬ
>>831799Data MinerШахтер по даннымСфера деятельности же называется Data Mining.
Признавайтесь, кто из местных запилил? https://twitter.com/neuromzan
>>817451 (OP)bump
купил таки новый комп для млвзял нормальный проц и7, 30гб оперативки, ссд ещё 500гб, всё как советоваликарточку решил всего одну брать, потом всегда можно добавитьзначит на видюхе перемножить 2 матрички 10к х 10к занимает полторы секунды, это нормальная производительность?на чистом проце уходит секунд 8
>>833331Ты так спрашиваешь, словно купил себе пк для мл, а не знаешь зачем толком.
>>833337Нахуй иди и свою говноконфу забери. Пожаловался.
>>833350Ябеда
>>833352Ябедничать - это хорошо. И только в воспаленном сознании совка это что-то плохое.
>>833331>OpenCL
>>833331схуяли у тебя форточки. ты его гамать купил, а не МЛ хуячить?
>>833334> Ты так спрашиваешь, словно купил себе пк для мл, а не знаешь зачем толком.очень хочется вкатиться в мл, но мне надоело ждать пока мои поделки выполняютсяпробовал делать кагловский "титаник" на гауссовских процессах, одна итерация градиентного подъёма занимала несколько секунд на моём старом ноутбуке>>833438>OpenCLэто сильно плохо? восьмая куда ещё не вышла>>833624> играться в игрули в 23 годика)
>>833670То есть ты, полуебок, вместо того, чтобы ботать бишопа для "вкатывания в мл", побежал получать наслаждения от покупки нового компа? Далеко пойдешь. Не забудь еще новый стол купить, мебель обновить, а то с этой как-то плохо работается.
>>833682> ботать бишопая его с марта ботаю, уже надоело, лолхочется больше хэндс-он экспириенса
>>833707Ну так попробуй еще раз "титаник" и сравни.
а хуле в шапка ни курса ни с едкс ни с курсеры?
>>834225Чтобы эти ебанутые вопросы с платиной появлялись по десять раз за трендж, мелкобуквенная ты поебота.
>>834285тссс, не надовдруг это будущий %ИМЯ_ВСЕМИРНОГО_ИЗВЕСТНОГО_ЭКСПЕРТА_ПО_МЛ%
>>834285нахуй ты грубишь, пидор, это мое право писать с большой или маленькой буквы, по делу лучше б ответил бы, агрессивный выблядок.
>>820508В Darcula нет вырвиглазного черного фона редактора.
>>834487Возможно, я сам настроил. Быдло не может в православные цвета.
>>834487Хотя, вот пикрелейтед из гугла.
>>834494>>834492Это всё кастомизация.Поставь новую копию с дефолтными настройками и увидишь.
>>834509У всех так скастомизирован?
>>834527А ты не замечаешь, что на всех пиках по-разному фон у редактора выглядит?блять, ты споришь с человеком который эту самую Идею минуту назад из исходников компилировал и запускал, чтобы пофиксить багу
>>834597> Идею минуту назад из исходников компилировал и запускал, чтобы пофиксить багуКулстори сис
>>835356Лол, как будто это дохуя сложно. Там инструкция на гитхабе есть для этого.
Хочу вкатиться, но не знаю как. Работать в яндексе не потяну.Кодил всякие вещи на векинатор, ну с mnist и прочими тензорфлоу игрался. Живу в мухосрани, чем бы мне таким заняться в ML, чтобы не пропустить очередной тренд? Или всё таки машинное обучение останется прерогативой больших компаний вроде Гугла и Байду, а простые ML-макаки повсеместно нужны не будут? Есть, конечно, вариант сделать ололо-стартап вроде призмы. Но что-то нет идей/готовых алгоритмов, для которых можно сделать красивую обёртку, не делая научных открытий в области ML. Ну и очередной конв-нет "хаха-смотрите, моя софтина рисует как Моне))" никому не нужен. Все говорят про повсеместное использование, уже даже нейронные процессоры появляются, но где всё это использовать - не очень понятно. Что думаете?
Наткнулся на такой гайд, если кому интересно:https://www.quantstart.com/articles/How-to-Learn-Advanced-Mathematics-Without-Heading-to-University-Part-1
Сап, котаны. Решаю проблему мультиклассовой классификации таким методом, что соединяю классы в определенные мета-классы и выстраиваю это все дело в дерево. На каждом узле дерева присваиваю признакам разные весы и в конечном итоге классифицирую ближайшим соседом. Есть кто занимался чем-то подобным или хотя бы слышал/читал, подкиньте какую-нибудь литературу или статьи без хардкорной математики. Эту йобу я придумал сам, потом нагуглив классификаторы называются иерархическими, а конкретно мой пример вроде как local per node classifier. Вот здесь чуваки занимались чем-то подобным goo.gl/UGOmSB например.
Ребята, поясните неофиту. Нужно кластеризовать объекты, с разными метриками по разным признакам. Условно, если у объекта есть текст и координаты, то оценивать схожесть нужно по cosine similarity с tf-idf для текста и эвклиду по координатам. Но одна мера в километрах, а другая попугаях. Достаточно ли стандартизировать матрицы расстояний и сложить их?
Тут вам вряд ли помогут, тут сидят олухи которые только и умеют что кричать ОЛОЛО НЕ УЧЕНЫЙ А САНТЕХНИК))))
>>837952Сантехнику неприятно.>>836781Я думаю что жизнь пройдет мимо тебя. Какой в мухосрани МЛ может быть?>>837931В кластеризации метрику тебе придется самому делать, исходя из здравого смысла. Стандартизируя матрицы ты искажаешь расстояния.
>>838081>Сантехнику неприятноНет, вы оффтопите вместо нормального обсуждения.
>>838081Почему искажаю, скорее привожу к одной шкале.
Ку, привет, двачаны.хочу спросить совета:1) Вот книга по тер.веру. Годная? http://www.math.louisville.edu/~pksaho01/teaching/Math662TB-09S.pdfЕсли нет, посоветуйте лучшую.3) Если выше книга годнач, идти дальше по пути ( https://www.quora.com/What-are-some-good-books-for-learning-probability-and-statistics )Говно/не говно?2) Есть ли годнач на курсере по тер.веру и статистике.
>>840044у (((розенталя))) есть хорошие книги и не вода на 700 страницалсо если тебя интересует мл то можешь сразу начать читать книги из шапки
>>840185Спасибо, прочитаю.Я ничего не пойму из этих книг, за спиной только школьная база. (Я не про английский, а про матем.)Уж больно сложные формулы.Ну а так, спасибо.
https://medium.com/learning-new-stuff/machine-learning-in-a-year-cdb0b0ebd29c#.hjw2pjc9r> Я продолжал учиться в свое свободное время и почти ровно через год я сделал свой первый проект мл на работе, которая связана с использованием различных мл и обработки естественного языка (NLP) методы, чтобы квалифицировать продаж приводит в Xeneta.> Это ощущается как благословение: получать деньги, чтобы сделать что-то я обычно делал для удовольствия!> Он также разорвал меня из заблуждения, что только люди с мастерами градусов или работы доктора философии с мл профессионально.> Истина заключается в том что вам не нужно много математики, чтобы начать работу с машинного обучения, и вам не нужна степень, чтобы использовать его профессионально.> Изучение нового языка в то же время пытается кодировать мл алгоритмы слишком сложно для новичка.> должен знать Scikit Узнать> пытавшиеся мл на реальном мире набора данных> закодированы алгоритм линейной регрессии с нуля (в Python)> сделал чуть-чуть NLP> Тем не менее, я начал с нейронными сетями, по крайней мере, и начал медленно понять концепцию. В июле мне удалось закодировать свой первый сеть. Это, вероятно, crappiest реализация когда-либо созданных, и я на самом деле считаю стыдно показать. Но это сделал трюк; Я доказал себе, что я понял, такие понятия, как и обратного распространения градиентного спуска.
>>840538Пиздец, текст уровня привлечения в продажники орифлейм и прочего дерьма. Ощущение, что пишут это для привлечения толпы макак в дата саенс, которые будут from sklearn import svm. Хотя я и не прочь переквалифицироваться из дворника в дата-слесаря.
Вот вам ещё говна НЕЙРОНОЧЕК на ваши кулеры на видяхе:https://youtu.be/QfNvhPx5Px8
>>840540Потому что с дата саенсом сейчас полный пиздец. Не так давно смотрел выступления пасанов из фейсбука, такое чувство, что первокуров заставили делать лабы, вот на таком уровне у них знания.Жду БУТКЕМПЫ за 20 ТЫСЯЧ ДАЛЛАРОВ уровня СТАНЬ ДАТА САЕНТИСТОМ или ИКСПЕРТОМ ПО МАШИН ЛЕРНИНГУ за 12 недель!
>>840538кек. На реддите все старательно делают вид, что у них не пригорело от этого поста, но мы-то знаем.
>>840580>>840540Ну это с любой расхайпленной областью происходит, но мы то знаем что настоящие пасаны как минимум ШАД должны закончить и знать математику на уровне мехмата МГУ.А про фейсбук странно, у них там тот самый Ян Лекун работает
>>840594> настоящие пасаны как минимум ШАД должны закончитьНадеюсь, что это сарказм.
>>840594>как минимум ШАД должны закончитьЭто профтехучилище для слесарей высшей категории. Настоящие пацаны даже не знают о его существовании.
>>840618>>840629Я в шад собираюсь, а чем он плох? Там программа вроде нормальная и вообще яндекс в авангарде дата лернинга.
>>840640> в авангарде дата лернингаВ России. Яндекс хорош, без базара. Но мне кажется неправильным считать, что хорошим слесарем можно стать только в шаде.
>>840641Ну я не спорю, что есть места настолько же хорошие/лучше, просто те отписались, как будто шад - это вообще зашквар
>>840643Это >>840618 я отписался. Не зашквар, но на шаде мл в России не сошёлся.
>>840629Профтехучилище, в которое не все студенты мфти и мгу могут поступить. Эх, хотел бы там учиться.
>>840647Не все студенты мфти и мгу настоящие пацаны.
Закончил недавно вводный курс по сетям. Посоветуйте какую простую сеть написать, чтобы не очень сложно и самое главное чтобы были тренировочные данные в открытом доступе.
>>840644Как я понял, в шад ты поступить не смог.
>>841141можешь сам нагенерить простых данных и тренировать по ним
>>841166Данные же должны быть закономерны вроде как.Имеешь ввиду создать математическую закономерность и попытаться научить сеть её понимать?
>>841168ну да, возьми функцию, добавь к ней гауссовского шума, нагенерь данных и попробуй вывести функцию
>>841141Мнист распознай свертками.
>>841161И не пытался.
дрочу титаниц, пытаюсь вывести недостающие возрастывот что получилось: http://pastebin.com/Gqc3W2ry пиздоватые значения с кучей знаков после точки есть вывод алгоритмакто нибудь ещё пытался их вывести? покажите что получалосьили скажите где найти полный сет, в интернете чо то не нашлосьстремящийся датаслесарь
То чувство, когда ты сто лет назад запилил тред, ушел с двача, вернулся на двач, а тут и шапка твоя, и тред уже в седьмом номере.
>>841625Ничего не изменилось. Почти те же вопросы, те же ответы.
А машинное обучение и анализ данных используются в мобильных приложениях допустим по сети, так как очевидно мощностей смартфонов не хватит? Мне просто интересно, можно ли сочетать мобильную разработку и машинное обучение хотя бы на уровне использования апи.
>>841799Естественно. Распознавание голоса в айфоне и ведре, например, через сервер делается. Хотя все тужатся сделать суперчип для исполнения нейроночек с низким энергопотреблением, но пока что это мечты.
>>841803Спасибо за ответ, ну круто тогда.
>>841574У меня шишка задымелась.
>>841574Она сосёт? У неё кансырь?Дональд Трамп - наш президент?
>>841625>>841769Надо бы шапку подновить. Новый ОП молодец, но тему сисек не до конца раскрыл - книг можно досыпать, как минимум, и FAQ в последних вопросах подробнее сделать. И куда-то делись описания книг. КМК, это важно было - новички охренеют, если случайно первой из списка откроют ESL.Какую же хуевую тут сделали капчу
>>841938хилари няша-змеяшаhttps://www.youtube.com/watch?v=zXX6XZuV4zI
http://www.asimovinstitute.org/neural-network-zoo/
>>840591реддит - кармапараша. Стоит кому-то написать что-то, что противоречит всеобщему "правильному" мнению - заминусуют.
>>842359как и весь "демократический" запад
>>842359Приведи пример адекватного поста, который заминусовали в /r/machinelearning или в /r/programming.
Вечер в хату.Скоро предстоит писать НИР, умею в мат. статистику и теорвер(в рамках двухсеметрового курса).Хочу убить двух зайцев, заодно начать вьезжать в машинное обучение.Какого формата задачу поставить?Накидайте примеров.
>>842751Гиперспектральные изображения. Сделай с ними что-нибудь. Можешь запилить сегментацию, классификацию. Там же потренерироваться в feature selection.Только хз, где размеченные данные достать. У меня где-то были сами изображения.
>>842751>>842815Есть в гугле даже.https://scien.stanford.edu/index.php/hyperspectral-image-data/http://www.ehu.eus/ccwintco/index.php?title=Hyperspectral_Remote_Sensing_Sceneshttp://www.cvc.uab.es/color_calibration/bristol_hyper/
>>842751распознай мнист
https://www.coursera.org/learn/julia-programming
>>817451 (OP)Привет, поцоны, кто курил Wavenet от DeepMind? У меня что-то подозрения, что это какой-то хайп. Я сам не смотрел толком, только на ютубе обзоры, на слух звучит не лучше обычного RNN, смотрел комментарии на реддите, там кидали ссылку на свертку новую какую-то, потом, руки дойдут, прочитаю.
>>840580Так еще Ын же постоянно во время курса жаловался на то, что у него пложно знакомых датасаентистов с зарплатами в шесть знаков, которые и малой части того, что он в своем курсе дает совсем не знают.
>>844096знатоки вроде тебя наверно по 7-8 знаков загребают, правда?
>>844087Звучит очень хорошо, но 90 минут на топовой карте для рендера 1 секунды, это слегка неюзабельно. Так что подожди полгодика, может оптимизацию какую придумают.
>>844104Я-то тут причем вообще?
>>844109да не тыя о том школьнике что форсит тут слесарские курсы от китаёзы
>>844127Съебал бы ты в обосцай со своими слесарями.
>>844087> DeepMind> hype> CNNЛол.Работает неплохо, вангую, что там будут ещё пытаться уменьшить количество настраиваемых параметров с помощью какой-нибудь архитектуры типа Inception.
>>817451 (OP)Поясните за предмет.Я так понимаю у вас тут три основных ветки: Большие данные, машинное обучение и нейронные сети.Не пойму в чем их различия, что востребовано и что куда втыкается.
>>844688большие данные ет тип ентерпраиз, денюжка))мошинное обучене ет для задратовнейроночки ет тип когда import tensorflow as tf
>>844738Не до конца понятно, но все же.
>>844688Машинное обучение и нейронки - одни из методов анализа биг даты.Нейронки в свою очередь можно вписать под машинное обучение.
>>844688Ты бы википедию почитал сначала, прежде чем тут спрашивать.
>>844768>>844763Спасибо, теперь все попроще стало.
Антош, введи меня, пожалуйста, в курс дела. Уже придумали охуенно умных ботов, способных вести осмысленный диалог?
>>844790нероночка - массивгауссов процес - два масиватренировка - обращение матрицынечётко-питушки соснули> Уже придумали охуенно умных ботов, способных вести осмысленный диалог?не
https://www.reddit.com/r/MachineLearning/comments/53ilcr/fast_wavenet_an_efficient_wavenet_generation/
>>844795>неА что является проблемой?Во что упирается человечество?
>>844864чатботы не приносят деньги
>>844738четко расписал для нуба)по полочкам разложил))
>>844807С этими товарищами не поймешь. Этот чел в каментах говорит, что в дипмайнде уже используют эту оптимизацию. При этом один чел якобы из дипмайнда скозал, что генерация секунды звука занимает полтора часа, а этот говорит, что две минуты. Крутят они что-то, секретность навели какую-то, наверное думают что это золотая жила. Хотя оно всего-то немного лучше старых рилтаймовых подходов.
>>844864человечество не может четко понять, что такое смыслпытаются заменить его рандомом, выходит плохо
Недавно начал изучать Prolog, цель которого, судя по интернетам, писать искусственный интеллект и экспертные системы. Сам я в этом (как и в сабже данного треда) абсолютно не шарю, за несколько дней успел выучить только несколько базвордов и разобраться в устройстве языка. Но насколько я понял, язык и правда предоставляет удобные инструменты для описания кучки правил в какой-либо предметной области. Так вот вопрос местным экспертам - раз пролог был создан для искусственного интеллекта, можно ли его средства применить в машинном обучении?
>>844962ты опоздал на 50 лет
>>844962Имхо, всякие императивные вещи на нём описывать очень неудобно. Но можно удобно делать запросы, да.> удобные инструменты для описания кучки правил в какой-либо предметной областиНо их нужно забивать вручную.Обучать подобные вещи (тащить структуру из данных) можно, используя графические модели:http://research.microsoft.com/en-us/um/people/heckerman/tutorial.pdf
>>844978Вопрос как раз возник из того, что, насколько я понял, заставить систему получать знания извне геморройно настолько, что люди стали использовать для этого питон.>tutorial.pdf Ни черта не понял, что там говорится и как это относится к вопросу, объясни ньюфагу, пожалуйста.
>>844984Кароч, пролог хорошо умеет в семантические сети, семантические сети могут хорошо (неоч) представлять предметные знания. Эти сети в пролог должны вбивать людишки, а этого делать не охота. Поэтому начали придумывать сети, которые могли бы строиться по данным.Сейчас вроде ещё модны гиперграфы, знаю, что их где-то в когнитивных архитектурах используют, но ссыль не дам.
>>817451 (OP)Платина, но пох. (В архивах не нашел)Что есть градиент для backprobagation на softmax слое?
>>845246Тебя в школе производные не научили находить?
>>845253Нет, не учили.softmax слой это вектор-функция от многих переменных.Марицу Якоби я найти смогу. Но я не понимаю, что передавать на предыдущий слой в backpropagation.
>>844127Чем тебе курсы откитаезы не угодили?
Можно ли с помощью МЛ научиться дорисовывать недостающие части картинки?Пример на пикрилейтед. Стоит закрасить купальник и наш мозг думает, что баба голая.То есть, если скормить АИ сотню тыщ голых баб, сможет ли он дорисовать сиськи в данном случае?
>>845481попробуй
>>845481И хуйцы тоже дорисует.
>>845481Гугли image inpainting. https://people.eecs.berkeley.edu/~pathak/context_encoder/resources/result_fig.jpg
>>845481На автоэнкодерах можно сделать.Слушай этого >>845489 господина.
>>845481ML здорового человека в это могло еще в начале 80-х. Это потом поналезло бабуинов с быдлонейроночками, которые на гугловских кластерах еле дышат.>>845489>>845536Ага, нейроночка ищет в гугле оригинальную картинку вместо покоцаной.
>>845582Hipster kitten-клоун в ML, спешите видеть.
>>845481Learning Deep Generative Models - Ruslan SalakhutdinovDRAW: A Recurrent Neural Network For Image GenerationGenerative Adversarial Netsи тдТысячи статей, и на гитхабе 100% есть имплементации, только обучуающие данные нужны "баба в купальнике -> голая баба", это сложно достать. Легче будет закрашивать уже голым бабам сиськи. Но все равно это нудная и рутинная работа.
Что по поводу сканирования людей и создания на основе этого трехмерных моделей, которые повторяют контуры лица, тела и тд? Есть успехи?
>>845835сними шлюху ёпт
>>845844У меня научный интерес к данному вопросу. Если говорить о практическом применении, можно было бы сделать виртуальные примерочные, не выходя из дома подбирать себе одежду, опять же аватары для виртуальных миров. Или распознавание картинок - это предел?
>>845848При чем тут machine learning?
>>845854Ну я думал это из области ai, чем как раз машинное обучение занимается, научить программу строить трехмерные модели на основе видео/фото файлов
>>845804натрави другую сеть на локализацию сисек
>>845856Больше похоже на классический computer vision. Другой вопрос, что без системы типа кинекта (с освещением сеткой) нормальную точность не получишь.
>>845835http://old.ektf.hu/tanszek/matematika/hofi/head_model_NN.pdfхотел другую статью найти, там строили 3д модели зданий и тд, в глубину можно было ходить, но 10 секунд в гугле только это выдали
>>846447Спасибо, схоронил, я вообще по фану спросил, но сама тема интересна
>>840580> Жду БУТКЕМПЫ за 20 ТЫСЯЧ ДАЛЛАРОВ уровня СТАНЬ ДАТА САЕНТИСТОМ или ИКСПЕРТОМ ПО МАШИН ЛЕРНИНГУ за 12 недель! Уже есть такое. Видел на днях даже.http://newprolab.com/bigdata/?utm_source=habr&utm_medium=habr&utm_campaign=new
>>847011Интересно, за сколько времени окупается этот курс?От курса Ына отличается лишь наличием хадупов, азуры и прочей энтерпрайзной мишуры без бара, важной, но 180к это не стоит
>>847027> без базарабыстрофикс
>>844790>Уже придумали охуенно умных ботов, способных вести осмысленный диалог?https://www.youtube.com/watch?v=pIORV4DMbHQ
https://www.scan.co.uk/3xs/configurator/nvidia-dgx1-deep-learning-system?utm_source=google+shopping&utm_medium=cpc&gclid=Cj0KEQjwyJi_BRDLusby7_S7z-IBEiQAwCVvn6libSWinwBvkm1afW_piBXby446V4wv6SSb1IYYnP8aArgE8P8HAQпиздец как дорогопочему с этими пидорасами никто не конкурируетгде амуде?
алсо> Delivery £11.99лолблядь
>>847568можно было бы от гарантии отказаться, цены бы им не было :3
>>817451 (OP)Кароч, пацаны, я в универе немного мутил регресси в ехеле + смотрел пару курсов по анализу данных, но из-за этого хайпа не могу понять что и как изучать, в каком порядке.Энивей, тут такое дело.Наткнулся на вакансию младшего аналитика, прислали несколько тестовых заданий.1. 1 сентября 2015 года на двух телеканалах разместили два ролика с различными номерами заказа такси. В течение недели оба ролика прокрутили по 40 000 раз. В течении этой недели на первый номер поступило 10 000 звонков и было совершено 7 670 поездок, а на второй — 12 000 звонков и 8100 поездок. Маркетолог просит у вас совета: какой канал оставить, а какой отключить? Что вы ему ответите? Обоснуйте свой ответ.2. При доставке товара, заказчик может оценить качество работы курьера, либо положительно (поставив «лайк»), либо отрицательно (поставив «дислайк»). Предложите систему (формулу или набор правил) расчета рейтинга курьеров на основе истории их оценок, которая позволила бы определять и отсеивать курьеров, которые работают хуже остальных (код или какие-то другие материалы, созданные в ходе решения приветствуются).Выглядит одновременно и легко и, мне кажется, не все тут так просто.Эни айдиас в какую сторону копать?
>>848019Конверсия-хуеверсия.> Эни айдиас в какую сторону копать?Что копать? Чего ты хочешь?
какая няшкаhttps://github.com/SullyChenhttps://github.com/SullyChen/Nvidia-Autopilot-TensorFlow
>>849703Отняшил бы красавца в попчан?Отдался бы ему за место с ним в команде кегли?
>>850533Чувак в 17 лет имплементит топовую статью с переднего края машинлернинга. Если это не круто, то что тогда круто? Вспомни что ты делал в 17 и ужаснись.
>>850581Круто делать что-то новое, а не import tf.
>>850581Не спорю, что он крут, но на вопрос ты не ответил.
>>850591Ну... Я бы, пожалуй, сделал его членом своего стартапа. Если ты понимаешь, о чем я.
Один раз мне здесь подсказали годную литературу, мб в этот раз тоже прокатит.Анончики, есть ли исчерпывающие туторы по information theoretic learning? Чтобы с ответами на вопросы, чем критерий коррэнтропии пизже критерия относительной энтропии и прочее. Гугл даёт только что-то отдельными статьями. Я заебался.
сап аноны, есть ли тут кто-то кто работает в ML сфере без вышки?поделитесь опытом/историей плиз
>>852587это невозможнодля ML нужно знать много математики, а математику учат только в вузах
>>853000А в чём проблема изучить её самостоятельно?Благо литературы, курсов, ресурсов всяких более чем достаточно.
>>852587Здесь проблема втом, чтобы вообще найти кого-нибудь, работающего в сфере ML. А ты тут ещё без вышки просишь, лол.>>853007> А в чём проблема изучить её самостоятельно?Количество времени, которое нужно потратить, высокий порог вхождения, постоянное ощущение того, что ты что-то не понимаешь. Не каждому дано это.
>>853012А вуз то чем тебе поможет? Единственное чем вуз отличается от самообразования, это то, он более менее заставляет учиться
>>853016Ничем.Однако, практика показывает, что порой распиздяй, дотянувший до четвёртого курса, может вытащить из глубин разума хоть какие-то минимальные знания анализа.
Вступительные в ШАД пиздос дизморалят, и это после того, как я ботал как зверь последние полгода.
>>853022Проглядел:https://download.cdn.yandex.net/shad/exam-2014.pdfЗнаю как решается одна задача, видел ее в учебнике по терверу.Монеты наверное тоже просто, все остальное сходу не знаю как решать. 5 часов мне явно не хватит.
>>853022>>853050Умение решать подобные задачи - без пизды охуительный и полезный навык, без сарказма. Но освоить мл на слесарском уровне можно, и не попадая под монструозные требования шада.Просто берёшь курсы китаёзы, бишоп и мёрфи и без задней мысли проходишь весь материал с прорешиванием всех задач. Времени уйдёт уйма, но другого пути я не знаю.
>>853121Только такой путь и есть. ШАД - ебота та еще. Типичная подмена понятий "раз мы соберем умнейших людей ебическими экзаменами не по теме, ЭТО ЗНАЧИТ, что мы учим хорошо". А не потому что люди умные и их похуй, как учить.
>>853121Ng вьетнамская фамилия, не?
>>853176отклеилась
>>853176Пойду у соседа вьетнамца спрошу, а нет, не спрошу, мне похуй.
>>853176Он китаец из гонконга.
Так чо, есть работа по ML или нету? Что профитнее, на питоне сайтики клепать или табличке в pandas мерджить?
>>854889Для кого-то есть. для кого-то нет. Сам то кем будешь?
>>854904чел с высшим техническим, инженер. прошел курсы от Ng,на кэгле есть опыт, несколько книжек прочитал.Пока что вакансии видел только для лютых задротов-надмозгов, к коим не отношусь
>>854889я работал неделю на апверке за 15 баксов в часов, потом уехал на юга и забил. Мне очень стыдно, и, боюсь, другой шанс устроиться в мл с моим гуманитарным образованием у меня очень нескоро появится.
>>855002и очень странно было работать, так как если клепать сайтики, то там все отлично, а тут большая часть времени уходит на тренировку моделей, чтение нужных статей и тд, а импорт тензорфлоу эз тф - это 2 минуты.
> Быть великовозрастным вкатывальщиком, полным нубом в кодинге> Не знать матана, не мочь даже вывести формулу для квадратных уравнений> Никогда не осилить и 20% обсуждаемых в треде вещей, куда уж там прочесть Бишопа/Мёрфи> Никогда не побывать в писечке няшной мл-щицы Леночки и не уехать к ней в Канаду няшиться под пледикомЗачем жить, байесаны?
>>855006а что за работа была, что делал? И как её получил?
>>855027ну, профиль на upwork.com (тогда одеск еще) у меня давно висит, хотя опыта вообще нет. Один раз получил заказ года три назад на парсинг, когда осваивал только питон и программирование, но я не смог разобраться с автоматическими сменами прокси и прочим, денег за проект не получил. Летом обновил профиль, добавил туда инфу про машинное обучение. Поговорил с дядькой по скайпу на английском. Что делал - в этом весь вопрос. Меня просили помочь придумать, как их проект можно улучшить с помощью нейроночек, но фирма, видимо, не очень большая, и данных мало (мне дали всего 300 картинок с описаниями, обучаться было проблематично), так по картинкам выдавал текст из скольки-то там категорий, категории пересекались. Я порыпался с недельки две-три, что-то обучил сильно переобученное и с низкими результатами, на том и все закончилось.
>>854999I know that feel, bro.Ищи трактор.
Подскажите, какие существуют открытые библиотеки для распознавания текста с изображений с возможностью подключения в С++? Помимо OpenCV и TesseractOCR
>>855552https://www.google.co.uk/#q=c%2B%2B+ocr+library+open+source
Двачик с какой книжечки в шапке начинать изучать ML?
>>856142Зависит от твоего бэкграунда.Нубам с курсы китаёзы.Людям с оброзованием можно сразу брать пару из Бишопа и Мёрфи.
>>856149Че за китаёзы? В шапке только хачи.
>>856151Andrew Ng, mlclass на coursera
Надо бы запилить перекат, но мне впадлу.
>>856180хуяк-хуяк и перекатhttps://2ch.hk/pr/res/856234.htmlhttps://2ch.hk/pr/res/856234.htmlhttps://2ch.hk/pr/res/856234.htmlhttps://2ch.hk/pr/res/856234.htmlhttps://2ch.hk/pr/res/856234.html