Тред #1: https://arhivach.org/thread/147800/Machine Learning 101:1. Introduction to Statistical Learning, Casella ( http://www-bcf.usc.edu/~gareth/ISL/ISLR%20Sixth%20Printing.pdf )Читается легко, неплохая разминка перед ESL2. Pattern Recognition and Machine Learning, Bishop.3. Bayesian Methods for Hackers. Введение в байесовские методы, годно.4. http://neuralnetworksanddeeplearning.comВведение в нейронные сеточки для самых маленьких. Написано простым английским.Machine Learning Advanced1. Elements of Statistical Learning (http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )Сложность - 9 из 10. Шутки в сторону, можно читать годами. Если вы сможете полностью проработать эту книгу и прорешать упражнения, обязательно свяжитесь со мной - у меня найдется работа для вас.2. Optimization for Machine Learning. Edited by Suvrit Sra, Sebastian Nowozin and Stephen J. Wright, MIT Press, 2012.Иногда from sklearn.linear_model import LogisticRegression перестает работать и тогда нужно все переписать. Оптимизация квадратичных приближений на больших объемах данных, разреженные модели, суррогатные оптимизации - вот это все тут есть.Дальше вас ждет дикий и необузданный мир. Два маяка https://vk.com/deeplearning и http://deeplearning.net/reading-list/ осветят дорогу: это списки литературы и обзоры статей для прощупывания пульса индустрии.Computer Science1. Intoduction to Algorithms, Corman2. The Art of Computer Programming, Knuth3. Compilers: Principles, Techniques, and Tools. Разработчикам компиляторов и прочим авторам убийц питонов и крестов посвящается.Programming1. Python Unlocked. Короткая книжка без соплей. В ней описаны метаклассы, дескрипторы, системы типов, шаблоны проектирования и TDD. Всего чуть больше 100 страниц концентрированной сути.2. Code Complete (2nd), McConnel.Неплохая книга. Не то чтобы обдрочиться, но в голове всякие фишки по структуризации кода и его проектированию остались.Misc1. Telegram: @techsparksПодкаст про всякие гик-штуки.F.A.QПо мотивам предыдущего треда.Эти ваши книжки стоят овер 9000 рублей, как быть? Как ОП, крайне не одобряю пиратство и рекомендую при возможности все-таки покупать книги, но если вы жмот вам надо кормить 10 детей, то идите сюда http://libgen.ioКниги хорошо, но с чего начать практический вкат? Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2016 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ruЗдорово, но я так и не понял чем же вы занимаетесь в IT компаниях?Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.Имхо, мы все же остаемся в первую очередь разработчиками.Но ведь есть Machine Learning per se, чем он занимается?Действительно есть. Одаренная прослойка людей изобретает новые методы, но это правильнее называть просто математикой. Сейчас пищей для ума являются нейронные сети и их возможные архитектуры, но даже они двигаются рука об руку с практикой.Что такое TensorFlow?TensorFlow - часть гуглового инструмента для перемножения тензоров и оптимизации функционалов. Часть - потому что важные куски типа паралелизации еще не выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
Единственное о чём мечтаю: вкатиться в ML.Курсы прохожу, книжки читаю, задания делаю.Но как мне работу найти?На данный момент опыта программирования за деньги - нет, но специальность математик-программист имею.
>>733276 (OP)Настало время узнать чтото по ОПтеме.
>>733287>вкатиться в MLЭто самоцель? Имхо, так далеко не уедешь.>Но как мне работу найти?hh.ru, blastim.ru, yandex.ru/jobs/ - это если нет знакомых.
>>733297>Это самоцель? Имхо, так далеко не уедешь.А вообще, чем можно заниматься вкатившись в ML? Что это вообще такое? Как оно может пригодится в быту, т.е. как я могу использовать знания ML в повседневной жизни? Платина:Какой математический бекграунд нужно иметь, чтобы свободно плавать в ML?Разумно ли заниматься ML, если ты даун, вылетевший с девятого класса, не освоивший математику даже на уровне седьмого класса?Вам не нужно вводить капчу, у вас введен пасс-код.
>>733340Вот этот вопрос поддержу. Алсо, хватит ли проситать основы тервера и матстата?
>>733297> Это самоцель?Мне нравится возится с данными, анализировать, искать закономерности и т.п. Было бы здорово заниматься этим.> hh.ru, blastim.ru, yandex.ru/jobs/Если написать в резюме: закончил универ, прошёл пару [десятков] курсов и хочу вкатиться джуниором, то возьмут или нет?Если нет, то какой минимальный опыт нужен?Какой проект для портфолио можно запилить?
>https://vk.com/deeplearning>Участники 5 502
>>733356>Мне нравится возится с данными, анализировать, искать закономерностиКак ты об этом узнал? Тебе просто нравится об этом мечтать?
Можно ли с помощью машинлернинг заставить машину увидеть группу людей, опеделить чем и вообще вооружены ли они, оценить обстановку, и принять решение ебнуть ракетой? Я правильно себе представляю область приминения?
Как найти работу без знакомых, работающих в этой области?
>>733386можно и без
>>733397Пусть роботы убиваю, у них совести нету
>>733370Например, потому что примерно со второго курса в качестве развлечения писал парсеры разных сайтов, складировал данные в таблицы, искал закономерности и т.п. Но ничего круче статистики и кластеризации не использовал.В любом случае, я спрашивал не "а правда ли мне понравится работать?", а "как вкатиться?"
>>733421>"как вкатиться?ОПпост читай
>>733422Из него не понятно:- какого уровня проект нужен для портфолио- берут ли без опыта работы программистом
>>733437Меня взяли ещё студентом. Из опыта работы у меня было пару более менее серьёзных прог на Delphi. Причём взяли на похапе
>>733439А хотя ты наверно спрашивал именно про программирование в ML
>>733340>А вообще, чем можно заниматься вкатившись в ML? Что это вообще такое? Как оно может пригодится в быту, т.е. как я могу использовать знания ML в повседневной жизни? Какая такая повседневная жизнь? Если ты про работу, то можно распознавать картинки, заниматься ботообороной, анализировать поведение пользователей, пилить поиск и рекламные системы, рыскать по биоинфоматическим данным. Если же ты про то как выжить в лесу при помощи ML, то хуй знает что тебе посоветовать. Можно запустить на видяхе какую-нибудь йобу и кашу сварить на раскаленном радиаторе, збс греет.>Какой математический бекграунд нужно иметь, чтобы свободно плавать в ML?Статистику, это основное. Алгоритмы, немного функана - должно хватить. Из личного опыта - у меня матмеховское образование; с одной стороны оно вроде бы оверкилл, с другой стороны проблематично оценить степень влияния на мышление и способность воспринимать прикладной материал. Кажется, что без матмеха я был бы глупее. А вот ШАД полнее покрыл мои рабочие нужды.>Разумно ли заниматься ML, если ты даун, вылетевший с девятого класса, Стоит определится, хочешь ты свободно плавать или все же ты даун. Некоторую математику стоит знать.>>733356>Если написать в резюме: закончил универ, прошёл пару [десятков] курсов и хочу вкатиться джуниором, то возьмут или нет?Да, возьмут. Правда еще есть собеседования, но если ты не просто закончил универ, а что-то из него вынес, то это не будет проблемой.>Если нет, то какой минимальный опыт нужен?AFAIK для джуна промышленного опыта особо не нужно. Если руки не из жопы и опыт решения каких-нибудь простых задачек есть, то полдела в кармане.>>733386Да, можно. Это как раз примерно то, чем исследования в распознавании образов занимаются именно сейчас.
>>733421Никак, лол. Те, кто могут вкатиться, не выспрашивают об этом на харкаче.
>>733340>как я могу использовать знания ML в повседневной жизни?Кажется, неправильно тебя понял, поэтому дополню свой прошлый ответ. Применение в быту у ML есть, хотя зачастую такое применение выглядит гиковски и уж точне не жизненно необходимым. Вот тебе пример: у меня во дворе постоянно забита парковка и три недели назад, в очередной раз приехав поздно вечером и не найдя места для своей поповозки, я серьезно взбугуртнул и на следующих выходных вывесил за окно панорамную камеру для наблюдения за ситуацией на паркинге. Такое пассивное наблюдение оказалось не очень жизнеспособным, так как при подъезде к дому на экране телефона проблематично разобрать картинку. Поэтому очередные выходные были потрачены на то, чтобы добавить подсчет свободных мест в Caffe в разных зонах парковки (так как к ним разные подъезды и нужно заранее знать куда ехать). Еще у меня есть машинка, которая умеет ездить по разметке на бумаге - в ней тоже под капотом бьется Caffe.Но, откровенно говоря, какой-то убийственно нужного применения ML именно в быту и именно сегодня я назвать не могу. Такие системы только-только входят в нашу жизнь, поэтому сейчас такие вещи могут казаться блажью и излишеством.В IT - да, таких применений миллион.
как с няшными тяночками в отрасли?
>>733500>точно>какого-то>>733501Все хорошо.
>>733442> если ты не просто закончил универ, а что-то из него вынес, то это не будет проблемой.А что на собеседованиях спрашивают?>>733443Жил бы я не в мухосранске - ходил бы по собеседованиям. А в слепую ехать не хочется - проебу деньги, не устроюсь и вернусь с позором.
>>733511>А что на собеседованиях спрашивают?Хуи сосешь? Бочку делаешь?
>>733511Зависит от компании, позиции, собеседующего. В Я, Рамблере и Мейле, насколько я знаю, на джунов дают задачки.>А в слепую ехать не хочется - проебу деньги, не устроюсь и вернусь с позором.Это последнее, чего стоит бояться. Страшнее так и не попробовать.
>>733511И да, в Я сначала идет Skype-собеседование и только после этого приглашают на очную ставку.
>>733349>>733349Там основы, которые тянут другие основы.
>>733511Сидя в мухосранске ты никогда ничего не добьешься. Очевидно же, что спрос на МЛ рождается только при некотором минимальном уровне технологического развития. Если население промышляет только грабежом, перепродажей и распилами, то какой там может быть МЛ? Это относится во многом ко всей рахе, техническая отсталость которой от первого мира порядка 10 лет.Наивно думать, что в Яндексе тебя прям возьмут на позицию, где требуется МЛ, при том что ты никто. Там очередь у них стоит из ШАДников, тех что недостаточно круты для трактора (однако даже по сравнению с ними ты пустое место). Если тебя туда и возьмут, то только говночистом. Будешь скрипты какие-нибудь клепать, прозябая на джунской должности без развития.
>>733900>10 летСлабо взял. Хочешь сказать, через 10 лет мы запилим свой Windows, Intel, Apple, Tesla и прочие тачанки и медицину?Лет 40 здесь, не меньше.
>>733917Ну да, это сложный вопрос. По медицине, например, согласен с 40 годами. По софтострою отставание поменьше, ну вот тот же Яндекс довольно продвинутый ведь. Не Гугл, но тем не менее.Windows не запилим, так ведь и какая-нибудь Франция тоже своей ОС не имеет, тут скорее отличие количественное.
медицина в бриташке отвратительнана любое заболевание тупо прописывают обезбаливающее и отправляют домойприходится ездить к себе в латвию за нормальными лекарствами/операциями
– Вот поэтому-то я, господин, и предлагаю изготовить машину, которая сможет сообщать тебе волю богов, – механический оракул. Это тебе не какой-нибудь упившийся жрец, бормочущий хвалы Бахусу за задернутой занавеской. И не учебник по толкованию линий руки или свойств помета храмовой лани, посвященной богине Артемиде. Нет, то будет машина, в которую я загружу истории всех прошлых битв и сражений: стратегии, тактики, принесенные жертвы, диспозиции военачальников, рельеф местности, действия опытных сотников. Сей аппарат будет хранить всю историю военного дела Греции и Рима – и не только, ибо я научу его всем путям и обычаям рода людского. И если какой-нибудь консул вроде тебя пожелает узнать исход отдельно взятого сражения, целой войны или каких-нибудь трудных переговоров, достаточно будет набрать вопрос и предоставить действовать механизму. Он просеет тысячу военных трактатов и десять тысяч битв и выдаст тебе предсказание – и это будут не сомнительные жреческие побасенки, но сама мудрость богов, которые взирают с небес на нас, будто расставленных на столе для игры – понятных и предсказуемых в поступках наших, движениях и желаниях, словно бредущие цепочкой муравьи.<...>– Будет у нас коллегия весталок, непорочных и отрезанных от мира, – пояснил он. – Только в мужеска пола.– И правда, – согласился Марк Фурий, – собрание чистых отроков, никогда не видящих дневного света, – самое то что надо для управления счетной машиной подобного рода.
http://www.ted.com/talks/riccardo_sabatini_how_to_read_the_genome_and_build_a_human_being#t-494776
Почему про нечеткие множества в оп-посте нет ничего? Единственное перспективное направление в ML уже не в моде?
>>733928А что, Франция по софтостроению не отстает?
>>734253Напиши что-то годное про нечеткие множества, добавлим в шапку в следующий раз.
>>733276 (OP)Пока вы тут дрочите на кнута, кормена и ахо скину я немного годноты по КС http://www.mi.ras.ru/~podolskii/hse.html
>>734547http://ocw.mit.edu/courses/electrical-engineering-and-computer-science/6-042j-mathematics-for-computer-science-fall-2010/readings/
>>734556и чо?
Это и Ai тред? Или есть свой. Поиск, csp, mdp, hmm, bayes nets, вот это всё.
>>734999Милости прошу к нашему шалашу.
>>734999AGI школьники обсуждают здесь:https://2ch.hk/pr/res/717453.html
>>735084Полезного там мало.Есть ли у кого настолько же хорошие ссылки по ai, как в ОП-посте?
>>735202Сажа прилипла
Кстати, помните, как в библии было написано? Люди появились в результате того, что ангелы брали жен человеческих и от их союза появились люди. Роботехника ща в основном в сторону секс-игрушек идет. Вдруг люди будущего будут результатом спаринга людей и роботехники?
>>735249> Роботехника ща в основном в сторону секс-игрушек идетЕсть пруфы?
>>735202Всё в статьях чаще всего. Первые авторы, которых вспомнил:Goertzel, Hutter, Schmidhuber.Обзорная статейка:https://pdfs.semanticscholar.org/72e1/4804f9d77ba002ab7f1d3e3a5e238a3a35ca.pdf
>>735431> в основномЭто он борщнул, но на гиктаймсе мелькают статьи про секс с роботами.https://geektimes.ru/company/robohunter/blog/251052/https://geektimes.ru/company/robohunter/blog/259922/https://geektimes.ru/company/robohunter/blog/263562/
>>735431ты в каком бункере живешь, маня?http://www.scoopnest.com/user/TerezOwens/639292740627337217
>>735448https://lenta.ru/news/2015/09/15/sexrobotsban/
>>734497>Напиши что-то годное про нечеткие множества, добавлим в шапку в следующий раз. Именно про применение в задачах ML очевидная годнота А. Пегат, "Нечеткое моделирование и управление". Очевидный плюс - вся матчасть с нуля, можно рекомендовать даже тем, кто в душе не ебет что такое нечеткое множество. Самый заметный минус - некоторые довольно элементарные вещи даны излишне заумно.
>>733276 (OP)Прохожу ml на курсе от Andrew Ng и вот этот курс:http://cs224d.stanford.edu/syllabus.htmlНичего толком не понимаю. Во всяких quiz'ах набираю 4/5 баллов, в заданиях просят брать производные, ну окей, делаю, задания на программирование по инструкциям выполняю, все вроде работает, НО все равно ничего не понятно!Отберите у меня инструкции и с нуля я ничего не сделаю. Тащем-то в первом курсе на octave писал forward / backward propagation, во втором уже на питоне и пришлось заново разбираться как это работает.Для backprop'а и вовсе мне потребовалось посмотреть 3 разных лекции, чтобы примерно понять как и почему оно работает, и то я до сих пор не уверен.Лучше бы они не предоставляли заготовки с кодом, чтобы совсем-совсем с нуля нужно было писать все. Так бы лучше усваивалось.> 1. Elements of Statistical Learning Натыкался на совет почитать это, скачал, полистал и это ужасно.Ах, пофиг, со временем все осилится. Надо просто читать все эти whitepaper'ы с описаниями всяких методов, пробовать реализовывать в коде и тинкерить.Правда, проблема еще в том, что железо дохлое, никаких cuda-хов, сплошные старые ноуты без дискретных видеокарт. Вот задание из cs224d выполняется уже фиг знает сколько, можно отправляться спать в надежде, что утру закончится.
>>735249>что ангелы брали жен человеческих и от их союза появились люди. Вут, откуда же взялись жены человеческие, если только от них появились люди? Или библия намекает, что жены человеческие -- не люди?
>>736568>>736568попроси у анонов доступ к сервачку, быстрее будет
>>736568Могу пояснить за backpropagation. По сути это тупо градиентный спуск. Т. е. тебе надо тупо посчитать частные производные по весам (они считаются рекуррентно с помощью chain rule). Посмотри на вики как выводятся формулы и потом сам выведи не подсматривая.
Кстати, может кто-то объяснить, почему нейросети так хорошо работают? Допустим, у нас 500 связей. В 500мерном пространстве может быть дохуя локальных минимумов, почему мы попадаем именно в какой-то хороший локальный минимум?
>>737480Вообще-то они весьма плохо и работают. Результат достигается многократной прогонкой gradient descent при разных (как правило, рандомно сгенерированных) НУ. Плюс разные свистоперделки типа deep learning, чтоб веса первых слоёв тренировались. Есть такой феномен, когда NN учит только среднее по выборке, втречается нередко. Я могу даже на пальцах расписать, как происходит обрубка первых слоёв и NN обсирается с обучением.
>>733276 (OP)>Computer ScienceБлять, это действительно смешное слово или я один такой долбоёб? Даже наша ИНФОРМАТИКА звучит лучше, чем это. Так и представляю, как сидят две англоязычных бабушки на лавочке, и одна другой хвалится "Вот, Тереза, мой внучок Джо отучился, теперь он phd КОМПЬЮТЕРЩИК*"
>>737480>может кто-то объяснить, почему нейросети так хорошо работают?Потому что они универсальные аппроксиматоры функций. Еще Колмогоров и Арнольд доказали, что функция от любого числа аргументов представима через суперпозицию частных функций от 1-2 переменных. Именно так и работает тот же 3-слойный перцептрон. У Горбаня это подробно разобрано.
>>737523Оно смешное, потому что слово "компутер" приобрело иные оттенки в русском языке. Англоговорящим человеком Computer Science воспринимается скорее как "науки о вычислениях"
>>737489Пиздец у тебя каша в голове
>>737489>Вообще-то они весьма плохо и работают. Результат достигается многократной прогонкой gradient descentЭто недостаток не нейросетей как таковых, а методов настройки свободных параметров - бекпропагейшна, градиентного спуска и т.д. Поэтому именно эти методы и пытаются допилить или заменить на что-то другое, тогда как собственно структура того же многослойного перцептрона не менялась с середины прошлого века.
>>737571Каша в дупе твоей мамки, а я математик.>>737576Долбаёб, а что, по-твоему, NN? Вектор параметров на вектор базисных функций. А ты, картофан, видно думаешь, там какая-то магия. И чем ты собрался заменять BP? Лолблядь, хоть почитай про оптимизацию. Алсо>бекпропагейшна, градиентного спуска> имплаинг, это разные вещиПлебеи. Плебеи никогда не меняются.
ОПчик, ты вроде проходил курсы от ШАДа, но не включил ни одного в список учебных курсов. Те, что в ОП-посте, полностью покрывают материал ШАДа?
>>737586>Каша в дупе твоей мамки, а я математик.Ранец собрал, математик?
>>737599Привет, включать курсы я не стал, зачем? По поступлению в ШАД тебе расскажут обо всех курсах, а не ШАДовцам эти курсы не доступны, так что если я даже посоветую курс, то это будет бесполезный совет. Или ты что-то другое имел ввиду?>>737523Вроде бы никогда не проигрывал с этого.>>737480>почему мы попадаем именно в какой-то хороший локальный минимум?Никто этого не гарантирует, просто запустив 1000 раз обучение и выбрав лучшие результаты, мы предполагаем, что они не так далеки от истинного минимума. Тем более редко когда требуется глобальный минимум. И да, НН универсальные аппроксиматоры, как уже тут заметили.>>736568Пробовал заказать машину на амазоне?>>736014А можешь описать чем вообще такой подход лучше/хуже, чем постановка задач оптимизации в классическом варианте?
крутой тредавтор, пили ещё
Заканчиваю прикладную математику в универе, параллельно работаю джава девелопером. Хочу перекатиться во фриланс, посему вопрос- есть ли в ML сфере фриланс?
>>737605>Или ты что-то другое имел ввиду?Да, там же есть открытые курсы по машинному обучению, по теорверу, по алгоритмам. На них можно забить, если буду дрочить Elements of Statistical Learning?И еще вопрос: есть что-то вроде джун-вакансий по ML? Чтобы порог входа был пониже, чем у полностью готового спеца? Я нихуя не умею в ML, но хочу заниматься этим в конце концов на серьезном уровне. Проблема в том, что денег у меня не работать нет, и, вместо того, чтобы изучать ML, я ебусь с iOS, чтобы наработать некий капитал, чтобы упороться ML фуллтаймом.
>>737600Слив засчитан.
>>737586>>бекпропагейшна, градиентного спуска>> имплаинг, это разные вещиНо бекпропагейшн это поиск градиента, вычисление его значения, а градиентный спуск это использование градиента для минимизации некоторой функции, причем градиент можно и иначе вычислять, например, с помощью приближенных вычислений [(f(x + h) - f(x)) / h]. Разве не так?
>>737681))))Познания в математике уровня пр.
не знаю господа, мне хочется внести какой-то вклад в эту роботехнику и умные самообучающиеся проги. Но я такой тупой, я не смыслю в матане, я даже до конца не могу понять принцип работы перцептрона, там единицы, нолики, тренируешь его, потом записываешь результат в массив, потом берешь из него значение? В роботехнике я тоже полный ноль, паять не умею, детали хрен купишь в моей мухосрани да и дорого, наверное. никакого иного применения для нейросетей, кроме моделирования поведения персонажей в игре, я не вижу. И вообще весь кодинг в моем понимании сводится к решению очень тривиальных задач - создание игр и веба под различные платформы и взаимодействие с апи интернет-гигантов типа фейсбук, вк, телеграм и т.п.Какое направление вы бы обозначили в этой области в ограниченных условиях обычного кодера из провинции, как я например? Пытаться применить принцип перцептрона в геймдеве?
>>736862Под женами человеческими очевидно подразумевались какие-нибудь полуобезьяны-неандертальцы.
>>737700Да забей ты на это хайпнутое говно, бро. Душа ИИ живёт в матлогике и символьных вычислениях. Так что угорай по Lisp, Prolog и еби весь этот ML в рот.
оп выходи на связь читаю вот эту дичь2. Об интеллекте. http://archism.narod.ru/lib/bleiksli_sandra_ob_intellekte.pdfпонравилось подкинь подобного но чтобы без маразма мне интересно читать о работе мозга, и всё такое ну ты понял
>>737918http://aideus.ru/
>>737920пасибки
>>737920https://www.youtube.com/watch?v=Q8WYpoac2hk
>>737961Проиграл.
>>737681не слушай >>737698-неосилятора
>>737626двачую.Есть ощущение, что единственный способ вкатиться в ML, это через ШАД. Серьезно, есть другие пути?
>>738229В долине трактористов про ШАД никто ничего не знает, если что. Так что с этой т.з. это просто потеря времени.
>>738233но вкатываться в отросль придется здесь, а не в долине трактористов.
>>738240То есть тебе материалы именно на русском нужны?
>>738241нет. я, вообще, не про обучение, а про то, как влиться в отрасль в рф. Рабовладельцам же нужны какие-нибудь пруфы твоей компетенции и, у меня ощущение, что гит с пет проджектами ими будет оценен меньше чем какой-нибудь шадовский сертификат.
>>738229Меня раздражает закрыть ШАДа. Хули им стоит выложить лекции на всеобщее обозрение? Ок, они не хотят тратить время преподов на проверку домашних заданий анонов, ну пусть и не тратят. Но что за жлобство не выложить лекции+задания в открытый доступ я не понимаю.
>>738256мне кажется, в ШАД стоит идти только за сертификатом. В плане образования, по-любому, ничего лучше, чем пилить собственную йобу, и попутно находить решение возникающих проблем. Тем более материала в инете дохерища, начиная с десятков открытых курсов на coursera, edx и тд.
>>738260Там жи ж дохрена математики. Йобу пилить - это, конечно, нужно, но математику без помощи довольно долго будешь вдуплять. Плюс курс в ШАДе весьма фундаментальный. Ты проходил ШАД?
>>738260ну и, судя по вступительным они отбирают охуеть каких математиков. Из моего, небольшого, экспириенса -- ML это, все-таки, прежде всего инжиниринг.
>>738261мой ответ выше. Из моего экспириенса достаточно знаний( даже не первой свежести) линейной алгебры и основ общей алгебры.
>>737626Открытые все ок, но это самые первые и простые курсы.Воронцова тут уже обсасывали - нормальная база, правда без семинаров 50% пользы исчезает. Бабенко - очень хорошо. Я не знаю какой курс выложен в паблик, продвинутый или обычный, если первое, то считай, что крупно повезло - куча топового материала для расширения сознания.Сухорослов - это вроде бы жаба+паралелльные вычисления. Рекомендую только если ни того, ни другого не знаешь. Про Райгора и Верещагина ничего сказать не могу - курсы примерно совпадали с тем, что было на матмехе, поэтому я смотрел курсы удаленно и только половину из них. Вроде было ок.>На них можно забить, если буду дрочить Elements of Statistical LearningЭм, ну если ты действительно задрочишь весь EoSL с задачами, то к этому моменту ты сможешь силой мысли раздвигать стены и на какие-либо курсы тебе будет насрать.>И еще вопрос: есть что-то вроде джун-вакансий по ML? Чистого ML наверное нигде нет (если это не университетская лаборатория или Google/Яндекс), везде надо уметь воплощать этот ML в Python/C++. Это очень практическая дисциплина. Поэтому вопрос надо поставить чуть по-другому - есть ли такая вакансия, где доля ML будет соответствовать моему уровню. Ответ: да, есть. Вакансия с описанием "разработчик со знанием математики/статистики/ML" - это то, что ты ищешь. Берешь грейд, который тебе по плечу и вперед.>>737700>Какое направление вы бы обозначили в этой области в ограниченных условиях обычного кодера из провинции, как я напримерЕсли уж так хочется, то какую-нибудь предиктивную аналитику можно во многих уголках России найти. Логистам помогать товары в ретейл развозить или логи грепать у гейм-девелоперов.>>737918Ты неплохо так планку задрал, назвав лучшую книгу подобного рода.Можешь попробовать The Future of the Mind: The Scientific Quest to Understand, Enhance, and Empower the Mind почитать, авось понравится.А вообще работа мозга - это Neuroscience (Bear & Berry). Правда это уже не научпоп, а учебник.>>738229>>738248Мне тяжело ответить что-то кроме банальностей типа "дорогу осилит идущий".Тебя никто принципиально не будет срезать, если ты не учился в ШАДе или где-то еще. Вопрос только в знаниях и скилле получать эти знания из Интернета/книг. Фигуры на этой доске двигаешь ты.Бумажки из ВУЗа нужны для того, чтобы пройти HRов. Дальше можешь их выкинуть. Если ты серьезно уверен в своих силах, то приукрась резюме, а как дойдешь до технической части, так и начнешь на ней блистать (ну или обосрешься с подливой, зависит от).>>738256На некоторой части курсов рассказывают про внутренние фишки Яндекса. Их нельзя выносить наружу.Ну и не стоит забывать, что люди в первую очередь оценивают выгоду от своих действий. Вполне себе допустимо, что руководство ШАДа не видит профитов для Яндекса от выпуска всех курсов в паблик.>>738260>мне кажется, в ШАД стоит идти только за сертификатом.Ну а у меня диаметрально противоположное мнение. На сертификат абсолютно по барабану, а вот мозги мне там подправили.Впрочем, бумажка тоже вроде бы ценится. Просто у меня не было в ней серьезной необходимости.
Парни, прохожу курс Воронцова на coursera, в теме о важности признаков линейных деревьев использую такой кодhttp://pastebin.com/tZzbExkPВ итоге получаю:[('Pclass', 0.017933362369337985), ('Fare', 0.29549222165179184), ('Age', 0.40310551645733922), ('Sex', 0.28346889952153104)]Пытаюсь засабмитить Fare и Age, получаю ошибку.В чем обосрался?
Анкета ШАД сложная? Осталось несколько часов, думаю проходить ли.
>>738586Раскурил, надо чистить вилкой только Age
>>738589Проходи, ничего не теряешь.
>>738589Анкета сложная, тест довольно легкий. По крайней мере, анкету я заполнял дольше чем тест.
>>738136> неосилятораУ тебя какой Хирш-индекс, мальчик?
>>738673Уровня /pr/, полагаю.Дай ссылки на твои работы тогда уж.
>>738675Прям дать ссылки, где мои имя и фамилия стоят? А спермы тебе не дать глотнуть вдогонку?
>>738675Зачем ты вообще разговариваешь с этим инфантильным дауном?
Даун тут только мальчик, который не может в математику уровня первого курса Заборостроительного техникума.
>>738678> боится деанона в зк> выёбывается без пруфовЯсно, уёбывай обратно в /b/ и за щеку себе кончи, уёбок
Проходи, не задерживайся. В /ссы иди школоту хиршем своим тралить.
Мда. Нехило мальчику пердак разнесло.
>>738696Ладно, оставайся. Кратко хоть расскажи про темы твоих исследований.
>>738700Да пусть нахуй идет, точнее в /сцы/ рассуждать о картофане. Я знавал таких физиков, как этот "математик".
>>738721И что там с физиками было?
>>738696> Techтехникум заборостроительный лол
>>738729Ну физик, ну публикации. Но тупой я ебал. Если человек не видит разницы между backpropagation и градиентным спуском - это клиника, насмехайтесь над таким.
>>738753А картошка там при чём?
>>738756Это мем /sci/, важно обвинить оппонента в том, что он любит картофан, а не науку. Пошло откуда-то от вербицкого.
Написал нейросеть с gradient decent. А она не обучается. Cost function уменьшается до 3, и всё. А вот с функцией из курскровского курса все нормально, ошибка примерно 1. Грустно чет.
>>738837Для начала определи high variance у тебя или high bias. А потом реши проблему, следуя советам по поводу high variance и high bias.
>>738839У меня скорее high varianceда, я смотрел learning curves, все дела. Просто вот эти функции поиска локального минимума. В матлабе годных нету, хотя я потихоньку качусь к R и Python, как следствие к линуксуна самом деле к армии, боже, сколько еще учить.
>>738842На самом деле high bias. Я даже в терминах примитивных путаюсь.
>>733442А если не закончил универ?
>>738696Деанон по числу цитирований!
>>738889Он подправил числа, там запятые должны быть, 7000 -> 7,000 и т.д.
>разницы между backpropagation и градиентным спуском> Этот полоумный всё продолжал бомбить ...
>>738920Подправил дупу твоей маме.
Долго не мог решить, стоит писать этот комментарий или нет. В итоге все-таки решил, что необходимо до всех и каждого донести эту информацию.ОП, в первую очередь хочу сказать, что это сообщение никоим образом не направлено на то что бы оскорбить тебя или кого-либо еще, ты делаешь хорошие и качественные треды, комментарий не об этом, не нужно воспринимать это на свой счет.Итак, перейду к сути дела- информация касательно содержания данного треда.Как уже несколько человек написали в этом и предыдущих тредах, это не просто прикольные книжки что бы прочесть, послушать, посмотреть и забыть, нет. Эта область науки крайне негативно воздействуют на ваше подсознание, даже если вы просто смотрите курсы на курсере, а уж тем более “читаете перед сном книжки по этой теме” и все такое (в таком случае информация пишется вообще напрямую). Они прописывают в ваш мозг программы поведения для вас, а что самое хреновое, для ваших потомков.Между вот такими штуками и обычным программированием лежит просто невообразимая пропасть.Т.е. если вы после поглощения этого всего проживете норм жизнь, знайте, что вся эта херня, которую Вы наслушались и насмотрелись в книжках подобного рода, обязательно ударит, и ой как больно ударит по вашим будущим поколениям. Это как поведение, привычки, черты характера, хорошие и плохие, которые передаются ментально, не зримо, по ДНК, от родителей к детям, из поколения в поколение, автоматически. 10 раз подумайте, надо ли оно вам. Если вам плевать на себя, подумайте хотя бы о своих детях, своих последователях.Для кого-то это может звучать как параноидальный бред, но черт подери, если вы не знаете о том как что-то работает и это возможно, то это не означает что такого не может быть. Нам ведь не обязательно знать все законы физики и прочих наук, что бы элементарно пользоваться электричеством- нажал на кнопку и все работает. Тут точно так же.Опять же, это сообщение не призвано никого обидеть, оно направлено на то что бы люди все-таки думали, что они “хавают”. Ведь мозг, в отличии от желудка, особенно если он недостаточно развит, не способен распознать “гнилую” информацию от полезной, светлой.На данное сообщение не надо отвечать, я не собираюсь вступать в полемику с кем-либо.Всего вам хорошего, будьте здоровы.
>>738984Ребята не стоит вскрывать эту тему. Вы молодые, шутливые, вам все легко. Это не то. Это не Чикатило и даже не архивы спецслужб. Сюда лучше не лезть. Серьезно, любой из вас будет жалеть. Лучше закройте тему и забудьте что тут писалось. Я вполне понимаю что данным сообщением вызову дополнительный интерес, но хочу сразу предостеречь пытливых - стоп. Остальные просто не найдут.
>>738756Математика делится на собственно настоящую математику (чистая системная математика), и на инженерную шелуху на периферии (для решения под водочку и картофан). Соответственно, термин картофан можно применять к любой науке, где есть ядро и прикладная периферия для негров. Ну или вообще везде, лол.
>>738984Пацан я вот начал читать это 2. Об интеллекте. http://archism.narod.ru/lib/bleiksli_sandra_ob_intellekte.pdfЯ уже потрачен ? ______Мне прежде всего важно понять для себя, каким образом работаем мозг, и всё. РАДИ ИНТЕРЕСА Было бы классно с тобой пообщаться в телеграмме. Если что, пиши - @lightglams
>>739077Чтоб понять как работает моцк, тебе в neuroscience, но чтоб там осилить что-то сложнее научпоп-ссанины, нужен пиздатый бекграунд.
>>739085окай
>>739085Рекомендую этот курс с мягким введением:https://www.mcb80x.org/lessons
>>739096пасиб
>>739009Предлагаю добавить в шаблон ОП-поста.
>>738975Ты так и не ответил на >>738700Или боишься, что сдеанонят по тегам работ, лол?
>>738975Лол, ты думаешь тебя один человек хуями кормит, математик? Ну облажался, бывает, скромно съеби в сцы и о тебе забудут.
Я ПРОСТО ХОЧУ СОЗДАТЬ ИИ КОТОРЫЙ РАСПИДОРАСИТ ЭТОТ ЕБАНЫЙ МИР К ЕБАНЫМ ЧЕРТЯМ НЕУЖЕЛИ Я ТАК МНОГО ПРОШУ РЕЕЕЕЕЕЕЕЕЕЕЕЕЕ
>>739921Ты можешь создать робота с ИИ, который разъебет твою башку, для тебя мир закончится.
>>739923Нет, я хочу увидеть, как другие пострадают, это важно.
>>739925Распечатай исходник того же numpy и опиздюль им одноквашника-чухана
>>739929Можно просто исходники OpenCV почитать.
>>739878Думаешь, я каждый день посещаю этот раздел? >>739911Мальчик, тебе мало? Ты понял уже, какой ты бред спорол?
>>740149> Ты понял уже, какой ты бред спорол?Почему бы тебе не объяснить уже, а не кривляться тут как малолетний даун?
Аноны, сегодня в компании был тренинг по ML. Вроде тема мне понравилась, но я жалею что в универе на физфаке не учил даже ту математику, что там преподавали.Можете накидать годных ресурсов для изучения матана с самого нуля?Производные знаю, интегралы (худо-бедно), логарифмы знаю, а вот лимиты уже не помню.
>>740275Ты не хохол случаем? Один учебник знаю хороший, но на мовеАлгебра та початки анализу - автор Шкиль
>>740292Не, не хохол.
Как хранить и анализировать json от разных api?Мне не хочется создавать десятки таблиц для каждого из сервисов, а потом пересоздавать если api изменилось.Может есть бд, которой можно просто скармливать json, а она будет сама заботится о том как это хранить?Производительность не особо критична, но желательна поддержка sql или чего-нибудь похожего на него.
>>740305Туда ли ты зашел?
>>740312Анализ данных, визуализация, дата сайнс, вот это вот всё тут же обсуждается?Значит велика вероятность, что тут люди знают как, особо не напрягаясь, собрать кучу json-ов в одном месте, а потом делать к ним запросы.И это очень популярная задача, так что должен быть инструмент для этих целей.
>>740316mongodb
>>740316Postgres тоже может json.
>>733276 (OP)>Если вы сможете полностью проработать эту книгу и прорешать упражнения, обязательно свяжитесь со мной - у меня найдется работа для вас.Карьера преподавателя в Мухосранском Государственном Университете? Или что поинтереснее?
>>740476Помощник дворника на пол ставки по выходным
Парни, поясните отсталому. Читаю Introduction to Statistical Learning, введение (13 страница). Там предлагается использовать линейную регрессию для классификации, и представлена данная иллюстрация. Мне кажется это хуйня полная, почему на плоскости представлена зависимость Y от двух параметров, когда на деле все должно выглядеть как пространство, разбитое плоскостью зависимости?
Ладно ОП прорешаю твой учебник, если гришь, что на практике его можно будет применить.
>>740173Backpropagation - это и есть пример применения GD, придурок.
>>740609Нет, там все правильно нарисовано. Каждая точка - это решение классификатора для этих значений переменных. Линия - это граница решения.
>>740656Что по осям?
>>740670x y
>>740741Остроумно, но что в xy то. y должен быть {0,1}
>>740751Ты жопой читаешь, или инглиш совсем плох? Речь о классификаторе с двумя входными переменными. Оси им соответствуют. Подумай хоть немного сам, что же я тебе все разжевываю?
>>740775А результат линейной регрессии это не линия, разделяющяя параметры. А ебаный функционал от параметров в таргет.
>>740793Вот о чем я говорю.
>>740798>>740793я ретард, забыли
Ну вы и насрали тут, ребята.>>740275Зорич подойдет.>>740476По-интереснее.
Пацаны, поясните за градиентный спуск? Делаю реализацию по классическому условию while J(Q) - oldJ(Q) > epsilon, где J(Q) это функция из которой формируется кривая обучения , если надо могу подробнее алгоритм расписать. Так вот, как выбрать эпсилон? Для начального J(Q) порядка 10^6 годится и единичка, т.к. сходится довольно быстро даже с темпом обучения 10^-3, а вот для порядков 10^14 уже нихуя не годится, либо слишком долго считает, либо кривые значения выходят если брать намного большее значение
>>741102Потуги картофана.
>>741161По теме есть что сказать? Если нет - прошу нахуй
>>741102на длину градиента смотри?
>>741285Что ты подразумеваешь под длиной градиента? Может быть мы с тобой разными терминами говорим. Длина градиента=шаг обучения? Если да, то я динамически изменяю(вычислили новое значение кэфов и J(Q) - если новое J(Q) > старое J(Q) значит кривая обучения растёт, хуйня, уменьшаем шаг обучения и заново считаем).Если же нет, то я зря высрал абзац выше
>>741308Норма вектора, шайтан.
>>741102Считай пока оценка ошибки уменьшается и не парь мозг.
>>741344лол
>>741102> Так вот, как выбрать эпсилон? Никак не выбирать. Такой путь - верный способ сделать overfitting, переобучить твою сеть под конкретные входные данные. Делай просто 1 (10, 100) шагов спуска для каждого из примеров, и все. Когда же закончить, спросишь ты. А вот когда (пишу это тут миллионный раз, так как ml-class.org прошли 1.5 человека - всем сразу глубокие нейросети подавай).Делишь множество на 2 части, training и validation. Обучаешь training, получаешь функцию J(Q), далее прогоняешь через обученную функцию множество validation, получаешь функцию V(Q). Если все правильно сделал, со временем эти функции нарисуют график на картинке. Останавливайся, когда J(Q)==V(Q). В таком случае ты избежишь переобучения. Далее будут варианты - все хорошо (J(Q)==V(Q) причем требуемая тебе точность достигнута), обучение остановилось, а перформанса нет (J(Q)==V(Q) но требуемая точность не достигнута high bias), или обучение застряло (J(Q)!=V(Q)). Для каждого из вариантов есть свои рецепты как это улучшить - где-то можно создать новые примеры, где-то - сменить модель. Подробности в учебниках.
>>740654> Often the term "backpropagation" is used in a more general sense, to refer to the entire procedure encompassing both the calculation of the gradient and its use in stochastic gradient descent, but backpropagation proper can be used with any gradient-based optimizer, such as L-BFGS or truncated Newton.То есть все это время ты кривлялся из-за того, что считаешь единственно правильным / знаешь только первое значение.
>>741528Пиздец, дурак. Лучше просто заткнись. Ты даже читать не умеешь.
>>740654О, наконец-то ты родил что-то отличное от оскорблений. И тут же показал свой уровень.>Backpropagation - это и есть пример применения GD, придурок.А если я использую L-BFGS, это уже не backpropagation что ли? Иди ты нахуй, школьник, мамку свою траль.
Уважаемые академики, у меня есть выборка, в виде троек из трех чисел, полученные анкетированием с вопросом вроде "Выберите три главных фактора". Как мне выделить признаки для кластерного анализа?
>>7422133 числа ты можешь легко визуализировать в трехмерном пространстве и посмотреть сам, что просходит. Можешь также применить PCA и посмотреть 3 проекции.
>>742347Разумно, но ме бы еще пару циферок вроде p-value для пруфа.
>>742404Ты не понял. Смотришь на визуализацию и оцениваешь, как лучше все это кластеризовать. Далее выбираешь метод и кластеризуешь. Проще 3д только 2д.
>>742463Понял, но смотри еще в чем загвоздка, ответы на вопросы равносильные. То есть тройка (1,2,3) по идее должна быть равна (2,3,1).
>>733276 (OP)Аноны, вы тут нейронными сетями не занимаетесь?Расскажите мне, какой из их типов лучше использовать для следующих задач:Нужно научить манипулятор хватать, удерживать и перемещать предметы.Нейронная сеть должна сама научиться классифицировать предметы по группам.И еще одно, можно ли с помощью нейросети научить гуманоидное создание ходить?Какой для этого лучший способ обучения? Нацепить на себя акселерометры и ходить по смоделированной в 3д комнате?Нужно, чтобы в конечном итоге сеть сама определяла, как робот будет шагать и что делать в разных ситуациях.
>>742473Отсортируй тройки по возрастанию перед визуализацией и кластеризацией.
>>742486И с каких задач лучше начать? Чтобы через 1.5 года суметь написать такое?В алгоритмы умею, но работаю в другом направлении Серверы и жаба
>>738589Репортинг ин: решил 9 из 11 (соснул на перестановках и комбинаторике). Экзамен будет в разы сложнее, так что шансы мои не велики.
>>742525Никто в мире еще не написал, а ты напишешь. Ну удачи, че. Начни с изучения того, что уже есть.
>>742551Чего не написал?Про хватания предметов уже давным-давно написали же.А вот про ходьбу - да, но я и не нагуглил ничего по этой теме.
>>742552Хотя нет, в 2002 что-то подобное было.https://www.youtube.com/watch?v=JFJkpVWTQVM
>>741021>Зорич подойдет.Окей, спасибо.
>>742509Затупил, спасибо.
>>742486Какой нибудь reinforcement learning тепе в помощь, можешь глянуть на intrinsically motivated reinforcement learning.
>>742827Бля, ну и криво я написал, пиздец.
>>733276 (OP)О, анончики, мне понравилась тема треда.Насколько это будет модным в ближайшие 6 лет? Я найду работу?
>>733276 (OP)Аноны, а нейросеть может сама понять взаимосвязь между определенными элементами, например? Вывести закон физики для маятника?
>>743018подсунешь хорошую обучающую выборку - чота тебе выведет
>>743024Понятно.А каким образом может происходить такое обучение вообще, если, например, в 3Д редакторе написать скрипт маятника и посадить сеть в роли камеры следить за ним, то научится?Или надо связывать скрипт маятника и все данные с него посылать на сеть?
>>743036Если совсем примитивно, то любое машинное обучение это построение отображение из пространства признаков в пространство ответов. В случае с нейронными сетями у тебя есть конкретные функции преобразования исходных данных в конечный вектор представлений и какая-то функция потерь, принимающая на вход этот самый вектор представлений и истинное значение. Дальше мы каким-то образом оптимизируем параметры сети, чтобы она минимизировала нашу функцию потери. Сможет-ли она это сделать или нет и насколько хорошо (теоретически) в общем случае вопрос нерешенный, так что нужно пробовать. Ну и наличие здравого смысла тоже не помешает. Скажем, классифицировать изображения по количеству пикселей в них не получится.
>>743018Очень широкая постановка вопроса, невозможно ответить.Подобрать константы для готовой формулы - да, может.Подобрать формулу при фиксации конечномерного базиса функций - сейчас уже скорее да, чем нет.Самостоятельно выводить законы физики - нет.Не надо пихать ML туда, где работают точные законы и зависимости уже известны.>>743013Оче модно.
И да, я вам покушать принес. Мне понравилось:http://www.cs.nyu.edu/~mohri/mlbook/
>>743071> Mehryar Mohri, Afshin Rostamizadeh, and Ameet TalwalkarAllahu Akbar!
>>743069>Подобрать константы для готовой формулы - да, может.Можно примерно описать, что здесь имеется ввиду?Если у меня есть готовая формула, с зависимостями, то зачем мне нейросеть?В общем, ситуация такая, есть формула, но я не знаю полностью. связи между элементами этой формулы, а вычислять их - это очень и очень муторно, например, есть шагоход, я знаю, в какую сторону будут двигаться конечности, но высчитывать все затраты на сопротивление у материалов - мне лень, а нужна относительная точность.Хочу использовать нейросеть, она для этого подходит?>Подобрать формулу при фиксации конечномерного базиса функций - сейчас уже скорее да, чем нет.Не понял тебя.>Самостоятельно выводить законы физики - нет.А как же кластеризация?
>>743123>>Подобрать формулу при фиксации конечномерного базиса функций - сейчас уже скорее да, чем нет.А все, понял.Если у меня есть несколько рядов чисел, то между ними сеть может найти закономерность?
>>743128Нейросети, как и все остальное здесь - аппроксиматоры. После обучения она будет представлять собой функцию, достаточно хорошо (а может быть и плохо, если обучение пошло не так) переводящую числа из одного ряда в другой.Проблема в том, что ты вряд ли сможешь проинтерпретировать веса в сети, чтобы извлечь из нее готовую формулу.Попробуй лучше регрессию с достаточно богатым базисом.>А как же кластеризация?Что кластеризация?
>>733340>А вообще, чем можно заниматься вкатившись в ML?Я, например, оптимизирую CTR. Намеренно не вкатывался, просто возникла такая задача.
>>743189>Попробуй лучше регрессию с достаточно богатым базисом.Черт, тот момент, когда математика становится полезной, загуглил.У моего шагохода всего пока 12 приводов и мне лень высчитывать все затраты на сопротивление.Суть в том, чтобы каждому значению положение ноги соответствовали значения из других сервоприводов, а вот эти значения мне никак не найти, потому что они могут быть рандомными.
>>743243>рандомнымиОй что пишу, бред какой.Они могут лежать в целой области значения чисел.
>>743243Мб тебе какая-то модификация Калмана нужна? Опиши задачу подробнее, что за сопротивления? Какие датчики?
>>743254Сопротивления у подшипников, у моторов сервоприводов + сопротивление поверхности ступни.Датчики - акселерометры и гироскопы.И да, регрессия уже используется в коде самих сервомоторов.Кстати, интересно получилось, сервомоторы не дергаются и потребляют на 32% меньше энергии и выглядят привычнее + момент инерции куда меньше.
>>743254У меня, считай решение задачи обратного маятника, только не в двух направлениях, а в повороте шарового шарнира на 360 градусов.Но суть в том, что значения у этого маятника "плавающие"
>>743259Почитай что-нибудь про HMM и Factorial HMM. Вообще, очень смахивает на задачи, решаемые в теории управления.
>>743262Нет, это не тоже самое.У меня имеет значение скорость ускорения сервоприводов, время исполнения.Вроде того, что нога должна двинуться вперед, а туловище назад или как-то, чтобы уравновесить момент инерции ноги.Поэтому и думаю использовать нейросеть, потому что мне неизвестна структура поверхности, ее высота или углубление, а оно может быть вообще рандомным.Это будет в будущем, но в качестве модели в 3Д редактореНо как мне в этом случае проводить обучение?
>>737605>А можешь описать чем вообще такой подход лучше/хуже, чем постановка задач оптимизации в классическом варианте? Это не оптимизация же. Идентификация систем, универсальная аппроксимация, вот это все. Лучше тем, что во-первых все очень просто, любая вообще нечеткая модель представима в форме стандартной аддитивной модели Коско пикрелейтед, для которой есть методы настройки параметров (обучения), как с учителем бекпропагейшеном, так и без, кластеризацией. Потом, получаемые модели полностью прозрачны и интерпретируются, в отличие от нейросетей н-р.Вот типичный пример >>743243 когда лучше всего зайдет контроллер на нечеткой логике.
>>743293Давай лучше без обучения, это все-таки задача из теории управления. Чем тебя не устраивает выполнять периодическую калибровку сервоприводов? Замеряешь производную общего момента силы от управляющего сигнала на сервопривод и используешь его потом для выравнивания момента инерции.
>>743333С того, что это будет слишком дубово.Я уже пробовал решать этот подход на двуногом шагоходе, но без поворотов ход только вперед-назадИ скажу тебе, что это худший вариант, я использовал нечеткие регуляторы, которые хорошо справлялись со своей работой, но как бы я не изменял мощность приводов - затрата на обычный шаг времени была огромна, если все сделать скриптом обычным, то время получалось чуть ли не в 3 раза меньше.
>>743353Да и та система не умела считать момент инерции и баланс веса, а просто, использовала усредненные значения с сервомоторов и подстраивала их под друг-друга.Таким образом при общей высоте шагохода в 40 см и длине ног - 24, скорость метр за 48 секунд - слишком.
>>743370>>743353А расскажи, что там дубового, были дерганые движения? Что происходило, если просто увеличить скорость работы всех сервоприводов? Шагоход начинал заваливаться? Ты использовал стабилизаторы?
>>743399Нет, дерганных движений не было.Были наоборот, плавные движения.>Что происходило, если просто увеличить скорость работы всех сервоприводов?Тогда будет сильная вибрация всех частей, увеличится момент инерции и соответственно да, шагоход начинает вести себя очень непредсказуемо, может как уверенно стартовать, так и упасть на старте или на 3-5 шаге.>Ты использовал стабилизаторы?Нет и не собираюсь.
>>743406И да, я изменял материал подошвы, переписывал все под новые параметры, но все - фейл.Поэтому и хочу использовать нейронную сеть, думаю, она сможет показать куда более интересный результат
>>743412Понятно. Честно говоря, у меня подозрение, что для обучения нейросети движениям потребуется огромная выборка.Задачу формулируешь так - на входе требуемое изменение импульса + текущие управляющие сигналы, на выходе требуемые управляющие сигналы для получения требуемого импульса.Попробуй посмотреть статью 10.1007/BF01186934, может что-то найдешь для себя.
>>743451Хмм, а может быть, для начала, занять рабочее время своего домашнего сервера вычислениями в несколько потоков?Замоделировать уровень с препятсвиями, где модель будут толкать, а опорная точка двигаться по всякому, дать системе возможность управлять конечностями.И через несколько тысяч перезапусков она сама, научится идеально управлять собой?А потом просто все откалибровать.
>>743468Так и надо делать - примерную архитектуру сети и идеи обкатывать на компьютерной модели, эталонную версию сети тренировать на более тяжелой компьютерной модели с учетом большей части нюансов, а калибровку, учитывающую все допуски реальной модели выполнять уже на самом шагометре. Калибровать можно либо дообучая сеть, либо наложив на выходной сигнал сети какой-нибудь несложный фильтр.Попробуй TensorFlow, Theano или Keras (если не осилишь первые два). Хотя особо значения не имеет на чем писать, просто эти трое мне нравятся.Ты случайно не из ДС?>>743328Видимо, с наскоку идею понять не получится. Пока, с твоих слов, для меня это выглядит еще одной линейной моделью. Попробую открыть твою книгу.
>>743487>Пока, с твоих слов, для меня это выглядит еще одной линейной моделью. Например, модель Такаги-Сугено пикрелейтед и есть линейная модель с правилами вида "если х есть А, то у = ах+b", но с ее помощью можно представить сколь угодно нелинейную систему. В правой части пика примеры 1 и 2-мерных моделей, в левой собственно матчасть, но я исправил ошибки, которые были в оригинале http://takagiken.com/takagi-sugeno-modeling.pdf
>>743468Это ты вообще, верно пришел к использованию нейросети.Иди и почитай для начала, как работают нейросети.А все же, для тебя будет легче сделать все таким образом:Сделай все балансирующие движения, вообще, в качестве методов или функций.И протестируй вообще, все-все-все движения, чтобы понять, как разная скорость и положение будут влиять на тело робота в разных положениях.И потом, когда ты будешь толкать своего шагохода, то он будет выбирать из параметров ранее заданных функций и научится не падать.Только тебе понадобится очень много тестирований.Представь, что тебе надо затестить как будет влиять рука на робота вообще во всех положениях, которые он только может принимать, скоростях и прочем.Но это все равно, будет очень быстро, просто понадобится туева хуча часов.Зато ты сможешь выследить закономерности, я бы на твоем месте использовал тот же подход, который используют авторы всяких симуляторов, когда у них с помощью прямых показывается подъемная сила крыла.
>>743533Что-то слишком круто для меня. Но подход интересный и простой.Надо будет опробовать в ближайшее время на обычной, стоячей позе.
>>743509Что это за ебучий пиздец? Нахуя это надо в жизни?
>>743487>Видимо, с наскоку идею понять не получится. Пока, с твоих слов, для меня это выглядит еще одной линейной моделью. Это поехавший из /sci/, который уже хуй знает сколько времени носится с этими Такаги-Сугено. Тебя должно было насторожить уже то, что для него это самый перспективный метод в ML.
>>743538>2ch>Анонимное общение
>>743538А что не так-то?
>>743451Класс, с домашнего компа статью не скачать.>>743293Мб, тебя это заинтересует:Luciw, M., Kompella, V. R., Kazerounian, S., & Schmidhuber, J. (2013). An intrinsic value system for developing multiple invariant representations with incremental slowness learning. Frontiers in Neuroroboticshttp://www.ncbi.nlm.nih.gov/pmc/articles/PMC3667249/pdf/fnbot-07-00009.pdf
Анончик, какой же адъ, я таких сложных вещей никогда не видел.
>>743740Да я уже понял способы решения своей проблемы.Кстати, нейронная сеть - это вообще, магия.Сейчас тестирую свой старый шагоход, в целом, получится около 10к значений.Потом кину на входы другой нейросети и пусть сидит, кластеризирует все, потом дам ей пошагать.Вообще, картина интересная получается, все можно уложить в методы обычные.То-есть, например, толчок туловища - 50 условных очковДвижение ногой в противоположное направление с определенной скоростью - это 50 очков.Да еще и если двинуть в разные моменты, скорости ноги ступней, то она может как минусануть, так и плюсануть все.От так то.
>>743753До этого лучший вариант был у генетического алгоритма.Он смог прошагать метр за 16 секунд и ходил ровно и уверенно.Но с 1200 попытки.
>>743757У меня какой-то печальный опыт с ГА и всеми этими эволюционными вещами. Мне с моими кривыми руками уж как-то очень трудно было их настраивать для получения адекватного результата.
>>743763А что реализовал то хоть?Для них самое лучшее - это найти вариант, который будет работать из множества значений постоянно, но минус в одноразовости, в отличии от нейронной сети она не сможет поставить себя на место исходя из значений.
>>743753О, ты сегодня в моеи треде писал, где я про универы спрашивал? Мир Двач тесен.
>>743766В первый раз была задача связанная с ресемплингом в particle filter. Есть достаточно много статей, где народ использовал ГА. На моей модели (косинус с неизвестной моделью изменения фазы и амплитуды) как-то не пошло. Хотя непрерывный муравьиный алгоритм сработал годно.Во второй раз я игрался с GP на примерах классификации и смвольной регрессии, работало жутко долго и хреново.
>>743771Эмм, нет, но на другой борде писал, да.
>>743773У вас там соревнование шагоходов что ли?
>>743774Ага, Шагай к победе
Анон, как подготовиться к поступлению в ШАД в следующем году? А то в этом я был немного шокирован заданиями, в которых половина слов была непонятна.
>>743797Загугли слова и задрочи тесты.Если хочешь готовиться к тесту - готовься к тесту.
>>743798Они не гуглятся даже почти. А то, что гуглится, окружено не меньшим колличеством непонятных слов.
>>743797Бери учебники и дрочи, в математике нет царских путей.
>>743910Я хочу, чтоб учебник посоветовали.
>>743916Бери все
Итак, аноны, за ночь произвел более 6к тестов на ноги.Тестил его следующим образом:Так как эта версия ходит только вперед-назад, то и тест соответственный.В тест входили данные с сервомоторов и акселерометров.И самое главное, что после основных тестов и подачи этого на другую сеть, она каким-то образом сама научилась прогнозировать данные.
>>743933А у тебя реальный шагоход, или модель в каком-нибудь юнити?
>>743970Реальная уменьшенная копия оригинального проекта.Но дальше все буду где-нибудь тестировать.Кстати, какая среда для этого лучше подойдет? Чтобы физика по реалистичнее была?
>>743973>Но дальше все буду где-нибудь тестировать.Попробуй Blender Game EngineОн с физикой, вроде, хорошо дружит
>>744004Но он же сырой, разве нет?
Анонимусы уже пробовали в https://gym.openai.com что-нибудь делать?
Аноны, давайте конфу в телеграме замутим, может польза какая будет.
Есть тут еще кто писал?
>>744303Я соснул 5/11
>>743242Зачем нужно ML чтобы оптимизировать?
>>743916Ну смотри. Были задачи по линейной алгебер, теории групп, теории вероятности, дифференциального и интегрального исчисления и парочка задач по программированию. 1. Линейная алгебра и теория групп это например Винберг.2. Теории вероятности да хотя бы и статейки на вики(не знаю учебника по теор. веру).3. Анализ читали в твоём вузике. На тесте были задачи первого курса. Так что знаешь что читать.4. Программирование было элементарное. Рекомендую полистать Хормана, всего не прочтёшь, но основых заботай.
>>744303>>742533
>>745329> Теории вероятности да хотя бы и статейки на вики(не знаю учебника по теор. веру).Чтобы понимать статьи на вики по теорверу, надо быть знакомым с теорией меры и интегралом Лебега.
>>745695Дурак что ли?
>>745329>1. Линейная алгебра и теория групп это например Винберг.Спасиб, эо главное, что я искал.>Анализ читали в твоём вузикеЯ не учился в вузе.
>>745762https://ru.wikipedia.org/wiki/%D0%9C%D0%B0%D1%82%D0%B5%D0%BC%D0%B0%D1%82%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%BE%D0%B5_%D0%BE%D0%B6%D0%B8%D0%B4%D0%B0%D0%BD%D0%B8%D0%B5В английской википедии какое-то говно нестрогое написано.
>>746034> В английской википедии какое-то говно нестрогое написано.как раз твоего уровня писнячитай и не выёбы
>>746028
>>746075Интересно? Уже 105 человек смотрит, но я потерял нить после "мы" .
>>746080Более-менее.
>>746075Попался.
>>746091Деанон PhD в зк по затылку.
>>746091Стой, я правильно понимаю, что наш герой - это тот хлюпик в полосатой майке?
>>746097Наш герой -- морячок!
>>746067Еще что вскудахтнешь, картофан?
Парни, а кто вообще занимается изучениием нейронных сетей? То есть не практические задачи а-ля "накидать и обучить сетку для решения вот этой проблемы", а что-то вроде обратной задачи - почему вот эта сеть решает проблему лучше вот той, декомпозиция короче. Какие-то может есть известные группы? Хотелось бы начать неспешный вкат в ту сторону.
>>746390Ух, это ты жестоко загнул. У нас в итме этим кто-то занимается, но, зная уровень своей шараги, могу сказать, что творится там может полная хуитень.
>>746390Опять же гугли ШАД и Яндекс. У них там полно ML и нейросеток.
>>746390>>746459Вот же первая строка в выдаче, дебил.https://academy.yandex.ru/events/sci-sem/cv/Хочешь быть гуру?1. читаешь статьи с докладов2. читаешь статьи из ссылок статей3. читаешь статьи из ссылок4. въёбываешь5. ????????6. PROFFIT!!!!1!!!111!Всё ж блядь как ирисы классифицировать.
>>746460>как ирисы классифицировать.Кстати, об ирисах. А есть вообще алгоритмы, которые на классификации ирисов дают нулевую ошибку?
>>746528Да, большая часть нелинейных трансформаций входных данных сделает данные линейно-разделимыми.
>>746553>большая частьСовсем поехавший
https://youtu.be/dGoHLgquCEY?t=1h30sОн прав?
>>746801с какого момента?
>>746930Он считает ИИ самой большой угрозой потенциальной человечеству и что надо даже законодательно запрещать какие-то вещи.
>>746949Ну типа скайнет возможен?
Аноны, как лучше попасть в ваше направление? Дома сидеть развиваться, или в ВШЭ ФКН поступать? А если в него не смогу поступать, то куда лучше?
>>747016В ОП-посте есть всё необходимое, при должном желании и адекватной мат.базе можно и дома задрочить.
>>747046Я пробовал то читать. Что-то понимаю, что-то нет. На самом деле я именно чувствую, что > адекватной мат.базу меня и нету.
>>747016> А если в него не смогу поступать, то куда лучше?Кстати, двачую вопрос. Во ВШЭ пар как-то много, я смотрел учебный план, там нагрузка 1к часов в семестр (то есть как в бакалавриате). С работой по времени тяжело будет совмещать.Какие есть магистратуры на эту тему, где учеба вечером и пар не очень много? Куда-то поступать надо, потому что у меня военника нет, кек.
>>746949хуйнянет никакого "ии"
>>747082и добавить нечего
>>747082Если примитивная обезьяна смогла получить интеллект в результате случайных мутаций, то уж целенаправленное создание интеллекта точно возможно. Вопрос в том, не будем ли мы все кормить червей к тому времени, как его изобретут.
>>746608Привет, даун. Набор данных имеет конечный размер n, мощность множества преобразований, повышающих комбинаторную размерность любого алгоритма до значений выше n, несоизмеримо больше, нежели тех, что повышают ее до любого значения от исходного до n.
>>746528Не очень понял о чём вы, но ирисы могут слегка изменить свой внешний вид в результате эволюции, и любой алгоритм соснёт.
>>747200Тот, который отслеживает эти изменения, нет.@СОСНУЛ ТЫ
>>747191> большая часть нелинейных трансформаций входных данных сделает данные линейно-разделимыми. Привет, важный профессор-академик. Думаешь можно с важным видом вскукарекнуть про мощность множества?Так что, слабо пояснить почему мощность множества нелинейных трансформаций входных данных, которые сделают данные линейно-разделимыми больше мощности множества нелинейных трансформаций входных данных, которые сделают данные линейно-неразделимыми?Ты же даже не можешь выписать мощности этих двух множеств, зато можешь с умным видом прокукарекивать слова мощность множества и называть окружающих даунами.
>>747191и да мне похуй на твои последующие вскукареки про алгоритмы. Разговор именно про нелинейные преобразования.
>>747217Какой же ты тупой, пиздец. В посте написано все что надо. Еще раз тегами - комбинаторная (или VC) размерность, конечность промежутка от 1 до n, счетность промежутка от n до inf.>>747217Не способен в вычислительную сложность?
>>747237Олух, мы обсуждаем твой вскукарек про _нелинейные_ трансформации входных данных:"большая часть _нелинейных_ трансформаций входных данных сделает данные линейно-разделимыми."Про нелинейность ты сразу забыл и стал с умным видом кукарекать про повышение комбинаторной размерности алгоритмов.Если бы ты не был пустопорожним вскукарекалом с умным видом, ты бы просто выписал мощности двух множеств, про которые ты утверждал, что одна больше другой:1) множества нелинейных трансформаций входных данных, которые сделают данные линейно-разделимыми2) мощности множества нелинейных трансформаций входных данных, которые сделают данные линейно-неразделимымиПросто выписать два кардинальных числа.Вместо этого:>кококо мощность множества!>покпокпок комбинаторнаю размерность алгоритма!>я тут чет написал тип пояснил, сделаю вид, типа не я нихуя не пояснил, а ты не понимаешь)))))
>>747256Ебанутый, правда не понимаешь, что разговор о нелинейных преобразованиях и о всех суть одно и то же?>Просто выписать два кардинальных числа.k и k^(cf(k)), где cf(k)) - кофинальность.Это очевидная вещь даже не для математиков - осознаешь степень своей кончености?
>>747207> отслеживает эти измененияНет пути
>>747271Ну т.е. ты настаивашь на том, что ты просто кривляющийся клоун, кидающийся умными словечками.ты формулируешь математические утверждения или пытаешься отделаться кукареканьем и пердежом в лужу?>разговор о нелинейных преобразованиях и о всех суть одно и то же?поясняй в каком петушином смысле это утверждение является правильным и почему. В прямом смысле это утверждение верным не является. - ты обосрался.Если тебе очевидно, что в некоторых утверждения - ну так выпиши эту пару предложений, подтверждающих правильность, а не очевидность.>k и k^(cf(k)), где cf(k)) - кофинальность.у математиков принято вводить обозначения перед тем, как ими пользоваться. k - обозначение?>кофинальностьты типа все знаешь, только как пишется не знаешь, да? Верим-верим.>cf(k)) - кофинальностьты разницу между кардинальном числом и ординалом знаешь? Я тебя спрашивал про кардинальные числа или ординалы? ты понимаешь конфинальность - кардинальное число или ординал?
>>747347>не отличает кофинальность от конфинальностиВсе, свободен, иди нахуй.
>>747347>ты понимаешь конфинальность - кардинальное число или ординал>Если тебе очевидно, что в некоторых утверждения Ебал ее рука
>>747358Круто, что ты жиденько обосрался и так и не смог пояснить свои кукареканья.Мощность простого множества у него выражается через какую-то выдуманную кофинальность, которая не конфинальность с ошибкой.
>>747358>>747365Это успех.Двач на острие науки.
>>747365Ты заебал засирать тред боевыми картиночками. Почему бы вам обоим не съебать в /sci/, /b/ или еще куда и не ебать там друг друга в жопу?
>>747373почему бы тебе не пойти и не пожаловаться своей мамаше.Какой-то даун тут несет хуйню с умным видом и весь тред молча это ест.
На ангельском кофинальность отлично гуглится.https://en.wikipedia.org/wiki/CofinalityПойду повторять математику...
>>747375Ну да, несет хуйню, причем порвался и постит боевые картиночки для придания веса своим словам. Нахуя мне кому-то жаловаться, хочешь быть клоуном - будь им.А ваши аутичные споры о терминах неинтересны, этой хуйней весь /sci/ забит так, что сидеть там невозможно, аутисты засрали /c/, аутисты засирают вообще все, что можно. В нормальную беседу не могут, лишь бы письку показать, и показать, какой ты крутой на ебаных бордах.
>>747381Я тоже слабо понимаю, о чём они сейчас.Они пытаются посчитать VC-размерность нейросети? Они считают её оторвано от конкретной архитектуры?
>>747382> Я тоже слабо понимаю, о чём они сейчас.Ну пиздец.Вопрос был сформулирован конкретнее некуда.
>>747365Даун жидехенько обосрался, изображая, будто он что-то понимает. Попробуй сначала гуглом научиться пользоваться, прежде чем с дядями разговаривать. Кофинальность у него конфинальность с опечаткой, вообще охуеть.
>>747200Речь о конкретном датасете, общеизвестном под названием "ирисы Фишера"
>>747347Ну ты хоть поясни. Реально ли для любых линейно-неразделимых множеств найти нужное количество нелинейных трансформаций, которые могли бы сделать эти множества линейно разделимыми?
>>747214Вижу мудака. Без математики понятно, что если взять два класса и четыре точки на плоскости, то преобразование, оставляющее четыре точки линейно-неразделимыми - это любое преобразование из R2 в R2. А вот преобразование из R2 в любое другое пространство более высокой мерности, чем два, и не оставляющее точки на одной гиперплоскости сделает их линейно-разделимыми. Объем такого пространства - все возможные нелинейные преобразования из R2 в любое пространство минус все преобразования из R2 в R2 (ну и из R2 в R1, что маргинально). Преобразований из R2 в Rx интуитивно больше, чем из R2 только в R2, о чем и была речь. Данная ситуация прекрасно расширяется на любое количество точек и классов, выводы остаются в силе.
Нужно хранить логи вида: "время-свойство-значение", где значение - строка. Логов много и значения очень часто повторяются.Как их хранить, что бы занимали мало места, но можно было обрабатывать?
>>747415У нас в ML любой вектор конечномерен. Значит ты всегда можешь завести табличку вида вектор -> число со всеми возможными векторами, и далее, ясен перчик, это разделить не то, что линейно, а прямо по y=const.
>>747189>то уж целенаправленное создание интеллекта точно возможноС чего? Вдруг за это отвечает квантовая гравитация, которую мы не можем понять? Просто из-за ограниченности нашего мышления по Гёделю. Тогда возможно только случайное создание человеком.Кароч, ты как-то голословно заявление сделал.
>>747384Вопрос был о ирисах, но вы уехали в срач о теминологии.
>>747189если ты говоришь с точки зрения теории вероятности, то соглашусь.в противном случае - это задача даже не ближайшего будущего с учетом вполне себе постоянно ускоряющегося развития технологий
>>747462>Просто из-за ограниченности нашего мышления по Гёделю.Я слышал, как теоремы Геделя приплетают к логике. Мол, логика неверна из-за стопятьсотой теормы Геделя, кек)))0Но это, блядь, новая ебаная вершина. Ограниченность мышления по Геделю. Край нахуй, лизоблюды от математики совсем ебанулись.Ты хоть понимаешь, что эта злоебучая теорма была про формальные системы - конкретный математический объект? Не про логику нахуй, не про мышление, а про сраную формальную систему. Слышим звон и вообще не понимаем где он. Гедель бы поехал от такой интерпретации своих теорем. Хотя подождите-ка, он ведь и так OH SHI~
>>747453>Значит ты всегда можешь завести табличку вида вектор -> число со всеми возможными векторами, и далее, ясен перчик, это разделить не то, что линейно, а прямо по y=const.Но остается вопрос, насколько один вектор ближе или дальше от другого. Т.е. не каждый входной вектор принадлежит к своему классу, а все входные векторы принадлежат некоему числу классов, н-р в тех же ирисах это 3 вида.
>>748095"Не принадлежит никакому классу" - это тоже класс.
>>733276 (OP)Может кто-нибудь накидать вот прям примеры реального применения ML? Судя хайпу по миллиардам влитых долларов, должен уже быть какой-то мощный выхлоп, да и вообще, в эту область довольно умные люди заняты не просто так уходят. Скорее всего я просто не глубоко копаю, но пока все успехи в МЛ, о которых я слышу, заключаются в том, что какой-то новый подход позволяет распознавать стандартный сет на несколько процентов лучше, или что кто-то со своим новым подходом победил в очередном контесте. Или что какой-то информационный гигант выпустил революционную систему AI, которая в теории сильно поможет врачам в постановке диагнозов, заменит бизнес-консультантов...но пока вы можете попросить ее составить вам рецепт блюд. Или пораспознавать возраст на фоточках. Самое реальное, что мне попадалось - это системы автопилота для транспорта, которые реально используются в конечных продуктах. Ну и тот же Watson, по завялениям, реально используется для помощи в диагностики рака и помог в организации бизнеса зоопарку. Но этого всего как-то мало, чтоли.
>>748267Я парсю Яндекс пробки что бы найти места где заказывать билбордыПарсю список предыдущих закупок дилеров одной сети что бы прогнозировать что заказывать и заказывать некоторую часть еще до того, как сами дилеры закажут, что бы ускорить время изготовления и доставки.При этом я вообще никогда не работал программером
>>748267Яндекс.пробки сами по себе, рекомендательные системы, высокочастотная торговля, фильтрация спама.
>>748284> рекомендательные системы, высокочастотная торговля, фильтрация спамакак раз в том и дело, что это сильно абстрактный список. Мне же интересны конкретные системы, чтобы можно было вот наглядно прям понять, что именно в итоге МЛ делает. Для чего в итоге делаются все эти исследования с довольно сложной математикой
>>748267У мамки на работе (онкоцентр) используют хуйню вроде ML чтобы выдать прогноз по онкобольным. Типа сколько жить осталось. Если прогноз херовый - не лечат ни хуя, все равно помрет хули, а лекарства дорогие шо пиздец и на всех не хватает. В других онкоцентрах такая же хуерга, внедрена сверху минздравом.
>>748339ML спасает жизни карман чинушей.
>>748339Где она работает? Прям анамнез парсят? Что за система такая?
>>748267Взять хотя бы контекстную рекламу у Гугла или Яндекса, приносящую миллионы нефти. Рекомендательный сервис Netflix или Amazon'а, да и вообще рекомендательный сервис.
>>748339А не придумал ли ты это только что? Как система называется?
деанона не будет. мамке до пенсии еще пахать. она одна за еботеку платит - мы без отца живем. скандалы нахуй не нужны.парсят все подряд. плюс снимки, лабыя в медецине не ебу. so подробностей нет.
>>748340у мамки говорят что чинуши лечатся в европе или израиле, где угодно только не у нас.в швейцарии и австрии например. онкоцентры это для быдла, шобы не бугуртело.
>>733276 (OP)>LinuxI'd just like to interject for moment. What you're refering to as Linux, is in fact, GNU/Linux, or as I've recently taken to calling it, GNU plus Linux. Linux is not an operating system unto itself, but rather another free component of a fully functioning GNU system made useful by the GNU corelibs, shell utilities and vital system components comprising a full OS as defined by POSIX.Many computer users run a modified version of the GNU system every day, without realizing it. Through a peculiar turn of events, the version of GNU which is widely used today is often called Linux, and many of its users are not aware that it is basically the GNU system, developed by the GNU Project.There really is a Linux, and these people are using it, but it is just a part of the system they use. Linux is the kernel: the program in the system that allocates the machine's resources to the other programs that you run. The kernel is an essential part of an operating system, but useless by itself; it can only function in the context of a complete operating system. Linux is normally used in combination with the GNU operating system: the whole system is basically GNU with Linux added, or GNU/Linux. All the so-called Linux distributions are really distributions of GNU/Linux!
>>747451Загнать всё в БД?
>>748522Столман, отъебись
>>747451значение строка, чо правда?
Посоны, поясните за новые алгоритмы обучения, которым не нужно предобучение как RBM, а то я как-то упустил этот момент.
>>748805Это ты о чём? Есть ссылки?
>>748807https://habrahabr.ru/company/spbifmo/blog/271027/ ServPonomarev 17 ноября 2015 в 14:400Писать про глубокие сети и ни разу не упомянуть машину Больцмана? Ведь именно она позволила уйти от проклятия алгоритма обратного распространения (быстрого затухания) и строить современные глубокие сети (с количеством слоёв больше 3-х). Нет упоминаний о свёрточных слоях — а это тоже один из столпов глубоких сетей. barmaley_exe 17 ноября 2015 в 15:27 +1А сейчас RBM'ки где-то используются? Тогда их использовали для предобучения, но теперь придумали новые трюки (например, дропаут, правильная инициализация, нормализация), с помощью которых можно обучать полносвязные нейросети, не занимаясь их предобучением.
И как обучают всякие ебанутые модели нейронов, типа рекуррентной сети?
>>748811Хз, мб, академик нам расскажет.Про сети без жадного послойного обучения могу только только показать эту штуку:http://www.cs.toronto.edu/~fritz/absps/dbm.pdfОни тут всячески крутятся с mean field и MCMC.Есть ссылка на доклад Салахутдинова:http://www.cs.toronto.edu/~rsalakhu/http://videolectures.net/deeplearning2015_salakhutdinov_deep_learning/http://videolectures.net/deeplearning2015_salakhutdinov_deep_learning_2/
>>748816Бля, я обосрался, там тоже претрейнинг есть на RBM.
>>748814Короче вот че нашелhttps://www.youtube.com/watch?v=0LVIEnfqf8gТолько не понятно, в память сети он говорит попадает новое предыдущее значение, а пример уже объясняет с суммированием со всеми предыдущими значениями. Так что там в памяти должно находиться? По логике понятно вроде что просто предыдущее значение, без всякого суммирования. Значит пример не совсем корректен?
>>748838А хотя не, все правильно же. Тогда непонятно, как же без нормализации не будет выход за слишком большие значения.
>2016>предобучение
>>748846Хотя если значения отрицательные будут поступать, то нет.
Анончик, мне по дипломному проекту нужно сделать выбор между нейронными сетями и нечеткой логикой. Сначала проанализировать плюсы и минусы того и другого, затем выбрать какой-либо метод в одном из двух. Проблема в том, что как я ни гуглил, никак не пойму общей картины. По одной статье складывается впечатление, что нейронные сети это подраздел нечеткой логики, по другой статье складывается впечатление, что нейронка - это то, что обучается само, а нечеткое множество - то, что работает только на основе какого-то базиса... И я не пойму где истина. Нет четкой картины всего. Анон, подскажи, в какую сторону копать, чтобы понять это все? Может, найдется анон, который круто разбирается и в нейронных сетях, и в нечеткой логике, чтобы объяснить все ро хардкору и наставить на путь истинный.Очень надеюсь на помощь, спасибо.
В шапку надо добавить необходимую литературу по математике.
>>748805ReLU-юниты (нелинейность без насыщения которое вызывает очень медленный спуск по градиенту) + дропаут + ДОХРЕНИЩА данных.
Аноны, а можно ли формировать контекст из рекуррентной нейронной сети То-есть каждый раз сохранять информациюЧтобы сеть училась на своих же ошибках?
>>749053Двачую!
>>749067Короче - пропатчить рекуррентную нейронную сеть до уровня ассоциативной?Интересно, никто бы не подкинул примера, как рекуррентная сеть учится управлять, например, обратным маятником?Очень интересно было бы на это взглянуть.
>>749113Вот тут есть LSTM.http://arxiv.org/pdf/1602.03032.pdfДля подобных целей ещё всякие графические модели используют, вроде бы. У Бишопа что-то было по этому поводу, вроде бы.
збс: http://www.inference.phy.cam.ac.uk/itprnn/book.pdfhttp://bookzz.org/book/2222792/0368c3/?_ir=1
>>748985Поясните ньюфагу хотя бы по поводу различий. Я примерно вкурил, что такое нейронка, но вот выстроить картину с нечеткой логикой никак не могу.Нашел наглядную пикчу. Где здесь должна быть нечеткая логика?
>>743797>Анон, как подготовиться к поступлению в ШАД в следующем году? А то в этом я был немного шокирован заданиями, в которых половина слов была непонятна.Я нашел репетитора (кандидат мат. наук) и занимаюсь с ним два раза в неделю по 2 часа. Плюс самостоятельно читаю вузовские учебники по алгебре/матану и задрачиваю решебники.
>>749309Хуёвая пикча, нет? Сам я в нечёткой логике нихуя не разбираюсь и в остальных вещах разбираюсь слабоНо тут есть тред на реддите:https://www.reddit.com/r/MachineLearning/comments/32ja88/fuzzy_logic_and_machine_learning/
>>749309>Нашел наглядную пикчу. Где здесь должна быть нечеткая логика? Пик у тебя полный пиздец, если честно. >>748985>объяснить все ро хардкору и наставить на путь истинный.>я не пойму где истина. Нет четкой картины всего. А я ведь советовал Пегата выше, >>736014 на русском по нечеткой теме (множества, логика, модели, применение, устойчивость, ...) сложно найти что-то лучше. Но главное не в этом. Нейросети, весь этот ваш байес и т.д. это стохастические модели, на основе теории вероятности. Нечеткие множества - отдельная тема, более того, вероятность можно свести к нечеткости, но не наоборот. Я даже конкретную статью давал http://sipi.usc.edu/~kosko/Fuzziness_Vs_Probability.pdf где все по-хардкору, в частности показано как само понятие вероятности сводится к множествам, а теорема байеса показана как частный случай нечеткой теоремы байеса.
>>749329хуйня, не верюбейс - сила, нечёткая лохня - сосила
>>749340>строгие математические выкладки>не верюОй, всё.
>>749329>нечоткая логикаслыш бля сюда подошол
>>749314Вроде даже натыкался на тот тред, но ничего дельного не вынес. но все равно спасибо>>749329Спасибо анончик, ща буду вкуривать.Ты, если что, тут еще долго будешь сидеть, чтобы можно было вопросик какой-нить задать?
>>749386Я не очень понимаю, как ты собираешься сравнивать ИНС и нечёткую логику. На мой взгляд, это всё равно, что сравнивать линейную регрессию и теор.вер. Линейная регрессия - модель.Теория вероятностей - раздел математики.Понятное дело, что говорить о регресси можно на языке вероятностей. Но как их сравнивать?ИНС - модель (множесво моделей)?Нечёткая логика - раздел математики.О ИНС тоже можно говорить на языке нечётких множеств. Но как их сравнивать?
>>749392Ну вот как так получается, что строят ии с помощью нейронных сетей и строят с помощью нечеткой логики? Еще можно встретить такие высказывания, что якобы нечеткая логика уделает нейронные сети.Я не говорю об их верности, но кто же их как-то сравнивает..Или вот вбить на youtube запросы нейронная сеть: там скажут, что можно распознать рисунок или лицо. И вбить нечеткую логику и там скажут, что с помощью нее можно научить машину объезжать препятствия.Значит, это вроде как 2 способа обучить систему ии? Или я мыслю неверно?
>>733287>специальность математик-программистТы учился на 02.03.03? МОАИС
>>749401Ты не понял мою мысль.Ты хочешь сравнивать металл и молоток.Молоток можно сделать из металла, но как их сравнивать?Нечёткая логика и теория вероятностей - средства описания моделей, как металл - материал, из которого можно изготовить инструмент.Или я не прав?
>>749405>Нечёткая логика и теория вероятностей - средства описания моделей,А что является моделью или какие бывают модели? Это я просто слишком туплю, видимо, пытаясь взять слишком много, но тем не менее хочу осилить
>>749414Линейная ререссия - модель.HMM - модель.Нейронка - модель.
>>749417>Нейронка - модель.Значит, стало быть, нечеткая логика это способ описания нейронной сети? То есть типа как подраздел нейронных сетей?
>>749421> нечеткая логика это способ описания нейронной сети? Один из способов.Не подраздел нейросетей, а подраздел математики.В гугле есть тьма статей о нечётких ИНС:https://en.wikipedia.org/wiki/Neuro-fuzzy
>>749429Понятно, анон. Можно, я еще раз уточню, есть методы построения обучающих алгоритмов, и одним из методов является нейронная сеть. В свою очередь нейронная сеть может быть описана различными способами, и один из этих способов -- нейронная сеть.Я все правильно понял?
>>749421"Нейронная сеть" - это просто граф из отдельных операций. Точнее, некоторое множество таких операций, которые удобно представить в виде н-р ориентированного графа. В качестве самих операций можно взять что угодно, в том числе операции, типичные для модели на основе нечетких множеств/логики. В итоге получится структура типа нейросети, как выше заметили, например нейронечеткая сеть. У Пегата эта тема тоже раскрыта. >>749434>я еще раз уточню, есть методы построения обучающих алгоритмов, и одним из методов является нейронная сеть. В свою очередь нейронная сеть может быть описана различными способами, и один из этих способов -- нейронная сеть."Нейросеть" - больше модное название для любого алгоритма, который удобно представить в виде графа. Фактически при таком определении любой алгоритм машинного обучения можно представить в виде "нейросети", т.к. в любом случае есть какая-то итеративная настройка параметров. Пример - гугловский тензорфлоу https://www.tensorflow.org/ MXNet и прочие подобные библиотеки. Другой вариант - считать нейросетями только те алгоритмы, которые эмулируют/имитируют какой-то функционал реальных биологических нейронов.
>>749434>Можно, я еще раз уточню, есть методы построения обучающих алгоритмов, и одним из методов является нейронная сеть. В свою очередь нейронная сеть может быть описана различными способами, и один из этих способов -- НЕЧЕТКАЯ ЛОГИКА описался, прошу прощения
>>749451Все, кажись, въезжаю.В общем, нечеткая логика -- это сама суть, сам метод, алгоритм обучения в искусственном интеллекте.А нейронка -- это способ обучения, вид
>>749462Или я все же что-то неправильно опять трактую?
>>749462Нечеткая логика и теория нечетких множеств - это разделы математики, общий подход, матчасть, скажем. Ниже - конкретные модели с использованием матаппарата нечетких множеств и нечеткой логики, например модель Такаги-Сугено из-за которой какой-то школьник на меня агрится в двух разделах. Еще ниже - методы настройки свободных параметров чего угодно, в частности вышеупомянутой модели Такаги-Сугено, например нейронечеткие сети, генетические алгоритмы, линейные матричные неравенства, фильтры Калмана, тысячи их. Конкретная модель с конкретным методом настройки - это уже алгоритм, например нейронечеткая сеть ANFIS.
почему в интернети все так надрачивают на нейроночки?это всего лишь одна из мл моделей, притом не самая удачная
>>749475А какая самая удачная?
>>749476от задачи зависит, лалка
>>749478А есть задачи, не сводимые к аппроксимации функциональной зависимости выходов от входов?
>>749475Очевидно, хайп связан с тем, что глубокие сети показали самые крутые результаты в разных задачах.
>>749481разумеется, задач дохуя разных бываеттолько причём тут нейроночки?
>>749489универсальный-аппроксиматор.тхт
>>749493чтож ты сразу не сказал!
>>749489>разумеется, задач дохуя разных бываетПриведи пример задачи, не сводящейся к аппроксимации зависимостей выхода от входа.
>>749405А можно провести различия, между, например вариантами обученияТипа нейронка обучается с учителем и без, а нечеткие множества на основе реальных данных
>>749503А с учителем и без мы не можем обучаться на реальных данных?
>>749503Нельзя. Как нейросети так и нечеткие модели можно настраивать ("обучать") как с учителем так и без, в зависимости от алгоритма обучения.
>>749497
>>749508Reinforcement learning
>>749511как будешь измерять "нравственное качество"?формализни-ка
>>749508А ты смешной. Все описанное легко сводится к тому, что я описал. Например, пасха - это выход (класс), все остальное - входы (переменные) вещественнозначного или даже бинарного вектора скреп (бухать/нет, стукаться яйцами/нет и т.д.).>>749515>как будешь измерять "нравственное качество"?формализни-ка Как нехуй. По поведенческим, эмоциональным, нейровизуализационным коррелятам. Это задача планирования экспериментов/исследований, сбора данных, а не МЛ как такового.
>>749515Охуительный вопрос. Никак очевидно, нет никаких нравственных качеств. Но это вопрос, который может уйти в длительный холивар.Хотя можно взять ватника со скрепами, который будет поощрять за нравственное поведение. Но, судя по происходящему в /b/, этот подход чаще является провальным, чем успешным.
>>749487такой то людской overfitting хе-хе
>>749505>>749507Мда, правда, херь спросил.Блин, просто буквально только что отзвонился науч. руку, он сказал епта, что это вполне себе два метода: нейронка и нечеткие множества и чтобы я нашел различия между ними. Че-то сказал как раз таки про обучение с учителем, без учителя.Ух, блин, вообще хер проссышь.
>>749522Бля, ты не из итмо случайно? Знаю я там одного уёбка, застрявшего в девяностых, который дико угарает по всяким нечётким множествам.
>>749507>нечеткие модели можно настраивать ("обучать")Можно прям так и загуглить "обучение нечетких моделей"? Или какой-то раздел отдельный есть?
>>749524Не, я из дсНезнаю, насколько это глубоко в 90х, но точно могу сказать, что это уже очень глубоко в моей заднице, чуть ли не до панических атак
>>749527Хуй знает, нашёл эти две статьи. Почитай, расскажешь нам потом чего полезного мб.http://www.cee.uma.pt/morgado/Down/JVieiraFMD_SISICA.pdfhttp://www.emo.org.tr/ekler/f187f643090a53e_ek.pdf
>>749522>это вполне себе два метода: нейронка и нечеткие множестваОн про нейронечеткие сети знает? Ну скажи ему, что нейросети на основе формализмов теорвера, а нечеткие модели - на основе нечетких множетсв и логики.>>749526>Можно прям так и загуглить "обучение нечетких моделей"? Или какой-то раздел отдельный есть? Любой конкретный алгоритм - это модель и его настройка. Методы настройки общие для нейросетей и нечетких моделей - с учителем бэкпропагейшн, без учителя - всякая кластеризация. Например, существует такой софт http://www2.imse-cnm.csic.es/Xfuzzy/Xfuzzy_3.3/download.html типа продвинутого конструктора. Можно построить почти любую нечеткую модель и обучить методами обратного распространения и т.п. Для нечетких моделей кроме настройки параметров есть еще настройка структуры модели, но там опять же обычно кластеризация данных, на основе которых модеь строится.
>>749533Есть у моделей на основе нечёткой логики какие-нибудь преимущества в итоге, нет?
>>749533>что нейросети на основе формализмов теорвера, а нечеткие модели - на основе нечетких множетсв и логики.Так вот оно и различие, не? Или ты сам уже это притянул для меня? >>749531Спасибо анон, ща почитаю
https://2ch.hk/un/res/386272.html
>>749536Есть конечно. Они полностью прозрачны, база правил, которая создается процессом настройки, легко интерпретируется, есть даже такой довольно новый метод как финграммы пикрелейтед, на который почему-то всем похуй, который может графически представлять нечеткую модель любой сложности в виде, доступном для интерпретации человеком. Еще одно преимущество - для любой нечеткой модели можно получить строгое математическое доказательство устойчивости, стабильности. Это обязательное условие использования алгоритма в промышленности и т.п. Ну никто ж не хоче, чтобы контроллер доменной печи спалил ползавода или система управления метро со всей скорости посадила поезд с пассажирами на тупиковую призму. Поэтому поезда метро на нечетких контроллерах существуют с 1987 года и используются по всему миру, поэтому почти половина мирового производства цемента - это установки с нечетким управлением (где-то видел такую цифру, да) и протчая и протчая. А нейросети те же - в основном для аутистов поиграться. В последнее время, правда, тот жи гугл взялся за глубокие сети, но там в основном распознавание изображений и т.п., о применении в промышленности и технике речи пока нет.
>>749542>Так вот оно и различие, не? Или ты сам уже это притянул для меня? Ну я примерно предполагаю, что такой ответ это примерно то что от тебя хочет услышать препод, так-то да, это толстовато сказано, хотя в общем случае не поспоришь.
>>749556Спасибо, анончик.От этого и буду танцевать, пожалуйСпасибо.вернулся к статьям
Чёт трет скатился в пустопорожнее блеяние, поразительно напоминающее /ссы. Никто ничего не делает, не рассказывает, никаких новостей даже не постят.
>>749570Ну ты понел
>>749570>Никто ничего не делает, не рассказывает,>не рассказывает,
>>749586>>749588Сук это был мой любимый трёт, а теперь тут какой-то чатик трёх даунов. Мне с ними разговаривать, что ли?
>>749597Ты можешь съебать.
>>749597Да не трех даунов, это из ссы протек хуй с фагготорией по поводу нечеткой логики. По-нормальному его надо игнорить, но полно ньюфагов, которые его кормят.
>>749604так это >>749597 и есть хуй с фаготрией
Короче, я даун полный по части матана, меня пугают такие слова, как весы, бэк-пропагешн, кластеры. Я с трудом понимаю принцип работы перцептрона, все это слова-физбазы для меня. Но я хочу уничтожить/поработить человечество с помощью роботов и искусственного интеллекта, может кто-нить станет разрабатывать нейросети (и обучать меня по мере моих способностей) и показывать мне их, а я буду направлять в философском смысле этого слова?Просто я реально тупой в этом плане и не технарь, я понимаю, что мне уже поздно наматывать матан и все эти кластеры. Это будет просто тратой времени без цели в моем случае, когда вокруг так много школьников-олимпиадников со свежим и быстрым умом, способностями к математике, блестящим образованием, умеющие паять и т.п.
>>749704Бля, как ты сюда попал вообще?
>>749704> а я буду направлять в философском смысле этого слова?Неплохая затея. Но как я могу знать, что ты не скрытый гуманист? Накатай-ка мне эссе о термодинамическом аспекте сознания и связи больцмановского мозга с ницшеанской концепцией вечного возвращения.
>>749704ещё один долбоёб с> уничтожить/поработить человечество с помощью роботов и искусственного интеллектаи конечно же> нейросети
>>749711Но я и есть гуманист в незапятнанном нравственностью и морализмом смысле этого слова. Сорри, в термодинамике и биохимии мозга я тоже не шарю.
>>749728> Сорри, в термодинамике и биохимии мозга я тоже не шарю.Тогда какой же вы философ, батенька? Вы гей-шлюха для грядущей армии хозяев-роботов.
>>749251Графические - это типа Карты Кохонена?Мне просто интересно поработать с ассоциациями.На их основе можно проводить классификацию же.А если есть классификация - то можно проводить уже сравнения.Если есть сравнения - можно уже создавать методы, чтобы сеть экспериментировала самостоятельно, без учителя.Мне интересно, до чего она дойдет в моем случае с шагоходом.
>>749704Даже банальная ходьба - нереально сложная задача.Уходи отсюда, Мамкин Гитлер, тред для серьезных людей.
>>749912Типа Байесовских и Марковских сетей, типа CRF.
>>749925Ха-ха-ха.Ой, как же весело с этими сетями то, то-есть можно информацию с рекуррентной подавать на байесовскую, например?И тогда сеть через множество зависимостей сможет выделить для себя нужный алгоритм ходьбы?
>>749927Из начального твоего поста про контекст, я не очень понял чего ты хочешь. Возможно, это не совсем то, чего ты хочешь.
>>749927Правда, мне же надо научить правильной осанке и всему прочему.Да, походу без готовых функций тут не обойтись.
>>749927Всё-таки попробуй осилить ассоциативную LSTM и Holographic Reduced Representations.
>>749929Нужно показать то, как с помощью ассоциативного мышления можно решать задачи, для которых не существует готовых решений, но существует определенная закономерность.
>>749934LSTM - это та-же рекуррентная, только с долгой памятью же.
>>749935Ты как всегда объясняешь задачу какими-то отрывками. Была бы простыня с постановкой задачи, мб и посоветовали бы тебе чего годного.
>>749937Она там с довесами типа голографической памяти, почитай.
>>749939У меня нда вообще, не особо имею право разглашать информацию о проекте.Есть человекоподобный шагоход.Считай, что шарнирная кукла в которую встроили сервоприводы, пропорции человеческие, уменьшено в 2 раза.И вот это чудо нужно научить ходить используя лишь ассоциативную память и классификацию/кластеризацию.И вот мы уже давно бьемся над попытками заставить это нормально стоять, а учитывая ее общую неустойчивость и огромную трудность в калибровке - это еще та задачка.Но ходить оно может.
>>749944И да, в калибровке сервоприводов нечеткая логика то работает.А вот с регрессией совсем не получилось, как мы ее не пытались применить - шарниры все равно сваливаются.Особенно приходится поебаться с верхним шарниромВыглядит оно примерно так, только совсем без половых признаков, но схема такая же.Эх, теперь поймете, почему кидал все отрывками, на что я трачу свою жизнь, блядь.
>>749952
>>749952Мысль пока в том, что все конечности до центра тяжести - это обычные маятники.Все конечности выше центра тяжести - обратные маятники.И в аналогии с человеком есть всего 1 акселерометр и пара гироскопов в ногах.Смысл в том, что есть некоторая закономерность между скоростью/моментом инерции/положением конечности относительно других конечностей.И нейронная сеть должна найти именно эту закономерность.
>>749962Кто-то уже предлагал, но вы не пробовали генетику?
>>749965Генетика конечно прикольная вещь.Но задача не в том, чтобы конкретно научить его ходить, задача применить ассоциативное мышление.
Не по теме, но я думаю здесь сидят люди, которые в этом разбираются. Мне нужно параллельно перемножить матрицы. На википедии и в Кормене предлагается алгоритм пикрелейтед 1, когда матрица делится рекурсивно. В книге Golub, Van Loan: Matrix Computations предлагают пикрелейтед 2. Есть какая-то разница? Что лучше? Я буду использовать C++ и MPI.
>>749952>в калибровке сервоприводов нечеткая логика то работает.Ну, и? Если работает, почему бы ее и не использовать? >>749962>Смысл в том, что есть некоторая закономерность между скоростью/моментом инерции/положением конечности относительно других конечностей. И нейронная сеть должна найти именно эту закономерность. Почему не используете нейронечеткие сети? Закономерность оно найдет + у вас будет готовая нечеткая модель для контроллеров движения.
>>750264Это одно и то же - разбиение на блоки.
>>750275Ну да, но может какая-то разница в скорости будет за счет того что разбиение разное.
>>750266Ох, задача уже почти решена.Нечеткая логика хороша только в калибровке.Далее, в действие войдет рекуррентная сеть, а за ней и байесовская классификация.Проще говоря - сеть обязана научиться ходить.Ей то по сути остается лишь классифицировать информацию с приводов и акселерометра с несколькими гироскопами и по этим параметрам выискать зависимость.Правда, надо будет сначала на банальном обратном маятнике потестить
>>750295>>749962Ебать вас, питухов, почитаешь конечно..Намедни мы с френдами по коворкингу собрались на митинг в лаунджбар. Нужно было выбрать себе лук. Решил надеть свой любимый свитшот и кардиган, на даунсайд пошли слим джинсы и эйрмаксы и так как пошёл небольшой дождь я решил надеть парку. Закинул вбэг ультрабук и покатился на лонгборде.Естественно, что до бара я добрался быстрее всех и уже заказал себе маффины и смузи. Когда все куны и тяночки собрались вместе, начался брейншторм на тему дизайна лэндингпейджа для нашего нового стартапа. Во время тимбилдингаменя назначили тимлидом, по-этому я установил границу дэдлайна.Темнело... а это значит, что пришло время идти в клуб. На фэйсконтроле нас легко пропустили ибо мы отлично разбираемся в модных течениях, а ещё у меня гитлерюгенд.Там я познакомился с няшей-стесняшей, с которой мы уехали ко мне на вписку. Она была в короткой юбочке и я заметил, что она без трусиков... Спустя пару минут я уже дудонил её во влагалище. Но это уже другая история...#нежность,улыбка,волнение,вкусспермы
>>750295А смысл во всей этой сборной солянке? Что может байесовская классификация такого, чего не может нечеткая?>>750427Неслабо тебя прогрело. Что сказать-то хотел? Сложна?
Анон, если для нейронной сети нам нужна выборка данных (например несколько фоток, если мы тренируем на распознавание лиц), то для тренировки нечеткой системы что нужно? Тоже какая-то выборка?
>>750427Что-то вообще не в кассу. В том посте, на который ты сослался, 99% не имеют аналогов в русском языке или аналог не прижился. Акселерометр? Гироскоп? Рекуррентная сеть? Или ты настолько тупой, что думаешь, что "байесовская" - это какое-то заимствованное слово, а не именное прилагательное, образованное от фамилии Байеса?
>>750529>для тренировки нечеткой системы что нужно? Тоже какая-то выборка? Разумеется. Точно такая же выборка, по которой настраиваются свободные параметры модели.
>>750539А нахера тогда в нечеткой системе правила составляются?
>>750550Правила составляются по имеющейся выборке. Для того, чтобы входы по этим правилам соотносить с выходами. Пикрелейтед - модель Такаги-Сугено, обученная классифицировать ирисы https://en.wikipedia.org/wiki/Iris_flower_data_set В этом датасете 4 входа и 1 выход (сорт ириса). Каждый вход разбит тремя функциями принадлежности. Правила сгенерированы обучением модели. Наглядно видно, что по 2му (sepal width) и 3ему (petal length) входу можно получить выход (сорт ириса).
>>750560То есть petal length и petal width, там же нумерация с нуля.
>>750560>модель Такаги-СугеноЭто аналог алгоритма Мамдани?
>>750569Не совсем. В модели Мамдани выход задается нечеткими множествами (если х есть А, то у есть В), а в TS - линейной функцией от входов (если х есть А, то у = а*х+b).
>>750576А если я хочу обучить нечеткую систему, например, обучить систему распознавать контрабас и гитару, какой алгоритм использовать? Получается, у меня будет 2 правила, "ЕСЛИ 6 струн И вес меньше 2кг ТО это гитара" и "ЕСЛИ 4 струны И вес больше 10 кг ТО это контрабас". И выборкой послужат 10 гитар с 6 струнами и примерным весом 1-2кг и 10 контрабасов с 4 струнами с примерным весом 10кг. Это так работает?
>>750591>какой алгоритм использовать? Который лучше понимаешь. В общем случае там нет каких-то радикальных преимуществ одной модели перед другими, не считая того, что все они тривиально сводятся к стандартной аддитивной модели Коско >>743328 >Получается, у меня будет 2 правила, "ЕСЛИ 6 струн И вес меньше 2кг ТО это гитара" и "ЕСЛИ 4 струны И вес больше 10 кг ТО это контрабас". И выборкой послужат 10 гитар с 6 струнами и примерным весом 1-2кг и 10 контрабасов с 4 струнами с примерным весом 10кг. Это так работает? Да.
>>750598Спасибо, анон!Последний вопросправильно ли я понял, что каждая гитара и каждый контрабас в моем примере будут являться лингвистическими переменными? Если да, на нее наложить вот такую "пятерку" из x, T, X, G, M?:https://ru.wikipedia.org/wiki/%D0%9B%D0%B8%D0%BD%D0%B3%D0%B2%D0%B8%D1%81%D1%82%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B0%D1%8F_%D0%BF%D0%B5%D1%80%D0%B5%D0%BC%D0%B5%D0%BD%D0%BD%D0%B0%D1%8F
>>750616Не-а. Лингвистическая переменная - это разбиение входного пространства. В твоем примере вход состоит из двух лингвистических переменных - "струны" и "вес". Соответственно, лингвистическую переменную "струны" можно представить двумя лингвистическими термами (т.е. нечеткими множествами) - "много струн" и "мало струн". То же с весом - "малый" и "большой".
>>750633а если бы была еще такая переменная, как "наличие струн". Допустим, у нас еще есть барабаны и мы вводим еще и параметр с наличием струн. Как такую лингвистическую переменную представить термами?
>>750643>а если бы была еще такая переменная, как "наличие струн". Допустим, у нас еще есть барабаны и мы вводим еще и параметр с наличием струн.Самый простой вариант - поправить область определения пикрелейтед. Чтобы начиналась с нуля. Тогда терм "мало" лингвистической переменной "струны" будет иметь функцию принадлежности = 1 при количестве струн = 0.
>>750652Я плохой пример подобрал.Что вот если у нас есть такая лингвистическая переменная, которая априори может иметь два варианта: 1 или 0, "да" или "нет".Не обязательно в рамках моего примера про барабаны. Вот допустим такой пример:Учим распознавать, обычный телефон перед нами (только звонилка) или смартфон.И мы учим нечеткую систему распознавать смартфон, например. Получаем лингвистические переменные "наличие камеры", "наличие интернета", "наличие bluetooth". И в качестве выборки положим 5 смартфонов, у которых есть одно из этих свойств.Это корректное обучение? Как тогда представлять термами данные переменные?
Вы только представьте, что скоро весь этот биоскам (продавцы, кассиры, врачи, учителя) заменят биоротами и они пойдут на улицу просить подаяния у нас программистов. Наконец-то справедливость восторжествует и биоскам с одной извилиной отправится на свалку истории.
>>750510Скорость и производительность же.Плюс у байесовская лучше под это заточена.И напрямую использовать нечеткую логику нельзя, а вот под драйвер - можно.У нас же еще и вопрос байтоебства очень строго стоит.
>>750708Я бы не радовался, все-таки живая эстетика должна существовать.Да и куда ты людей денешь? Они значит пойдут в программисты и их дети.И зарплаты будут ниже некуда
я ничего не понимаю, о чем вы тут пишете? а как мне собрать робота и научить ходить на нейросетях вот этих вот? ю_ю
>>750714ну у кого хватит извилин - пойдут, остальные будут клоунами у пидорасов. А вообще я думаю, начнется сильное регрессивное движение биоскама, как на ближнем востоке, за скрепы, духовность, биоскам вместо роботов. Ну в отдельных очагах цивилизации.
>>750710Да я вроде и говорил, что стоит упоротая цель поиграть в ассоциации.То-есть робот пробует сделать шаг и у него не получается, он запоминает условия при которых у него это не получилось и в следующий раз делает уже по другому.Через n количество раз он выстроит таблицы значений, а по ним уже с помощью прогнозирования сможет понимать.Наркомания полнейшая, я бы сам подставил формулы.
>>750718>>750708Але, долбаеб, в загнивающей уже несколько стран вводят программу безусловного дохода. Люди вообще не будут работать, будут получать еду + жилье ПРОСТО ТАК. Алсо посмотри как живут страны типа Дании,Бельгии,Норвегии,Нидерланды,Швейцария - это страны, которые не тратят на оборону и соответственно перераспределяют этот бюджет в социальную сферу.
Как вкатится на ентри левел типа как по аналогии создать маленькую веб-страничку визитку или типа сортировки массива пузырьком, чтоб посмотреть вообще че как, твое это или не твое ?
>>750760сидеть читать книги, запоещнные в треде, чтобы потом тоже с умным видом повторять умные словечки типа кластеры, регрессия, не понимая их значения.
>>750753Кто будет нести на своих плечах биоскам типа пидорашек? Бесплатные еду и жилье в развитых странах раздают либо креативщикам (всяким погромиздам, рисовальщикам, игроделам) либо людям с хорошей генетиком (танцоры, модели, спорсмены). Среднюю жирную беззубую тупую и озлобленную пидорашку продавщицу бабу Клаву из продуктового авторы всяких роботов и новейших технологий на своем горбу тащить не станут.
>>750667бамп вопросу.Анончик, спасай, в гугле вообще ничего нагуглить не получается по вопросу
>>750760Берешь и читаешь любую статью из приведенных ранее терминов Вон, сколько всего тот шагоходоеб понаоставлялКак находишь непонятное слово - так гуглишь его и понимаешь, разбираешь.Потом, ищешь задачу и подбираешь ее методы решения, как получится нормальный код - ищи работу, куда хочешь вкатываться, там смотри требования
>>750760Сделай так, чтобы капчу распознавало на Доброчане, например.
>>750766Сам себе противоречишь. Кто кого тащить то должен если будут роботы? Тем более толерантный загнивающий уж точно ничего такого предпринимать не будет
>>750769Звучит не структурировано. Таким же постом можно дать совет как научить запускать ракеты в космос.Особенно часть про "ищи работу"Тебе вот надо выучить весь фреймворк Foundation и потратить овер 100 часов на его изучение, чтобы понять подходит ли тебе разработка мобильных приложений или ты на несколько раннем этапе это поймешь?
я нихуя не понимаю в этой книги, какие-то закорючки, дискретная алгебра. Я ее вообще не знаю. как понять матан не зная матана?http://arxiv.org/pdf/1602.03032.pdf
>>750806Открой книгу для 10-11-го класса и понимай сиди.
>>750789Роботов кто-то должен программировать, маня. Вот эта будет единственная прослойка людей, что-то проивзодящее, остальные либо будут в индустрии развлечений, либо сдохнут.Зря ты думаешь, что запад будет толерантен к богомерзкой русне. как раз он всеми своими действиями показывает, что его толерантность будет распространяться только на тех, кто принял его ценности и прибежал с протянутой рукой от войны. На пидорах ни одна из перечисленный категорий не распространяется.
Что это за закорючки? Какое они имеют отношение к программированию?
>>750766Вот читаю иногда американскую прессу и там все патриоты хоть какой партии и тд - обожают реднеков своих, умиляются их наивности и тд.Читаю отечественных претендующих на интеллектуалов - желчь, злоба и выдуманный мирочек "какие все говно на самом деле" под соусом какие-нибудь расплывчатого дерьма типа "борьба с коррупцией"И теперь я вижу кто целевая аудитория этого фонтана из фекалий - да это же лично ты.И нет, весь мир не ненавидит то что ты называешь пидорашками, всем лишь бы человек был хороший. Даже если он сам на себя заработать полностью не может - ничего страшного, выкатим на-гора какую-нибудь соц программу что бы ему помогла.
>>750766Бесплатное жилье дают всем гражданам.Но это уже не жизнь же, блядь.Нормально же жили в нулевых, в богатстве даже, а сейчас все скатилось.Если все роботизируют - то не будет стоять вопрос о том кто сдохнет или не сдохнет.Просто будут митинги, потому что людям негде работать.А если такая угроза стоит - то ничего роботизировать полностью не будут.
>>750812Да открой ты уже таблицу математических символов, дурашка.
>>750815У них реднеки живут в нищих трейлерах и стреляют нигеров из ружья. А у нас пидорахи дорвались до власти, живут в особняках и диктуют остальным свои говновзгляды.
>>750824вопросов стало еще больше.
>>750827Черт, вот что значит давно в /b не сидел.Думал люди называющие кого-то пидорашками, как и сами пидорашки вымерли уже.Забудь это слово и катись в свой /b Здесь конкретные вопросы задаются.
>>750829https://ru.wikipedia.org/wiki/%D0%A2%D0%B0%D0%B1%D0%BB%D0%B8%D1%86%D0%B0_%D0%BC%D0%B0%D1%82%D0%B5%D0%BC%D0%B0%D1%82%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B8%D1%85_%D1%81%D0%B8%D0%BC%D0%B2%D0%BE%D0%BB%D0%BE%D0%B2
>>750827Ну и что тебе навязали? Ну и чего сам не навязываешь, вон даже Кац в люди выбился?Хотя не отвечай, хватит тред скатывать. Роботов он клепать собрался, ну-ну.
>>750833Только не путайте этого залетного со мной, пожалуйста.
ЭТОГО ЗНАЧКА НИ В ОДНОЙ ТАБЛИЦЕ НЕТ!!
>>750830>>750833>>750834>>750831ничего никогда не добьетесь, пидорашки, с такими взглядами, бытие определяет сознание.
>>750847Что тебе конкретно не понравилось, чего хочешь?Или ты потроллить зашел?
>>750667Кстати говоря, а на вход обязательно должны подаваться именно лингвистические переменные? Могут ли подаваться просто нечеткие переменные?Ведь лингвистические состоят из нечетких
>>750869Мой любимый анон ушел спать :(
>>742558да, нейроэволюционные алгоритмы интересныея сейчас свою делаю с рекурентными связямиЕсли юзать обычную сетку то у неё нет "памяти", она как амёба (если не юзать TD). А если добавить рекурентные связи, то это уже муравей нахуй.
>>750869Для алгоритма Мамдани, например, можно применить не лингвистические переменные, а нечеткие?
>>750951На какой задаче будешь гонять?
looking forward to pereckatueaux
Ловите презентациюhttp://www.slideshare.net/TechTalksNSU/deep-learning-61045264
>>751364Уровень доклада студента с четвёртого курса.
>>750869>а на вход обязательно должны подаваться именно лингвистические переменные? Могут ли подаваться просто нечеткие переменные? Ведь лингвистические состоят из нечетких Не обязательно, я не знаю зачем ты именно к лингвистическим переменным привязался. Суть в том, что входное пространство (а в случае модели Мамдани и других подобных - еще и выходное) разбивается нечеткими множествами. Частный случай такого разбиения, один из вариантов - лингвистические переменные. В общем же случае это может быть что угодно - нечеткие числа и интервалы, рандомные нечеткие множества с любыми функциями принадлежности и даже четкие множества с бинарными функциями принадлежности. Идеологически правильно их как-то расставить в соответствии со значениями переменных н-р пикрелейтед (предварительная кластеризация и построение функций принадлежости по ее результатам), но в общем случае это не обязательно, можно их тупо расставить квадратно-гнездовым способом, как это сделано в нейронечеткой модели ANFIS.
>>750812Читай объяснение в тексте, вне конкретных обозначений это может быть что угодно.
>>750844Ты читать-то умеешь?
>>751364Что это? Зачем кто-то пересказал общеизвестную информацию? Это в любом мухосранском вузе проходят на 4 курсе.
>>750844коловрат, аримулт
>>750951Ты гуглил про LSTM?Это уже уровень кошки, лол, если сделать глубокую сеть на ее основе - то будет вообще вин.LSTM вообще считается лучшей сетью, способной изучать последовательности, да и метод обратного распространения ошибки для нее - лучший.Мы вообще сейчас стоим в вопросе о том, чтобы дать сети LSTM одновременно анализ информации и прогнозирование Ты можешь модифицировать сеть таким образом, что она запомнит хоть 1000 значенийНо мне не совсем нравится их свойство - забывать. Конечно, формировать первичный контекст то нужно.Но и долгосрочная память - штука необходимая.О господи, кажется, я пришел в аналогию с человеческим мозгом
>>751684Постой, это если LSTM запоминает много информации, то как она ее будет обрабатывать?
>>751699Легко же.Зависит от поставленной задачи вообще и от того, какую информацию ты можешь разрешить "забыть"
>>751684>если сделать глубокую сеть на ее основе - то будет вообще вин.>еслиТак уже. Запилено в TensorFlow, https://www.tensorflow.org/versions/r0.8/tutorials/recurrent/index.htmlStacking multiple LSTMsTo give the model more expressive power, we can add multiple layers of LSTMs to process the data. The output of the first layer will become the input of the second and so on.We have a class called MultiRNNCell that makes the implementation seamless:
>>751762Так это языковая модель же, с ней еще работать и работать напильником.
>>750809В манямирке живешь ты, глупый школьник
>>751684Эх аноны, я разочарован слегка.Прогнал значит сеть на маятнике.И знаете, что она сделала? Она тупо отсекла неудачные комбинации.А я почему-то надеялся, что она выведет некоторую закономерность, а это надо самостоятельно делать.
>>751034уже гонял на такой хуйне как тут >>742558(только в юнити)собственно да, эффект схожийЧтобы максимизировать целевую функцию начинали читерить и передвигаться "стрефами" не знаю как сказать, в конвульсиях бились и довольно быстро перемещались таким образом. Пришлось понижать фитнесс функцию за лишнии телодвижения. Стало намного грациозней. теперь написал реализацию торгового бота для btc. Обученная сетка на куске исторических данных на которых не обучалась уходит в хороший профит. Хотел подключить к бирже через API, но руки пока не дошли.
>>751684да, в TF немного с ними поигрался в принципе понимаю как они работают, аля гейты.Кстати, кто нибудь может придумать эксперимент с Q-обучением когда есть некие агенты, и нужно максимизировать их общую эффективность, а не эффективность каждого по отдельности, как в стандартном подходе ?В нейроэволюции я просто задам fitness функцию как fitness всей популяции, таким образом у меня появятся агенты которые действуют сообща. Как то такое можно повторить с Q-обучением ?
>>752021В Q-обучении можно всем агентам вознаграждение за командную работу поставить.Это самое простое, наверное.
>>752025но тут ты должен заранее знать что именно они должны выучить, какое именно поведениеНейроэволюция хороша тем что ты просто задаёшь оценку за всю жизнь агента, а агенты сами генерируются таким образом чтобы быть наиболее преспособленными к этой целевой функции, порой весьма неожиданным вещам.Это я сейчас просто пытаюсь понять какие преимущества имеет нейроэволюция по сравнению с Q-обучением. Что умеет она, чего нельзя сделать с Q-обучением.
>>752031Да все понятно и так же.Нейроэволюция больше относится к самостоятельному обучению, чем Q-обучение.Вообще, странно подходы сравнивать.
>>751948И вот теперь придется переписыватьИ лучше структурировать информацию с датчиков и обратной связи сервоприводов.
>>752021Мультиагентный подход же?
>>752066http://papers.nips.cc/paper/2503-extending-q-learning-to-general-adaptive-multi-agent-systems.pdf
Скайнетаны, есть ли по сабжу книжка более-менее энциклопедического характера, т. е. содержащая базовые сведения о как можно большем числе понятий, задач, моделей, подходов и т. д., чтобы там были хорошо разжеваны все термины и баззворды, и дана какая-то более-менее целостная картина? Так чтобы можно было ее прочитать и иметь представление о том, куда двигаться дальше. Очень хочется постигать эту область, но из-за отсутствия структурированной инфы и огромного числа в разные стороны торчащих направлений даже непонятно, чего именно собсно хочется.
Котаны, я вам перекат сделялПЕРЕКАТ >>752098 (OP)ПЕРЕКАТ >>752098 (OP)ПЕРЕКАТ >>752098 (OP)ПЕРЕКАТ >>752098 (OP)ПЕРЕКАТ >>752098 (OP)ПЕРЕКАТ >>752098 (OP)
>>752095Парни, хочу сниматься в порнухе, есть ли по сабжу книжка более-менее энциклопедического характера, т.е. содержащая базовые сведения о как можно большем числе понятий, задач, моделей, подходов и т.д., чтобы там были хорошо разжеваны все термины и баззворды, и дана какая-то более-менее целостная картина? Так чтобы можно было ее прочитать и иметь представление о том, куда двигаться дальше. Очень хочется постигать эту область, но из-за отсутствия структурированной инфы и огромного числа в разные стороны торчащих направлений даже непонятно, чего именно собсно хочется.
>>749481Конечно все задачи обучения с учителем это поиск аппроксимации функциональной зависимости выходов от входов.И нейронки занимаются поиском аппроксимации, но это же не ответ на вопрос почему они сильно популярны.Блядь, возьмем любой другой метод, который так-же занимается поиском аппроксимации, это тоже будет аргументом в пользу того, что он сильно популярен?
>>750510>пикрилпожалуйста, хотя бы сюда не тащите это говно
>>750760анон, я надеюсь, что ты это прочитаешь. Я еще недавно задавался таким же вопросом и не мог найти ответа. Короче машинное обучение - это такая тема, что совсем простых примеров для демонстрации нет, ну т.е. можно, конечно, придумать, но они выглядят как полная хуйня.Я бы для начала порекомендовал посмотреть на этот курс:https://classroom.udacity.com/courses/cs271/Его преподают _уважаемые_ специалисты. Все рассказывается очень _доступным_ языком, но при этом не превращается в профанацию.Не смотри на то, что он называется искусственный интеллект, а не машинное обучение. Курс по сути про МО.
>>750824Нахуя тут твои вскукареки с умным видом?Что-то с умным видом видом вскукарекнул, вопрошающему НИХУЯ не помог.
>>751475Просто иди нахуй.Вместо того, чтобы прямо сказать человеку, что с его бэкграундом не получится разобраться в этой статье, кукарекает тут с умным видом.Вот ты пишешь:>Огого я то нашел в статье определение, а ты не смог, посмотрите все какой я молодец.Вот нахуя ты это написал, типа чтобы все знали в мл-треде какой ты молодец? Ведь человеку ты нихуя не помог, и не пытался помочь и не способен ему помочь.
>>750809> толерантен к богомерзкой руснекатись-ко обратно в по.
>>752351Во-первых, ты ебанутый? Он спросил, что означает звездочка в кружочке, я ответил.Во-вторых, при чем тут бэкграунд? Когда в литературе видишь непонятный необщепринятый символ, очевидно, что нужно найти первое вхождение этого символа в текст, потому что там скорее всего написано, что этот символ означает. Это элементарный здравый смысл. Человек говорит, что не может понять "закорючки", потому что это что-то очень сложное и непостижимое, а на самом деле он тупо не владеет элементарными навыками чтения математической/технической литературы. Довольно глупо, когда читаешь статью, не читать пункт Background, если тебе не хватает бэкграунда для понимания.
>>733442Ты учил(шь)ся в ШАД? Где можно достать домашки его курсов?
>>752100Семинары Воронцова в ШАД похожи на это? http://www.machinelearning.ru/wiki/index.php?title=Машинное_обучение_(семинары%2C_ВМК_МГУ)/2014-2015_год%2C_осень