Этот тред не для петушков из ШАДа /pr, а для серьезных людей и сочувствующих.
Здесь мы переобучаемся, оптимизируем негладкие функционалы, выбираем из двух стульев по Байесу, голосуем за Ланжевена против Гамильтона, ходим в китайские рестораны по олимпиадным талонам для столовой ГЗ и гоняем AIXI на Ломоносове.
>>2926 Молодец, в верном направлении движешься. Потом можешь переходить к PAC и PAC-байесовским оценкам. С Вапником проблема в том, что его теория мало что может предложить для сложных моделей вроде тех же нейросетей (с бесконечной VC-размерностью).
>>2966 Да, я обосрался, для обычных перцептронов она конечная, но все равно размерность большая (квадратично зависит от числа весов), поэтому VC-оценки не особо применимы на практике.
О, хороший тред. Интересует машинное обучение, подскажите как мне быть. Куда идти после школы? Сам читаю сицп + Basic- Math (Serge Lang), потом выучу нормальный язык и примусь за алгоритмы кормена + дискретку, потом машинное обучение. В правильном направлении двигаюсь?
>>3093 >sicp не нужен А мне нравится сильно, не когда бы не подумал что столько классных решений проблем можно придумать используя простой синтаксис. Все таки дочитаю до конца.
Мои мысли - мои скакуны. По порядку, без математической строгости:
1. Впервые взялся за написание рекомендательной системы. Какие я вижу трудности впереди? Со всеми пользователями не сравнишься, надо делать кластеризацию, чтобы рекомендации прилетали только из ближайших для юзера кластеров. Вообще тут веет асинхронными ветрами Scala/Spark: batching, streaming, persistent data structures.
2. Продолжая тему маркетинга - прочел статью про bayesian bandits, может дойдет дело до применения заместо A/B тестирования.
3. Последние 2 года постоянно подтягиваю то алгебру(по Кострикину и листкам) то тервер с матстатом(Чернова, Райгородский).
4. Посматриваю в сторону gtx 1080 на замену gtx 960, с которой успел погастролировать на 2 работах (Deep Learning 4 NLP). Чувствую, она быстро окупится.
>>3086 В долгосрочной перспективе будет лучше, если ты просто хорошо выучишь линал, матан, тервер, матстат, оптимизацию - вот такие примерно вещи. В машинном обучении SICP пригодится с очень маленькой вероятностью. Придется мимикрировать под питоно-питуха и обмазываться tensorflow. Хотя некоторые вещи из дискретной математики вполне могут пригодиться.
>>3237 Все хорошо, но давайте с вашими ветрами все-таки в /pr.
По существу: если ты делаешь SVD, то в определенном смысле ты уже кластеризуешь пользователей (даже какие-то статьи на эту тему есть). То есть, поверх этого, наверное, можно сделать некоторую кластеризацию, но не то что бы обязательно.
>>3245 Не надо говорить о бандитах, это немцы в свое время вбросили, чтобы американцы и англичане мозги себе ломали, а не занимались решением действительно актуальных военных проблем.
>>3086 Да, только математику параллельно со всем, не стоит ждать пока выучишь всю нужную математику перед тем как программировать, тем более что в МО/ML будут всплывать темы наверняка, которых нет в базовых курсах.
>>4329 Судя по каггле, норм посоны-машинообучатели знают 3 вещи: 1. Лес это круто. 2. Сеточки это заебись. 3. Если почему-то пункты один и 2 не сработали, надо бустить. Мера (вероятность)? Ну, это число от 0 до 1. Если много, радуешься. Если мало, растишь лес/обучаешь сеточку дальше.
>>4344 Ну привет, пришелей из 2013го. Вот вроде хотел подъебнуть, да только обосрался ты жиденько. На деле сейчас на каггле норм поцаны все знают уже давно, что первым нужно использовать xgboost, остальное по желанию, если в ансамблю добавть, чтобы результат на полпроцентика улучшить.
>>4694 Ну математик на правах уберменша может перекатиться в любую плебейскую прикладнуху если захочет. Вот обратно конечно не так, плак-плак. Вот я и интересуюсь, как насчёт ваших этих обучений дело обстоит.
>>4725 Можно зарабатывать очень прилично, но для этого, конечно, надо продемонстрировать некие результаты. Так что тут все зависит от тебя. Правда вангую, что от рутинной хуйни, которую делает большинство дата-сатанистов, тебя довольно быстро начнет мутить. Поэтому лучше идти в ресерч.
>>4725 Прикладнуха разная бывает. Зачем тебе, мамкину уберменшу, сантехника уровня import tensorflow as tf? Отрасти бороду да форкни какие-нибудь ML-проекты на гитхабе на предмет улучшения алгоритмов или даже запиливания своих идей на этот счет. Вкатишься в тусовку, а там глядишь в какой-нибудь гугл брейн возьмут.
>>5058 Как только ты начинаешь "запиливать свои идеи на этот счет", это и есть ресерч. Но если заниматься им на нормальном уровне осознанности, то довольно быстро понимаешь, что это обезьянний подход - что-то там делать вместе со всеми остальными на гитхабе. Допускаю, что это может иметь достаточно высокий практически выхлоп, но мы ж тут все типа математики, нам же нужны красивые задачи.
>>52917 Потому что на нем бабло делают. Нет обмана, если ты сам во всем разобрался и себе запилил AI, ты тогда понимаешь, как всё работает. Если ты пользователь AI, то конечно тебе коммерческий разработчик любую хуйню может говорить, что это "на самом деле интеллект! он думает!", лишь бы ты пользовался его сервисом.
>>53078 Ну да, раньше ведь под ИИ совсем другое понимали, сильный ИИ, а теперь понятия подменили, опустили так сказать планку и впаривают ИИ, который вовсе не тот самый ИИ.
>>2126 (OP) блин а я только хотел дочитать про аль хоризми книгу и потом начать смотреть курсы шада, что бы вкатиться в яндекс помощником младшего джуниор старжера ручного тетсирования чистки унитаза в который ходят по малой и большой нужде настоящие программисты. А оказывается шад почему то тут не любят. Так а в чем с ним проблема?
>>63215 При чём тут "проблема" или "не любят"? Просто это не по теме доски, с тем же успехом мы могли бы тут обсуждать авиаучилища или курсы сварщиков.
>>63215 >>63241 Лол, шад по теме доски. Там готовят резёрчеров, а не скриптовиков. Уровень шада ~ИАД ФУПМа. ШАД -- это про опты и статистику, не про scikit-learn.
>>64083 Да ну, там прямо пхд по математике защищаются? Я не очень в кусе статистики, но после беглого взгляда на программу шада сложилось впечатление, что это что-то вроде профильного бакалавриата, только без общих предметов.