Очередной тред про хипстерские технологии, которые не работают.Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.Что почитать для вкатывания? http://www.deeplearningbook.org/В чем практиковаться нубу? http://www.deeplearning.net/tutorial/Где набрать первый самостоятельный опыт? https://www.kaggle.com/ https://halite.io/ https://www.general-ai-challenge.org/Где работать? https://www.indeed.com/jobs?q=deep+learning&l=Где узнать последние новости? https://www.reddit.com/r/MachineLearning/Где посмотреть последние статьи? http://www.arxiv-sanity.com/Список дедовских книг для серьёзных людей:Vladimir N. Vapnik "The Nature of Statistical Learning Theory"Trevor Hastie et al. "The Elements of Statistical Learning"Christopher M. Bishop "Pattern Recognition and Machine Learning"Напоминание ньюфагам: персептроны и прочий мусор серидины прошлого века действительно не работает на серьёзных задачахПредыдущий тред: >>1121858 (OP)
>>1162357 (OP)> Blockchain — databaseLolwut. И к криптовалютам надо было "candy wrappers" написать.
Так бля. Пацаны, нужна помощь ньюфагу полному.Знаю все необходимую матбазу из шапки. Умею немного в плюсы, знаю чуть-чуть теории из алгоритмов на больших объемах данных(т.е. получить что-то из огромной базы с высокой вероятностью), типа кластеризации или работы с разряженными матрицами. Рассказывали что-то про распарарллеливание и как это должно работать в хадупе, но ничего прикладного так и не сделали. Все, что умею мне нравится.Расскажите, куда катиться с такими начальными(в смысле мне это нравится) и куда не стоит. Хотелось бы чего-нубидь сложного и не с курсеры. Заранее спасибо за любой ответ отличающийся от >катиться к хуям
>>1162379> куда катиться с такими начальнымиДушить змею, десу. В смысле, питон учить. И матрицы никто не разряжает. Их делают более рЕдкими. От этого они становятся разреженными.
>>1162392А после питона то что? Алсо он мне не очень нравится, если для дело надо, то конечно, но просто так его учить не тянет.А про разреженные спасибо, мне тоже казалось, что так правильно, но я решил, что неправильно запомнил.
>>1162409катиться в ScyPy. По сути в науку. Дальше неизбежно столкнёшься с морфологией, а тм и Перельман пришлёт тебе на обсуждение очередную статью
>>1162423На работу то меня возьмут с этой штукой?
>>1162423Алсо Перельман же дифференциальный геометр, это связано?
>>1162357 (OP)>сиридиныБлять, как же я так проебался.>>1162379У тебя очень широкий вопрос. Погугли, какие задачи дип лёрнинг решает, выбери интересную, книжку из шапки почитай, потом найди список свежих пейперов по теме и реализуй методы из них.>>1162425В России скорее всего нет. Т.е. если ты чисто машобом хочешь, то нет.
>>1162429>Т.е. если ты чисто машобом хочешь, то нет.А что еще надо? кроме машоба?
>>1162433Обычные прогерские скиллы, очевидно.
>>1162426Ну чувак на таком уровне, где геометрия сливается с математикой, и одним словом это можно назвать логика. Человеческая логика сейчас находится на уровне Перельмана. Именно так мы сейчас осмысливаем предметы вокруг себя.
>>1162425<ывают проскальзывают вакухи Big data etc
>>1162426
>>1162379А че с курсерой не так?)
Для нейронок что важнее: проц или видеокарта?Ну т.е. буквально, стоит ли ужимать бюджет немного на второе ради первого, или наоборот?
>>1162608важно найти самый простой способ провести бейслайн в классификаторе. Если это не получается то начинаешь перебирать с помощью CPU.
>>1162608Я в нейроночках диван, но советую сначала упереться в железку на практике, а потом считать бюджеты.
>>1162608Для обучения - видеокарта, желательно с большим объёмом памяти, иначе будешь ебаться с подгрузкой данных кусками.
>>1162379Тащем-то вводные у тебя считай нулевые так что начинай с курсеры и не выебывайся.
>>1162608ryzen, 1080ti, 16+Гб для домашней системы стандарт сейчас
>>1162443>логикаЯ занимаюсь логикой и это очень далеко от диффуренциальных уравнений. Логика скорее похожа на самую слабую в смысле ограничений на объекты алгебру, но не более.>>1162497Видеоуроки и платить еще за это предлагают.>>1162707Еще раз, это вводные, чтобы объяснить что мне нравится, а что не особо. И что именно начинать на курсере то?Насколько я понял, то, что я описал это не машоб а просто работа с большими объемами информации. Или я не прав?
>>1162357 (OP)ОПчик, halite.io из шапки уже закончился. Можно мейлрушный канкурс вместо него поставить.
>>1162743У тебя типичный вопрос из серии что мне делать со своей жизнью. Он не имеет смысла, как и твоя жизнь. Че хочешь, то и делай. Хочешь поступай на пхд, хочешь пускай krokodil по вене.
>>1162745Блин, второй проёб в шапке. Тред медленно будет лимит набирать, но в следующий раз постараюсь на обосраться.
>>1162746Не знаю. Я прошу рассказать какие есть направления и темы в том, что называется data science. Видимо это много.
>>1162379Бамп вопросу.
>>1162751Гугли. Тут секретов нет, интернет забит подобными вопросами.
>>1162751статистика, r, juliascala @ spark, clojure @ storm\onyxкатиться - в шадкурсера - это, кстати, не видосы, а курсы, и притом бесплатные (платный - сертифицированный сертификат)
>>1162758>статистика, r, julia>scala @ spark, clojure @ storm\onyx>катиться - в шадСпасибо, но это же все технологии или вообще языки, а статистику я вроде более менее знаю. В шад же меня не возьмут, да и в этом треде о нем нелестно отзывались. Да и там нужно выбрать одно из трех направлений, а в этом то вся проблема и заключается.А по поводу курсеры я так понял, там в зависимости от курса либо плата за сертификат, либо плата за сам курс, есть триальная 7дневная версия, но все не то. И в основном там видеоуроки в этих самых курсах, по крайней мере в тех, что я видел.
>>1162357 (OP)Как мне обучить нейросеть играть например в герои 6 не хуже человека, чтобы по тактике рвал, какую библиотеку скачать как начать обучения сети?
>>1162934это очень сложно. Я думаю почти невозможно.Для начала нужно распилить игру. найти то место которое отвечает за инпут. Переделать инпут с мышки на процесс, в котором крутится нейронка.Дальше найти место которое отвечает за оутпут, в смысле то которое стоит перед оутпутом на видяху. Потому что там совсем мрак. Понять рендеры каких объектов ты видишь. Сделать мап этих обьектов в нейронку. Дальше нейронка запомианет паттерны движения этих объектов и учится. Проще конечно зареверсить движок, найти файлы которые отвечают за игровую механику, замапить их в нейронку. Потом обученная нейронка мапит свои оутпуты в апиху игры. но если ты такое сделаешь, можешь претендовать на нобелевскую премию в области нейросетей.
>>1162945Наркоман? К какому-нибудь openai universe можно при делать любой вывод на экран и любые действия с клавой, мышкой итд. Там даже в примерах используются обычные игры, никто их не ковыряет. Другой вопрос, что научить нейроночку чему-то сложнее арканоида в домашних условиях вряд ли реально, мощности не те. Нужно как минимум поднимать всю эту ебулду на каком-нибудь амазоновском инстансе.
>>1162962Мозг ведь не требует амазоновского инстанса.
>>1163006Нейронные сети имеют такое же отношение к мозгу, как андеркаты и прочая хипстерская хуита - к нормальному виду.
Секундочку. почему абсолютно дегенеративное обсуждение про нейроночки так оживлено идет, а мой резонный вопрос про деление машоба и вообще науки об информации, до сих пор без ответа? Я же точно помню, что оп первых тредов не был идиотом. Что произошло?
>>1163019Нейронки зохавали моцг
>>1163019Во-первых, твой вопрос плохо сформулирован, и я не понимаю о чем он. Во-вторых, это место именно для дегенеративного обсуждения про нейроночки. За сириус бизнесом иди в реддит.
>>1163019> а мой резонный вопрос про деление машоба и вообще науки об информации, до сих пор без ответа?Что за вопрос-то?
>>1163065чё делать то ёба бля нахуй то а?
>>1163067> чё делать тоНичего не делай. Так и победишь
>>1163067Стакай xgboostы и сверточнхы слоев побольше накатывай.
>>1163065>>1162379
Чего-то за последний год прогресс как-то не прогрессирует, вы не находите? Все возятся с GAN и reinforcement learning, только результатов особых не видно.
>>1163880«День знаний» для ИИ: опубликован ТОП30 самых впечатляющих проектов по машинному обучению за прошедший год (v.2018)https://habrahabr.ru/company/cloud4y/blog/346968/Топ-10 трендов технологий искусственного интеллекта (ИИ) в 2018 годуhttps://habrahabr.ru/company/otus/blog/350614/Да наоборот прогресс ускоряется, в 2016 году я вообще не слышал новости об нейронках и не знал что это.
>>1163937>https://habrahabr.ru/company/cloud4y/blog/346968/Ёбаные хипсторы измеряют успех в количестве юзеров гитхаба, добавившего их репу в букмарки.
>>1163880Хайп спадает, теперь ждать пока деды от машинлернинга не придумают очередную хуитку, позволяющую повысить качество распознавания негров на 0,5%.>>1163937>опубликован ТОП30 самых впечатляющих проектов по машинному обучению за прошедший год (v.2018)Единственная интересная вещь - fasttext, это да, очень круто. Остальное - распознавание негров а-ля пикрелейтед, нескучное автоматическое разрисовывание котиков в стиле Пикассо и анимешных девочек, костыли к слесарьплову, морфинг лошадей в зебр, изменение голоса и прочее говно из жопы.
>>1163019>почему абсолютно дегенеративное обсуждение про нейроночки так оживлено идет, а мой резонный вопрос про деление машоба и вообще науки об информации, до сих пор без ответа?Единственное адекватное деление машоба на два стула было сделано еще в 60-е - асимптотически-оптимальные и конечно-оптимальные алгоритмы. Первый случай - нейроночки и прочее говнишко, над которым можно прыгать с бубном до японской пасхи в надежде, что десяток дополнительных видюх, новая борода из более модного барбершопа и совместное камлание на коворкинге приведет к увеличению качества еще на 0,05%. Второй случай - алгоритмы на основе теории статистического обучения.
Dropout это всего лишь навсего выбывший [из школы] (недоучка), но сообразительный малыйOver-fitting это же теремок (сказка такая) или даже украинское "рукавичка", этот принцип дети учат очень раноВсё дабы запутать простых людей. Даже думаю, что дети машинное обучение будут понимать намного проще. Примерно как со следующей задачей:На книжной полке рядом стоят два тома Пушкина:первый и второй. Страницы каждого тома имеют вместе толщину 2 см, а обложка –– каждая –– 2 мм. Червь прогрыз (перпендикулярно страницам) от первой страницы первого тома до последней страницы второго тома. Какой путь он прогрыз?Эту задача дети решают за 0,(9) секунды, а профессора за длинную эпоху тяжелых размышлений.
>>1164084Хотя мне немного грустно от всего этого.
>>1164084От первой до последней включительно?Тогда 2 см, если нет, то 1.96 см.
>>11641024 мм.
>>1164084>Over-fitting это же теремок (сказка такая) или даже украинское "рукавичка", этот принцип дети учат очень раноНу и в чем связь?>>1164102>>11641073.98мм
>>1164084Смотря в каком порядке стоят тома
>>1164107Лол, ну так дело в том что мелкие пидорахи узко мыслят, поэтому и быстрее.Я сам обосрался, признаю, но как минимум взрослый человек если подумает над этой задачей больше 5 секунд поймет что книги могут стоять по разному, могут быть какие-то манякниги где первая страница в конце, маетматики могут еще в своих неэвклидовых гемоетриях позалипать. В общем хуита пример. И с теремком тоже. Специальные термины нужны т.к. им задают гораздо более узкий и точный смысл чем имеют привычные обывательске понятия, и потом дауны делают ошики из за недопонимания т.к. каждый понимает "манятеремок" или "сообразительный, но выбывший малый" по разному, либо делают акценты на разные характеристи этих мысленных объектов.Короче очередной кукаерк в стиле "чейто энти ваши ученые там делают, лушеб коз выпасли или корову подоили, только деньхи наши тратят, дармоеды"
>>1163967>изменение голосаЭто именно то, что я хотел сделать после прохождения машинного обучения на курсере. Неужели все так нетривиально?
>>1164119А ты небось думал что нейроночки и машобчик это так, месяцок позалипал на курсах\книжках и можно на легке хуячить все те охуительные идеи, которые ты придерживал до изобретения ии?
>>1164167А разве не так? мимо
>>1164119Нейронки нужны для хайпа и попила бабла, а твое изменение голоса решается на коленке любым ЯП.
>>1164182Не решается (кроме добавления эффекта пердения в ведро).
>>1164189И правда, как только без нейронок голоса раньше меняли. Кстати, какова математическая постановка задачи изменения голоса?
>>1164189Есть куча синтезаторов голоса, а если копнешь глубже в акустику, то какие проблемы в его изменение?
>>1164181Нет, всякие phd десятилетиями этим занимаются и в лучем случае могут побить какой-нибудь порог точности на 5-10% в имажнете или мнисте.Любая крупная контора типа фейсбука, гугла, даже мейл ру имеют целые ресерч отделы, где лучшие в этом направлении люди за крупную зарплату каждодневно пытаются сделать что-то подобное. И тут такой вкатывается васян с двача после курсеры и мутит свой морфер изменятель голоса, бота для героев и прочих самореплецирующихся киборгов математиков.А вот хуй, это так не работает
Как научить нейросеть делать RYTP ролики как на ютубе? Равнозначно ли это научению машины способности шутить?
>>1164193>как только без нейронок голоса раньше менялиПитч двигали, гармоник добавляли, да хорус. Это детский лепет. Автотюн незаметный до сих пор не могут сделать, епта.>>1164194>Есть куча синтезаторов голосаНачнем с того, что они такое говно, что даже глухой отличит их от живого человека.Под изменением голоса я понимаю качественный синтез, имитацию голоса конкретного человека, работу с интонацией.
>>1164209>имитацию голоса конкретного человекаА, ну да, тут без нейронки и поллитры смузи не обойтись.
>>1163972>Единственное адекватное деление машоба на два стула было сделано еще в 60-е - асимптотически-оптимальные и конечно-оптимальные алгоритмыА можно поподробнее про второе? По каким запросам гуглить книги, что изучать.
>>1164209Вот не пиздел бы, для всяких английских и испанских есть много годных синтезаторов, просто языки простые. Работа с интонацией заключается в определение семантики текста, а это NLP, там нейронки сосут в первую очередь.
>>1164200Берёшь большое количество роликов, берёшь ган-ганчик, он тебе генерирует видосы. нет
>>1164238Языки с тонами самые устойчивые к имитированию?
>>1164256Поковырял бы в матчасте что ли
>>1164238>Работа с интонацией заключается в определение семантики текстаНе
>>1164265Ты школьнег?
>>1164199Ты мыслишь ограниченно.>>1164182Любым ЯП не получится сделать голос конкретного человека, например.>>1164209>Под изменением голоса я понимаю качественный синтез, имитацию голоса конкретного человекаНе, это перебор. Я еще в теорию кодирования голоса не вникал, но мне кажется, что просто покрутить параметры (с помощью ГА, например) для создания похожего голоса недостаточно, т.к. параметры будут единые для всего потока. Нейронка же, возможно, сможет адапитроваться к определенным патернам изменения голоса.
>>1164422>Я еще в теорию кодирования голоса не вникалясно>Нейронка же, возможнофейспалм
>>1164422Когда хочется "ну вот так, чтобы охуенно было, как в фильме", но "ЯП это скучно, посоны засмеют", то всегда говори "нейронка сможет".
>>1164422>Ты мыслишь ограниченно.Лол, ну давай, неограниченный наш, не забывай хорошо учиться и заполнять дневник, чтобы когда обосрешься с первой тренировкой нейроночки(если вообще до этого осилишь) хоть аттестат был.
>>1164193>как только без нейронок голоса раньше менялиХуёво, вот как. Даже тупо повысить голос на октаву не могли без артефактов.
>>1164493Самое интересное, что в фантастических фильмах про будущее, голос искусственного интеллекта и суперкомпьютера сейчас изображает живая баба. А актеры, озвучивающие симпсонов, получают миллионы. Интересно, начнут ли они песдеть про авторские права и персональные данные, когда нейросетки их порешают? когда-нибудь
Мужики, назрел животрепещущий вопрос.Учусь в маге в неплохом тех.вузе нерезиновой, решил пошароебиться по собесам, есть оффер на неплохую стартовую должность аналитика в полуайти компании(небезызвестная платежная система для школьников и наркоманов) с возможностью дальнейшего переката в мл. Мат.база минимальная есть, прохожу курсы, вся хуйня. Собсна, вопрос: стоит ли бросать нахуй магу, если я уверен, что по специальности работать не буду, или же продолжить учебу ради корки магистра?
>>1164673Доучивайся 100%, без корки в Рашке (и не только) ты никому нахуй не сперся.мимо старый бомж без корки шлют на всех собесах нахуй
>>1164677Траблос в том, что у меня уже 3 знакомых ( 2 мидла-кодера и один джун дс) ща работают в яндексе вообще без каких-либо корок, поэтому и назревает вопрос. А проебывать 2 года на хуйню, которой заниматься я не особо хочу, - вообще не радужная перспектива
>>1164688Не доучивайся 100%, корка в Рашке интересует только крыс из бухгалтерии, которые её ПРИКЛАДЫВАЮТ К ЛИЧНОМУ ДЕЛУ
>>1164673Доучивайся, для мля тебе корка магистра особенно пригодиться.
>>1164688Без корки ты будешь жить в рашке.
>>1164693Словно что то плохое
>>1164696Если ты мазохист, то даже и хорошо.
>>1164701Поехавший либираха у которого на швятом жападе все в шоколаде? Ну, ну.
>>1164691Дак бля это будет магистр по ядерной физике и технологиям, от которых прост пиздец воротит. Насчет мля - не уверен, можно ж проходить курсы вышки, например
>>1164693С чего такая уверенность? Один хуй корка будет не по компьютер сайнсу, а если наработать опыта и сдавать языковые экзы - думаю, шансов все равно больше
>>1164702Наводнение рольнул. Не самый плохой вариант, чо. Шансы есть в течение месяца-двух. Изменение климата? Ахаах, выдумки китайцев, да мы же только выиграем, засеем тундру, ой чтбульбульбульбульбуль
>>1164708>чтбульбульбульбульбульОн утонул.
При всем неуважении к рашке, не стоит забывать, что рашка точнее совок - родина настоящего машобчика. На гнилом жопаде одно шаманство, индусы и хипстеры-педерасты.
>>1164705Ну так дропни и возьми магистратуру с чем-нибудь cs релейтед
>>1164713Заебал ты вапником, чесслово.
>>1164723Поддвачну.>>1164713Я хоть и сам не в восторге от нейронок, но ты уже просто задрал церковью этого своего деда.
>>1164723>>1164730Есть альтернативы?
>>1164748Например, ты можешь свалить в туман.
>>1164787А ты заставь.
>>1164790Мервых не мучают мысли о Вапнике. Подумай об этом. Подумай. Думай.
>>1164800> Эти стоны даунича, не осилившего даже аннотации к работам великих
>>1164705Мифишник в треде? Сам мифишник закончивший в ядерную физику.
>>1164909Ты подумал о настоящих причинах своей нездоровой тяги к мертвым, похороненным теориям? Думай. Думай об этом постоянно. Каждый раз, когда отвлечешься от мыслей об этом, возвращайся к ним, как только заметишь это. С утра проснулся - первая мысль: почему же я некрофил? Перед сном вспоминай, размышляй о тлене, разложении, почему тебя именно это привлекает. Когда ешь, визуализируй сгнившую, червивую, иссохшую еду перед тобой, задавайся вопросом, почему тебе это нравится. Отныне все твои мысли заняты только этим, ничто другое не имеет значения. Представляй себе свою собственную смерть, при каких обстоятельсвах она произойдет, как скоро.
>>1164947> Ты подумал о настоящих причинах своей нездоровой тяги к мертвым, похороненным теориям?Лол, мань, статистикал лернинг живее любых нейроночек. Бустинг тот же.
Поцоны, есть ли тут кто-нибудь с опытом работы с нейросетками, применяемыми для создания диалоговых систем? Интересует следующая хуйня - можно ли, зная архитектуру, примерно понять, какими статистиками вроде объёма, частот слов, n-gram или ещё какой-нибудь хуйни должен обладать корпус диалогов для нормального обучения? Работаю в индустрии, делаю чатботов, а т.к датасетов на русском нихуя нет и данные мы сами собираем со всяких твиттеров, качество их хуй знает какое. Статей на эту тему не нашёл.
>>1165466>с нейросетками, применяемыми для создания диалоговых систем?в голосяндру
>>1165466По вопросу ничего не могу сказать, но в ответ спрошу: а что такое чатботы, особенно в индустрии? Вообще что они делают, для чего там нейроночки?Я слышал в реддите про это, но только какое-то невнятное бормотание. Никаких примеров этого я не видел. В жизни, например, сталкивался с чатботом на техподдержке моего сотового провайдера, было довольно круто, мой вопрос был решен. Но там банальное дерево диалога, как в РПГ из 70-х годов, только сверху прикручено распознавание и синтез голоса. Последние два, видимо, на нейроночках, но это из другой области вещи, как я понял. Чатботы же это именно про содержание текста?
>>1165549>Но там банальное дерево диалога, как в РПГ из 70-х годовда и плюс статистическая поебота
>>1165553В моем случае чисто дерево диалога с выбором из вариантов. Единственное, можно было выбор сделать голосом, например что-то вроде: вам нужна техподдержка, проверка баланса или настройка голосовой почты? Говоришь техподдержка. Раньше надо было кнопками выбирать, очень неудобно.Но это явно не про те чатботы, о которых идет речь в посте выше. Или это они и есть? Тогда зачем там корпус твитов нужен?
>>1165554>Или это они и есть? Тогда зачем там корпус твитов нужен?ну смотри, тех поддержка там все просто, все вероятные проблемы захардкожены, если бот типа болталки там можно собрать ответы на типичные фразы из инета/твитора, если добвить к ней некую реакцию получится ассистент. все это симуляция ии, хотя может выглядеть впечатляющи.
>>1165556Что за бот типа болталки? Я совершенно не в теме, представления не имею, о чем идет речь. Это просто боты, отвечающие рандомными фразами, как Элиза из 66-го? Тогда какое отношение они имеют к индустрии? Или это индустрия развлечений какая-то, тогда где это все можно посмотреть?И что это за ассистент? Если это как сири в айфоне, то там все точно так же захардкожено по ключевикам. Шаг влево, шаг вправо и "here is what I found on the web on your request", тупо в гугл забивает твой запрос.
>>1165558>болталки = Элиза из 66-года>ассистент = сири в айфонеда, отличие в том, что у сири будут реакция на фразы типа проверь почту
>>1165561Имхо сири на 100% по ключевикам работает, т.е. это проверь почту кто-то там забил в БД руками, посмотрев список частых запросов, которые не удалось распознать другими ключевиками. Ну на самом деле я не знаю, может там и правда пупир нейтронные касмические квантовые технологии на блохчейне, но по тупости эта система в точности равна БД ключевых слов.
>>1165563примерно как у яндексопидоровhttps://habrahabr.ru/company/yandex/blog/339638/а тот анон, просто еще не понимает, что нейронки это лютая хуета
>>1165564Спасибо, теперь какое-то представление получил. Наверное, там как раз описано то, что тот анон имел в виду.
>>1165565>что тот анон имел в виду.наверное. тому анону пора спускаться с небес и хотя бы понять, что даже синтаксический разбор предложения является нерешенной задачей в nlp, не говоря уж о семантике, а под капотам цири и алис скрывается паровой двигатель.
>>1165566Да ведь на хабре все это как раз и описано. Там два варианта использования нейроночек: классификация текста по категориям, для чего глубокий разбор не нужен (по факту там просто несколько шаблонов распознается, т.е. можно сказать что нейроночка автоматически подбирает нужные ключевые фразы), и режим болталки где нет никаких гарантий, т.е. это классическая Элиза на модных технологиях. То, что нейроночка и близко не делает никакого разбора текста, их не особо волнует, оно им и не нужно.Конечно, сказать что у нас тут ПОМОЩНИК С ИИ НА НЕЙРОНОЧКАХ, или Я ДЕЛАЛ ДИАЛОГОВЫЙ ИИ В ИНДУСТРИИ - бесценно. Ну да хрен с ними, пусть делают. Все равно в НЛП застой уже лет 30, хуже не будет.
>>1165571> Все равно в НЛП застой уже лет 30, хуже не будет.Какой застой 30 лет, ты что-нибудь слышал про word2vec и лингвистические регулярности?
>>1165576>word2vecне работоспособное говно>лингвистические регулярностиэто еще что такое?
>>1165576>word2vecЕдрить прорыв.>лингвистические регулярностиЭто ты про king - man + woman = queen? См. выше.
>>1165580> Это ты про king - man + woman = queen? См. выше.Что там смотреть? Мнение очередного школьца? Алгебраические операции на пространствах векторных представлений текста уровня корпусов common crawl даёт огромные возможности, если уметь что-то кроме кукареканья. >>1165579> не работоспособное говноКогда в голове прошлогоднее говнишко, то да. Но это проблема не word2vec, разумеется.
Меня вот интересует вопрос, а работа для джуниоров в данной области (data science) вообще существует?
>>1165596>common crawl че бля? какие на хуй возможности для нормальных языков с флексией и свободным порядком слов? еще эсперанто подтяни или бейсик.
>>1165611Нуя ж говорю, ты просто не понимаешь как это работает непосредственно, на уровне линейной алгебры и никогда не видел всего этого вживую.
>>1165613>ты просто не понимаешь как это работает непосредственнону да, я вот всего лишь ебусь с проджектом по нлп
Трансляция яндекса по машобу. гоу смотретьhttps://events.yandex.ru/events/mltr/31-march-2018/
>>1165621>яндексанинужно
>>1164707Для релокейта нужна корка. Да и 95% вакансий МЛ на Западе её просят.
>>1164673но если это мага. то у тебя уже есть бакалавр?
Какие зарплаты у машоберов в Яндексе?
>>1165564Если нужно сделать что-то, что будет.1. Генерировать разнообразные ответы2. Воспринимать больше, чем набор заготовленных фраз. То нейронки с этим справляются лучше других алгоритмов. Ещё нейросети являются расширяемым фреймворком, то есть решение проблемы часто получается не очень костыльным, например здесь - https://arxiv.org/abs/1603.06155 чуваки просто и эффективно решают проблему несвязности разных ответов друг с другом.
>>1165608Нет
Какой уровень знаний нужен для книги Vladimir N. Vapnik "The Nature of Statistical Learning Theory"? И какой уровень будет после?
>>11658760.0.
>>1165914Не распарсил.
>>1165876> Какой уровень знаний нужен для книги Vladimir N. Vapnik "The Nature of Statistical Learning Theory"? Матан, теорвер, линейная алгебра, основы вариационного исчисления.> И какой уровень будет после?Если осилишь - просветление. Поймешь, почему нынешний мейнстрим в машобе это путь в никуда и почему все кроме конечно-оптимальных алгоритмов в машобе это чистое шаманство.
>>1165941Сектанство не нужно.
>>1165948> Сектанство не нужно.Это не сектантство. Из всего машоба это единственный подход без сектантства.
>>1166084Сектант, плес
В сраной заблокируют AWS: https://torrentfreak.com/russia-asked-isps-to-block-13-5-million-amazon-ip-addresses-to-silence-one-app-180331/Будете на Байкалах нейроночки тренировать, нефиг тут.
>>1166114> Будете на Байкалах нейроночки тренироватьНа луньсунях, ты хотел сказать. Это же пижженые китайские процы longson. А так, сразу было ясно, для чего гебне цензура. AWS интересен тем, что позволяет с common crawl работать, нейроночки нахуй не нужны.
>>1166146>луньсуняхЛуньхуюнях
>>1165580> king - man + woman = queenО, вы тоже из mlcourse_open
>>1165566синтаксический парсер отлично работает, только он ничего не дает и непонятно, что с этим синтаксисом делать
>>1166417Отлично работает (только если предложение не использует необычный синтаксис) (обычный синтаксис используют 3% предложений) (отлично значит приемлемо) (то есть результат можно отличить от выхлопа ГСЧ) (статистическая значимость отличия от ГСЧ 0.1 на выборке из 100000000 предложений)
>>1166417Давай с примерами, шибко интересно как там нейронки пережуют синтаксис.
Поясните за марковские процессы. Выглядит как какой-то математический наеб. Вот пишут что у них главное свойство в том, что чтобы перейти в следующий стейт достаточно знать текущий, типа они не зависят от истории.Но разве я не могу свести любой не марковский процесс к марковсому тупо записывая все что нужно в стейт? Т.е. если мне например нужно знать какую-то хуитку, которая была три состояния назад, я просто беру и в стейте держу дополнительную величину "хуйнянейм три стейта назад", в конце концов я же могу тупо всю историю состояний записывать в текущий стейт.Тогда нахуя они вообще нужны?
вы дебилы
>>1167396нет вы
>>1167397ты дурак а я умный
>>1167309Манька, а как ты собираешься узнавать всю историю процесса? Или ты прого-дебич, не могущий вообразить ничего за пределами кампуктера?
>>1167309Можешь. Именно так и делают, если это возможно. Но это бывает невозможно реализовать на практике. Например, полное состояние может быть слишком большим, или содержать переменные к которым у тебя нет доступа.
>>1167404Чего так нагрелся то? Агрессивный вапникофорсер eto ti? Во-первых, да не могу, иначе бы не спрашивал.Во-вторых ессно меня интересует то, что можно реализовать на компьютере, иначе я бы спрашивал у чистопетухов в матаче, а не в зекаче.Читаю книжку по RL, там часто делается на это акцент, вот и стало интересно. Писали бы уже про какую-нибудь markov representation, а так только запутывает.
>>1167477>меня интересует то, что можно реализовать на компьютере, иначе я бы спрашивал у чистопетухов в матаче,Они грязнопетухи на самом деле. То, что нельзя реализовать на кудахтере или что то же самое, в виде ментальных построений, нельзя реализовать никак. Это не математика, а аутизм.
>>1167497Анон, а есть какая-нибудь годная книжка по конструктивной математике? Чтобы только не ебали когомологиями колец с первых страниц.
>>1167563Да чего там учить.| = 1|| = 2||| = 3И т.д.мимо
>>1167563Лучше сразу какой-нибудь прувер разбирай, непонятное догугливай. Когда будешь думать что понял, пробуй на нем написать что-нибудь из Барендрегта, "lambda calculi with types".
>>1166591 https://cloud.google.com/natural-language/https://habrahabr.ru/post/317564/ (немного криво обучено)>>1166589отлично - не хуже других NLP задач, где выше 90+% даже на простых задачах не получают/до недавнего времени не получали (типа несчастного определения частей речи)и не очень понимаю проблем с нейронками и синтаксисом, задача почти не отличается от любых других задач, например, Named entity recognition и тд, да и проблемы те же самые
>>1167881https://github.com/tensorflow/models/blob/master/research/syntaxnet/g3doc/universal.mdи проценты для языков
Решил написать простенькую нейроночку на питоне https://paste.ofcode.org/HyCrw8uaKDQPYGkjXAVGu9Столкнулся с тем что было бы очень удобно получать элемент А по индексу A[index] если А - list, а не ndarray (index тоже list). Как-нибудь так можно?
>>1167886это не нейроночка. Нейроночка это то что ты фитишь. А ты юзаешь апи этой нейроночки. тебе в треб с радостным удавом на пике.
>>1167900Не пойму про какое апи ты говоришь когда я с нуля пишу.
>>1167902>когда я с нуля пишу>from sklearn
>>1167907Ну train_test_split это не то чтобы апи нейроночки ) Или мне и перемножение матриц самому на плюсах писать?
>>1167902а ну да маленько не доглядел. извиняй
>>1167909кстати если тебе будет нужны датасеты обращяйся
>>1167907Так он же склерном только тестирует. Ты из тех для которых с нуля это на своей ос, со своим языком и стандартными либами?
>>1167886Нафиг ты вручную эту дрисню пишешь, когда есть pytorch?
>>1167919потому что могу
а вот я пытаюсь вкатится в классификаторы sklearn. Там обязательно ли таргетсы в порядке возрастания размещать а а а а ?
>>1167984В порядке возрастания это как? О каком порядке вообще может идти речь, если данные обычно смешаны и перетасованы?
>>1168016есть опыт с скашечкой?я еще зелэный.ну вот хуй знает. типа надо подготовить трейнинг сет, например чтобы его таргеты были в виде векторавот прикладываю скрин с туториала, 'y' это таргетсы из трейнинг сета
>>1168019Пройди туториал самый базовый хотя бы. У тебя вопросы на уровне как запустить хеллоуворд.y_i у тебя должен соответствовать твоему ветору иксов из матрицы X т.е. y_2 соответствует второй строке твоей матрицы данных.
>>1168020>>1168020спасибо. То есть не обязательно чтоб таргетсы были по возрастающей? Просто у меня не правильно сработало. правда таргетсы были не 1, 2, 3 а соотвественно 650, 400, 820и модель только одну 820 правильно предсказала.. а остальных цифр которые она выдала вообще не было в таргетсах, что типа 118 и 500
>>1168020так же вектор имеется ввиду просто массив, необязательно чтоб он был именно возрастающим или убывающим?
>>1168026>>1168028Блин, я вообще не очень понимаю что у тебя там с таргетсами. Разберись минимально и станет понятно. Ничего там возрастающим и убывающим быть не должно.У тебя данные обычно представлены матрицей mXn, т.е. m - количество строк - это все твои наблюдения т.е. к примеру если это фильмы то там будет строка со всеми характеристиками фильма типа название, жанр, длительность и т.д., n - количетство столбцов - это какие-то характеристики твоих данных т.е. в случае с фильмом первый столбец название, второй жанр, третий длительность и т.д. Если тебе к примеру нужно предсказать жанр(т.е. в твоем тренировочном наборе этот столбец будет, а в тестово нет), ты берешь все остальные столбцы как x т.е. будет матрица mX(n - 1), а столбец y - это жанр mX1. Главное чтобы они у тебя соответсвтвовали твоему иксу т.е. пятый элемент твоего столбца y относился к пятой строке матрицы X. Со своим датасетом можешь делать что хочешь, главное чтобы сохранялось это соответсвие. А когда ты наконец читанешь про numpy и pandas то поймешь что делать это элементарно и почему твой вопрос такое дно.
>>1168039>ты берешь все остальные столбцы как x т.е. будет матрица mX(n - 1), а столбец y - это жанр mX1спасибо, пояснил за регрешн, спасибо!но я пока на классификаторе сижу, до регрешина ещё не дошёл. Теперь вижу что те же яица вид сбоку как говорится
>>1168052А ты не думал сперва почитать о том что ты делаешь? На заметку, если у тебя классификатор выдает в результате классы которых не было в трейнинг сете >>1168026 , то это внезапный регрессор.
>>1168071спасибопросто сложно въехать во всю эту поеботину. Написано сложновато
Привет. Про tf. У меня есть матрица M (m x n) и массив целых чисел a длины k, такой что сумма по его элементам равна m. Мне нужно получить тензор T (k x p x n), следующим образом. Возьмем из M a[0] векторов, положим в первую строчку T, остальное дозабьем нулями, до размера p, потом возьмем ещё a[1] следующих элементов из M и так далее.Какая ето функция?
>>1168072Я тебе даже больше скажу, тут не только написано сложновато, это вообще довольно сложные вещи, если ты рассчитываешь на что-то большее чем использование моделей из sklearn. Вероятно, тебе придется вообще всесторонне повышать уровень знаний, а твои вопросы и манера речи свидетельствуют о том что это будет долгий и тернистый путь. Зачем это тебе?
>>1168078Чё так агрессивно накинулся на мимокрокодила.другой мимокрокодил
Чёт я думал вы тут науку двигаете, а вы тут всё матрицы какие-то умножаете
>>1168078нет кроме моделей из sklearn ничего делать не собираюсь. хочу помаксимум с ними разобраться и использовать на благо своей макакской работы. Ну и для себя хочу попробовать написать AI который будет играть со мной в спейсфутбол. ну а на счёт манеры речи. да я неаккуратно пишу чёт ленюсь, извиняй
>>1168083Я вовсе не агрессивен. Я максимально дружелюбен. Я засыпаю улыбаясь и обняв подушку, потому что представляю как нахожу друзей в тредике, с которыми обмениваюсь статьями и идеями, разбираю практические проблемы и штурмую PhD.
>>1168084ебаные
ура блять, почти правильно. бля охуенно, спасибо лол
А можно ли представить нейронную в сеть в виде аналитической функции? Ну то есть в виде символьной записи. Ведь если в w1x1 + w2x2 + ... подставить вместо иксов функции второго слоя, и так далее, то можно выйти на символьную запись, не?
>>1168105Можно, это одно из известный свойств нейроночек.
>>1168105>>1168111Удивительное рядом!
>>1168116Еще бы посмотреть на этот аналитический вид в общем случае (для сети из N слоев с Mi блоков в каждом слое). А то что-то не могу найти.
>>1168117Зачем?
>>1168119Я этого хочу.
>>1167886Более-менее привел код к рабочему виду, https://paste.ofcode.org/YZeyPTuk4wckpu9eU3G5k6 вроде оно иногда работает, но как-то странноНапример на digits результаты сильно разные и иногда очень хуевые, если указать достаточно большой градиентный шаг (больше чем 0.01) то на digits обычно оно вообще нихуя не сходится.Как можно бороться со всем этим?
>>1168126хотя не, для digits если указать побольше нейрончиков то точность почти 1А вот почему такой маленький градиентный шаг непонятно
>>1168126>если указать достаточно большой градиентный шаг (больше чем 0.01)>вообще нихуя не сходится>как можно бороться со всем этимСтавить меньше, очевидно. Если не сходится, значит перелетаешь минимум постоянно. Шаг 0.001 и меньше это норма так-то.
>>1168117> Еще бы посмотреть на этот аналитический вид в общем случае (для сети из N слоев с Mi блоков в каждом слое). А то что-то не могу найти.Сам нарисуй схему и по ней выпиши, хуле ты. У прости господи Вапника перцептрон и SVM так описаны, да и вообще такая нотация на каждом шагу встречается.
>>1168225>такая нотация на каждом шагу встречаетсяПрочитал всю фундаментальную книжку из шапки и не нашел такой встречающейся на каждом шагу нотации.
>>1168226> Прочитал всю фундаментальную книжку из шапки и не нашел такой встречающейся на каждом шагу нотации.Книжка в шапке хипстерская, фундаментальность там рядом не стояла. Поди даже не написано, зачем в нейроночках "нейроны", для чего вообще вход разбивать именно таким образом, из каких соображений это следует и что даёт.
Объясните на пальцах как делать imitation learning.Никак не могу понять, в лекции от беркеле ебут обобщенными формулами без особой конкретики. В пейперах еще больше математической дичи.Вот допустим есть простая игра где бот двигается в 2d плоскости и может стрелять в других врагов. Наиграл я пару сотен матчей и насобирал данных, что дальше то?
>>1168255
Аноны, курс по теорверу на Udacity - норм? Надо осилить фильтр Калмана, а я на парах ебланил, ничего сложнее комбинаторики не помню.
>>1168255Вряд ли тебе кто-то будет разжевывать тут столь нетривиальные вещи. Иди ботай статьи.
Может кто подсказать. Есть 14 временных рядов, значения которых в реальном времени с определенной частотой приходит на сервер (т.е. каждые N мс на серваке получаю массив (1,14) ). Стоит задача сделать классификатор, который сможет распознать в определенном промежутке этих временных рядов какой-то класс. То есть классы описываются не одной строкой (1,14), а определенным набором строк, например (64,14). Выборка для обучения есть (записи). Я сейчас экспериментирую с MLP и LSTM сетями. Но вот не знаю как лучше делать свертку матрицы (64,14) в какую нибудь (1,M). Сейчас я считаю разные статистики для каждого ряда окна (там дисперсию, эксцесс и т.д.) и формирую вектор статистик, который и подаю на вход нейронке. Но результаты не очень. Есть ли какие нибудь другие методы/либы, которые позволят свернуть это двухмерное окно в одномерный вектор? И вообще для такой задачи какие нейронные сети лучше использовать? Стоит ли ковырять LSTM вообще?
>>1168307LSTM это особая атмосфера, с ними надо пару лет плотно позаниматься, чтобы начать понимать как их эффективно использовать. Для твоей задачи, если тебя устроит ограниченное окно, рекомендую банальную 1д свертку по времени.
>>1168307Вот я о чем и говорю. Вы прочитаете про полторы хипстерские нейроночки, и не понимая зачем они вообще, пытаетесь засунуть их везде. У тебя задача на кластеризацию. Вот есть у тебя фичи, полученные из 14 временных рядов в пределах окна из 64 значений. Казалось бы, собирай их в один вектор и подсовывай карте Кохонена, построенной на исторических данных, где ты можешь отметить векторы фич, ассоциированных с искомыми событиями. Все, дальше смотришь насколько близко тестовый вектор фич проецируется к нужному тебе. Потом, если у тебя есть помеченные наборы таких фич, можно их попробовать разделить на классы с помощью SVM, м.б этого будет достаточно. Зачем тут lstm вообще, ты же пол не болгаркой подметаешь.
>>1168317Спасибо за совет. А существуют ли какие нибудь готовые библиотеки python для выполнения сверток?
>>1168318Линейные классификаторы я тоже использовал, но они отработали хуже чем тот же двухслойный MLP. Как на сырых рядах, так и на статистических фичах. Скорее всего, это из-за данных, потому что у них очень неявное разделение на классы. Поэтому не факт, что мое решение с подсчетом статистических фич для окон явно описывает класс. Но нейронка в пределах 80-85% смогла распознать. Но хотелось бы конечно результат получше.
>>1168328> Линейные классификаторы я тоже использовал, но они отработали хуже чем тот же двухслойный MLP. Но я про линейные классификаторы ничего не говорил. Как вариант, можешь ещё бустинг навернуть.
Блять, опять у вапникошизика обострение. Бро, иди нахуй отсюда, ты уже просто засираешь тему шитпостом, и не мешаешь другим.
Здравствуйте, я туп как пробка, учился на тройки, но поступил в магистратуру, чтобы не сесть на бутылку. У меня следующий косяк - мне задали здание в магистратуре сделать так, чтобы с помощью регрессионных методов машинного обучения я взял точки и соединил их корреляционной линией. Как на приложенной картинке. Я взял sklearn и скормил ему точки, а в ответ он выдал мне требуемую линию. Все счастливы, все довольны.Но потом меня обоссали и сказали, что регрессионные методы уже давно известны, ты втёр нам старьё, Вася! Делай тоже самое, но только нейронными сетями! БЫСТРА! ОДНА СУТКА ВРЕМЕНИ ТЕБЕ!ПОЭТОМУ, ПОДСКАЖИТЕ, ПОЖАЛУЙСТА, КНИГУ НА РУССКОМ, ГДЕ ОПИСАН КАКОЙ-НИБУДЬ ФРЕЙМВОРК ИЛИ БИБЛИОТЕКА С НЕЙРОННЫМИ СЕТЯМИ, ЧТОБЫ МОЖНО БЫЛО ЕЙ СКОРМИТЬ ТОЧКИ И ЧТОБЫ НЕЙРОННАЯ СЕТЬ НАРИСОВАЛА КОРРЕЛЯЦИОННУЮ ЛИНИЮПрошу книгу на русском, так как осталась одна сутка. Пока ищу, не могу найти. Вроде, задачу регрессии не принято нейронными сетями решать.Ну или хотя бы подскажите библиотеку, которая может сделать регрессию нейронными сетями
>>1168355Ты не поверишь. http://scikit-learn.org/stable/modules/generated/sklearn.neural_network.MLPRegressor.html
>>1168356О, как хорошо, спасибо огромное. Целую тебя, анон, ты просто прекрасен, ты как лучик света в тёмном царстве.
>>1168357Не смущай меня, пожалуйста.
сап двач мур мур мур мур мурЕensorFlow или Sklearn??? для макаки
>>1168369sklearn проще, даже на русском много книг есть с описанием sklearn. А TensorFlow потяжелее хреновина.
>>1168242>Поди даже не написано, зачем в нейроночках "нейроны"Кек. А зачем?
>>1168374>А зачем?Да и действительно. А потом читари таких книжек приходят сюда и говорят, "а что нейроночку можно в виде функции записать?!?!", "а что, нейроночка может в регрессию????" итд.
>>1168375А в каких книжках это фундаментально описано?
>>1168373вкатился в sklearn, сейчас перекатываюсь на TesorFlow. Подкупило макакское комьюнити впику научному sklearn. И то что это гугл, который умеет в макакское API
>>1168375Вместо чтобы выебываться и шизить, быстрее бы привел запись нейронки в виде функции, если уж в твоих совкодрочерских книжках это на каждом шагу.
>>1168416>в твоих совкодрочерских книжках это на каждом шагу.Это вообще в принципе на каждом шагу, почти в любой книжке или статье в тему. Соотв-но: однослойный перцептрон, многослойный перцептрон, SVM в виде двуслойной сети.
>>1168421А теперь то же без реккурентной формы для отдельного нейрона. Для всей сети, как чисто аналитическую функцию от входов и весов для N-слойного перцептрона.
>>1168426Вторая же картинка, вся сеть.
>>1168429>i-th neuron in the l-th layer
а что это такое?
>>1168437Это сумма. Ты вообще читаешь, что тебе пишут? >>1168426
>>1168435И? Подставляй нужные функции активации и сколько там тебе нужно слоев и нейронов в каждом слое и обрящешь. Можешь даже на бумаге посчитать. Это же общая формулировка, для любого случая. >>1168437Пиздец. Значок суммы впервые видят, какие вам нейроночки, таблицу умножения выучите хоть...
>>1168441>ПодставляйПонятно. То есть в книгах в общей форме такой записи нет. А орали что на каждом шагу
>>1168442>То есть в книгах в общей форме такой записи нет.Алло, я и привел общую форму.
>>1168444Алло, перечитай еще раз: >>1168426
>>1168327Tensorflow, pytorch.
>>1168447Достаточно.Сьеби, жирун.
>>1168458От тебя никакого толка, только выебыаешься. Как доходит до дела, сливаешься.
>>1168447Ты хочешь частный, конкретный случай для конкретной архитектуры сети и конкретных функций активации. В этой книжке http://b-ok.xyz/s/?q=AE6CE64B978DCC3E4C0623C70D6D5973&e=1 похожие примеры разбираются, она даже в шапке была когда-то по моему совету, но выпилили. Я пользуясь случаем, еще раз посоветую эту книжку.
а что такое N-слойный перцептрон? ёбаныйврот
>>1168334Да пусть сидит уже, он стал своим, домашним. Как старый таракан.Все лучше чем времена нашествия дебильных шизиков из /ссы, бесконечно толкущих воду в ступе стенами словесного поноса про ишкуштвеный нтеллехт.
Что я могу сказать - читайте нормальную литературу, никакие хипстерские высеры а-ля то что в шапке вам никаких конкретных знаний по этой теме не дадут. И не надо кукарекать, что все типа как устарело, нихуя там не устарело, все, что есть сейчас - это продолжение работ тех самых дидов из 50-х (Арнольд, Колмогоров, Розенблатт), 60-х (Вапник) итд. Самые новомодные сверточные нейроночки - это просто фантазии на тему неокогнитрона + все того же перцептрона, ничего другого там нет и не было. И хуй вы поймете, как все это работает, если не знакомы с основами.
>>1168466А по моему книга из шапки вполне так, если разобраться во всем что там написано то знать будешь куда больше большинства экспертов из этого треда.
>>1168476Поддвачну. Тем более есть хороший русский перевод. Пока всякие недоснобы воротят нос, мол "мам, скажи им, читать на русском это никрута", другие ведут себя адекватно и вникают в интересные вещи.
>>1168477Русек то тут причем? И это не снобство, одну книжку перевели, 1000 других не переведут. Про пейперы я вообще молчу + будешь путаться в терминологии + реддиты, стекоферфловы, кворы где можно задать вопрос или почитать развернутый ответ тебе тоже не доступны.Вкатываться в датасаенс не зная английского край тупости. Даже русскоязычные курсы постоянно ссылаются на англоязычные термины и статьи
>>1168496Никто и не спорит, что английский нужен.
>>1168437
>>1168544Схоронил.
>>1168762Теперь ничто тебе не помешает получить PhD по нейроночкостроению.
>>1162617плюсую. сам сперва купил видеокарту для этого. занялся обучением. хватает проца с головой. даже достаточно сложные на мой взгляд модели требуют минут десять. а карта манит себе спокойно
>>1168799Куда поступать чтобы получить PhD? Мне нужны варианты если меня не возьмут в мит и калтех. В своем универе я уже всех задолбал.
>>1168835А ты наукой решил заняться? Зачем тебе пхд?
>>1168849Без него мне тянки не дают (
>>1168851Проведи исследование, собери данные миллионов мужчин, затем данные о том кому дают тянки и кому не дают, найди наиболее оптимальный вектор развития к локальному экстремуму, далее вкладывай время-деньги пока не начнут давать.
>>1168853Проанализировав данные о 12 826 322 мужчинах мне удалось доказать что в локальном максимуме, достижимом из моего текущего состояния, вероятность того что мне даст тянка не превышает q.7E-7
>>1168883Тебе нужно увеличить свой моментум, чтобы проскочить этот локальный минимум.
>>1168903Ему нужно совершать случайные блуждания по бабам.
>>1168466Арнольд, Колмогоров сложно пишут. Ты видел доказательство работы нейроночек у Колмогорова? Там очень не просто. Ну только если ты не выпускник матфака. Вапника не читал, не знаю, новерное все же стоит почитать.
Новый топчик от диипмайнд: https://arxiv.org/abs/1804.01756
Няши, есть ли где-то исследования о: boosting vs bagging?Не является ли bagging более продвинутым алгоритмом (хотя он и проще) хотя бы потому что он не может уйти в редкие цепочки вида (A>N1)&(B<N2)&(B>=N3)&(...) ? Покрывает ли boosting всё алгебраическое множество, когда положительные результаты в диаметрально противоположных углах пространства? Например (A>0.95)&(B>0.95) и (A<0.05)&(B<0.05) ?
Еще свежачок от какого-то норвежского ноунейма: https://arxiv.org/abs/1804.01508Вапниколюб должен быть доволен.
>>1169297сенсационные новости о том, что теория вапника не применима к нейронкамhttps://calculatedcontent.com/2018/04/01/rethinking-or-remembering-generalization-in-neural-networks/
>>1169493Я знаю, и это давно известно. Собственно, это очевидно из практики, даже если не углубляться в детали теории.Но моя ссылка вообще не об этом. Я люблю рассматривать радикально новые модели, а-ля всякие NTM и spiking networks, все-таки просто нейроночки уже мейнстрим и немного наскучили (хотя DNC и прочее еще нужно дорабатывать).У этого чувака прям совсем другая идея, интересно же. Хотелось бы статью обсудить с кем-то серьезно.
>>1169505> Я люблю рассматривать радикально новые модели, а-ля всякие NTM и spiking networks, Все равно эти модели либо конечно-оптимальны либо асимптотически- оптимальны. Даже если там нахуевертили столько всего, что vc- размерность для этой мутоты заебешься высчитывать. С этих двух стульев машоб не слезет, кроме них там и нет ничего. То, что на датасете типа белого шума SVM не работает, ебать Америку открыли. Будто что-то другое сработает в условиях чистого рандома. Эти все "радикально новые модели" от хипстеров ничего нового не несут, максимум - взгляд с другой стороны на общеизвестные вещи.
Алсо, теория Вапника - не святое писание, а одна из возможных теорий, на базе которой можно строить алгоритмы машоба не вслепую. Естественно, могут быть созданы и другие, вот только пока ни у кого мозгов не хватило.
а вот предположим, я натренировал классификатор в sklearn на 200 семплах и юзаю его для предсказаний что это за цеке. Можно ли его теперь дотренировывать ещё (дальше)?мимокрокодил
>>1169525>Все равно эти модели либо конечно-оптимальны либо асимптотически- оптимальныто есть не имеет смысл что то придумывать? имеет смысл брать модели из коробки как есть, и натренировывать их на датасетах под конкретную задачу (пиксели или лексика) та?
>>1169674Если есть в параметрах warm_start, то можно грузануть предыдущий результат и дообучить.
>>1169681забавно. то есть модель теоретически может расползтись на 3мб в оперативной памяти?
>>1169678> то есть не имеет смысл что то придумывать?Придумывать можно по-разному. Нахуярить слоёв, непойми чего, а потом утверждать что Вапник хуй, потому что vc- размерность твоей ебулды подсчитать невозможно, это в любом случае не путь здорового человека. Алгоритм должен выводиться из математической постановки задачи обучения, а не из интуитивных представлений о том, "как нада".
>>1169686правильно ли я понял, что в sklearn есть дохера разных оценителей для всех задач с которыми сталкивается машоб и нужно просто выбрать один из этих об]ектов и обучить его и и nакой естимитор обучится мгновенно. Нежели собрать свою модель из слоёв во всяких хипстерских машоблибах типа Keras?
>>1169686>Алгоритм должен выводиться из математической постановки задачи обучениНу и как успехи, много алгоритмов вывел? Где можно ознакомится?
>>1169685>3 мбЧто-то вы совсем уж бедуете в своих нейроночках. Почему не делаете нейроночки на гигабайты?
двач. Нахуя нужна фукнция активации внутри нейрона?
>>1169755Чтобы придать системе нелинейности.
>>1169759а разве не для того, чтобы смапить результат сложения предыдущего слоя в заданный рейндж для данной сети напр 0<activation<1 ?
Этот шум в гугл капче специально от нейроночек?
>>1169759Ответ математика - правильный, но бесполезный
>>1170123> Ответ математика - правильный, но бесполезныйУмный дохуя? Ответь полезнее. Нейроночки это изначально математика, тебе ответ пчеловода нужен?
Двощ. Объясни, почему если пидарашки такие дохуя умные, в этом списке нет хвалёного МФТИ или Бауманки со своей опенсорсной либой для бекенда нейросетей?Вот то-то поэтому хр выёбваться уже
>>1170153Тхеано мертв, мелгомягкие никому не нужны, слесарьплов для макак. Труъ это торч.
>>1170157ну и что что для макак. Я макака и горжусь этим
>>1170153>хваленого МФТИХваленого кем? Абитурой в образоваче? Пистех - та ещё помойка
>>1170168>Пистех - та ещё помойка Обоснуй, пожалуйста.Я слышал, что в Физтехе зубодробительно сложно учиться, но при этом дают очень хорошую физмат-подготовку. Что там?
>>1170202Это ПТУ для математиков, где тебя вусмерть задрочат решением примитивных пазлов, замаскированных под задачи.
>>1170224Что тогда не пту для математиков?
>>1170284MIT
>>1170286Вся суть хипстоты. Услышал что MIT круто, пересказал всем друзьям, пистех теперь говно потому что не MIT, а MIT эта крута.
>>1170385Даже если это так, он абсолютно прав.
>>1170385Ну ты бы хоть лекции по матану там посмотрел, сразу бы все вопросы отпали.
>>1170398Погуглил учебный план по калькулусу, посмотрел пдфы. Что там такого сверхъестественного? Я как-то смотрел программу пистеха, там примерно то же было.мимо примат СПбГУ
>>1170398Там лекции по матану наконец-то превратили в интерактивный порно квест, в котором теория преподается в виде стендап комедий с Джорждем Карлином как высказался >>1164951 ?
>>1164239Даже лучше - http://sicpvn.sdf.org/index.html
>>1170510
>>1170511В голосяндру с носа пездоглазихи
>>1170511Так в эту хуету можно поиграть или она ещё в разработке?
Где можно пообщаться о нейроночках без быдла и без $регистрации?
>>1170612В этом треде. Если серьезный бизнес то надо идти регистрироваться и на реддит и писать там.
>>1170628> без быдла> пара десятков последних постов
>>1170635Ну это просто ты пришел.
>>1170612добавил быдло вопрос
>>1170464Я про видеолекции(калькулус, теорвер, линал, диффуры), после них можно свободно наворачивать любую современную книгу в которой предпологается знание соответствующего раздела матана. После постсовковых шаражек ты разве что можешь наворачивать ненужные упражнения на листочках, а понимания зачем все это нужно 0.
Господа, а неужели, чтобы воспользоваться Tensorflow в PyCharm обязательно надо устанавливать гигабайты Nvidia GPU софта?
>>1170740Зочем видеолекции, когда прочитать быстрее?Но могу подтвердить, матан стал лучше пониматься после забугорной книжки для идиотов 1917 года.
>>1170741Можешь на процессоре считать.
Как бы так вкатиться в машоб, чтобы еще и хоть чуть-чуть денежек зарабатывать на нем?
>>1170766Преподавай, снимай лекции, веди курсы.
финансовая аналитика жинет нет проскакивают жирные вакухи
>>1170744> 1917 годаТы красный как комуняка
>>1170779от книг зависит.У нас например тоже есть бодрые книги 60х годов. В то время у нас был расцвет науки. А потом в 80-е всё пришло в упадок и утонуло.
Пробовал я читать Колмогорова. Строго, академично, но нечитаемо. Поток формальных определений, не понятно зачем нужных.
>>1164705С тобой можно где-нибудь вне треда пообщаться? У меня абсолютно та же ситуация.
>>1170740Ок, посмотрел пару лекций. Там просто приводят примерчики типа "используется в физике", "почему производная - скорость" и "что такое двойной интеграл". Ну охуеть, как будто в России преподы такого не дают. Где обещанная магия-то? Я и до этого мог современные книжки читать. недавно, например, по теории управления и теории информации книжки из нулевых читал
Я взял простой пример нейронной сети выполняющей задачу регрессии:http://mexuaz.com/opencv-machine-learning-03/Код написан на Tensorflow 1.2/Keras 2.0.5Я хотел взять ту же задачу, распараллелить её и выполнять в полотора-джва раза быстрее на нескольких ядрах. Я стал искать как же в Tensorflow/Keras делается параллельность на нескольких ядрах и нихрена не нашёл, нашёл только про подрубание GPU видеокарты. Насколько мне показалось, в Tensorflow/Keras автоматически используется параллельность ядер. НО! Узнать об этом точно у меня не получается, так как у меня всего два ядра. Я взял PyCharm в котором у меня код программы на Tensorflow/Keras, я и в диспетчере задач отрубил второе ядро, оставив только одно. И эта программа на Tensorflow/Keras выполнилась вдвое медленнее.ПОЭТОМУ Я ХОЧУ СПРОСИТЬ, ПРАВИЛЬНО ЛИ Я ПОНЯЛ, ЧТО В ПРОГРАММЕ НА Tensorflow/Keras АВТОМАТИЧЕСКИ ИСПОЛЬЗУЮТСЯ ВСЕ ДОСТУПНЫЕ ЯДРА ДЛЯ УСКОРЕНИЯ НЕЙРОННОЙ СЕТИ?
>>1170882Некоторые операции распараллеливаются, например умножение больших матриц. Но вообще ТФ это про ГПУ, там над ЦПУ производительностью никто не парится особо.
>>1170882Даже больше, если у тебя видюха от инвидии, слесарь тебе сам всё будет на ней считать
>>1170782Я не спорю, просто на 1917 год триггернулся как красный комуняка
>>1170942Спасибо
Сап аноны, я короче просто анализирую что делают нейросетки, не связано с программированием, но у меня есть к вам вопрос.Вот тренируется нейронка, она может сразу воспроизвести результат, фактически на этом всё и держится, на том что нейронка может что-то воспроизвести. Может ли быть так, чтобы был проёбан этап тренировки, но оставался этап воспроизведения? нихуя непонятно наверное, но я не знаю как иначе спросить
>>1171615> Может ли быть так, чтобы был проёбан этап тренировки, но оставался этап воспроизведения?Нет. Тренировка это настройка параметров функции, аппроксимирующей зависимости выходов датасета от входов. Перед тренировкой эти значения инициализируются какими-либо числами, но без тренировки ответ сети никак не будет связан с текущим датасетом.
>>1171640что такое> аппроксимирующей?
>>1171758Нда, крута...
>>1171615Можно, но зачем? Вон прямо берёшь и псевдокодишь:function hellocommaworldwithoutneuralnetworks () {print("Hello, world");}Или дажеIf "еда":call слюна;
>>1171615>>1171782Аааа... Погугли мемоизацию или как-то так.
>>1171782>>1171640Сорре, парни, вопрос обновился:Воспроизведение рандома или пустоты это всё равно воспроизведение чего-то. Хотелось бы понять возможно ли оставить голую сущность "воспроизведение" без чего-то ещё.
>>1171789Ты не зная что такое аппроксимация пытаешься родить вопрос "можно ли получить вывод из нейронки которая не обучалась"?. Ответ - можно. Подавай что-то на вход, после умножения на случайно сгенерированные веса ты получишь свой мусор на выход. Если копать еще глубже в "голую сущность", то можно вывести веса девственной нейронки, и это будет тот же мусор. Простая нейронка это результат умножения массивов, никаких лишних сущностей нет. Я просто надеюсь что ты еще учишься в средней школе и пытаешься найти свой путь в жизни, поэтому не тыкаю мордой в то какой ты биомусор.
>>1171850Нет, парень, я спрашиваю как спрашиваю. Вопрос про воспроизведение. Голое воспроизведение без подразумеваемых в нём данных вообще. Продублировал вопрос также в философачеhttps://2ch.hk/ph/res/71196.html#71997 >>1171758 это спросил тот кто не хотел гуглить.
>>1171874Если ты спрашиваешь так что тебя никто не может понять, то проблема на твоей стороне, учись формулировать мысли. Ты зачем-то упомянул нейронки в треде про машинное обучение, а оказывается имел ввиду абстрактные сущности. Если вопрос сугубо философский, можно ли воспроизводить пустоту, то ты ошибся тредом. Если вопрос научно-прикладной, то голым воспроизведением является функция воспроизведения, можешь не передавать в нее никаких данных, в контексте программы она является чистым и незамутненным воспроизведением.
>>1171874Я другой анон, но тоже не могу вкурить твой вопрос. На вход нейронки подается некий сигнал, на выход - преобразованный сигнал. То, как он будет преобразован, зависит от исследователя, от того, как он построит сеть и как обучит ее. Всё. Если не настраивать нейронку под задачу, то она будет выдавать что-то рандомное и никому нахуй не нужное.
>>1171874> Голое воспроизведение без подразумеваемых в нём данных вообще.Это тебе в лямбда исчисление. Там как раз такая нотация - голая абстракция функции любой сложности и структуры, в т.ч нейроночки конечно. Классика чтива - Барендрегт. Но ты не осилишь.
Сап нейроначСобираюсь вкатываться в тему не бейте лучше обоссыте, но есть проблема: у меня достаточно старый комп, к тому же видюха от амд, пробовал запускать примеры на керасе, все жутко тормозит, тензорфлоу естественно не считает на гпу.А я как раз собирался избавляться от десктопа в пользу ноутбука. И тут встал вопрос: стоит ли тратить дополнительные 20-30к за ноут с 1060? На буржуйских сайтах везде пишут, что практичнее будет купить ноут подешевле, разницу потратить на облако от Амазона. Но мне кажется, что это какой-то булшит: облако у Амазона стоит по несколько баксов в час, т.е. разницы в цене мне хватит примерно на 200-300 часов. Это же не очень много? Вообще, на практике, насколько мне хватит 1060 для учебных заданий и своих проектов?
>>1172109Если ты будешь гонять нейроночки на ноуте, он перегреется и сгорит через месяц. У них охлаждение не предназначено для этого.
>>1172109Поступила на соответствующую специальность, гоняю нейронки на сервере универа, брат жив, зависимость есть.
>>1172109>собирался избавляться от десктопа в пользу ноутбукану и дурак, энжой шейный хондроз
>>117231515 лет пользуюсь только ноутами, причем лежа на кровати. Никакого хондроза, шея говорит малацца, позвоночник воскрес. И никогда не вернусь на стационарный комп. Пиздец блять, 3018 год на дворе, а всё пользуются стационарными гробами.
>>1172319>причем лежа на кровати. А у меня кровати нет
>>1172346>А у меня кровати нетПопробуй. Базарю, еще захочешь.
Насколько вообще вкатившийся ценен на рынке труда?У меня есть 2 года опыта серверной разработки на сях, щас ботаю мл по специализации яндекса, потом планирую нейронок навернуть и быдлопроектик свой навелосипедить.Но я ведь просто червь-пидор по сравнению с ребятами из ШАД например, или даже просто профильных кафедр МФТИ/МГУ/ВШЭ. Кому я нужен то?Сам физик изи МИФИ, c матаном +- дружу.
>>1172387>2 года опыта серверной разработки на сях>вкатывается в машобТы ведь понимаешь, что перекатываешься из условного НИИ жопоебли в песочницу к детям с синдромом дауна, чтобы жрать вместе с ними песок?
>>1172397>из условного НИИ жопоебли в песочницу к детям с синдромом даунаДа ну так-то норм перемена.
>>1172397>>1172399Ну нет лол. Я в норм конторе веслаю.По существу есть че сказать?
Анончик, как на основании истории прослушивания что рекомендовать?user->items -> black box -> user -> must_to_see_itemsПредполагаю что для начала нужно пользователей как то кластеризовать по схожести их историй просмотра, а затем из максимально близко расположенного выдавать пользователю рекомендации. На ум приходит k-mean или там knn, но они как то слабо подходят, объектов для рекомендации порядка 100к.
>>1172506SOM ежжи. Оно очень хорошо классифицирует музло по соотв. фичам, может само, без учителя, распознавать жанры. Примеры есть в этой книжке: http://gen.lib.rus.ec/book/index.php?md5=6F2C8128E2ADE1815E1967AEB57AA351 Analysing the Similarity of Album Art with Self-Organising Maps....Pages 357-366Где-то видел даже готовый софт для автоматической экстракции фич из папок с мп3 в виде, пригодном для самоорганизующихся карт, сейчас нагуглить не могу. Но это вот они http://www.ifs.tuwien.ac.at/dm/somtoolbox/ делали. Суть рекомендаций в случае карт Кохонена - рекомендовать близкорасположенные к истории просмотра пейсни и даже жанры.
>>1172319>Никакого хондроза, шея говорит малаццаСколько тебе лет, сынок? И что ты на кровати с ноутом делаешь? Дрочишь что ли? Люди вообще-то работают.
>>117254442 года. Я работаю лежа. Сынок.
>>1172109Ноут "все в одном" - хуевая идея. Надо сделать так: иметь СЕРВЕР, который дома будет пахать 24х7 и обучать нейронки. И любой ноут, через который ты будешь подключаться к серверу в режиме терминала - даже через банальный тимвьювер. При чем за сервер вполне может сойти твой днищекомп, оперативы только докупить. У меня, например, в компе 2012 года пашет 1080Ti и пашет примерно на 30% медленнее, чем его сосед с современным процессором и SSD. То есть на уровне 1080, а разница в цене между 1080 и 1080Ti - 10 тысяч рублей. То есть особой выгоды мне менять мой комп 2012 года на более новый нет. Но тот комп у меня довольно неплохой, шестиядреный феном с кучей оперативы и хорошим кулером процессора, не знаю, что у тебя там за дно.Теперь, почему такой ноут - хуевая идея.1. Это хуевое вложение средств, потому что они слабо апгрейдятся. Ну купишь ты 1060, через 2 года эта 1060 будет дном днищенским, в десктопе ты ее продашь, купишь новую и вставишь в тот же самый десктоп, а в ноуте что? Ноут только продавать и покупать новый.2. Ноуты аналогичного железа сильно дороже.3 У геймерских ноутов (а это будет геймерский ноут) проблемы с охлаждением, они не расчитаны работать 24х7 и что-нибудь у тебя поплавится, поведет от температуры, а еще есть шанс проблем с питанием. Если только не брать убер-ноут с оверпрайсом - а ноуты и так оверпрайснуты по сравнению с десктопным железом.4. Допустим тебе надо куда-то поехать и ты берешь ноут с собой... В итоге ты стопоришь обучение, или едешь с печкой в портфеле.5. Ноут больше 13" и временем работы меньше 8 часов - зашквар для колхозников и гастарбайтеров, видюхи, мощной понятное дело, в таком ноуте быть не может.
Что касается амазона, то стоит он не несколько баксов, а 20-30 центов за спот, но они уже очень тормозные и поэтому невыгодны (есть и более быстрые инстансы, но они дороже). Это или на недельку поиграться, или для бизнеса которому нужно запускать нейронки для комнсьюмера и они не хотят тратиться на свою серверную. А так очень невыгодно, и также неудобно, чем работа на своей машине.
>>1162357 (OP)Может тут кто знает.ставлю rpy2. Для этого поставил R последний, х64. У директории r\bin есть config.sh, который задействуется при установкеR.exe CMD config, но выдаётся ошибка "sh не является программой/командой". В интернете пишут, что может быть проблема в прописанных путях в переменных окружения, но у меня вроде всё ок. -------------C:\PROGRA~1\R\R-34~1.4\bin\R CMD config --ldflags"sh" не является внутренней или внешнейкомандой, исполняемой программой или пакетным файлом.Traceback (most recent call last): File "C:\Python35\Scripts\rpy2-2.9.2\setup.py", line 374, in <module> ri_ext = getRinterface_ext() File "C:\Python35\Scripts\rpy2-2.9.2\setup.py", line 269, in getRinterface_ext ldf = shlex.split(' '.join(rexec.cmd_config('--ldflags'))) File "C:\Python35\Scripts\rpy2-2.9.2\setup.py", line 222, in cmd_config universal_newlines = True) File "C:\Python35\lib\subprocess.py", line 629, in check_output kwargs).stdout File "C:\Python35\lib\subprocess.py", line 711, in run output=stdout, stderr=stderr)subprocess.CalledProcessError: Command '('C:\\PROGRA~1\\R\\R-34~1.4\\bin\\R', 'CMD', 'config', '--ldflags')' returned non-zero exit status 1-------------------
>>1172625Ставь линукс.
>>1172594Облако нужно в основном чтобы параллельно кучу всего тренировать. Дешевле, чем свой кластер содержать.
>>1172625> выдаётся ошибка "sh не является программой/командой". Поди под глинукс собрано. Попробуй вместо простого R мокрософтовский r open. Как вариант, поставь пакет из исходников или вручную - скачай и распакуй в каталог libs.
>>1172625А, ещё вариант, поставь r tools.
>>1172665Не дешевле. Возьмем комп на базе 1080TI. Сам тиай стоит тысяч 60, комп к нему - полноценный комп с 16 гб памяти, ssd (в т.ч. для свопа) и нормальным блоком питания, в днищекорпусе, может быть с похилее амд процессором - 40 тысяч. Итого за 100К ты имеешь dedicated машину, в которую при желании ты можешь добавить второй GPU. Жрать этот комп будет ватт 500, то есть 2 рубля в час, или 3 цента.По AWS цены на инстансы on demand:G2.2x: 0.05 (сильно подешевели однако)G3.4x: 1.14P2.1x: 0.9P3.2x: 3.06По перформансу имеем следующие коэффициенты из-за разной скорости:G2: 0.1G3: 0.4P2: 0.2P3*: 1.0Со звездочкой, потому что у P3 быстрее в 2 раза на float16, но трейнинг float16 это отдельная сложная тема.Переводим в деньги: G2 - 0.5 в час, G3 - 2.85 в час, P2 - 4.5 в час, P3 - 3.06 в час.А комп с тиаем нам достался за $1500. Значит после того, как он отработает 3000 часов (потратив 100 баксов на электричество), он будет работать в плюс. При этом заменять он будет 10 инстансов G2. Остальные же инстансы просто не конкуренты, P3 например вырабатывает цену нашего компа за каких-то 500 часов, то есть 20 дней, P2 и G3 просто нахуй не нужны за такие деньги.То есть если ты планируешь нагрузить свой тиай больше, чем на 3000 часов, то амазон тебе менее выгоден, чем купить прекрасную машину, которая будет жужжать у тебя на балконе и с 0 мс доступом. А если ты вставишь шикарный тиай в свой днищепека, то и 2000 часов хватит.Но - это был вопрос денег. А еще есть вопрос удобства. И одна быстрая карточка лучше, чем десять медленных. Во-первых, в нее влезет нейронка потолще, с батчсайзом побольше. Во-вторых, какая-нибудь байесова оптимизация гиперпараметров на ней будет более эффективной - вместо того, чтобы ждать 6 часов и получить 6 хуевых результатов, ты каждый час будешь уточнять свою модель. А у меня например модель тренируется часа 3, на g2 придется ждать сутки? Хуйня неудобная.Короче амазон или для инференса на сервере (неизвестно сколько юзеров будет завтра и дешевые g2 подходят), для стартапов, которые не хотят вкладываться в железо до раунда инвестиций, для тех, кто кому результат нужен вчера. А для нормального исследователя-контрактора выгоднее иметь 2-4 топовых консьюмерских жпу, соединенных в локальную сеть и с синхронизацией файлов на них.
>>1172726Ты вообще не о том. Если тебе надо натренировать 1000 моделей для подбора гиперпараметров (это примерно минимум для средней статьи в 2к 18), то у тебя есть три стула:- обсчитывать это 15 лет на своем домашнем пека;- собрать кластер за 100 миллионов долларов, что займет 3 года работы, и потом натренировать модели на нем за неделю;- натренировать за неделю на амазоне, заплатив несколько тысяч грина.
>>1172734Я о том, просто ты туповатый какой-то и говоришь какие-то цифры с потолка. Какие нахуй 15 лет, какие нахуй 100 миллионов долларов.Берем инстанс P3. На $10000 ты можешь купить 3000 часов. В неделе 168 часов, то есть ты купишь на эти деньги 3000/168=18 инстансов.Второй стул - это потратить $10000 на 4 компа с парой 1080TI. В этом случае ты будешь считать две с половиной недели. Не 15 лет, а две недели. Только в первом случае ты проебешь $10000 навсегда, а во втором будешь иметь 4 компа с двумя 1080TI. На которых, внезапно, свою следующую статью вообще бесплатно будешь считать. 5 компов - это не какой-то там высранный тобой кластер за 100 миллионов долларов, это меньше школьного компьютерного класса.Твоя логика это что-то типа "квартиры за 6 млн. дорого, лучше буду снимать такую квартиру за 250 тысяч в месяц - это выгодно."
>>1172506https://en.wikipedia.org/wiki/Collaborative_filtering
А нейроночку можно представить в виде "если-то", "свитч-технологии" и такого?
>>1173256не, это божественные Экспертные Системы
>>1173256С натяжкой случайный лес можно чем-то таким назвать, но не нейронки
>>1173256ЕСЛИ нейроночка сказала, что это кошка ТО это кошка
>>1173256Решающие деревья.
>>1172387> Но я ведь просто червь-пидор по сравнению с ребятами из ШАД например, или даже просто профильных кафедр МФТИ/МГУ/ВШЭ. Кому я нужен то?Поверь, ты сильно переоцениваешь их.
Здравствуйте. У меня задача регрессии. Я хочу на нейронной сети сделать регрессию с двумя входными переменными. То есть по двум входным переменным предсказывать третью.В начале я пытаюсь на Keras сделать регрессию с одной входной переменной, например, для синуса или параболы. Всё получается отлично программа предсказывает по точкам правильно и синус и параболу.Дальше я увеличиваю размерность входных данных для двух переменных. И получается как на картинке. Вместо правильной синей линии программа строит очень грубую усредненную прямую.ПОДСКАЖИТЕ, ПОЖАЛУЙСТА, КАК НА АНГЛИЙСКОМ ПРАВИЛЬНО ЗАГУГЛИТЬ ПРИМЕР НА Keras, ЧТОБЫ ТАМ ВМЕСТО РЕГРЕССИИ С ОДНОЙ ВХОДНОЙ ПЕРЕМЕННОЙ БЫЛО ДВЕ ВХОДНЫХ, КАК У МЕНЯ НА КАРТИНКЕ?
>>1173396>ЧТОБЫ ТАМ ВМЕСТО РЕГРЕССИИ С ОДНОЙ ВХОДНОЙ ПЕРЕМЕННОЙ БЫЛО ДВЕ ВХОДНЫХ, КАК У МЕНЯ НА КАРТИНКЕ?Домики деревянные набигают?
>>1173396фикс Вместо правильной ЗЕЛЕНОЙ линии программа строит очень грубую усредненную прямую - СИНЮЮ линию
>>1173397Обычно в примерах одна переменная 'х', а предсказывают 'y'. А я хочу найти с двумя 'x1', 'x2' и предсказывают 'y'.То есть как у меня на картинке, вместо двух осей будет третья.То есть ищу пример с тремя осями, вместо двух.
>>1173397Иными словами, я имею ввиду, чтобы было не точь в точь как у меня, а только лишь чтобы было три переменные как на картинке. Какие-нибудь 'x1','x2' и третья которую предсказывают 'y'.Только я слова для поиска подобрать не могу.
Короче я криво вопрос написал, сейчас переделаюЗдравствуйте. У меня задача регрессии. Я хочу на нейронной сети сделать регрессию с двумя входными переменными. То есть по двум независимым переменным предсказывать третью.В начале я пытаюсь на Keras сделать регрессию с одной независимой переменной 'x' и второй переменной, которую предсказывают 'y', например, для синуса или параболы y=f(x). Всё получается отлично программа предсказывает по точкам правильно и синус и параболу.Дальше я увеличиваю размерность входных данных для двух переменных z=f(x,y). И получается как на картинке. Вместо правильной зеленой линии программа строит очень грубую усредненную прямую - синюю линию.ПОДСКАЖИТЕ, ПОЖАЛУЙСТА, КАК НА АНГЛИЙСКОМ ПРАВИЛЬНО НАПИСАТЬ ЗАПРОС ДЛЯ ГУГЛА, ЧТОБЫ НАЙТИ ПРИМЕР НА Keras С ДВУМЯ НЕЗАВИСИМЫМИ ПЕРЕМЕННЫМИ И С ТРЕТЬЕЙ ПЕРЕМЕННОЙ, КОТОРУЮ ПРЕДСКАЗЫВАЮТ?
>>1173400>>1173399У тебя одна входная переменная X должна быть, просто большей размерности. Матрица размера (input size) × (training set size)
>>1173403>Я хочуИстинно говорят: источник всех человеческих страданий в желаниях. Стоит лишь тебе правильно сделать регрессию с двумя переменными, и ты тут же захочешь регрессию с тремя. Очевидно, это никогда не закончится, и ты проведешь жизнь в бесплодных страданиях, плача и стеная на форумах о том, как твоя регрессия строит неправильные линии. Избавление от страданий придет к тебе только после осознания, что регрессия тебе не нужна.
>>1173414Это да, я изменил размерность массива х. Просто я для наглядности объяснил, что нужно вторую независимую переменную добавить z=f(x,y) вместо y=f(x).А так да, лучше было бы объяснить, что нужно y=f(x1,x2) вместо y=f(x1)
Ребят, че это за хуйня? Батч еле в 8 гигов влезает. Оптимизирую адамом. Хуйня в смысле возрастание лосса с падением lr.
>>1173449>Батч еле в 8 гигов влезает.Пришло время купить у (((дяди))) оперативку.>Хуйня в смысле возрастание лосса с падением lr.Оверфиттинг?
А что, нынче регрессия без диплернинха не в моде? У меня даже куркулятор в регрессию может, причем не только в линейную, я очень от жизни отстал?
>>1173488У меня на трейне растет, так что оверфиттинг не причем.
>>1173490Если лосс на трейне растет, значит ты какую-то вообще лютую хуйню сделал.
>>1173449Графики осей под подписей - молодец, ведь истинный специалист по ДЛ сразу поймет что у тебя там за хуйня.Если лосс растет при падении lr, значит lr падает недостаточно быстро.
>>1173511>>1173449Что такое lr?
>>1173403>>1173414Вопрос решился, не знаю, что конкретно помогло, но я уменьшил скорость обучения, уменьшил decay и наделал много слоев. И всё сразу по красоте сошлось.
>>1173511>лоссможешь по-человечески объяснить за лосс? Чё это воще такое то
>>1173568>>1173618Я мимокрокодил и могу ошибиться, но, вероятно, lr - learning rate лосс - loss
lr - learning rate, далосс по-русски называется функция потерь>>1173614Decay (то есть спад скорости обучения со временем) по логике надо бы увеличить.
>>1173680>лосс по-русски называется функция потерьа что она делает?
>>1173680Мне другой перевод нравится decay - загнивание. Попробую увеличить, посмотрю.
>>1173682Потеряется
>>1173693ну мам
>>1173682Ты какую-то совсем азбуку ML спрашиваешь.Математические функции ничего не делают, они вечны и находятся в пространстве идей. Все, что мы делаем, это подбираем с помощью оптимизатора ее параметры так, чтобы она была чем меньше, тем лучше.Допустим у тебя есть набор чисел x1, x2, x3, и y1, y2, y3 и ты хочешь найти такие k и b чтобы f(x)=kx+b было равно y как можно точнее для всех трех случаев. Это случится, когда мы подберем такие k и b, чтоloss(k, b) = (y1 - (kx1+b))^2+(y2 - (kx2+b))^2+(y3 - (kx3+b))^2 будет минимальным. Вот это и называется функцией потерь. Именно у нее мы найдем градиент dloss/dk и dloss/db и будем минимизировать. Как можешь заметить, чем меньше у тебя лосс, тем лучше ты моделируешь, чем больше лосс, тем хуже.С нейронками происходит то же самое, только вместо f(x) с параметрами k и b и скалярами x и y, у нас нейронка с миллиардами параметров, а вместо xi и yi - тренировочный датасет.Если лосс-функция минимизирует квадраты разности входа и выхода, это называется l2-loss, если модули разности - l1-loss, можно еще минимизировать еще как-то. И туда же обычно включают разного рода регуляризирующие ограничения на параметры.
>>1173736> С нейронками происходит то же самое, только вместо f(x) с параметрами k и b и скалярами x и y, у нас нейронка с миллиардами параметров, а вместо xi и yi - тренировочный датасет. То же самое и в нейрон очках ваших, каждый нейрон считает частную функцию от двух аргументов, а через их суперпозицию получается полная функция от многих аргументов. И лосс так же можно посчитать частный от двух аргументов, а потом общий, через суперпозицию.
>>1173736>а что деляет оптимизатур?>а что деляет параметур?>а что деляет прастранстуво?>ыыы>а что деляет датасет?>егуляезищие ыыы
>>1173833Да вообще пиздец. Такое ощущение, что тут пара-тройка жирных сидит и угарает со скота, который на подобное отвечает.
спасибо аноны>нейрон считает частную функцию от двух аргументовразве не просто складывает значения от базы двух нейронов предыдущего слоя помноженную на соответсвенно вес своего синопсиса?не ругайтесь позязя я есе мааенькийа что такое суперпозиция?
>>1173489Ну и как ты продолжишь последовательность чисел (1 5 9 13 ?) без нейросетей?
>>1173877Скажу, что это случайные числа и что здесь подойдёт любое число.
Я делаю спонтанный сплит датасета трейн - 80/тест - 10/вал - 10 и стабильно получаю точность валидационного на 10% выше чем у тестового, насколько это здоровый результат? Вроде ошибок нет, но мне кажется что исходя из самого принципа валидации, точность должна быть близкой к точности тестового сета, так же?
>>1173897Это норма, настоящая точность на тестовом. Это тоже азбука.
>>1164181Говорят школьник из из пятого класса нейронки за неделю выучит, это только доктора наук из США считают что нужно образование магистра в информационных технологиях, чтобы изучать эту тему.
>>1164432>если вообще до этого осилишьВот вот я уже 5 месяц учу разные алгоритмы и математические правила для нейронных сетей и это всё чтобы только научиться писать нейронки, не говоря о том что я уже два года провёл за программированием. Как только смогу на дваче тред открою с моей нейронкой или вкину в тему.
>>1173877> Ну и как ты продолжишь последовательность чисел (1 5 9 13 ?) без нейросетей?Смотри, дебилок. Простая линейная регрессия на копеешном китайском калькуляторе, считаем весь твой числовой ряд попарно (х 1, у 5), (х 5, у 9), (х 9, у 13), затем вводим последний пример из твоего числового ряда, 13, получаем предсказанное значение 17. Угадал? И где твой бог теперь? Я ж говорю, вы ебонажки, не зная азы лезете в какой-то диплернинх.
>>1173859Почему двух-то. В полносвязном слое - всех нейронов предыдущего слоя, в сверточном слое - в размере ядра свертки, и т. п.
>>1170141Пчеловод в треде. Без математики не куда.
>>1164199Ой, да не неси хуйни. Эти моченые ученые 30 лет не могли допереть до того, чтобы вместо сигмоида использовать relu. Они с чем только не ебались, машины больцмана, энтропии-хуепии, DBN, а до такой простой вещи не додумались. А потом оказалось, что lenet с relu и дропаутом можно отмасштабировать и натренировать на мощностях, доступных на супермкомьютерах 90-х, и выиграть imagenet.Но для этого должна была случиться одна вещь - появились GPU, которые дали возможность тысячам васянов экспериментировать и пробовать комбинировать простые приемы, которые работают.А моченые ученые выдумывают неработающую хуйню типа капсульных сетей.В нейронках грамотный датасет решает все. А у ученых такой роскоши нет, если кто-то напишет, что он дописал 10000 примеров к mnist и повысил распознавание цифр до 99.99997%, ему скажут, ну ок, а новизна где, на minst твой метод сосет. А васян может наращивать датасет сколько угодно, поэтому и разработать крутой прикладной продукт.
>>1172387>бНо я ведь просто червь-пидор по сравнению с ребятами из ШАД например, или даже просто профильных кафедр МФТИ/МГУ/ВШЭ. Кому я нужен то?>Сам физик изи МИФИ, c матаном +- дружу.Пиздец с кем я на борде сижу. Меня в вузе только курсовые строчить немного научили да бумагу марать. Посколько я тогда был тупой ещё не сразу понял что мне пиздец, а потом я начал изучать питон, а потом data science, а сейчас когда я начал изучать machine learning я понимаю что моё образование дно и математику я не фига не знаю, понимаю 50-70% формул в machine learning. Ещё когда посмотрю какие задачи на олимпиадах студенты решают по программированию, то зависть берёт, я без гугла не одну олимпиадную задачу не решу.А у меня iq 108-114, а чувствую себя дауном, обидно.
>>1174038Ходил как то в ШАД, могу сказать что из МГУ и МФТИ реалли очень умные ребята. Если ты в ПТУ вроде Бауманки ходишь, то да, там тебя научат бумагу марать и чужое говно впаривать.
>>1174033Когда уже в моде васянов будут нейроночки с подкреплением?
На реддите поговаривают, что мол диплернинг, как научная область, уже стал больше физики по количеству занятых в ней людей. Всей. Физики. Вместе взятой.
>>1174055Толпы студентов, крутящих гиперпараметры - это ноука теперь, что ли?
>>1174038у меня iq 104 и я вебмакакапытался в машинлернинг, но не получилось, для меня тяжело я не очень умный
>>1174055Оно и объяснимо - чтобы накатать статейку по нейроночам, не нужно вообще ничего: взял датасет, накатал на керасе архитектуру от балды, ну и написал любой нужный вывод. Все равно это говно никто проверять и верифицировать не будет. Корчеватель во все поля.
>>1174055> На реддите поговаривают, что мол диплернинг, как научная область, уже стал больше физики по количеству занятых в ней людей. Всей. Физики. Вместе взятой.И хули толку? Там одни хипстеры, причём ан масс индусы. Поэтому прогресс по-сути зависит от десятка человек типа лекуна. Остальные просто лгбт- балласт.
Надо обучать людей как нейроночек.
Сап, специалисты. Нужна небольшая консультация. Насколько реально запилить хуйню, которая бы создавала уровни в 3д игре на основе уже созданных уровней другими людьми? Ну то есть нейросеть обучается на реальных картах и пытается высрать свою.Если такой возможно, подскажите, куда копать? Может кто-то уже занимается подобными исследованиями?
>>1174132Ты потратишь гораздо больше времени и сил на обработку данных и нейроночку, чем на то чтобы сделать карты руками. Хотя, что-то простое можно попробовать если ты скинешь мне описание карт таблицами [X, Y, Z, объект в этих координатах] или как-то так, ты лучше знаешь с чем работаешь, ну и конечно тебе нужно будет получив подобную сгенерированную таблицу сконвертировать ее обратно в карту.
тоже нубасный вопросвот допустим у меня есть битмапкак я понимаю нейронка может или сказать является ли этот битмап чем то или не являетсяа может ли она сказать четыре координаты из этого битмапа, что между ними находится что-то, например кот?
>>1174150Может. Для этого даже не нужна нейронка, хаар-каскады отлично подходят для твоей задачи.
>>1174151а на нейронке можно такое сделать? некогда объяснять
>>1174154Еще раз, можно. Это классическая задача машинного зрения.
>>1174154>некогда объяснятьХочешь побыстрей начать отлавливать котов?
Байесовские методы через 10 лет будут в аналоге ЕГЭ.
>>1174265В аналоге ЕГЭ через 10 лет будет закон божий, патриотическое воспитание и домострой. Байесовские методы - от лукаваго, в рашке такого не нужно.
>>1174158
>>1174267домострой годная вещь. глядишь простой анон перестанет хрючевом питаться, научиться жарить картошечку и котлеты.
>>1174277> картошечку и котлеты> не хрючево
>>1174085Как может прогресс зависеть от лекуна, если он с открытия ленет занимался хуй пойми чем? Прогресс двигает как раз толпа, на arxiv-sanity.com постоянно охуенные результаты от нонеймов.А разгадка простая - отрасль экспоненциально взрывается и всем есть работа. Кроме тебя. Потому что ты тупой.
>>1174150Это называется object detection, решается с помощью сеток типа SSD
>>1173897Это не норма. У тебя overfitting на dev set. Увеличь его размер. Проверь, что dev и test содержат данные одинакового распределения.
>>1174289> Прогресс двигает как раз толпа, на arxiv-sanity.com постоянно охуенные результаты от нонеймов.Ты дурилка картонная просто и не понимаешь что несешь. Толпа никогда и ни в какой области прогресс не двигала. То, что у одной обезьяны из барбершопа результаты случайно вышли на 0.01% лучше, чем у остальных - это не прогресс. Прогресс - это новые парадигмы, алгоритмы, которые меняют облик всей отрасли.
>>1174320А че, дип лернинг - это какие-то неебацо новые революционные алгоритмы? Да нихуя, просто комбинация из биг даты, возросшей вычислительной мощности и gpu.
>>1174435>А че, дип лернинг - это какие-то неебацо новые революционные алгоритмы?Ну вообще, да. Даже до самых деревянных глубоких архитектур - стыкованных аутоэнкодеров и машин Больцмана нужно было додуматься. Ни один хипстер этого не сделал, хотя те же машины Больцмана известны с 80-х годов. Сверточные сети тоже никто до Лекуна не придумал, хотя неокогнитроны существовали до него, не говоря о перцептронах и работах Хьюбела и Визеля по структуре зрительной коры кошки (что и легло в основу). Борода не делает мудрецом, это еще в древней Греции понимали. И барбершоп мозгов так же не добавляет.
Здравствуйте, я хочу поиграться с n_jobs в scikit_learn. По умолчанию n_jobs=1, а при n_jobs=2 должно случиться ускорение выполнения линейной регрессии.Я ставлю n_jobs=1 и код выполняется за 4 секунды. Ставлю n_jobs=2 и код тоже выполняется 4 секунды. https://ideone.com/B7KP3nПомогите, пожалуйста, понять что неправильно. Почему n_jobs=2 не помогает ускориться?
>>1174055Для физики нужно оборудование. Экспоненциально дорогое. Теоретиков достаточно.
>>1174644Для дииплернинга тоже нужно оборудование, а еще и датасеты. Вон гугл клепает статьи в промышленных масштабах, а все потому что у них есть и то, и другое.Почему теоретиков в физике достаточно, и сколько достаточно, а в нейроночках недостаточно?
>>1174320Обезьян из барбершопа ты сам придумал. Дипленингом занимаются ученые, каждый из которых умнее тебя, и таких тысячи человек. Каждый выдумывает свою часть. А те, кого ты называешь, это, в основном, талантливые организаторы, чье имя по этой причине видно на куче статей.
>>1174692Для дипленинга ничего особенного не нужно, даже на машине за $1500 можно прекрасно работать, а лаборатория для изучения automl будет стоить сраные по научным меркам $100000 - цена одного интерферометра.А в физике просто ничего хорошего и интересного не происходит, одно уныние.
>>1174730>ученыеВ говне моченые.
>>1174137Не все обьекты точечные. Есть блоки и любые другие выпуклые геометрические тела с гранями. Есть сетки дисплейсментов.
>>1174080this.
Вечер в хату, погромизды. Мне нужно за максимально возможный срок въехать в регрессии, auc и roc-кривые. Какие ресурсы посоветуете?
>>1174813а лучше расскажите своими словами
>>1174730> Обезьян из барбершопа ты сам придумал. Дипленингом занимаются ученыеТы их видел, этих т.н учёных? Хипстеры классические. Я понимаю, что сейчас такая мода ебанутая, но все равно смешно с деградантов.> , каждый из которых умнее тебя, Не умнее, доводилось переписываться в т.ч с топовыми специалистами. Первый раз слышат такие вещи, которые как по мне, каждая вторая собака знает. За пределами очень узкой специализации кругозора вообще 0, да и в своей области шаг влево - шаг вправо и ответ уровня "i have no idea what энныйтермин stands for", даже чисто на уровне загуглить. Ну и т.д.
>>1174033>30 лет не могли допереть до того, чтобы вместо сигмоида использовать reluЯ больше чем уверен, что и в нынешних нейронках еще дохрена путей улучшения. Лет через 10 допрут ну как допрут, случайно получится
>>1174822>но все равно смешно с деградантов.И в чем заключается деградантство? Это ты похож на бабушку с подъезда или на гопника, которому лишь бы доебаться до внешности. >За пределами очень узкой специализации кругозора вообще 0, да и в своей области шаг влево - шаг вправо и ответ уровня "i have no idea what энныйтермин stands for", даже чисто на уровне загуглить. Ну и т.д.Это показатель уравновешенной личности, которая не боится сказать, что чего-то не знает, и не пытается казаться умнее. А вот когда человек начинает судорожно гуглить, чтобы произвести впечатление - тут начинается хуета.
>>1174824Не, сейчас уже такого не будет, это было, когда в нейронки никто не верил и ими занимались 1.5 яйцеголовых. Сейчас проблема в другом, открытие может затеряться среди кучи говна. Например https://arxiv.org/abs/1802.05074 - говно или нет? Я попробовал, не сработало. Но мне кажется, что где-то там есть много хорошего.
>>1174828>говно или нет?говно
>>1174829Обоснуй
>>1174834очевидное очевидно. если в открытом доступе, значит говно.
>>1174835Ты еще скажи что инсепшен говно. Наука не так работает.Например, я могу спокойно опубликовать 90% своих открытий, которые касаются дл в целом, но не буду публиковать 10% конкретно своей предметной области, чтобы не плодить конкурентов.
>>1174836>10% конкретно своей предметной области, Тогда 90% нахуй не нужны. Наука в текущем виде это говно и этого говна особенно много в ИИ. Если ты притащил что то из открытого доступа, варианта джва и все они хуевые.>инсепшенВ душе не ебу, что это такое
>>1174841>В душе не ебу, что это такоеТогда ваше мнение очень важно для нас
>>1174828>оптимизация кручения ручек и танца с бубном>открытиеЯ не таким его себе представляю.
>>1174844>Тогда ваше мнение очень важно для насИ ты тоже иди на хуй
>>1174841> >инсепшен> В душе не ебу, что это такоеНу ты и быдло. А Нолан - гений.
>>1174847>А Нолан - гений.А Дикаприо?
Вы вообще похоже не понимаете разницу между машобчиком как наукой и как макакингом. Ну неужели не очевидно, что применение готового, сколь угодно успешное и инновационное - это макакинг. Машоб как наука - это создание нового, чем занимаются хорошо если человек 20.
>>1174851>машобчиком как наукойКокая это наука? Скинул все в череый чщик, хорошенько потряс и хуяк, вот на 0.7 обезьяна а на 0.2777 негр
>>1174851Ты тогда и строительство мостов макакингом обзовешь. Хули, сопромат ведь уже изобрели.В машобе есть фундаментальные исследователи, а есть прикладные. И фундаментальные не значит святые, зачастую они страдают соверешенно неудобоваримой хуйней, например, задрачивают свои методы для работы на популярных в науке датасетах.>чем занимаются хорошо если человек 20.Блядь, да открой месячный топ на arxiv-sanity и посмотри количество фамилий. То, что вы как говнари знаете только о существовании 3-4 фамилий говорит больше о вас, чем об отрасли.
>>1174804Окей, центр объекта и радиус минимальной сферы в которую он вписывается. Или центр, высоту и радиус цилиндра.
>>1174858пожалуйста сделайте это в хедер следующей темы. Ещё кота забыл упомянуть.
>>1174132На хабре было недавно, https://habrahabr.ru/post/350718/Малореально что-то выиграть на этом, проще rule based генератор запилить
>>1174868>количество фамилийКуча макак пытаются из говна слепить мозг макаки, ох лол. Лучше покажи прогресс, да на примере.
>>1174902Нахуя метать бисер перед свиньей? Хочешь быть неандертальцем типа Карманова, будь им. А я продолжу революцию творить.
>>1174904>А я продолжу революцию творить.Ох, лол, кто тут у нас. Образованный, революционер. Вот только предыдущий оратор прав, примеров реального прогресса от ноунейм хипстеров нет, поэтому ты их не смог бы привсти, даже если бы захотел. Ты такой же неандерталец, как Карманов. Я вот тоже кое-что пилю на тему машобчика, и даже не имеющего аналогов и реально с собственными разработками, однако я прекрасно понимаю, что я нихуя не творец по сравнению с титанами мысли. А вот у тебя похоже, ЧСВ реально опухло
>>1174906Так нонейм хипстеров вы придумали. Прогресс как и везде в науке делают работающие в университетах ученые и их далеко не 20 человек, да и эти "20 человек" зачастую работают как хабы, присваивающие в глазах толпы открытия, сделанные внутри их тусовки.А по поводу примеров "реального прогресса" - ты сначала define "реальный прогресс", а то я знаю логическую уловку "ненастоящий шотландец". А еще я знаю то, что многих после открытия перекупает из их нонейм университета гугл, и в итоге ща ты можешь сказать, что "ну вот он в гугле работаит, гугл прогресс!!!", а мне влом участвовать в этом манки-бизнесе. Если тебе это интересно, посмотри любой state of art на данный момент и изучи биографию авторов. Если ты меня на слабо хочешь взять - иди нахуй.И последнее, что я знаю, что качество открытия проверяется временем, поэтому если бы я знал самое важное открытие 2017, допустим, года, я бы не тут с тобой сидел, а продавал бы свой стартап за миллиард долларов.
>>1174925Ебать у тебя маневры
>>1174813https://ru.coursera.org/learn/ekonometrikaНе благодари
>>1174813>за максимально возможный сроктебе это не составит труда
>>1174692Прикладников всегда на порядки больше чем фундаменталистов. Тем более учитывая демографический взрыв на планете. Нужно обслуживать потребности толпы.
>>1174966>Нужно обслуживать потребности толпы.Поэтому столько матанопетушни развелось?
>>1174984Ты хоть читай, на что отвечаешь, дегрод. Или даже на это мозгов не хватает?
>>1174985Нахуй мне всяких поехавших из 8'б' читать?
ЫЫЫ, а как нейроночками ускорить рендер?
>>1175061Научить их денойзить зашумленные методом монте-карло изображения.
>>1175061если ты о каком нибудь V-Ray, то в принципе можно научить нейронку предсказывать отскок луча от поверхностей в общих случаях. Но это будет не рендер а гадание на кофейной гуще. Если шарик стоит тут а свет тут а камера тут. Засовываем в черный ящик, трясём получаем зелёный конус под столом
Эх, опять во время очередного хайпа врывается толпа студентов, которые считают себя илиткой и что пик заинтересованности будет продолжаться вечно
>>1175076и что же в этом плохого?Хайп серьёзный. Технологические гиганты за последний год подняли рынок. Работы как правильно тут сказали на всех хватит. У кого есть время, ресурсы и заинтересованность не останется без дела.
>>1175075Отскок одного луча и так слишком простая операция. А то, о чем я говорю, как водится, уже сделалиhttp://cvc.ucsb.edu/graphics/Papers/SIGGRAPH2017_KPCN/PaperData/SIGGRAPH17_KPCN_LowRes.pdf
>>1175088Не мешай ему дрючить свое ЧСВ, он ведь выше всего этого.
>>1175090ну это как посмотреть. Отскок одного - да. Но можно предсказывать отскок пачки. Денойзить Монтекарло тоже идея понятна. Но это уже больше умный шейдер, хотя без сомнения тоже рендер.
>>1175102Да предсказывать отскок пачки тоже несложно и без нейронок. Проблема в том, что просчитать честно все равно быстрее. В пачке сколько лучей, ну тысячи, а при рендеренге речь идет как бы не о триллионах.Если денойзить монтекарло, но не по rgb, а добавить depthmap, то должен получиться очень хороший плагин. Напишу боссу об этом...
>>1173489регрессии плохо работают на картинках (а если и работают, то без сверточек слишком вычислительно сложны), а в картинках основной хайп нейронок + рекурсивные данные и численные ряды (типа звука), а в банках и прочей ерунде и регрессий хватиткапитан
>>1174888Спасибо, почитаю.>>1174886Ну допустим, и что с этим делать дальше?
Что в шапку следующего треда добавить?инб4 грамотности
>>1175304вот это>>1174858
>>1175304а если серъёзно, что что нибудь с котами, неграми и обезьянами.Так же нужно сделать краткое резюме из обсуждений этого треда.
>>1174962спасибо>>1174964пошел нахуй>>1174821пошел нахуй
>>1175307мы здесь все учёные и не ругаемся плохими словами
>>1175308Этот мой коллега не пиздит.
https://developers.googleblog.com/2018/04/text-embedding-models-contain-bias.html
>>1175317СЖВ проблемы в машобчике, лол. Вот я об этом говорю. Ученый - это тот, кто создал word2vec, а бородатые сойбои-куколды со смузи - те, кто пытается вымутить какую-то хуйню, чтобы негров не распознавало как макак, или чтобы в выдаче "she" было выше, чем "he".
>>1175306>обезьяныПара точно будет.>резюмеЯ даже не знаю, что написать. Так и не выяснили до конца, кто хипстер-хуесос, а кто ноуку двигает. Всуну предложение про то, что мощный комплюхтер нужен, если ты собираешься много моделей тренировать, но можно обойтись амазоновскими инстансами, если тебе нейронки только для развлечения/курсовой/етц.
>>1175323Лахтинец, ты заблудился. Твой поехавшие-тред ниже, /пораша слева.
аааа перекатывайте уже, я же не могу терпеть
Новый взгляд на хеббовское обучение в свете современных результатов: http://arxiv.org/abs/1804.02464
>>1175877>We conclude that differentiable plasticity may provide a powerful novel approach to the learning-to-learn problem>2018>уравнения Хебба из позапрошлого века>novel approachКак перестать орать с деградантов? К концу второго десятилетия 21 века хипстеры узнали про уравнение Хебба. Глядишь, лет через 50-70 нечеткую логику для себя откроют, такими-то темпами. Апплодирую стоя, так держать!
>tfw выкладываешь самые интересные статьи, надеясь на обсуждение, но получаешь единственный комментарий от поехавшего дебила, отвечающего на каждый пост ИТТ
>>11762052ch.hkДобро пожаловать. Снова.
>>1176205И что ты хочешь обсудить? Да, уравнения Хебба - это охуенная тема, и я бы мог написать, что Коско еще в начале 90-х показал 4 возможных варианта таких уравнений, которые можно использовать для чего угодно, от нейроночек до адаптивного настраиваемого поведения агентов в виртуальной реальности. Только какой в этом смысл? Ну открыли эти хипстеры америку, и что? Я там ничего нового не увидел.
>>1176228Да понятно всем, что тебе не наука интересна, а собственно ЧСВ. Нахуя варежку-то разеваешь, дрочи на себя в зеркале.
>>1176263>тебе не наука интересна,Науку (настоящую, а не всякое говно из жопы) сливают в усиленном режиме, а вместо науки подсовывают всем смузи. Вот ты знал, что еще в 80-е были разработаны нейросети на основе осциллирующих аутокаталитических реакций типа Белоусова-Жаботинского, только на основе ферментов и т.п. полипептидов? А сейчас, спустя 30 лет, тебе вместо биочипов впаривают видюхи и прочий хлам, искусственно ограничивая использование не самого топового железа, чтобы ни в коем случае не пользовался чем-то дешевле 30-40 косарей. Что и порождает клоунов типа >>1173877 которые про линейную регрессию не слышали, зато твердо веруют, что без нейроночек никуда. Тьфу на вас, дегроды.
Делайте перекат и я возможно в новом треде шокирую вас вопросом.
>>1176270Ты сам клоун, точнее фрик. Сколько ты тут лет сидишь уже, и всегда один и тот же паттерн: сейчас открытия говно, а вот говно мамонта тридцатилетней давности - вот там головы были.Ну казалось бы, откопай это самое говно, отмасштабируй результат на GPU, разнеси всех на илсврц. Хотя бы тут идею запостил бы, тебе бы помогли. Однако почему-то ты почему-то продолжаешь токсично комментировать все по одному и тому же паттерну.
>>1176284Двочую. Почему он не может сделать красивую презентацию с методами прошлого столетия и выложить на видное место?
>>1176270джвачую, хотя я к нейропараше отношения не имею.
>>1176270Как стать таким же умным как ты?
>>1176270очевидно потому что биочипы не работают. Смысл компьюторных вычилений в том что они дают 100 процентов точный результат. соответсвенно принципы работы с бигдатой нельзя делать основной компьютерной архитектурой а лишь вспомогательным инструментом.
ПЕРЕКАТ>>1176320 (OP)>>1176320 (OP)>>1176320 (OP)
>>1176205я даже не читал абстракт, но в интернетах говорят, что они просто оверфитнули сетку и строят из этого философские выводы
Жалуемся в Роскомандзор что телеграм все еще доступен
>>1162357 (OP)Я в машобе не секу, но по работе нужно просчитать как одна штука во временном ряде коррелирует с другой.Правильно-ли понимаю что если знать заранее что с чем должно коррелировать то именно машинное обучение здесь это overkill?
A topological data analysis и прочим persistence homology тоже от учения святого Вапника никуда не деться?