Программирование


Ответить в тред Ответить в тред

<<
Назад | Вниз | Каталог | Обновить тред | Автообновление
525 65 160

НЕЙРОНОЧКИ И МАШОБ ТРЕД №14(не точно) /ai/ Аноним 02/04/19 Втр 10:24:08 13736121
1.jpg (85Кб, 1000x563)
1000x563
2.jpg (32Кб, 640x353)
640x353
3.png (682Кб, 1032x724)
1032x724
4.jpg (92Кб, 889x500)
889x500
неОчередной тред про хипстерские технологии, которые не работают.

Я ничего не понимаю, что делать? Либо в тупую import slesarplow as sp по туториалам, либо идти изучать математику курсы MIT тебе в помощь. Не нужно засирать тред вопросами типа "что такое сигма?".
Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.
Что почитать для вкатывания? http://www.deeplearningbook.org/ | Николенко и др. "Глубокое обучение" На русском, есть примеры, но уже охват материала
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/ | https://www.hackerrank.com/domains/ai | https://github.com/pytorch/examples
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/
Где работать? https://www.indeed.com/q-deep-learning-jobs.html
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/ | http://www.datatau.com/ На реддите также есть хороший ФЭК для вкатывающихся
Где посмотреть последние статьи? http://www.arxiv-sanity.com/
Где ещё можно поговорить про анализ данных? http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Иначе выгоднее вложиться в 1080Ti или Titan X.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Предыдущий:
https://2ch.hk/pr/arch/2019-03-14/res/1315967.html

Архивач:
http://arhivach.tk/thread/412868/
Остальные в предыдущих тредах

Там же можно найти треды 2016-2018 гг. по поиску "machine learning" и "НЕЙРОНОЧКИ & МАШОБЧИК"
Аноним 02/04/19 Втр 10:28:25 13736142
Аноним 02/04/19 Втр 10:31:04 13736163
Что вы думаете про курсы для вката а-ля курсов Стэнфорда на coursea?
Лучше ли книг?
Есть ли смысл искать курсы универов а-ля Гарварда/mit и попробовать вкатиться через них?
btw посоветуйте годноту, через которую лучше всего вкатываться.
Аноним 02/04/19 Втр 10:33:37 13736184
Аноним 02/04/19 Втр 10:39:59 13736195
мне тоже интересно
я сейчас прохожу вот этот https://www.udacity.com/course/intro-to-tensorflow-for-deep-learning--ud187 халявный курс, в описании наобещали всякого (я особенно на то что расскажут про тензорфлоу лайт и тензорфлоу джс купился), по факту выдали четыре первых урока и обещают следующую партию к середине апреля, я не только и не столько машиноб учу, так что я не парюсь особо, но жирная лошадь с визгливым голосом которая вообще не понять зачем нужна т.к. кодинг она не преподает и инцель вместо препода бесят
Аноним 02/04/19 Втр 10:43:22 13736226
Котоны, почему инфа которая есть по соревновательному машобу в свободном доступе такая туфта. Я пересмотрел видяхи с тренировок МЛ, посмотрел курс по Каглу от топ-гусей, все топовые кернелы и дискуссии и ничего нового не вынес. Может пару скриптов себе забрал. Те кто осознано выигрывают не особо делятся знаниями, максимум в общих словах, остальные это мимокрокодилы, которые решили брутофорсом или шэйкап помог оказаться в топах.
Аноним 02/04/19 Втр 10:47:05 13736247
кстати можно оч. глупый вопрос?
а вообще реально сделать сетку которая будет например генерировать музыку или картинки (да хоть тот же фурри порн) на заданную тему, которые потом можно продать типа их человек рисует. короче заставить сетку фрилансить на себя
понятно что это сложно но вот насколько сложно
Аноним 02/04/19 Втр 10:50:50 13736278
Аноним 02/04/19 Втр 10:52:58 13736299
>>1373627
угу, с картинками наверное слишком сложно но вот с музыкой... хммм
Аноним 02/04/19 Втр 10:53:17 137363010
>>1373622
>Те кто осознано выигрывают не особо делятся знаниям
Лол, рабочие вещи тебе никто и не расскажет, то что сливают или не работает или пиздят
Аноним 02/04/19 Втр 10:58:32 137363411
Аноним 02/04/19 Втр 11:08:06 137363912
А
Аноним 02/04/19 Втр 11:18:08 137364713
>>1373630
Да меня бесит эта дружественная атмосфера на каггле, когда чел толкает откровенную хуйню в кернелах или дискуссиях, или тысячный раз форкает топовый паблик кернел, тем самым засоряя инфопространство, то его умудряются еще апвоутить и писать в стиле датс авсом, грейт ворк и тд. В любом бы нормальном сообществе его бы обоссали и выгнали на мороз.

Есть что-нибудь интересное почитать по ДС или машобу? Дедовские книги прочитаны уже
Аноним 02/04/19 Втр 13:04:15 137369714
>>1373647
>почитать по ДС или машобу?
Нет ибо быдлу не положено, жри говно с каггла
Аноним 02/04/19 Втр 13:31:07 137371115
Аноним 02/04/19 Втр 13:36:54 137371416
изображение.png (340Кб, 500x229)
500x229
Аноним 02/04/19 Втр 13:45:18 137372217
>>1373622
>Те кто осознано выигрывают не особо делятся знаниями
Потому что их нет. Им везет.
Соревновательный машоб это та еще хуита.
Аноним 02/04/19 Втр 14:11:22 137374118
>>1373622
Дурачёк думает, что ему сейчас просто так расскажут и покажут, как выиграть на Каггле. Действительно, там ведь одни альтруисты сидят.
Аноним 02/04/19 Втр 15:39:15 137379619
Я землетрясения на кагле копаю. Есть тут еще мамины сейсмологи?
Аноним 02/04/19 Втр 19:18:19 137388320
>>1373647
>Дедовские книги прочитаны уже
Если ты реально их осил и сделал хотя бы часть упражнений, то ты нереально пиздатый чел. Че ты тут делаешь? Иди работу ищи.
Аноним 02/04/19 Втр 22:18:56 137399221
Аноны, есть три библиотеки: FANN, DLib и Caffe. На какую себя посадить, а какие нахуй послать?
Аноним 03/04/19 Срд 03:10:55 137406722
Аноним 03/04/19 Срд 12:24:22 137416523
Аноним 03/04/19 Срд 13:18:38 137421724
Китайцы вскрывают нейронки "Теслы" и наебывают их
habr.com/ru/news/t/446374/
Аноним 03/04/19 Срд 15:49:49 137433525
980x.png (115Кб, 298x337)
298x337
не взяли в яндекс
Аноним 03/04/19 Срд 15:53:34 137434126
Почему в керас так хуёво задокументирован? В доках тензорфлоу больше информации о том, что он может, чем в их официальной документации. Я только вчера узнал, что у них, оказывается, препроцессеры есть у готовых моделей.
Аноним 03/04/19 Срд 18:19:06 137442227
>>1374217
Волга впадает в Каспийское море, да.
Аноним 03/04/19 Срд 19:43:14 137452428
Что делать когда понял что слишком тупой для мл?
Аноним 03/04/19 Срд 19:46:17 137452929
>>1374524
Стать умнее, или не лезть в мл.
Аноним 03/04/19 Срд 19:46:47 137453130
Аноним 03/04/19 Срд 20:23:01 137456231
Аноним 03/04/19 Срд 20:44:45 137458632
>>1374562
Будут, без импортов никак не обойдется.
Аноним 04/04/19 Чтв 00:42:12 137471233
>>1374531
Потратить 10к часов на изучение математик, физики, кс или экономики.
Аноним 04/04/19 Чтв 14:14:09 137493334
>>1373883
У меня сурьезный матфак за плечами, поэтому с упражнениями трудностей почти не возникало. Другое дело, что почти все упражнения про сферического коня в вакууме. Главная проблема - применить знания на практике, хотя бы в рамках кагла.

>>1373697
Как скажешь, братан.

>>1373741
Ничего я такого не думал, я думал что там делятся своим опытом, который поможет сократить время моих экспериментов и поможет избежать подводных камней.

Везде же расхваливали кагл, рассказывали про его крутые кернелы, дискуссии и тп. Что это лучшее место чтобы начать вкатываться в мл/дс вот я и повелся. А на деле миллион ебучих индусов и китайцев постят бегиннер и стартер код, один и тот же примитивный ЕДА от соревнования к соревнованию, а топы угорают над всеми остальными.
Аноним 04/04/19 Чтв 14:33:17 137493735
>>1374933
Кагл хорош следующим: там есть куча датасетов для начинающих, и если ты там на лидерборде не в полной жопе, это уже хорошо для трудоустройства.
Топы зачастую обязаны выложить исходники решения, их полезно читать, если совсем нулевой. Инфы и статей много, часто бывает какой-нибудь state of art проплывет мимо тебя, а там он проскочит.
На этом все.

Чем плох кагл, это тем, что это спорт, имеющий мало отношения к бизнесу и даже к мл. Побеждают там те, кто лучше всех угадывает невидимый валидейшен сет. Это лотерея. По факту же примерно топ 50 людей предоставляют хорошие и годные решения для бизнеса. Перформанс отличается минимально. И одно из таких решений засветят, потому что когда ты на 50-м месте, хули бы его не засветить.

В бизнесе же все не так. Прежде всего потому, что в бизнесе ты всегда можешь доразметить датасет, а точность 97% за неделю или 98% за три месяца - первое лучше. Потому что проще значит лучше. Поэтому кагл относится с бизнесом примерно как олимпиадное программирование соотносится с коммерческим.
Аноним 04/04/19 Чтв 22:24:58 137514936
Аноним 04/04/19 Чтв 23:31:11 137516737
>>1373612 (OP)
В шараге сказали пос таггер написать, а ни в питоне, ни во всяких МЛах не шарю, чё делать.
Аноним 04/04/19 Чтв 23:35:57 137516838
>>1375167
В армию иди и сапоги там защищай.
Аноним 04/04/19 Чтв 23:40:11 137517239
>>1375149
Обезьяну можно научить курить ничего удивительного.
Аноним 04/04/19 Чтв 23:40:55 137517440
>>1375168
Я чё лох что ли в армию идти. Нет, я в этой хуйне разберусь без вариантов.
теорвер/матстат! Аноним 05/04/19 Птн 00:49:07 137519841
Здрасьте. Короче, я второкурсник на прикладной математике и физике, теорвер/матстат у нас на третьем, но есть необходимость изучить его здесь и сейчас (если кратко, устраиваюсь аналитиком в к Олежке, зарплата оч сильно зависит от навыков; теорвер знаю только школьный, разъёбывал олимпиады). Учить полный курс со всеми выкладками для математиков нет сил и времени (да и интеграл лебега мы только-только начали строить).
Посоветуйте книжку по сабжу/курс лекций, чтоб поконкретнее, может, что-нибудь без доказательств, чтоб как у экономистов/дауновБауманов, но желательно поближе к нуждам машоба (а хорошо бы, чтоб вообще вся красота вроде ЕМ-алгоритмов etc, только не на уровне ШАДа, а попроще).
Аноним 05/04/19 Птн 11:00:44 137533142
Как изучить мл бесплатно?
Аноним 05/04/19 Птн 11:12:03 137533443
>>1375331
Просто берёшь и без задней мысли читаешь всякие книжки и лекции по МЛ
Аноним 05/04/19 Птн 11:33:38 137533944
у гугла есть халявный крэшкурс кстати
Аноним 06/04/19 Суб 06:08:35 137579045
>КОКОК МЛ МЛ ИИ НЕ ЗА ГОРАМИ
>СКОРО ВСЕХ ЗАМЕНЯТ РОБОТЫ
>НЕТ НЕРЕШАЕМЫХ ЗАДАЧ

Слушал я эти кукареки, мысленно радовался за прогресс, но это пока сам не столкнулся с необходимостью применить то о чём все так громко кричат. Оказывается, что в 2к19 нет готовых решений для определения капчи, не гугловской с выбором картинок (хотя для неё есть решение при помощи распознавания звука), а древней, буквенной капчи, при том, что буквы в одном регистре.
Вот вы вместо кукареканья и рисования психоделических картинок, лучше займитесь решением прикладных задач.
Аноним 06/04/19 Суб 06:41:40 137579546
>>1375790
Мой одногрупник делал распознавание капчи, с помощью нейронок, получилось неплохо. Просто тем, кому это нужно уже это сделали.
Аноним 06/04/19 Суб 07:05:43 137579747
>>1375795
>Мой одногрупник
Вот и детсадовцы набижали
Аноним 06/04/19 Суб 16:01:46 137599548
>>1375795
Следуя твоей логике, в свободном доступе так много различных библиотек для работы с запросами потому что они никому не нужны и этого еще никто не делал?
Аноним 06/04/19 Суб 17:09:37 137603649
Почему в этом треде одни питухи?
Что-то уровня жс-треда.

Вроде бы обычно правило наблюдается, что чем сложнее область, тем качественнее тред.
А тут очень сложная область и одни долбоебы и почти нет постов по делу.
Аноним 06/04/19 Суб 17:15:08 137603950
>>1376036
import keras, xgboost, sklearn, numpy as np, pandas as pd, matplotlib.pyplot as plt слишком легко написать, вот и лезут дауны.
Аноним 06/04/19 Суб 17:52:49 137605551
>>1376036
То ли дело твой пост, так и отдает сложностью области и качеством. Да?
Аноним 06/04/19 Суб 20:06:49 137614352
>>1376036
Потому что это терд нечеткого петуха. Постить тут что-то по делу невозможно.
Скрываю, кароч, и тебе рекомендую поступить так же.
Аноним 06/04/19 Суб 20:19:31 137615353
>>1375995
Распозновать текстовую капчу это задача для джуниора ничего сложного в этом нет.
Аноним 06/04/19 Суб 20:23:42 137615854
>>1375995
Потому тот, кто взломал капчу не заинтересован в том, чтобы кто-то другой это сделал и капчу бы усложнили.
Аноним 06/04/19 Суб 20:49:42 137617355
>>1376153
Вот только на гитхабе чуть меньше чем нихуя репов с разгадывателем капч или хотя бы примерами реализации.
>>1376158
В голос, блять. Про гугл капчу не слышал? А про сервисы которые за 2 доллара в месяц любую капчу разгадывают?
Аноним 07/04/19 Вск 00:20:05 137635456
>>1376173
>Вот только на гитхабе чуть меньше чем нихуя репов с разгадывателем капч или хотя бы примерами реализации.
Даже для одного только сосача штук 10 репов видел.
Дохуя и больше репов, которых никто не видел просто, неизвестных.
Аноним 07/04/19 Вск 00:49:40 137636557
>>1376173
>В голос, блять. Про гугл капчу не слышал? А про сервисы которые за 2 доллара в месяц любую капчу разгадывают?
И вот с такими мудаками я должен делиться? Пфф.
Аноним 07/04/19 Вск 01:10:55 137637758
>>1376354
>они есть просто никто не видел

Ясно.

>>1376365
Никому твой говнокод не нужен, не беспокойся.
Аноним 07/04/19 Вск 01:23:22 137638559
>>1376036
машоб это новый джс
Аноним 07/04/19 Вск 02:49:55 137642560
> Питон
> Скорость
Это же каким отбитым долбоебом надо быть, чтобы не мочь написать бэкпропагатор на крестах и не знать, как посчитать производные от элементарных функций. Вам для чего библиотеки типа бласа или лапака писали? Самое сложное это Байесовый поиск гиперпараметров, пожалуй.
Пиздец, и эти люди хотят дата сайнс делать. С тензорфлоу. От Гугла. Ноль понимания, дохуя понтов.
Аноним 07/04/19 Вск 03:00:10 137642861
>>1376425
Нужно быть отбитым долбоебом чтобы в 2к19 сделать выбор Python/C++ в сторону C++ не зная при этом программирования. Для мл нужны математические знания, а не знания программирования, именно поэтому никто не хочет ебаться со строгой типизацией и медленным синтаксисом плюсов, при этом потратив больше времени на обучение.
Аноним 07/04/19 Вск 03:07:26 137642962
>>1376428
>Для мл нужны математические знания,
> а не знания программирования,
Судя по треду, у местных нет ни того ни другого.
> не знания программирования
Хули вы тогда в pr забыли?
> не знать C++
> работать на медленном Питоне.
Изучение крестов ГОРАЗДО более выгодно в далекой перспективе
Аноним 07/04/19 Вск 03:28:21 137643263
>>1376429
>Изучение крестов ГОРАЗДО более выгодно в далекой перспективе
В том и дело, что не выгодно, выгодным оно было когда процессоры Pentium 4 были редкостью, а видеокарты признаком зажиточности. Сейчас чуть ли не на телефоне можно нейронку запускать.
Аноним 07/04/19 Вск 03:40:41 137643364
>>1376432
не чуть ли а прямо на телефоне и можно - tensorflow lite
Аноним 07/04/19 Вск 04:07:49 137643965
>>1376433
> tensorflow lite
Написанный на С++
Аноним 07/04/19 Вск 04:19:32 137644066
>>1376439
да си ++ макаки полезны, пишут инструменты для питоно- и джавоскриптогоспод
Аноним 07/04/19 Вск 04:34:23 137644367
>>1376440
> си ++ макаки
Во-первых, CИ макаке как нехуй делать выучить Питон или Скрипт. Обратное не совсем верно.
Второе. ИТТ собрались долбоебы, которые думают, что могут делать дата сайнс, при этом не могут взять элементарную производную от гиперболического тангенса. Они думают, что выставлять нужно чилсо нейронов в заранее написанной проге делает тебя спецом. Это то же самое, как утверждать, что научившись работать в Excel ты стал спецом , которого возьмут на работу.
В третьих, хули этот тред вообще в программирование делает?
Хотите быстрые деньги - учите ПХП и скрипт. АИ это специфичный, требующий знаний матчасти и технического образования предмет.
Аноним 07/04/19 Вск 04:38:21 137644568
>>1376443
>АИ это специфичный, требующий знаний матчасти и технического образования предмет.
...был
Аноним 07/04/19 Вск 04:42:16 137644669
>>1376445
>был
> мам, сморти, я скачал прогу и вбил параметры
Нуну.
Аноним 07/04/19 Вск 08:32:31 137647370
>>1376443
>производную от гиперболического тангенса
Пахевашая матанопетушня, уходи
Аноним 07/04/19 Вск 08:50:16 137648271
>>1376443
>CИ макаке как нехуй делать выучить Питон или Скрипт. Обратное не совсем верно.
>Обратное не совсем верно.
Только в случае если ты собираешься байтоебить и писать низкоуровневую хуиту типа драйверов.
Аноним 07/04/19 Вск 10:59:33 137655972
Прочитал весь тред. За весь (!) тред НИ ОДНОГО вопроса по теме, типа "А что такое перцептрон?" или "Что такое сверточное ядро?".
Одни только кукареки, лол.

Объявляю этот тред самым запомоенным на всем програмаче. Хуже него уже нет.
Аноним 07/04/19 Вск 11:06:44 137656173
>>1376559
Ответы на эти вопросы можно загуглить за минуту.
Аноним 07/04/19 Вск 11:15:04 137656474
>>1376561
И как думаешь, их не задают в треде, потому что такие сверхразумы и гуглят сразу, или же тут просто никто ничем не занимается?
Аноним 07/04/19 Вск 11:18:02 137656675
>>1376559
Ну бля, я вот сейчас пытаюсь вкурить в эту хуйню, но для треда вопросов нет. Нет, я могу конечно по каждой непонятке сюда срать, но никто всё равно ни на что не ответит
Аноним 07/04/19 Вск 13:37:08 137665276
>>1376564
>в треде нет идиотских вопросов, которые можно нагуглить за секунду
>арррряяяя дебилы собрались!!!
Аноним 07/04/19 Вск 13:37:30 137665377
>>1376566
Можно обсудить.
Я тоже вкатываюсь. Обмазался бесплатными курсами и прохожу.
Аноним 07/04/19 Вск 13:44:03 137665878
>>1376473
>Пахевашая матанопетушня, уходи
Они потом еще удивляются, почему градиент в ноль ушел и сеть в насыщении
Аноним 07/04/19 Вск 13:49:46 137666479
>>1376652
Ок, ответь на неидиотский вопрос - как приготовить данные для тренировки сети?
Аноним 07/04/19 Вск 14:22:07 137668880
>>1376652
Что будет, если веса у всех нейронов одинаковые?
Аноним 07/04/19 Вск 14:56:47 137671281
>>1376664
Сгенерировать программно
Аноним 07/04/19 Вск 15:34:56 137673782
>>1376664
Какая задача, какая сеть, какие данные уже имеются?
>>1376688
Какая задача, какая сеть, как такое случилось?
Аноним 07/04/19 Вск 15:47:17 137674583
Горю желанием вкатиться уже почти как год, но вместо этого изучаю веб для деняк от которого уже начинает подташнивать.
Вопрос, насколько быстро можно вкатиться, чтоб что-то с этого поднимать?
Матан знаю плохо, но готов это исправить.
Аноним 07/04/19 Вск 16:24:08 137675984
>>1376737
>Какая задача, какая сеть, как такое случилось?
А ты недалекий, как я посмотрю
Аноним 07/04/19 Вск 16:26:48 137676285
>>1376712
> Сгенерировать программно
Зачем генерировать программно то, что подлежит регрессионному анализу? Если у тебя уже есть программа, которая на входные данные выдает тебе искомое значение, зачем тебе вообще нейросеть?
По-моему, люди ИТТ вообще не понимают, о чем говорят и пишут.
Аноним 07/04/19 Вск 16:56:04 137677286
>>1376762
> Если у тебя уже есть программа, которая на входные данные выдает тебе искомое значение, зачем тебе вообще нейросеть?
Есть питоноскрипт, который выдает словари с инфой о входящих данных, по сути парсер, но он медленный.
Переписывать мне его было влом, я просто нагенерировал им данные и скормил averaged perceptron'у, написанному на цитоне, добился 300х ускорения c достаточно хорошим результатом.
Аноним 07/04/19 Вск 17:13:15 137678387
>>1376762
Мда. Не знал, что тут настолько тупые люди. Где я писал, что у меня программа "на входные данные выдает тебе искомое значение"?
Аноним 07/04/19 Вск 17:25:15 137678988
>>1376772
>Переписывать мне его было влом
Тут можешь остановиться и сказать, что играешься.
Если хочешь играться - играйся. Но тогда лучше скачать пару MNIST баз и играться на image recognition. Будет точно полезнее, хотя бы потому, что более практично и более применимо к реальным проблемам.
>>1376783
>Не знал, что тут настолько тупые люди. Где я писал, что у меня программа
Толку от нейросети мало, если ты генеришь какие-то данные программно. Хочешь распознать паттерн? Так разберись, что у тебя программа генерит и как генерит. Но опять же, для игр подойдет.
Аноним 07/04/19 Вск 17:32:03 137679189
>>1376789
> что более практично и более применимо к реальным проблемам
Ты понимаешь, что я использовал тот парсер и заменил его? Как ты предлагаешь мне парсить мои данные с помощью image recognition? smh
Аноним 07/04/19 Вск 18:25:57 137681690
>>1376789
>Хочешь распознать паттерн? Так разберись, что у тебя программа генерит и как генерит.

Это такой троллинг тупостью? Зачем мне самоу разбираться и искать зависимости, если у меня нейросеть для этого есть?
Аноним 07/04/19 Вск 19:02:40 137683191
>>1376816
>Зачем мне самоу разбираться и искать зависимости, если у меня нейросеть для этого есть?
Да потому что в 99% случаев все эти завимости давно изучены. Оставшийся 1% публикуются в научных журналах. Генерить данные кодом, а потом скармливать это нейросети - Сизифов труд.Для обучения может и Ок, на практике лучше делать то, для чего нейронки изначально писали - распознавать изображения, речь и текст.
>>1376791
>Ты понимаешь, что я использовал тот парсер и заменил его?
> заменил
> Переписывать мне его было влом
Ты его не заменил. Ты написал нейронку. Окей. Если входные данные в нейронку будут в области, далекой от тренировчного датасета, то выдавать тебе она будет хуйню, в то время как исходный парсер будет работать.
> написал нейронку
Молодец, толку с того? Ты как то это хочешь использовать в приложениях или выложить на гХаб? Первая же критика - какого хуя ты просто парсер не переписал? Было лень? Тогда катись к хуям.
Аноним 07/04/19 Вск 20:09:16 137685592
>>1376745
Вот анон поинтересовался, а ему даже никто ничего не ответил...
Аноним 07/04/19 Вск 20:37:16 137686493
>>1376855
Видимо я не в тему, людям тред засрать надо.
Аноним 07/04/19 Вск 22:33:37 137694194
>>1376831
Я использую ее уже почти год ежедневно и она хорошо справляется со своей задачей. Я в курсе, что не полноценная замена исходного парсера, но это и не требуется.
Я не знаю, что ты ожидаешь услышать от меня. Мог ли я потратить в 10 раз больше усилий если судить по числу строк, переписывая чужой код? Мог, но зачем?
Или ты хочешь услышать, что мне интересен машоб и я хотел поиграться с ним? Ну окей, это тоже.
Аноним 08/04/19 Пнд 03:18:02 137704195
15520602945900.jpg (190Кб, 640x720)
640x720
Почему работа нейронки отдалённо напоминает то, что видит разогнанный мозг под лсд?
08/04/19 Пнд 04:33:40 137704796
За весь тред полтора поста хоть сколько-то рилейтед, ни одного непосредственно по сути дела, ни на один вопрос никто не ответил.
Тред можно удалять, машоб нынче не нужен.
Аноним 08/04/19 Пнд 09:05:12 137706597
>>1375790
>Оказывается, что в 2к19 нет готовых решений для определения капчи, не гугловской с выбором картинок (хотя для неё есть решение при помощи распознавания звука), а древней, буквенной капчи, при том, что буквы в одном регистре.
Готовых решений нет, потому что никому это нах не упало, какое-то абстрактное решение которое будет работать с любой капчёй всегда будет проигрывать специализированному на конкретной капче. А это проект на один вечер тащемта.
>лучше займитесь решением прикладных задач.
Без проблем, сколько платишь?
Аноним 08/04/19 Пнд 09:06:42 137706698
>>1376425
Отбитым долбоёбом нужно быть, чтобы вручную пердолить бэкпропагацию в 2019.
Аноним 08/04/19 Пнд 11:01:24 137710099
>>1377065
>какое-то абстрактное решение которое будет работать с любой капчёй всегда будет проигрывать специализированному на конкретной капче.

Именно поэтому разгадывание капч так дешево стоит. Около 2 долларов за месяц, любые капчи. Наверно сидят там и обучают каждый раз нейронку при виде новой капчи, а потом выдают результат, и всё это за пару секунд. Чудеса да и только.

>Без проблем, сколько платишь?

2 доллара в месяц.
Аноним 08/04/19 Пнд 11:06:53 1377102100
>>1377100
за 2 доллара они тебе предоставляют сервис а не саму нейронку
Аноним 08/04/19 Пнд 11:09:35 1377105101
>>1376745
За полгода по 8 часов в день можно вкатиться.
Аноним 08/04/19 Пнд 11:12:42 1377107102
>>1377102
Это еще круче. Написал пару строк кода и не нужно держать у себя, или где-либо еще, лишние данные.
Аноним 08/04/19 Пнд 11:43:49 1377113103
>>1377100
Там биологическая нейронка сидит в виде индуса, довен
Аноним 08/04/19 Пнд 13:04:34 1377141104
>>1373612 (OP)
Хочу швирять данные в нейронку и ждать какой-нибудь вывод, без теории и какого-либо серьёзного бекграунда, чисто хуяк-хуяк ради фана, какой фреймворк/стек лучше всего подходит под мои цели?
Аноним 08/04/19 Пнд 13:53:04 1377155105
Аноним 08/04/19 Пнд 13:56:37 1377157106
>>1377113
Только на рекапче, дебилушка.
Аноним 08/04/19 Пнд 13:57:02 1377159107
>>1377141
Керас + Тенсорфлоу.
Аноним 08/04/19 Пнд 14:21:03 1377171108
В общем понятно, что нейронки это тупик. Годятся только для задач, где на надёжность наплевать, вроде классификации котиков, для реальных задач надо придумывать что-то другое, для чего можно доказать корректность.
Аноним 08/04/19 Пнд 14:26:33 1377176109
>>1377171
>доказать корректность.
Наивное и ненужное говно.
Аноним 08/04/19 Пнд 14:42:00 1377183110
>>1377176
Ага, а потом у тебя боинги падать начинают по два в неделю.
Аноним 08/04/19 Пнд 14:49:02 1377185111
изображение.png (174Кб, 400x368)
400x368
Аноним 08/04/19 Пнд 15:24:29 1377196112
origb7897edac28[...].jpg (410Кб, 976x1815)
976x1815
>>1373612 (OP)
> либо идти изучать математику курсы MIT тебе в помощь
В чем особенность этих курсов?
Аноним 08/04/19 Пнд 16:02:54 1377202113
>>1377196
Даже тупого двачера сделают профессором.
Аноним 08/04/19 Пнд 16:04:56 1377203114
>>1377202
>сделают профессором.
Тупым, я надеюсь?
Аноним 08/04/19 Пнд 16:07:48 1377204115
>>1377183
Антиаргумент. В боингах как раз классическая математика с доказательствами корректности.
Аноним 08/04/19 Пнд 16:20:23 1377208116
>>1376664
Разделить на 3 набора, нормализовать.
Аноним 08/04/19 Пнд 17:01:56 1377221117
>>1377204
>классическая математика
Какое отношение математика имеет к физике?
Аноним 08/04/19 Пнд 19:36:18 1377296118
>>1377171
>доказать корректность
Это же нивазможна, да и нинужна, достаточно показать результат лучше чем у человека.
Аноним 08/04/19 Пнд 20:47:58 1377327119
>>1377171
>понятно, что нейронки это тупик. Годятся только для задач, где на надёжность наплевать, вроде классификации котиков, для реальных задач надо придум
Давай "умник" придумай математически корректное описание котиков.
Аноним 08/04/19 Пнд 20:51:09 1377329120
>>1377327
Всегда интересовало тень от котика это тоже котик?
Аноним 09/04/19 Втр 10:12:19 1377577121
Аноним 09/04/19 Втр 10:26:23 1377584122
>>1377577
у меня есть бизнес идея
я могу продавать курсы как делать деньги с тензорфлоу на юдеми
Аноним 09/04/19 Втр 11:00:33 1377594123
>>1377584
Куй железо пока горячо, а то украду твою идею и стану миллиардером.
Аноним 09/04/19 Втр 12:30:59 1377657124
>>1377577
В ценах акций за прошлый период тупо нет информации об их будущих ценах.
Доказали уже практически на научном уровне.
Весь "технический анализ" - по сути полная хуйня.
Аноним 09/04/19 Втр 12:35:31 1377661125
лягушка gulag.jpg (72Кб, 720x400)
720x400
Ладно, моему преподу на меня похуй, так что буду задавать свои вопросы здесь:

1. Если нейросеть на основании имеющихся исходных данных не может построить модель, отображающую исходные данные в целевые, доказывает ли это напрямую то, что исходные данные просто не содержат достаточно информации о целевых данных?
2. Для каких задач не подходят сверточные нейронные сети?
3. Сможет ли сверточная нейросеть классифицировать объект на изображении, даже если он не посередине изображения, а где-нибудь в углу?
Аноним 09/04/19 Втр 20:38:50 1377925126
>>1377661
1. Нет. Может, у тебя нейросеть хуёвая. Почём нам знать, как ты её обучал, на каких данных. И вообще, что значит "достаточно информации"?
2. Для тех, где у объектов нет пространственной структуры, т.е. свёртка не нужна. (Нет, конечно, полносвязный слой можно рассматривать как свёртку, но только ради удобства).
3. Может быть. Но, конечно, зависит от того, какого размера объект и что ещё на изображении. Если у тебя посередине здоровенный кот, а сбоку от него - маленькая кружка, то не обессудь.
Аноним 09/04/19 Втр 20:52:43 1377935127
>>1377661
>Если нейросеть на основании имеющихся исходных данных не может построить модель, отображающую исходные данные в целевые, доказывает ли это напрямую то, что исходные данные просто не содержат достаточно информации о целевых данных?
Нет.
>Для каких задач не подходят сверточные нейронные сети?
Когда у тебя нет инвариантности по оси. Грубо говоря, кот в левом-верхнем углу и в правом нижнем углу - это кот. Или, например, резкий скачок биржевых данных 5 февралая и 10 октября - это резкий скачок. В первом случае инвариантность идет в пространстве изображения (и применяются 2д свертки), во втором - во времени.
Где не подходит - например, если у тебя в первом измерении площадь квартиры, во втором ее цена и так далее - никакой инвариантности тут нет, каждое измерение определяет разные вещи.
>Сможет ли сверточная нейросеть классифицировать объект на изображении, даже если он не посередине изображения, а где-нибудь в углу
Судя по этому вопросу, зря я распинался в прошлом.
Аноним 09/04/19 Втр 22:20:52 1377981128
>>1377041
может потому нейронная сеть на то и называется нейронной, что как в мозге?
Аноним 09/04/19 Втр 22:49:32 1377989129
>>1377981
>может потому нейронная сеть на то и называется нейронной, что как в мозге?
Нет, она так называется что бы пудрить мозги и получать профит.
Аноним 09/04/19 Втр 23:30:33 1378007130
Аноним 10/04/19 Срд 00:50:17 1378050131
b1600834.jpg (83Кб, 870x480)
870x480
Аноним 10/04/19 Срд 01:05:08 1378059132
>>1377041
>то, что видит разогнанный мозг под лсд?
Ну лалка откуда тебе то знать?
Аноним 10/04/19 Срд 14:21:12 1378272133
>>1378059
Не знаю, откуда ему знать, но скажу по своему опыту: один в один.
Аноним 10/04/19 Срд 14:34:21 1378281134
Аноним 10/04/19 Срд 15:10:42 1378305135
Отлично знаю линал и матан, теорвер знаю на уровне экономфака ВШЭ (их книжечку прочитал). Подойдёт ли книжка "Прикладное машинное обучение с помощью Scikit-Learn и TensorFlow. Концепции, инструменты и техники для создания интеллектуальных систем" как стартовая? И Deep Learning Иошуа Бенджио? Ещё знаю Python и pandas/numpy (читал Уэса Маккинни "Python для анализа данных").
Или вообще что читать-то? На русском (английский хоть и знаю, но слишком тяжело читать много). Видосы не нравятся, вообще этот формат терпеть не могу.
Аноним 10/04/19 Срд 15:35:29 1378322136
>>1377935
>Когда у тебя нет инвариантности по оси. Грубо говоря, кот в левом-верхнем углу и в правом нижнем углу - это кот. Или, например, резкий скачок биржевых данных 5 февралая и 10 октября - это резкий скачок. В первом случае инвариантность идет в пространстве изображения (и применяются 2д свертки), во втором - во времени.
>Где не подходит - например, если у тебя в первом измерении площадь квартиры, во втором ее цена и так далее - никакой инвариантности тут нет, каждое измерение определяет разные вещи.
А, то есть когда каждое измерение независимо, то сверточные сети применять нельзя. Верно?
Аноним 10/04/19 Срд 15:36:37 1378323137
>>1378305
Для старта даже анус пса пойдет. А там дальше разберешься. Нормально делай - нормально будет. Все, давай, на созвоне
Аноним 11/04/19 Чтв 10:17:34 1378984138
Проблематика обучения.

В современных ЭБУ есть значительных проблемы с объемом ОЗУ! Связанно это с историческими факторами и с сложностью создания больших объемов ОЗУ с контролем ошибок на кристалле. А вот в калькуляторах обычно таких проблем нет поскольку ОЗУ там зачастую без контроля и процессоры индустриальные за копейку. Поэтому подходы которые использовались в 80-е и 90-е с созданием значительных массивов накопления данных применять в нормальных ЭБУ нельзя. Например: если в Январе у нас на обучение по ДК по некоему методу, там реализованному, выделено около 520 байт, то в современных ЭБУ реализация подобного метода затребовала бы около 4-х килобайт. Поэтому всю прошлую жизнь регулятора надо запомнить с использованием буквально 10-ка переменных (сотни байт не более). И методы редукции объемов данных конечно есть. Один из таких методов – применение искусственных нейронных сетей.

Искусственные нейронные сети (ИНС).

Штука довольно избитая, с ней все сейчас носятся как с писаной торбой. Нейросети то… нейросети се… нейросети читают ваши номера и выписывают вам штрафы. нейросети разве-что борщ не варят (а то бы на них можно было женится).

В основе используемых в ЭБУ искусственных нейронных сетей, как и многих других, лежит так называемый “Персептрон Розенблатта”, . предложенный в 1957 году Френком Розенблаттом.

Практическое применение ИНС получили после разработки эффективных методов обучения весов нейронов в скрытых слоях (в основном: метод обратного распространения ошибки) в 80-х годах прошлого века… Я не буду тут особо распылятся на эту тему, поскольку про все это, есть сотни статей, в том числе на русском языке и любой желающий может их “накрячить” (гугл у нас проштрафился и теперь гуглить уже не модно)… Есть хорошие обучающие видео на трубе. Несмотря на то, что я не буду подробно останавливаться тут на ИНС – я надеюсь у читателя все-таки есть представление, как именно они работают и какие проблемы решают-создают… Хотя кое-что все-таки следует написать.

ИНС, которые используются в ЭБУ получают банальным комбинированием нескольких персептронов по следующей схеме:

Собственно слой слева — называется входным слоем. Этот слой как обычно ничего не делает и передает значения на входах следующему. Слой расположенный по середине называется скрытым слоем и состоит из некоторого количества персептронов. Слой справа называется выходным слоем и содержит один персептрон. Это схемы прямого распространения сигнала без обратной связи (т.е. информация в такой сети передается cлева на право и не передается с выхода на вход). Сеть построенная на таких принципах может делать разные крутые вещи. Например универсальная теорема аппроксимации, доказанная в 1989 году Джорджем Цибенко. Гласит:

Искусственная нейронная сеть прямой связи с одним скрытым слоем, и сигмоидальной активационной функцией, может аппроксимировать любую непрерывную функцию из множества переменных с любой заданной точностью, при достаточном количестве нейронов в скрытом слое!

Эта теорему можно перефразировать, и получить то сокровенное знание которое тупые японцы так и не получили при изобретении VTEC (и спасает их лишь то – что VTEC они все же разработали чуть РАНЬШЕ, чем теорема была доказана, и чем все осознали, что случилось и как такую полезность можно применить):

Любой табличный параметр системы управления с любой заданной точностью в пространстве любого количества измерений, может быть получен в реализации искусственной нейронной сети с прямой связью, c одним скрытым слоем и сигмоидальной активационной функцией, при достаточном количестве нейронов в скрытом слое. Т.е. ну вот в той самой, что вы видите на картинке выше.

Только что, вы прочитали, как вычисляется VE в автомобиле с 2-мя плавными фазовращателями и плавным подъемом клапана на впуске, для любого из возможных соcтояний оборотов-нагрузок-поворотов валов-подъема клапанов — и при этом не используется ни одной таблицы в привычном нам 3Dвиде. Только лишь веса связей нейронной сети. И для того чтоб что то поменять в двигателе — придется перенастроить эти веса. Настраиваются они с помощью специального программного обеспечения написанного на языке matlab при этом все это обычно интегрировано с классическими старыми комплексами настройки.

И если вы не поняли – никогда и никем даже в отдаленной перспективе для такого двигателя не будут выпущены, какие либо “другие” распределительные валы… Пока шиночипы не сломают себе голову в попытке осмыслить, что же именно написано тут всего лишь в паре абзацев текста. Вот вам, то – чего не бывает, в нашей “настройке которой не бывает”! (хотя честно говоря — там даже проблемы на уровне снять-поставить эти валы).

Однако у ИНС есть один существенный недостаток – никто не понимает как именно они работают. Нет, конечно с математической точки зрения мы понимаем каждый шаг. С практической — мы понимаем как настроить веса и добиться нужного нам вывода. Но почему веса именно такие, как они есть – никто не может объяснить. Это все конечно никак не мешает их использовать – ведь людям понадобилось 1000лет, с момента постройки первых каменных кладок на связующих, чтоб понять, как именно работает цемент. Но есть какой-то осадочек… Кроме того у сетей подобного типа есть проблемы с обучением – скажем так в некоторых условиях они могут не обучатся. С точностью вывода на практике бывает тоже не все хорошо.

ИНС с описанной выше структурой требуют серьезных затрат на обучение, поэтому в ЭБУ применяются только в виде предварительно обученных. Дальше речь пойдет про еще более современную концепцию построения ИНС, которые уже будут обучатся непосредственно в ЭБУ!
Аноним 11/04/19 Чтв 10:50:48 1378994139
изображение.png (98Кб, 1195x426)
1195x426
изображение.png (43Кб, 649x266)
649x266
изображение.png (479Кб, 958x715)
958x715
>>1378984

Нечеткая логика.

Это еще более свежая концепция, объясняющая нам, что мир не черно-белый, а тепло и холодно – это не конкретные численные значения температур, а все факты которые мы знаем – не точны…Концепция введена Лофти Заде в 1965-м году и развита в более поздних работах. На бытовом уровне это можно объяснить как то, что “тепло-ташкент-жарища” – это про что-то одно, а “мороз-дубак-воркута” – про что-то другое, и эти что-то ортогонально друг другу противоположны, но все это нас мало интересует, как и сама нечеткая логика. В этом разделе нас интересует, так называема “функция принадлежности” в виде нормализованного Гауссиана (колокола), которая используется для классификации. Про нее мы и будем писать ниже.

Локальная линейная модель – LLM.

Начнем с простейшей линейной функции, ее формула для одномерного случая известна каждому:

y =”смещение” + x * “наклон”

Теперь посмотрим на картинки.

Слева мы видим некую непрерывную одномерную нелинейную функцию.

Справа — попытку аппроксимации этой функции четырьмя линейными функциями – по сути, совокупностью четырех локальных линейных моделей.
Не очень то похоже, но в реальном мире точность такого представления для использования может быть вполне достаточная – например лаг в мелких бошах как то так задавался. Но, что если не достаточно и надо точнее?!
Предположим, что этот график – единственное, что мы знаем про нашу функцию, как видим в нем 437 пикселей (я померил когда рисовал линии в нем).
Очевидно, что мы можем представить его в виде 437 линейных функций, где каждая линия будет иметь размер всего в 1 пиксель!
При этом “смещение” будет = высоте пикселя по Y оси, а “наклон”=0. Модель такой функции называется – частичной линейной моделью, без градиента и является частным случаем полной линейной модели. Но поскольку “наклон”=0 – x в нашей формуле вырождается. Тогда, как же нам определить координаты нашего пикселя по x?

Для этого нам надо добавить к каждой модели еще и функцию принадлежности этой модели к определенному участку пространства входных значений x нашей функции – так мы сможем вернуть ей зависимость от x.

Формулу принадлежности можно взять из fuzzy логики, но мы пока не будем это делать а применим простейший метод, который свяжет нашу координату по x c одной конкретной функцией из 437, и превратит наш набор цифр в совокупность из 437 линейных моделей. В нашем случае, для каждой конкретной из 437 моделей, функция вычисления принадлежности будет возвращать 1.00, если x соответствует номеру функции в пикселях и 0.00 для любого другого значения x. Умножив значение смещения для каждой нашей линейной функции на возвращаемые “веса” из функции принадлежности и просуммировав результаты, мы сможем поставить точку именно там, где надо, и полностью повторить левую картинку.

Предположим, что осей у нас больше – что это меняет?! Да ничего по сути – просто очевидно линейных моделей надо будет несколько больше…

Давайте теперь перефразируем теорему аппроксимации в таком виде: Любая непрерывная функция из множества переменных с любой точностью, может быть аппроксимирована некоторой совокупностью локальных линейных нейро-fuzzy моделей!

Совокупность локальных линейных моделей — LOLIMOT.

Метод идентификации нелинейных систем совокупностью локальных линейных моделей LOLIMOT был предложен Оливером Нильсом в конце 90-х и очень подробно описан в его монографии [1]. Такая совокупность описывается формулой:

Как видите, вычисления очень простые – нужно лишь предварительно вычислить для всех наших функций набор из весов принадлежностей, с помощью вычисления функции принадлежности а остальное вообще элементарно. И настало время понять, что такое эта самая функция принадлежности… Но сначала давайте разберемся, чем вообще этот подход отличается от ИНС, рассмотренных ранее, и чем они лучше — если аксиоматически делает вроде бы то же самое…

По сути наша картинка очень похожа на персептрон. Яйцо эквивалентно всему нейрону скрытого слоя. Сама LLM представляет набор весов и смещений нейрона. А функция принадлежности эквивалентна функции активации нейрона. Сумма справа – ничто иное как нейрон выходного слоя лишенный функции активации и с весами =1.
Аноним 11/04/19 Чтв 10:51:53 1378995140
изображение.png (80Кб, 675x270)
675x270
изображение.png (80Кб, 655x270)
655x270
изображение.png (67Кб, 489x289)
489x289
изображение.png (69Кб, 590x356)
590x356
>>1378994

Теперь посмотрите на картинку выше с красной линией, я тоже посмотрю на нее и напишу это:

Для модели 1 вес нейрона смещения = 8.0, а вес нейрона входа 1 = -25.0

Представляете как легко обучается такая ИНС?, если я смог просто посмотреть на картинку и назвать веса. Забудьте про любые проблемы обучения, про горы вычислений с плавающей точкой, про ошибки дифференцирования, которые усиливаются при распространении ошибки во внутренние слои, про то, что у вас может вообще ничего не выйдет из-за сваливания в локальную яму. Эта штука может обучатся, даже внутри самого дешевого микроконтроллера который умеет лишь в знаковый int! Для использования в качестве функции поправки для лямбды (наш частный случай) на начальном этапе обучения все веса просто обнуляются – в итоге функция приходит к нормальному состоянию выхода (=0) т.е. отсутствия какой-то поправки.

Функция принадлежности к модели

Что такое функция принадлежности Я буду объяснять на конкретном примере. Возьмем такой набор значений:

X1=1 Y1=10
X2=2 Y2=5
X3=3 Y3=15

Мы опять же, не знаем какая именно функция представлена этим набором цифр и каково ее поведение в неуказанных тут точках, поэтому для ее представления мы будем использовать тот же самый метод, что раньше и с пикселями на картинке – “частичные линейные модели без гадиента”, поэтому у нас будет 3 модели с экстремумами в известных точках X = 1 2 и 3 для каждой соответственно. Построим Гауссовские функции (колокола) с экстремумами в этих точках и пиком амплитуды = 1:

с – это у нас центры координат соответствующих моделей т.е они принимают значения 1 2 и 3.
сигма – стандартное отклонение параметров модели. (их графический смысл указан синими стрелочками).
Формулу Гауссиана вы видите справа на картинке:

У выбранной функции принадлежности есть проблема – она не учитывает наши знания о пространстве значений выше и ниже крайних, т.е если скажем мы растянем ось X до 100 то диапазон от 5 до 100 окажется у нас никак не охваченным, и для больших X наши функции вернут 0, хотя очевидно, что функция принадлежности должна в любом случае вернуть какое то не нулевое значение хотя бы для одной модели, поэтому нам надо нормализовать то, что мы построили по специальной формуле:

Суть этого действия в том, чтоб для любого участка пространства значений совокупное значение суммы весов принадлежностей оказалось = 1, таким образом в любой точке пространства в любом возможном случае всегда работает какая-то одна (или несколько) моделей из тех что у нас есть при этом их веса распределены между соответствующими моделями так, чтоб в сумме они составили 1.00 (или 100%).

После того, как мы получили значения функции принадлежности, мы можем обучить нашу ИНС (а точнее, так же как и с пикселями, просто ввести в соответствующие ячейки веса смещения при весах входа=0, поскольку такая простая модель никакого обучения не требует и в ней веса — это cсобственно и есть выходные значения). Затем вычислить результат ее работы Y для любого исходного значения x:

Применение Гауссовских функций принадлежности дает нам просто идеальные стыки графика на границах моделей (например X=1.5) где у нас нет никаких априорных знаний о свойствах нашей функции.

Ну и наконец приведем всю формулу нашей частной модели и функции ее принадлежности, хотя она и не сильно отличается, от полной модели рассмотренной ранее:

Именно этот упрощенный метод без градиентов используется при обучении по лямбде, для детонации например, используется уже полный метод с градиентами! Т.к. в случае детонации можно ожидать наличия связи с нагрузкой и оборотами – в случае же лямбды такой связи очевидно нет!
Аноним 11/04/19 Чтв 10:52:55 1378996141
изображение.png (37Кб, 912x303)
912x303
>>1378995
Ну и наконец функция обучения весов.

Для случая с лямбда регулятором мы конечно не можем так пальцами в картинки тыкать и поэтому нам нужна функция обучения весов. Но она настолько проста, что мне даже лень ее объяснять. Поэтому пусть это будет просто кусок исходника на С.

Разве что стоит сказать про fak – это ошибка выхода умноженная на скорость обучения (некий желаемый коэффициент меньше 1.00 – обычно принимает довольно маленькое значение около 0.05).

Редукция числа моделей и входов.

Как вы поняли это еще не все преимущества такого подхода, перед классическими ИНС на персептронах. Для работы любой ИНС нам необходимо еще при проектировании жестко задать количество входов, поскольку с этим связанно выделение памяти. В случае с LOLIMOT вы конечно тоже задаете количество входов – но эти входы расположены не просто так, а строго в порядке предполагаемой их важности для процесса обучения регуляторов. И если например в какой-то момент при адаптации вы видите, что вход стоящий последним не оказывает никакого влияния на вашу функцию и не имеет смысла – вы можете его отключить! Тем самым уменьшить количество вычислений и конечно же — уменьшить количество необходимых моделей, а значит ускоряется и процесс обучения и работа процессора ЭБУ в целом. Ведь любые математические штуки, даже самые простые, требуют значительных ресурсов для вычислений – а этих ресурсов может и не быть, либо они могут быть нужны нам для чего-то другого…

Редукция вывода сети.

Это тоже очень важное свойство нашего метода, важное именно для обучения c использованием лямбды. Дело в том, что лямбда может внезапно сдохнуть. Но перед тем, как система управления поймет, что лямбда сдохла – лямбда может усиленно делать вид, что живая, и при этом прилично так врать. С этим связаны очень серьезные проблемы в простых “лоховских” решениях, типа “подключим мы ка лямбду к примитивному ЭБУ напишем в нем примитивный регулятор и все у нас будет хорошо” – на самом деле _хорошо_ не будет! Мало того все будет очень плохо но не сейчас а позже… В общем такое поведение приводит к значительным ошибкам обучения запоминаемым в наших моделях. Если бы мы использовали классическую ИНС – с этим ничего нельзя было бы сделать. Но у нас сеть с неким “нормальным состоянием” – и в этом нормальном состоянии ее веса = 0, и в процессе работы они увеличиваются до каких-то относительно небольших значений ограниченных алгоритмом обучения. Следовательно, мы можем предположить, что в адекватном случае работы, веса в обученной сети так же не должны превышать какие-то определенные небольшие значения. Поэтому мы можем после обнаружения проблемы с лямбдой минимизировать последствия накопления ошибок в LOLIMOT — например однократно ограничить веса, каким-то значением, или умножить всю сетку весов на какое-то значение меньше 1.00. Таким образом, оставив полезные “малые” поправки и убрать вредные “большие”. Есть у этого конечно и отрицательные моменты – в современной системе у вас так половина машины сдохнет, а вы даже и не поймете, что это произошло…

И так ознакомившись с теорией мы готовы к тому, чтоб окунуться в практику и посмотреть на конкретную реализацию функции обучения для лямбда-регулятора на базе совокупности локальных линейных моделей.
Аноним 11/04/19 Чтв 10:53:49 1378998142
изображение.png (75Кб, 681x226)
681x226
изображение.png (106Кб, 669x221)
669x221
изображение.png (77Кб, 864x326)
864x326
изображение.png (85Кб, 865x330)
865x330
Обучение по ДК в реальном проекте.

Используется сеть структуры – 3 входа, 10 локальных линейных моделей. (реализация допускает до 15 LLM). Упрощенных метод — без градиентов. Сеть редуцированна по входам – 4й вход на который может быть выведено множество переменных — не задействован.
В качестве входных параметров: обороты (nkw), относительная топливоподача (rk), температура двигателя (tmot).

Центры моделей сети представлены следующими значениями:

Стандартные отклонения для моделей:

При первом взгляде может показаться, что центры и стандартные отклонения выбраны странно – но первый взгляд в этом случае всегда обманчив! Помните про нормализацию, которая распространяет действие модели на всю ось? Так вот обычно всегда задействованы две, а иногда и три модели одновременно. 5я по счету модель работает практически всегда. “Холодные” 7-я и 8-й модели работают на прогреве зимой и в области низких нагрузок. Холостой на прогретом моторе обслуживает 4-я модель, на холодном моторе 2-я. 1-я модель, определяет поведение в зоне низких нагрузок на холодном моторе 6-я на горячем.

Посмотрим несколько симуляций расчета функции принадлежности в excell, для того, чтоб видеть, как модели будут сменять друг друга в разных условиях работы двигателя.

И так мы получили сложнейшую функцию обучения с плавными переходами между моделями с трехмерной сеткой входов и она у нас занимает всего каких то ничтожных 40 байт в ОЗУ!

Ладно на сегодня хватит пожалуй писанины. Увидимся в следующей серии.

Список литературы:

1) Nelles Oliver: Nonlinear System Identification: From Classical Approach to Neural Networks and Fuzzy Models. Springer, Berlin (2001)
2) Материалы конференции "Artificial Neural Networks and Machine Learning – ICANN 2014" стр 153-160 Torsten Fischer and Oliver Nelles: "Merging Strategy for Local Model Networks Based on the Lolimot Algorithm" Springer (2014).
Аноним 11/04/19 Чтв 15:58:24 1379171143
fb521f48d581.png (220Кб, 1600x600)
1600x600
Аноны, есть проблема.
Надо написать классификатор изображений на овердохуя классов.
Проблема в том, что для каждого класса у меня OCHE MALO изображений - штук по 50 для каждого.

Переобучение после третьей эпохи нахуй.
Рейт ниже плинтуса. Че делать?

Читал статью в блоге кераса "Building powerful image classifier using very little data" (или как-то так), но дело в том, что там под вери литл дата имеют ввиду аж 2000 изображений блять.
(по 1000 на класс).

Возможно вообще обучить сеть, юзая по 50 семплов на класс?
Аноним 11/04/19 Чтв 16:19:01 1379181144
>>1379171
Что за модель-то используешь? С нуля вряд ли, а вот готовую подогнать можно и с 50-ю классами.
Аноним 11/04/19 Чтв 16:26:58 1379187145
>>1379181
Ну, честно говоря, я только начал пока. Сейчас тупо отпизды выбрал простейшую сеть.
model = models.Sequential()
model.add(layers.Conv2D(32, (3, 3), activation='relu', input_shape=input_shape))
model.add(layers.MaxPooling2D(pool_size=(2, 2)))

model.add(layers.Conv2D(64, (3, 3), activation='relu'))
model.add(layers.MaxPooling2D(pool_size=(2, 2)))

model.add(layers.Flatten())
model.add(layers.Dense(128, activation='relu'))
model.add(layers.Dropout(0.5))
model.add(layers.Dense(num_classes, activation='softmax'))

model.compile(loss=keras.losses.categorical_crossentropy,
optimizer=keras.optimizers.Adadelta(),
metrics=['accuracy'])


С нуля показывает рейт 2%, что чуть лучше, чем тупой рандом.
Сейчас запустил то же самое с раширением данных, прогнал на 10 эпохах - переобучения нет, что самое главное, но рейт еще ниже.
Но, мне кажется, это оттого, что эпох мало. Ну, раз в переобучение не уперся, значит тупо эпохи не дожал. Сейчас вертится обучение на 50 эпохах.

Да, я знаю про дообучение готовой.
Сейчас пытаюсь выжать максимум из нулевой, чтобы было на что опираться.
Если хотя бы 10% выжму на нулячей, можно считать успех...
Аноним 11/04/19 Чтв 16:34:52 1379194146
>>1379187
Бери готовую вроде VGG19, у твоей малюсенькой модели никаких шансов. Два конволюционных слоя + один dense это вообще ни о чём, это максимум MNIST классифицировать. Картинки-то хоть какого размера? dropout, кстати, попробуй убрать
Аноним 11/04/19 Чтв 16:59:42 1379213147
>>1379194
Да я понимаю, что с нуля на таком милипиздрическом количестве образцов на класс у обученной с нуля сети шансов нет.
Но хочу пока что просто посмотреть, сколько можно выжать, не прибегая к дообучению готовой сети.

>Картинки-то хоть какого размера?
Разные, от 100x100 до 1000x1000 максимум. В среднем хуйня, 300x400 где-то.
В генераторе все шакалятся до 150x150.
>dropout, кстати, попробуй убрать
Первоначально без него запускал, 3 эпохи и все, переобучение. На тестовых данных рейт, как и положено, стремительно растет аж до 95%, но на тестовых в районе 0.01-0.02.
С дропаутом переобучение наступает медленее немного, 5 эпох.

Тестовый прогон с расширением данных показал, что на 10 эпохах переобучения нет.
Сейчас запустил то же самое на 50 эпохах. Посмотрим че выйдет.
Это базовая модель, чисто чтобы убедиться, что это говно вообще работает и мои изменения влияют на результат.
Аноним 11/04/19 Чтв 17:07:24 1379219148
>>1379213
>3 эпохи и все, переобучение
Как ты learning rate выставляешь?
Аноним 11/04/19 Чтв 17:10:42 1379222149
>>1379219
Специально никак не выставлял. Видимо используется стандартный керосовский.
Ну и все остальные гиперпараметры тоже отпизды стоят.
Говорю же, просто пробую пока, изучаю что вообще происходит
Аноним 11/04/19 Чтв 18:46:11 1379285150
Screenshot181.png (482Кб, 1822x866)
1822x866
Почему так медленно обучается?
Потому что сеть маленькая? Слоев мало?
Аноним 11/04/19 Чтв 21:44:29 1379413151
А есть тут вкатившиеся с нуля без маь. вышки?
Сколько к успеху шли?
Аноним 11/04/19 Чтв 23:13:18 1379452152
Что скажете про fast.ai?
Аноним 12/04/19 Птн 01:22:15 1379494153
>>1379285
Пиздец, 10% рекорд короче.
Это при дообучении resnet50.
Но, возможно, я просто долбоеб и что-то не так делаю
Аноним 12/04/19 Птн 03:48:46 1379515154
>>1379285
Потому что сеть большая, слоев много
Аноним 12/04/19 Птн 04:08:19 1379517155
proxy.duckduckg[...].png (35Кб, 808x468)
808x468
>>1379171
>Проблема в том, что для каждого класса у меня OCHE MALO изображений - штук по 50 для каждого.
В чем проблема доразметить? Скорее всего это лучший вариант, анон.

>Че делать?
Для начала аугментировать данные. Отразить-повернуть по 4 осям - это однозначно (если это имеет смысл конечно, в перевернутой цифре 6 например смысла мало). Далее, можно поповорачивать на произвольный угол, потому что сверточные сети по дефолту о поворотах ничего не знают. Затем "В генераторе все шакалятся до 150x150" - скорее всего зря. Скорее всего лучше и кропать и ресайзить. Все зависит от самих данных. Если у тебя коты, кропать 1000х1000 в 150х150 навернок не стоит. Но если у тебя деревья - то далеко не факт.

Затем, если у тебя есть много, очень много неразмеченных данных, можно запилить GAN-сеть (progressive gan например - давно не интересовался темой, какой там state of art сейчас, но эта хуйня точно работает). Погонять ее пару дней, и взять дискриминатор как основу для дообучения. Если же GAN так ничего осмысленного не загенерит, это скажет много о распределении твоих данных. Брать VGG, тренированную на котах, и пытаться размечать с помощью них спутниковые фотки - идея так себе. Но, с другой стороны, если ты найдешь похожий датасет, можно сначала потренировать на нем, а потом уже на своем датасете.

По поводу сеток, слишком сложные не бери. Смысла ноль. Советую inception, в частности googlenet. Как бейслайн самое то.
Аноним 12/04/19 Птн 14:16:35 1379699156
Помогите, ПРОШУ!
Иду на аналитика, теорвер в вузе ещё не проходил (только через год!), надо ОЧЕНЬ СРОЧНО понять линейную и логистическую регрессии, КАКИЕ ВЕЩИ (а ещё лучше -- прям главы учебника конкретного) знать НЕОБХОДИМО из теорвера/матстата, чем меньше -- ТЕМ ЛУЧШЕ! Сам с физтеха, разбираюсь быстро, но учить вообще не вариант, вот желательно самый сжатый формат, чтобы я на интуитивном уровне понимал, что там, и скриптил на питончике, чувствуя себя уверенно.
Аноним 12/04/19 Птн 14:40:18 1379712157
Screenshot188.png (298Кб, 1620x798)
1620x798
>>1379517
>В чем проблема доразметить? Скорее всего это лучший вариант, анон.
Эт, конечно, заебись затея, но я не могу расширить датасет.

>Для начала аугментировать данные.
Так уже...

>Брать VGG, тренированную на котах, и пытаться размечать с помощью них спутниковые фотки - идея так себе
Но в мануалах кераса прям так и говорят, что можно брать сеть, тренированную на котах и распознавать с ее помощью даже речь.

Вот пикрил на кошечках-собачках, что сука характерно, конечно, любые отпизды выбранные параметры выдают 90%.
А на моей задаче 7% пока рекорд
Аноним 12/04/19 Птн 14:58:50 1379727158
>>1379712
ты уверен, что ты лейблы не перепутал или потерял где-то? попробуй сделать numpy.random.shuffle на массиве лейблов и посмотри как это влияет на результаты
Аноним 12/04/19 Птн 16:25:25 1379771159
>>1379712
>Но в мануалах кераса прям так и говорят, что можно брать сеть, тренированную на котах и распознавать с ее помощью даже речь.
Так все упирается в количество данных. Если у тебя их бесконечно, за бесконечное время ты перетренируешь вообще любую сеть. А у тебя данных мало, поэтому тебе единственный вариант набрать низкоуровневых фич с другого датасета, а своим уже оттюнить высокоуровневые.
Низкоуровневые фичи можно набирать и в unsupervised манере.
>А на моей задаче 7% пока рекорд
А у генератора случайных чисел какой рекрод будет? Сколько классов у тебя?
Аноним 12/04/19 Птн 16:43:49 1379776160
>>1379727
Да вроде все верно, проверил на датасетах кошки/собаки + рентгеновских снимках легких, везде с первой же эпохи высокие рейты.

>>1379771
>А у тебя данных мало, поэтому тебе единственный вариант набрать низкоуровневых фич с другого датасета, а своим уже оттюнить высокоуровневые.
Вот вопрос тогда - насколько низкоуровневые признаки надо брать? Я пытаюсь обучать последний сверточный блок (ну, там где 3 штуки Conv2d) VGG16.
Может, надо вообще пару первых слоев оставить, а остальное обучать?
По логике да, я пытаюсь искать признаки моих пич среди высокоуровевых собачьих глаз
>А у генератора случайных чисел какой рекрод будет? Сколько классов у тебя?
200 классов, по 50 изображений на класс.
У рандома, соответственно, шанс 1/200, 0.5%
В целом, сесть имеет статистическую мощность и выдает эти 2-3-7 процентов, что лучше рандома.
Но все равно с человеческой точки зрения это ни о чем же.
Аноним 12/04/19 Птн 17:16:34 1379811161
>>1379776
>Вот вопрос тогда - насколько низкоуровневые признаки надо брать?
Поэксперементируй десу.

>Может, надо вообще пару первых слоев оставить, а остальное обучать?
Поищи визуализации слоев, когда из белого шума градиентым спуском максимизируют активации на данном слое, в этих слоях хуйни типа линий под разным наклоном, они как правило универсальны для любых визуальных данных. Думаю до половины сетки ты можешь использовать точно.

>Может, надо вообще пару первых слоев оставить, а остальное обучать?
Тут еще два стула на самом деле. Можно обучать с нуля, можно обучать с уже обученного. Я предпочитаю делать и так и так. То есть глубокие слои я инициализирую заново, а верхние не переинициализирую, но и обучение на них не фиксирую. Правда это имеет больше смысла в случае resnet'ов.
Алсо не понятно, почему у тебя не resnet в 2019 году. У тебя из-за того что мало данных градиент до верхних слоев просто не доходит. То есть у тебя не просто переобучение, у тебя самые нижние слои переобучаются и на этом все обучение заканчивается.
Короче бери сетку у который максимум перформанса при минимуме параметров и residual связями. Вот это короче https://github.com/titu1994/Inception-v4/blob/master/inception_resnet_v2.py
Аноним 12/04/19 Птн 18:05:58 1379851162
Screenshot191.png (35Кб, 677x537)
677x537
>>1379811
Ок, пробую, анон...

Подскажи плиз, откуда взялось такое ебанистическое число параметров?
Аноним 12/04/19 Птн 18:41:26 1379867163
А что если выпилить каналы и сделать изображения черно-белыми?
По идее это на порядок ускорит обучение, правильно?
Аноним 12/04/19 Птн 18:52:51 1379873164
>>1379851
>Подскажи плиз, откуда взялось такое ебанистическое число параметров?
Это 107648 из слоя flatten умножить на 256 из слоя dense.
107648 это 29x29x128 из последнего пулинга после flatten.
Любой dense layer это матрица размером вход х выход, в них как правило больше всего параметров.

>А что если выпилить каналы и сделать изображения черно-белыми?
Можешь поместить после входа Conv1D с параметрами 1х1х1, он сплющит твою картинку в черно-белую.
Обучение это ускорит только для первого слоя, потому что у тебя что у тебя из 3 каналов делается 64, что из 1 канала делается 64, потом число каналов не поменяется. Нет смысла короче.
Аноним 12/04/19 Птн 19:17:45 1379888165
>>1379873
>Любой dense layer это матрица размером вход х выход
Ок, спс тебе, анон!


>Обучение это ускорит только для первого слоя, потому что у тебя что у тебя из 3 каналов делается 64, что из 1 канала делается 64, потом число каналов не поменяется.
Хмм, вроде понимаю. Ведь один хуй же происходит свертка, да потом еще пулинг, число данных уменьшается.
Верно ли, что я тогда могу изображения на входе особо не шакалить? Ведь они все равно будут сжаты свертками и пулингом.

Еще охуенно важный вопрос, подскажи плиз, что такое GlobalAveragePooling2D()?
Видел в куче сетей, в отличие от Flatten'а не увеличивает число параметров. Где тут наеб?
Аноним 12/04/19 Птн 19:48:21 1379907166
proxy.duckduckg[...].png (43Кб, 553x402)
553x402
>>1379888
>Верно ли, что я тогда могу изображения на входе особо не шакалить
В целях ускорения нет. Лучше число фильтров на последних слоях уменьшать, или увеличивать даунскейл при пулинге.
Либо заменять большие квадратные фильтры на комбинацию более простых. Опять inception короче.
>Верно ли, что я тогда могу изображения на входе особо не шакалить?
Нет большого смысла делать то, что сетка может сделать сама. Разного рода конвертации типа RGB->YUV, RGB->Grayscale это просто 1x1x3 либо 1x1x1 свертки с зафиксированными параметрами. Если ты про даунскейл, то тоже, добавить лишний слой с малым числом фильтров и спулить потом все - это практически бесплатно. А вот вещи типа поворотов или, например, преобразования Фурье, кепструмов-хуепструмов имеет смысл пилить вручную. Потому что сама сетка не научится это делать за время жизни вселенной.
>Еще охуенно важный вопрос, подскажи плиз, что такое GlobalAveragePooling2D()?
Это AveragePooling с размером кернела во все изображение. То есть на входе у тебя hxw, на выходе будет один многоканальный пиксель.
У dense-слоев наибольшее число степеней свобод, они умеют все то же, что сверточные слои, и еще кучу всего сверху. Чтобы ускорить обучение, мы объявляем, что у нас есть инвариантность вдоль осей w и h (но не в фильтрах, они мапятся каждый-с-каждым как в dense-слоях), и получаем сверточные слои, в которых эта инвариантность жестко зашита. При этом любой такой сверточный слой представим в виде dense-слоя с большим числом нулей и одинаковых параметров вдоль диагонали матрицы (см. пикрелейтед для 1д случая).
На самых глубоких слоях мы утоптали наше пространственное режение до 29х29, поэтому говорим, что все, пространственной инвариантности у нас нет. И хуячим dense-слой, то есть по сути 'valid' свертку размером 29х29.
Что касается GlobalAveragePooling2D, то здесь dense layer заменен вообще средним арифметическим. Какой тут инвариант подразумевается сам подумай, я не знаю.
Аноним 12/04/19 Птн 20:06:30 1379918167
Screenshot195.png (33Кб, 672x516)
672x516
Screenshot194.png (44Кб, 662x681)
662x681
>>1379907
>Это AveragePooling с размером кернела во все изображение. То есть на входе у тебя hxw, на выходе будет один многоканальный пиксель.
Хуясе. Понял, анон.

Кстате, походу я долбоеб кто бы сомневался.
Я понял, откуда берутся эти охуилярды параметров.
Я подключаю полносвязный слой к полноценной пикче 29x29, ясен хуй это много параметров.

Количество сверточных слоев должно быть таким, чтобы в итоге уменьшать пикчу до нескольких пикселей.
Тогда и больше высокоуровневых признаков будет извлечено и быстрее все будет происходить.
Аноним 12/04/19 Птн 21:38:57 1379987168
44 процента, аноны!
Вроде все делал как обычно.
Дообучал первый (последний? Короче тот, что с высокоуровневыми признаками) сверточный слой VGG16.
Первые 10 эпох копошилось в районе 0.01, потом выросло до 10, а потом до 40.

Так, с этим уже можно работать.
Наконец-то поведение этой хуйни начинает напоминать то, о чем я читал в книжке.
Я уж думал я совсем даун кого я обманываю, это так и есть
Аноним 12/04/19 Птн 23:44:44 1380046169
Подскажите, что за хуйня.
Запускаю одну и ту же сетку.
VGG16, fine tuning верхнего сверточного блока.
Всего по 50 примеров на класс.

Аугментация изображений.
30 эпох.
Довольно рандомное поведение наблюдается.
3 раза запускал, каждый раз разные проценты.
От 40 до 60.

Связано ли это с аугментацией изображений?
Тип что рандомно там нагенерилось, так сеть и обучилась.
Пездос, оно работает, я в шоке, думал выше 7% не прыгну вообще.
Это еще старая базовая сеть, можно же всякие инсепшены и реснеты брать + кросс-валидацию, ибо примеров мало, еще гиперпараметры подрочить...
Аноним 12/04/19 Птн 23:52:13 1380052170
>>1380046
>Связано ли это с аугментацией изображений?
А она у тебя каждый раз разная, лол?

Learning rate уменьши
Аноним 12/04/19 Птн 23:59:30 1380057171
>>1380052
Ну рандомные преобразования же, ну.
Конечно разная.
Повороты там, отражения, искажения.
Валидационные данные остаются как есть, разумеется.

>Learning rate уменьши
Вот с ним немного экспериментировал. При сильно большом потери огромные.
Но тоже вполне себе гиперпараметр и его стоит подрочить, согласен.

Знаешь что про one cycle? Что это? Вроде как динамический learning rate.
Аноним 13/04/19 Суб 00:20:59 1380071172
>>1380057
>Ну рандомные преобразования же, ну.
Они не должны быть настолько рандомными. Тебе важна повторяемость результатов для итерационных улучшений. Рандома должен быть минимум. Сгенерил гигабайт рандомных картинок и юзаешь их и только их. Иначе вклад любых твоих изменений, даже позитивных, утонет в шуме такого рандома.
В теории даже рандомную инициализацию весов можно зарубить, на практике большой роли это не играет.
>Знаешь что про one cycle? Что это? Вроде как динамический learning rate.
Ставишь lr очень низким, и плавно его наращиваешь до экстремальных значений. Внимательно смотришь график loss - в какой-то момент его заколбасит. Берешь четверть от этого числа и обучаешь начиная с этой четверти до числа. Я пробовал, у меня сработало. Вместо 10 поколений стало обучаться за 2. Но точность выше не стала.
Аноним 13/04/19 Суб 10:19:41 1380177173
Без названия.png (14Кб, 389x278)
389x278
>>1380071
Понял, спасибо, анон.
Подскажи, что за хуйня происходит на пике?
С одной стороны вроде переобучение, но валидейшн-рейт тоже растет потихонечку.
Аноним 13/04/19 Суб 10:49:04 1380188174
Screenshot199.png (23Кб, 492x330)
492x330
>>1380071
>Ставишь lr очень низким, и плавно его наращиваешь до экстремальных значений. Внимательно смотришь график loss - в какой-то момент его заколбасит.
Seems legit
Аноним 13/04/19 Суб 11:37:15 1380212175
>>1373612 (OP)
NVIDIA открыла код системы машинного обучения, синтезирующей пейзажи по наброскам

Компания NVIDIA опубликовала исходные тексты системы машинного обучения SPADE (GauGAN), позволяющей синтезировать реалистичные пейзажи на основе грубых набросков, а также связанные с проектом нетренированные модели. Система была продемонстрирована в марте на конференции GTC 2019, но код был опубликован только вчера. Наработки открыты под свободной лицензией CC BY-NC-SA 4.0 (Creative Commons Attribution-NonCommercial-ShareAlike 4.0), допускающей использование только в некоммерческих целях. Код написан на языке Python с применением фреймворка PyTorch.

https://www.opennet.ru/opennews/art.shtml?num=50507
Аноним 13/04/19 Суб 11:38:17 1380213176
>>1380212
Заебись, дообучаем генерировать йобы по наброскам
Аноним 13/04/19 Суб 12:10:16 1380224177
15443451318580.jpg (84Кб, 540x533)
540x533
Анон, подскажи, пожалуйста, нюфажине.
Ну вот допустим вспомнил/подтянул я теорвер, линал, статистику, подучил питон, балуюсь с выборками данных из ОП-поста.
А дальше что? Опыта-то нет, кому из работодателей нужен такой работник?
Ну и вопрос - а как устроиться? Как вы устраивались?
Инб4 записаться на курсы за 999999 по DataScience
Аноним 13/04/19 Суб 14:45:43 1380285178
>>1380224
Знаю только либо людей, которые без опыта и познаний в математике устраивались в стартапы по знакомству, либо задротов, которые после ШАДа шли в Яндекс. Остальные не нашли работу и ушли в программирование.
Аноним 13/04/19 Суб 15:35:11 1380311179
Аноны, почему модель не сходится при маленьком batch size'е?

Все то же самое, запускаю на домашнем пека с маленьким batch size, чтобы в память видюхи влез - вообще сука не сходится.
При запуске на сервере с большим batch size - сходится и обучается нормально.
В чем дело?
Аноним 13/04/19 Суб 15:35:32 1380312180
Как правильно персистентные (ко)гамалогии считать не full-batch?
Аноним 13/04/19 Суб 15:40:45 1380316181
Посоветуйте наиболее актуальные курсы на Coursera, проходил два года назад от Яндекс и МФТИ, но не закончил из-за работы. Сейчас хочу заново взяться.
Аноним 13/04/19 Суб 15:41:42 1380317182
>>1380311
Много локальных минимумов, а значит и сёдел, в них всё застревает.
Аноним 13/04/19 Суб 15:42:56 1380319183
>>1380317
Как быть? Что делать? Можно заставить модель сходится на говножелезе?
Пока попробовал уменьшить изображения на входе, но увеличить batch size, посмотрим что выйдет
Аноним 13/04/19 Суб 15:49:57 1380322184
Еще охуительный вопрос. Больший batch size - всегда лучше? Или не всегда?

По идее чем больше образцов захавано при расчете градиента, тем более адекватна оценка.

Может ли быть такое, что слишком большой batch size ухудшает модель?
Аноним 13/04/19 Суб 15:58:09 1380323185
>>1380319
Жопой прочитал, у тебя ж как раз батч сайз маленький. Ну, тоже сёдла, но по более простой причине - градиента только в одном направлении недостаточно, ставь больше батч.
> Что делать?
Больше батч, вон, ты же видишь что лучше выходит. Ну или бустить.
>>1380322
>Больший batch size - всегда лучше?
Зависит от задачи, но в общем - лучше в самый раз, не больше ни меньше.
Аноним 13/04/19 Суб 19:18:25 1380381186
>>1380311
Ты ведь уменьшаешь learning rate?
Аноним 13/04/19 Суб 19:23:06 1380385187
1400322399634.jpg (48Кб, 800x450)
800x450
Аноним 13/04/19 Суб 19:34:15 1380388188
>>1380385
Ты же в курсе, что SGD сходится только если уменьшать LR?
Аноним 13/04/19 Суб 19:35:08 1380390189
>>1380311
> Аноны, почему модель не сходится при маленьком batch size'е?
При изменении batch size для того же перформанса нужно поменять и learning rate так, чтобы отношение bs/lr было константным. Когда ты снизил batch size, тебе нужно было снизить и lr. Ты этого не сделал, в итоге у тебя lr слишком большой со всеми вытекающими.
Аноним 13/04/19 Суб 21:35:35 1380477190
Кто-нибудь пытался вкатиться в компьтерное зрение? Выглядит как реальный рокет саенс, намного сложнее нейронок. Но я какую-то задротскую книгу листал, может быть на практике все иначе?
Аноним 13/04/19 Суб 21:41:14 1380484191
>>1380477
На практике все еще хуже, лол. В книгах самые азы
Аноним 13/04/19 Суб 21:48:32 1380492192
>>1380484
У нас в мухосрани есть вакансии в CV. Сомневаюсь, что там все уберменши с бэкграундом уровня Szeliski Book, в стране в вузах такого уровня подготовки нет.
Аноним 13/04/19 Суб 21:49:27 1380493193
>>1380492
В /dr есть дневник научного сотрудника, делает кампутерное зрение для ракет.
Аноним 13/04/19 Суб 21:51:45 1380494194
Почему kaggle бесплатно раздает виртуалки для машинного обучения, да еще и с GPU?
Я просто охуел, когда увидел. Прост приходишь такой и запускаешь свой говнокод на настоящей видюхе.
Откуда у них столько денег?

Там еще и по несколько штук одновременно можно запускать, на амазоне бы это стоило 5 баксов за час
Аноним 13/04/19 Суб 22:01:07 1380497195
>>1380492
Ты в курсе, что OpenCV разрабатывается русскими и если ты прямо сейчас зайдешь на гитхаб, ты увидишь в последних коммитах одни русские фамилии?
Как же вы заебали с этим дрочем на западные вузы. Успехи в Computer Vision зависят прежде всего от способностей к прикладной математике, а математическая подготовка у нас нормальная, даже ее недостатки - они скорее области переусложнения, а не упрощения. И компьютерное зрения традиционно сильная сторона русских.
>уровня Szeliski Book
Ну в этой книжке самые азы как раз.
Аноним 13/04/19 Суб 22:02:06 1380499196
>>1380494
>Откуда у них столько денег?
Каких денег, они утилизируют простаивающие мощности на которых в другое время корпорации будут считать реальный код. Взамен получают статистику.
Аноним 13/04/19 Суб 22:21:24 1380512197
>>1380497
Живу на родине OpenCV, сижу с разработчиками в одном офисе Нижний Новгород, Intel. Некоторых их этих людей я знаю лично. У них хорошо с математикой, но эту книгу они бы признали очень сложной.
Аноним 13/04/19 Суб 22:55:55 1380527198
>>1380512
Эта книжка просто введение в специальность. По любой теме краткое описание без особой практики, а хочешь что-то реализовать действительно - пиздуй читать статьи, на которые она ссылается. Может, она для тебя сложная, но проще не бывает.
Unless туториалы от васяна, где эти алгоритмы представлены как черные ящики и ты просто их используешь.
Аноним 13/04/19 Суб 23:14:17 1380534199
>>1380527
>Unless туториалы от васяна, где эти алгоритмы представлены как черные ящики и ты просто их используешь
99% Машин лернинга.
Аноним 13/04/19 Суб 23:22:55 1380540200
>>1380497
>что OpenCV разрабатывается русскими
Чего бля? Это сборник алгоритмов начиная с 50х, и да, никакой супер йобы толком с ними не сделаешь. А так, да, наши ботаны запилили.
Аноним 13/04/19 Суб 23:24:14 1380541201
>>1380512
>Некоторых их этих людей я знаю лично
А они разве не посъебывали, вроде как основатели встали на тапки?
Аноним 13/04/19 Суб 23:24:35 1380542202
>>1380540
>сборник алгоритмов начиная с 50х
Ты сейчас описал любой софт, написанный на планете земля
Аноним 13/04/19 Суб 23:53:50 1380552203
>>1380541
Не в курсе насчет основателей, но многие нынешние контрибуторы в OpenCV все еще здесь. Некоторые съебали из Intel и запилили свои стартапы, с упором на диплернинг.
Аноним 13/04/19 Суб 23:59:48 1380556204
Screenshot203.png (203Кб, 1650x733)
1650x733
Дообучаю Xception. На обучающих данных быстро растет рейт, но на проверочных очень медленно, хотя и стабильно.
С чем это связано?
На VGG16 на проверочных данных рейт растет более отрывисто, но быстрее и более коррелирует с тренировочными данными.
Аноним 14/04/19 Вск 00:11:03 1380562205
Аноним 14/04/19 Вск 10:04:48 1380635206
Анон, обучающий сеть, а ты не забыл предобработку входных данных сделать (vgg16.input_preprocessing())?
Аноним 14/04/19 Вск 10:28:52 1380644207
Screenshot204.png (58Кб, 508x742)
508x742
Screenshot205.png (53Кб, 461x714)
461x714
>>1380562
Вот та же самая сеть, fine tuning верхнего слоя Xception, но где изображения на входе меньше шакаляться и batch size побольше.

В целом, я уже наглядно вижу, что оно более плавно, что ли, обучается.
На втором скрине сеть на основе VGG16, итоговый рейт до 70%, но кривая более резкая.

Переобучение же - это когда рейт перестает улучшаться на проверочных данных. Но он улучшается же.
Когда нужно вырубать обучение? С одной стороны, по идее, чем дальше обучение, тем больше сеть начинает хавать некорректных признаков из обучающих данных.
Но при этом у меня на тестовых рейт не падает, сука. Хотя по идее должен начинать в определенный момент.
Аноним 14/04/19 Вск 10:30:26 1380645208
>>1380635
Хмм, это из кераса?
Прост через генератор изображения рандомятся, скейлятся и нормализуются.
train_datagen = ImageDataGenerator( # Расширяем тренировочные данные.
rescale=1. / 255,
rotation_range=40,
width_shift_range=0.2,
height_shift_range=0.2,
shear_range=0.2,
zoom_range=0.2,
horizontal_flip=True,
fill_mode='nearest'
)
train_generator = train_datagen.flow_from_directory(
train_dir,
target_size=target_size,
batch_size=batch_size,
class_mode='categorical'
)
Аноним 14/04/19 Вск 10:41:51 1380650209
>>1380645
Там для разных предобученных моделей свои способы предобработки. У VGG вроде как переставляются каналы местами (RGB -> BRG) и нет рескейла, только вычитается среднее, у MobileNet нормируются пиксели на [-1, 1].
Аноним 14/04/19 Вск 10:48:27 1380656210
Аноним 14/04/19 Вск 11:00:10 1380668211
>>1380650
>>1380656
Хмм, ну это же просто вид input shape'а, нет?
Входная форма тензора задается для первого слоя
Аноним 14/04/19 Вск 13:17:09 1380768212
>>1380668
Нет, при чём тут форма входных данных? Форму оно никак не меняет, оно значения пикселей меняет, а веса в готовых нейронках по этим значениям как раз настраивались.
Аноним 14/04/19 Вск 14:09:29 1380800213
plachucshiy-kot[...].jpg (63Кб, 1149x1024)
1149x1024
>>1380768
В смысле? Я нихуя не понял. Объясни плиз, что значит "значения пикселей меняет"?
Аноним 14/04/19 Вск 16:57:54 1380868214
>>1373612 (OP)
Анон, хочу пощупать нейрончики, но на моём говно-ноуте это нереально. Посоветуйте какое облако можно взять нищуку, чтобы запускать tensorflow-ы всякие и прочие хипстерские технологии, которые не работают?
А когда разбогатею, откладывая деньги, которые дают на обеды - обязательно куплю норм ПК
Аноним 14/04/19 Вск 17:08:17 1380869215
>>1380868
Kaggle kernels, бесплатный вообще, работает быстрее, чем моя 1050.
Аноним 14/04/19 Вск 21:03:46 1381067216
d75.jpg (73Кб, 495x495)
495x495
>>1380800
Был массив batch_size x height x width x channels - станет массив такой же размерности, но со значениями, преобразованными в соответствии с тем, как обучали нейронку на imagenet. Когда обучали VGG, у изображения меняли местами каналы и центрировали каждый канал, соответственно, на это же рассчитаны веса готовой нейронки. Когда обучали другие архитектуры, картинки преобразовывали по-другому, и у них веса рассчитаны на другое. preprocess_input преобразует твоё изображение к тому, что ожидает нейронка.
Аноним 14/04/19 Вск 21:07:38 1381072217
Посоветуйте каких-нибудь хацков для каггла или где их найти, пожалуйста. Я имею ввиду именно что-то практичное для соревнований, типа самостоятельно залейблить тестовую дату и на ней обучаться и вот все такое.
Аноним 14/04/19 Вск 21:57:29 1381478218
>>1381072
Мониторь публичные ядра, туда часто высирают топовые сетки.
Правда как-то раз видел сетку из топ 1% по какому-то соревнованию в 30 строк, лол, но обосрался с того, что там тупо около 10 циферок забито уровня
0.004
0.03
32
0.09
Короче хуй пойми откуда взятый набор гиперпараметров.
Аноним 14/04/19 Вск 22:34:34 1381522219
14125992593402.jpg (39Кб, 499x729)
499x729
>>1381067
>Когда обучали VGG, у изображения меняли местами каналы и центрировали каждый канал, соответственно, на это же рассчитаны веса готовой нейронки. Когда обучали другие архитектуры, картинки преобразовывали по-другому, и у них веса рассчитаны на другое. preprocess_input преобразует твоё изображение к тому, что ожидает нейронка.
Нихуя себе! Спасибо, анон, Это же должно быть пиздец как важно тогда.
Запустил несколько эпох с preprocess_function, сразу заметно, что БЫСТРЕЕ обучается, я в ахуе.
госпаде, почему я узнаю об этом только сейчас, почему этго не было в книжке по керасу (написанной автором кераса блять)
Аноним 15/04/19 Пнд 00:04:47 1381569220
Ебать, короче для VGG16 добавление предобработки keras.applications.vgg16.preprocess_input дает более лучшие результаты.

Но для Xception keras.applications.xception.preprocess_input наоборот значительно ухудшает обучение. Что за хуйня?
Аноним 15/04/19 Пнд 02:56:28 1381607221
>>1380868
Google Colab.
>>1381569
Xception тупо делит весь массив на 127.5 и вычитает 1, т.е. если там были значения от 0 до 255, то оно приведёт их на интервал [-1, 1]. Попробуй выкинуть из ImageDataGenerator rescale.
Аноним 15/04/19 Пнд 09:29:17 1381666222
Какие задачи по reinforcementу порешать?
Аноним 15/04/19 Пнд 17:19:07 1381853223
>>1380644
Если VC расзмерность твоей модели слишком большая и ты выучивашь все данные и обобщение фиговое, то это называется оверфитинг.
Аноним 15/04/19 Пнд 17:38:06 1381861224
>>1381853
>VC расзмерность
Олдфаг в треде.
Аноним 15/04/19 Пнд 18:59:31 1381898225
15520534628591.png (411Кб, 512x512)
512x512
>>1377041
> Почему работа нейронки отдалённо напоминает то, что видит разогнанный мозг под лсд?
Я ж писал уже. ЛСД это 5ht2a агонист, который растормаживает воздействие таламуса на кору. В нейроночках ваших изначально нет аналогов таламуса. Поэтому они считай постоянно под ЛСД. Тем более, сверточные сети изначально создавались на основе зрительной коры кошки (Нобелевская премия Хьюбела и Визеля)
Аноним 15/04/19 Пнд 19:25:26 1381914226
>>1381898
Какой ты умный, хочу от тебя котана.
Аноним 16/04/19 Втр 04:52:44 1382126227
>>1381853
Вот только посчитать VC-размерность для всякой диплернинх параши вряд ли возможно, во всяком случае, мозги нужны, одной бороды мало. Поэтому, если что-то не работает, только танцы с бубном.
Аноним 16/04/19 Втр 15:03:12 1382281228
>>1382126
Если модель запомнила весь датасет и плохо обобщает та валидации и тесте, то она явно слишком сложная и ничего считать не нужно. К тому же при прототипировании есть только два варианта: нарастить сложность или уменьшить ее.
Аноним 16/04/19 Втр 22:37:31 1382510229
Выжили ли мухи, которых нейроночка кормила?
Аноним 16/04/19 Втр 23:10:18 1382534230
1553004313438.jpg (46Кб, 400x381)
400x381
>>1382126
>посчитать VC-размерность
Дед, проснись, сдохла твоя VC-размерность давно.
Аноним 16/04/19 Втр 23:12:09 1382535231
>>1382281
>>1382534
Сейчас бы с нечетким петухом всерьез разговаривать
Аноним 17/04/19 Срд 00:27:23 1382551232
>>1382535
При чем здесь нечеткий петух? В реальности VC размерность не используется для оценки риска модели, все используют k-fold, holdout или LeaveOneOut(с вариациями). На практике все сводится к наращиванию или уменьшению сложности в том числе подбор коэффициента L1/L2/ElasticNet регуляризации, вероятность дропаута, аугментации данных, подбор числа слоев. Само по себе значение VC размерности не столь важно, важно понимание, того, что у глубоких нейронок оно крайне высокое (если случайно перемешать лейблы в ImageNet, то нейронки их заучат c 0 ошибкой).
Аноним 17/04/19 Срд 00:40:55 1382557233
>>1382551
При том что пост 1382126 его.
Аноним 17/04/19 Срд 00:48:18 1382558234
>>1382535
>>1382557
Но это же двач, здесь все мои друзья. Я бы и с собакой поговорил.
Аноним 17/04/19 Срд 00:51:26 1382561235
>>1378996
Что мешает использовать в этой задачи нормальный метод нелинейной одномерной регресси например Natural Cubic splines, и просто подобрать коэффициент регуляризации по сетке?
Аноним 17/04/19 Срд 18:15:28 1382983236
>>1382551
VC размерность, слесарушка, нужна не для "оценки риска модели" и прочих бизьнесьметрик чтобы потом отчет составить и начальству отрапортовать, а для того чтобы понять имеет ли вообще смысл задача аппроксимации.
Аноним 17/04/19 Срд 19:00:12 1383002237
добрый.png (238Кб, 550x550)
550x550
>>1382983
>имеет ли вообще смысл задача аппроксимации
Имеет, мне за её решение деньги платят.
Аноним 17/04/19 Срд 19:58:24 1383038238
>>1382983
>Незнает что такое риск в статистическом обучении, думает, что кому-то интересно сколько точек в данном пространстве может выучить рассматриваемая модель. Считает себя д'артаньяном.
Ты точно уроки на завтра сделал?
Аноним 17/04/19 Срд 22:58:44 1383108239
>>1383038
>кому-то интересно сколько точек в данном пространстве может выучить рассматриваемая модель
Кто-то тут явно ничего не выучил.
Аноним 18/04/19 Чтв 03:10:40 1383168240
>>1383038
Вряд ли нечеткий петух где-то учится.
Аноним 18/04/19 Чтв 10:15:16 1383239241
>>1382561
>Что мешает использовать в этой задачи нормальный метод нелинейной одномерной регресси например Natural Cubic splines, и просто подобрать коэффициент регуляризации по сетке?

Возможности микроконтроллера мозгов, судя по всему.

Вообще, автор пасты какой-то пахом.

Нашел оригинал на drive2 (юзер emmibox, он же, как я понел, Maxi RPD c турбобазара), там этот упорок:

1) Ищет СПГС в последнем клипе рамштайна.

2) Дрочит на немецкий автопром и хейтит рисовозки

3) В своей тюненх-конторе настраивает ведра на сраном 5 январе

4) В своей прошивке для этого самого января, как я понел, напиздил чужого кода, соединил его в хекс-редакторе и продает мозги из конца 90х

5) Кидает через хуй своих клиентов (на том же драйве нашел кучу жалоб что этот хуй с непомерным чсв криво настраивает моторы, посылает нахуй с техподдержкой своего говна и вообще долбоеб)


Короче, типичный нечеткий петушок (возможно, кстати, это он и есть, диванон, ололо, уже не первый тредик семенит с этой пастой и сам с собой разговаривает).

Но вот за

Nelles Oliver: Nonlinear System Identification: From Classical Approach to Neural Networks and Fuzzy Models. Springer, Berlin

и

Isermann R. Engine Modeling and Control: Modeling and Electronic Management of Internal Combustion Engines

ему, конечно, респект, интересная хуита.

Аноним 18/04/19 Чтв 10:17:48 1383243242
Аноним 18/04/19 Чтв 10:37:09 1383267243
Аноним 18/04/19 Чтв 13:40:13 1383409244
изображение.png (21Кб, 909x140)
909x140
изображение.png (21Кб, 876x127)
876x127
Аноним 18/04/19 Чтв 22:14:57 1383722245
>>1383409
Суть VC-теории в теореме о росте. Дело не в определениях про "количество точек" а в том как растёт размерность с увеличением выборки. Бесконечная vc-размерность означает что в задаче аппроксимации не больше смысла чем в предсказании случайного шума.
Аноним 18/04/19 Чтв 23:07:33 1383755246
>>1383722
>растет VC размерность с увеличением выборки
Размерность не растет с увеличением выборки, она от нее вообще не зависит, функция роста выборки зависит. Вероятность переобучения стремиться до нуля с увеличением выборки, для моделей с конечной VC размерностью - вот суть VC теории. А ты даже определений не знаешь.
Аноним 19/04/19 Птн 14:27:10 1384064247
Уважаемые сеньеры-помидоры. Я почитал обзорные статьи и не очень понимаю, куда двигаться дальше, чтобы побыстрее начать делать ML более-менее осознанно.

Правильно я понимаю, что для серьезных задач используют только ансамблевые методы и нейронки?
Что оба могут дать сопоставимую точность.
Что нейронки могут все, просто устроены на уровне нейрона, не используют классические алгоритмы обучения, работают как черный ящик и требуют ОЧЕ много вычислительных ресурсов для обучения, соответственно обучаются очень долго.

В то же время ансамлевые методы используют классическое обучение, сложно устроены, обучаются на порядки быстрее, чем нейронки, но проектировать их дохуя сложно.

Хочу делать машоб для управления роботами: навигация в пространстве, манипуляция физическими предметами etc.

В идеале я хочу шарить во всем: классические алгоритмы, ансамбли, deep learning. Но может на практике что-то из этого не используется (или не используется конкретно в интересной мне сфере) и соответственно учить не имеет смысла?
Аноним 19/04/19 Птн 14:52:19 1384088248
>>1373612 (OP)
Есть чёнить чтоб совсем не ебаться? Ну там GUI чтоб указать ему что ему скормить и что ему выдать, нажал на кнопочку и обучил?
Аноним 19/04/19 Птн 17:00:35 1384179249
Аноним 19/04/19 Птн 21:18:14 1384398250
Figure01.png (110Кб, 400x400)
400x400
Figure02.png (162Кб, 400x400)
400x400
Прогнал через автокодировщик.
Аноним 19/04/19 Птн 22:42:35 1384452251
>>1384064
>Правильно я понимаю, что для серьезных задач используют только ансамблевые методы и нейронки?
нет
>Что нейронки могут все
нет
>не используют классические алгоритмы обучения
нет
>работают как черный ящик
не совсем
>требуют ОЧЕ много вычислительных ресурсов для обучения
не совсем
>соответственно обучаются очень долго.
не совсем
>ансамлевые методы используют классическое обучение
ты про что вообще? https://dyakonov.org/2019/04/19/ансамбли-в-машинном-обучении
>обучаются на порядки быстрее
нет (по секрету, можно сделать ансамбль из нейронок)
>но проектировать их дохуя сложно
нет
Аноним 19/04/19 Птн 22:57:17 1384468252
>>1384064
Ансамбль — просто несколько нейронок/алгоритмов, объединенных вместе.
Аноним 19/04/19 Птн 23:13:10 1384476253
>>1384064
Почитай бишопа или ESL, разберись в основных алгоритмах. Прочитай про нейронки (необязательно).
Аноним 20/04/19 Суб 04:31:47 1384535254
Аноним 20/04/19 Суб 18:07:29 1384968255
Что с RL-то, почему все подряд сейчас говорят что не работает?
Аноним 20/04/19 Суб 18:12:04 1384972256
Аноним 20/04/19 Суб 23:57:42 1385147257
Elements of Statistical Learning очень сложная книжка. Неужели все двадцатилетние хипстерки, работающие в дата саенс, знакомы с материалом книги? Я не верю, что они смогли это освоить, не утратив молодости и шутливости.
Аноним 21/04/19 Вск 18:40:06 1385995258
cfnn.jpg (50Кб, 548x552)
548x552
Есть так называемые cascade-forward neural networks (CFNN). Написано, что CFNN имеет весовое соединение от входного и каждого предыдущего слоя до следующих слоев. Показано на приложенной картинке как выглядит cascade-forward neural networks.

Подскажите, пожалуйста, как с помощью Keras сделать такую же CFNN как на картинке?

Аноним 21/04/19 Вск 22:22:23 1386141259
>>1385995
Поищи репы с реализацией DenseNet на керасе, похоже на этот твой CFNM
Аноним 21/04/19 Вск 22:25:49 1386152260
>>1385147
Не то, чтобы очень сложная, процентов 80 довольно легко понять. А досконально теорию нужно знать только для того, чтобы пройти собес в Яндекс. Почти все вкатывальщики делают упор на ПРАКТИКУ и ПЕТ ПРОЕКТЫ (fit-predict + симпатичный EDA). Так что не считай себя дураком анончик :3
Аноним 22/04/19 Пнд 12:53:33 1386520261
>>1385995
Concatenate + Dense же, нет? Ну или свой слой писать, если размеры разные.
Аноним 23/04/19 Втр 23:30:48 1387589262
Почему нейроночки в 2к19 не отсканировали все книги в удобный формат?
Аноним 23/04/19 Втр 23:35:05 1387593263
>>1387589
Потому что ты не понимаешь что такое нейроночки
Аноним 24/04/19 Срд 00:21:36 1387620264
>>1385995
Примерно так:
i1 = Input(...)
i2 = Input(...)

l1_input = Concatenate(...)([i1 i2])
l1 = Dense(...)(i1_input)

l2_input = Concatenate(...)([i1 i2 l1])
l2 = Dense(...)(l2_input)

l3_input = Concatenate(...)([i1 i2 l1 l2])
l3 = Dense(...)(l3_input)

Keras в плане рисования любых графов достаточно прост - конструктор создает веса, которые могут быть переиспользованы, а вызов функции уже конкретный слой.
Аноним 24/04/19 Срд 07:50:09 1387667265
>>1386152
> досконально теорию нужно знать только для того, чтобы пройти собес в Яндекс.
Зачем этой офшорной рекламной параше вообще нужны такие специалисты? Это же чистые понты уровня поиска уборщицы с вышкой по математике, пхд и знанием хаскеля. Кроме рекламы и ухода от налогов в рашке они чем-нибудь вообще занимаются? У них гитхаб беднее чем у любого среднего индуса. Полтора враппера и ещё какая-либо хуета без задач.
Аноним 24/04/19 Срд 08:24:54 1387669266
>>1387667
>Кроме рекламы и ухода от налогов в рашке они чем-нибудь вообще занимаются?
курсы для вкатывальщиков продают
Аноним 24/04/19 Срд 11:58:46 1387729267
>>1387669
> курсы для вкатывальщиков продают
А, точно, ещё лохов разводят.
Аноним 27/04/19 Суб 18:17:30 1390014268
>>1387667
>У них гитхаб беднее чем у любого среднего индуса.
На гитхабе свет клином не сошелся.
Аноним 27/04/19 Суб 18:37:43 1390043269
5efa13a2e5744a6[...].jpg (296Кб, 1280x955)
1280x955
Спрашивал в ньюфаг треде, но напишу и сюда. Хочу вкатиться в изучение нейронок, покатит ли условный минт или убунта на виртуалке или поставить вторую ось?
Аноним 27/04/19 Суб 19:17:15 1390083270
>>1390043
Если планируешь обучать на GPU, то проще вторую ось поставить, чем ебаться с пробросом видеокарты.
Аноним 27/04/19 Суб 19:21:07 1390087271
>>1390043
покатит использование Google Colab и запускайся хоть с калькулятора
Аноним 27/04/19 Суб 20:05:57 1390126272
>>1390043
Сколько времени ушло на прочтение этих книг?
Аноним 27/04/19 Суб 20:25:01 1390136273
>>1390083
>Если планируешь обучать на GPU
У меня неплохая видеокарта, но не топовая, поэтому сомневаюсь в целесообразности ее использования. Я так понимаю, что не обладая 1080, все же лучше воспользоваться этим советом >>1390087 ?
Аноним 27/04/19 Суб 20:32:09 1390138274
>>1390136
на 1066/1070 можно вполне комфортно обучать сетки, вообще сильно зависит от задачи
Аноним 27/04/19 Суб 20:50:54 1390153275
>>1390138
>1066/1070
Увы, у меня 1063. Я брал ее в декабре для других целей, там количество видеопамяти было не критично, ну и плюс экономия.
Аноним 27/04/19 Суб 20:59:34 1390164276
>>1390153
Тогда colab/aws/GoogleCloud/Azure твой выбор
Аноним 27/04/19 Суб 21:24:47 1390176277
>>1390164
Спасибо, я так и думал.
Аноним 27/04/19 Суб 23:51:18 1390285278
>>1390043
Ничоси библиотека. А хоть что-то прочитал?
Аноним 27/04/19 Суб 23:52:58 1390287279
>>1390285
Скорочтение наверное дочитывает
Аноним 28/04/19 Вск 01:29:09 1390361280
У меня super tupoi вопрос. Есть ли какой гайд/репозиторий с кодом о том, как предобработать картиночки? Сделать их одного рамзера там, аугементация и прочая херь?
Аноним 28/04/19 Вск 01:46:59 1390367281
Аноним 28/04/19 Вск 03:23:33 1390385282
Аноним 28/04/19 Вск 03:24:00 1390387283
>>1390385
хотя лично мне больше нравится PIL
Аноним 28/04/19 Вск 05:47:30 1390393284
Аноним 28/04/19 Вск 10:04:43 1390439285
>>1390153
Для обучения на mnist мощностей цпу хватит, а этой видеокарты тем более.
Аноним 28/04/19 Вск 16:59:23 1390978286
>>1390138
Я кстати слышал, что на колабовском gpu сетки быстрее обучаются, чем на 1066
Аноним 29/04/19 Пнд 00:06:07 1391287287
Что особенного в курсах MIT?
Аноним 29/04/19 Пнд 00:09:35 1391289288
Басп
Аноним 29/04/19 Пнд 12:59:23 1391485289
>>1390978
Интересно, а какой профит у гугла от бесплатных облачных вычислений?
Аноним 29/04/19 Пнд 13:03:56 1391486290
Мдэ
Аноним 29/04/19 Пнд 13:25:25 1391492291
>>1391485
Снимают людей на выблядка и отправляют использованные ими наборы данных в цру, анб, госдеп сша и моссад.
Аноним 29/04/19 Пнд 14:03:05 1391509292
>>1391485
И помимо снятия людей на выблядка, они в калаб отдают чуть старое оборудование, а сами они перешли на более новое и классное.
Аноним 29/04/19 Пнд 14:20:00 1391528293
15536678225060.mp4 (267Кб, 1280x720, 00:00:02)
1280x720
>>1391492
> Снимают людей на выблядка
>>1391509
> И помимо снятия людей на выблядка
Аноним 29/04/19 Пнд 14:23:44 1391532294
>>1391528
Алекстайм возмущался, что женщина снимает его на выблядка, думая что в ее ребенке встроена камера для слежки за ним.
Аноним 29/04/19 Пнд 14:36:39 1391539295
1457854141343.mp4 (267Кб, 1280x720, 00:00:02)
1280x720
Аноним 29/04/19 Пнд 14:51:52 1391551296
Аноним 29/04/19 Пнд 16:16:52 1391590297
>>1391551
Я серьёзно впервые эту хуйню слышу. Про алекстайма вкурсе кто такой.
Аноним 29/04/19 Пнд 16:40:04 1391600298
>>1391590
Морир мерда и подохните, твари.
Аноним 30/04/19 Втр 01:26:36 1391867299
Анон, я сейчас решаю для себя задачу по распознаванию лиц. Использую openCV
Задача:
1. Парсить папку с кучей видео
2. В одном видео может быть несколько людей
3. Один и тот же человек может быть в разных видео
4. На выходе я должен получать список "человек - видеофайл1;видеофайлХ;".
5. Предварительного сета лиц для обучения нет.

Как это лучше сделать?
Пока у меня получается следующее:
1. Нет ни одного лица в сете
1.1. Обучаем модель распознавания на двух чёрных квадратах
2. Берём кадр1 видео1 ищем лица.
2.1. Пытаемся распознать лицо - получаем слишком большую дистанцию
2.2. Всё ок, мы знаем что у нас в модели только чёрные квадраты, поэтому создаём новую персону (персона1) и апдейтим модель распознавания.
2.3. Берём кадр2 видео1 ищем лица.
2.4. Пытаемся распознать лицо - получаем нормальную дистанцию с персона1 и апдейтим модель. Теперь персона1 имеет 2 фотки и распознаётся лучше.
2.5. Начинаются проблемы. В кадр3 видео1 у нас может внезапно поменяться ракурс лица и оно хоть и распознается как персона1, но дистанция получится относительно большой или у нас может появиться персона2 ещё не внесённая в модель распознавания, но она распознается как персона1 с относительно большой дистанцией. Как обойти этот случай? Как понять - это персона1 с другим ракурсом/освещением или персона2?
3. Но ок, допустим в видео1 у нас только персона1. Открываем видео2. Там может быть как персона1, так и персона2. Но у персоны1 будет новый ракурс\освещение. Как результат мы с примерно одинаковой дистанцией распознаем человека и или будем считать что персона2 = персона1 или что персона1видео1 != персона1видео2.

Как всё это правильно сделать|что почитать?
Аноним 30/04/19 Втр 10:36:55 1391972300
>>1390978
дело не то в быстрее/не быстрее, но в том, что у тебя комп в комнате не будет шуметь + компом можно будет пользоваться и тупо выключать если надо + можно настроить оповещение в телегу по завершению обучения, у colab плюсов много
Аноним 30/04/19 Втр 10:43:03 1391977301
>>1391867
opencv + object tracking и хранить все дескрипторы лиц и после сравнивать их (разумеется перед этим обработать их)
мимо нубас
Аноним 30/04/19 Втр 12:06:52 1392016302
142503211820734[...].jpg (125Кб, 807x504)
807x504
У меня встройка вместо видеокарты, но есть охуенная идея. Кому делать нехуй не в падлу попробуйте потренировать сеточки делать из верхних пиков нижние
Аноним 30/04/19 Втр 12:13:12 1392024303
1539254747466.jpg (616Кб, 1000x1200)
1000x1200
>>1392016
а на каггл сделать такой проект слабо? :3
Аноним 30/04/19 Втр 12:27:26 1392040304
>>1392024
Давай базу где скочать
Аноним 30/04/19 Втр 12:28:09 1392041305
>>1392016
Дай датасет нормальный, сделаю.
Аноним 30/04/19 Втр 12:42:56 1392049306
>>1392024
Слабо :3
>>1392041
Мне понадобится время чтоб нарезать достаточное колличество. Завтра дам
Аноним 30/04/19 Втр 12:58:36 1392056307
>>1392016
Предвкушаю мутантов в результате
Аноним 30/04/19 Втр 15:37:00 1392128308
>>1391977
Попробовал встроенный object tracking, работает как земля. Придётся видимо по крайней мере по началу сортировать руками.
Аноним 30/04/19 Втр 16:23:44 1392151309
>>1391867
>Как это лучше сделать
взять openface
Аноним 30/04/19 Втр 18:24:06 1392209310
>>1374335
В Яндекс Еду собирался устраиваться?
Аноним 30/04/19 Втр 18:28:06 1392212311
>>1376036
>очень сложная область
Про петухов это о тебе? ЖС легче, там нельзя обойтись вызовом двух-трёх абстракций от Гугла.
Аноним 30/04/19 Втр 18:34:43 1392215312
>>1376425
>не мочь написать бэкпропагатор на крестах и не знать, как посчитать производные от элементарных функций
Сначала докажи что сам можешь, а потом уже кукарекай. Это нихуя не просто.
Аноним 30/04/19 Втр 18:59:56 1392225313
>>1376425
Осталось придумать, нахуя это делать. Современные системы настолько же далеки от ручного вычисления производных примерно как студенческий интерпретатор лиспа далек от gcc.
И если ты не понимаешь, что питон используется только как язык описания графов, а все выполняется на видюхах после компиляции, то просто заткнись и съеби из треда, пафоса у тебя больно дохуя, при том, что ты полный ноль в теме.
Аноним 30/04/19 Втр 19:09:38 1392226314
>>1378305
Пойдёт. Анна выше не слушай. Книжечки лучше, быстрее начнёшь разбираться и не будет пробелов.
Аноним 30/04/19 Втр 19:42:08 1392232315
>>1392225
> 2к19
> графы
Ты из палеолита вылез?
Аноним 30/04/19 Втр 21:01:19 1392273316
>>1392232
Ты если чего-то не понимаешь, не пизди хоть.
30/04/19 Втр 21:12:25 1392277317
Аноним 30/04/19 Втр 21:14:35 1392280318
1556647672402.png (168Кб, 1000x801)
1000x801
>>1392232
> В некоторохых подходах к обратному распространению берутся граф вычислений и множество числовых значений, подаваемых на вход графа, а возвращается множество числовых значений, равных градиентам во входных точках. Такой подход мы называем символьно-числовым дифференцированием. Он реализован в библиотеках Torch (Collobert et al., 2011b) и Caffe (Jia, 2013).
> Другой подход – взять граф вычислений и добавить в него дополнительные вершины, содержащие символьное описание требуемых производных. Он используется в библиотеках Theano (Bergstra et al., 2010; Bastien et al., 2012) и TensorFlow (Abadi et al., 2015).
Аноним 30/04/19 Втр 22:01:04 1392292319
>>1391972
Да, только коннект вроде обрывается через 2 часа
30/04/19 Втр 22:23:49 1392301320
>>1392280
А че не из 1998 цитаты притащили? Ты думаешь год тебе просто так написали?
Аноним 30/04/19 Втр 22:39:22 1392305321
>>1376425
Нахуя изобретать велосипед если это уже сделано овердохуя раз?
Аноним 30/04/19 Втр 22:47:01 1392307322
>>1392301
Кончай себя закапывать уже
Аноним 30/04/19 Втр 22:47:36 1392308323
>>1376425
> Верить в то, что питон или джава медленнее крестов
Вот и выросло поколение, учившее программирование по мемам
Аноним 30/04/19 Втр 22:59:49 1392311324
>>1392232
>>1392301
Школуйня, ты хоть на сайт слесарьплова сходи или пейпер по нему почитай. Там все вычисления организованы в виде графов. Как и в любом другом подобном софте.
Аноним 01/05/19 Срд 08:12:25 1392409325
>>1392308
Так жаба ведь и правда медленее. Даже пщ быстрее жабы.
Аноним 01/05/19 Срд 08:19:15 1392410326
Здравствуйте, мне в шараге дали задачу восстановления регрессии нейронной сетью. Требуется выявить и прогнозировать зависимость y = f(x1,...,x14), где y - уровень загрязнения воздуха, а x1...x14 - это количественные переменные влияющие на y. Я особо не разбирался в этой теме, просто взял в шараге набор данных про эти загрязнения в Excel на 25000 примеров. Сконвертировал в csv затолкал в Keras. И все, казалось бы радуйся. Дело сделано, мавр может уходить. Happy end. Но нет. Дело в том, что когда я показал на кафедре свое решение. То кафедральные преподаватели меня начали спрашивать - мол нахуя тебе нейросеть? Почему нельзя применить обычные математическое методы восстановления регрессии? На эти вопросы я ответить не смог, потому что препод который ставил мне задачу, сказал мне делать именно нейросеть, потому что это кайфово, молодежно и вообще. К тому же этот препод не шарит в методах восстановления регрессии, он просто слышал про нейросеть и решил, чтоб я такую сделал. Теперь поздняк метаться, препод уже давно зафиксировал за мной задачу с нейросетью и заполнил университетские бумажки. И поэтому я должен усраться, но доказать, что нейросеть в данном случае лучше математических методов восстановления регрессии(даже лучше, чем SVR и Gradient boosting)


Подскажите, пожалуйста, как доказать, что нейросеть лучше, чем SVR и Gradient boosting?
Могу ли я применить SVR и Gradient boosting из примеров scikit-learn на своем наборе данных, получив точность 94%? А затем взять keras и нахреначить огромную нейросеть с кучей нейронов, выжать точность 98% и потом заявить, что нейросеть очень точная? АЖ НА 4 ПРОЦЕНТА! И поэтому она лучше! Можно так сделать? Или это неправильно и не по понятиям?
Аноним 01/05/19 Срд 09:51:19 1392432327
>>1392410
Один перцептрон и есть линейная регрессия. Каким способом керас высчитывал ошибку? Методом наименьших квадратов?
Аноним 01/05/19 Срд 10:37:33 1392445328
>>1392410
Посчитай разными методами, сравни точность. По-другому пердунам не докажешь.
Аноним 01/05/19 Срд 11:09:13 1392449329
15366506988230.png (5Кб, 259x195)
259x195
>>1392410
Gradient boosting is a machine learning technique for regression and classification problems, which produces a prediction model in the form of an ensemble of weak prediction models, typically decision trees. It builds the model in a stage-wise fashion like other boosting methods do, and it generalizes them by allowing optimization of an arbitrary differentiable loss function.
Gradient boosting can be used in the field of learning to rank. The commercial web search engines Yahoo[13] and Yandex[14] use variants of gradient boosting in their machine-learned ranking engines.
Аноним 01/05/19 Срд 14:30:07 1392548330
нейросети скоро порешают моделей
сколько ещё профессий они убьют прежде чем дойдет до программистов?

https://2ch.hk/news/res/5056490.html
Аноним 01/05/19 Срд 14:59:48 1392568331
Почему байезианцы так не любят машоб?
Аноним 01/05/19 Срд 15:46:12 1392593332
>>1392548
>сколько ещё профессий они убьют
Нисколько, бесполезное говно потому, что
Аноним 01/05/19 Срд 16:00:00 1392605333
1325786671574.jpg (8Кб, 200x191)
200x191
Аноним 01/05/19 Срд 16:56:18 1392632334
>>1392410
Судя по твоим словам, подозреваю, что у тебя ебический оверфит и на самом деле нихуя не работает, и об этом преподы и спрашивают.
Аноним 01/05/19 Срд 18:34:32 1392687335
>>1392432
>Один перцептрон и есть линейная регрессия
Там, вроде, нелинейная регрессия, multiple linear regression дает 0,74 эр квадрат, но зато нейросеть, gradient boosting и SVR дают 0,94-0,98.
Спасибо за пост с упоминанием линейной регрессии, значит я лоханулся, и мне надо выпилить слово "зависимость" и выпилить обозначение у=f(x1,...,x14), а то можно подумать, что там функция и линейная зависимость. Это просто я написал неправильно, пытаясь передать смысл.

>Каким способом керас высчитывал ошибку? Методом наименьших квадратов?
Да, так

>>1392445
Благодарю, так и хочу сделать, но выходит, что я не по понятиям поступлю, если мне надо выгородить нейросеть, то я должен сделать вид, что она чуть-чуть точнее. И я не знаю, можно так или это слишком толсто - без разбора применить SVR, gradient boosting, скопипастив примеры из интернета, получить 0,94 эр квадрат, а над нейросетью усираться, подбирай параметры и количество слоев и нейронов, чтобы сделать 0,98 и сказать СЕТЬ-ТО ТОЧНЕЕ ОЛОЛОЛО!

>>1392632
Да, вроде, нет. Тестовые данные же не участвуют в обучении. Преподы спрашивают у меня - зачем нейросеть, если есть методы машинного обучения, которые предназначены для восстановления регрессии. А я не могу ответить, потому что лоханулся с заданием и мне его уже оформили как "нейронная сеть" и поздно метаться. И теперь выходит, что я должен каким-то образом высосать из пальца причину почему нейросеть лучше SVR и gradient boosting'a
Аноним 01/05/19 Срд 18:45:20 1392692336
>>1392687
эр квадрат - это RMSE?
Аноним 01/05/19 Срд 18:54:31 1392701337
>>1392692
r2_score прогнозов по тестовым данным и соответствующих правильных ответов
Аноним 01/05/19 Срд 20:43:07 1392780338
>>1392687
>я должен сделать вид, что она чуть-чуть точнее
ну вообще нейросеть должна быть точнее
>над нейросетью усираться, подбирай параметры и количество слоев и нейронов
это нормально, все так делают
Аноним 01/05/19 Срд 22:57:23 1392827339
>>1392687
Ну блэд, это наука. Если данные не подходят под твою концепцию, значит тем хуже для данных.
Делаешь фактическое сравнение методов. Если какой-то метод лучше нейросети, меняешь датасет так чтобы он был хуже нейросети.
Аноним 02/05/19 Чтв 08:23:47 1392898340
Аноним 02/05/19 Чтв 12:12:03 1392937341
Screenshot6.png (50Кб, 1189x352)
1189x352
Я правильно понял, что на пикриле происходит типичнейшее переобучение?
Обучаю очень здоровую сеть на достаточно малом наборе данных 10к образцов, без регуляризации.
Я верно понял, что сеть тупо запоминает всю обучающую выборку и не вычленяет действительно полезные признаки из нее?
Аноним 02/05/19 Чтв 15:14:19 1392977342
>>1392937
Да, это переобучение. А что за задача?
Аноним 02/05/19 Чтв 15:44:27 1392990343
>>1392977
Котов от собак отличить
Аноним 02/05/19 Чтв 15:48:53 1392991344
>>1392977
Классификация изображений.
Аноним 02/05/19 Чтв 15:50:50 1392992345
>>1392991
Сколько классов? Готовый аппликейшн взял небось?
Аноним 02/05/19 Чтв 15:53:14 1392994346
>>1392992
200 классов, готовый resnet50 с полностью замороженой основой, обучается только полносвязный слой.

Мне непонятно одно, какого хуя это поделие вообще не обучается.
Ладно бы там рейт низкий был, я бы все понял, но такое ощущение, что обучение вообще не идет.

Vgg с 10кк тренируемых параметров нормально обучалась без переобучения, тут 2 ляма параметров - переобучение.
Не должно так быть
Аноним 02/05/19 Чтв 16:02:01 1392999347
>>1392994
Дропаут попробуй вставить.
Можно применить глобальный пулинг к карте признаков (в керасе при импорте прямо можно указать).
Опять же предобработка изображений (preprocess_input).
Не птицы часом?
Аноним 02/05/19 Чтв 16:23:43 1393012348
>>1392994
Возможно, перескакивает минимум функции потерь. Попробуй поиграться с моментумом оптимизатора, понизить lr.
Аноним 02/05/19 Чтв 17:09:57 1393044349
>>1393012
Если бы он минимум функции потерь перескакивал, у него бы на обучении хуйня творилась, не?
Аноним 02/05/19 Чтв 17:16:57 1393050350
>>1392999
>Дропаут попробуй вставить.
А толку? Будет действовать только на полносвязный слой.
К тому же, есть аугментация изображений.
>preprocess_input
Стоит keras.applications.resnet50.preprocess_input.
> глобальный пулинг к карте признаков
Стоит model.add(layers.GlobalAveragePooling2D()), это оно?
Аноним 02/05/19 Чтв 17:18:02 1393051351
>>1393012
Игрался с lr, толку пока нет на этой сетке.
Мометум стандартный стоит, это да
Аноним 02/05/19 Чтв 17:20:31 1393054352
>>1393050
>
> К тому же, есть аугментация изображений.
Проверь, что она корректно работает. А то может все изображения там ломаешь, вот с нормальными оно и не работает потом
Аноним 02/05/19 Чтв 17:22:48 1393056353
>>1393050
>Будет действовать только на полносвязный слой
Так ты же только его и обучаешь, разве нет? Или что значит "с полностью замороженной основой"?
Аноним 02/05/19 Чтв 17:25:11 1393058354
>>1393054
Работает корректно, гонял уже с другими сетками, где все норм.
Аноним 02/05/19 Чтв 17:26:15 1393060355
>>1393056
Да, только его и обучаю.
Ну, я прост думаю, что раз сеть запоминает всю обучающую выборку, то дропауты на полносвязном слое уже не помогут.
Если бы там были дропауты между conv-слоями, то был бы толк.
Аноним 02/05/19 Чтв 17:38:26 1393067356
>>1393060
Если у тебя нижние слои фиксированы, то они, очевидно, ничего не "запоминают" (что за корявое слово, выборку разве что методы ближайших соседей запоминают и методы, использующие ядра), это некоторое константное преобразование входа, всё переобучение происходит на полносвязном слое.
Аноним 02/05/19 Чтв 17:40:19 1393069357
1395493136311.jpg (19Кб, 421x404)
421x404
>>1393067
>Если у тебя нижние слои фиксированы, то они, очевидно, ничего не "запоминают"
Блять, действительно, какой же я даун.
Аноним 02/05/19 Чтв 17:42:04 1393070358
Тогда в чем дело, у меня во всех сетках абсолютно одинаковый полносвязный модуль.
Меняется только сверточная основа.
Почему vgg16 обучается, а resnet50, xception и inception нет?
Аноним 02/05/19 Чтв 17:48:50 1393072359
>>1393070
Может, из-за размерности карты признаков? У vgg16 на выходе 512 фильтров, т.е. карта признаков для входного изображения 224 x 224 будет 7 x 7 x 512, при применении global average pooling - просто 512. Не знаю, что у других, но наверняка больше.
Аноним 02/05/19 Чтв 18:22:23 1393090360
>>1393072
У resnet 2048.
Чет мне не кажется, что дело в этом.
Может в preprocess_funciton?
Использую стандартные для каждой сетки.
Аноним 02/05/19 Чтв 18:34:28 1393099361
>>1393090
Не знаю. Хотя, кстати, у меня есть подозрение, что preprocess_input - это in place функции, т.е. они ещё и аргумент меняют.
Аноним 02/05/19 Чтв 19:06:55 1393108362
Screenshot11.png (60Кб, 1344x427)
1344x427
Screenshot12.png (19Кб, 492x258)
492x258
>>1393099
Да!
2 новости, хорошая и плохая:
1. Я, кажется, нашел в чем была проблема. Таки в препроцессинге.
2. Я настолько тупой, что понял это только сейчас, а остальные 200 экспериментов провел некорректно.

Вот на втором пике закомментированная строка раньше была раскомментирована.
Я создал эти генераторы еще давно, когда только начинал тыкать нейросети. В книжке был пример, там вручную делался препроцессинг для обучаемой с нуля сетки.
А я и preprocess_function использовал и рескейл пикселей изображения. Вот из этого и выходила хуйня.

Еще один вывод. Предыдущие сети (на основе vgg16) обучались даже несмотря на хуевый препроцессинг.
Это возможно по двум причинам:
1. Этот итоговый препроцессинг подходил vgg16 и был близок к ее нормальному препроцессингу.
2. Если достаточно долго обучать сеть, особенно дообучать верхние слои, то постепенно она пристроится к твоему препроцессингу (хотя, конечно, это полная хуйня, так делать не надо)
Аноним 02/05/19 Чтв 21:19:13 1393165363
NewFaces4.jpg (61Кб, 300x750)
300x750
NewFaces4F3.jpg (62Кб, 300x750)
300x750
NewFacesF2.jpg (64Кб, 300x750)
300x750
Kurwa, ja pierdole
Нашел только на 1 пике и то 3/5
Аноним 02/05/19 Чтв 21:21:07 1393166364
>>1393108
>Если достаточно долго обучать сеть, особенно дообучать верхние слои, то постепенно она пристроится к твоему препроцессингу
Это как бы очевидно.
Аноним 02/05/19 Чтв 23:50:12 1393219365
>>1393108
> 1. Я, кажется, нашел в чем была проблема. Таки в препроцессинге.
А я говорил.
Аноним 03/05/19 Птн 14:01:40 1393405366
face cluster 0.png (40Кб, 300x300)
300x300
face cluster 1.png (12Кб, 150x150)
150x150
face cluster 2.png (45Кб, 300x300)
300x300
pfaces2.jpg (119Кб, 1000x1000)
1000x1000
Тэк. А теперь попробую нарезать лица пошире
Аноним 03/05/19 Птн 15:31:12 1393448367
>>1393405
Что ты хочешь сделать?
Аноним 03/05/19 Птн 18:22:01 1393494368
Аноним 03/05/19 Птн 19:56:01 1393525369
Куда пропали приложения типа fakeapp? То логина требуют, то просто забанено и удалено
Аноним 03/05/19 Птн 21:09:22 1393552370
>>1393525
Ты бы хоть описал, что за приложение и что оно делает
Аноним 03/05/19 Птн 22:39:59 1393594371
>>1393552
Ну тип лица подменяет
Аноним 04/05/19 Суб 05:49:19 1393692372
>>1393525
Это же считай оружие в информационной войне. Серия грамотных вбросов может спровоцировать все что угодно от пынягейта / хуйзнаетчегогейта до реальной ядерной войны. Маск говорил, что ИИ может такую хуйню организовать. Но на это же способны террористические организации, нанявшие хакеров. И все, пиздарики человечеству или как минимум отдельным странам.
Аноним 04/05/19 Суб 16:24:05 1393851373
15563545425390.jpg (97Кб, 720x480)
720x480
Аноним 04/05/19 Суб 18:09:54 1393916374
1271678657738s.jpg (17Кб, 200x200)
200x200
Можно ли в автокодировщике встроить слой субдескритизации во время считывания изображения, а потом увеличить размерность обратно?
Аноним 04/05/19 Суб 18:49:14 1393943375
Бамп
Аноним 04/05/19 Суб 18:54:27 1393947376
>>1393851
И что не так? Маск Небоходец святой.
Аноним 04/05/19 Суб 19:59:08 1393999377
>>1393219
>>1393166
До сих пор хуею, какой я дегенерат.
Как исправил эту критическую неисправность в корявом препроцессинге, все сети с пол-тычка сразу стали обучаться нормально, как от них и ожидается.
Аноним 04/05/19 Суб 20:07:40 1394008378
ZoUYFVxv1YU.jpg (58Кб, 780x1040)
780x1040
Пацаны, хз, сюда это или нет.
Задача: есть монеты на фото. Нужно определить их количество.
Куда копать? Есть готовые решения?
Аноним 04/05/19 Суб 20:27:21 1394019379
Аноним 04/05/19 Суб 20:56:23 1394040380
>>1393916
Конечно. U-Net это и делает.
Аноним 04/05/19 Суб 21:00:55 1394045381
Как оптимизировать гиперпараметры?
Какой оптимизатор ставить, какой learning rate, моментум и другие гиперпараметры?
В книжке, что я читал, об этом тактично умалчивается, говорят лишь: "Ну это молодая область, хуй знает короче, в целом, большинство использует метод квадратно-гнездового тыкинга".

Но это хуйня же. Наверняка есть способы
Аноним 04/05/19 Суб 21:25:49 1394063382
Сколько инстансов одновременно можно запустить на кагле?
Аноним 04/05/19 Суб 21:58:26 1394088383
14196232147433.jpg (27Кб, 354x364)
354x364
Почему некоторые сети показывают на моих данных более лучшие результаты, чем другие?

Причем логика вообще какая-то ебанутая.
VGG16 - почти топ, лол, хотя это очень старая и простая по нынешним меркам есть.
Получше Xception.
Inseption и Resnet показывают результаты хуже чем vgg.
Щас для лулзов запустил MobileNet - еще лучше vgg оказалась.
Аноним 04/05/19 Суб 22:18:38 1394105384
>>1394088
Чем больше параметров, тем больший датасет нужен
Аноним 04/05/19 Суб 23:32:30 1394194385
>>1394045
Ставь по умолчанию и не выёбывайся, потом, если будет желание, можешь с ними поковыряться ради сотых долей процента.
Аноним 04/05/19 Суб 23:45:27 1394215386
>>1394045
Grid search, random search, последовательно перебор, байесова оптимизация вот методы, которые используют на практике. Ну и LR динамически нужно уменьшать.
Аноним 04/05/19 Суб 23:53:08 1394224387
>>1394215
Используются они только в классическом ml, в DL слишком долго и дорого, там с гиперпараметрами почти не играются в реальных задачах
Аноним 05/05/19 Вск 00:07:36 1394235388
>>1394224
LR предпочтительнее уменьшать на плато. С числом нейронов и архитектурой почти всегда играются, аугментации подбирают, коэффициенты дропаута и l2 регуляризации подбирают. Так что используется.
Аноним 05/05/19 Вск 00:12:51 1394238389
>>1394194
Я тупо оптимизатор поменял и это +5% дало
Аноним 05/05/19 Вск 00:55:14 1394284390
>>1394045
> Как оптимизировать гиперпараметры?
Байесова оптимизация решает. Буквально вот эта поебота https://github.com/fmfn/BayesianOptimization берется как черный ящик и вперед
>Какой оптимизатор ставить
адам
>какой learning rate
1-e4
>Но это хуйня же. Наверняка есть способы
Способы итеративные. Сначала, когда не знаешь, обучается оно или нет, используешь консервативные стратегии: lr поменьше, можно тупой как валенок SGD, и добиваешься постоянного убывания лосса. Дальше ты видишь, что лосс убывает, но как-то медленно, бесконечно медленно, неделю нужно ждать, врубаешь adam и заставляешь эту хуйню работать. Дальше понимаешь, что в конце концов обучение упирается во что-то и тебя этот уровень не устраивает, пробуешь разного рода стратегии переменного lr. Лично я юзаю шаманство отсюда https://www.fast.ai/2018/04/30/dawnbench-fastai/ , и получаю ровно то, что там пишут, обучение на порядок быстрее.
Но вообще правило такое, что если SGD с медленным lr не обучается (даже гипермедленно), играться особого толку нет, надо чинить архитектуру.
Аноним 05/05/19 Вск 09:27:54 1394368391
>>1394284
>Лично я юзаю шаманство отсюда https://www.fast.ai/2018/04/30/dawnbench-fastai/
One cycle policy? Слышал про него, в ближайших планах попробовать.
Пока тупо юзаю уменьшение LR на плато, помогает повысить точность процентов на 5-7.
Еще, не знаю почему, но замена adam на простой SGD дала еще +5%.
Аноним 05/05/19 Вск 12:28:31 1394420392
Сразу извиняюсь на, наверное, глупый вопрос. Передо мной стоит задача классификации, при этом 2 из 3 признаков — это строки. Как с этим работать? До этого решал только такие задачи, где все признаки — это числа. Фреймворк — пайторч, если это как-то влияет.
Аноним 05/05/19 Вск 12:34:19 1394423393
>>1394420
Нужна модель с несколькими входами.
Для обработки текста используются свои архитектуры.
Можно сделать именно несколько входов, они будут обучаться совместно, а можно тупо ансамбль сделать, вынеся обработку текста в отдельную сеть, но это будет менее эффективно, ибо по сути, текстовая сеть будет обучаться в отрыве от остальной.
нубас
Аноним 05/05/19 Вск 12:58:53 1394435394
>>1394423
Спасибо. Видимо, мне этим ещё рановато заниматься.
Аноним 05/05/19 Вск 16:58:20 1394537395
1394401295674.jpg (25Кб, 454x546)
454x546
Что такое "переобучение" блять? Я ничего не понял.
Это когда точность перестает улучшаться на валидационных данных. Да?
Или когда точность на валидационных данных начинает падать по отношению к точности на тренировочных?

Так вот, второй пункт у меня вообще всегда наблюдается. Всегда в итоге сеть на тренировочных данных уходит в 99%, а на проверочных - уж как пойдет.
Аноним 05/05/19 Вск 17:24:47 1394544396
Мимо проходил, извиняюсь за тупой вопрос.
Но есть ли однокнопочные программы, в которой я указываю путь до своего пака с Чёрным Властелином, сеточка обучается, делает магию и начинает выдавать мне новых Чёрных властелинов?
Аноним 05/05/19 Вск 17:28:30 1394546397
>>1394544
Есть те, что с двумя путями, в один кладешь ЧВ, в другой все остальное.
Аноним 05/05/19 Вск 17:34:20 1394551398
>>1394546
Как я понимаю, это классификаторы, которые будут мне говорить, насколько процентов этот Фотошоп похож на ЧВ. А я бы хотел генератор, по типу дипдреамс, который мне хоть на рандомный шум нарисует Чёрного Властелина во всей его красе, которым не стыдно вайпать неугодный тред.
Аноним 05/05/19 Вск 17:38:00 1394553399
>>1394551
Однокнопочных програм нет, а теперь уебывай обратно в бэ
Аноним 05/05/19 Вск 18:33:09 1394578400
>>1394553
>Однокнопочных програм нет, а теперь уебывай обратно в другой топик программача
Спасибо за информацию.
Аноним 05/05/19 Вск 22:35:22 1394655401
Fastai сила, Keras могила?
Аноним 05/05/19 Вск 23:24:44 1394672402
1557087807337.jpeg (4Кб, 650x812)
650x812
>>1394655
Положняк:

Top tries: Keras API with TF/Torch backend
Mid trier: ю plain TF, plain Torch
Shit trier: - Deeplearning4j, Caffe, Theano, MXNet, Matlab
Ultra shit trier: визуальное конструирование сетей мышкой в браузере (azure machine learning и прочее), ненужные надстройки над существующими фреймворками (в том числе Fast.ai), starter pack'и, шаблоны "для любой задачи" и прочие васяноподелки с гитхаба

Аноним 05/05/19 Вск 23:27:34 1394673403
kitten icecream.jpg (116Кб, 1070x1070)
1070x1070
>>1394672
Почему в keras'е нет встроенного ony cycle policy как в fatai, а есть только васяноподелка на гитхабе?
Аноним 05/05/19 Вск 23:49:41 1394676404
>>1394673
Потому что Keras - это стандарт API для библиотеки машинного обучения, который реалищуют и другие библиотеки. Туда не нужно тащить каждую модную штуку из свежей публикации. Пройдёт время и станет ясно, что какая-то штука точно необходимая и без неё никак нельзя - добавят. Менять же стандарт каждый месяц - получишь совсем адский ад, примерно как в мире js и веб-макакинга, где каждый месяц проекты на новую модную библиотеку переписыают.

> ony cycle policy
Есть в keras-contrib, он для этого и существует как инкубатор.
Аноним 06/05/19 Пнд 22:02:19 1394905405
Для чего сейчас больтцман и хопфилд применяются?
Аноним 06/05/19 Пнд 22:20:28 1394910406
>>1394905
В реальной жизни не применяются
Аноним 07/05/19 Втр 00:57:17 1394967407
>>1394672
А как же PyTorch, chainer, cntk и прочее?
Аноним 07/05/19 Втр 01:00:09 1394970408
>>1394905
>больтцман и хопфилд
Их заменил Жопеншмульцер
Аноним 07/05/19 Втр 01:49:23 1394980409
>>1394544
GAN это оче тёмное колдунство, которое работает через раз, так что вряд ли ты что-то такое найдёшь
Аноним 07/05/19 Втр 17:38:58 1395308410
>>1394676
>Есть в keras-contrib
Но ведь нету, не пизди
Аноним 07/05/19 Втр 17:46:23 1395310411
>>1394672
Керас для казуалов. Тру пишут графы в тензорфлоу.
Аноним 07/05/19 Втр 17:55:58 1395313412
>>1395308
Что ты как маленький
for batch in range(number_of_batches):
K.set_value(generator.optimizer.lr, lr)
generator.train_on_batch(....)

Две строчки всего, а столько нытья
Аноним 07/05/19 Втр 18:10:05 1395320413
>>1395313
Ващет там все несколько сложнее
Аноним 08/05/19 Срд 00:59:35 1395475414
1.png (58Кб, 804x515)
804x515
Подскажите библиотеки с готовыми сгенерированными данные по типу sklearn.datasets.samples_generator. Чтобы они были разделены разными способами. Еще подсказали, что в tf.data есть, но не могу найти, возможно, не там смотрю
Аноним 08/05/19 Срд 12:04:52 1395618415
Аноним 08/05/19 Срд 12:12:12 1395621416
>>1373612 (OP)
Ребят, читаю того же Николенко и параллельно Гудфеллоу и застрял на математическом введении. Пытался проскакать галопом по статистике и линейной алгебре по спецучебникам, но делу это не особо помогло.

Стоит ли полгодика подрочить математику для понимания вещей? Или в вопросе можно разобраться и без этого бэкграунда? Просто такие темы, как тензорное исчисление, векторный анализ, серьезный теорвер и теория инфы — это не хуй собачий.

Я студентота второго семестра, биоинформатик. Зачем я в это хочу вникнуть? Просто любопытно, как эта хуита работает и с чем ее едят.
Аноним 08/05/19 Срд 12:35:58 1395624417
>>1395621
Там не так много математики, если ты не исследованиями планируешь заниматься. Линейная алгебра, основые дискретные и непрерывные распределения из матстата, баесовский вывод, численные методы и оптимизация, свойства функций из матана. Все пожалуй.
Аноним 08/05/19 Срд 12:40:45 1395626418
>>1395618
Да, в nlp постоянно. Но скоро будут заменены глубокими e2e
Аноним 08/05/19 Срд 12:46:53 1395627419
Аноним 08/05/19 Срд 13:16:29 1395636420
>>1395624>>1395627
Ну так как вкатиться к вам, если уже работаешь в ойти?
Аноним 08/05/19 Срд 13:49:06 1395651421
>>1395636
Никак, в этой сфере желающих вкатится дохуя, а вакансий не требующих реального опыта почти что нет.
Аноним 08/05/19 Срд 13:51:32 1395654422
>>1395624
>Линейная алгебра, основые дискретные и непрерывные распределения из матстата, баесовский вывод, численные методы и оптимизация, свойства функций из матана
Потому удивляются, что это говно не работает.
Аноним 08/05/19 Срд 13:52:41 1395655423
Аноним 08/05/19 Срд 13:57:26 1395657424
Аноним 08/05/19 Срд 14:07:03 1395665425
>>1395636
Устраиваешься в какой-нибудь сбербанк и дальше крутишься
Аноним 08/05/19 Срд 14:17:29 1395671426
Аноним 08/05/19 Срд 14:26:04 1395673427
>>1395665
>Устраиваешься в какой-нибудь сбербанк
Ух, вот ещё мне этих бюрократии, дресскода и жёсткого графика с 8 до 5 не хвататло.
Аноним 08/05/19 Срд 14:29:09 1395675428
>>1395673
Ну соси хуй безработным, хули
Аноним 08/05/19 Срд 15:31:53 1395698429
>>1395675
> безработным
>если уже работаешь в ойти
А ты не очень умный, да?
Аноним 08/05/19 Срд 15:55:35 1395713430
>>1395698
>А ты не очень умный, да?
А иначе зачем ещё я бы сидел ИТТ?
Аноним 08/05/19 Срд 15:56:57 1395715431
>>1395713
Делится опытом и просить совета, например?
Аноним 08/05/19 Срд 15:59:54 1395718432
Аноним 08/05/19 Срд 16:06:21 1395722433
Чому никто не говорит об svm? K-means? Слишком просто? Не нужно? Почему никто не обсуждает imbalanced data? Dataset shift? Overfitting? От качества исходных данных зависит чуть ли не 99% результата.
Аноним 08/05/19 Срд 16:17:49 1395727434
>>1395698
> безработным
>если уже работаешь в макдаке
Аноним 08/05/19 Срд 16:28:06 1395732435
15402964055100.jpg (148Кб, 994x745)
994x745
>>1395722
> Чому никто не говорит об svm? K-means?
Сойбои на коворкинге засмеют. Не модно это.
Аноним 08/05/19 Срд 16:28:07 1395733436
>>1395727
>проекции счётчика бигмаков
Аноним 08/05/19 Срд 16:56:19 1395742437
>>1395733
Блядь, какой же ты тупой. Хули толку от того что ты работаешь в ойти, если спрашиваешь про ML. Единственный более-менее не расчитанный на везение вариант - устроиться в фирму с ML и далее потихоньку горизонтально перебраться. Ты много знаешь контор, где есть дефицит ML специалистов? Я - нет.
Что касается меня, у меня в резюме уже несколько ML проектов и проблем с трудоустройством нет.
Аноним 08/05/19 Срд 17:04:21 1395745438
Поясните за аудиофайлы. Какие из них извлекают признаки, где об этом почитать, в каких библиотеках реализовано? Я в общем то хотел запилить что-то типа генератора узоров под музыку типа как во всяких проигрывателях.
И ещё, чисто из любопытства. А есть ли классификаторы, определяющие по музыке её жанр?
Аноним 08/05/19 Срд 17:12:02 1395748439
>>1395745
Обычно STFT спектрограмму смотрят, в распознавании речи фичи пофичастее используют. А генераторы узоров это как правило спектроанализатор подключенный к рисовалке красивостей, никакого ML.
Классификаторы на гитхабе посмотри, по мне классификация звуков это самая скучная задача, не стоящая времени
Аноним 08/05/19 Срд 17:17:07 1395751440
>>1395742
>Блядь, какой же ты тупой.
Нет, ты.
> устроиться в фирму с ML и далее потихоньку горизонтально перебраться
Спасибо, капитан. Так и делаю, но на это нужно время.
Я уж думал что побыстрее есть.
Раз ты Ыксперт, расскажи, пожалуйста, какие есть проекты, есть ли там что общее или в каждом будет упор на что-то своё?
И что насчёт карьерных перспектив с твоей точки зрения?
Аноним 08/05/19 Срд 17:24:01 1395755441
>>1395732
>На пике ни одного голубоглазого господина
Я рад
Аноним 08/05/19 Срд 17:24:40 1395756442
>>1395742
Что за проекты, можешь кратко рассказать
Аноним 08/05/19 Срд 17:44:14 1395768443
Аноним 08/05/19 Срд 17:45:47 1395769444
Аноним 08/05/19 Срд 18:04:30 1395779445
Истина проста, норм спец нужен везде. Учите лучше
Аноним 08/05/19 Срд 18:14:45 1395781446
>>1395748
Ок, спасибо.
>никакого ML.
Да я в курсе, но мне показалось, МЛщики должны знать про извлечение признаков из аудио. Кстати рисовалки красивостей как устроены?
>Классификаторы на гитхабе посмотри
Даже не знаю, что там в поиск забивать.
> по мне классификация звуков это самая скучная задача, не стоящая времени
Почему? Делаешь кроссвалидацию и подгоняешь гиперпараметры, как и весь остальной МЛ.
Аноним 08/05/19 Срд 21:46:55 1395892447
orig95127955cf3[...].png (1403Кб, 704x1002)
704x1002
Это правда?
Аноним 08/05/19 Срд 22:03:53 1395910448
>>1395892
Россия - родина слонов
Аноним 08/05/19 Срд 22:26:53 1395941449
>>1395892
А ты думал ИИ это технологии 2019 года?
Аноним 08/05/19 Срд 22:29:54 1395946450
103865.gif (100Кб, 500x634)
500x634
Аноним 08/05/19 Срд 23:08:01 1395977451
>>1395892
Нейросетки развиваются с 60-х так, что да.
Аноним 08/05/19 Срд 23:12:10 1395981452
Бумп
Аноним 09/05/19 Чтв 00:29:25 1396045453
>>1395977
>развиваются
хихихи
Аноним 09/05/19 Чтв 00:34:54 1396053454
>>1396045
Скоро тебя зохавают.
Аноним 09/05/19 Чтв 00:40:02 1396059455
>>1396045
CNN + Backprop - это определенный прогресс по сравнению с персептрон+правила хеба
Аноним 09/05/19 Чтв 00:49:51 1396069456
155722318315072[...].jpg (132Кб, 700x875)
700x875
>>1396059
>определенный прогресс
Что тогда ни хуя не распозновало, что сейчас.
Аноним 09/05/19 Чтв 13:25:36 1396332457
Почему при маленьком batch size'е сеть обучается медленно, а при большом - быстро?
Аноним 09/05/19 Чтв 14:04:25 1396354458
>>1396332
Потому что градиент при большом батче ближе к "настоящему" градиенту, очевидно же.
Аноним 09/05/19 Чтв 14:10:24 1396359459
>>1396354
Ты ща допиздишься до того, что BFGS лучше чем SGD
Аноним 09/05/19 Чтв 17:47:53 1396477460
Почему сеть показывает нормальный рейт на валидационных данных (не тренировочных), но плохой на тестовых данных, которые она вообще ни в каком виде ни разу не видела?

Это что, неявное переобучение на валидационных данных?
Пока я дрочил архитектуры и гиперпараметры, сеть таким образом получила слишком много информации из валидационных данных?
Аноним 09/05/19 Чтв 17:55:03 1396484461
>>1396477
Да может быть и такое, плюс проверь какие у тебя данные на тесте, возможно они из другого распределения
Аноним 10/05/19 Птн 00:40:49 1396628462
>>1373612 (OP)
Пока нейроночки обучаются, го в жопы няшится!
Аноним 10/05/19 Птн 16:05:17 1397002463
1392369284673.jpg (70Кб, 600x800)
600x800
Дайте one cycle policy для keras
Аноним 10/05/19 Птн 16:11:38 1397005464
>>1397002
Я тебе дал, но ты сказал, что тебе мало. Если тебе и этого мало - ты очень тупой и тебе рано в deep learning. Впрочем, ты правда тупой, если до сих пор просишь.

max_lr = 2e-3#величина подбирается под сетку плавным ростом lr до максимальной величины
min_lr = max_lr/4
lrs = np.interp(range(200000), [0, 50, 100], [min_lr, max_lr, min_lr], period=100)#у меня пила с шагом 100 вместо one cycle policy, но можно нарисовать любую кривую lr

lrIdx = 0

for epoch in range(number_of_epochs):
....for batch in range(number_of_batches):
........K.set_value(setochka.optimizer.lr, lrs[lrIdx])
........lrIdx = lrIdx + 1
........setochka.train_on_batch(..., ....)
....#здесь можно повалидировать

Вот и все.
Аноним 10/05/19 Птн 16:16:57 1397007465
>>1397005
Спасибо, но как я и писал, там все несколько сложнее.
Меняется не только lr, но и моментум + weights decay.
Плюс изначальные параметры подбираются не отпизды, а другими простыми алгоритмами.
Плюс в конце lr затухает полностью, что с другими параметрами уже не помню.

Вот я и ищу уже готовую реализацию этой хуйни как в фаст.аи.
Аноним 10/05/19 Птн 16:30:14 1397011466
>>1397007
>Меняется не только lr, но и моментум + weights decay.
Это 4 строчки к моему коду. В частости заменить Adam на AdamW, который есть на гитхабе для keras
>Плюс изначальные параметры подбираются не отпизды, а другими простыми алгоритмами.
Ага, что написано в моем комменте.
>Плюс в конце lr затухает полностью, что с другими параметрами уже не помню.
Если ты думаешь, что подобный ахалай-махалай обязательно заработает на твоей сетке, то нет. Я, например не просто так моменты не трогаю, а потому что мне это не нужно. Я и от AdamW отказался
>Вот я и ищу уже готовую реализацию этой хуйни как в фаст.аи.
Да ты просто похоже поверил в мемасики про import slesarplow и уверен, что на все должен быть подобный скрипт. Проблема в том, что если ты подобные простейшие вещи не можешь сделать, как ты исследовать будешь? Одно дело найти на гитхабе реализацию ради экономии времени. А другое дело ныть неделю будучи неспособным написать 10 строчек кода школьного уровня. Пиздец какой-то.
Аноним 10/05/19 Птн 18:27:14 1397126467
14202838325640.jpg (18Кб, 480x360)
480x360
Аноним 10/05/19 Птн 18:34:43 1397131468
Аноним 10/05/19 Птн 18:57:45 1397145469
14363072105490.jpg (71Кб, 900x506)
900x506
Аноним 10/05/19 Птн 20:10:44 1397173470
>>1397145
Чому? Нейронки ты всеравно не осилишь
Аноним 10/05/19 Птн 20:24:19 1397184471
>>1397173
Так я и твой хуй не осилю
Аноним 10/05/19 Птн 20:49:54 1397195472
>>1397184
Зато я осилю твою жопу.
Нагибайся.
Аноним 11/05/19 Суб 02:01:49 1397338473
>>1397195
>Нагибайся
Жестко отожги мой анус градиентным спуском!
Аноним 11/05/19 Суб 08:12:46 1397378474
>>1397338
Адаптивным или стохастическим?
Аноним 11/05/19 Суб 09:17:24 1397386475
15402964055100.jpg (148Кб, 994x745)
994x745
ЛГБТ зумерки не могут в машоб. Алсо, этот ваш ЛГБТ диплернинх это вообще не машинное обучение, а сойбойство простое и понты. Практического применения у этой хуйни нет - негров так и не распознает нормально, а разрисовывание котиков под Пикассо, генерация несуществующих гуков, сельдей и котов уже всем поднадоела, практической же ценности у этой хуйни нет. А у чего есть, то запрещают вовсю, например, подстановка фейковых еблетов на видео, файндфейсы итд. Так что остаётся вам друг другу жопы дергать, а самым успешным - писать рекламную малварь в рекламной параше Яндекс.
Аноним 11/05/19 Суб 09:32:03 1397387476
>>1397386
Файндфейс теперь с ментами работает.
11/05/19 Суб 13:17:19 1397504477
Аноним 11/05/19 Суб 14:43:30 1397585478
>>1397386
А подкрепление совсем не развивается?
Аноним 11/05/19 Суб 14:58:56 1397587479
Screenshot20.png (69Кб, 1887x760)
1887x760
Хуле там вместо графической памяти прочерк?
Это что, инстансы без видеокарты?
Аноним 11/05/19 Суб 16:00:26 1397632480
>>1395748
>по мне классификация звуков это самая скучная задача
Да ну, по-моему ничего интереснее временных рядов в машобе нет. Ну и рл, но это другая опера.
Аноним 11/05/19 Суб 16:56:19 1397681481
>>1397632
Да, но ничего скучнее классификации нет.
Аноним 11/05/19 Суб 23:45:43 1398066482
Так почему всё-таки глубокое обучение работает сильно лучше однослойных перцептронов?
Аноним 12/05/19 Вск 07:39:34 1398199483
>>1398066
Глубокое - несколько слоев перцептронов. Закон перехода количества в качество.
Аноним 12/05/19 Вск 14:53:41 1398327484
>>1398199
>Закон перехода количества в качество.
Ну а научное объянение какое-нибудь есть?
Аноним 12/05/19 Вск 15:09:53 1398336485
>>1398066
Перцепирон не может в xor
Аноним 12/05/19 Вск 15:22:38 1398348486
>>1398327
Полносвязный слой (перцептрон) может эмулировать работу любого другого слоя.
Всякие специализированные слои - лишь урезанные версии перцептрона.
Таким образом, любая современная сеть - это несколько перцептронов.
Аноним 12/05/19 Вск 15:28:12 1398349487
>>1398348
Это всё понятно, вопрос же - почему некоторые задачи удалось решить только наращиванием специальных слоёв.
Аноним 12/05/19 Вск 16:25:01 1398390488
>>1398349
Удачный выбор эвристики слоев - свертки и пулинги, которые были навеяны нейробиологическими исследованиями.
Аноним 12/05/19 Вск 17:44:24 1398434489
>>1398066
Потому что один слой может решать только линейно разделимые задачи. Пиздуй читать cs231n
Аноним 12/05/19 Вск 17:53:45 1398441490
>>1398434
Одному слою можно поставить нелинейную функцию активации и он будет решать не линейные разделения.

Аноним 12/05/19 Вск 18:24:42 1398459491
>>1398441
Не будет. Функция активации просто растягиевает-сжимает пространство вдоль осей после применения преобразования пространства матрицей. Ключевой момент тут - после, а не до. То есть, если у тебя есть допустим функция
y=f(W x + b)
И ты считаешь, что y>0 это один класс, а y<0 - это другой. Но тогда
f(W x + b) > 0 это то же самое что
W x + b > f^-1(0)
То есть ты применяешь функцию, обратную функции активации, к нулевому вектору (получишь либо вектор из нулей, либо вектор из 0.5 - короче какую-то константу) и дальше получаешь линейный класстификтор W x + b
Вот когда у тебя два слоя, все становится веслее, так как после применения функции активации ты скармливаешь следующему линейному слою уже нелинейно искаженное постранство.
Аноним 12/05/19 Вск 18:26:27 1398460492
>>1398459
блять сложно сука, машоб это - import keras as np, а у тебя сатанистская хуйня какая-то
Аноним 12/05/19 Вск 19:00:49 1398489493
>>1398459
А для для других задач машоба?
Аноним 12/05/19 Вск 19:01:24 1398491494
>>1398459
>f(W x + b) > 0 это то же самое что
>W x + b > f^-1(0)
Это, во-первых, бессмыслица, во-вторых даже в одномерном случае верно только для монотонной f.
Аноним 12/05/19 Вск 20:04:26 1398560495
>>1398489
Для других задач функция активации тебе даст немного больше свободы и формально нейронка будет нелинейной (то есть f(x+y) != f(x)+f(y) ), но в целом из-за того, что она применяется поэлементно, особой выразительности в этом не будет.
А когда функция активации применяется не поэлементно, то ты и получаешь многослойную нейронку. Каждый слой это такая ебическая функция активации для предыдущего слоя.
Вот тут много картинок http://colah.github.io/posts/2014-03-NN-Manifolds-Topology/ , они не совсем по этой теме, но дают аппарат для воображения понимать как именно что работает
Аноним 12/05/19 Вск 21:20:35 1398634496
>>1398560
Из того что там написано как раз следует что одного скрытого слоя достаточно.
Аноним 12/05/19 Вск 22:00:43 1398661497
>>1398634
Один скрытый слой - это два слоя, скрытый и выходной, и случай не f(W x + b) , а W1 f(W0 x + b0) + b1 и на этом действительно можно построить нелинейный классификатор. Только за такое и в ебасос получить можно.
Аноним 12/05/19 Вск 22:20:11 1398671498
>>1398661
>Только за такое и в ебасос получить можно
Что не так?
Аноним 12/05/19 Вск 22:26:38 1398673499
>>1398661
Погоди, так перцептроном вроде и называют сеть с одним скрытым слоем минимум. Вопрос то про него и был, без скрытых слоёв это просто логистическая регрессия.
Аноним 12/05/19 Вск 22:31:24 1398679500
Да, блять, наконец-то.
Смог заставить выполняться сеть в ебаном докере на сервере.
Последние версии tensorflow не будут работать с виртуальным процессором. Tensorflow также в принципе не работает с питоном 3.7, макс 3.6.
Аноним 12/05/19 Вск 23:52:24 1398752501
>>1398679
> Tensorflow также в принципе не работает с питоном 3.7,
Всё отлично работает. И в актуальной стабильной и в альфе 2.0
Аноним 13/05/19 Пнд 10:59:14 1398886502
>>1398673
Ок, тогда правильный ответ про ебасос.

>>1398671
Представь себе табличку с колонками вида x1 x2 x3 x4 y. Дальше ты пишешь код в котором интерполируешь хуйней типа nearest neighbor:
yoba(табличка, x) {
x' <- ближайший x в табличке
return табличка[x']
}
Вот с помощью такой таблички можно аппроксимировать функцию с любой точностью, если табличка будет достаточно большой. А значит ты можешь с помоьщю такой табличке проаппроксимировать даже тысячеслойный resnet. Делов-то берешь все возможные варианты картинок 255х255х3, то, что resnet выводит на каждую картинку, и все заебись.
Вот однослойный персептрон, с помощью которого можно аппроксимировать любую функцию, недалеко от такой таблички ушел. Да, в теории с его помощью можно аппроксимировать любую функцию (а значит любая глубокая нейронка может быть представлена в виде однослойного аналога с тем же количеством входов и выходов). Но на практике он будет, во-первых, очень широким. Экспоненциально широким. Возможно даже не влезет в размеры вселенной.
Во-вторых, в ML нас интересует не сама результирующая функция, которая бы тупо равнялась каким-то конкретным значениям в узловых точках, а ее поиск, чтобы он не просто протабулировал твой трейнинг сет, а чтобы он еще и правильно работал на валидейшене. Для этого либо его структура должна быть такой, чтобы закладывались какие-то инварианты, либо твой алгоритм обучения должен эти инварианты накладывать. А у однослойного перспектрона нихуя инвариантов нет. Все влияет на все.
Аноним 13/05/19 Пнд 12:13:26 1398929503
>>1398886
>Вот однослойный персептрон, с помощью которого можно аппроксимировать любую функцию, недалеко от такой таблички ушел.
Ну то что однослойный перцептрон только теоретически разделяет множества это понятно. Вопрос же был по какой фундаментальной причине именно стаканье слоёв помогает. Если не ограничиваться только задачами с конкретными архитектурами, связанными просто с природой самого датасета, как например сверточные сети для распознавания изображений.
>Экспоненциально широким. Возможно даже не влезет в размеры вселенной.
Да не, достаточно взять слой из N+1 нейрона для N нейронов на входе. С математической точки зрения.
Аноним 13/05/19 Пнд 12:38:23 1398941504
>>1398929
> по какой фундаментальной причине именно стаканье слоёв помогает.
Там не простые слои. Обычный перцептрон с десятками слоёв будет просто все усреднять и нихуя им не аппроксимируешь. А в этом вашем ЛГБТ диплернинхе стыкуют по-сути неокогнитроны и свёртки по очереди через один слой. Очевидно, что десяток стыкованных неокогнитронов даже без сверток лучше чем один. К перцептрону в смысле изначальной розенблаттовской модели это все относится очень опосредованно.
Аноним 13/05/19 Пнд 13:09:52 1398955505
>>1398941
>стыкуют по-сути неокогнитроны и свёртки
Ну это же работает только для каких-то задач.
13/05/19 Пнд 13:13:45 1398956506
Аноним 13/05/19 Пнд 13:38:16 1398971507
>>1398929
>Если не ограничиваться только задачами с конкретными архитектурами, связанными просто с природой самого датасета, как например сверточные сети для распознавания изображений.
А как ты этим можешь не ограничиваться? Возьмем датасет, состоящий из рандомного шума, при чем не псевдорандомного, а рандомного. Очевидно, что однослойный подход будет работать лучше всего.

Но любой объект реального мира, с которым работает человек, ведет себя как решение каких-то дифференциальных уравнений и локально подчиняется каким-то простым правилам, последовательно применяемым друг к другу. Скорее всего причина в антропном принципе, если бы физические законы не были просты, то и разумной жизни не могло бы возникнуть. Соответственно идеальный предсказатель должен выглядеть как численный решатель какого-либо дифференциального уравнения. И решения крайне редко выглядят как sum(alpha(Wt+phi)).

На самом деле согласно последней статье про lottery ticket (https://arxiv.org/abs/1803.03635) ширина тоже важна для хорошего initial guess, но без глубины ты нужной мощности точно не получишь.

>Да не, достаточно взять слой из N+1 нейрона для N нейронов на входе.
Исходя из этого, ты можешь аппроксимировать любую одномерную функцию с помощью двух параметров. Это нонсенс. Если ты скажешь, что у тебя хитрая функция активации, то в которую ты спрячешь всю сложность, то функция активации сама по себе одна и та же для каждого выхода, и нонсенс получается уже в двумерном случае.
Аноним 13/05/19 Пнд 17:30:09 1399117508
>>1398971
>Соответственно идеальный предсказатель должен выглядеть как численный решатель какого-либо дифференциального уравнения. И решения крайне редко выглядят как sum(alpha(Wt+phi)).
>На самом деле согласно последней статье про lottery ticket (https://arxiv.org/abs/1803.03635) ширина тоже важна для хорошего initial guess, но без глубины ты нужной мощности точно не получишь.
Ну блин это все философия какая-то. Т.е. насколько я понял до сих пор не известно.
Аноним 13/05/19 Пнд 19:28:32 1399193509
>>1398327
Есть теорема Колмогорова, что композиции линейных комбинаций и нелинейной функции одного переменного уже при вложенности 3 могут аппроксимировать любую заранее заданную непрерывную функцию, но я боюсь призвать шизика. Ну и плюс оказывается, что большие сетки с удачно подобранными архитектурными фичами (свёртки, гейты в LSTM, механизм внимания) начинают на достаточно больших наборах данных извлекать себе признаки.
Аноним 13/05/19 Пнд 19:31:02 1399198510
>>1398491
Много знаешь немонотонных функций активации?
Аноним 13/05/19 Пнд 20:01:45 1399221511
>>1399198
В общем nмерном случае монотонность по каждому аргументу в любом случае ничего не говоритю
Аноним 13/05/19 Пнд 20:28:55 1399240512
>>1399193
> Есть теорема Колмогорова,
Которая гласит, что функция многих переменных может быть аппроксимирована суперпозицией функций от двух переменных?
Аноним 13/05/19 Пнд 21:20:36 1399273513
>>1399117
>Т.е. насколько я понял до сих пор не известно.
Это - известно. Глубокие нейронки выразительнее широких с тем же числом параметров. Почему я написал.
Неизвестно другое - почему обучение градиентным спуском так хорошо работает. Есть предположения, но они не доказаны.
Аноним 14/05/19 Втр 16:14:00 1399756514
>>1387620
Спасибо огромное, мудрый анон
Аноним 15/05/19 Срд 14:33:21 1400451515
Посоны, спасайте
Решаю одну несложную задачку по построению регрессии
Необходимо предсказывать действитлбное число от -1 до 1
Запилил простенькую сетку в керас на 3 слоя, с тангенсами в качестве активационных функций
Все работает как надо, но для того чтобы ее использовать вдиссере необходимо доказать, что данная сетка наиболее оптимальна
Че дальше с ней сделать вообще можно? как улучшить?
Пока поигрался с количеством нейронов, активационными функциями и алгоритмами оптимизации
Может нужно структуру менять или что-тодобавить?

Аноним 15/05/19 Срд 15:45:59 1400528516
>>1400451
Построй RF, SVR с нелинейным ядром, GBDT, OLS, Ridge, Lasso, ElasticNet ,KRR, сравни их с сеткой по 5/10 фолдовой CV или LOO, и на тестовом множестве замерь метрику.
Аноним 15/05/19 Срд 17:17:18 1400642517
>>1400528
спс, основной посыл понял, буду изучать
Получается по сути мы разрабатываем отдельные сетки под конкретные виды регрессии?
Есть какой источник типа книги или учебника, где подробно описано применение инс для решения задач регрессии? Для изучения и чтобы было на что сослаться
Аноним 19/05/19 Вск 04:50:29 1402827518
Здравствуйте, мне в далекой провинциальной шараге задали диплом с темой по нейронным сетям. Мне нужно несколько наборов данных проклассифицировать и добиться неплохой точности на тестовых данных. Я застеснялся отказаться от этой темы, я все проворонил и теперь уже поздно отказываться от темы, ибо в конце мая защита. За это время я читал две книги на русском языке Ф. Шолле Глубокое обучение на Python, Библиотека Keras - инструмент глубокого обучения, посмотрел курс по нейронным сетям на stepic.org, смотрел на youtube серию видео Андрея Созыкина - Глубокое обучение на Python.

После этого я пытался сделать нейронную сеть на Keras, копипастив коды из книжек и гугла, и моя нейронная сеть дает очень плохую точность на тестовых данных. Потому что я не знаю как правильно выбирать число нейронов, количество слоев и другие параметры нейронной сети. И получается ужас.

Подскажите, пожалуйста, какие-нибудь видеокурсы на русском языке или книги, где рассказывается как правильно выбирать количество слоев, количество нейронов, как правильно задавать для нейронной сети значения параметров momentum, learning rate, decay, epsilon, какую выбирать регуляризацию. Помогите!
Аноним 19/05/19 Вск 06:53:39 1402836519
15573789509430.jpg (115Кб, 1280x565)
1280x565
>>1402827
Зумера с профильным образованием не могут в машоб.
> я пытался сделать нейронную сеть на Keras,
Ну тау и почитай книжку от самого автора кераса. Он очень грамотно поясняет за диплернинх в т.ч на практических примерах в керасе. Или ты и в английский не можешь? Это же пиздец, отучиться и ко времени написания диплома даже не понимать что копипастишь, откуда и зачем.
Аноним 20/05/19 Пнд 06:35:05 1403625520
>>1402827
> диплом в конце мая
Тоби пизда, тикай с городу хлопец
Аноним 20/05/19 Пнд 09:10:57 1403641521
>>1402827
>задали диплом с темой по нейронным сетям. Мне нужно несколько наборов данных проклассифицировать и добиться неплохой точности на тестовых данных
Лол, за это диплом дают? А если я какой-нибудь Sphere GAN дома реализовал, мне дадут докторскую степень сразу?
Аноним 20/05/19 Пнд 09:17:02 1403643522
>>1403641
Сначала диплом за классификацию ирисов получи.
Аноним 21/05/19 Втр 03:33:45 1404094523
>>1402836
>Ну тау и почитай книжку от самого автора кераса.
Ладно, спасибо, вроде, это и есть Ф.Шолле, еще раз посмотрю, попробую.

>>1403641
>Лол, за это диплом дают?
>Сначала диплом за классификацию ирисов получи.
Да, дают. Но набор данных с ирисами Фишера взять, естественно, нельзя, можно только те наборы данных, что принудила взять кафедра.
Аноним 21/05/19 Втр 11:19:42 1404163524
Аноны, подскажите годную книжку по методам восстановления нелинейной регрессии с помощью ИНС
Аноним 24/05/19 Птн 01:23:04 1405480525
Можно ли на kaggle увеличить производительность? Готов заплатить за эту хуйню, очень уж там удобно.
Аноним 26/05/19 Вск 13:35:40 1406662526
ПЕРЕКАТ! https://2ch.hk/pr/res/1406660.html
ПЕРЕКАТ! https://2ch.hk/pr/res/1406660.html
ПЕРЕКАТ! https://2ch.hk/pr/res/1406660.html
ПЕРЕКАТ! https://2ch.hk/pr/res/1406660.html
ПЕРЕКАТ! https://2ch.hk/pr/res/1406660.html
ПЕРЕКАТ! https://2ch.hk/pr/res/1406660.html
ПЕРЕКАТ! https://2ch.hk/pr/res/1406660.html
ПЕРЕКАТ! https://2ch.hk/pr/res/1406660.html
ПЕРЕКАТ! https://2ch.hk/pr/res/1406660.html
ПЕРЕКАТ! https://2ch.hk/pr/res/1406660.html
ПЕРЕКАТ! https://2ch.hk/pr/res/1406660.html
ПЕРЕКАТ! https://2ch.hk/pr/res/1406660.html
ПЕРЕКАТ! https://2ch.hk/pr/res/1406660.html
Настройки X
Ответить в тред X
15000 [S]
Макс объем: 40Mб, макс кол-во файлов: 4
Кликни/брось файл/ctrl-v
Стикеры X
Избранное / Топ тредов