Главная Настройка Mobile Контакты NSFW Каталог Пожертвования Купить пасскод Pics Adult Pics API Архив Реквест доски Каталог стикеров Реклама
Доски


[Ответить в тред] Ответить в тред

Check this out!


<<
Назад | Вниз | Каталог | Обновить тред | Автообновление
506 | 34 | 124

НЕЙРОНОЧКИ И МАШОБ ТРЕД №?.3 Аноним 18/04/18 Срд 22:06:10  1176320  
1.jpg (303Кб, 1600x1200)
2.jpg (67Кб, 511x438)
3.jpg (169Кб, 1134x709)
4.png (148Кб, 1218x673)
Очередной тред про хипстерские технологии, которые не работают.
Продолжаем выяснять, кто двигает ноуку: толпы смузихлёбов или фундаментальные деды.

FAQ:
Я ничего не понимаю, что делать? Либо в тупую import slesarflow as sf по туториалам, либо идти изучать математику. Не нужно засирать тред вопросами типа "что такое сигма?".
Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.
Что почитать для вкатывания? http://www.deeplearningbook.org/
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/ | https://www.hackerrank.com/domains/ai
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/ | https://www.general-ai-challenge.org/ | https://corp.mail.ru/ru/press/events/452/
Где работать? https://www.indeed.com/q-deep-learning-jobs.html
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/
Где посмотреть последние статьи? http://www.arxiv-sanity.com/
Где ещё можно поговорить про анализ данных? http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Иначе выгоднее вложиться в 1080Ti или Titan X.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: персептроны и прочий мусор середины прошлого века действительно не работает на серьёзных задачах.

Архивач:
https://arhivach.org/thread/340653/
https://arhivach.org/thread/355442/
Там же можно найти треды 2016-2017 гг. по поиску "machine learning" и "НЕЙРОНОЧКИ & МАШОБЧИК"

Предыдущий тред: >>1162357 (OP)
Аноним 18/04/18 Срд 22:10:34  1176324
BigData.jpg (88Кб, 510x614)
Постите смешное.
Аноним 18/04/18 Срд 22:11:00  1176326
Как подготовить нейроночку к ЕГЭ? Почему это ещё не сделали? Ведь после сдачи ЕГЭ, человек может стать полноценным членом общества. А может и не стать.
Аноним 18/04/18 Срд 22:12:09  1176328
на второй картинке Ричи?
Аноним 18/04/18 Срд 22:14:34  1176332
>>1176328
Бишоп же.
Аноним 18/04/18 Срд 22:15:53  1176334
Какой IQ надо для занятие этим?
Аноним 18/04/18 Срд 22:20:15  1176339
>>1176324
Я??
>>1176326
Тренируйся на ЕГЭ прошлых лет. Удачи!
>>1176334
120+
Аноним 18/04/18 Срд 22:44:46  1176358
5193db0avbey.jpg (70Кб, 947x946)
Ну надо же, самого Маэстро на оп-пик поставили, надо было еще правду жизни пикрелейтед. Тут в конце прошлого треда поступила претензия, что я только хипстеров заочно хуесосить могу, а сам ничего умного не предлагал, здесь бы помогли, бла-бла... Пиздежь же, ну. Я только за последний год не помню уже сколько раз пытался пояснить, как на типизированной лямбде вымутить растущее адаптивное ядро, которое бы не аппроксимировало, а точно представляло задачу любой сложности через суперпозицию наиболее подходящих в данном случае функций, хоть временнЫе ряды ебучие, с которыми любой диплернинх сосет и причмокивает. Толку-то. И то, что я якобы дрочу только на алгоритмы и идеи 60-х, тоже пиздежь. Я ни слова не сказал никогда против действительно прорывного открытия, неважно каких оно годов. Word2vec например, это просто революция по сравнению с тем что было до него в плане векторно-пространственных моделей представления текста.
Аноним 18/04/18 Срд 22:49:35  1176362
Запилите мемес вапника в виде ватника плес
Аноним 18/04/18 Срд 22:53:39  1176364
>>1176358
аноны, можно ли делать предсказания по временным рядам на дипленинхе или нет?
нет времеи въезжать в регрессии все как всегда
Аноним 18/04/18 Срд 22:58:34  1176367
>>1176364
Я в самом начале прошлого треда пояснял, почему диплернинх в этом деле не может быть кардинально лучше какой-нибудь arima, хоть 100500 слоёв сделай и насилуй амазоновский кластер с 100500 gpu.
Аноним 18/04/18 Срд 23:02:43  1176369
>>1176358
>Ну надо же, самого Маэстро на оп-пик поставили
А ведь когда-то давно он всегда там стоял, заметил такую тенденцию
1) Кто то видит новую технологию и создает тред с базовыми вопросами, подтягиваются новички
2) Аноны из треда матереют, тред обрастает подробной шапкой, кто-то даже находит работу
3) Т.к. вопросов становится мало начинается тупой срач, типа, какую картиночку поставить в шапку, тред постепенно загнивает, знающие аноны больше не заглядывают и он умирает
4) Вернись к пункту один
Аноним 18/04/18 Срд 23:08:07  1176373
>>1176320 (OP)
Хорошая у вас шапка, и картинки интересные.

мимо
Аноним 18/04/18 Срд 23:42:53  1176389
>>1176358
>Пиздежь же, ну. Я только за последний год не помню уже сколько раз пытался пояснить, как на типизированной лямбде вымутить растущее адаптивное ядро
Лол, а нахуя ты пытался пояснить? Не похоже, чтобы у его величества нарцисса были бы какие-то проблемы с реализацией. Взял датасет, те же ряды с форекса, написал, предсказал, что, что можно, разбил всех в пух и прах и получил почет и уважение. Однако этого не происходит. Поэтому на самом деле происходит следующее.
Лет десять-пять назад на бордах были такие же петушки как ты, только дрочили на хаскель и лисп. Ничего хорошего не писали, одни короткие программы с какими-то ебическими концепциями. Чуваки эти были днищем - один даже разъебал стекло в подъезде дома в рамках борьбы с системой, но в собственном манямирке они были величайшими хуями на свете. А так как реальность больно бьет по тому факту, что на деле никакого величия нет, то самое время закопаться в какую-нибудь антимейнстримную хуйню и из нее кукарекать.
В конце концов пришло новое поколение, придумало мем "борщехлебы", и хаскель-петушки испарились. На бордах вообще таких фриков дохуя, в любом разделе.
Ну и вот в этой атмосфере родился ты. Возразить тебе сходу не о чем, потому что для этого нужно читать те же рандомные статьи, что читал ты. Сам ты не делаешь ошибок, потому что нихуя не делаешь на публике. Даже с системных ученых, с которыми ты состоишь в переписке, ты считаешь говном, ведь они не читали те же рандомные статьи, а рандомных статей в интернете дохуя.
Аноним 19/04/18 Чтв 00:58:43  1176424
Что-то мне разонравилась курсера аж на 2-ой неделе. Половина вопросов обходится, половина простые - я такое на матстае изучал. В тестах непонятно как вводить ответы, их гайд перечитал дважды. Много воды и повторов. Скажите, продолжать превозмогать или поискать нормальные курсы?
>>1176320 (OP)
>Либо в тупую import slesarflow as sf по туториалам
Это как и что?
Аноним 19/04/18 Чтв 01:36:49  1176437
>>1176389
Таких фриков в интернете толпы. Поехавших по темам квантмеха, теории относительности, различных тем в математике можно найти сотни сходу. Они все абсолютно одинаковые, пытаться вразумлять их бессмысленно и негуманно. У тебя и самого синдром "в интернете кто-то неправ". Какое тебе дело до нечеткого петуха, чо ты его вразумляешь? Ты думаешь, он сейчас такой скажет, мол, а ведь действительно, ты прав чувак, я кретин и постил тут пять (или сколько?) лет подряд ежедневно полную чушь?
Аноним 19/04/18 Чтв 02:13:21  1176445
>>1176437
А у тебя какое дело до меня? Хочу и вразумляю. Ты же знаешь, фриков в интернете толпы.
Аноним 19/04/18 Чтв 02:41:15  1176451
>>1176445
Засираете мой уютный тред своей тупостью.
Аноним 19/04/18 Чтв 07:02:40  1176474
>>1176451
Будешь дохуя кукарекать - засру гомониграми и говном.
Аноним 19/04/18 Чтв 07:23:54  1176477
>>1176474
>гомониграми и говном
Будут распознаны как гетерогориллы и шоколад.
Аноним 19/04/18 Чтв 08:19:53  1176488
>>1176389
Я не знаю о каких "рандомных статьях" ты говоришь, я если что-то упоминаю, то это достаточно общеизвестные вещи.
>>1176437
> Ты думаешь, он сейчас такой скажет, мол, а ведь действительно, ты прав чувак, я кретин и постил тут пять (или сколько?) лет подряд ежедневно полную чушь?
Если бы это была чушь, я бы об этом знал. Или как минимум, это можно было бы доказать. Однако, ничего из этого я не увидел за все время, что тут сижу. Чья-то батрушка это не доказательство.
> нечеткого петуха,
Я давно уже говорю, что нечёткие множества это будущее в т.ч машобчика. И вот, выясняется что квантовая логика (основа квантовых вычислений, за которыми будущее) выразима в терминах нечёткой. И выходим на два стула - использовать готовый математический аппарат, или изобретать полностью равнообьемный ему велосипед. Очевидно, что второе - абсолютно бесполезная потеря времени и сил, т.к все нужное давно существует.
Аноним 19/04/18 Чтв 08:39:03  1176491
>>1176488
>нечёткие множества это будущее
>квантовых вычислений, за которыми будущее
Мамкин оракул в треде
Аноним 19/04/18 Чтв 11:37:28  1176549
>>1176369
> Аноны из треда матереют
я прям чувствую как я матерею здесь. Узнал что такое сумма. Ну а если серъёзно то зря вы на анона агритесь. Он хорошие вещи говорит за регрессии. И объясняет круто. Хороший он человек короче.
Аноним 19/04/18 Чтв 11:56:21  1176560
>>1176451
А я думаю, что он засирает мой уютный тред своей тупостью. Двойные стандарты такие двойные стандарты - тебе критиковать можно, а мне нет.
Аноним 19/04/18 Чтв 12:12:06  1176568
Разнобразие матанопараши
Аноним 19/04/18 Чтв 12:17:34  1176571
>>1176568
Машинное обучение кажется самым простым
Аноним 19/04/18 Чтв 12:21:44  1176576
>>1176571
Его просто еще не успели изговнякать
Аноним 19/04/18 Чтв 15:36:43  1176714
image.png (55Кб, 791x296)
Ъ
Аноним 19/04/18 Чтв 18:30:13  1176821
>>1176424
>это как
Это берёшь либу и без разбора, как там эти методы работают, пиздишь код.
Аноним 19/04/18 Чтв 22:11:56  1176950
>>1176821
Что за либа то?
Аноним 19/04/18 Чтв 22:13:41  1176952
>>1176950
TensorFlow
Аноним 19/04/18 Чтв 22:26:42  1176956
>>1176952
А почему в шапке напсано что-то другое flow?
Аноним 19/04/18 Чтв 22:27:40  1176957
>>1176956
Там в шутку написано слесарьflow
Аноним 19/04/18 Чтв 22:28:14  1176959
>>1176956
Выбирай отечественное!
http://the-flow.ru
Аноним 19/04/18 Чтв 22:29:01  1176960
>>1176956
"Слесарьплов" - местный мемас. Речь об упомянутом гугловском поделии.
Аноним 19/04/18 Чтв 22:35:20  1176964
>>1176960
>>1176957
Все, понял, спасибо, т.е. вместо сраных курсер сразу в бой. Раскошно.
Аноним 19/04/18 Чтв 23:38:18  1176991
>>1176334
После изучения питона тебе потребуется минимум 6 месяцев, чтобы полноценно вкатиться в нейронные сети. Наверное хотя бы iq 100 нужен, но лучше больше, там так много логики.
Аноним 21/04/18 Суб 14:49:19  1177718
СУББОТА В ХАТУ, НЕЙРОНЫ В РАДОСТЬ
https://www.youtube.com/watch?v=hb7tjqhfDus
Аноним 21/04/18 Суб 14:56:42  1177719
>>1177718
А почему биодолбоебы решили, что мозговые нейрогы имееют отношение к мышлению?
Аноним 21/04/18 Суб 15:01:52  1177720
>>1177719
Ты правда тупой или тупостью троллить решил? В обоих случаях дегрод, конечно, просто если правда веруешь в то, что написал, тебе самому должно быть стыдно.
Аноним 21/04/18 Суб 15:03:41  1177721
>>1177720
Мне не стыдно, а тебе каргокультисту должно быть стыдно.
Аноним 21/04/18 Суб 15:06:57  1177722
>>1177721
Ну смотри, есть нейрофизиология. Опровергнуть ее не сможет никто, т.к. это объективные данные. Всякая веруйня же на раз опровергается любой другой веруйней, т.к. одно слово против другого такого же. Ты даже смысла слова "каргокульт" не понимаешь, с чего ты решил, что понимаешь что-то более сложное?
Аноним 21/04/18 Суб 15:13:50  1177725
>>1177722
>Опровергнуть ее не сможет никто, т.к. это объективные данные.
Кокие данные? Если ебнуть там бабахнет здесь? Связь между мышлением и мозгом притянута за уши. Они могут сказать, что на какие то раздражители, будет активна какая то часть мозга, а может и не будет. И каргокульт очень даже подходит, особенно к адептам нейронных сетей.
Аноним 21/04/18 Суб 15:15:10  1177726
>>1177722
он просто думает что мышление живой материи это настолько уникально что её ничем нельзя обьяснить
Аноним 21/04/18 Суб 15:15:23  1177727
>>1177725
>Связь между мышлением и мозгом притянута за уши.
Двачую этого мыслителя жопой.
Аноним 21/04/18 Суб 15:16:56  1177728
>>1177725
Ценное мнение рандомного клоуна с мейлру никому не интересно. Ты просто не знаком с темой, потому что мозгов не хватит, вот и несешь хуйню.
Аноним 21/04/18 Суб 15:23:38  1177730
>>1177728
Кококо, врети111 Мозг черный ящик и ни один вменяемый нейробиолог не скажет, что он знает как это работает. А вот матанопеткшня подменяет факты и хайпит нейронные сети, которые никакого оношения к биологическим нейронам не имеют. По факту, получается, что однозначно связывают нейроны и мышление, люди которые далеки от биологической тематики.
Аноним 21/04/18 Суб 15:26:12  1177731
>>1177726
Ну почему, как насчет того, что живое существо является тонким клиентом, а весь процесс мышления лежит в ноосфере? Мозг только осуществляет связь.
Аноним 21/04/18 Суб 15:27:22  1177732
>>1177730
>>1177731
Охуеть, кокой кросавчег залетел в тред. Откель будешь, мамкин неуч?
Аноним 21/04/18 Суб 15:32:39  1177734
>>1177732
>Откель будешь, мамкин неуч?
На вопросы ответь, уч.
Аноним 21/04/18 Суб 15:33:51  1177735
>>1177734
Уже метнулся кабанчиком, спешу расписать всё по пунктам.
Аноним 21/04/18 Суб 15:36:34  1177736
>>1177730
>Кококо, врети111 Мозг черный ящик и ни один вменяемый нейробиолог не скажет, что он знает как это работает. А вот матанопеткшня подменяет факты и хайпит нейронные сети, которые никакого оношения к биологическим нейронам не имеют. По факту, получается, что однозначно связывают нейроны и мышление, люди которые далеки от биологической тематики.
>
Концепция простая есть входы и выходы, и нейронная сеть учится что-то делать, у живых существ много данных поступает, потому и ведут себя лучше чем нейронносеточные роботы.
Аноним 21/04/18 Суб 15:37:17  1177737
>>1177735
Тогда обтекай нейронами.
Аноним 21/04/18 Суб 15:40:36  1177738
>>1177736
> у живых существ много данных поступает
Это не как не объясняет связи нейрон-мышление.
>нейронная сеть учится что-то делать
Нет, она сохраняет состояние на основе статистики и рендомной магии.
Аноним 21/04/18 Суб 15:42:07  1177739
>>1177737
Ох нихуя, мамкин школотрон ворвался в тренд, высрал пару постов шизопоноса, и всех подебил. Круто, а? Учитесь у школотрона!
Аноним 21/04/18 Суб 15:43:50  1177740
>>1177739
Во первых я не школотрон, во вторых давай по существу.
Аноним 21/04/18 Суб 15:43:56  1177741
школьник.webm (1183Кб, 360x480, 00:00:14)
>>1177738
>Это не как не объясняет
>не как
Уроки иди делай, гений из 5 б.
Аноним 21/04/18 Суб 15:45:01  1177742
>>1177740
>давай по существу
>>1177735
Аноним 21/04/18 Суб 15:46:20  1177743
>>1177738
> Нет, она сохраняет состояние на основе статистики и рендомной магии.
нет, она не сохраняет состояние, а настраивает пропускную способность синопсисов. Это стало возможным благодаря тому что синопсисы стало возможно записывать на магнитные носители. Это твой ответ больше походит на рандом. А вообще жаль конечно что ты такой толстый.
> не как не
В ряду хим элементов пополнение
Аноним 21/04/18 Суб 15:49:47  1177745
>>1177738
Нет никакого мышления, ты только реагироват на раздражители умеешь и делать то чему научился по сто раз, точно как нейронная сетка
Аноним 21/04/18 Суб 15:57:52  1177748
>>1177745
пиздец а если это правда... и мы всего лишь движущиеся камни, собранные высшими существами и развивающиеся по программе
Аноним 21/04/18 Суб 15:58:27  1177751
>>1177748
Гугли демон Лапласа.
Аноним 21/04/18 Суб 16:29:03  1177770
>>1177743
>нет, она не сохраняет состояние, а настраивает пропускную способность синопсисов.
И в чем отличие от сохранения состояния и пропускной способностью?
> записывать на магнитные носители
И что? Ты можешь восстановить из надроченных манясинапсиах данные на которых они обучались?
>В ряду хим элементов пополнение
ну марявановна, ну пазязя
>>1177745
>ты только реагироват на раздражители умеешь и делать то чему научился по сто раз
утверждаешь, что разумное существо не примет решение в ситуации с которой он никогда не сталкивался и не обучался?
Аноним 21/04/18 Суб 16:29:50  1177772
>>1177751
>демон Лапласа.
Сейчас бы мнения матанопетушни по таким вопросам гуглить.
Аноним 21/04/18 Суб 16:31:17  1177774
>>1177772
Ну тогда гугли Откровения Преподобного Васяна.
Аноним 21/04/18 Суб 16:34:34  1177775
подскажите куда катиться для изучения биг даты? Тут уроды спорят за нейроночки и прочее бесполезное говно. На хабре вообще ничего не происходит. А реддит по запросу биг дата - объединение двача и хабра, только на ангельском.
Форумы там, группы вк на крайний случай. Просто посыл на почту к какому-нибудь чуваку. Буду рад всему.
Аноним 21/04/18 Суб 16:35:13  1177776
>>1177774
>Откровения Преподобного Васяна
всякое связное, односвязное, компактное трехмерное многообразие без края гомеоморфно сфере S3
Аноним 21/04/18 Суб 16:35:40  1177777
>>1177775
>для изучения биг даты
статистика
Аноним 21/04/18 Суб 16:37:25  1177781
>>1177776
Читал Бурбаки?
-----
Кремация состоится в субботу, 23 ноября 1968 в 15 часов на «Кладбище случайных величин», станции метро Марков и Гёдель. Сбор состоится перед баром «У прямых произведений», перекрёсток проективных резольвент, бывшая площадь Косуля.
Согласно воле покойного месса состоится в соборе «Богоматери универсальных конструкций», месса будет проведена кардиналом Алефом I в присутствии представителей всех классов эквивалентностей и алгебраически замкнутых тел. За минутой молчания будут наблюдать ученики Высшей нормальной школы и классов Чэня.
Поскольку Бог есть компактификация Александрова для Вселенной — Евангелие от Гротендика, IV,22
Аноним 21/04/18 Суб 16:38:15  1177782
>>1177777
Не, я знаю статистику. Ну так, что проблем не возникает. Знаю вводные в биг дату, хадуп и пару алгоритмов. Максимум чято там используется это умножение матриц, что даже не линейная алгебра, нормы, просто определение, основы тервера, причем совсем простого и основы статистики, причем даже не какие-то оценки и прочее, а просто идея построения гипотез, даже не общих. И это я уже давно пытаюсь что-то откопать, а это вся математика, что мне встретилась.
Аноним 21/04/18 Суб 16:38:59  1177783
>>1177781
>Бурбаки
Нет, я не поехавший.
Аноним 21/04/18 Суб 16:39:53  1177786
>>1177783
Совкодрочер штоле? На западе, в отличии от Союза, их уважали.
Аноним 21/04/18 Суб 16:41:16  1177787
>>1177782
>а это вся математика, что мне встретилась.
ну так это так и есть. Хотя зависит от сортов бигдаты, вот поисковые машины тоже бигдата, но там основной упор на обработку текста и его хранение/поиск, а статистика дело десятое.
Аноним 21/04/18 Суб 16:41:49  1177788
>>1177786
>На западе
поэтому они надрачивали на советскую матанопетушню?
Аноним 21/04/18 Суб 16:42:23  1177789
>>1176320 (OP)
>персептроны действительно не работает
Выходить, нет смысла их изучать?
Что тогда изучать вместо них?
Аноним 21/04/18 Суб 16:42:27  1177790
>>1177787
Спасибо, конечно, за анализ, но есть что-то более общее? В смысле между основами и поисковыми машинами. Что читать и где?
Аноним 21/04/18 Суб 16:43:27  1177791
>>1177788
>матанопетушню
Ты кокой-то мамкин маняпитух, даже разговаривать нормально не умеешь. Поссал на тебя.
Аноним 21/04/18 Суб 16:43:40  1177792
>>1177775
почитай поковыряй sklearn. Всякое желание дальше ковырять тему биг даты пропадёт. И придёшь к нам в нейроночки
Аноним 21/04/18 Суб 16:44:46  1177793
>>1177792
А есть что-то после чего не пропадет?
Аноним 21/04/18 Суб 16:45:35  1177794
>>1177793
нету. это очень задротская тема
Аноним 21/04/18 Суб 16:45:46  1177795
>>1177790
>В смысле между основами и поисковыми машинами
Базы Данных.
Аноним 21/04/18 Суб 16:49:51  1177798
>>1177775
Бигдата начинается там, где заканчивается оперативка. Только и всего. Речь о данных, которые не влезут в имеющуюся оперативу. Остальное ничем не отличается от небигдаты, алгоритмы работы с этим зависят от того, что за дата. Если текст, то NLP итд.
Аноним 21/04/18 Суб 16:54:53  1177802
72617.jpg (55Кб, 700x525)
>>1177798
Я очень часто встречаю в этом треде слово nlp и очень редко , скажем кластаризация.
Еще раз, я понял что такое биг дата, да я и знал впрочем, с определением про оперативку не согласен, важнее время выполнения, а это не совсем одно и то же.
И самое главное, че читать то, куда идти, по каким запросам гуглить. Пока имею только вот это >>1177792 но автор грозится, что это отобьет всякое желание вообще.
Аноним 21/04/18 Суб 16:55:39  1177803
>>1177795
По этому запросу меня выкенет на склуль и прочие непотребства, что мне придется знать, но улубляться в чем я совершенно не хочу.
Аноним 21/04/18 Суб 17:04:56  1177809
15237755775310.png (77Кб, 240x240)
>>1177802
> Пока имею только вот это >>1177792 но автор грозится, что это отобьет всякое желание вообще.
Склерн это просто пистоновская либа с алгоритмами типа SVM итд. Ничего специфического для бигдаты там нет. Ты скажи ты скажии че те надо, че те надо, может дам может дам че ты хошь у тебя задачи какие? Если бигдата как вещь в себе, то всякие хадупы кури, если что-то конкретное, то что именно? Кластеризация? Тогда склерн, ну или карты Кохонена, но векторное квантование сейчас не в моде, хипстеры на коворкинге засмеют.
Аноним 21/04/18 Суб 17:08:47  1177810
>>1177803
бигдата работает с данными, а их где то нужно хранить, хранят их в сортах ов БД, вот и думай.
Аноним 21/04/18 Суб 17:09:54  1177811
>>1177809
ну да непосредственно биг дату он рассматривает как часть обучения, когда даты сильно дохера и она занимает всю оперативку чтобы сфитить модель. И там предлагается некие стратегии как всё-таки всё содержимое твоего винта скормить модели. мимо нуб
Аноним 21/04/18 Суб 17:11:43  1177812
>>1177802
на тебе, типичная биг дата с кучей всего, чего ты не осилишь:
https://github.com/Maxime2/dataparksearch
Аноним 21/04/18 Суб 17:12:33  1177813
>>1177809
>ты скажии че те надо
Найти призвание в жизни и заниматься им.
Мне нравится эта тема и я хочу работать в этой области.
>>1177810
Еще раз, по запросу базы данных я стану мастером скуля, носкуля, еще какого говна, но ни на йоту не приближусь к большим данным. Машины тоже на бензине ездят, но гонщики почему-то на скаважины не ездят обучаться.
Аноним 21/04/18 Суб 17:14:25  1177815
>>1177812
Это же не обучающие материалы.
Аноним 21/04/18 Суб 17:20:37  1177817
>>1177813
>скуля
долбоеба кусук, скуль это язык запроса.
Аноним 21/04/18 Суб 17:22:50  1177823
>>1177813
> Найти призвание в жизни и заниматься им.
> Мне нравится эта тема и я хочу работать в этой области.
Ну если так глобально, иди на либген и качай что там есть по бигдате. Из пары десятков книжек всяко что-то заинтересует.
Аноним 21/04/18 Суб 17:24:40  1177826
>>1177817
И еще раз.
По запросу базы данных я стану профи в скуле или еще чем-то подобном.
>>1177823
Урааа.
Аноним 21/04/18 Суб 18:27:26  1177847
>>1177789
Бамп вопросу
Аноним 21/04/18 Суб 18:34:26  1177849
>>1177847
Слушай больше всяких ебанашек. Перцептроны работают, только это очень неоптимальная хуйня, поэтому на сколько-нибудь сложной задаче встают раком. Ответ на вопрос "что изучать?" прямо вытекает из ответа на вопрос "что тебе надо?". Если машобчик как явление - то все подряд и изучай. ISLR, Бишоп, дальше сам разберешься что нужно, что нет.
Аноним 21/04/18 Суб 18:44:21  1177851
Bishopjpg.jpg (80Кб, 400x546)
>>1177849
Окей, а какие именно серии комиксов нужно прочитать?
Аноним 21/04/18 Суб 19:48:22  1177869
Ничоси у вас тут. Вот вы кормите тралов, думаете это все просто игра. А ведь на кормежку рано или поздно придет шизик из /ссы, и это будет конец треда опять. Он генерит тысячи постов про квалиа, семенит, спорит сам с собой и полностью вытесняет какой-либо другой контент. Я вполне понимаю, что данным сообщением вызову дополнительный интерес, но хочу сразу предостеречь пытливых - стоп. Остальные просто не найдут.
Аноним 21/04/18 Суб 19:56:50  1177873
>>1177869
чё за шизик из ccы/ Где это?
Аноним 21/04/18 Суб 20:22:57  1177881
>>1177731
Не в ноосфере, а квантовом мире. Квантовое сознание. Чего же ты такой не модный.
Аноним 21/04/18 Суб 21:59:01  1177924
>>1177881
Это ты не в тренде. Просвещайся: https://ru.wikipedia.org/wiki/%D0%9D%D0%BE%D0%BE%D1%81%D0%BA%D0%BE%D0%BF
Занимается этим не кто-нибудь, а барин лично: https://ru.wikipedia.org/wiki/%D0%92%D0%B0%D0%B9%D0%BD%D0%BE,_%D0%90%D0%BD%D1%82%D0%BE%D0%BD_%D0%AD%D0%B4%D1%83%D0%B0%D1%80%D0%B4%D0%BE%D0%B2%D0%B8%D1%87
Так что ты лучше того, варежку закрой, пока не обнаружил себя сидящим на бутылке.
Аноним 21/04/18 Суб 22:01:56  1177929
>>1177924
Ссылки бы вставлять научился. Что там? Богоскоп Лайно? Пиздуй с этой дурью на /по/рашу, к машобу это говнишко никакого отношения не имеет.
Аноним 21/04/18 Суб 22:07:56  1177934
>>1177929
А где можно пройти курсы по вставке ссылок на мейлач? Мне на русском надо.
>Богоскоп Лайно?
Он самый.
>дурью
Ты на кого батон крошишь, раб? Совсем рамсы попутал, черт. Твой хозяин сказал, что это надо.
>к машобу это говнишко никакого отношения не имеет.
Сказал так, будто хоть один пост ИТТ имеет какое-то отношение к машобу.
Аноним 21/04/18 Суб 22:29:04  1177952
да пиздец, за сто коментов еще не высрали ниодной формулы
Аноним 21/04/18 Суб 23:31:34  1177996
Что такое гиперпараметры? Почему они гипер, а не просто параметры?
Аноним 22/04/18 Вск 00:07:16  1178028
>>1177996
> Что такое гиперпараметры? Почему они гипер, а не просто параметры?
Гипер потому что это параметры, задаваемые пользователем (например, коэффициент обучения, число слоёв в нейроночке), а не настраиваемые самим алгоритмом (например синаптических веса) в процессе обучения. Т.е это параметры алгоритма, находящиеся над ним. Естественно, то что является гиперпараметром в одной модели, может быть параметром в другой, если он настраивается уже самой моделью.
Аноним 22/04/18 Вск 00:29:05  1178034
>>1176358
>> которое бы не аппроксимировало, а точно представляло задачу любой сложности через суперпозицию наиболее подходящих в данном случае функций
Дебил иди учи уроки, по конечной выборке нельзя ничего точно предсказать, между точками может быть что угодно. PAC методы лучшее, что есть на данный момент, включает неронки. Сходимость по вероятности - это максимум на что можно рассчитывать.
Аноним 22/04/18 Вск 00:45:47  1178045
>>1178034
Он видимо хочет добиться охуительного оверфитинга, и типа вот, УНИВЕРСАЛЬНЫЙ АППРОКСИМАТОР.
Аноним 22/04/18 Вск 09:01:25  1178134
А правда, что нейроночки - смесь карго-культа и математики?
Аноним 22/04/18 Вск 10:05:47  1178143
>>1177770
Оно не решение принимает а реагирует на раздражитель, человек ничего не изобрел с нуля, все создавалось с помошью уже имеющегося опыта.
Аноним 22/04/18 Вск 10:06:51  1178144
>>1177873
кадр из /cc, который все полимеры просрал из-за нейронок, вот и поехал
Аноним 22/04/18 Вск 10:20:44  1178146
>>1177849
>Слушай больше всяких ебанашек
Сука, в оп-посте под спойлером и написано, что для сложной хуйни это говно не работает.
Аноним 22/04/18 Вск 11:07:04  1178150
>>1178144
спасибо. Пойду позову.
Аноним 22/04/18 Вск 12:06:33  1178160
1.png (11Кб, 470x156)
>>1178034
>PAC методы
Ну и каково это, сначала кукарекать против Вапника, а затем ссылаться на сорта его теории? Шизики ебучие.
Аноним 22/04/18 Вск 12:14:01  1178162
>>1178160
>Ну и каково это, сначала кукарекать против Вапника
Кто посмел оскорбить Бога нашего шизика, кто совершил такое святотатство?
Аноним 22/04/18 Вск 12:29:36  1178167
>>1178160
Я вообще об этом молчал ты меня с другим шизиком перепутал
Аноним 22/04/18 Вск 12:39:35  1178171
>>1178167
>>1178034
>по конечной выборке нельзя ничего точно предсказать, между точками может быть что угодно.
Между точками не может быть "что угодно". Там может быть то же, что и в точках - в случае стохастического процесса / процессов - распределение вероятности этих процессов, причем в худшем случае - в виде суперпозиции в общем случае неизвестных случайных процессов. По конечной выборке их восстановить можно только в случае, если все эти процессы детерминированные, разумеется. Чего в реальности не бывает. Однако, их можно аппроксимировать не рандомной функцией, которая само собой не работает даже на минимальной эстраполяции, а суперпозицией функций, наиболее близких к реальному распределению.
Аноним 23/04/18 Пнд 13:50:42  1178227
>>1177775
scala (обычно ее используют), hadoop, h20, spark, kaffka, kubernetes и книжки издательства орайли (oreilly) по данным предметам, для нейронок часто используют всякие обертки на docker + какой-нибудь пакет для машоба (tensorflow, mxnet, pytorch)
Аноним 23/04/18 Пнд 14:13:11  1178232
fuzzylogic!.png (185Кб, 827x727)
Смотрите, чему китайских школьников учат - http://gen.lib.rus.ec/book/index.php?md5=3B640E408D2A9B3AB41CFE50788FC8A0
>This basic book has been used at the middle schools in Shanghai, China for more than 10 years. The book presents carefully-selected contents in order to achieve the roles of enlightenment and popularization.
Вот поэтому Китай в области машобчика в обозримом будущем обгонит пиндосов.
Аноним 23/04/18 Пнд 14:30:56  1178235
>>1178232
НЕЙРОНОЧКИ И МАШОБ ТРЕД. Новости.
В Китае обнаружена жежешечка артемия лебедева первая ферма по выращиванию нечётких петухов. Местный нечёткий петух уже ведёт переговоры с правительством Китая о поставках серийных петухов прямо в наш уютный тред. Мы будем следить за развитием событий.
Аноним 23/04/18 Пнд 14:35:28  1178237
>>1178171
>> Между точками не может быть "что угодно". Там может быть то же, что и в точках - в случае стохастического процесса / процессов
Очень сильное предположение относительно просто выданной обучающей выборки.
>> их можно аппроксимировать не рандомной функцией, которая само собой не работает даже на минимальной эстраполяции, а суперпозицией функций, наиболее близких к реальному распределению.
Это типа перебрать гиперпараметры (семейство функций) по сетке и по CV замерить качество и выбрать лучший? Тогда зачем лямбда, которая здесь является лишней сущностью?
Аноним 23/04/18 Пнд 15:14:43  1178247
>>1178237
>Очень сильное предположение относительно просто выданной обучающей выборки.
Почему? Все равно любой процесс либо заметно влияет на выборку и т.о. его как минимум можно выявить, либо не влияет и т.о. в самой выборке никак не отражен.
>Это типа перебрать гиперпараметры (семейство функций) по сетке и по CV замерить качество и выбрать лучший? Тогда зачем лямбда, которая здесь является лишней сущностью?
Лямбда затем, чтобы эти внешние для модели гиперпараметры стали настраиваемыми параметрами модели, как в случае ядер в SVM. И чтобы структура нужной функции / суперпозиции функций подбиралась сама, а не выбиралась из чего-то априори заданного таблицами итд.
Аноним 23/04/18 Пнд 17:01:53  1178287
>>1178232
А как у них вообще учат математике и информатике?
Аноним 23/04/18 Пнд 17:04:59  1178288
>>1178287
Хорошо.
Аноним 23/04/18 Пнд 17:32:14  1178302
>>1178288
тогда почему проебуют алемпиады?
Аноним 23/04/18 Пнд 18:14:21  1178313
>>1178302
Потому что это бессмысленное задротство ради жестяных кубков и циферок на малоизвестном сайте.
Аноним 23/04/18 Пнд 18:16:12  1178314
>>1178313
>Потому что это бессмысленное задротство ради жестяных кубков и циферок на малоизвестном сайте.
Как ты сейчас точно описал весь нейронодроч на MNIST-е.
Аноним 23/04/18 Пнд 20:24:06  1178385
А вот интересно, может ли нейроночка распознать капчу на дваче?
Аноним 23/04/18 Пнд 20:28:02  1178386
>>1178385
Нюфаня, этим ещё сто лет назад баловались.
https://github.com/Kagami/chaptcha
Аноним 23/04/18 Пнд 21:00:28  1178410
>>1178386
тогда в чём смысл качп, если они так легко ломаются?
Аноним 23/04/18 Пнд 21:15:38  1178421
>>1178410
1) Гуглокапчу для того и ввели, 2) средний двощер не осилит ничего сложнее программы с большой кнопкой "сделать заебись", 3) надо собирать тренировочный сет, 4) возможно, для массивного вайпа это не подойдёт из-за доп. нагрузки на систему (хотя, наверное, зависит от реализации), 5) все охуевшие ловят бан подсети, остальные сидят и не вякают.
Аноним 23/04/18 Пнд 22:50:52  1178468
>>1178410
Чтобы школьники не вайпали, допетрив до скрипта постинга говна в цикле. Более же взрослым людям нахуй не всралось тратить время на вайп мочана.
Аноним 23/04/18 Пнд 22:52:52  1178472
>>1178386
пиздос, даже в демке обосраслись. воистину, нейропараша ждля пидарасов.
Аноним 23/04/18 Пнд 23:10:20  1178481
>>1178472
Как там дела у дедовских методов с точностью на искажённых данных?
Аноним 23/04/18 Пнд 23:14:10  1178485
Где найти БД картинок машин, где видно номера? Пробну сделать распознаватель номеров.
Аноним 23/04/18 Пнд 23:28:24  1178498
>>1178481
>искажённых данных
наркоман, где там искаженные? на развороте страницы при сканировании больше смещение
Аноним 23/04/18 Пнд 23:32:35  1178502
Z0bm5.png (16Кб, 640x480)
17pQD.png (86Кб, 640x480)
Подскажите как можно объединить точки с первой пикчи в линии идущие от левого края картинки к правому (лишние надо выкинуть).

Исходные данные - вторая пикча. Мне, по сути, надо распознать горизонтальные кривые линии на изображении. Подкиньте идей, вообще не пойму с чего начать.

На первом пике выделены "локальные максимумы" столбцов второго изображения.
Аноним 24/04/18 Втр 02:29:12  1178572
https://www.youtube.com/watch?v=gg0F5JjKmhA
Аноним 24/04/18 Втр 02:45:47  1178577
Сделайте что ли телеграм чат.
Аноним 24/04/18 Втр 02:59:27  1178580
Убер нехило ускорил нейроэволюцию на Атари: https://eng.uber.com/accelerated-neuroevolution/
Аноним 24/04/18 Втр 06:54:58  1178618
>>1178502
Это сейсмика?
Если да, оставь фейкомыло
Аноним 24/04/18 Втр 10:34:05  1178664
>>1178618
fake2404@yandex.ru
Аноним 24/04/18 Втр 10:36:22  1178665
>>1178572
Ну всё, через пару недель ждите раздевающие тянок мобильные приложения
Аноним 24/04/18 Втр 11:36:19  1178687
>>1178577
А оно надо кому? Его ж модерировать придётся, чтобы стикеры с цп не лили и проч.
оп
Аноним 24/04/18 Втр 12:35:42  1178724
>>1176320 (OP)
>3 пик
А что есть тело?
Аноним 24/04/18 Втр 12:43:00  1178731
>>1178724
Математика, наверное.
Аноним 24/04/18 Втр 13:12:11  1178747
сделать бы каталок баз с картинками
Аноним 24/04/18 Втр 14:33:48  1178795
>>1178577
+15
Аноним 24/04/18 Втр 19:39:20  1178977
Кто-нибудь может прогнать у себя этот датасет?
У меня почему-то выдаёт только одну мышь.
ЧЯДНТ
https://yadi.sk/d/SJhYyKs_3UjRCb
Аноним 24/04/18 Втр 20:33:11  1179006
Посоветуйте годных учебников по теории вероятностей и статистике!
Чтоб для самых маленьких и тупых. Мой бэкграунд: школа.
Аноним 24/04/18 Втр 20:34:51  1179009
>>1179006
Вентцель, "Теория вероятностей".
Аноним 24/04/18 Втр 20:39:48  1179014
>>1179009

Спасибо
Аноним 24/04/18 Втр 22:04:03  1179098
>>1179022
Не нужно.
Аноним 25/04/18 Срд 14:33:46  1179387
>>1179006
>Мой бэкграунд: школа.
Ты не прогуливал что ли?
Аноним 25/04/18 Срд 17:35:51  1179490
Хочу пилить ИИ для игр (не танчики, а серьезные направленные на это проекты вроде http://www.botcolony.com , но для начала как-то попроще), и возникает вопрос на какой стул садиться. Большинство игровых проектов не ААА сейчас пишутся на луа, но тут проблема с библиотеками для нейроночек. Зато с ними все просто замечательно на питоне, на котором игорей не пишут. Правильный ли я делаю вывод что нужно вкатываться в торч на плюсах?
Аноним 25/04/18 Срд 18:15:46  1179517
152405622912875[...].jpg (16Кб, 400x222)
>>1179490
>ИИ для игр
>серьезные направленные
Аноним 25/04/18 Срд 18:29:43  1179521
>>1179517
Ты бы погуглил что-нибудь типа "game industry revenue", что ли. Или ты очередной илитист с пхд по серьёзности с двача?
мимохуй, не играющий в игры
Аноним 25/04/18 Срд 18:43:02  1179532
>>1179517
Почему-то не выдерживаю её взгляда. Про оригинальное видео вообще молчу, мне стыдно это смотреть.
Аноним 25/04/18 Срд 18:56:35  1179541
>>1179521
ИИ для игорь это что то на уровне ясель
Аноним 25/04/18 Срд 19:03:07  1179546
>>1179490
> на луа, но тут проблема с библиотеками для нейроночек
Торч на луа же.
Аноним 25/04/18 Срд 19:45:38  1179573
>>1179546
Теперь живем, мой милый на луа пишет, могу нейроночки приделывать!
Аноним 25/04/18 Срд 22:17:47  1179697
Что можно прочитать про обучение RNN? Посмотрел лекцию, там сказали, что обратное распространение ошибки не работает нихуя. В одной статье нашёл обучение через генетически алгоритм, лол.
Аноним 25/04/18 Срд 22:21:17  1179701
>>1179490
Всё в этом посте неправильно. Не программируй никогда.
Аноним 25/04/18 Срд 22:23:08  1179704
>>1178665
Сам сделай, хули. Всего то надо на силуэт натянуть модельку голой тёлки.
Аноним 25/04/18 Срд 23:38:23  1179752
>>1179490
да тут больше инженерная задача. имхо есть смысл поэксперементировать с процессами и расшаренной паматью. например вкатываешься в питон, делаешь сервак в котором крутится модель. Игруля птшется на любом языке и просто имеет апи через который взаимодействует с процессом которым управляет змеиный интерпритатор. Еще сейчас намечается тенденция глобализации в програмаче. неисключено что популярные игровые фрйемворки выкатят некие инструменты по компилированию моделей из питоновсеих либ в свои экоситьемы. Так что если всерьез думаешь об ии начинать имеет смысл с питона ввиду большего количества обучалок и документации от сообщества
Аноним 26/04/18 Чтв 00:48:49  1179793
>>1179697
Гугли LSTM и GRU.
Аноним 26/04/18 Чтв 07:16:15  1179842
Как же хочется стажировочку...
Аноним 26/04/18 Чтв 09:32:03  1179864
>>1179697
диплернингбук и ссылки из нее.
Там коротко и про то, что градиенты нужно клипать, и немного других базовых вещей.
Аноним 26/04/18 Чтв 09:39:59  1179866
>>1179697
attention is all you need
Аноним 26/04/18 Чтв 12:12:12  1179921
Можете объяснить, что такое свёрточная сеть своими словами, позязя?
Аноним 26/04/18 Чтв 12:34:59  1179939
так же еще один тупой вопрос
можно ли натренировать нейронку на датасете из 15 картинок?
Аноним 26/04/18 Чтв 12:56:48  1179962
>>1179921
Перцептрон знаешь? Вот взяли перцептрон и его построчно по картинке двигают.
>>1179939
Можно ли научить тебя распознавать класс "животное", если тебе покажут только кота, ворону, жопу осла, и дохлую рыбину?
Аноним 26/04/18 Чтв 12:57:49  1179963
>>1179921
Короче бля, тебе дают массив весов размером 3 на 3, ты умножаешь на эти веса область данных 3 на 3, суммируешь, в среднюю записываешь результат. Так как ядер свёртки разное количество и всё это пуляется и прогоняется ещё раз, а потом ещё и накрывается посносвязным слоем, такие значения в итоге подают на нейроны как-то невъебенно перекодированную информацию об расположении значений, об их последовательностях.
Аноним 26/04/18 Чтв 12:59:29  1179965
>>1179939
Смотря какие картинки и что распознавать. Но вообще наврятли, скорее обучишь её распознавать эти 15 картинок.
Аноним 26/04/18 Чтв 13:01:35  1179967
>>1179962
>Можно ли научить тебя
Вполне.
Аноним 26/04/18 Чтв 13:03:25  1179970
>>1179967
Если перед этим ты не видел вообще никаких животных?
Аноним 26/04/18 Чтв 13:05:31  1179977
>>1179939
Да, можно.

Надо просто напихать побольше слоев, и сделать все нейроны линейными для ускорения обучения и избежания оверфитинга
Аноним 26/04/18 Чтв 13:05:39  1179978
>>1179970
Ты недооцениваешь интеллект ребенка. Он вполне сможет сделать вывод, что все что выглядит как живое и не является человеком, является животным.
Аноним 26/04/18 Чтв 13:11:03  1179982
>>1179978
Перед этим ребенку нужно запомнить человека и окружающую среду, чтобы все незнакомые движущиеся объекты, методом исключения, отнести к живым.
нейросеть такой возможности не имеет.
Аноним 26/04/18 Чтв 13:12:05  1179984
>>1179982
Поэтому твоя аналогия не корректна.
Аноним 26/04/18 Чтв 13:14:15  1179986
>>1179977
спасибо! Какие еще будут инструкции?
Аноним 26/04/18 Чтв 13:33:58  1180007
Что делать если меня взяли за жабры в универе? Мне задали сделать задачу регрессии с помощью нейронной сети. Я взял нейросетевую библиотеку Keras, пытался сделать 3-5 слоев с десятками нейронов. Нихуя не вышло, тогда я психанул и сделал 12 слоев и в каждом по нескольку сотен нейронов. Всё вышло охуенно, я показал результат в универе и старушка-препод была в восторге и думала, что я невъзебенный ботан и познал матан.

Теперь старушка-препод сказала, чтобы я описал нейронную сеть и описал сколько там слоев и нейронов.

А что теперь делать? Так и сказать, что у меня 12 слоев с тремя тысячами нейронов?
Аноним 26/04/18 Чтв 13:47:49  1180017
>>1179962
>Можно ли научить тебя распознавать класс "животное", если тебе покажут только кота, ворону, жопу осла, и дохлую рыбину?
Да.
Аноним 26/04/18 Чтв 13:57:37  1180021
>>1180017
Я выше написал для дегенератов - сравнение с другими известными образами и классификация методом исключения не считается.
Аноним 26/04/18 Чтв 16:46:00  1180133
>>1180007
>> Так и сказать, что у меня 12 слоев с тремя тысячами нейронов?
Да, построй еще графики ф-ии потерь на валидации и трейне и покажи бабуле, что не переобучился.
Аноним 26/04/18 Чтв 18:21:24  1180195
>>1180007
>пытался сделать 3-5 слоев с десятками нейронов. Нихуя не вышло, тогда я психанул и сделал 12 слоев и в каждом по нескольку сотен нейронов. Всё вышло охуенно
Вся суть диплернинга же.
Аноним 26/04/18 Чтв 18:23:06  1180199
>>1179939
См. работы по метаобучению. Популярный датасет omniglot, например, содержит всего несколько примеров для каждого класса.
Аноним 26/04/18 Чтв 19:32:57  1180221
И всё-таки как обучать RNN?
Аноним 26/04/18 Чтв 19:36:03  1180226
>>1180221
Никогда не поверю, что это какая-то военная тайна и на каждом углу (слесарьплов, керас, ...) нет конкретных примеров. Сдается мне мил человек, это тебя обучать как-то надо, а не эту нейрон очку.
Аноним 26/04/18 Чтв 19:38:57  1180229
>>1180226
Тащемта правда тайна. Найти можно только абстрактную хуйню про то, что нужно все веса по одному значению считать или что это возможно только с генетическими алгоритмами.
Аноним 26/04/18 Чтв 21:25:50  1180289
>>1180221
Ребята, не стоит вскрывать эту тему. Вы молодые, шутливые, вам все легко. Это не то. Это не Чикатило и даже не архивы спецслужб. Сюда лучше не лезть. Серьезно, любой из вас будет жалеть. Лучше закройте тему и забудьте, что тут писалось. Я вполне понимаю, что данным сообщением вызову дополнительный интерес, но хочу сразу предостеречь пытливых - стоп. Остальные просто не найдут.
Аноним 26/04/18 Чтв 22:48:12  1180333
>>1180226
> это тебя обучать как-то надо, а не эту нейрон очку.
И как же?
Аноним 26/04/18 Чтв 23:16:50  1180354
Здорова, пацаны. Перекатываюсь к вам из пхп. Заебало слесарить проблемы уровня «отчёт не пришёл пушо кто-то поломал статистику с индексами в базе». Хочу жить поближе к бизнесу.
Имейте в виду, короче, конкуренция растёт.
Аноним 27/04/18 Птн 00:06:47  1180369
>>1180221
Есть смысл юзать только для последовательностей входных данных, и то периодически, например, в данных с финансовыми кривыми, иногда лучше использовать 1D свёрточные. А можно комбинировать.
Обучение просто работает через backprop in time, та же самая херня как с обычным backprop (Chain rule), только распространяется на время.
Но там трабл в том, что есть Vanishing gradient проблема, то есть если нейронов много, то градиент пидорасит и нейронка перестаёт вообще понимать, что происходит в этой ёбаной жизни. И для фикса этой проблемы юзают GRU\LSTM, которые с помощью специфичной реализации контроля запоминания\забывания входных данных могут блочить всякую ненужную инфу, которая в них попадает, при том ещё и запоминая далеко отстоящие связи.

Итого:
Гугли backprop in time, vanishing gradients. По ЛСТМам на архиве есть статья неплохая, вроде бы, с участием Bengio, но там довольно жоска, если не читал другой литературы.
Аноним 27/04/18 Птн 02:02:01  1180394
>>1180354
Мдауш.
Аноним 27/04/18 Птн 05:48:18  1180411
>>1180354
Ну такое. Хороший пыхарь знает Си, человек знающий Си знает всё.
Аноним 27/04/18 Птн 06:05:02  1180412
>>1180411
Сишник, если он знает только С, сосет хуец в функциональшине.
Аноним 27/04/18 Птн 06:54:21  1180414
>>1180412
Знающий Си знает все языки программирования априори, ему ничего не стоит изучить новый, разве нет?
Аноним 27/04/18 Птн 09:32:23  1180429
image.png (225Кб, 400x376)
>>1178143
Аноним 27/04/18 Птн 09:56:58  1180437
15224620502200.jpg (47Кб, 512x680)
>>1180429
Вот ты думаешь, что умный, раз Канта запостил, а на самом деле ты еблан, и я это докажу. ЦНС человека не с нуля появилась, а в ходе миллионов лет эволюции. И возможность априорных суждений это свойства ЦНС. Нейровизуализацией показано, что априорные интуиции пространства и времени зависят от предсуществующих структур в rIPC, нижней префронтальной коре. Да, все это работает у новорожденных и опыта не требует, вот только новорожденный это продукт взаимодействия геномов своих родителей, а не собранный с нуля биоробот. А вот веса нейрон очки это именно взятые более менее с потолка значения и не зависят от предсуществующих нейроночек. Поэтому сравнивать такие вещи с человеком это глупость либо толстота.
Аноним 27/04/18 Птн 10:32:09  1180451
>>1180437
>все создавалось с помошью уже имеющегося опыта.
>возможность априорных суждений это свойства ЦНС.
Так априорные синтетические суждения возможны или нет? Почему ты противоречишь сам себе?
Аноним 27/04/18 Птн 10:47:01  1180457
>>1180437
Как тогда люди учатся водить машины, допустим? Ведь у предков людей их не было. Точно так же могу сказать про чтение, письмо, сложение-вычитание, да и вообще про способность абстрактно мыслить - это уникально для человека, за исключением пары других видов у которых это развито примитивно.

Плюс, твои утверждения в корне ошибочны, ибо по твоей логике каждый человек по дефолту способен на все то на что способны другие люди, что в корне неверно. Ребенок выросший в лесу слабо похож на своих сверстников.

То что ты говоришь касается лимбической системы, допустим, она не осознана и выполняется в нашем мозгу как программа свернутая в трей, и формируется она еще со времен динозавров, но, так сказать, уровень сознания у каждого человека уникален, в т.ч потому-что для каждого индивида эволюция мозга своя, и каждый индивид проживает уникальную жизнь, только в общих чертах похожую на жизнь всех остальных.
Аноним 27/04/18 Птн 11:37:48  1180467
>>1180451
> Так априорные синтетические суждения возможны или нет?
Возможны. Только они представляют собой не то, что ты думаешь.
> Почему ты противоречишь сам себе?
Это ты думаешь, что противоречу. На самом деле противоречия тут нет.
>>1180457
> Как тогда люди учатся водить машины, допустим? Ведь у предков людей их не было.
Потому что кроме безусловнорефлекторной деятельности есть ещё условнорефлекторная.
> То что ты говоришь касается лимбической системы,
Нет, конечно же.
> Плюс, твои утверждения в корне ошибочны, ибо по твоей логике каждый человек по дефолту способен на все то на что способны другие люди, что в корне неверно.
Во-первых, это не мои утверждения, а данные нейровизуализации. Во-вторых, это твоя, а не моя логика, я ничего подобного не утверждал, и из приведенных мной фактов ничего подобного не следует.
Аноним 27/04/18 Птн 13:30:25  1180490
>>1180437
Но ведь всей этой писанины можно было избежать, ведь канта пидор...
boosting vs bagging? Аноним 27/04/18 Птн 14:46:46  1180515
Няши, есть ли где-то исследования о: boosting vs bagging?
Не является ли bagging более продвинутым алгоритмом (хотя он и проще) хотя бы потому что он не может уйти в редкие цепочки вида (A>N1)&(B<N2)&(B>=N3)&(...) ? Покрывает ли boosting всё алгебраическое множество, когда положительные результаты в диаметрально противоположных углах пространства? Например (A>0.95)&(B>0.95) и (A<0.05)&(B<0.05) ?
Аноним 27/04/18 Птн 15:38:14  1180535
>>1180457
Вот это научпоп.
Аноним 27/04/18 Птн 19:30:10  1180614
151629721280.jpg (771Кб, 857x1200)
1) Если набор фич x_train[:N] кажется мне более важным чем x_train[N:], как мне увеличить его вес при обучении нейроночки?
2) Как и чем лучше крутить ручки гиперпараметров? Стоит ли использовать что-то кроме RandomizedSearchCV? Как лучше определять в какую строну крутить?
3) Есть ли механизм нахождения важности фич менее топорный чем считать mean фичи и заменять им весь столбик чтобы проверить насколько упадет аккураси?
Дяденьки матаноняши, не набрасывайтесь на меня, как только научусь пользоваться тем что есть, так сразу ударюсь в теорию чтобы раздвигать горизонты самостоятельно.
Аноним 27/04/18 Птн 22:27:04  1180715
>>1180614
1) Зачем? Нейронка сама определит, какие фичи важные, а какие нет, если собрана архитектурно адекватно. Если ты про диплёрнинг, конечно.
Если ты про простые модели, то тут очень важно тщательно продумывать, что нужно пихать в нейронку, а без чего можно обойтись.

! Вообще совет насчёт датасетов. Вникай в задачу логически как человек. С чем и что может объективно коррелировать. И там уже отбирай нужные фичи, выкидывай ненужные.

2) Уточни вопрос. Я, конечно, могу почитать эту тему, но скайкитом я не пользуюсь, поэтому быстрее будет, если ты объяснишь это абстрактно.

3) Логически думаешь, что важно, а что нет. Матлаб автоматически, например, пытается исключать определённые фичи и даже предлагает это вручную делать.
Аноним 27/04/18 Птн 23:07:03  1180796
>>1180715
3) В датасетах с которыми я работаю какая-то часть фич вообще не интерпретируется, а влияние остальных невозможно предсказать логически, разве что объеденив в группы, которым я хочу задать разные веса.
1) Особенность задачи и то что я хочу предварительно натренировать нейронку на немного других данных.
2) Это то же самое что перебирать комбинации гиперпараметров из таблицы (как в GridSearchCV), только в RandomizedSearchCV ты задаешь количество комбинаций и можешь вводить параметры диапазонами.
Суть в том что находились статьи где описывались методы умнее чем тупо перебор без оптимизации поиска, но на практике никто (в статьях и коде на гитхабе не топ-уровня-такого-что-я-не-пойму) их не применяет.
Аноним 28/04/18 Суб 01:56:36  1180901
>>1180796
Ну на самом деле как ты понимаешь, суть формирования модели это подгонка весов под некоторую оптимальную комбинацию.
Не знаю, есть ли что-то такое в скайките, но в Керасе\Тензоре можно настроить нетренируемость слоёв определённых. Если попробуешь поизвращаться с кодом на тензоре или будешь писать нейронку с фундамента, то сможешь залочить какие-то параметры после некоторого числа итераций.
Есть ещё опция с тем, что можно задать самому какие-то веса заранее, а можно вообще загрузить из некоторой стадии обучения.

1) Если хочешь на других данных - очень сильно зависит от типа нейронки, уточни. Потому что для тех же CNN можно какое-то число первых слоев свёртки и макс-пула оставить нетренируемыми после обучения на другом датасете, так как они содержат фильтры примитивов на картинке. А дальнейшие слои перетренировать, чтобы более специфичные для задачи паттерны выделить.
С теми же RNN это так скорее всего не сработает, но попытаться можно, маловероятно.

2) На самом деле всякие оптимизации по параметрам довольно сложно вычленять. Честно говоря это в основном приходит с опытом, видишь одну фичу на плоте - понимаешь, что то-то и то-то может быть проблемой. Обычно здесь говорят так: "Прочекайте основные логичные предположения, потом перебирайте"
Можешь почитать что-нибудь вроде книжки от создателя Кераса по МЛ, там есть пару фич. Или курс на курсере от Ынга глянуть, он тоже некоторые такие признаки выдаёт, что и где подкручивать.
Если признаки не помогают, то обычно тут помогает только тык с отсылками на логику задачи.

3) Можешь привести пример данных, которые нельзя интерпретировать? (Желательно ещё контекст задачи) Если хочешь разделить на несколько весовых групп, то попробуй просто в ручную загрузить веса с некоторой рандомизацией в каждый из твоих условных блоков. Только обязательно регуляризацию сделай, а то эффективность может люто упасть.
Аноним 28/04/18 Суб 06:14:58  1180929
Гиперпараметры потому так и называются, что нет алгоритма для их эффективного подбора. Иначе бы это были просто параметры алгоритма. Даже такую простую вещь как learning rate невозможно определить заранее, нужно пробовать разные и смотреть как получается, т.е. фактически перебором. С опытом начинаешь замечать признаки, по которым можно определить некоторые стандартные проблемы, например слишком высокий learning rate. Для SOTA результатов все равно решает перебор, в т.ч. перебор по архитектурам, которые тоже на самом деле гиперпараметры. В частности, на кагле суть работы сводится к feature engineering и подбору гиперпараметров, довольно нудное занятие как по мне.
Аноним 28/04/18 Суб 07:13:39  1180932
>>1180929
> Гиперпараметры потому так и называются, что нет алгоритма для их эффективного подбора.
Это проблема функции потерь на самом деле. Если использовать полтора стандартных варианта ,известных хипстерам, то да, задача не то чтобы нерешаема, просто решение скажем не будет поражать качеством. Нужны более комплексные оценки качества решения задачи, чтобы не только среднеквадратичные отклонения считал, но и устойчивость решения на экстраполяциях итд. Что-то по типу комбинированных критериев Ивахненко. Но это для хипстров сложна.
Аноним 28/04/18 Суб 07:59:55  1180940
>>1180932
Ну и как тебе более другая функция оценки качества решения поможет подобрать значения десятков гиперпараметров, таких как количество слоев, типов слоев, нейронов в слоях (и это мы еще даже не затрагиваем более экзотические архитектуры, не укладывающиеся в концепцию слоев), типы нелинейных преобразований, проценты дропаута, тип оптимизатора и его параметры, вид схемы инициализации весов сети и ее параметры? Установи любой из этих гиперпараметров неправильно, и вообще ничего не натренируется.
Аноним 28/04/18 Суб 08:40:01  1180944
>>1180940
> Ну и как тебе более другая функция оценки качества решения поможет подобрать значения десятков гиперпараметров, таких как количество слоев, типов слоев, нейронов в слоях (и это мы еще даже не затрагиваем более экзотические архитектуры, не укладывающиеся в концепцию слоев)
Очевидно, что все это говнишко не нужно, все равно там одно шаманство, для которого даже vc-размерность не найдешь. Можно взять простую модель, скажем SVM, и усложнять только ядро, так чтобы оно возможно более точно представляло функции идентифицируемой системы. С другой стороны, если человек с опытом может подобрать гиперпараметры нейроночки, значит это алгоритмически разрешимая задача и решается подходящими эвристиками (а не тупо брутфорсом).
Аноним 28/04/18 Суб 12:22:13  1180982
d5d248a949f7a36[...].png (2264Кб, 1400x1000)
>>1180901
С таким функционалом как я хочу попробовать, кажется, проще действительно переписать модели самостоятельно.
1) В моем случае нейронка тоже гиперпараметр, вот попробую и посмотрю что взлетит.
2) Кажется, в тех случаях что ты написал все советы можно свести к тому чтобы построить гистрограммы метрики каждой фичи по хистори поиска гиперпараметров и если максимальное значение не в середине - то раздвинуть поиск в нужном направлении. Тоесть, если подбирается 5 гиперпараметров, то рассматривается каждый отдельно и если для какой-то условной С = [0.01, 0.1, 1, 10, 100] выше всего значения метрик были не при С = 1, а при С = 100, то добавить еще С = 1000 и С = 10000, затем повторить наблюдение.
3) Например, нельзя интерпретировать хеши. Были какие-то строки разного размера, по которым я специальным алгоритмом строю бинарные репрезентации длинной ровно N бит. Теперь нельзя сказать что означает значение какого-то конкретного бита. Плюс к этим хешам добавляются еще варианты репрезентаций тех же строк, какие-то я считаю более важными, какие-то менее, но все же необходимыми. Плюс, я знаю что нейронка вероятно будет забивать на какую-то часть фич, потому что она разделяет данные не так явно (на начальных этапах), поэтому нужно реализовать например дропаут сильной части фич, чтобы модель училась и на слабой.
>>1180929
Про алгоритм я понимаю, но может быть можно как-то оптимизировать процесс чисто инженерными решениями, например, тот же GridSeachCV из dask-ml возможно работает быстрее чем из sklearn. Таким образом, мой вопрос сводится к тому какую функцию какой библиотеки выбрать для того чтобы находить гиперпараметры в моем манкикоде.
>>1180944
Знаешь почему хипстеры заполонили? Потому что когда кто-то новенький пытается вкатиться, он не идет сразу на арксив читать последние фундаментальные исследования, он хочет попробовать написать что-то по понятным инструкциям, повторить с какими-то незначительными вариациями для своих данных что-то подробно описанное. И когда он ищет эти инструкции, ими оказываются исключительно хипстерские поделки от реддита до видосиков на ютубе где школьник поясняет за шмот и то как напихать слоев чтобы получился диплернинг. Знаешь что тогда делает ньюфаг? Он повторяет хипстеркий подход и тут же описывает свой опыт в бложеке чтобы остальные могли повторить. Матаноняш, я какое-то время слежу за тредом и ты никому не помог и не написал ни одного гайда по которому можно было бы вкатиться в твою религию.
Пожалуйста, напиши что-то конструктивное чтобы помогло и работало (например, что делать со страшной SVM кроме хипстерского перебора гиперпараметров из вариантов в sklearn, хотя бы как найти нужное ядро), или начни подписываться чтобы тебя можно было скрыть.
А вообще я хочу чтобы хоть кто-то меня учил, а не только показывал насколько больше знает чем я. Или хотя бы чтобы учился вместе со мной.
Аноним 28/04/18 Суб 13:54:52  1181021
>>1180982
2) Да, можно сделать в таком духе.
3) Думаю, что можно попробовать сделать две нейронки сходной архитектуры, в одну впихнуть важные параметры, в другую те, что ты считаешь менее важными. Потом присоедить эти две нейронки к общему слою и вывести.
Так будет проще искусственно подогнать веса в нейронке с важными параметрами, возможно даже искусственно сможешь их просто домножать при попадании в выходную нейронку. Такой подход позволит наверняка выделить то, что тебе важно, если ты подобрал "важность фич" корректных образом.
Аноним 28/04/18 Суб 14:10:01  1181029
>>1181021
2) В таком духе работает не лучшим образом, это самый примитивный подход который получилось реализовать.
3) У меня есть какое-то подсознательное чувство что это кисленькое решение. Еще нужно подумать что делать с классическими моделями вроде SVM и лесов.
Аноним 28/04/18 Суб 15:48:19  1181059
>>1180944
SVM слишком вычислительно сложный для большого (а по нынешним меркам крошечного) количества данных, как говорит Ын, и сложное ядро тоже дорого вычислять, а если дорого, - значит это не работает, и поэтому сразу все ушли с SVM на нейроночки, несмотря на все их минусы
Аноним 28/04/18 Суб 17:02:11  1181093
>>1180944
>подобрать гиперпараметры эффективно нельзя
>нет можно, надо другую функцию потерь
>как?
>гиперпараметры нинужны!
Жду очередной порции нелепых кривляний нечеткого петуха в оправдание своей никчемности.
Аноним 28/04/18 Суб 18:56:19  1181145
>>1181093
> Жду очередной порции нелепых кривляний нечеткого петуха в оправдание своей никчемности.
Мань, я ж написал про эвристики. Если это может сделать человек, то может и алгоритм.
>>1181059
> SVM слишком вычислительно сложный для большого (а по нынешним меркам крошечного) количества данных, как говорит Ын, и сложное ядро тоже дорого вычислять,
Негров распознавать? Да, для такого SVM малоприменимы. Но можно ограничиться временными рядами, лично мне это интереснее, чем негры и разрисованные под Пикассо котики.
Аноним 28/04/18 Суб 19:25:22  1181176
1431579883723.jpg (185Кб, 1013x800)
>>1181145
Я не буду расстраиваться только потому что нечетконяша меня проигнорировал.
Зато мною была разгадана тайна почему тебя не любят в треде. Задача плохая потому что твой любимый метод с ней не справляется? Серьезно? Можно ограничиться тем что у тебя получается делать? Все что не получается это ненужно и для хипстеров? Да ты же ограниченный!
Аноним 28/04/18 Суб 21:10:13  1181242
>>1180437
Можно провести параллель с натренированной сетью в которой пользователю (вернее разработчику) предлагается самостоятельно натренировать последний слой на собственной выборке.
Аноним 28/04/18 Суб 22:26:49  1181283
>>1181145
Ну и зачем нужны твои временные люди? Сверхчеловеки живут вне пространства и времени и смотрят на картины Пикассо с котиками-неграми.
Аноним 29/04/18 Вск 04:01:59  1181370
>>1181176
> Задача плохая потому что твой любимый метод с ней не справляется? Серьезно?
Плохих задач нет, есть плохие подходы к решению. Всякое хипстерство с нейрон очками как раз из этой области.
Аноним 29/04/18 Вск 05:44:41  1181372
>>1181283
> Ну и зачем нужны твои временные люди?
Чего? Временные ряды это задача, с которой ни один существующий подход не может справиться. Никакие хипстерские диплернинхи на топовых видюхах не дают качества заметно выше какой-нибудь arima из 80х. Ящитаю, это пиздец. А проблема только в том, что нет понимания этой задачи.
Аноним 29/04/18 Вск 08:49:23  1181383
Зачем нужны нейронки когда есть вероятностные логические машины?
Аноним 29/04/18 Вск 08:56:10  1181389
>>1181383
> вероятностные логические машины
И что это? Байесовский вывод или где?
Аноним 29/04/18 Вск 10:28:30  1181410
>>1181145
дак для временных рядов (я только про звук знаю и не очень хорошо) нейроночки тоже много где заменили svm, так как для svm для звука нужны всякие костыли вроде гауссовских смесей, которые являются довольно приближенной и грубой штукой, ну и для звука хорошо заходят сверточки и рекурсия, я не уверен, можно ли сделать для svm рекуррентное ядро (думаю, можно).
Ну, а для части временных рядов и марковских процессов хватит даже и логрегов.
Ну и основной хайп для потребителя в звуке.
Аноним 29/04/18 Вск 10:38:01  1181413
>>1181410
Я имею в виду предсказания временных рядов, скажем финансовых. Хотя бы дальнейшего их направления при минимальной экстраполяции. Как пример, для бинарных опционов хватило бы правильного предсказания направления значения, т е будет ли цена выше или ниже текущей через минуту, с точностью хотя бы 30%, т.е чтобы не было больше 3-4 неправильных предсказаний подряд. Даже такие скромные требования не гарантирует любой алгоритм. Лично я вижу в этом всю суть нынешнего машобчика. А негров распознавать, да они мне в хуй не стучат. Как и котики.
Аноним 29/04/18 Вск 10:48:24  1181414
>>1181389
Очевидно это индуктивная машинка, на нее подаются данные, она считает вероятность удачного исхода.
Аноним 29/04/18 Вск 11:09:43  1181419
>>1181414
> Очевидно это индуктивная машинка, на нее подаются данные, она считает вероятность удачного исхода.
Ну байесовский вывод. В R дохуя такого. Только вся возможная неточность к вероятности не сводится, возможны и другие варианты. На основе большинства из которых системы вывода вообще никем и никогда не делались, поэтому невозможно сказать даже что из этого может оказаться полезным. Хипстеры в это не могут, так и живём.
Аноним 29/04/18 Вск 11:21:53  1181422
>>1181419
Ты хоть что-то делаешь кроме того что ноешь? Покажи свой гитхаб или пейперы.
Аноним 29/04/18 Вск 13:02:27  1181457
Сап, тяночки. Вот пытаюсь делать тутор по распознанию прямоугольника на картинке. https://github.com/jrieke/shape-detection/blob/master/single-rectangle.ipynb . Застрял на первлм же абзаце. Вкратце кун генерит датасет из овер 40000 семплов с одним единственным черным прямоугольником и тренит модель. Чую это какой-то бесполезный подход к стратегии распознавания предметов. Скиньте пожалуйста годный тутор на ваш перцептрон что-ли.
Аноним 29/04/18 Вск 13:06:52  1181460
>>1181457
В шапке http://www.deeplearning.net/tutorial/
Аноним 29/04/18 Вск 13:36:48  1181487
>>1181460
а есть что нибудь для макак?
Аноним 29/04/18 Вск 13:37:59  1181489
vsemdobra.jpg (58Кб, 848x480)
>>1181487
Конечно! Как насчет дружеского совета? Свали.
Аноним 29/04/18 Вск 13:51:11  1181507
>>1181457
> Чую это какой-то бесполезный подход к стратегии распознавания предметов
Распознавание нейрон очками так и работает. Берётся миллион фоток негров, тренируется сеть, затем сети предъявляется миллионпервый негр, сеть выдаёт ответ что это горилла, у негра попито бомбито whomst da fak faking gugle, my friends not a gorilla
Аноним 29/04/18 Вск 13:59:33  1181514
>>1181507
ну с классификацией блять понятно. Меня сейчас дико интересует что именно на картинке в области 0х0х100х100 негр а 50х50х100х100 кот...
Аноним 29/04/18 Вск 14:03:00  1181516
>>1181514
Оно само может в сегментацию. Поэтому если на картинке есть и негр и кот, распознаётся и то и другое.
Аноним 29/04/18 Вск 14:12:03  1181524
>>1181516
Вангую, если кот черный, то он может задетектится как негр
мимо
Аноним 29/04/18 Вск 14:23:30  1181536
>>1181516
>Оно само может в сегментацию
Надо просто потрясти или чё?
Аноним 29/04/18 Вск 15:03:58  1181559
Аноны, почему статистики все такие красивые уберменши как в американских фильмах?
Аноним 29/04/18 Вск 15:06:05  1181561
>>1181524
Сделай нейроночку трёхканальной )))
Аноним 29/04/18 Вск 16:18:39  1181606
>>1181413
>финансовых
Ты ебанутый, блять?
Аноним 29/04/18 Вск 16:52:42  1181622
>>1181606
А что не так, мань? Там определённо есть распределение (или некая суперпозиция распределений) отличное от нормального, т.е не чистый рандом , в чем очень легко убедиться (мартингейл не работает, а в случае нормального распределения заходил бы идеально).
Аноним 29/04/18 Вск 18:19:43  1181673
>>1181622
>Там определённо есть распределение
Хуяпределение. А еще твое нейронное говно не поддается отладке.
Аноним 29/04/18 Вск 18:24:46  1181677
>>1181673
> А еще твое нейронное говно не поддается отладку.
Тебе лет сколько? 12? Что ты сказать пытаешься, хуесос? Рюсське изика можешь, нихт? Или пиши по-человечески или иди нахуй уже.
Аноним 29/04/18 Вск 18:28:35  1181681
>>1181677
Написал тебе за щеку, ньюфаня в розовых очках.
Аноним 29/04/18 Вск 18:33:02  1181685
152291725118667[...].jpg (87Кб, 605x578)
>>1181681
Пикча отклеилась
Аноним 29/04/18 Вск 20:12:39  1181745
>>1181622
>не чистый рандом
Не, ты точно ебанутый. Т.е. ты считаешь, что возможно предсказать, например, что через минуту кто-нибудь по какому-нибудь инсайду от тёти Сраки начнёт распродавать свои активы? А для того, что ты выше написал, не нужно ничего, кроме макаки и графика курса - она такой же процент точности выдаст. И это тебе нихуя не даст, лол.
Аноним 29/04/18 Вск 23:36:33  1181838
intellectual.jpg (9Кб, 211x239)
>>1180944
>если человек с опытом может подобрать гиперпараметры нейроночки, значит это алгоритмически разрешимая задача
Аноним 30/04/18 Пнд 00:41:49  1181859
>>1181745
Ты мне хочешь доказать, что теханализ рынка невозможен или что?
Аноним 30/04/18 Пнд 00:57:33  1181861
>>1181859
Ну посчитай количество повышений и количество понижений цены, если так непонятно... случайные там данные, ясно?
Аноним 30/04/18 Пнд 02:22:32  1181884
Сап. У моего друга есть майнинг-ферма на 48 1080ti. Спрашивает можно ли извлечь из них профит с помощью ML?

Мои варианты:
- разгадывание капч за 0.00005 копеек сразу нахуй
- покер-бот потратить несколько месяцев на обучение, а потом выяснить что он умеет играть только сам с собой, но не с людьми
- предсказания курсов валют/акций смущает что на уолл-стрит сидит куча профессоров-математиков с гигантскими саляри и до сих пор ни у кого не получилось
- конкурсы на kaggle опять же конкурировать с командами суперзадротов, а у меня бекграунд пара курсов по TF

Что скажете?
Аноним 30/04/18 Пнд 02:29:12  1181888
>>1181884
Продать и пропить.
Аноним 30/04/18 Пнд 02:48:36  1181894
>>1181861
> случайные там данные, ясно?
Пиздец ты тёмный. С москвасранска поди, лол. Я ещё раз скажу, при чистом рандома, т.е. нормальном распределении, наилучшая стратегия это мартингейл. Но, очень легко убедиться что это не так. Достаточно зарегаться на каком-нибудь биномо и слить тестовый счёт. Можно поумнее - посчитать для временных рядов сечение Пуанкаре и т.п вещи, по которым опять же, наглядно увидим, что там не рандом. Это же азы, кем надо быть чтобы не знать очевидного.
Аноним 30/04/18 Пнд 02:51:34  1181895
>>1181884
> предсказания курсов валют/акций смущает что на уолл-стрит сидит куча профессоров-математиков с гигантскими саляри и до сих пор ни у кого не получилось
Я уже писал, почему ни один диплернинх временные ряды не возьмёт. Можешь сам попробовать, архивы курсов валют есть на TrueFX с миллисекундным разрешением, попробуй на этой ферме и убедись, что нихуя не вышло.
Аноним 30/04/18 Пнд 07:16:44  1181929
>>1181884
Эх, на такой ферме почти ИИ можно обучать
Аноним 30/04/18 Пнд 09:26:21  1181945
>>1181894
Нужно быть матанодебилом вроде тебя чтобы полностью игнорировать саму предметную область задачи. Какой же ты тупой, весь тред загадил.
Аноним 30/04/18 Пнд 09:47:01  1181956
>>1181945
> Нужно быть матанодебилом вроде тебя
А, понятно, ты тот деградант, копротивляющийся против математики и здравого смысла. Так бы сразу и сказал, вопросов больше не имею.
Аноним 30/04/18 Пнд 10:02:43  1181959
>>1181884
Хуячить порн с селебами на заказ. Гугли deepfakes.
Аноним 30/04/18 Пнд 13:11:46  1181995
>>1181859
Ну да. Биржи зависят от скрытых факторов, которые ты физически не можешь для модели взять. У меня кореш из дойчебанка, он там какой хуйни только не вертел - в итоге никакого стабильного выигрыша, даже маленького.
Аноним 30/04/18 Пнд 13:16:31  1181999
>>1181995
>Биржи зависят от скрытых факторов, которые ты физически не можешь для модели взять.
Ты про теханализ не слышал? Так я тебе расскажу. Сколь угодно скрытые факторы, вплоть до секретных указаний аннунаков с Нибиру, либо отражаются на показателях рынка (т.к. приводят к каким-то действиям на рынке), либо не отражаются (и тогда физически не могут влиять на рынок). Не согласен? Тогда расскажи, как можно влиять на рынок, не влияя на его показатели.
Аноним 30/04/18 Пнд 13:33:06  1182004
>>1181995
>У меня кореш из дойчебанка, он там какой хуйни только не вертел - в итоге никакого стабильного выигрыша, даже маленького.
Я еще раз скажу. Ни в одном существующем методе задача не ставится так, как надо. Потому что мы имеем дело с суперпозицией неизвестной структуры неизвестных же распределений. С простой аппроксимацией тут и делать нечего, нужны методы "развернуть" эту суперпозицию без априорных знаний об ее структуре. Такая задача в машобчике вообще не ставилась никем кроме Ивахненко, но он соснул, т.к. не имел достаточных вычислительных мощностей + не учитывал того, что эта задача с вероятностью 146% некорректнопоставленная + предлагал довольно деревянные методы подбора суперпозиций т.н. "полиномов Ивахненко", хотя сама структура этих его полиномов, как и метод представления через них полного степенного VKG полинома Вольтерры-Колсогорова-Габора, это очевиднейший вин. Я тут описывал, как эти ограничения можно попытаться обойти - вместо таблиц полиномов Ивахненко использовать генетическое программирование с типизированной лямбдой, вместо обычных лоссов использовать комбинированные критерии Ивахненко, а вместо OLS взять SVM.
Аноним 30/04/18 Пнд 13:35:22  1182005
>>1181999
https://www.vedomosti.ru/technology/news/2018/04/02/755633-kotirovki-intel
>отображаются
И как это предсказать? Получил инсайд от друга из апла - поднял шекелей, не получил и решил закупиться прямо перед падением - соснул хуйцов.
Аноним 30/04/18 Пнд 13:37:04  1182006
>>1182005
>Получил инсайд от друга из апла - поднял шекелей, не получил и решил закупиться прямо перед падением - соснул хуйцов.
Инсайд чего?
Аноним 30/04/18 Пнд 13:42:10  1182008
>>1182004
Ты кукарекаешь годами, но сам так ничего и не сделал.
Аноним 30/04/18 Пнд 13:42:37  1182010
>>1182004
Так а какого хуя ты ничего не делаешь, если у тебя в голове потенциальная идея на миллионы?
>>1182006
Блять, иди ты нахуй. Ты же у нас спец по рынкам или нет? Это настолько детский вопрос, что просто охуеть.
>Ты про теханализ не слышал? Так я тебе расскажу
>подрубил менторский тон
>мозги не подрубил
Аноним 30/04/18 Пнд 13:55:14  1182016
>>1182010
>Ты же у нас спец по рынкам или нет? Это настолько детский вопрос, что просто охуеть.
Я не просто так спросил, ты не понимаешь, о чем говоришь. Рынок ты не развернешь за 1 секунду так,чтобы те, кто закупился уже через 2 секунды соснул. Такого даже в бинарных опционах не бывает. Задача - определить направление изменения рынка по изменениям основных показателей. Инсайд поможет разве что заработать больше шекелей, но не радикально всех переиграть.
>>1182010
>какого хуя ты ничего не делаешь, если у тебя в голове потенциальная идея на миллионы?
Потому что во-первых, хуй знает как это реализовать, я даже R не настолько знаю, во-вторых, у меня идеи и получше есть.
Аноним 30/04/18 Пнд 16:23:22  1182083
http://www.dataminingbook.info/pmwiki.php/Main/BookPathUploads?action=downloadman&upname=book-20160121.pdf

Почему нет в шапке? Самое то для абсолютных нубов.
Аноним 30/04/18 Пнд 17:15:13  1182108
>>1182083
Для абсолютных нубов надо с арифметики начинать.
Аноним 30/04/18 Пнд 17:19:26  1182115
>>1176320 (OP)
>алгебра, теорвер и матстат, базовый матан calculus многих переменных
С чего начать? Знаю только, что такое производная и как ее считать. Начать с mathprofi, а потом уже углубляться?
Аноним 30/04/18 Пнд 17:20:23  1182116
Уважаемые ученые, как вы думаете, можно ли поручить подобную работу не человеку, а компьютерному боту?

https://geektimes.com/post/300445/

Что-то вроде программы ELIZA, но способной к самообучению?
Аноним 30/04/18 Пнд 17:30:25  1182123
>>1182115
Демидович.
Аноним 30/04/18 Пнд 17:34:38  1182127
>>1182123
Ты хочешь, чтобы он возненавидел математику?
Аноним 30/04/18 Пнд 17:39:22  1182134
>>1182115
>алгебра
https://ocw.mit.edu/courses/mathematics/18-06-linear-algebra-spring-2010/index.htm
>базовый матан
https://www.coursera.org/learn/single-variable-calculus/home/welcome
Аноним 30/04/18 Пнд 17:48:11  1182143
Матан у вас сейчас тоже в моде хипстерский? Чем Фихтенгольц не угодил?
Аноним 30/04/18 Пнд 21:45:29  1182288
>>1181895
Напиши еще раз про временные ряды
Аноним 01/05/18 Втр 01:40:41  1182383
На работе вместо няшных алгоритмов начали применять нейроночки.
Вроде все просто, импортим с пацанами из кераса и слесарьфлоу, радуемся жизни, но сам алгоритм не нравится мне. Этакий блек-бокс, который хуй знает какие закономерности ищет. Особенно cnn не люблю, люди как сильвер буллет себе их представляют.
Мне кажется нейронки хороший алгоритм наравне с другими(HMM, бустинги, svm), но на всех конкурсах, конфах и статьях нейроночки практически везде рвут "обычные" алгоритмы.
Неужели это и правда так, что старые модели больше не нужны?
Аноним 01/05/18 Втр 03:00:03  1182394
>>1182383
Для грязных данных без структуры еще рулит ГБМ, см. тот же кагл где всякие предсказания кликов и прочая бурда. Все остальное - нейроночки.
Аноним 01/05/18 Втр 11:07:36  1182456
>>1182394
а правда что нейроночки не могут делать предсказания по временным рядам?
Аноним 01/05/18 Втр 11:08:34  1182458
>>1182383
>нейроночки практически везде рвут "обычные" алгоритмы.
Например?
Аноним 01/05/18 Втр 13:25:34  1182531
>>1182458
опознование негоров на фоторафии
Аноним 01/05/18 Втр 13:31:34  1182536
1344159763812.jpg (34Кб, 580x435)
Есть здесь кто-нибудь, кто проходил или недавно проходил курс Энга?
Аноним 01/05/18 Втр 13:36:57  1182539
пасаны, пасаны а чё у этой хуйни есть апи? https://pixabay.com/ru/service/about/api/
мож захуярим че нить типа приложухи которая бут скачивать сет по тегам? тип слонёнок или обезьяна
Аноним 01/05/18 Втр 13:45:54  1182543
>>1182536
>кто проходил или недавно проходил
Ну я например, остановился на 9 неделе сейчас.
Аноним 01/05/18 Втр 14:05:35  1182555
>>1182543
Ты один проходишь или с кем-то общаешься на эту тему? Я, к сожалению, всю учёбу учил французский, сейчас вот на ходу вникаю в технический ? английский, возникают проблемы с пониманием смысла, хотя до 5 недели без проблем в одиночку дошёл.
Аноним 01/05/18 Втр 14:14:54  1182561
>>1182555
Один. Английский понимаю хорошо, т.к. уже второй год как погрузился в чтение англонета и тех. литературы, просмотр фильмов в оригинальной озвучке. Пишу и говорю плохо потому что негде тренироваться.
Аноним 01/05/18 Втр 15:11:42  1182596
Аноны, я заканчиваю 3 курс бакалавра и хочу начать готовиться к сдаче диплома
Собственно вопрос, достаточно ли 6-8 месяцев для того чтобы вкатиться в нейрончики и написать по ним дипломную работу
Опыт в программировании есть, но с машинным обучением не сталкивался до этого. Хочется попробовать себя в этом направлении, но есть опасения что я просто не осилю за такой срок что то освоить на приемлемом уровне
Аноним 01/05/18 Втр 15:42:59  1182612
В чём разница между полносвязной и свёрточной сетью? Объясните, позязя, ыыы
Аноним 01/05/18 Втр 15:46:02  1182616
>>1182612
>В чём разница между полносвязной и свёрточной сетью?
Очевидно же, сверточная - не полносвязная. Т.е. последующий слой связан не со всеми нейронами предыдущего. Перцептрон полносвязный, а в сверточной сети связи по типу зрительной коры кошки.
Аноним 01/05/18 Втр 15:46:44  1182618
>>1182616
Не помогай откровенному быдлу.
Аноним 01/05/18 Втр 15:55:42  1182621
>>1182616
а вот положим мы натренировали полносвязную сеть и свёрточную сеть. И просим распознать изображение. Время работы свёрточной сети будет меньше времени работы полносвязной? Или одинаково?
Аноним 01/05/18 Втр 16:02:39  1182625
>>1182456
Нет.
Аноним 01/05/18 Втр 16:07:28  1182626
>>1182596
Смотря что такое приемлемый уровень. Статьи читать не сможешь, не говоря уж о писать. Использовать керас для тренировки простых архитектур можно научиться.
Аноним 01/05/18 Втр 16:50:39  1182652
>>1182626
т.е. по твоему диплом по нейронам без начальной базы плохая идея?
Аноним 01/05/18 Втр 16:55:52  1182660
Хватит ли сотни фото с номерами машин для обучения находить эти номера? Больше просто ломает размечивать, да и найти проблематично.
Аноним 01/05/18 Втр 17:01:30  1182668
>>1182660
Генерируй сам.
Аноним 01/05/18 Втр 17:09:58  1182678
>>1182660
могу помочь с размечиванием. За день могу наразмечивать фоток 300 если затея стоящая
Аноним 01/05/18 Втр 17:15:45  1182682
>>1182678
Идея распознавать рос и укр номера. Сначала с камеры находт табличку, потом пытается из вырезанного номера распознать символы.
Аноним 01/05/18 Втр 17:19:22  1182685
>>1182660
Для дииплернинга хотя бы 10000 нужно.
>>1182652
По-хорошему ты должен отлично разбираться в теме своего диплома, так что с нуля я бы не брался. Нейроночки на уровне современных исследований все равно слишком сложны для уровня бакалавра. Можешь прицелиться на магистрскую работу, как раз два года более-менее достаточный срок для нормального вката.
Аноним 01/05/18 Втр 17:24:49  1182690
>>1182682
Вижу у тебя годные скилы. Пиши мне на почту yabitozehotelpopit@gmail.com
Аноним 01/05/18 Втр 17:31:55  1182693
сапоги.mp4 (5712Кб, 1280x720, 00:00:50)
>>1182682
>распознавать рос и укр номера. Сначала с камеры находт табличку, потом пытается из вырезанного номера распознать символы.
И если номер украинский, то владельцу, найденному по базе, на телефон скидывается пикрелейтед? Ты пограничник штоле? Сколько распилили на этом прожекте, если тебя отправили на мейлру искать халявных исполнителей?
Аноним 01/05/18 Втр 17:59:22  1182706
>>1182690
Чем занимаешься?
Аноним 01/05/18 Втр 18:08:17  1182711
>>1182706
разной компилируемой парашей
Аноним 01/05/18 Втр 19:21:23  1182731
>>1182682
Специально обученный человек (обучение не так долго) может распознать вырезанный номер лучше.
Аноним 01/05/18 Втр 19:43:25  1182736
>>1182731
russia-way
Аноним 02/05/18 Срд 00:03:55  1182869
>>1182531
>опознование негоров на фоторафии
на самом деле это не тривиальная задача, без шуток
Аноним 02/05/18 Срд 01:29:50  1182915
sibo.jpg (53Кб, 326x500)
>>1176320 (OP)
>Напоминание ньюфагам: персептроны и прочий мусор середины прошлого века действительно не работает на серьёзных задачах.

Поясните ньюфагу, а что там принципиально нового появилось, кроме пердсертронов и "прочего мусора" ?

Если положить что любая комбинация или модификация персертрона тот же персертрон.
Аноним 02/05/18 Срд 01:32:09  1182917
>>1182915
Ню-фагу читать нужно. Учиться, учиться и еще раз учиться, как завещал Великий Дедушка Ленин.
Аноним 02/05/18 Срд 02:02:45  1182922
>>1182458
Во всей голосовой индустрии. ASR, SV, Spoofing.
Не говоря уж про картинки, там дефакто cnn стандарт.
Аноним 02/05/18 Срд 04:53:30  1182942
>>1182915
> Поясните ньюфагу, а что там принципиально нового появилось, кроме пердсертронов и "прочего мусора" ?
Ничего. Функции активации поменяли, полносвязность выпилили, ещё косметические мелочи. Главные недостатки никуда не делись, данные все так же обрабатываются квадратно-гнездовым методом при том, что 90% из них вообще не участвуют в формировании решающих правил классификации итд., т.к не лежат на границах, разделяющих классы (для классификации опять же).
Аноним 02/05/18 Срд 07:10:12  1182957
>>1182917
Это не ответ по существу.
Аноним 02/05/18 Срд 12:22:44  1183028
>>1182915
Имеются в виду оригинальные сетки, без модификаций. Тут иногда проскакивают нюфани, которые плачут "накрутил миллиард линейных слоёв, ничего не работает, что делать".
Аноним 02/05/18 Срд 15:00:46  1183144
>>1183028

> Тут иногда проскакивают нюфани, которые плачут "накрутил миллиард линейных слоёв, ничего не работает, что делать".

Зачем они это делают?
Аноним 02/05/18 Срд 15:54:44  1183158
>>1182915
batch norm, ReLU, cross entropy loss вместо квадратичной, конволюции, resnet, рекуррентные сети, автоэнкодеры, attention механизмы, GAN
Аноним 02/05/18 Срд 16:50:41  1183193
un-apunte-en-to[...].jpg (84Кб, 350x486)
>>1183158
>batch norm, ReLU, cross entropy loss вместо квадратичной, конволюции, resnet, рекуррентные сети, автоэнкодеры, attention механизмы, GAN
Но ведь это все мусор из средины прошлого века.
Аноним 02/05/18 Срд 16:56:28  1183198
>>1183193
> Но ведь это все мусор из средины прошлого века.
Это не мусор. Это косметические изменения перцептрона. Которые не меняют уебищной сути обработки данных, при которых обсчитывается все оптом, хотя это не требуется для построения правил классификации итд.
Аноним 02/05/18 Срд 19:06:28  1183241
1*e5ekyYmz1GxBZ[...].png (231Кб, 480x360)
Макакство
Аноним 02/05/18 Срд 19:19:53  1183249
>>1183241
Человекство
Аноним 02/05/18 Срд 20:37:55  1183285
А вы можете доказать Бином Ньютона?
Аноним 02/05/18 Срд 20:44:52  1183289
>>1183285
Да
Аноним 02/05/18 Срд 20:50:28  1183291
>>1183289

Будь добр, объясни тогда основной принцип доказательства простым языком.
Как мы переходим от «есть произведение n скобок (a+b)» к известной сумме комбинаций a и b с различными степенями и коэффициентами?
Аноним 02/05/18 Срд 20:52:21  1183292
>>1183291
Да
Аноним 03/05/18 Чтв 08:18:09  1183524
Датасет:
X - входная строка для машины тьюринга
Y - что мт выдала на выход

Какие нейроночки такому обучатся (построят из своих слоев этот алгоритм) и будут хорошо предсказывать?

Аноним 03/05/18 Чтв 08:37:58  1183526
>>1183524
В такой формулировке безразлично, машина ли у тебя Тьюринга, программа на С++ или Вася с листочком бумаги и ручкой.
Естественно, все зависит от преобразования. Если у тебя там просто каждый второй символ удаляется из входа, то простейшая RNN сможет сделать. Если у тебя там какое-то шифрование, то никак. И полный спектр возможностей между этими двумя крайностями.
Аноним 03/05/18 Чтв 08:42:37  1183528
>>1183526
Хотя нет, с удалением символов тоже будет гемор, т.к. длина входа и выхода разная, лол. Нужна будет неограниченная память, что невозможно, либо какая-то нетривиальная схема для вывода.
Аноним 03/05/18 Чтв 08:46:53  1183529
Если вдуматься, то почти все нетривиальные задачи не будут решаемы, т.к. у МТ бесконечная память, а у нейроночки конечная и обычно маленькая. Тут уместнее с конечными автоматами сравнивать. Если КА может решить задачу, то есть шанс что нейроночка тоже сможет.
Аноним 03/05/18 Чтв 09:31:23  1183539
>>1183524
> Какие нейроночки такому обучатся (построят из своих слоев этот алгоритм) и будут хорошо предсказывать?
Любые. Важно только чтобы датасет содержал все возможные входы и выходы. Можешь хоть линейную регрессию использовать, входы и выходы же полностью детерминированы и представляют собой правила МТ, даже аппроксимировать ничего не требуется.
Аноним 03/05/18 Чтв 09:58:17  1183554
>>1183524
>>1183529
Машина Тьюринга не нужна.
Аноним 03/05/18 Чтв 18:55:52  1183797
>>1176320 (OP)
Аноны, вот у меня есть очень шумные данные и классификатор.
Меряю его ф1 на случайном разбиении - получил, допустим, 0.9.
Меряю его на 2-fold, получаю условные mean = 0.9 (так же) и стандартное отклонение 0.05.
Меряю его на 100-fold и получаю тот же meam = 0.9, но стандартное отклонение 0.1
Есть ли метрика, которая определяет confidence level результатов? Для малошумных данных наверное это не так важно, но у меня все очень сильно зависит от того, как разбить сет на трейнинг и тест сеты.
Это не промышленное применение, а пруф оф концепт в научный журнал, рецензент на мажор ревижоне спрашивает, почему я для кросс валидации выбрал k=10. А мне похуй если честно какое выбирать, кросс-валидация в принципе нужна только для того, чтобы показать, что это у меня не ошибка переобучения, а классификатор в принципе работает.
Аноним 03/05/18 Чтв 19:25:02  1183814
>>1183797
>очень шумные данные
Попроси их не шуметь. В смысле denoising autoencoder наверни какой-нибудь.
>спрашивает, почему я для кросс валидации выбрал k=10
Ну так и шли его основы изучать.
Вообще, в том же sklearn, например, кросс-валидацию можно было разную получать, рандомно "тасуя" данные (shuffle). Но я точно не помню.
Аноним 03/05/18 Чтв 19:37:18  1183825
>>1183797
Чем больше фолдов, тем точнее оценка метрики, но при этом ее дисперсия растет, например LOO дает самую точную оценку, но при этом имеет наибольшую дисперсию
Аноним 03/05/18 Чтв 19:37:34  1183827
>>1183814
Ну рецензентов нельзя нахуй слать. Надо вылизать жопу и доказать со ссылкой на цитируемый источник почему я прав. А я хуй знает почему - тут обычно как инженер решил что норм, так и есть. На стекэксчейндже люди берут значения k потому что они привыкли и делали так раньше, но на это не сошлешься.
Мне бы в идеале методику по которой можно получить доверительные интервалы и аргументировать, мол, что выбрав к=10 я попал в 99 перцентиль, чего я и добивался.
Расшумливать данные на лету нельзя, расшумливать только тренировочную выборку можно, но мне если честно не хочется такие серьезные изменения делать сейчас, все картинки в статье переделывать придется и как-то объяснять рецензентам такие маневры.
Аноним 03/05/18 Чтв 19:38:31  1183829
>>1183825
Да, это я и понимаю. Но для этой точности есть ли какая-нибудь формальная методика? Доверительный интервал или что-то в таком духе.
Аноним 03/05/18 Чтв 19:42:26  1183833
>>1183829
Метрика*
Аноним 03/05/18 Чтв 19:50:53  1183838
>>1183827
https://machinelearningmastery.com/report-classifier-performance-confidence-intervals/
Аноним 03/05/18 Чтв 20:05:24  1183848
>>1183838
А теперь представь, что данные очень шумные и нам охуенно повезло с разбиением и тестсетом. На другом тестсете ввиду шумности данных классификатор покажет худшую производительность.
Множество фолдов поможет этого избежать, на к=2 у меня низкое стд и на к=100 оно высокое.
Вот как мне доказать, какое к достаточно, чтобы в мин плюс/минус стд входил 99 перцентиль, условно говоря.
Я доказываю пруф оф концепт, в реальных применениях данные будут другими и классификатор придется обучать на них каждый раз.
Аноним 03/05/18 Чтв 21:12:42  1183904
>>1183848
Цитируй это http://frostiebek.free.fr/docs/Machine%20Learning/validation-1.pdf и оставляй 10.
Аноним 03/05/18 Чтв 21:25:08  1183916
>>1183904
Спасибо, анон. Это не то, что я реквестировал, но то, что мне надо.
Аноним 04/05/18 Птн 01:08:03  1184044
Аноны,
насколько вообще питон реально подходит для сурового продакшена? У кого какой опыт? Имеет ли смысл разворачивать хадуп кластер, если данных относительно немного (десятки гигов, но не террабайты), но нужна надёжность/возможность раскидать вычисления на пару машин и сохранять результаты в HDFS, чтобы не бояться, что они умрут вместе с hdd? cloud storage не предлагать
Аноним 04/05/18 Птн 12:50:26  1184151
Непонятно нихуя ни по доками, ни по гайдам как работает рекурентная сеть на TensorFlow. Там какие-то собственные библиотечные оболочки. Они что, однослойные?

Как в бэкпропогэйшн во времени определяется какие веса с какими ошибками нейрона перезаписи ячейки памяти и нейрона извлечения из ячейки памяти?
Аноним 04/05/18 Птн 14:00:42  1184173
>>1184151
те имеет идти на форум тенсора, это уже попахивает инжиниренгом. Тут чисто матаноэлита
Аноним 04/05/18 Птн 17:53:29  1184246
>>1184151
Попахивает тем, что кто-то не осилил базу и пытается прыгнуть выше головы. Похоже на многотредовую эпопею какого-то дауна (это не ты был?) несколько месяцев назад про "ну кок жи щитать гродент сверточной сити?????"
Аноним 04/05/18 Птн 21:33:58  1184314
Почему все только на обучении с учителем сосредоточены? А не на обучении с подкреплением?
Аноним 04/05/18 Птн 21:50:45  1184320
Есть примеры эффективного использования сверточных сетей для приближенных математических вычислений?
Аноним 04/05/18 Птн 22:38:54  1184333
>>1184314
https://arxiv.org/abs/1803.07055
Потому что.
Аноним 04/05/18 Птн 22:40:35  1184334
>>1184314
> Почему все только на обучении с учителем сосредоточены? А не на обучении с подкреплением?
Хипстеры только в этом году про уравнения Хебба узнали. Так что все будет, но не сразу.
Аноним 05/05/18 Суб 00:11:17  1184371
>>1184320
Помню две работы: в одной погоду обсчитывали на нейроночке, вроде был выигрыш по сравнению со стандартными решателями дифуров, которые обычно там используются. В другой обсчитывали квантовое состояние какой-то сложной системы, которое напрямую было считать слишком долго. Вторая работа в нейчер была.
Аноним 05/05/18 Суб 00:14:21  1184374
>>1184334
Если ты такой умный, то где же тогда твои деньги?
Аноним 05/05/18 Суб 04:41:43  1184426
>>1184246
Нахуя щитать, если есть функция? А где эта база?
Аноним 05/05/18 Суб 06:58:20  1184431
>>1184374
> Если ты такой умный, то где же тогда твои деньги?
А у Перельмана где деньги? Или Ашот с рынка на лексусе умнее? Что-то не сходится в твоей манятеории. Может быть то, что ты пытаешься пиндосскую поговорку использовать применительно к Африке со снегом?
Аноним 05/05/18 Суб 08:25:32  1184439
>>1184426
Извозчик сам знает куда ехать? Ясно, ясно. База в шапке.
Аноним 05/05/18 Суб 10:25:17  1184454
>>1184439
>https://youtu.be/KZH_PphyEfA
Аноним 05/05/18 Суб 10:28:35  1184455
>>1184431
Да хуйня поговорка, даже в Пиндостане. Можно быть невъебенно умным, просто в Пиндостане доедать хуйцы не будешь или будешь. Вон, сколько в Тесле инженеров, а богатеет только Маск.
Аноним 05/05/18 Суб 10:46:39  1184456
>>1184431
>Перельман
Ой-вей, гои поверили, что наш человек будет жить на 15 тысяч и есть одну гречу. Гриша таки в Швеции программистом работал (и в Швейцарии до этого, если мне память не изменяет). Но ты продолжай верить в свои сверхсилы и нихуя не делать.
Аноним 05/05/18 Суб 17:37:52  1184618
Анончи, накидайте ссылок на датасеты и корпуса великого и могучего русского языка.
КРЯ жадные пидарасы
Аноним 05/05/18 Суб 21:03:16  1184748
Но считать градиент слишом сложно. Я нашёл функцию попроще.

wij = wij + lerning_rateinput_valuesum(activation_value(1 - activation_value)sum(error*wjj+1))
Аноним 05/05/18 Суб 21:09:37  1184758
>>1184748
бля вакаба
wij = wij + lerning_rate&input_value&sum(activation_value(1 - activation_value)&sum(error&wjj+1))
Аноним 05/05/18 Суб 21:19:34  1184771
>>1184758
Сейчас мне кажется это просто ебучая формула прямого подсчёта на сколько эта хуйня возможно должна измениться. То есть тупо и прямо. Но градиент, который даёт чистое и правильное значение, я всё равно не понимаю.
Аноним 06/05/18 Вск 00:09:04  1184859
>>1180614
Прогоняй более важный сет ещё раз. )))
Аноним 06/05/18 Вск 03:07:32  1184917
>>1184859
Этот чувак тренирует.
Аноним 06/05/18 Вск 03:58:01  1184929
>>1184917
Ну. Пусть тренирует на более важном сете больше раз
Аноним 06/05/18 Вск 04:29:40  1184930
>>1184758
> wij = wij + lerning_rate&input_value&sum(activation_value(1 - activation_value)&sum(error&wjj+1))
Один из вариантов стохастической аппроксимации Роббинса-Монро. Собственно, как и в картах Кохонена. И чем вам в таком случае векторное квантование не нравится? А я скажу, вы просто не понимаете, чем занимаетесь.
Аноним 06/05/18 Вск 12:58:23  1185037
Как из мимокрокодила стать машоббоярином?
Аноним 06/05/18 Вск 13:17:02  1185048
>>1185037
> Как из мимокрокодила стать машоббоярином?
Читать, писать что-нибудь. Учиться, учиться и учиться но не коммунизму.
Аноним 06/05/18 Вск 13:35:32  1185062
>>1176568
Пиздец, лучше останусь в своём уютном энтерпрайзе
Аноним 06/05/18 Вск 16:49:25  1185191
https://www.coursera.org/specializations/machine-learning-data-analysis

Эта специализация от мфти и Яндекса - хороший вариант для вката неофиту?
Математику курю отдельно и глубже (там ее как-то совсем поверхностно дают).
Аноним 06/05/18 Вск 18:36:00  1185277
>>1185048
> но не коммунизму.
Почему нет?
Аноним 06/05/18 Вск 19:04:26  1185295
>>1185191
>https://www.coursera.org/specializations/machine-learning-data-analysis
не знаю, нахер эта курсера вообще нужна? С матскилами вкатится ты можешь просто почитав старт гайд от sklearn, а дальше есть божественные статьи того же Стенфорта например и вообще материалов очень много. Вот например http://colah.github.io
Аноним 06/05/18 Вск 22:20:42  1185418
>>1185295
Не, матскиллов у меня пока нет.
Аноним 08/05/18 Втр 00:20:46  1185930
Я в машобе не секу, но по работе нужно просчитать как одна штука во временном ряде коррелирует с другой.
Правильно-ли понимаю что если знать заранее что с чем должно коррелировать то именно машинное обучение здесь это overkill?
Аноним 08/05/18 Втр 11:20:13  1186067
>>1185930
смотри автокореляцию для ВР
Аноним 09/05/18 Срд 10:29:02  1186681
Представим две рекурентные нейросети. Для представления значений в стандартных рекурентных сетях для обработки текста используют словарь из векторов, соответствующих словам. Но в нашем случае необходимо получать не слова, а символы, а на выход получать слова (неупорядоченые векторы, но имеющие несколько диапазонов) в строгом порядке, далее эти векторы необходимо извлекать и обрабатывать именно в том порядке ({t0, t1, ... tn}). В таком случае упираемся в проблему того, что для этого потребуется просто огромное количество нейронов, ввиду более двух тысяч слов, которые небходимы для адекватной обработки. В стандартном случае также меньше затрат, ведь векторы упорядочены. Но далее нам паралельно с хард-кодом нужно обрабатывать выходные векторы в ещё одной сети, на выход которой должны поступать значения определённых векторов и также близкие к нулевым значения. Выход обрабатывается хард-кодом. Тут ещё сложнее, потому что определённый диапазон векторов записывается ещё раз, а также их связи. Вопрос - как мне считать дохулиард нейронов и где хранить все веса? Это ещё при учёте, что дальше на основе работы этих сетей будет построена ещё одна система, чтобы этот текст восстанавливать. То есть ещё столько же дохуя.
Аноним 09/05/18 Срд 10:53:17  1186689
>>1186681
Для таких случаев используют иерархический софтмакс (тогда обрабатывать приходится не дохулиард нейронов, а логарифмическое их количество от этого дохулиарда). Конкретные архитектуры - CBOW и skipgram, реализовано в word2vec, но все нужное есть и в слесарьплове. Если нужно именно для отдельных символов в словах, то SISG (subword information skipgram), есть в пейсбуковском fasttext.
Аноним 09/05/18 Срд 11:55:03  1186707
>>1186689
Ещё кое что непонятно. При обучении RNN бэкпропогэйшн во времени ведь может моделировать ошибку до начала работы самой сети. Как на улететь в бесконечный зацикленный алгоритм в первой же итерации?
Аноним 09/05/18 Срд 13:16:49  1186766
IMG201805091303[...].jpg (1639Кб, 2697x2672)
Здравствуйте машорбщики, у меня для вас прикладная задача: посчитать количество жуков на фотографии. На этой качество говно, но я смогу сделать получше, если надо.
Аноним 09/05/18 Срд 13:24:29  1186770
>>1186766
это ты раньше червячков сортировал?
Аноним 09/05/18 Срд 13:25:34  1186773
>>1186770
Ээээ, нет. А что там за черви были?
Аноним 09/05/18 Срд 13:33:38  1186782
>>1186766
такую хуебень лучше с дополнительным временным измерением считать
Аноним 09/05/18 Срд 13:34:07  1186783
>>1186773
червяков вообще анирал почситать
Аноним 09/05/18 Срд 13:34:42  1186784
>>1186782
Подробнее?
Аноним 09/05/18 Срд 13:36:38  1186787
>>1186784
видево жи
Аноним 09/05/18 Срд 13:38:25  1186789
>>1186773
кормовые, анон хотел из по размеру/возрасту сортировать
Аноним 09/05/18 Срд 13:46:44  1186796
>>1186789
Эти тоже кормовые, но тут мне скорее нужно контролировать их численность чтобы выкидывать лишнее. Оверпопуляция только ухудшает их положение - загрязнение подстилки и банки, нехватка корма личинкам.
Аноним 09/05/18 Срд 13:51:00  1186806
>>1186796
ищи контуры, и попроси их не лезть друг на друга. тебе достаточно определить всего лишь олну дугу для детекта.
Аноним 09/05/18 Срд 13:56:34  1186809
>>1186806
Я не занимаюсь машобом, я только дал прикладную задачу. Если кто-то хочет взяться, буду рад посодействовать. Если нет... то нет.
Аноним 09/05/18 Срд 13:59:09  1186811
>>1186809
можно их просто на весах взвесить и не страдать хуйней.
Аноним 09/05/18 Срд 14:04:54  1186820
>>1186796
Ну считать ты их никак не посчитаешь через нейросеть. Можно их распознавать через нейросеть. Хотя, конечно, можно собрать ебенейшую архитектуру чтобы она считала через несколько, но легче взять картинку и распознавать где находится один жук, а в следующую итерациюпросто затирать это место на картинке белым цветом. Таким образом понадобится только одна маленькая сеть и пара функций обработки изображений.
Аноним 09/05/18 Срд 14:05:36  1186821
>>1186811
Ты мне предлагаешь каждые 2-3 дня вылавливать каждого жука ради взвешивания? Я бы тогда их считал просто так.
Аноним 09/05/18 Срд 14:08:02  1186826
>>1186820
неплохо
Аноним 09/05/18 Срд 14:10:33  1186831
>>1186821
(вес с жуками - без жуков) / вес одного жука
Аноним 09/05/18 Срд 14:11:48  1186833
>>1186821
кучку взял и взвесил, можно с гнездом взвешивать, даже доставать не нужно. у тебя хуйня с постановкой задачи, 2 маленьких жука и один большой будут жрать как четыре маленьких, плюс большой даст им пизды и поебет самочек
Аноним 09/05/18 Срд 14:11:48  1186834
>>1186820
правда в этом случае нужно найти очень маленькие фичерсы жука, как например клювик, или чтобы сеть могла определить заднюю и переднюю лапку жука (и посчитав между ними расстояние понять что это жук), потому что при таком подходе от низлежащих жуков будут оставаться только маленькие кусочки. Так же вопрос а если на картинке тысяча жуков как нейросеть из них выберет того единственного, которого она опознает?
Аноним 09/05/18 Срд 14:13:20  1186836
>>1186831
а как взвесить одного жука в домашних условиях?
Аноним 09/05/18 Срд 14:23:42  1186847
>>1186836
Кухонные весы взвешивают с точностью до грамма. Взвесь штук 20 и усредни.
Аноним 09/05/18 Срд 14:26:22  1186849
>>1186847
А как положить 20 жуков на весы, чтобы они не убежали?
Аноним 09/05/18 Срд 14:28:22  1186852
Весело вы рофлите конечно, но если кто захочет взяться и нужны будут еще материалы пишите в телегу - @aatof
Аноним 09/05/18 Срд 14:28:26  1186853
>>1186849
Загон им из картонки сделай.
Аноним 09/05/18 Срд 14:55:20  1186881
>>1186852
> пишите в телегу
+15
Аноним 09/05/18 Срд 16:58:52  1186964
>>1186834
Да вообще без проблем. Говорит нам где жук - затираем его там и прибавляем ещё единичку в счётчик. Распознавать то всё зачем? Тут по пятнадцать свёрток в два слоя, полносвязку с выходом на координаты, этого хватит. Хотя этого много для такой простой жучары. Обучать на картинках в гигле, которые скачиваются специальными программами.
tensorflow Аноним 09/05/18 Срд 17:21:40  1186996
Простите за нубство.
Есть 180 входов, 4 выхода и 1 tensorflow на питонах.
Помогите описать занесение входов и получение выходов. Обучение не нужно, веса задать случайными значениями.
Аноним 09/05/18 Срд 17:29:05  1187003
>>1186996

weights = tf.variable((180,4))
x = tf.placeholder()
y = activation_function(какая-то хуйня я дальше не помню, но суть в том, что нужно перемножить все x со всей строкой весов и это суммировать)
sess = tf.session()
sess.run(опять забыл)
Аноним 09/05/18 Срд 17:33:53  1187007
>>1187003
Оп-а, ситуация теперь прорисовывается. Спасибо больше. Если никто не распишет подробней, буду гуглить.
Аноним 09/05/18 Срд 17:38:04  1187011
>>1187007
Короче, не гугли гайды на русском. Они все полнейшее говно. Нужно постараться чтобы сделать хуже, серьёзно. Лучше прочти документацию, даже через гугл переводчик если не знаешь ангельский.
Аноним 09/05/18 Срд 17:43:36  1187017
>>1187011
С ангельским знаком, но на сайте tensor меня мучают или распознаванием по MNIST, или фотографиями ирисов(
Простого, для недалёких людей, не нашёл.
Аноним 09/05/18 Срд 17:47:50  1187019
>>1187017

> Простого, для недалёких людей, не нашёл.
Хоспаде. Простое для недалёких макак это Keras. Не мучай себя брат макак.
Аноним 09/05/18 Срд 18:21:09  1187055
>>1187017
output = []

x = tf.placeholder(dtype = tf.int32, shape = [None, 180])
w = tf.variable(tf.random_normal([180, 4]))

func = map(activation_function, matmul(x,w))

with tf.Session() as sess:
------output = sess.run(func)

Может сработает, а может нет, хуй знает, но тут множатся матрицы так что возможно форма стоит не в правильном порядке и строки нужно поменять со столбцами.

>>1187019
А тебе хуй за шиворот.
Аноним 09/05/18 Срд 18:23:35  1187056
>>1187055
это вся ваша нейройоба в 6 строчках кода?
Аноним 09/05/18 Срд 18:27:38  1187064
>>1187056
Исходники открой и охуей, сколько там строчек кода. Это просто удобная либа.
Аноним 09/05/18 Срд 18:27:43  1187066
BYfDbjL.jpg (103Кб, 550x550)
>>1187056
Да. Без обучения и с одним слоем. С обучением 9 будет, каждый слой +3 строки.
Лол, нет, это же полносвязка на фреймворке.
Аноним 09/05/18 Срд 18:32:23  1187072
>>1187066
>9 будет, каждый слой +3 строки.
так, а в чем тогда еба? я могу и 12 строк написать, где мяготка, вы фреймворкоебы?
Аноним 09/05/18 Срд 18:35:38  1187074
>>1187072
Дальше начинается вообще самый смак. Ты можешь написать в те же 6 строчек ультраклёвую сеть с одним слоем просто импортировав её оболочку из либы.
Аноним 09/05/18 Срд 18:37:23  1187078
>>1187072
>>1187072
есть два стула:
- Ты ебёшь непосредственно сеть
- Ты ебёшь анализ данных, вычисляешь фичерсы и готовишь дату для нейросети. И там и там год может вырстать да красивых стройных блоков текста. Но всё же первый на первом стуле неоспоримо более толстый дилдак.
Аноним 09/05/18 Срд 18:38:24  1187081
>>1187074
если все так просто, почему это не работает? где там вменяемые автономус вехикалс или окр?
Аноним 09/05/18 Срд 18:39:56  1187085
>>1187078
подготовил дату, положил в ящик и хорошенько потряс.
Аноним 09/05/18 Срд 18:47:34  1187089
>>1187085
ну в общем да. А чё еще надо? Модели валяются на гитхабе в екзамплах кераса. Там и анализ картинок, и лексика. Да блять я вот собрал модель из хеловорд туториала в три строки и до се ей пользуюсь для всего. Надеюсь, что когда нибудь пойму что она делает.
Аноним 09/05/18 Срд 18:47:56  1187090
>>1187081
Ало, да потому что эти оболочки и фреймворки разрабатывают топовые учёные топовых корпораций. Нахуй ты меришь способность местных по докам кнопки нажимать как способность разработки передовых технологий?
Аноним 09/05/18 Срд 18:53:21  1187095
>>1187090
ученые в говне моченые, оставим проблему распознования негров, а возьмем к примеру окр русских слов с ударением, файнридер виляет жопой и не монгут, тезеракт сосет с проглотом и без ударений, где ваша магия?
Аноним 09/05/18 Срд 19:02:11  1187099
>>1187095
>2k 18
>распознавать орочьи каракули
Аноним 09/05/18 Срд 19:39:46  1187111
>>1187099
про деванагари или синегальские писмена, тоже повыебуешься?
Аноним 09/05/18 Срд 19:55:05  1187115
>>1187055
Простите, а куда тут засовывать входные данные?
Аноним 09/05/18 Срд 20:37:13  1187134
>>1187115
А, ну да, там фиддикт нужен. В сессию когда запускаешь нужно засунуть {x:[твоя хуйня]}
Аноним 09/05/18 Срд 20:43:29  1187141
>>1187134
И при этом надо ещё указать что это аргумент feed_dict конечно.
Аноним 09/05/18 Срд 21:00:49  1187157
>>1187111
Предпочитаю heptapod b.
Аноним 09/05/18 Срд 21:11:55  1187160
>>1187089
Зачем ты ещё не сделал ИИ?
Аноним 09/05/18 Срд 21:12:54  1187161
>>1187115
Вот кстати, да. В туториалах это самое сложное.
Аноним 09/05/18 Срд 21:15:58  1187165
>>1187160
>>1187160
а что ты подразумеваешь под ИИ. Я сделал мини тулзы для моих быдло задачек. Вот например парень просит опознавать жуков. Для этой ебонины подойдёт модель из любого хелоуворлда. Нет?
Аноним 09/05/18 Срд 21:16:28  1187166
>>1187160
То что ии так не делается. Никто сейчас не может высрать ничего лучше распознавания видео.
Аноним 10/05/18 Чтв 00:07:49  1187327
>>1186766
Можно наверное по бликам на панцырях детектить.
Аноним 10/05/18 Чтв 06:48:31  1187440
Чувак из Дипмайнд поясняет за новые концепции в ИИ, над которыми они работают: https://www.youtube.com/watch?v=N5oZIO8pE40
Аноним 10/05/18 Чтв 11:29:54  1187516
>>1187440
Это всё тупые хипстеры, лучше бы ватника навернули
Аноним 10/05/18 Чтв 14:50:33  1187655
>>1187440
Как вы на англопараше слушаете, это же не язык, это говно
Аноним 10/05/18 Чтв 15:08:33  1187683
>>1187440
Это не ИИ.
Аноним 10/05/18 Чтв 19:44:26  1187857
Анон я только начинаю свой путь программиста. Подскажи к какому классу задач относиться моя, и порекомендуй направление дальнейших изысканий. В общем:
Мини задача, есть пользователь, который хочет посмотреть аниме. Каждую серию и каждый тайтл сопровождает 10 источников. Например 10 разных озвучек, или 10 переводов сабов от разных команд. Вот я хочу, чтобы пользователю не пришлось каждый раз выбирать озвучку, а построить список предпочитаемых пользователем источников (источник может включать в себя такие параметры как "команда озвучки", "разрешение видео", возможно что-то ещё). То есть на выходе должен быть тайтл с оптимальным параметрами для пользователя, без необходимости выбирать каждый раз вручную, смотреть ли в разрешении 1080р но озвучкой от васяна с мерзким голосом, или посмотреть 720 но в той озвучке, которую хочет пользователь. То есть необходима оценка приоритетов, что важнее для пользователя, любимая озвучка, или высокое разрешение, например.
Дело также в том, что не у каждого тайтла есть озвучка или Сабы от любимой команды, и нужно автоматически выбирать наиболее подходящий вариант на основе прошлых выборов. В общем такая задача, решил выбрать ее чтобы попробовать что такое машоб, если он подходит под эти задачи. Но ее нужно решить
Аноним 10/05/18 Чтв 20:01:52  1187885
>>1187857
В общем мне хотя бы сначала определить, является ли моя задача областью решения которой является машоб
Аноним 10/05/18 Чтв 21:59:11  1187971
>>1187885
Смотри все очень просто. Скачиваешь питон и керас (это такая библеотека). Читаешь официальный туториал, там все просто и примеры есть. Затем делаешь нейрал нетворк из слоев количеством примерно сколько у тебя бывает разных озвучек. Каждый слой состоит из н нейронов где н это байтовый размер озвучки. Потом ты просто прогоняешь сетку по всем озвучкам и получаешь ризультат.

Изи пизи, как говорил Линус тарвальдс
Аноним 10/05/18 Чтв 22:01:36  1187975
>>1187885
Да, это задача ранжирования.
Аноним 11/05/18 Птн 02:55:14  1188057
un-apunte-en-to[...].jpg (84Кб, 350x486)
Есть метод обучения фид-форвард рециркуляцией.

Не могу заставить его работать.

Есть у кого удачные примеры?
Аноним 11/05/18 Птн 04:31:52  1188065
>>1187971
>>1187975
Спасибо. Даже с этим уже можно в гугл.
Аноним 11/05/18 Птн 05:10:54  1188068
>>1188057
А почему не воспользуешься алгоритмом Хебба?
Аноним 11/05/18 Птн 11:42:33  1188174
>>1188068
Им только старые пердуны в НИИ пользуются
Аноним 11/05/18 Птн 11:55:07  1188181
>>1188174
Давайте назовём старые методы новыми именами для того, чтобы ими все пользовались.
Аноним 11/05/18 Птн 14:36:28  1188243
>>1188068
>А почему не воспользуешься алгоритмом Хебба?
Потому, что мне нужно скрытый слой обучать?
Аноним 11/05/18 Птн 23:20:27  1188506
Анонсы, что скажите про топологический анализ данных? У меня топологии в универе не было, стоит вкатываться?
Аноним 11/05/18 Птн 23:48:37  1188526
>>1188506
Это сложно очень. Чистая наука
http://colah.github.io/posts/2014-03-NN-Manifolds-Topology/
Аноним 12/05/18 Суб 05:59:38  1188592
144733955613968[...].png (170Кб, 400x548)
>>1188526
>Чистая наука
Аки теология
Аноним 12/05/18 Суб 11:31:27  1188630
>>1176320 (OP)
Можно в 28 без вышки вкатиться в машоб?
Аноним 12/05/18 Суб 11:33:28  1188631
>>1188630
Нет, не разрешаю.
Аноним 12/05/18 Суб 17:33:59  1188759
А как дела у байесовской нейронной сети с распознаванием картинок, а не только тестовых MNIST ?
Аноним 12/05/18 Суб 17:35:28  1188760
>>1188759
Или там дела как и с капсульными НС ?
Аноним 13/05/18 Вск 02:33:14  1188943
>>1188506
>>1188526
>Это сложно очень.
Плюс, больше спекуляция и пользы для макакингаприложений никакой.
Аноним 13/05/18 Вск 09:32:11  1188981
>>1188630
Вышка вроде помогает понимать математические значки.
Аноним 13/05/18 Вск 09:52:18  1188986
image.jpeg (1041Кб, 750x1334)
>>1188981

Пик помогает их понимать ничуть не хуже.
Аноним 13/05/18 Вск 10:23:57  1188994
>>1188981
Щас бы 5 лет учится, что бы матанопетуханские каракули разбирать
Аноним 13/05/18 Вск 13:13:16  1189074
>>1188986
ССЫЛКУ В СТУДИЮ
>>1188943
> пользы для макакингаприложений никакой
Правильно! Ведь все мы тут макаки!
Как же хочется бананов
Аноним 13/05/18 Вск 15:09:46  1189138
.png (7Кб, 180x100)
.png (7Кб, 180x100)
Сап. Надо распознать капчу майлру. Использую python + tensorflow, пробовал модели с гитхаба, типа https://github.com/JackonYang/captcha-tensorflow, но нормального ничего не получается. Обучал и на картинках без предобработки, и алгоритм писал удаляющий линию и кадрирующий капчу - на результат особо не повлияло. Что можете подсказать?
В идеале хочу что то такое - https://habr.com/post/343222/ но не могу додуматься, как должны работать карты центров, и в гугле информации по ним нету.
Аноним 13/05/18 Вск 16:07:06  1189166
И сразу ламерский вопрос. Почему в этой статье когда объясняется про ядра свёрточной сети, говорят что они квадратные. Разве на вход в такую сеть мы подаём не одномерный массив а двумерный?
Аноним 13/05/18 Вск 17:04:12  1189180
>>1189166
Сверточным сетям на вход, как правило, подают картинки, а они двумерные
Аноним 13/05/18 Вск 17:05:33  1189181
>>1189166
Сверточным сетям на вход, как правило, подают картинки, а они двумерные
Аноним 13/05/18 Вск 17:09:38  1189184
>>1189181
Повтори, я не расслышал.
Аноним 13/05/18 Вск 17:14:22  1189190
figure.png (97Кб, 400x400)
>>1189181
а есть ли в этом профит? Почему нельзя просто сделать Dense и радоваться?
Аноним 13/05/18 Вск 17:43:06  1189217
>>1189180
> Сверточным сетям на вход, как правило, подают картинки, а они двумерные
Тензоры, вообще-то. И они хоть сколько мерные, но в случае картинок обычно 3хмерные - R, G и B каналы. Пошто ж вы негр амотные такие, слесарьплов для вас же именно так назвали, что он тензоры считает. Ну в машобчике тензор не то же что в физике, в целом и скаляр, и вектор и матрица это тензоры, речь скорее про общий подход к массивам.
Аноним 13/05/18 Вск 17:58:11  1189233
>>1189217
> 3хмерные - R, G и B каналы
Минуточку, 3 в данном случае это длинна последней размерности. лол
Под размерностью я имею ввиду длину самой формы массива.
например форма массива
[[211,211,211], [211,211,211]]
есть (2, 3), значит его мерность 2
Аноним 13/05/18 Вск 20:15:47  1189331
>>1189217
>Тензоры, вообще-то
Я простой слесарь, для меня массив - это массив, а матанопетухи пусть как хотят его называют.
Аноним 13/05/18 Вск 20:56:30  1189388
>>1189331
Так ты не слесарь тогда, ты макака. Разница огромная. Алсо, макакам ИТТ слово не давали.
Аноним 13/05/18 Вск 21:46:24  1189410
>>1189388
Да я и так молчу, тут разговаривать не с кем, одни шизики-теоретики. Что вы вообще в /pr забыли, вам прямая дорога в /сцы
Аноним 13/05/18 Вск 22:23:03  1189422
>>1189190
раньше так и делали (мнист), но теряется жи информация
Аноним 13/05/18 Вск 23:35:56  1189443
Нейронки на жаваскрипте реально ли? В жс ведь реальны многомерные массивы и операции над ними.
Аноним 13/05/18 Вск 23:38:50  1189445
>>1189443
Да хоть на ассемблере.
Аноним 13/05/18 Вск 23:40:44  1189446
>>1189445
ну вот на пхп массивы sucks
Аноним 13/05/18 Вск 23:50:57  1189448
>>1189443
есть Слесарьплов.жс
Аноним 13/05/18 Вск 23:53:36  1189449
>>1189422
то есть Convolution это как бы 3-ёхмерная сеть да? Бляяять я пояяяяял да же?
Аноним 14/05/18 Пнд 00:06:58  1189451
>>1189446
Что не отменяет, что реально.
Аноним 14/05/18 Пнд 00:46:50  1189458
>>1189449
А капснет тогда что?
Аноним 14/05/18 Пнд 01:28:28  1189469
>>1189410
>теоретики
Может просто ты настолько тупой, что вокруг одни мамкины учёные мерещатся?
Аноним 14/05/18 Пнд 04:49:32  1189492
>>1189448
> есть Слесарьплов.жс
И он полностью на жс, в браузере работает? Или просто обёртка для пистоновского слесарьплова?
Аноним 14/05/18 Пнд 09:15:31  1189523
>>1189166
Потому что как бы ты не подавал данные, преобразовываешь ты их согласно квадратному ядру.
Аноним 14/05/18 Пнд 09:16:28  1189524
>>1189443
Так это один массив нужен и цикл. Всё.
Аноним 14/05/18 Пнд 09:44:54  1189533
>>1189523
Стоит сказать, что ядра бывают и не квадратные
Аноним 14/05/18 Пнд 10:37:39  1189549
>>1189533
Круглые? Кубические
Аноним 14/05/18 Пнд 11:03:54  1189567
>>1189549
Прямоугольные же.
Аноним 14/05/18 Пнд 13:07:04  1189619
Пишите предложения по шапке, господа.
Аноним 14/05/18 Пнд 13:17:48  1189620
>>1189190
Пиздец блядь, такую громозкую хуйню делают только ради того, чтобы буковку s распознать, пиздец.
Аноним 14/05/18 Пнд 13:19:28  1189621
>>1189619
> Пишите предложения по шапке, господа.
Если что-то нехипстерское добавить, мало кто поймёт. А с хипстерского толку мало, после такого чтива поциент идёт сюда и спрашивает, хуле сотни слоёв не хватает для линейной регрессии. Лично мне неизвестны книжки, в которых и теория давалась бы нормально, и последние достижения. Скорее всего, таких просто нет. С одной стороны Вапник, который с первых страниц ебашит вариационное исчисление, с другой хуйня уровня import slesarplow as sp. С третьей вроде норм книшки, но написаны в 90е годы и про всякий диплернинх там нету.
Аноним 14/05/18 Пнд 13:21:05  1189623
>>1189620
Ну ты же циферку пять не распознал на картинке. Такую громоздкую хуйню родили, а она с такой простой задачей не справилась, пиздец.
Аноним 14/05/18 Пнд 13:26:39  1189626
>>1189621
>А с хипстерского толку мало, после такого чтива поциент идёт сюда и спрашивает, хуле сотни слоёв не хватает для линейной регрессии.
Согласен. Это какой-то пиздец. Прочитал статью какой-то тянки для макак об Convolution, бля лучшеб вообще не читал. Вот это мания писать просто о сложном иногда совершенно лишняя и уводит в неправильное понимание вещей.
Аноним 14/05/18 Пнд 13:38:04  1189633
>>1189623
Её можно и как S интерпретировать.
Аноним 14/05/18 Пнд 13:41:37  1189635
>>1189633
Чё вы доебались до этой S. Тут вопрос нахуя нужны Conv слои? Когда Dense вполне справляются с битмапами расшейпенными до одномерного массива?
Аноним 14/05/18 Пнд 13:42:17  1189637
Почему не детектируют символы в тексте или на табличках? Это очень сложно?
Аноним 14/05/18 Пнд 13:54:47  1189644
>>1189635
Дурень, блять, как же ты надоел.
>вполне справляются
Они вполне не справляются. Развернул ты картинку в строку - что там ловить? Даже свёртку после этого поставь с кернелом 1xn - нихуя фич не словишь. Свёртка с первого слоя видит целый кусок картинки, а не хуй пойми как расположенный.
Аноним 14/05/18 Пнд 13:58:28  1189645
>>1189644
спасибо
Аноним 14/05/18 Пнд 14:48:02  1189667
>>1189635
Для больших Dense у тебя будет дохулион параметров, которые просто не влезут в память. Поэтому берут маленький Dense и построчно его водят по картинке, получают 2D фичи - это и есть свертка. По полученным фичам снова водят сверткой, и получают новые фичи. В какой-то момент 2D у фич нам уже не нужно (например, для классификации похуй, где котик, главное что он есть) - тогда фичи растягивают в 1D массив.
Аноним 14/05/18 Пнд 14:59:40  1189674
>>1189667
Звучит охуенно. Спасибо.
Аноним 14/05/18 Пнд 15:55:06  1189697
>>1189667
То есть по сути из одной большой фичи - фотографии кота с собакой мы делаем несколько фич - глаз кота, нос собаки, лапка кота?
Аноним 14/05/18 Пнд 16:11:11  1189703
>>1189697
> То есть по сути из одной большой фичи - фотографии кота с собакой мы делаем несколько фич - глаз кота, нос собаки, лапка кота?
Нет. Фичи кота это более сложная тема. Но в сверточных нейроночках их можно визуализировать на разных уровнях. Так же как в зрительном анализаторе, самый простой уровень это части контура объекта, потом уже всякие совокупности и контуры этих контуров итд.
Аноним 14/05/18 Пнд 16:40:36  1189716
>>1189697
Да. Чем глубже фича от начала, те выше уровень абстракции.
Упрощенно говоря, на первом уровне ядра свертки реагируют на края (контуры), текстуры (типа "шерсть") и дают на выходе карты активации этих фич.
На следующем уровне свертки, исходя из сочетания предыдущих фич, можно уже задетектить глаза кота, нос кота, и так далее.
Следующее ядро свертки видит, что вот тут глаза кота, тут уши кота, тут нос кота - значит можно сказать, что это голова кота, и выдает фичу расположения головы.
Еще глубже сверткой можно сопоставить голову кота с туловищем и остальными частями, и выдать фичу расположения всего кота. Так решается задача детектирования - где именно на фото кот.
Для собаки некоторые простые фичи могут быть общие с котом (линия, контур, текстура), а некоторые нет (у кота уши не такие, как у спаниеля)
Аноним 14/05/18 Пнд 17:28:56  1189739
image.jpeg (1041Кб, 750x1334)
>>1189619
Аноним 14/05/18 Пнд 17:45:34  1189751
>>1189739
Что в ней такого? Судя по содержанию, обычный первый семестр первого курса матфака. То же было у меня в универе, то же есть в курсе MIT, например. Гуглится на раз по очевидному запросу "linear algebra course". Проще добавить, чтобы для всей матхуйни смотрели эти курсы.
Аноним 14/05/18 Пнд 17:47:19  1189752
>>1188759
> байесовской
Для распознавания картинок достаточно частотной вероятности.
Аноним 15/05/18 Втр 02:02:58  1190024
Может знаете какие-нибудь ОБЗОРНЫЕ работы хотя бы по части того что напридумывали за всё это чудное время хайпа чтобы вкатывающиеся хоть как-то сориентировались что-куда и вот их и запихнёте в шапку?
Аноним 15/05/18 Втр 02:09:03  1190025
>>1189752
Понятно, но одно время хвастались что баес не имеет переобучения. Вот я не видел больше никакого его тестового применения, кроме мниста.
>>1190024
О чем ты говоришь? Тут даже и сырых и размеченных данных нет.
Аноним 15/05/18 Втр 02:10:53  1190026
>>1190024
Ммм, даже не знаю... как насчет первой ссылки из шапки? Как насчет того, чтобы вообще прочесть шапку? Если ты не осилил шапку, то почему ты думаешь, что осилишь обзорную работу?
Аноним 15/05/18 Втр 02:15:20  1190027
>>1189619
Предлагаю оставить только ссылку на диплернинбук, все остальное нахрен не нужно. Большую шапку никто не читает, а так хоть будет бросаться в глаза. Нубам нужна только эта ссылка, вкатившиеся господа все сами знают. Если я буду перекатывать, так и сделаю.
Аноним 15/05/18 Втр 02:37:31  1190033
https://www.youtube.com/watch?v=lXUQ-DdSDoE

Как называются такие диалоговые системы? Как их тренируют или это не НС ?
Аноним 15/05/18 Втр 09:20:27  1190078
>>1190033
>Как называются такие диалоговые системы?
HINDUSTAN
> Как их тренируют или это не НС ?
Forward meditating.
Аноним 15/05/18 Втр 11:44:48  1190175
ПЕРЕКАТ
>>1190173 (OP)
>>1190173 (OP)
>>1190173 (OP)
Аноним 15/05/18 Втр 11:47:18  1190179
ПЕРЕКАТ
ПЕРЕКАТ
ПЕРЕКАТ


>>1190173 (OP) (OP)
>>1190173 (OP) (OP)
>>1190173 (OP) (OP)

ПЕРЕКАТ
ПЕРЕКАТ
ПЕРЕКАТ


>>1190173 (OP) (OP)
>>1190173 (OP) (OP)
>>1190173 (OP) (OP)

ПЕРЕКАТ
ПЕРЕКАТ
ПЕРЕКАТ


>>1190173 (OP) (OP)
>>1190173 (OP) (OP)
>>1190173 (OP) (OP)

ПЕРЕКАТ
ПЕРЕКАТ
ПЕРЕКАТ


>>1190173 (OP) (OP)
>>1190173 (OP) (OP)
>>1190173 (OP) (OP)


Топ тредов
Избранное