[Ответить в тред] Ответить в тред

Check this out!


<<
Назад | Вниз | Каталог | Обновить тред | Автообновление
506 | 19 | 130

НЕЙРОНОЧКИ И МАШОБ ТРЕД №?.9 /ai/ Аноним 20/09/18 Чтв 22:44:37  1267390  
1.jpg (303Кб, 1600x1200)
2.jpg (73Кб, 614x608)
3.jpg (52Кб, 1048x392)
4.jpg (410Кб, 976x1815)
Очередной тред про хипстерские технологии, которые не работают.
Продолжаем спрашивать очевидные вещи, о которых знает любой индус, прочитавший хоть одну книгу по машобу.

FAQ:
Я ничего не понимаю, что делать? Либо в тупую import slesarplow as sp по туториалам, либо идти изучать математику курсы MIT тебе в помощь. Не нужно засирать тред вопросами типа "что такое сигма?".
Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.
Что почитать для вкатывания? http://www.deeplearningbook.org/
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/ | https://www.hackerrank.com/domains/ai | https://github.com/pytorch/examples
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/
Где работать? https://www.indeed.com/q-deep-learning-jobs.html
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/ | http://www.datatau.com/ На реддите также есть хороший ФЭК для вкатывающихся
Где посмотреть последние статьи? http://www.arxiv-sanity.com/
Где ещё можно поговорить про анализ данных? http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Иначе выгоднее вложиться в 1080Ti или Titan X.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Архивач:
http://arhivach.cf/thread/389248/
Остальные в предыдущих тредах

Там же можно найти треды 2016-2017 гг. по поиску "machine learning" и "НЕЙРОНОЧКИ & МАШОБЧИК"

Предыдущий тред: >>1252855 (OP)
Аноним 21/09/18 Птн 03:40:19  1267458
Можно ли научить машину ТРИЗу и заставить изобретать?
Аноним 21/09/18 Птн 05:01:20  1267466
>>1267458
> ТРИЗ
Совковое наебалово. Много ты знаешь изобретений, созданных этим методом?
Аноним 21/09/18 Птн 05:19:47  1267468
>>1267458
Плати мне биткоин и решим вопрос.
Аноним 21/09/18 Птн 06:07:23  1267471
>>1267466
Большинство советских технологий, если верить автору.
Аноним 21/09/18 Птн 07:22:11  1267476
>>1267468
Давай кошелек.
Аноним 21/09/18 Птн 08:37:03  1267495
Умный анон, поясни нормальным крайне доступным языком, что такое "эффективность оценки", а так же "асимптотическая эффективность"? Результаты гугла и вики для меня нечитаемы.

тупой анон
Аноним 21/09/18 Птн 09:12:02  1267506
Привет. в прошлом писал про тексты и прочий генсим.
В общем обучил я значит по вишневскому модель, запрашиваю мост_симилар к слову "время". А он мне говорит:
[('скорой', 0.9968923926353455), ('The', 0.9966970682144165), ('Мерседес-Бенц', 0.9962846636772156)]

Он ахуел?
Аноним 21/09/18 Птн 09:47:19  1267534
>>1267506
у тебя данных-то сколько? если меньше 500 мб, то уменьшай размерность вектора и хотя бы делай .lower() на своих "Мерседес-Бенц". И насколько у тебя данных различаются? Если обучаешь на какой-нибудь ерунде типа дваче, то у тебя половина сообщений будет одинаковыми, смело можешь делать set и набирать еще данных.
Аноним 21/09/18 Птн 09:52:12  1267537
>>1267495
Это нечеткий петух использует умные слова для того, чтобы сказать, что нейронки требуют много данных для обучения (много примеров одного и того же класса), что на самом деле является проблемой. Но он, конечно же, не учитывает всякие тренды на zero-shot learning и one-shot learning, так как он из машоба видел только курс индуса на ютубе.
Аноним 21/09/18 Птн 11:24:07  1267582
>>1267537
> нейронки требуют много данных для обучения (много примеров одного и того же класса), что на самом деле является проблемой.
Это ты понимаешь, уже хорошо. Но это не проблема, это суть ваших нейроночек. Они могут обрабатывать данные только так, квадратно-гнездовым способом, при том что примерно 85-90% данных вообще не нужны например для построения решающего правила, классифицирующего классы, т.к в этом случае роль играют только примеры, находящиеся на границах классов. Когда речь об игрушечном примере с десятком точек, разницы нет. Но когда нужен классификатор негров, построенный на многогигабайтном датасете, вот тут и получается, что без топовых видюх нихуя не сделать. И не надо говорить, что SVM распознает негров хуже, это алгоритм из прошлого века, его нужно сравнивать с перцептроном, а не с ганами. Речь о самих подходах к проблеме.
Аноним 21/09/18 Птн 11:29:35  1267586
>>1267495
Эффективность грит, что твоя оценка самая пиздатая. Асимптотическая эффективность используется, чтобы ты вообще хоть какую-то оценку получил, а то эффективная оценка может и не существовать.
Аноним 21/09/18 Птн 11:45:05  1267595
>>1267458
Можно, если сможешь научить нейронку решать конечную проблему физического противоречия. Только вот не сможешь же.
Аноним 21/09/18 Птн 13:28:14  1267673
>>1267534
https://m.habr.com/post/343704/ по этому тутору делал, спасибо попробую сегодня покурить по обрывкам инфы от тебя какой то мануал. Слушай а может ты что то подкинешь мне чтобы я не блуждал в этих дебрях информации в интернете, на английском тоже сойдёт.
На вишневском учил, сама модель 20метров вроде встала, хочу научить её стилизировать моё сухое говно под говно с которого тякут тянки, не баду ради, а копирайтинга для
Аноним 21/09/18 Птн 13:33:17  1267679
>>1267673
Тянки текут с ганов и имейджпроцессинга.
Аноним 21/09/18 Птн 13:40:42  1267687
>>1267679
Да нет, они от красивого текста про еблю и чувства лубов и все такое., тякут) хотя тут знаешь все от человека зависит, толи он нихера в представить не может и ему картинку нужно показать, либо написать и дать прочитать чтобы его нейронка в голове сама нарисовала картинку)
Аноним 21/09/18 Птн 14:28:36  1267715
>>1267582

Как хорошо, когда ты во всем разобрался и всё уже знаешь до конца.

Теперь иди нахуй.
Аноним 21/09/18 Птн 14:31:35  1267723
>>1267687
https://habr.com/post/326380/

думаю, тебе стоит попробовать готовые эмбеддинги с http://rusvectores.org/
эмбеддинги сами по себе мало дают
Аноним 21/09/18 Птн 15:51:48  1267765
>>1267715
А что ты подгорел-то, мань? Я разве что-то не так сказал? Я понимаю, что проще нести хуйню и кукарекать про нечёткого петуха, чем признать, что петух тут только ты. И сам нихуя не понимаешь в том, про что несешь
Аноним 21/09/18 Птн 16:03:09  1267777
>>1267723
Тееекс, бнадеюсь ты тот анон что это мне кидал в телеге, бтв ещё раз спасибо, долго обрабатываю статейки я эти своим мозгом.
Статья кайфовая и она в принципе решает всю проблему оьощнаяенную ранее: " рерайтинг", но там модель общая, а я хочу эдакого романтика сделать, так что обучать свою модель все равно придётся. Но для того чтобы обеспечить себя можно замутить такую штуку и рерайтить всякий информационный мусор о здоровье, крипту валютах, беременностях и прочем... Какой кайфовый мир, ааааах!
Аноним 21/09/18 Птн 16:10:41  1267784
>>1267777
Ну и фантазёр пиздос. Уроки то сделал?
Аноним 21/09/18 Птн 16:55:15  1267806
Здарова пачаны. Объясните плиз гуманитарию насколько вообще все эти ваши нейроночки близки к созданию искусственного разума и возможно ли это в принципе?
И насколько правдив этот видос?
https://www.youtube.com/watch?v=WbUJZJz9cag
Аноним 21/09/18 Птн 17:00:27  1267808
>>1267806
Ни секундой не близки. Гугл напиздел, что создаст уже к 2020-му. Сейчас нет даже зародыша.
Аноним 21/09/18 Птн 17:05:04  1267810
>>1267806
>возможно ли это в принципе

Ну ты же думаешь как-то?

Аноним 21/09/18 Птн 17:09:19  1267815
>>1267808

Думаю как continuous learning осилят - дело максимум 10 лет
Аноним 21/09/18 Птн 17:20:10  1267820
>>1267815
Окей. Когда реализуют абстрактную концепцию хуя с горы, тогда то и заживём!
Аноним 21/09/18 Птн 17:58:29  1267848
>>1267815
> continuous learning
Очередная хипстерская поебень под смузи?
Аноним 21/09/18 Птн 18:27:44  1267876
>>1267848

https://arxiv.org/pdf/1802.07569.pdf
Аноним 21/09/18 Птн 18:30:02  1267878
>>1267777
нет, не он, но вот еще одна ссылка
https://www.robinsloan.com/voyages-in-sentence-space/
Аноним 21/09/18 Птн 19:25:23  1267898
1.png (13Кб, 950x67)
>>1267876
>Gopnik
Вот вообще ничего нового не прочитал. Всю эту хуйню из года в год одни сойбои переписывают у других. А толку хуй.
Аноним 21/09/18 Птн 19:32:58  1267899
>>1267876
Лол. Полнейшая хуита. Как HTM, придумали говно и славят себя что такое изобрели, а сойбои им верят.
Аноним 21/09/18 Птн 22:27:45  1267985
15375222710340.png (23Кб, 301x194)
Как с помощью keras реализовать то, что на картинке?

from keras.models import Sequential
from keras.layers import Dense
model = Sequential()
model.add(Dense(8, input_dim = 3, kernel_initializer = "random_uniform"))

Так? Как указать количество нейронов в выходном слое?
Аноним 22/09/18 Суб 02:29:47  1268091
>>1267390 (OP)
Фолды здесь?
Аноним 22/09/18 Суб 02:41:36  1268093
Есть ли в треде успешные kaggle-господа? Делитесь историями. Насколько сложно было вкатиться, какие проффиты поимели
Аноним 22/09/18 Суб 02:48:12  1268094
Вот задачка для нейроночников: есть фильм, требуется в видеопотоке выделить героев и подписать, как кого зовут, информацию взять из аудиодорожки. Как решать будете?
Аноним 22/09/18 Суб 05:31:15  1268112
>>1268094
Возьму нейросеть точеную, на пике посажу.
Аноним 22/09/18 Суб 08:55:33  1268143
https://learnpythonthehardway.org/book/
Аноним 22/09/18 Суб 13:03:15  1268242
>>1267899
Что не так с htm?
Аноним 22/09/18 Суб 13:37:30  1268261
>>1268242
Не нужно.
Аноним 22/09/18 Суб 14:50:25  1268279
>>1268261
А можешь подробнее?
я пока не особо лез в нейроночки, но читал про htm и показалась интересной
Аноним 22/09/18 Суб 14:53:59  1268281
>>1267723
А скажи, как мне подкрячить к гензиму? Вот качаю я значит самую большую модель с русвектора, качается чудо в архиве, в архиве 7 файлов что мне грузить
в gensim.models.KeyedVectors.load_word2vec_format
М?

Кстати теперь
мостсимилар "Стол"
[('губами', 0.9999538660049438), ('цветы', 0.9999417066574097), ('комнаты', 0.9999401569366455)]
Аноним 22/09/18 Суб 16:22:59  1268312
>>1267985
Бамп.
Аноним 22/09/18 Суб 20:39:54  1268441
>>1268312
Ты уже два дня не можешь посмотреть документацию, туториал, блог, любой пример? Ты понимаешь, что ты спрашиваешь буквально хеллоу ворлд от кераса? Даже не физзбазз, хеллоу ворлд? Ты безнадежен, бросай это дело сейчас, пока не слил впустую годы своей жизни.
Аноним 22/09/18 Суб 22:55:03  1268504
Посмотрел на ютубе новинки, прямо магия ИРЛ, вау.

Какой бэкграунд нужен для вката? если прямо ноль, то что учить ДО?

Деньги не интересны, интересно смочь в магию.


Аноним 23/09/18 Вск 00:43:03  1268536
>>1268504
Новинки? Ссылки можешь привести?
Аноним 23/09/18 Вск 00:53:04  1268539
>>1268504
Питон, матан класса до 9-10 и всё.
Аноним 23/09/18 Вск 02:27:06  1268556
>>1268504
https://www.youtube.com/watch?v=zTQwRe6_hCs
Аноним 23/09/18 Вск 03:18:38  1268561
Можно ли научиться скорочтению с помощью приложений на анроид?
Аноним 23/09/18 Вск 10:24:57  1268639
>>1268561
Нет, конечно.
Аноним 23/09/18 Вск 10:49:38  1268662
>>1268441
Хочешь верь, хочешь нет, но нигде нет туториала в виде:
код - его визуальное представление.
Везде просто дается несколько строчек, которые с нуля непонятно, как интерпретировать.
Аноним 23/09/18 Вск 13:40:09  1268836
>>1268662
Есть подобные вещи...
Аноним 23/09/18 Вск 14:04:14  1268871
>>1268662
Бросай это говно. Оно не для тебя.
Deep learning specialization на Coursera
Аноним 23/09/18 Вск 19:15:06  1269061
Аноны, не могли бы вы ответить на пару вопросов

Дико доставляет сама тема, хочу вкатиться.


Но так же интересно, реально ли устроиться куда-то?
В моём городе от силы вакансии 3-4, с "перезвоним позже" могут спокойно все продинамить.
Или все же, думать о каком-то своем стартапе

Второй вопрос:
Как понять, когда ты готов к трудоустройству?

Бонус-вопрос:
Какой нужен опыт для работы, опыт той же веб макаки пойдет?
Аноним 23/09/18 Вск 20:00:57  1269094
>>1268281
Отлично,
@Хочешь поверяй, хочешь нет, но везде нет туториала в миндале:
идентификатор - его фотограмметрический понятие.
Всюду просто достаётся немного строк, которые с нуля неизвестно, как эксплицировать.@
Просто превосходно
Аноним 23/09/18 Вск 21:13:57  1269150
И все же, поясните за htm
Аноним 23/09/18 Вск 21:45:12  1269165
>>1269150
Негров распознает пока плохо.
Аноним 23/09/18 Вск 22:19:38  1269179
20000.jpg (486Кб, 1920x1080)
0010.jpg (503Кб, 1920x1080)
>>1267390 (OP)
Котаны, пытаюсь научить bvlc_googlenet видеть хуи, сделал 85к итераций, а до сих пор повсюду глаза какие-то выдаёт. Хуёв если что 160 штук, один хуй = одна категория. Может итераций мало, или датасет слишком маленький?
Аноним 23/09/18 Вск 22:28:47  1269191
>>1269179
>один хуй = одна категория
Ну и мудак. Делай в одну категорию все хуи. Пиздец, ты хоть основы понимаешь?
Аноним 23/09/18 Вск 22:35:26  1269194
>>1269191
Я так и хотел сделать с самого начала, но на хабре начитался что стоит в разные категории хуи раскидывать. Давно уже вкатываюсь в нейроночки, писал перцептрон без сторонних библиотек, но пока-что всю эту ебаторию со слоями не совсем понимаю. Обучаю нейронку на хуяих и параллельно читаю про их проектирование.

Та самая статья на хабре: https://habr.com/company/io/blog/264757/
Аноним 24/09/18 Пнд 08:17:21  1269332
>>1267537
>>1267495
Спасибо за ответы
Аноним 24/09/18 Пнд 08:22:12  1269334
>>1269194
На Хабре сидят в основном унтеры всякие. Хотя переводчики классные бывают, уверен они имеют какой-то профит.
Аноним 24/09/18 Пнд 09:14:55  1269345
Че вы только картиночки дрочите давайте про тексты говорить
>>1268662
>>1269094
Это же шидеврвальна!
Аноним 24/09/18 Пнд 11:32:30  1269382
e3.jpg (985Кб, 2260x1864)
>>1269179
Сначала тебе нужно нейронку дообучить распознавать хуи. Достаточно двух категорий - хуй/не хуй. Хуев чем больше - тем лучше. 160 штук маловато.
Когда сетку дотренируешь, и она будет хуи хорошо классифицировать - тогда можно deepdream натравливать.
Аноним 24/09/18 Пнд 12:29:33  1269400
>>1268279

Не слушай этих манек, читай научные бумаги лучше
Аноним 24/09/18 Пнд 12:41:47  1269404
Это чтобы хуетреды банить сразу же?
Аноним 24/09/18 Пнд 12:48:37  1269407
>>1269334
>На Хабре сидят в основном унтеры всякие
то ли дело двощь
Аноним 24/09/18 Пнд 13:02:24  1269411
>>1269407
но двоще всё знают про хуи
Аноним 24/09/18 Пнд 14:06:28  1269443
Сап, аноны. Есть какие-либо статьи/гайды с подробным описанием библиотек pandas и scikit-learn, кроме документавции?
Аноним 24/09/18 Пнд 14:21:03  1269448
>>1269407
одно другого не исключает же
Аноним 24/09/18 Пнд 15:27:59  1269482
Объясните, когда нейронка обучается, она задействует память?
Она же должна как-то "запомнить" "правильные" варианты, верно?
Если да, то как много для этого в среднем требуется памяти?
Сколько в среднем весит сама нейронка?
Аноним 24/09/18 Пнд 15:38:04  1269494
>>1269482
Пятистрочный файл несколько КБ, либа на несколько МБ и матрицы весов максимум один ГБ.
Аноним 24/09/18 Пнд 15:49:23  1269498
>>1269494
Охуеть, почему так мало?
А если в сети пара тысяч нейронов, это сильно повлияет на задействованную память?
Где-то вообще можно почитать про вот такие вещи без жёсткого матана?
Аноним 24/09/18 Пнд 16:01:21  1269514
>>1269498

А что тебя удивляет? Там в каждом нейроне одна функция + куча весов по 8 байт каждый. Некоторые даже человеческий мозг оценивают в несколько Тб, так что он вполне может влезть тебе на винт, вопрос в архитектуре
Аноним 24/09/18 Пнд 16:16:38  1269519
>>1269498
Пара тысяч это хуйня. В нормальной бывает и миллионами.
Аноним 24/09/18 Пнд 16:53:59  1269539
>>1269514
>>1269519
Просто, я всегда на мозг смотрел как на архитектуру с огромнейшим объёмом памяти.
Тогда задам закономерный вопрос : почему никто не хранит информацию в нейросетях?
Аноним 24/09/18 Пнд 16:59:26  1269542
И да, почему нужна такая мощная видеокарта?
Аноним 24/09/18 Пнд 17:08:13  1269547
>>1269539
Потому что это ебланизм. Всё равно что хранить информацию закодированную числами, то есть так как она в компьютере и хранится.
>>1269542
Потому что вычисления охуенные.
Аноним 24/09/18 Пнд 17:32:41  1269572
>>1269539

А ты попробуй вспомнить то что видел, например, 3 года назад 21 марта в 1080p
Аноним 24/09/18 Пнд 17:48:36  1269589
>>1269542
> И да, почему нужна такая мощная видеокарта?
Чтобы ты (((нвидии))) продажи поднимал.
Аноним 24/09/18 Пнд 17:56:51  1269597
>>1269382
То есть, лучше самому модель запилить? Или лучше дальше googlenet ебаться?
Аноним 24/09/18 Пнд 18:06:30  1269613
http://ru.diveintopython.net/odbchelper_indenting.html
Аноним 24/09/18 Пнд 18:18:18  1269617
>>1269572
То есть, хочешь сказать эта информация безвозвратно удалена мозгом?
Аноним 24/09/18 Пнд 18:35:16  1269634
>>1269617

Скорее упакована в говно, и оставлено только то, что связано с эмоциональным откликом/важно, а какой-нибудь генерик день тебе будет сложно вспомнить
Аноним 24/09/18 Пнд 18:36:40  1269636
>>1269597
Гугли fine-tuning что ли. Рано ты за рисование хуев взялся.
Аноним 24/09/18 Пнд 18:53:18  1269646
>>1267390 (OP)
Анонче, привет!
Запилил модельку, посчитал RMSE и всё такое. Теперь пытаюсь как-то анализировать результаты работы модельки. Типа на каких объектах модель выдала хуевые результаты, на каких - хорошие. Не уверен, что есть какие-то там алгоритмы для этого, но могли бы покидать хороших материалов анализа по результатам работы модели?
Надеюсь, понятно изложил мысль. Я хуй. Спасибо
Аноним 24/09/18 Пнд 19:24:21  1269660
>>1269636
Спасибо, погуглю. Надо же какую-то цель ставить и пытаться её достичь. Так проще учиться.
Аноним 25/09/18 Втр 01:15:04  1269788
Посоны а проясните про рекомендательные системы (напр для магаза).
Насколько я понимаю обычно составляется матрица юзер - покупки, уменьшается размерность, например, svd разложением а потом юзеру предлагается то что покупали похожие на него юзеры.
А если есть еще какая-то инфа про пользователей, типа там возраста и длины члена то как-нибудь можно эту инфу использовать?
Буду благодарен за линк на алгоритм / статью
Аноним 25/09/18 Втр 09:25:17  1269846
>>1269788
Статистику уровня "если купил шмурдяк три семерки и цветы, то купит и гондоны" можно посчитать напрямую, алгоритмы типа apriori, eclat итп из области association rule mining. Естественно, в такие модели можно добавить и длину члена и все что угодно.
Аноним 27/09/18 Чтв 00:41:02  1270749
Посоны, а как граф запихать в нейронку?
Аноним 27/09/18 Чтв 01:37:54  1270763
15052567699061.jpg (94Кб, 1056x704)
Посоны, посоветуйте годный гайд по решающим деревьям, хотеть полное объяснение как разбиваются объекты, почему и т.д желательно с доказательствами.
Аноним 27/09/18 Чтв 11:43:10  1270878
Когда нейроночки смогут в генерализацию (CIFAR-10 на CIFAR-10 хотя бы), контекст (овцы, покрашенные в оранжевый цвет распознаются, как цветы, лол), sample efficiency и устойчивость к адверсариальным атакам? А то создаётся нехорошее впечатление, что текущее направление это тупик и нет никаких идей, куда идти дальше.
Аноним 27/09/18 Чтв 12:00:12  1270885
>>1270878
Ты когда-нибудь руководил людьми? Я тебе расскажу: они тупые и ленивые. Делают ровно столько, чтобы избежать пиздюлей - ни больше, ни меньше. Нет угрозы пиздюлей - нет работы. Инициативы от них не дождешься.
При чем тут нейроночки? Подумой.
Аноним 27/09/18 Чтв 12:09:48  1270891
>>1270885
Двачую, люди слишком тупые и никчёмный чтобы делать то, что лучше них.
Аноним 27/09/18 Чтв 12:48:29  1270926
>>1270878
> создаётся нехорошее впечатление, что текущее направление это тупик и нет никаких идей, куда идти дальше.
Ещё в 60х умным людям было понятно, что это тупик.
Аноним 27/09/18 Чтв 13:15:15  1270933
>>1270878

Тупик, тупик, можешь не вкатываться
Аноним 27/09/18 Чтв 14:20:25  1270973
Сап, программач. Хочу накатать свою нейросеть, чтобы вылечить себя от одиночества и безделья. Умею в питон и дата сайнс. Какие курсы посоветуете? Хочу прям полностью сам написать, без всяких датафлоу.
Аноним 27/09/18 Чтв 14:27:22  1270980
>>1270973
Впрочем, извиняюсь, что в шапку не заглянул
Аноним 27/09/18 Чтв 14:30:56  1270982
>>1270973
Самому написать полносвязку можно за один вечер по памяти, если ты и правда знаешь питон и датасаенс.
Аноним 27/09/18 Чтв 14:35:11  1270984
>>1270973
>одиночества
Ты с ней под пледиком няшиться собрался, что ли?
Аноним 27/09/18 Чтв 14:58:09  1270993
Объясните дебилу, в чем же прогресс в многослойном обучении случился в 2012 году, если алгоритм не поменялся(тот же бэкпроп). Просто кто-то из ученых внушил себе и другим, что бэкпроп не будет работать после 3-ех слоев и все затормозилось?
Аноним 27/09/18 Чтв 15:23:50  1271006
42dd01790b8865f[...].jpg (45Кб, 800x533)
Кто то писал самообучающегося бота для покеррум параш, как успехи?
Стоит ли пробовать ради экспириенса, или неблагодарная херня?
Аноним 27/09/18 Чтв 15:33:04  1271009
>>1271006
Бля, надо попробовать.
Аноним 27/09/18 Чтв 15:35:46  1271013
>>1271009
Можешь не надеяться поднять триллиарды на покеррумах, боты сразу баняться банально по аномальному винрейту.
Но как задачка для практики правда интересна.

МимоСпрашивающий.
Аноним 27/09/18 Чтв 15:40:08  1271015
>>1270973
https://neuralnet.info/chapter/%d0%bf%d0%b5%d1%80%d1%81%d0%b5%d0%bf%d1%82%d1%80%d0%be%d0%bd%d1%8b/
Смотри примерно с середины главы, там есть "прям полностью"
Аноним 27/09/18 Чтв 15:40:33  1271016
>>1271013
Аномальный винрейт всмысле высокий?
Аноним 27/09/18 Чтв 15:42:07  1271017
>>1271013
Вообще если честно я умнее, чём ты подумал. Я подниму, я знаю как.
Аноним 27/09/18 Чтв 15:57:26  1271029
Скиньте АПИ для покеррумов. Жрать не на что.
Аноним 27/09/18 Чтв 16:03:55  1271032
>>1270993

Есть мнение что мощности подтянулись и пересеклись с объемами данных (хотя до сих пор на моей пеке сет дрочится часов 20)
Аноним 27/09/18 Чтв 16:25:12  1271040
>>1270993
Прогресс случился ещё в 80х, с появлением ленетов. И у Лекуна вроде что-то было про это, почему ничего не выйдет если взять простой перцептрон с кучей слоёв. Никто никому ничего не внушал, можешь сам проверить в керасе или ещё где, как будет работать перцептрон с хотя бы парой десятков слоёв.
Аноним 27/09/18 Чтв 20:09:39  1271115
>>1271040
> простой перцептрон
Это там где функция активации - знак?
У сверточных почему все нормально?
Аноним 27/09/18 Чтв 20:52:31  1271129
>>1271115
>У сверточных почему все нормально?
Потому что фичи детектят лучше. В обычном перцептроне картинка, например, полностью рассматривается, а в перцептроне со свёрточными слоями по ней ходит окошко, которое вытаскивает нужное.
Аноним 27/09/18 Чтв 23:10:39  1271176
>>1271129
Так так и пиши, что полносвязную сеть хер настроишь после 3-ех слоев, а придумали настраивать сверточные.
Аноним 28/09/18 Птн 01:20:47  1271218
Кто-нибудь может встречал проекты по генерации CSS с картинки? То есть берём самое банальное, есть скриншот с одним элементом, например кнопка, нужно сгенерировать стили этой кнопки по скрину.
На сколько вообще это сложно сделать? в нейронках полный 0, но готов разобраться
Аноним 28/09/18 Птн 02:55:58  1271233
>>1271218
Был же проект jpg2html, нейроночка по картинке писала код. Гугли.
Моча тут есть вообще? Почему >>1271231 хуйлопана не банят?
Аноним 28/09/18 Птн 16:33:24  1271509
http://rgho.st/8TzxP7syb
Аноним 28/09/18 Птн 20:51:18  1271596
Как заставить линейную регрессию работать?
1. Масштабировать признаки.
2. Убрать выбросы. (а как их найти?)
3. С помощью Lasso поудалять лишние признаки.
4. Применить всякие функции к признакам и к целевой переменной (а как понять, какие?).
А ещё какие способы есть? (этих не хватает)
Аноним 28/09/18 Птн 22:21:07  1271632
>>1271596
Провериться на гетероскедастичность и мб бороться с ней, использовать другую модель, ???
Аноним 28/09/18 Птн 22:23:38  1271633
>>1271596
ISLR читай. Там очень много про линейную и не только регрессию с кучей примеров что и как.
Аноним 28/09/18 Птн 23:39:47  1271656
Сап двач помоги. У меня есть ноут офк без гпу и т.д. я хотел бы с потренировать модель для обджект детектиона есть ли какая то возможность сделать это бесплатно?
Аноним 28/09/18 Птн 23:54:43  1271659
>>1271656
Можешь модель уменьшить, там рост ресурсов по оси точности экспоненциальный. Объект детектор можешь на своём ноутбуке запускать.
Аноним 28/09/18 Птн 23:55:31  1271660
>>1271656
google colab
Аноним 29/09/18 Суб 18:49:06  1271984
Привет. Сосач посоветуй годный гайд про desicion tree regression. Чтобы там объяснялись всякие оптимизации и в итоге можно было запилить свое дерево.
Аноним 29/09/18 Суб 21:13:02  1272072
>>1271984
Смотри, берёшь формулу из Вики, мапишь её на признаки, а затем сортируеешь. Это три строчки, а дерево уже вырастил.
Аноним 29/09/18 Суб 22:13:33  1272087
>>1271596
Покажи пример данных, где этого не хватает.
Аноним 30/09/18 Вск 14:45:10  1272378
http://wombat.org.ua/AByteOfPython/
Аноним 30/09/18 Вск 14:54:29  1272384
https://www.dropbox.com/s/3vndxclz1v5v9tu/%D0%92%D0%B0%D1%81%D0%B8%D0%BB%D1%8C%D0%B5%D0%B2%20%D0%90.%D0%9D.%20-%20Python%20%D0%BD%D0%B0%20%D0%BF%D1%80%D0%B8%D0%BC%D0%B5%D1%80%D0%B0%D1%85%20%28%D0%9F%D1%80%D0%BE%D1%81%D1%82%D0%BE%20%D0%BE%20%D1%81%D0%BB%D0%BE%D0%B6%D0%BD%D0%BE%D0%BC%29%20-%202016.pdf?dl=0
Аноним 30/09/18 Вск 15:04:26  1272386
http://www.deeplearningitalia.com/wp-content/uploads/2017/12/Dropbox_Chollet.pdf
Аноним 30/09/18 Вск 17:53:38  1272445
>>1267390 (OP)
Че на четвёртой картинке в формуле Байеса за черточка такая между P(йоба1|йоба2) чо там значит |
Аноним 30/09/18 Вск 18:04:40  1272447
>>1272445
Условная вероятность. Зная, что это формула Байеса, немного странно спрашивать такое
Аноним 30/09/18 Вск 18:07:24  1272449
>>1272087
Я думаю, мои данные -- не такой пример.
Но не знаю, не взлетает. А в каком порядке применять 1, 2, 3, 4? И как 2 и 4 можно реализовать?
Аноним 30/09/18 Вск 19:39:04  1272482
>>1272447
Не понял. Что | делает?
Аноним 30/09/18 Вск 20:18:55  1272513
>>1272482
https://ru.wikipedia.org/wiki/%D0%A3%D1%81%D0%BB%D0%BE%D0%B2%D0%BD%D0%B0%D1%8F_%D0%B2%D0%B5%D1%80%D0%BE%D1%8F%D1%82%D0%BD%D0%BE%D1%81%D1%82%D1%8C
Аноним 30/09/18 Вск 22:59:42  1272584
>>1267390 (OP)
>персептроны и прочий мусор
Чиво блять? А из чего нейронки состоят, типа из перцетрона жи. Чо за хуйня, чо тогда в нейронках то используют?
Аноним 30/09/18 Вск 23:07:51  1272587
>>1272584
Из пучков. Даже математика это наука о пучках.
Аноним 30/09/18 Вск 23:12:04  1272588
image.png (45Кб, 275x183)
>>1272587
Ну давай расскажи чо это за хрень такая тогда из чего они состоят?
Аноним 30/09/18 Вск 23:16:30  1272591
>>1272588
https://ru.wikipedia.org/wiki/Пучок_(математика)
Аноним 30/09/18 Вск 23:25:40  1272595
>>1272591
>https://ru.wikipedia.org/wiki/Пучок_(математика)
и где там хоть одно слово про нейросети а?
Аноним 01/10/18 Пнд 01:09:32  1272616
>>1272072
Хуйня там на вики, относительно разумное описание тут
https://cran.r-project.org/web/packages/partykit/vignettes/ctree.pdf
Аноним 01/10/18 Пнд 01:48:38  1272623
>>1270885
>Ты когда-нибудь руководил людьми работающими за статичную ставку
Пофиксил, а то думаю что тут не так.
Аноним 01/10/18 Пнд 02:20:11  1272626
>>1272595
эй пучки я жду ваших ответов, как связан пучков и нейроночки?
Аноним 01/10/18 Пнд 09:48:11  1272690
>>1272627
ну бле, чо вы такие трудные.
Поясняйте давайте, у вас тхред нейроночки называются, а вы мне про пучки свои, чо за хуйня, переименовывайтесь в пучковый тхред тогда, либо поясняйте.
Аноним 01/10/18 Пнд 10:28:00  1272708
>>1272690
Тебя троллят, нейроночки пока математикой плохо описаны.

Пучки - это кусок топологии, про связь нейроночек и топологии написано в этом треде на реддите.

https://www.reddit.com/r/MachineLearning/comments/5jfaox/d_what_are_current_relations_between_algebraic/

Если интересно, в Deep Learning book есть немного про многообразия и их связь с нейроночками, но популярным эвристикам там посвящено раз в 10 больше страниц.
Аноним 01/10/18 Пнд 10:29:05  1272709
>>1272708
https://www.deeplearningbook.org/version-2015-10-03/contents/manifolds.html
Аноним 01/10/18 Пнд 10:44:01  1272718
>>1272708
>Тебя троллят
вот пидоры двачерские.

Спасибо анон, хотя бы один адекват в треде.

обоссал перекатывателя за такое говно в шапке
Аноним 01/10/18 Пнд 10:54:19  1272727
>>1272708
> Тебя троллят, нейроночки пока математикой плохо описаны.
Опять ты на связь выходишь, мудило? Не отрицаю того, что с пучками это ещё один местный опущ без мозгов. Что там математикой не описано, мань? Полторы формулы, которые и представляют собой нейроночку? Или что?
Аноним 01/10/18 Пнд 11:04:06  1272732
>>1272727
а я понял, тут у вас завелся поехавший мотиматик в тхреде бугуртящий со своего бесполезного диплома, пытающийся свои говнотеории приложить туда куда они ниразу не вписываются. Понятнинько.
Аноним 01/10/18 Пнд 11:22:54  1272740
>>1272584
Это добавлено, потому что несколько тредов назад мелькали объебосы, которые брали голый перцептрон и орали, что "почему-то" ничего не работает.
>>1272718
>говно в шапке
Малолетний дебил, у нас доска тут немного не /math/, а /pr/. В конечном итоге заходящий сюда хочет не диссертацию защитить, а разобраться в хипстерских технологиях, для которых математика инструмент, а не самоцель.
Аноним 01/10/18 Пнд 11:30:12  1272744
15368398129820.jpg (10Кб, 276x183)
>>1272732
Скорее типичная жертва маркетинга, верующая что нынешний хайп со сверточными сетями - это вершина развития машоба, хипстеры с индусней пророки, а их пейперы ниочем под смузи - святое писание. А все, что было до этого - устаревшее неактуальное говно.
Аноним 01/10/18 Пнд 11:33:18  1272746
>>1272744
почему другие методы не используют в коммерции, если они лучше сверточных сетей?
Аноним 01/10/18 Пнд 11:37:45  1272750
>>1272740
Но в шапке правда говно из жопы. Диплернинхбук ниочем и изложение там для новичков не пригодное, ебут митеньку на десятки страниц с многоэтажными формулами там, где все можно парой картинок объяснить. И одновременно забыли весьма неплохую именно для вкатывальщиков книгу на русском, где все, в т.ч и диплернинх поясняется не только на словах и картинках, но и на готовом коде с нуля.
Аноним 01/10/18 Пнд 12:07:32  1272754
>>1272727
>>1272740

господи, да что с вами не так, откуда вы беретесь? полторы формулы бэкпропогейшена не отвечают на вопрос, почему нейроночки работают.

например, список вопросов, на которые жду от вас ответа.

почему дропаут дает лучше результат (сто раз уже "доказали", но не в совсем формальном виде)
почему attention работает лучше lstm на длинных последовательностях, а lstm на коротких (если это так)?
почему работает (или не работает super-convergence), или это вообще выдуманный концепт?
Аноним 01/10/18 Пнд 12:12:36  1272755
>>1272740
>немного не /math/
А зачем тогда в шапке писать, что нейроночки это чистая пучковая математика?
Аноним 01/10/18 Пнд 12:15:42  1272757
>>1272754
> почему нейроночки работают
Нука докажи и покажи почему нейроночки работают? Давай ты ответы лучше, что там мотиматика твоя доказала, кроме бекпропердолейшена.
Аноним 01/10/18 Пнд 12:22:43  1272762
>>1272754
> полторы формулы бэкпропогейшена не отвечают на вопрос, почему нейроночки работают.
Потому что ты их не понимаешь?
Аноним 01/10/18 Пнд 12:50:02  1272768
>>1272762
Их никто не понимает.
Аноним 01/10/18 Пнд 12:57:34  1272771
>>1272757
например,
Зачем нужно это обоснование? Казалось бы, дропаут и так отлично работает.
Одно важное следствие состоит в том, что изначально доля выбрасываемых ней-
ронов в дропауте была фиксированным числом. Но теперь, когда мы переформули-
ровали обучение с дропаутом в виде максимизации вариационной нижней оценки,
мы без проблем можем оптимизировать долю дропаута тоже: для этого достаточ-
но просто зафиксировать остальные веса и максимизировать ту же самую оцен-
ку по доле дропаута! Более того, мы теперь можем подбирать ее индивидуально:
для каждого слоя, для каждого нейрона, даже для каждой связи между нейронами.
Этот метод получил название вариационный дропаут (variational dropout) [279].
Изначальная процедура дропаута таких вольностей совершенно не предусматри-
вала, из нее не было понятно, как можно автоматически настраивать вероятность
дропаута. При этом никакого страха переобучиться нет — мы не меняем априор-
ное распределение, просто все точнее и точнее приближаем апостериорное. Более
того, выяснилось, что вариационный дропаут добавляет разреженности в глубо-
кие нейронные сети, то есть обнуляет подавляющее большинство весов [374]; этот
результат, кстати, был получен в России, в лаборатории Дмитрия Ветрова
Аноним 01/10/18 Пнд 13:11:39  1272775
>>1272750
>диплернинх
>на русском
>на готовом коде с нуля
И тут ты такой даёшь ссылку на эту хуйню.
Аноним 01/10/18 Пнд 13:32:58  1272782
>>1272775
> И тут ты такой даёшь ссылку на эту хуйню.
Вроде в прошлом треде было, я её даже на рыгхост заливал.
>>1272768
> Их никто не понимает.
Школьничество твоё заебало с тобой вместе. Не говори про всех, говори про себя. Ничего кроме аппроксимации функций в нейроночках не было, нет и не будет.
Аноним 01/10/18 Пнд 13:44:18  1272791
>>1272782
Неа, нет ничего. Ни в прошлом, ни в позапрошлом.
Аноним 01/10/18 Пнд 13:47:56  1272793
>>1272782
Двочую >>1272791, кого ты наёбываешь?
Аноним 01/10/18 Пнд 20:18:57  1272941
Планирую делать диплом распознавание меланомы по фоткам, планирую юзать тензерфлоу. Какие подводные? Нормальная тема или лучше свапнуть?
Аноним 01/10/18 Пнд 20:35:25  1272958
>>1272941
из подводных только датасет для обучения. Сможешь ли ты раздобыть достаточное количество размеченных фоток?
Аноним 01/10/18 Пнд 20:49:52  1272968
>>1272941
Тема ок, довольно хайповая. Такие проекты уже есть, ищи. Что не мешает тебе сделать свой, но как выше верно заметили, нужны большие объемы данных.
Аноним 01/10/18 Пнд 21:22:33  1272990
>>1272771
кстати поясните как попасть к нему в лабу, какие цели и подводные
Аноним 01/10/18 Пнд 21:35:19  1272996
>>1267390 (OP)
Пацаны! я ток щас понял что МАШОБ это МАШинное ОБучение! Ехууууууууууууууууу!!! ЯЯ до этого гуглил слово машоб, но мне выдавало в поиске только ссылки на эти треды. А теперь до меня дошло! уууууу вы на американских горках!
мимо учим джаву в шараге
Аноним 01/10/18 Пнд 21:35:33  1272997
>>1272782
Ссылочка-то таки будет или нет? А то гуглится только Николенко и др., где те же "многоэтажные формулы", есть код реализации на слесарьплове который так-то для игрушечных примеров можно тупо по поиску на гитхабе найти, не говоря о том, что его даже сами создатели фреймворков пишут, но охват меньше, чем в диплёрненхбуке.
Аноним 01/10/18 Пнд 21:35:51  1272998
>>1272754
> откуда вы беретесь?
С первого курса, вестимо. Пердун какой-нибудь с кафедры формулу накидал на доске, состоящую из суммирований по индексам - всё, значит "объяснено".
Аноним 01/10/18 Пнд 21:51:57  1273003
Господа, что нужно иметь, чтобы устроиться по нейронкам в какую-либо контору?
КТН нужон?
Аноним 01/10/18 Пнд 22:16:12  1273011
>>1273003
Мне больше интересно реально ли вкатиться после курсов типо Нетологии или Гикбрейнса без диплома бакалавра или магистра? Вышка есть но она инженерная и вуз шаражный.
Аноним 01/10/18 Пнд 23:31:51  1273038
>>1273003
Об этом тебе расскажут в какой-либо конторе.
Аноним 01/10/18 Пнд 23:56:06  1273046
Помогите вспомнить название фреймворка для (не глубокого): написано на крестах и куде, распределенные вычисления во все щели. Позиционируется как альтернатива спарку - у них в вики на гитхабе приводились таблицы сравнения бенчмарков.

Видел это чудо где-то год-полтора назад, сейчас не могу найти, все время натыкаюсь на mxnet.
Аноним 02/10/18 Втр 00:18:32  1273050
>>1273046
Thrill, Caffe? хз, если честно, мутноватое описание.

посмотри ещё тут https://github.com/topics/distributed-computing?l=c%2B%2B
Аноним 02/10/18 Втр 02:50:42  1273081
Скиньте почитать про самые новые оптимизаторы
Аноним 02/10/18 Втр 03:50:45  1273087
>>1273081
Пацаны грят, новые оптимизаторы это опиум для народа. В плане обобщения и всяких новых моделей, РЛ и т.п. СГД с моментумом рулит.
Аноним 02/10/18 Втр 11:10:44  1273205
>>1273046

Vowpal Wabbit ?
Аноним 02/10/18 Втр 11:12:39  1273207
>>1273011

Нет конечно
Аноним 02/10/18 Втр 11:15:21  1273212
>>1273205
еще пока гуглил про DyNet вспомнил, хотел его попробовать, но не попробовал
https://skymind.ai/wiki/comparison-frameworks-dl4j-tensorflow-pytorch#dynet
Аноним 02/10/18 Втр 16:43:56  1273444
Где про VAE почитать достаточно подробно
Оригинальная статья что-то не заходит
Аноним 02/10/18 Втр 17:07:46  1273451
>>1273444
У Кингмы в диссере отдельный раздел его енкодеру посвящён. Не ебу, правда, насколько он подробнее оригинальной статьи.
https://www.dropbox.com/s/v6ua3d9yt44vgb3/cover_and_thesis.pdf?dl=0
Аноним 03/10/18 Срд 10:59:00  1273825
>>1267390 (OP)

Так нейродвочаны, кароч я вкатываюсь, так шо сильно не пиздите, можете обоссать максимум.
Я вот читал кароч про нейроночки, анга смотрел, он там мне дич какую то втирал с мотиматикой, даже яндекса шад глянул, там еще больше дичи матиматической.
А на днях меня осенило, надо всеголишь взять какие нибудь данные, табличку, где есть какие то значения и взять другую табличку в которой каждая строка соотвествует строке из таблички с данными исходными. И запустить какой нибуть змеиный скрипт, это все прогонять через себя. И на выходе иметь готовую нейросеть, в которую можно скармливать данные по типу тех что были в таблице первоначальной.
Ну там еще тип нейрона выбрать всякие там сигмы и тд.

Так это, а чо так сложно преподают то? Во всяких шадах и на курсере, кучу матиматики, зачем? Свои всякие боесы, рисуют графики с точечками, между которых линии проводят. В чем смысол? Ведь можно этим ограничится, ну или вначале хотя бы это показать, что бы было понятно зачем это все.
Аноним 03/10/18 Срд 12:19:12  1273859
>>1273825

Аноним 03/10/18 Срд 12:28:39  1273864
>>1273859
Ну ты чиво? Вроди нормально же общались
Аноним 03/10/18 Срд 12:35:31  1273870
>>1273825

Ебани курс A-Z hands on deep learning удемишный (на торрентах есть), там вообще без математики объясняют основные архитектуры и как на фреймворках дрочить, а матешу отдельными ссылками на доп материалы - можно уже потом ПОГРУЖАТЬСЯ в меру своих сил, если захочется.
Аноним 03/10/18 Срд 12:39:18  1273874
>>1273825
Потому что этим ебланам математическая дичь всё равно что обычная дичь. Они её понимают, а люди нет.
Аноним 03/10/18 Срд 12:50:23  1273880
>>1273874
> Потому что этим ебланам математическая дичь всё равно что обычная дичь. Они её понимают, а люди нет.
Как раз ровно наоборот - люди математику понимают, а ебланы нет. В чем и разница между человеком и всякой хуйней.
Аноним 03/10/18 Срд 12:59:49  1273889
>>1273880
Фанатик плес. Куча говнотермином обозначающих простые вещи, это для говноедов, которые строят из себя илитку. Нормальными людьми такое говно явно не назвать.
Аноним 03/10/18 Срд 14:06:44  1273917
>>1273889
Нормальным, как и вообще человеком не назвать говно вроде тебя, ты заебал уже своим кукареканьем, не можешь в математику - просто сьеби из треда про математику. Это же так просто, а, говно?
Аноним 03/10/18 Срд 14:14:08  1273921
>>1273917
>пук
Довен походу читать не умеет, ладно читай по слогам это тред про нейронки.
Аноним 03/10/18 Срд 14:21:46  1273924
>>1273921
Это тред про машоб, сука.
Аноним 03/10/18 Срд 14:34:07  1273927
когда вы уже перестанете кормить неосиляторов производных
Аноним 03/10/18 Срд 15:28:45  1273952
>>1273927
Производные не нужны.
Аноним 03/10/18 Срд 15:33:19  1273953
Кстати правда не могу допереть, разве f'(x) = F(x) | F = f' ?
Аноним 03/10/18 Срд 16:55:20  1273986
W0chiOFfuQA.jpg (275Кб, 1598x1042)
>>1272771
Аноним 03/10/18 Срд 16:59:52  1273989
>>1273952
плюсую
просто перебираю коэфы в нейронке и беру потом лучшую из всех
Аноним 03/10/18 Срд 17:21:46  1273995
>>1273927

Двачую, давно пора банить наду этих гуманитарных пидорах.
Аноним 03/10/18 Срд 18:43:04  1274039
>>1270878
Вот тогда и поговорим/вы находитесь здесь.тхт
Аноним 03/10/18 Срд 18:45:39  1274044
>>1271176
Почему, используй relu и residual связи и настроишь, если точнее, нужно решить проблему затухающего градиента. Суть сверточных в другом, у них by design есть инвариантность к сдвигу твоих данных. Практически любые данные так устроены - от изображений до биржевых графиков, поэтому и сверточные везде.
Аноним 03/10/18 Срд 18:47:29  1274045
>>1271596
> Убрать выбросы. (а как их найти?)
Посмотри с помощью PCA на свои данные под разными углами, может увидишь чё.
Аноним 03/10/18 Срд 18:48:15  1274046
Да просто надо говорить сразу что без фунтдаментального математического, IT, физического образования в машоб не пустят. И не давать надежду шаражникам. Зачем эти сраные курсы плодить и давать надежду, факультеты целые по ИИ, спецухи яндекса. Зачем? Надо фильтр там вводить и даунов не пускать.
Аноним 03/10/18 Срд 18:57:44  1274058
>>1274046

Потому что машоб можно использовать и без матеши же
Аноним 03/10/18 Срд 19:04:01  1274065
>>1273825
Потому что сделал ты свою табличку, скормил рандомной нейросети, а нейросеть не работает так, как ты хочешь. И все, конец истории, так как в математику ты не можешь.
Аноним 03/10/18 Срд 19:54:17  1274093
>>1274046
> физического образования
Физика-то зачем? Может быть, ещё и химию до кучи?
Аноним 03/10/18 Срд 20:53:57  1274121
>>1274093
Биологическое. Нейронки же
Аноним 03/10/18 Срд 21:21:55  1274141
отделите этих метавкатывальщиков уже в отдельный тред как с маттредами сделали
Аноним 03/10/18 Срд 21:36:31  1274149
Правда ли что все эти ваши машобы это просто старая добрая статистика?
Аноним 03/10/18 Срд 21:49:08  1274157
W tensorflow/core/framework/op_kernel.cc:1275] OP_REQUIRES failed at ctc_loss_op.cc:166 : Invalid argument: Not enough time for target transition sequence (required: 36, available: 6)0You can turn this error into a warning by using the flag ignore_longer_outputs_than_inputs

ЧЯДНТ? Каждый раз в генераторе проверяю размерность, и всегда 36, в т.ч. на той итерации, когда эта ошибка вылетает.
Где этот флаг, блядь, искать?



Аноним 04/10/18 Чтв 02:23:21  1274234
>>1274157
почитай доку про ignore_longer_outputs_than_inputs=True
Аноним 04/10/18 Чтв 05:31:18  1274249
>>1274149
> Правда ли что все эти ваши машобы это просто старая добрая статистика?
Новые методы в статистике, если точнее.
Аноним 04/10/18 Чтв 08:27:23  1274270
>>1274261
Но зато ты при этом знаешь математику, что, согласись, гораздо круче первого варианта.
Аноним 04/10/18 Чтв 09:24:29  1274285
>>1274261
Если можешь, ты начинаешь ее улучшать, пока она не начинает работать так, как ты хочешь.
Аноним 04/10/18 Чтв 10:20:31  1274320
>>1274310
Ну тогда и поговорим.тхт
Аноним 04/10/18 Чтв 11:01:28  1274333
>>1274270
>гораздо круче
Мам ну скажи, что я маладец, ну маам ведь я не зря потратил 4 года в вузике дроча концпекты, заместо поёбывания тян, ну скажи ему, ну мааам.
ты молодец серожа, ты у мамы самый лучший.
Аноним 04/10/18 Чтв 11:30:55  1274346
>>1274333
Ты считаешь, что если бы дрочил конспекты, мог бы в математику, но ты выбрал поебывать тян, и поэтому в математику не можешь. На самом деле не так. Ты не можешь в математику, потому что от рождения дебил, и дрочка конспектов тебе никак бы не помогла.
Аноним 04/10/18 Чтв 11:48:12  1274357
>>1274346
>потому что от рождения дебил
Найс манямирок, а ты в нем избранный математикой.
Аноним 04/10/18 Чтв 12:44:59  1274381
>>1274065

Тюнинг и вперед
Аноним 04/10/18 Чтв 12:45:34  1274382
>>1274149

Правда ли что вся наша реальность это старая добрая математика. Что сказать-то хотел?
Аноним 04/10/18 Чтв 13:24:39  1274402
>>1274346
Удваиваю, есть просто люди дебилы, мне читали матешу на первом высшем 2 курса, после универа я нихуя не знал ее, мне читали матешу на втором высшем чуть больше года, + спец разделы, и результат такой же.
Аноним 04/10/18 Чтв 13:30:28  1274404
>>1274402
>мне читали матешу
>мне читали матешу
Ты не находишь, что проблема в том что тебе читали, а не ты сам читал? Просто тебе она нахуй не нужна была, вот ты и нихуя не понял. Хотя чо это я, нравится считать себя дебилом, на здоровье.
Аноним 04/10/18 Чтв 13:39:40  1274410
Какое мнение анона про курсы Яндекса на Курсере?
Реально вкатиться вообще в ML если матан и тервер видел 5 лет назад в универе.
Какой уровень нужен?

С питоном вот все норм
Аноним 04/10/18 Чтв 13:49:54  1274421
>>1274410
>мнение
Курсы - говно для даунов. Берёшь книжку, берёшь задачу, дрочишь.
Аноним 04/10/18 Чтв 14:04:16  1274432
>>1274410
Если техническое образование, то можешь придти просто пропёрдывать стул, научат.
Аноним 04/10/18 Чтв 14:14:16  1274448
>>1274440
Срать не снимая свитера.
Аноним 04/10/18 Чтв 14:14:46  1274449
>>1274440
>чему?
Учиться, ебана рот, ты шо, с деревни7
Аноним 04/10/18 Чтв 14:24:27  1274465
>>1274432
Куда придти?
Аноним 04/10/18 Чтв 14:38:53  1274486
>>1274410
мне помогло на первых парах сориентироваться, потом будет легче самому разбираться
всю необходимую математику там пояснят
Аноним 04/10/18 Чтв 15:35:43  1274534
Пацаны, пошли ICO делать по децентрализованной площадке для машоба. Я уже набросал чё будем разрабатывать. В ближайшее время whitepaper соберу и картинки сделаю. Смогу визитку наверстать.
Аноним 04/10/18 Чтв 16:24:42  1274583
>>1274534
анусы вы себе будете разрабатывать
Аноним 04/10/18 Чтв 16:31:22  1274586
>>1274583
швятое дело!
Аноним 04/10/18 Чтв 18:47:40  1274667
>>1267390 (OP)
В pandas считал столбец. Там значения типа
350 02.08
351 02.01
352 02.02
353 0
354 0
355 0

Length=..., dtype=object.

Но при этом в строках 353,354, 355 значения int
type(df.ix[353]['col1'])
<class 'int'>

Pandas при смешанных данных в столбце всегда старается определить тип ? По идее, если хотя бы в одной ячейке не число, весь столбец должен считаться нечисловым, ведь его просто так нельзя сложить
sum (df['A'])
TypeError: unsupported operand type(s) for +: 'int' and 'str'
Аноним 04/10/18 Чтв 18:56:50  1274673
Сканирую спрос - есть интерес у кого-то поучаствовать в проектах по сабжу в области крипты? В том числе для получения опыта и самообучения, возможен гешефт при хороших результатах. Если будут отзывы, то можно будет конкретней говорить.
Аноним 04/10/18 Чтв 18:58:45  1274675
>>1274673
Какой гешефт то? Как-то далеко ходишь. Выкладывай чего у тебя в мыслях.
Аноним 04/10/18 Чтв 19:05:02  1274678
>>1274432
Техническое, бывает разное, машиностроительный инженер тоже техническое, химик тоже техническое, разное бывает понимаешь?
Аноним 04/10/18 Чтв 19:18:25  1274682
>>1274675
Нужно спроектировать систему, которая сможет анализировать рыночную котировку (колебания цены крипты) в лайв тайме, предварительно обучившись на исторических данных и совершенствуясь по ходу дела, находить определенные закономерности и на их основе выносить решения (торговые рекомендации). Гешефт денежный, епт.
Аноним 04/10/18 Чтв 19:18:40  1274683
>>1274678
Работадателю плевать
Аноним 04/10/18 Чтв 19:23:48  1274687
>>1274682
Лол, ну удачи тебе. Ты хоть какие-то принципы анализа рынка знаешь или решил что тебе прям напишут нейронку, которая на основе скалярного значения во времени предугадывать курс будет? Лол. Как же тебя легко наебать, жалко что мне лень.
Аноним 04/10/18 Чтв 20:12:52  1274729
Допусти у меня есть входной вектор x. Но признаки имеют разную важность, например x1 всегда очень важен, это главный признак, а вот x2 бывает действительно важен только раз в год да и то в определённом значении, то есть не всмысле когда он больше или меньше. Я думал, а почему функция вычисления входа в нейрон вообще линейная? Разве она не должна как-то быть нелинейной?
Аноним 04/10/18 Чтв 21:07:38  1274780
15384616811450.gif (58Кб, 220x221)
>>1274682
> Нужно спроектировать систему, которая сможет анализировать рыночную котировку (колебания цены крипты) в лайв тайме, предварительно обучившись на исторических данных и совершенствуясь по ходу дела, находить определенные закономерности и на их основе выносить решения (торговые рекомендации).
Это нерешаемо для курсов валют. Там полный пиздец, если честно. С одной стороны, там точно не гауссово распределение вероятности, т.е не чистый рандом, что легко видеть по экспоненте Ляпунова или сечению Пуанкаре, с другой стороны - выявить имеющееся распределение не получается. С нейроночками в этой теме точно делать нечего. Может быть, какие-то хаотические аттракторы или что-то в этом роде дрочить, но простой закономерности, которую можно выявить на исторических данных, там нет. Ни MCMC, нихуя там результатов не даёт, я что только не пробовал.
Аноним 04/10/18 Чтв 21:22:23  1274793
>>1274780
Дело в том, что валютные котировки могут иметь совершенно другие механизмы движения, чем в крипте, поскольку крипта торгуется совсем недавно по историческим меркам, рынок очень молод и соответственно, логически, в нем должно быть гораздо больше каких-то рыночных неэффективностей, паттерн которых можно определить и работать с ним. У тех же манипуляторов там значительно более топорные схемы и методы. Никто не говорил, что это легко, конечно же.
Аноним 04/10/18 Чтв 22:21:41  1274824
>>1274780

Такенс завещал, что аттрактор всегда можно извлечь из временных рядов.
Аноним 04/10/18 Чтв 22:25:21  1274826
Пусть есть модель f(x), которая выдаёт число в интервале [0,1] по которому мы, если оно >1/2 причисляем объект к первому классу если, если <1/2 ко второму. Кто-нибудь интересовался свойствами разделяющей поверхности f(x)=1/2? Типо если это нейронка или ядерный свм, например, какие ограничения на (ко)гамалогии и ввести какой-нибудь порядок на них и говорить, что эта модель сложнее той если её разделяющая поверхность может иметь более сложные гамалогии?
Другой вопрос. Вот в бишопе, например, для линейной регрессии очень хорошо написано откуда она берется такая какая есть, а можно ли такой же байесовский вывод получить для нейроночек?
Аноним 04/10/18 Чтв 23:57:44  1274856
Немножк (совсем) офтопик, но реально не знаю где спросить пока что, поэтому под спойлером


Перечитал статью на хакере (опять), а там типичная проблема для россии
>Сотрудники «Газпрома» посетовали на низкий уровень информационной безопасности и заявили, что это не их дело, поскольку они руководствуются требованиями и правилами, которые устанавливает ФСБ. Круг замкнулся, стало понятно, что эту монолитную систему «информационной безответственности» не пробить.

Тоже самое когда-то заметил у себя дома, когда родители искали пульт от телевизора. Никто не хочет брать ответственность за то что проебал этот пульт и не положил на место, всё скидывает на других.
Откуда это взялось, как оно могло появиться? Что это за вид рака?
Сейчас вспомнил что в прошлом треде речь зашла про синдром корсакова. Посты оттуда ниже, на всякий случай. Может у кого-то есть идеи как это может быть связано, и где спрашивать про этот вид зацикленного рака, это же платиновый вопрос (где-то)

>>1263147 >>1263177
>>Полное удаление гиппокампа делает невозможным формирование новых воспоминаний, что убедительно продемонстрировал случай с пациентом H.M. Нарушения в работе гиппокампа могут привести к синдрому Корсакова, который так же сводится к невозможности фиксировать текущие события, при сохранении старой памяти.

>Конфабуляции (лат. confabulari — болтать, рассказывать) — ложные воспоминания – когда больной не может вспомнить события из своего прошлого и заменяет их вымышленными являются одним из самых характерных симптомов корсаковского психоза.
>Конфабуляции у некоторых пациентов носят постоянный характер. Они всё время придумывают новых персонажей, детально рассказывают происходившие с ними истории и т.д., заменяя таким образом забытые воспоминания на вымышленные.
>При этом важно учитывать тот факт, что больные не лгут – они действительно считают данные воспоминания реальными.

Аноним 05/10/18 Птн 00:27:35  1274872
>>1274687
Я тож нихуя не знаю, но мне платят деньги на работе за то что я такую ебалу пишу
Аноним 05/10/18 Птн 01:18:53  1274882
>>1274872
Какую? Всмысле по скалярному значению курс предсказывать? Сколько там коэфицент угадывания? 50% хотябы есть? Какое у тебя образование?
Аноним 05/10/18 Птн 06:37:21  1274908
>>1274824
> Такенс завещал, что аттрактор всегда можно извлечь из временных рядов.
Тоже думаю, что нужно копать в сторону нелинейной динамики, хаоса и всего такого.
>>1274793
Ну и где взять исторические данные по крипте? Я давно ещё пробовал кластеризовать криптовалюты по их динамике роста и падения по пересечению плюсов и минусов за последние час, день, неделю итд, чтобы отделить годноту от хуеты, но там тоже не так все просто, что-то может взлететь на 100-1000% снихуя и наоборот. Но вообще наверное да, крипта это свободный рынок, который обычными способами не зарегулировать. Может быть, там все более предсказуемо.
Аноним 05/10/18 Птн 08:27:01  1274922
>>1274908
>пробовал кластеризовать
Поделить по k-mean ты имеешь ввиду?
Аноним 05/10/18 Птн 08:50:13  1274925
Аноны, есть прикладная задача по анализу данных (около 100к записей), в экселе смог найти зависимость, хотелось бы продвинуться дальше и обучить модель, но в питоне не силен.

Данные выглядят как набор фич и вознаграждение от -1 до +3, нужно добиться устойчивого дохода.

Есть кто за нефть порешает ?
Аноним 05/10/18 Птн 09:06:31  1274929
>>1274922
> Поделить по k-mean ты имеешь ввиду?
Не, я пробовал картами Кохонена, SOM. Но прямые значения кластеризовать смысла нет, нужны дельты, т.е изменения + какие-то рыночные показатели типа скользящих средних, индикатора Ишимоку итд, все же это можно посчитать и добавить в вектор текущего состояния валюты. Если человек в этих индикаторах что-то видит, то и алгоритм увидит не хуже, главное данные правильно представить.
>>1274925
> Данные выглядят как набор фич и вознаграждение от -1 до +3, нужно добиться устойчивого дохода.
Если реально есть зависимость, то твоя задача - аппроксимация функции от нескольких переменных y = f(x), где набор фич это х а значения от -1 до +3 это у. SVM вполне достаточно. Давай данные, посмотрим.
Аноним 05/10/18 Птн 10:28:28  1274958
>>1274929
Держи...

https://ru.files.fm/u/ffxn8uks
пароль стандартный 2ch.hk

В таблице уже применен фильтр, результат ручного анализа, то есть максимальная сумма 2 profit, но меня беспокоят просадки на графике (на второй вкладке).

Что можно еще придумать в моем случае, чтобы улучшить результат или избежать таких просадок ?
Аноним 05/10/18 Птн 10:38:16  1274959
Ну как, перекатились уже на PyTorch? Или как лохи на Tensorflow сидите?
Аноним 05/10/18 Птн 12:06:05  1275011
>>1274872
И что, приносишь сверхприбыли компании?
Аноним 05/10/18 Птн 12:31:33  1275027
>>1274961
пиздец ты хохотач
Аноним 05/10/18 Птн 12:42:36  1275034
>>1274826
а вот это совсем поехавший
Аноним 05/10/18 Птн 13:02:46  1275043
>>1275034
ну лол баркоды же считают, мало ли какая хуйня зайдет
Аноним 05/10/18 Птн 13:35:03  1275064
um (2).png (605Кб, 2000x1292)
>>1274958
Что-то лейблы не пропечатываются... Но походу зависимость есть, вон там примеры с близким по размеру профитом рядом кластеризуются.
Аноним 05/10/18 Птн 13:49:16  1275072
>>1275069
Мань, хуй соси.
Аноним 05/10/18 Птн 14:17:04  1275097
>>1275064

Ну судя по графику на второй книге - зависимость очень неплохая, а что-нибудь из этих данных можно еще вытянуть?

Не совсем понимаю, что на этих полях отображено...
Аноним 05/10/18 Птн 16:57:02  1275187
>>1274906
нейроночки до такой степени интерпретируемы, показываешь, что у тебя от таких-то входных значений, большие веса (фича импотанс) на последнем слое, получаешь профиты
Аноним 05/10/18 Птн 17:32:13  1275225
>>1275203
тренируешь регрессию стохастическим градиентным спуском или рандом форест какой-нибудь, получаешь другие веса. Не?
Добавляешь новые данные и все идет по пизде. Не? машоб вообще не имеет смысла на данных из другого домена

Объяснить - это показать, почему модель приняла такое решение. Почти все машоб модели являются стохастическими, и следовательно у двух одинаковых моделей, натренированных на одинаковых данных будут разные веса.
Аноним 05/10/18 Птн 17:37:22  1275229
>>1275225
и уже классика
https://distill.pub/2017/feature-visualization/
Аноним 06/10/18 Суб 07:15:21  1275426
Прочитал книгу автора Ту, сейчас начну читать книгу автора Фу.
Аноним 06/10/18 Суб 12:00:43  1275474
>>1275460

Аноним 06/10/18 Суб 12:21:45  1275484
Хм
Аноним 06/10/18 Суб 15:18:56  1275553
>>1274780
>там точно не гауссово распределение вероятности, т.е не чистый рандом
Да ты заебал, пёс, твой "чистый рандом" на каждом шаге (то что random walk называется по-человечески) это равномерное распределение, а не гауссово. Стандартный курс прошёл для начала, хотя бы.
Аноним 07/10/18 Вск 00:53:49  1275780
>>1275553
яб сказал лучше случайный процесс и суть не столько в равномерности сколько в независимости X_s, X_t
Аноним 07/10/18 Вск 08:54:57  1275834
Няши, как вкотиться в нейроночки? Я понимаю принципы, даже немного математики, но вот как именно взять и написать сеть которая будет что-то делать - не могу. Я пытался искать полноценные гайду, но везде одно говно. Не подкините чего-нибудь для питона? Чтобы с нуля и до обучения, а если будет материал как готовить датасеты и обучать по ним - вообще буду благодарен.
Аноним 07/10/18 Вск 09:20:18  1275837
>>1275834
Если на русском, то в stepic.org есть курс по нейронным сетям. Если на английском, то там дохуя норм гайдов есть.
Аноним 07/10/18 Вск 10:17:01  1275849
>>1275837
Можно и на английском. Думал на курсере хорошо все по этапам разложили, но нет, там вообще в матан ушли. Читал еще кучи других гайды, по TF, керасу, но везде либо уходят в теорию либо предлогают просто копировать код и учиться на готовых датасетах. Ну ок, скопировал я, все работает, а как это на реальную задачу то перенести?..
Аноним 07/10/18 Вск 12:19:41  1275883
>>1275780
Ну мартингейл, которого он постоянно тут вспоминает всё-таки при равномерном распределении применяют.
Аноним 07/10/18 Вск 13:32:02  1275915
А есть просто сборник best practices где-нибудь по теме того как структуру сети выбирать под конкретные задачи?
Аноним 07/10/18 Вск 14:31:52  1275941
>>1275915
Узнаешь, как твоя задача называешься, и гуглишь со "yobification state of art".
Аноним 07/10/18 Вск 15:24:49  1275978
>>1275941
Аноним 07/10/18 Вск 17:43:38  1276088
>>1275849
нет никакого смысла читать про тф и керас без сильной базы
Аноним 07/10/18 Вск 17:50:53  1276097
>>1276088
В чем заключается сильность базы? Некоторые аутисты думают, что запилив на каком-то левом языке бэкпропагейшен вручную, что они будут знать что-то большее об обучении нейронок. Это не так. А изучать математику тф и керас не мешают, лучше всего делать это одновременно.
Аноним 07/10/18 Вск 20:26:17  1276162
>>1276097
двачую
запилил все эти бэкпропы в cs231n никак не помогло их лучше понять
лучше бы всякие архитектуры на торче реализовывал бы
Аноним 07/10/18 Вск 21:24:26  1276185
>>1276162
Нужно сначала базу, потом практику делать. Без базы ты будешь по туториалам кнопки тыкать, не представляя как работает шайтан-машина, что она может, и почему надо делать так, а не иначе. Глупые ошибки будешь делать, и не поймешь в чем дело.
Аноним 07/10/18 Вск 23:07:43  1276218
>>1276185
Что есть база? Математические функции? Я просто не очень понимаю, мне забить на все и просто учить матан, или же все-такие можно как-то без этого обойтись?
Аноним 08/10/18 Пнд 00:44:35  1276224
>>1276218
ну если во время прохождения базовых курсов по нейроночкам ты не справляешься с матаном то да учить ту маленькую частичку матана
Аноним 08/10/18 Пнд 08:50:02  1276255
>>1276218
>как-то без этого обойтись?
Да, пихвовекторизацией.
Аноним 08/10/18 Пнд 09:31:09  1276261
>>1276185
>по туториалам кнопки тыкать, не представляя как работает шайтан-машина, что она может, и почему надо делать так, а не иначе
А что, есть кто-то, кто представляет, как работает шайтан-машина, что она может, и почему надо делать так, а не иначе? Примеры в студию.
Аноним 08/10/18 Пнд 10:16:53  1276270
>>1276261
>А что, есть кто-то, кто представляет, как работает шайтан-машина, что она может, и почему надо делать так, а не иначе?
Крутишь пимпочки до упора, если не работает, значит сам виноват, матиматически там все должно работать111
Аноним 08/10/18 Пнд 12:27:42  1276341
С конкурентным обучением с подкреплением мне хватит 10000 итераций? Неделя реальных вычислений. Данные приходят и обрабатываются в течение 1 минуты.
Аноним 08/10/18 Пнд 15:24:01  1276411
Если в керасе ошибка всегда нулевая, и выход целевой функции (CTC) почти всегда одинаковый (циферки немного отличаются, но декодируются всегда в один неверный набор символов) - то где я наговнокодил? Learning rate крутить пробовал, оптимизаторы менял, не помогает.
Сеть - CRNN, текст с картинок распознаю.
Аноним 08/10/18 Пнд 15:34:15  1276414
>>1276411
Метрику меняй
Аноним 08/10/18 Пнд 16:40:01  1276437
>>1276414
Не сильно помогло
Я каждую эпоху проверяю сеть на одних и тех же данных (тренировочных, чтоб наверняка) и каждую эпоху сеть у меня текст распознает одинаково неправильно, будто так и должно быть. И выход функции ошибки без декодирования почти не отличается.
Предполагаю, что косяк где-то в реализации CTC, хоть и писал все на базе чужого кода с гитхаба.
Learning rate менял с 0.0001 до 100 - ничего не меняется
Аноним 08/10/18 Пнд 16:42:37  1276438
>>1276437
ну, где-то наговнокодил, без самого кода тебе только ванга поможет
Аноним 08/10/18 Пнд 17:02:40  1276448
Screenshot1.png (53Кб, 1631x514)
Screenshot2.png (55Кб, 992x866)
>>1276438
Как-то так, как мне кажется, косяки где-то здесь.
Впервые с рекуррентными что-то пробую, до этого только сверточные писал, может чего-то очевидного не сделал
Аноним 08/10/18 Пнд 17:43:00  1276466
>>1276261
Не понимать можно на разных уровнях. Я, тот анон, и твоя мама - это три разных уровня непонимания. Лучше быть на моем.
Аноним 08/10/18 Пнд 17:44:47  1276467
>>1276411
Дропаут добавь и побольше
Аноним 08/10/18 Пнд 17:48:22  1276468
>>1276448
Слишком муторно. Упрощай до одного ЛСТМ-юнита, который должен просто копировать предыдущий вход.
Аноним 08/10/18 Пнд 17:49:32  1276469
>>1276448
Если у тебя лосс сразу на дне, вряд ли ошибка в валидации, скорее имеет место дикий оверфит, а сетка со дна выбираться не желает, а ты накосячил или с регуляризацией, или с инициализацией, типа оставил дефолтные нули вместо шума
Аноним 08/10/18 Пнд 18:40:01  1276492
Screenshot3.png (11Кб, 962x105)
>>1276469
Не на дне, после добавления других метрик увидел это
Так что переобучения нет, да и с инициализацией все нормально.
С реализацией CTC и моими лэйблами, наверное, что-то не так (я просто унитарно кодирую строчку текста, заполненную пробелами до необходимой длины)
Аноним 08/10/18 Пнд 18:47:33  1276496
>>>1276448
С ЛСТМ все нормально. Сначала пару слоев свертки делаю, разбавляя макспулингом и нормализацией, потом один полносвязный, бидирективный ЛСТМ и СТС-алгоритм в конце.
В out со второго скрина у меня пробелы почему-то минус единицами заполнились, хотя у меня все лэйблы просто по индексам разбиты, наверное в этом проблема.
Попробую другую сетку с гитхаба под свой генератор адаптировать, ибо сам в этих заебах с СТС (типа iy_pred = iy_pred[:, 2:, :] такой строчки) не шарю.
Аноним 08/10/18 Пнд 18:48:34  1276499
>>1276468
>>1276496
Это сюда
Аноним 08/10/18 Пнд 19:36:35  1276521
>>1274958
Аноны, помогите задачу решить за вознаграждение, что можно сделать и сколько это будет стоить ?
Аноним 08/10/18 Пнд 20:27:31  1276546
Сап аноны, как много людей тут действительно получают деньги за нейронки?
Работаете на кого или же пилите свой проект?

Мимо вкатывальщик
Аноним 08/10/18 Пнд 20:33:44  1276548
>>1276546
>Работаете на кого
Na SkyNet
Аноним 08/10/18 Пнд 21:35:02  1276577
>>1276546
Я работаю на Roko's Basilisk.
Аноним 08/10/18 Пнд 21:54:54  1276584
>>1276577
Блять. Да ну нахуй. Наконец-то я могу харкнуть кому-то связаному с таким дерьмософтом в лицо. Хррр-ха-пфу
Аноним 08/10/18 Пнд 22:44:00  1276598
>>1276577
>Roko's Basilisk
Это что?
>>1276584
>с таким дерьмософтом
Разъясняй
Аноним 09/10/18 Втр 02:07:02  1276660
Как нейронную сеть научить работать с графами?
Просто изначально научились запускать на картинках фиксированного размера, потом - на картинках произвольного размера. Научились применять для анализа последовательностей произвольной длины. А что с графами?
Аноним 09/10/18 Втр 02:42:00  1276667
>>1276660
>графами
Монте Кристами?
Аноним 09/10/18 Втр 16:39:52  1276842
>>1276521
>что можно сделать и сколько это будет стоить ?
Скорее всего, много чего можно. Какая строка там конкретно выход? Профит 1 или профит 2?
Аноним 09/10/18 Втр 20:25:56  1276971
>>1276842
профит2, нужно, чтобы сумма вознаграждений профит2 была максимальной и не было просадок по графику (как на книге2).

Можно поиграться штрифтами фильтрами и увидеть, как все там меняется.
По сути можно построить прибыльную стратегию и на профит1, если так получится.
Аноним 10/10/18 Срд 00:13:38  1277088
>>1276521
Ты задачу сначала сформулируй. Пока ты высрал эксель с какими-то колонками цифр.
Аноним 10/10/18 Срд 09:44:27  1277189
>>1276660
https://habr.com/company/ods/blog/418727/
делаешь эмбеддинг, засовываешь в нейронку
Аноним 10/10/18 Срд 12:00:43  1277238
>>1277189
>habr.com
Лол
Аноним 10/10/18 Срд 12:42:53  1277256
>>1277238
>2ch.hk
Лал
Аноним 10/10/18 Срд 13:05:30  1277263
>>1277256
Спасибо за ваш комментарий, посасал бы вам писю и дал в жопу.
Аноним 10/10/18 Срд 14:00:44  1277285
"10 лекций по распознаванию" (Шлезингер, Главач) уже устарели?
Аноним 10/10/18 Срд 18:07:55  1277357
Сап. Есть RNN на GRU 4 слоя по 1500 нейронов. Добавлять ли дропаут? Подозреваю на таком конфиге будет больше вреда чем пользы.
Аноним 10/10/18 Срд 19:09:29  1277379
>>1277357
Хм... попробовать и посмотреть самому? Да не, бред какой-то.
Аноним 10/10/18 Срд 22:43:07  1277462
Может кто-то объяснить как обучают рекурентные сети? А то я посчитал сколько маленькую лстмку проитерировать бэкпропогэйшеном. Получилось около 2 триллионов итераций слоёв на один вход.
Аноним 10/10/18 Срд 23:52:35  1277490
>>1277413
Без датасета? Совсем ебнаулись уже
Аноним 11/10/18 Чтв 07:39:32  1277545
>>1277379
Я обучал сетку три недели на 1080ti. Предлагаешь ещё пару месяцев потратить на файн тюнинг?

Ладн, вопрос попроще. Начиная с какого количества скрытых слоев бесполезен дропаут?
Аноним 11/10/18 Чтв 09:36:36  1277559
>>1277545
тебе надо было сначала фаинтьюнить сетку на подвыборке, а потом уже тренировать три недели, дропаут (и вообще регуляризация) нужен при переобучении. Если у тебе трейн и валидейшен лосс не расходятся, то можно и без дропаута. если валидейшен выходит на плато, а трейн продолжать падать - добавляешь регуляризацию.
от Гудфелоу 2-7
Аноним 11/10/18 Чтв 13:50:16  1277631
>>1277559
>дропаут (и вообще регуляризация) нужен при переобучении.
Не только, дропаут вполне может помогать от high bias тоже, он ведь помогает от корреляции между нейронами, и, соответственно, делает параметры более эффективными.
Аноним 11/10/18 Чтв 13:57:11  1277633
>>1277545
>Начиная с какого количества скрытых слоев бесполезен дропаут?
Дропаут бесполезен, когда у тебя другой регуляризации полно - batch normalization, weight decay и т. д. А если ее вообще нет, то он полезен.
>Я обучал сетку три недели на 1080ti. Предлагаешь ещё пару месяцев потратить на файн тюнинг?
Ну это явно хуевая стратегия исследований. Я бы отладил всё на малой части датасета (добился оверфита, регуляризовал, затем подобрал гиперпараметры), чтобы обучение шло час маскимум, потом плавно бы увеличивал датасет с корректировкой гиперпараметров, останавливаясь сильно рано (как правило удачные параметры сразу проявляют себя), и только затем уже хуячил максимальный датасет. А три недели с 1080ti это пиздец как рискованно и бессмысленно.
Аноним 11/10/18 Чтв 15:42:49  1277693
>>1277633
На чём запускаешь сетку?
Аноним 11/10/18 Чтв 17:21:24  1277766
Дайте маленький датасет для лстмки. Насколько зашкварно писать лстмку на чистом питоне?
Аноним 11/10/18 Чтв 17:45:18  1277774
>>1277766
А что именно ты пишешь на "чистом питоне"? Саму математику? Ещё какой зашквар, питон не для того предназначен.
Аноним 11/10/18 Чтв 18:13:21  1277783
За keras.backend.ctc_decode() кто-нибудь пояснить может?
Почему она возвращает разные значения при одних и тех же входах?
Аноним 11/10/18 Чтв 18:15:41  1277785
>>1277783
Вернее значения разных размерностей, фикс
Аноним 11/10/18 Чтв 18:22:53  1277789
Почему веса для нейронок не подбирают брутфорсом? Это же более эфективный алгоритм. В 10 тысяч раз быстрее иногда, чем бэкпропогэйшн.
Аноним 11/10/18 Чтв 18:31:40  1277792
>>1277774
Не ебу, у меня летает
Аноним 11/10/18 Чтв 18:32:28  1277795
>>1277789
Ну да, функцию от сотен тысяч переменных же проще перебором минимизировать, ага.
Теорию оптимизации тоже дауны какие-то придумали, можно же перебирать просто, в 10 тысяч раз эффективнее
Аноним 11/10/18 Чтв 18:35:59  1277798
>>1277795
Твоя оптимизация подразумевает возведение количества ввычислений в степень колличества слоёв. Лучше перебором. Или дедовским отжигом.
Аноним 11/10/18 Чтв 18:36:19  1277799
>>1277795
Попробуй меня остановить.
Аноним 11/10/18 Чтв 18:38:06  1277801
Если серьезно, недавно показали, что случайный поиск или ГА может быть на порядки быстрее РЛ на многих задачах.
Аноним 11/10/18 Чтв 18:44:44  1277805
>>1277798
Да, все так и делают
Аноним 11/10/18 Чтв 18:50:35  1277810
>>1277801
Зачем доказывать, если и так видно, что там почти бесконечные рекурсии с квинтилионами вычислений.
Аноним 11/10/18 Чтв 18:52:48  1277813
>>1277801
> на многих задачах
на нейронках в т.ч?
Аноним 11/10/18 Чтв 19:53:53  1277838
Скоро можно будет макачить нейроночки не отходя от мейлача: https://youtu.be/9NcBqjAMNjQ
Аноним 11/10/18 Чтв 21:05:24  1277855
На сях нейрончики есть?
Аноним 11/10/18 Чтв 21:14:48  1277859
>>1277693
У меня два 1080ti на двух пеках, на одном как правило запускаю расчет на подольше, на втором ставлю эксперименты, чтобы к окончанию работы "длинной" видюхи у меня был набор улучшений для новой итерации.
Аноним 11/10/18 Чтв 21:22:19  1277862
Нахуя так много сложных формул и выебонов, если всё можно и так реализовать на уровне школьной математики?
Аноним 11/10/18 Чтв 21:25:27  1277863
>>1277798
>Твоя оптимизация подразумевает возведение количества ввычислений в степень колличества слоёв. Лучше перебором.
Все наоборот. Бэкпропагейшен относительно любого числа параметров - это вычисление символьно взятой производной, то есть обратный проход не сильно медленнее прямого, только памяти требует больше для хранения промежуточных производный, а вот случайный поиск плох как экспонента от числа измерений, в твоем случае - от числа параметров. ГА не сильно лучше.
При этом для многомерных функций проблема застревания в локальном минимуме почти не стоит - чем больше измерений, тем меньше вероятность существования минимума в точке (для функции N переменных производные по N параметрам должны быть равны нулю одновременно - это очень маловероятно). Поэтому для нейронок только бэкпроп.
РЛ же это отдельная история, это не только нейронка, но и йоба со всеми этими Q, какими-то графами-хуяфами тыр пыр восемь дыр. Там вполне ГА могут быть эффективнее в каких-то местах, почему нет.
Аноним 11/10/18 Чтв 21:31:24  1277865
>>1277863
На рекурентные посмотри, блять, на каждой итерации слоя нужно отправляться в первую итерацию, прогонять нейронку назад до инпута, двигаться дальше, прогонять на один слой ниже, затем отправлятьсч к началу, снова прогонять нейронку, затем спускаться на слой ниже и прогонять ещё раз, и так пока каждый пример не прогонит каждый слой, в котором ещё опять прогоняется каждый младший слой. То есть тут не экспонента, тут нахуй больше чем экспонента.
Аноним 11/10/18 Чтв 21:32:52  1277867
Подалуйста, объясните мне градиентный спуск. Умоляю.
Аноним 11/10/18 Чтв 21:48:36  1277874
>>1277867
На русском в Stepic.org есть курс по нейронным сетям, там про градиентный спуск объясняют.
Аноним 11/10/18 Чтв 21:52:29  1277875
>>1277865
Ты хуйню какую-то несешь, похоже не понимаешь что-то. Рекуррентные сети разворачиваются в feed-forward, соответственно становятся сложнее пропорционально заглядыванию назад в прошло.
Аноним 11/10/18 Чтв 21:57:16  1277878
>>1277875
Они заглядывают назад в прошлое и там ещё раз разворачиваются, а дальше они попадают в ещё один слой, заглядывают ещё в прошлое и разворачиваюися там. Это рекурсия.
Аноним 11/10/18 Чтв 22:08:58  1277880
>>1277878
Бобер, выдыхай
Аноним 11/10/18 Чтв 22:09:28  1277881
>>1277880
Чего? Ты слился?
Аноним 12/10/18 Птн 01:12:04  1277941
>>1267985
from keras.models import Sequential
from keras.layers import Dense

model = Sequential()

model.add(Dense(3, input_shape = (3,), activation="sigmoid")
model.add(Dense(4, activation="sigmoid")
model.add(Dense(1, activation="sigmoid")
Аноним 12/10/18 Птн 11:29:12  1278035
>>1277798
>Лучше перебором
Ага, в 500000-мерном пространстве. Долбоёб? Долбоёб.
Аноним 13/10/18 Суб 02:19:08  1278420
>>1269572
Порашу скроллил. Тхреды пра хахлов и спидорах.
Аноним 13/10/18 Суб 23:32:51  1278653
>>1277789
На подбирании весов ИИ не построить...
Аноним 14/10/18 Вск 02:40:38  1278706
Нюфаг вкатился. Это пиздец, этот питон с кучу анальных зависимостей порвал мою жопу в клочья. Я просто не могу накатить ебаный tenserflow потому что меня требуют установить еще дохуя модулей которые сука имеют вложенные в себя модули которые надо тоже блять установить, я уже утонул и погряз в ебучих ошибках, почему блять в ебаном питоне все зависимости не устанавливаются сразу?ЭТО ПИЗДЕЦ БЛЯТЬ. Ладно, попробовал все сначала, накатил анаконду, обмазался cuda-парашей от нвидии, установил еще какую-то хуйню. Что в итоге? Ни-ху-я, сыпятся ошибки: у вас отвалился модуль_нейм - пройдите нахуй.Вообщем ,реквестирую 100% ГАЙД по накату тенсерфлоу на win10 x64 и всяких yolo/keras/rccn сверху. Буду очень благодарен.
Аноним 14/10/18 Вск 03:21:42  1278711
>>1278706
pip install tensorflow
Не благодари.
Аноним 14/10/18 Вск 03:36:32  1278712
>>1278706
>win10 x64
>yolo/keras/rccn/tensorflow
>нихуя не работает
привыкай
Аноним 14/10/18 Вск 08:04:48  1278732
>>1278706
> реквестирую 100% ГАЙД по накату тенсерфлоу на win10 x64 и всяких yolo/keras/rccn сверху. Буду очень благодарен.
На шиндошс оно не работает. Ставь бубунту, там в 3 команды все нужное ставится, гайдов полно.
Вообще, гениальная идея использовать пистон. Кривая хуета с гигабайтом зависимостей в качестве враппера.
Аноним 14/10/18 Вск 10:56:16  1278758
>>1278711
Не работает.
>>1278712
Но как-то же скрепа зубами пердолят все это дело на шинде? Помогите, хочу деплоить нейроночки.
>>1278732
Пендосы как-то устанавливают же, но их гайды не первой свежести и уже нихуя не ставится так как должно.
А что еще использовать? Из выбора только питон и плюсы. Плюсы сложно + избыточно на данном этапе моих хотелок.
Аноним 14/10/18 Вск 10:59:43  1278759
>>1278758
>Но как-то же скрепа зубами пердолят все это дело на шинде? Помогите, хочу деплоить нейроночки.
Нет, конечно. Линух или мак в большинстве случаев.
Аноним 14/10/18 Вск 11:06:46  1278763
>>1278759
Понятно. Придется учить плюсы. Зайду сюда через лет 5.
Аноним 14/10/18 Вск 11:10:56  1278767
>>1278763
Нахуя тебе винда-то?
Аноним 14/10/18 Вск 11:18:18  1278770
>>1278758
>Не работает.
Что пишет?
Аноним 14/10/18 Вск 12:17:15  1278803
>>1278706
>win10
У меня на это говно анаконда не устанавливалась, так что в конце концов я обратно на 7 перешёл и не жалею.
Аноним 14/10/18 Вск 12:47:17  1278823
>>1278758
>Но как-то же скрепа зубами пердолят все это дело на шинде?
Слесарьплов - из того софта, с которым совладать на глинуксе в разы проще, чем на винде.
>>1278763
>Понятно. Придется учить плюсы.
Нахуя? Убунту поставить не сложнее чем винду.
Аноним 14/10/18 Вск 17:47:59  1278986
Хочу сделать BOW+SIFT+SVM классификатор для промышленной системы машинного зрения, какие могут быть подводные камни при большой размерности словаря и частично похожих изображения, насколько этого вообще может быть стабильно?
Аноним 14/10/18 Вск 18:12:19  1279005
>>1278986
>промышленной системы машинного зрения,
Лол
Аноним 14/10/18 Вск 18:17:19  1279007
>>1278986
>какие могут быть подводные камни
Ну как бы это нулевые годы, а сейчас используют нейронки, у них точность выше.
Аноним 14/10/18 Вск 19:35:40  1279037
>>1279007
>у них точность выше
Они с повышенной точностью нераспознают?
Аноним 14/10/18 Вск 19:52:58  1279060
>>1278763
Есть язык R.
Аноним 14/10/18 Вск 20:37:31  1279087
>>1278763
тензорфлоу есть даже на джаву, джаваскрипт и пхп, хотя я не думаю, что там легче будет, так как нужно установить MICROSOFT C++ REDISTIBUTABLES 2006 4.0 NET
Аноним 14/10/18 Вск 21:49:55  1279114
15386869455910.png (355Кб, 1024x834)
>>1279060
> Есть язык R.
Есть. Но хипстеры ж засмеют на коворкингах.
Аноним 14/10/18 Вск 22:37:54  1279132
>>1279114
Картинка хуйня.
Аноним 14/10/18 Вск 22:58:26  1279141
>>1279114
Что за бабочка?
Аноним 14/10/18 Вск 22:59:06  1279142
>>1279141
И корона какая-то
Аноним 15/10/18 Пнд 00:34:33  1279182
>>1279037
Чтоу, говорите по-русски
Аноним 15/10/18 Пнд 01:13:54  1279189
>>1279060
Ну и зачем мне он?

>>1279087
Считаю всех js мартышек за нелюдей. И сам на этой параше никогда писать ничего не буду.
Аноним 15/10/18 Пнд 01:35:22  1279194
>>1279141
Perl 6
Аноним 15/10/18 Пнд 01:35:50  1279195
>>1279189
>мартышек за нелюдей
Как и нейродибилов
Аноним 15/10/18 Пнд 07:51:11  1279230
>>1279132
> Картинка хуйня.
Ну да, там больше половины хуйни с верхней части должно быть внизу. Пистон особенно.
Аноним 15/10/18 Пнд 08:20:35  1279231
>>1279230
Главное, что внизу должна быть твоя фотка
Аноним 15/10/18 Пнд 09:48:15  1279253
>>1279189
судя по тому, что ты не осилил установить питон под виндоуз, ты ни на чем писать не будешь
Аноним 15/10/18 Пнд 10:43:24  1279287
>>1278706
Берёшь готовый docker image и без задних мыслей работаешь.
Аноним 15/10/18 Пнд 11:10:45  1279309
Кому тут надо было нейронки на сях под винду
https://github.com/Tyill/skynet
Автор, правда, выглядит не вполне адекватным
Аноним 15/10/18 Пнд 12:01:39  1279348
А что такое dropout?
Аноним 15/10/18 Пнд 12:25:07  1279363
>>1279348
Это когда тебя заёбывает математика и ты из универа отчисляешься.
Аноним 15/10/18 Пнд 12:31:37  1279367
>>1279363
Очень смешно. Продолжай.
Аноним 15/10/18 Пнд 12:44:55  1279376
>>1279367
Что ты хочешь сверх определения из википедии? Даже на русском страничка есть.
Аноним 15/10/18 Пнд 12:52:54  1279381
>>1279376
>>1279376
Что это такое в нейронках? И как это работает. Можно на пальцах объяснить
Аноним 15/10/18 Пнд 12:58:22  1279384
>>1279381
Рандомый вес умножается на ноль с какой-то вероятностью. Это создает шум который помогает обучению
Аноним 15/10/18 Пнд 13:05:37  1279390
>>1279384
А я почитал вот на вики говорят убирают нейроны, а не связи, ведь если вес умножить на ноль то связь уберется. А а вероятнсть, она по распределению бернулия? Как это по распределинию бернули вероятность сделать?
Аноним 15/10/18 Пнд 13:16:34  1279398
>>1279390
>А я почитал вот на вики говорят убирают нейроны, а не связи
Не знаю, что в tf, что в керасе убирают именно связи. Нейрон тащем-то это множество связей в слое (например в случае полносвязного слоя это строка матрицы), так делать тоже можно, но я смысла от этого не вижу.
>А а вероятнсть, она по распределению бернулия?
Наверное, не задумывался. Очевидно, что может быть либо 0 либо 1 с какой-то вероятность, наверное это может называться как-то, но тебе должно быть похуй, потому что лично тебе это ничего не дает.
>Как это по распределинию бернули вероятность сделать?
Вызвать numpy.random.binomial для n=1.
Аноним 15/10/18 Пнд 13:25:07  1279406
>>1279398
>>1279398
>Вызвать numpy.random.binomial для n=1.
А разве так не приблизительно половина связей отвалится?
Аноним 15/10/18 Пнд 13:26:59  1279409
>>1279406
Только если p=0.5. Но вообще дропаут 0.5 это норма.
Аноним 15/10/18 Пнд 13:29:46  1279414
>>1279409
>p=0.5
А как выбирают, или это оптыным путем? Или есть какие то факторы? И применять его на проверке сети, или во время обучения
Аноним 15/10/18 Пнд 13:30:12  1279415
Кстати а как понимают что сеть переобучена?
Аноним 15/10/18 Пнд 14:05:41  1279440
>>1279414
Те, у кого железа мало, вынуждены опытным путем, те, у кого много, перебирают разные варианты, пока не заработает.
>И применять его на проверке сети, или во время обучения
Это хуевый вопрос, он значит, что ты полез в нейронки, не освоив классический машоб хотя бы на уровне линейной регрессии. Регуляризация применяется во

Первым делом изучаешь основы машоба, а именно что делать в случае overfit и underfit в случае банальной линейной регрессии, посмотришь графики и получишь интуицию, что это такое. Там тебе скажут, что датасет нужно делить на 2 части, training и validation.
В случае классического машоба примерно в отношении от 10 к 3 до 10 к 1, в случае нейронок, в котором датасеты огромные, сойдет и 100 к 1 и 1000 к 1. Цель - validation выборка она как соцопрос, не обязана быть супербольшой, но должна иметь адекватную статистическую погрешность, на 140 миллионную страну 1000 случайных людей достаточно, тут примерно так же.

Далее тренировать на training, затем приодически проверять на training и validation.
В итоге, периодически ты будешь получать 2 числа, loss на training и на validation. И эти числа могут быть чисто математически:
1. Равны
2. Validation loss больше training loss
3. Validation loss меньше training loss

Когда они равны, это значит, что у тебя нейронка одинаково реагирует на данные, которые не видела и на те, которые видела. Это хорошо. Если при этом ты не добился нужного тебе качества работы, это недообученная сеть, нужно обучать дальше. Если же ты обучаешь уже долго, а качество все равно низкое, тебе нужно усложнять нейронку, можно убрать регуляризацию, хотя добавить ее тоже может помочь. Также может помочь более грамотно инициализировать слои. Например, предобучить нейронку на каких-то других похожих данных, которых много, далее инициализировать нижние слои шумом. А еще, например, U-Netы и прочие сетки с апсэмплингом страдают от checkerboard artifacts и это лечится инициализацией. Таких вещей много, они копятся в голове с опытом.

Если validation loss больше training loss, нейронка лучше реагирует на те данные, которые видела. Это плохо - значит, она разучивает тренируемые данные, а не учится обобщать. Есть два решения этой хуйни - больше данных, и совершенно точно нужно добавить регуляризацию. А вот модель усложнять точно не нужно.

Если же validation loss меньше training loss, у тебя какая-то хуйня с делением датасета на validation и training множества.

Соответственно, как видишь, в двух случаях регуляризация помогает. Поэтому имеет смысл впилить ее сразу. Дропаут - это один из способов регуляризации. Он удобен тем, что у него есть 1 простой параметр, собственно вероятность дропаута. Поэтому его легко настраивать, чтобы получить нужный уровень. Есть и другие способы.

Дальше начинается долгий цикл работы. Зависит все от количества у тебя видюх. Если их мало, нужно экономить ресурсы, если много, можно перебрать все возможные гиперпараметры простым случайным перебором.

Берешь датасет, и делаешь в нем такую подвыборку, что сетка тренируется за комфртное время. Например, за час. Добиваешься на таком мелком датасете оверфита. Как добился, борешься с ним, оставляя общее качество работы - добавляешь регуляризацию, если совсем вилы, можно увеличить свой датасет из отложенного. В конце концов ты или добьешься своей цели, или упрешься в андерфит. Борешься уже с ним, пока не добешься оверфита, уже не на новом уровне. Когда добился приемлемой работы и знаешь разброс гиперпараметров, настраиваешь автообучение с помощью скрипта типа https://github.com/shibuiwilliam/keras_gpyopt, врубаешь полный датасет и едешь бухать на неделю. Желательно на AWS, сразу на десятке инстансов.. Зависит от того, сколько у твоего клиента денег. Как-то так.
Аноним 15/10/18 Пнд 15:17:28  1279482
>>1279440
>Регуляризация применяется во
Ты не дописал тут что то?

>training и validation.
Это типо на чем тренируешь и на чем проверяешь сеть?

>loss на training и на validation.
loss это типа неправильные срабатывания сети?
А какой приемлемый проент неправильных срабатываний обычно?

>гиперпараметров
Не понял что это такое.
Аноним 15/10/18 Пнд 15:24:27  1279485
>>1279482
Ну ты ведь нихуя не знаешь. Иди учи теорию.
Аноним 15/10/18 Пнд 15:29:46  1279490
>>1279485
Дак я поэтому и спрашиваю тут.
Аноним 15/10/18 Пнд 15:57:21  1279509
>>1279253
Накатить питон и накатить питон с тенсорфлоу и кучей анальных фреймов с работой на гпу это разные вещи.

бтв мартыхан порвался
Аноним 15/10/18 Пнд 16:06:41  1279515
>>1279482
>Ты не дописал тут что то?
Скорее не стер. Ниже там все расписано.
>Это типо на чем тренируешь и на чем проверяешь сеть?
Да.
>loss это типа неправильные срабатывания сети?
Нет, это accuracy, если ты про классификаторы. Loss это то, что оптимизрует оптимизатор. Почитай про линейную регрессию и как ее сделать с помощью градиентного спуска. Нейронка чуть сложнее, но принципиально не отличается.
>Не понял что это такое.
Это параметры, влияние которых на градиент loss'а ты вычислить не можешь. Например, потому что они дискретные, или потому что дохуя шумят, или потому что они выстро вырождаются в хуйню какую-нибудь. Поэтому в процессе обучения ты не можешь их подкрутить, только выбрать перед обучением и обучать дальше. Параметр p у дропаута как раз такой.
Аноним 15/10/18 Пнд 16:16:15  1279521
>>1279515
>линейную регрессию и как ее сделать с помощью градиентного спуска.
Я читал, там шарик катится вниз с горки, и ищет самую глубокую яму. Лос это радиус, вокруг шарика, куда он в следующее место покатиться?
Аноним 15/10/18 Пнд 16:57:33  1279536
>>1279521
Нет, это сам рельеф
Аноним 15/10/18 Пнд 17:43:26  1279550
>>1279536
А тоесть лос влияет на глубины сильность выпуклости и сложность рельефа?
Аноним 15/10/18 Пнд 18:06:31  1279555
>>1279550
Лосс это и есть рельеф
Аноним 15/10/18 Пнд 18:14:36  1279559
Двач, хелп. При копировании текста происходит какая то ошибка, когда вставляю текст на выходе получаются неизвестные символы, как это фиксить?
Аноним 15/10/18 Пнд 18:22:11  1279569
А почему сети углубляют, а не расширяют?
Аноним 15/10/18 Пнд 18:30:23  1279572
>>1279569
Интересный кстати вопрос, потому что читал как-то что в исходя из времени на реакцию и скорость распространения нервных импульсов, мозг в глубине успевает на 10-12 что ли слоев пройти всего. Это про всякие задачки на реакцию конечно только, побежать на звук выстрела например.
Аноним 15/10/18 Пнд 19:06:20  1279590
>>1279572
Ага все хотят дип лернинг, но почему никто не делает width лернинг или как нибудь так, типа в ширину учить
Аноним 15/10/18 Пнд 19:19:02  1279598
>>1279569
Потому что эквивалентная нейронка с меньшим числом слоев должна быть экспоненциально более широка. То есть глубина позволяет кодировать очень сложные функции малой кровью.
>>1279572
Мозг интересен не реакцией на безусловные рефлексы, а долговременными процессами.
Аноним 15/10/18 Пнд 19:28:38  1279600
>>1279598
Память-предсказание.
Аноним 15/10/18 Пнд 20:13:00  1279621
>>1279600
Я не об этом. Та же визуальная кора - рекуррентная нейронка, первая реакция идет да, 10-12 слоев, но потом сигнал зацикливается и формирует уже более сложные структуры. Поэтому мозг глубокий, вообще альтернативы глубине нет.
Аноним 15/10/18 Пнд 20:36:11  1279631
>>1279621
>рекуррентная нейронка
А расскажи про такой тип нейронок. В чем смысл обратной связи? Она не впадает в бесконечный цикл вычисления? Их используют не только для визуальных распознований? Вес обратной связи так же обучением настраивается вместе с основными весами или поотдельности? У нейрона в рекуретной сети два выхода? для обратной связи и прямой связи или это один и тот же выход? Для них тоже дропаут работает и бэкпропом их обучают или как то по другому?
Аноним 15/10/18 Пнд 20:38:31  1279634
>>1279631
Нахуя кто-то будет тебе это рассказывать, если ты можешь просто проследовать в википедию и уже нормально прийти спросить что не понятно?
Аноним 15/10/18 Пнд 20:39:19  1279635
>>1279598
> эквивалентная нейронка с меньшим числом слоев должна быть экспоненциально более широка
Но разве она не будет проще в обучении? Ведь широкая нейронка будет проще в обучении, нужно будет добавлять дополнитьный нейрон, если сеть не может обучиться нормально.
Аноним 15/10/18 Пнд 20:41:19  1279636
>>1279634
Я тебя не заставляю, не нравится не отвечай, кто захочет ответит. Я вроде нормально спросил, в принципе можно с такой логикой тред выпилить и заместо него закрепить пост, с ссылкой на вики.
Аноним 15/10/18 Пнд 20:51:52  1279646
>>1279635
Ты похоже не понимаешь слово "экспоненциально", от которого любой программист бежит, как только видит.
Тебе чтобы заменить двуслойную нейронку однослойной, нужно exp(2) больше параметров. А десятислойную exp(10) больше параметров. exp(10) это 22026, если что. То есть если у тебя десятислойная сетка весит мегабайт и обучится на CPU, то однослойный аналог будет весить 22 гигабайта и не влезет в 1080 Ti. Обучаться же он тоже будет вечность. Однослойный аналог resnet с 700 слоями же будет иметь 1.0142320547350045e+304 больше параметров, то есть не влезет в видимую вселенную, в которой все 1e80 атомов.
Я бы посчитал для 1000 слоев, но в дабл оно уже не влезает, а подключать бигнамбер библиотеки мне влом.
Аноним 15/10/18 Пнд 20:55:35  1279650
>>1279590
Прочитай пару книг про алгоритмы и этот вопрос у тебя отпадет.
Аноним 15/10/18 Пнд 20:58:24  1279651
>>1279631
>В чем смысл обратной связи?
Увеличить глубину до бесконечной
>Она не впадает в бесконечный цикл вычисления?
Впадает
>Их используют не только для визуальных распознований?
В основом для обработки последовательностей произвольной длины.
>Вес обратной связи так же обучением настраивается вместе с основными весами или поотдельности?
Этого в определнии нет. Главное, что выход соединен со входом. Сами рекуррентные нейронки сейчас сложные, читай про LSTM
>Для них тоже дропаут работает и бэкпропом их обучают или как то по другому?
Дропаут работает. Про бэкпроп почитай про backpropagation in time. Если кратко, то рекуррентную нейронку разворачивают в нерекуррентную с конечной глубиной, и обучают уже ее.
Аноним 15/10/18 Пнд 21:08:26  1279658
>>1279598
> Мозг интересен не реакцией на безусловные рефлексы, а долговременными процессами.
Почитай что ли про рефлексы прежде чем умничать. В последний раз когда я проверял уши не были к спинному мозгу напрямую подключены.
Аноним 15/10/18 Пнд 21:20:11  1279663
>>1279658
Хочешь хамить, а не общаться - проследуй нахуй.
Аноним 15/10/18 Пнд 21:35:23  1279674
>>1279651
>Впадает
Так она тогда никогда результат не даст же? Будет постоянно добавлять входные связи прибавлять или я что то не так понимаю? Или это что то наподобие операционного усилителя?

>заменить двуслойную нейронку однослойной
Круто, спасибо за объяснение, все понятно.
Аноним 15/10/18 Пнд 21:49:06  1279678
>>1279674
>Или это что то наподобие операционного усилителя?
Скорее что-то вроде БИХ-фильтра - в момент времени t сигнал проходит сквозь нейронку и выдается первый результат на выход и в цепь обратной связи, в t+1 выдается новый результат и т. д.
В теории можно единожды подать сигнал и дальше бесконечно наблюдать как он ходит по цепочке обратой связи, на практике он затухнет.
Аноним 15/10/18 Пнд 22:02:14  1279686
>>1279678
А к входному слою подключна обратная связь от внутреннего слоя? Если к входному слою не подключать обратную связь то во внутренних слоях сигнал затухнет определенно.
Аноним 16/10/18 Втр 00:10:35  1279737
>>1279440
>Если validation loss больше training loss, нейронка лучше реагирует на те данные, которые видела. Это плохо - значит, она разучивает тренируемые данные, а не учится обобщать.
Погоди, когда test loss > training loss - это же нормально. Вопрос в том, насколько больше, а также в динамике. Переобучение - это когда train loss падает, а test loss растёт, разве нет?
Аноним 16/10/18 Втр 00:13:48  1279738
>>1279737
Тоже подумал, что это странно. Но может ты путаешь это с аккураси? Лос типа это другое как я понял, хоть и не до конца.
Аноним 16/10/18 Втр 00:22:47  1279743
>>1279738
>Лос типа это другое как я понял, хоть и не до конца
Loss - это то, что у тебя фигурирует в математической постановке задачи. Accuracy - это то, что ты будешь потом показыв
Аноним 16/10/18 Втр 00:23:10  1279745
>>1279743
ать почтеннейшей публике.
Аноним 16/10/18 Втр 00:40:42  1279756
>>1279646
А почему именно экспонента? Ее просто эмпирически вывели, или в чем-то другом дело?
Аноним 16/10/18 Втр 01:02:35  1279770
>>1279646
лол почему экспоненциально
казалось бы число параметров в сетке = число слоёв * число параметров в слое
кстати как вы расширять собрались?

Аноним 16/10/18 Втр 01:26:50  1279777
>>1279770
>кстати как вы расширять собрались?
Вот этот вопрос нужно было с самого начала задавать.
Аноним 16/10/18 Втр 08:36:50  1279835
>>1279756
Вводится некий способ посчитать сложность аппроксимируемой функции, он считается для глубоких и мелких сеток и получается, что глубокие сетки могут аппроксимировать более сложное с меньшим числом параметров. Таких статей с разными способами много, например https://pdfs.semanticscholar.org/f594/f693903e1507c33670b89612410f823012dd.pdf
Мне это неинтересно
Аноним 16/10/18 Втр 11:13:53  1279851
>>1279743
> математической постановке задачи.
Можешь объяснить что ты под этим подразумевал? Пример небольшой может какой есть? Как это выглядит в жизни.
Аноним 16/10/18 Втр 11:29:55  1279855
>>1279509
у меня все почему-то работает, даже на работе на виндоуз один раз накатывал, и все работало
Аноним 16/10/18 Втр 12:32:52  1279877
>>1279678
А в какое t тогда собирается выходное значение сети которое результат работы? Или это как то тактируется с подачей входного сигнала? Или собираются все значения до тех пор пока сеть не затухнет?
Не понятно что за последовательности произвольной длинны? Количтво входных сигналов всегда одинаково вроде.
Аноним 16/10/18 Втр 20:05:17  1280169
>>1279851
Что такое линейная регрессия методом наименьших квадратов, знаешь?
Аноним 16/10/18 Втр 21:24:36  1280220
>>1280169
>методом наименьших квадратов
Лол
Аноним 16/10/18 Втр 23:16:10  1280282
А я еще раз напомню, что для успешной карьеры в машинном обучении и анализе данных нужно быть выпускником топового математического факульета: мехмат мгу, фивт/фупм мфти, чебышевка СПбГУ, фкн вшэ. Все, если вы выпускник другого вуза, вы просто никому не нужны. Смиритесь с этим и идите в более приземленные области: веб, мобилки, энтерпрайз. В сложные наукоемкие отрасли вам дорога закрыта.
Аноним 17/10/18 Срд 01:50:42  1280337
>>1280282
Какие постоянные аутотреннинги маньки, сидящей в МФТИ и не осиливающей машоб.
Аноним 17/10/18 Срд 07:24:38  1280357
>>1280337
> сидящей в МФТИ
Это если в Долгопрудном
Аноним 17/10/18 Срд 08:47:21  1280381
>>1280282
> мехмат мгу, фивт/фупм мфти, чебышевка СПбГУ, фкн вшэ.
Африканские ПТУ. Ни в одной нормальной стране тебя с дипломом из этих деревенских шараг в машоб не возьмут, а в рашке машоба нет
Аноним 17/10/18 Срд 09:39:01  1280391
>>1280381
Пост тральный, но это правда. Просто в нейроночках сейчас жопа - ломанулась ТОЛПА народу, причём весьма крутого. Поэтому на «настоящие» позиции, где надо исследованиями заниматься, попасть практически невозможно. Нужен топчик пхд, а на топчик пхд тебя возьмут только когда у тебя УЖЕ будут статьи в нипсе... куда ты не пройдёшь, если ты не в тусовке. На реддите недавно кипишь был. И проф, выдвигающий космические требования на свой пхд, сказал, мол, да, это проблема. Ваша проблема.
Из мордора все это организовать анриал. Поэтому у нас три стула: пытаться догнать поезд бегом, идти в макаки на обслуживание успешных выпускников Стенфорда, или кукарекать с помоечки о том, какие все вокруг дебилы.
Аноним 17/10/18 Срд 09:48:03  1280395
А, забыл вишенку на торт положить. В том треде на реддите ещё объявился чел, который сказал что у него есть эти вожделенные статьи на нипсе но... барабанная дробь... на пхд его все равно не берут. Потому что даже этого мало. Реально ещё нужны рекомендации от известных профессоров. Где таковые живут мы все примерно представляем, и внутри границ мордора их точно не бывает.
Аноним 17/10/18 Срд 09:56:51  1280399
>>1280282
>чебышевка СПбГУ
Это не факультет, даун.
Аноним 17/10/18 Срд 10:55:30  1280420
>>1280391
> Поэтому у нас три стула:
Вообще, четыре. Четвёртый стул - сделать что-то интересное, чтобы все охуели. Не негров распознать, а что-то реально прорывное. А такое, как и везде, возможно на стыке машобчика и чего-то ещё.
Аноним 17/10/18 Срд 11:34:22  1280439
>>1280420
>что-то реально прорывное
Игрули для быдла, типа FaceApp?
Аноним 17/10/18 Срд 12:40:41  1280461
>>1280391
сука ну вот зачем мне настроение испортил
Аноним 17/10/18 Срд 12:53:59  1280464
>>1280391
Бля. Нихуясе. Жир потёк из дисплея.
Аноним 17/10/18 Срд 13:07:23  1280468
>>1280391
>Поэтому на «настоящие» позиции, где надо исследованиями заниматься, попасть практически невозможно.
В чем заключается "настоящесть" этих позиций? Запилить очередную GAN, а потом узнать, что китаец Ляо за этот год запилил GAN намного круче и все его цитируют, а не тебя? Или, пользуясь мощностями гугла, обучить какой-то йоба RL алгоритм тоже без особых последствий? Это просто позиции занятия хардкорной наукой со всеми присущими этой самой науке достоинствами и недостатками - а именно, низкой зарплатой в обмен на тщеславие и возможность получать высокую зарплату, когда ты уйдешь из науки в бизнес на хорошую позицию. Но, давай по правде, что-то уровня дропаута ты не откроешь, а быть фамилией из нескольких сотен на NIPS такой себе пряник.

На самом деле настоящие позиции во внедрении. Когда ты из десятка пейперов с архива выбираешь парочку, очищаешь их от интеллектуальной собственности методом скрещивания ужа с ужом, и превращаешь в конкретный бизнес-продукт, который продается за конкретные деньги, а тебе с этих денег платят высокую зарплату здесь и сейчас. А ученые пусть делают свой зерграш, генерируя сотни статей, из которых 99 окажется шлаком и бездарно проебанным временем.

И стулья есть такие
1. Идти в российскую контору, где на твою научную карьеру всем похуй.
2. Искать зарубежную удаленку, где на твой диплом высшей заборостроительный школы тоже всем похуй.
3. Устраиваться макакой, копить $20000, ехать в Канаду получать master degree и далее либо в науку, либо в бизнес
Аноним 17/10/18 Срд 14:42:40  1280510
>>1280468
> Устраиваться макакой, копить $20000, ехать в Канаду получать master degree и далее либо в науку, либо в бизнес
Планирую идти таким путем. Мне 28, сейчас приступаю к статистике после анализа и линейной алгебры на OCW. Хочу вкатиться в computational biology или смежное. Иногда очень страшно что уже поздно и все поезда давно ушли, и пора становиться старшей макакой, покупать дом, собаку, делать детей и садиться ждать смерти.
Аноним 17/10/18 Срд 15:25:36  1280534
Всё равно ИИ не создаёте...
Аноним 17/10/18 Срд 15:32:59  1280538
>>1280510
А я пошел вторым путем. В бизнесе от макаки до машоба не такая большая пропасть, если ты уже устроился куда-то.
Аноним 17/10/18 Срд 15:37:37  1280539
new.jpg (400Кб, 849x596)
>>1280534
>ИИ
Аноним 17/10/18 Срд 15:40:31  1280540
>>1280510
>computational biology
Вычислять протеины?
Аноним 17/10/18 Срд 15:41:57  1280542
>>1280169
Я знаю что такое наименьшие квадраты, а вот регрессию нет. Расскажи что такое эта регрессия?
Аноним 17/10/18 Срд 15:42:02  1280543
>>1280540
Потихоньку пытаюсь понять разницу в скиллсете между протеинами и анализом последовательностей ДНК, да.
>>1280538
В бизнес трудно без дегри вроде бы минимально хотя бы релевантный.
Аноним 17/10/18 Срд 15:52:22  1280551
>>1280543
>В бизнес трудно без дегри вроде бы минимально хотя бы релевантный.
С хуя ли? Обыкновенный карьерный рост, пилишь пет-проекты, устраиваешься ниже рынка, растешь. Я сам вылез на переписывании чужого кода с матлаба на с++, работа макаки, но сейчас свои алгоритмы пилю.
Аноним 17/10/18 Срд 15:56:38  1280552
>>1280542
может книжку почитаешь?
или ты решил что тебя на дваче на остриё науки посадят?
рекомендую бишопа очень
Аноним 17/10/18 Срд 16:08:44  1280561
>>1280551
Просто есть два пути: мастер дегри и макакить три года, тогда можешь смело идти на интервью; макакить и расти, качать кармочку и гитхаб, тогда тебя сами найдут, если ты толковый.
Аноним 17/10/18 Срд 16:11:55  1280563
>>1280552
Я может и знаю что такое регрессия, только я не понимаю что это означает. Типа я знаю как линейное уравнение выглядит. Почему это регрессией называется? Что то упрощают при этом? И делают это линейными уравнениями? Типа круг можно линейно регресировать в пятиугольник потом в квадрат и тд?
Аноним 17/10/18 Срд 16:14:57  1280565
>>1280552
>бишоп
А чо за книжка, можешь исбн или название хотя бы сказать. Посмотрю может. Просто когда читаешь не особо понятно, надо постепенно как то к этому самому приходить.
Аноним 17/10/18 Срд 16:16:07  1280566
>>1280563
Аппроксимация дискретного набора точек (на самом деле необязательно) прямой (одной) в соответствии с неким критерием. Для наименьших квадратов - это средний квадрат расстояния от каждой исходной точки до прямой по вертикали (кажется).
Если тебе такие элементарные вещи непонятны, то тебе очень тяжело придется дальше.
Аноним 17/10/18 Срд 16:17:08  1280568
>>1280561
Никто тебя не найдет. Путь один и тот же и дегри только слегка поможет тебе найти первую работу и набрать знакомств. Больше никакой разницы нет. Твое подсознательное желание встать на рельсы и типа тогда все будет ок, это просто желание переложить ответственность с себя на преподавателей учебного заведения.
Аноним 17/10/18 Срд 16:25:41  1280570
>>1280565
http://users.isr.ist.utl.pt/~wurmd/Livros/school/Bishop%20-%20Pattern%20Recognition%20And%20Machine%20Learning%20-%20Springer%20%202006.pdf
сразу становится понятно почему что
Аноним 17/10/18 Срд 16:26:15  1280571
>>1280566
А как определяют в линейной регрессии погрешности, перебирают все варианты при которых самая большая погрешность в одном из вариантов перебора будет самой меньшей из всех переборов?
Аноним 17/10/18 Срд 16:26:44  1280572
>>1280570
хотя если не понял что такое линейная регрессия из википедии то наверное лучше вообще во что-то другое вкатываться
Аноним 17/10/18 Срд 16:28:16  1280573
>>1280571
> самая большая погрешность
средний квадрат погрешностей
Аноним 17/10/18 Срд 16:29:50  1280575
>>1280572
Да с википедией проблема, там все слишком на слишком математичном языке написано хз как описать.
Аноним 17/10/18 Срд 16:41:10  1280579
>>1280468
Зарплаты в нейрочках нормальные. И туда не за ЗП идут, а за тщеславием, да. У всех есть амбиции, и как показывает практика амбиции стать ученым и исследовать то, что лично тебе интересно, а не то, что дядя сказал, есть у очень многих. В этом и заключается настоящесть.
>что-то уровня дропаута ты не откроешь
Не попытавшись - точно не откроешь.
>а быть фамилией из нескольких сотен на NIPS такой себе пряник
Кому как.
Аноним 17/10/18 Срд 18:11:27  1280625
>>1280579
>Зарплаты в нейрочках нормальные.
В бизнесе да. В науке хуи сосут, на то она и наука.
>и как показывает практика амбиции стать ученым и исследовать то, что лично тебе интересно, а не то, что дядя сказал
Ох лол. В науке тебе точно такой же дядя и говорит, что тебе исследовать. Разница в том, что в случае бизнеса есть конкретная заинтересованность в твоем успехе, а в науке похуй, прозанимался год говном, нет результатов, но зато публикация есть.
>Не попытавшись - точно не откроешь.
Строить свою жизнь на этом это примерно как строить свою жизнь на планировании выиграть в лотерею.
Аноним 17/10/18 Срд 18:25:45  1280640
>>1280625
Ассистант профессор в универе это в районе 150к, уровень хорошей макаки. В каких-нибудь Дипмайндах, скорее всего, очень высокие ЗП. В финансах может быть гораздо больше, но там своя атмосфера - далеко не факт, что выиграешь в итоге.
Пхдшники и постдоки нищууют, это да. Это стиль жизни, норми не понять.
В науке тебе сначала дядя говорит, но подразумевается, что ты начнешь генерировать идеи и воплощать их сам. Это ценится в ученом, а не исполнительность. Вообще наука сейчас во многом напоминает бизнес. Пхд, постдок - это наемные рабочие, а профессор - владелец бизнеса. Он делает что хочет, но может и прогореть, тут лотерея. В жизни вообще все лотерея, и чем выше ты лезешь, тем меньше шансы.
Аноним 17/10/18 Срд 18:28:16  1280644
>>1280640
>Ассистант профессор
Лел, чтобы сейчас стать ассистант профессором в такой сфере надо три очка порвать, десять вылизать, получить геморрой, близорукость, пролежни, трижды лечиться от депрессии и дважды пытаться покончить с собой. Люди в постдоках сидят когда у них дети школу уже заканчивают порой.
Аноним 17/10/18 Срд 18:43:07  1280649
>>1280644
О чем и речь ИТТ. Все что ты описал это следствие того, что очень много желающих быть учеными. Это титул, почет, чувство собственного достоинства не сравнимые ни с чем. Ты будешь знать, что кто-то другой заработал миллиарды, но его никогда не процитируют в статье - в науке его не существует.
И на самом деле все что ты сказал это не очень нужно. Нужно всего-то родиться в богатой, интеллигентной семье в Америке. Закончить Гарвард по прикладной математике, во время мастера ошиваясь в лабе с именитыми профессорами, которые тебя впишут в статьи на нипсе. Заручившись их рекомендациями, пройти на топчик пхд, тоже в плюще естественно. Там делать по статье в год и вписываться соавтором еще на две в год. И вуаля - у тебя очень хорошие перспективы на кресло.
Аноним 17/10/18 Срд 18:51:03  1280653
>>1280649
Вася, а с тобой о чем говорили изначально?
> Поэтому на «настоящие» позиции, где надо исследованиями заниматься, попасть практически невозможно.
> Нужно всего-то родиться в богатой, интеллигентной семье в Америке.
Аноним 17/10/18 Срд 18:57:07  1280655
>>1280640
>Ассистант профессор в универе это в районе 150к, уровень хорошей макаки.
Именно. Супер-профессионал, нехило так выросший в карьере, получает как хорошая макака.
>В науке тебе сначала дядя говорит, но подразумевается, что ты начнешь генерировать идеи и воплощать их сам.
Как и в бизнесе.
>Вообще наука сейчас во многом напоминает бизнес.
Наука - не бизнес, KPI разные. В науке в твоем успехе никто не заинтересован, там зерграш и зергов никто не считает.
>>1280649
>Нужно всего-то родиться в богатой, интеллигентной семье в Америке.
Именно поэтому NIPS 2017 это:
Zhen He, Shaobing Gao, Liang Xiao, Daxue Liu, Hangen He, David Barber
Constantinos Daskalakis, Nishanth Dikkala, Gautam Kamath
Pan Ji, Tong Zhang, Hongdong Li, Mathieu Salzmann, Ian Reid
Rohit Girdhar, Deva Ramanan
Heinrich Jiang
Fabian Pedregosa, Rémi Leblond, Simon Lacoste-Julien
И так далее

Тебе в науке делать нечего, потому что ты туповат и не видишь настоящей картины, в которой наука - удел иммигрантов, так как это тяжелый и неблагодарный труд, нафантазировал себе какой-то хуйни про Гарвард и доволен.
Аноним 17/10/18 Срд 18:58:39  1280658
>>1280655
Лол. Вполне себе американцы из богатых семей.
Аноним 17/10/18 Срд 19:58:28  1280682
>>1280655
Чет в голосяндру, я бы вашу науку в современном виде к хуям разогнал. Бесполезные дармоеды.
Аноним 17/10/18 Срд 20:21:56  1280694
15389490539400.jpg (82Кб, 1080x808)
олды здесь?
помогите ньюфагу:
Есть куча csv файлов, в каждом файле два столбца данных, по этим данным нейронка должна решать к какой категории (их всего 2) относятся данные

Как это можно сделать?

Аноним 17/10/18 Срд 20:49:05  1280716
>>1280694
>Как это можно сделать?
Заплатить 250 рублей дауненку из МФТИ
Аноним 17/10/18 Срд 20:57:54  1280721
>>1280694
Непонятно, с какого уровня ты это спрашиваешь. Ты когда-нибудь машобом занимался? Программировать умеешь?
Аноним 17/10/18 Срд 21:19:29  1280732
>>1280721
на питоне умею, машоб не пробовал

данные в файлах числовые в формате float, значения от 1.1 до 20, в два столбца
Аноним 17/10/18 Срд 21:32:01  1280738
>>1280732
Скорее всего, тебе нейроночки не нужны. Рекомендую xgboost. Смотри туториалы в интернете.
Аноним 17/10/18 Срд 21:48:07  1280747
>>1280738

Я вижу, что во всех примерах все данные в одном csv файле, а у меня на каждый label свой отдельный csv файл с 20 строками данных, как быть?
Аноним 17/10/18 Срд 21:51:15  1280752
>>1280747
Пихвовекторизацию пробовал?
Аноним 17/10/18 Срд 22:06:52  1280762
>>1280747
Мда, блять. Зачем тебе это вообще? Что ты делаешь?
Аноним 17/10/18 Срд 22:07:10  1280763
>>1280747
Да какая разница сколько файлов? Объедини в один. Должен быть набор пар входной вектор - целевое значение.
Аноним 17/10/18 Срд 22:14:43  1280766
>>1280762
определяю к какой категории относятся данные

>>1280752
>>1280763
попробую, спасибо
Аноним 17/10/18 Срд 22:18:03  1280769
>>1280766
По информатике домашнее задание? Ты же нихуя не знаешь не то что в нейронка, да даже в программировании.
Аноним 17/10/18 Срд 22:18:15  1280770
autism.jpg (150Кб, 1600x935)
>>1280766
>Я вижу, что во всех примерах все данные в одном csv файле, а у меня на каждый label свой отдельный csv файл с 20 строками данных, как быть?
>Пихвовекторизацию пробовал
>попробую, спасибо
Это зелень такая здесь сидит? Что происходит, блять?
Аноним 17/10/18 Срд 22:36:00  1280780
>>1280539
Да не совсем
Аноним 18/10/18 Чтв 09:31:37  1280874
>>1280770
читай статью на последнем нипсе (на icml 2018 тоже выходила похожая) про пихвовекторизацию
Аноним 18/10/18 Чтв 10:18:37  1280884
А где можно почитать про линейную регрессию, как считается она. На русском желательно, хотя если будет на английском но понятно тоже могу глянуть. А то везде сразу дают уравнение, считая в какой то программе под названием регрессия или на питоне со всякими значками в стиле SS или R.
Аноним 18/10/18 Чтв 10:36:25  1280892
tired.gif (241Кб, 400x310)
>>1280874
Говно, ты? Модер тебе пермач не выписывает, что ли?
Аноним 18/10/18 Чтв 10:42:09  1280895
>>1280892
>пермач
>Модер
>пишет на АИБ
Ты совсем тупенький?
Аноним 18/10/18 Чтв 10:45:12  1280896
>>1280895
По айпи никогда не банили? Совсем тупенький?
Аноним 18/10/18 Чтв 11:12:34  1280899
>>1280896
>По айпи
Ох лол, не рассказывайте ему про dhcp и динамические ипишники.
Аноним 18/10/18 Чтв 11:18:36  1280902
>>1280884
> А где можно почитать про линейную регрессию, как считается она.
ISLR же. Там первые страниц 300 про линейную регрессию.
Аноним 18/10/18 Чтв 12:06:15  1280930
>>1280902
>ISLR
А есть что то для начинающих и на русском? Я так и не могу понять, вот есть как у верхнего чувака цсв с двумя столбцами данных. Если я построю уравнение линейной регрессии это и будет предскзание? А зачем тогда вообще нужна нейросеть и все эти бэкпропы?
Аноним 18/10/18 Чтв 12:17:17  1280942
>>1280930
Потому что данные не всегда представимы в виде цсв с двумя столбцами.
Аноним 18/10/18 Чтв 12:22:58  1280947
>>1280942
Ну если я правильно понял, то это будет просто сумма уравнений линейных регрессий? Ну или система.
И если они не могут быть представлены так, то зачем тогда изучать регрессию?
Аноним 18/10/18 Чтв 12:28:19  1280954
>>1280947
>И если они не могут быть представлены так, то зачем тогда изучать регрессию?
Блядь потому что есть случаи когда они представимы.
> сумма уравнений линейных регрессий
система линейных уравнений, относительно параметров прямой, которой ты аппроксимируешь данные.
Аноним 18/10/18 Чтв 12:32:53  1280959
>>1280947
https://en.wikipedia.org/wiki/Simple_linear_regression
Начни с одномерного случая, потом попробуй в голове обобщить на n-мерный
Аноним 18/10/18 Чтв 12:37:58  1280962
>>1280954
>есть случаи когда они представимы.
Но тогда это уже будет не нейронка, а просто статистика, разве нет?

>>1280959
>Simple_linear_regression
Наверное придется там изучать, думал может есть получше объяснение, надо подтянуть знания, что такое крышечка или черточка сверху.
Аноним 18/10/18 Чтв 12:46:29  1280966
>>1280962
> что такое крышечка или черточка сверху.
там прямо в тексте:
sum of squared residuals - крышечка
average - черточка
Аноним 18/10/18 Чтв 12:54:47  1280967
>>1267390 (OP)

Привет Анон.
Помоги пожалуйста советом.
Как мне подступиться к задаче:

Задача похожа на Affinity Analysis, Pattern Mining ( Если я правильно её классифицировал )
Возьмем пример покупательской корзины в которой необходимо узнать самые популярные наборы из 2ух-3ех предметов, без анализа "Если куплен A, то с вероятность p он купит B", т.е просто узнать "Самый популярный набор:
1. ABC 3 раза
2. BCD 2 раз
3. ...
Будем считать что наборы равны AB=BA

Пример Матрицы:
N| A B C D
1| 0 1 0 1
2| 1 1 0 1
3| 0 1 1 1
4| 1 1 0 1
5| 1 1 0 0
6| 0 1 1 0

Каждая строка - транзакция, каждый столбец - продукт.

Мой наивный метод был - сложить все строки и считать что самые покупаемые пары - с самым большим значением, но быстро понял что неправ.

Есть ли готовые алгоритмы для нахождения подобной выборки?
Может тут и не нужен никакой МашОб, а есть более простое решение, алгоритмическое.
Просто новые идеи не посещают и старые отпустить не могу.
Аноним 18/10/18 Чтв 12:58:28  1280969
>>1280966
Просто я когда про вектора читал, там это совсем другое означало. Путает сильно.
Аноним 18/10/18 Чтв 13:11:26  1280972
>>1280967
Видимо придумал - нужно просто посчитать количество дубликатов по строкам, спасибо анон
Аноним 18/10/18 Чтв 13:51:01  1280988
>>1280930
Потому что перед тем как лезть в машоб нужно хотябы базово обучиться программированию.
Аноним 18/10/18 Чтв 14:45:24  1281008
>>1280962
> Но тогда это уже будет не нейронка, а просто статистика, разве нет?
Весь машоб это и есть статистика. Ты думал, магия какая-то?
Аноним 18/10/18 Чтв 16:29:44  1281069
>>1280534

Москва не сразу строилась
Аноним 18/10/18 Чтв 16:38:01  1281077
ПЕРЕКАТ

>>1281076 (OP)
>>1281076 (OP)
>>1281076 (OP)
Аноним 19/10/18 Птн 16:08:17  1281424
>>1280571
Мне кажется это очень жирный тралль
Аноним 30/11/18 Птн 20:09:40  1303855
Bamp


Топ тредов
Избранное