Программирование


Ответить в тред Ответить в тред

Check this out!
<<
Назад | Вниз | Каталог | Обновить тред | Автообновление
556 56 179

НЕЙРОНОЧКИ И МАШОБ ТРЕД №15 /ai/ Аноним 26/05/19 Вск 13:34:41 14066601
15541898494160.jpg (85Кб, 1000x563)
1000x563
15541898494171.jpg (32Кб, 640x353)
640x353
15541898494172.png (682Кб, 1032x724)
1032x724
15541898494233.jpg (92Кб, 889x500)
889x500
Очередной тред про хипстерские технологии, которые не работают.

Я ничего не понимаю, что делать? Либо в тупую import slesarplow as sp по туториалам, либо идти изучать математику курсы MIT тебе в помощь. Не нужно засирать тред вопросами типа "что такое сигма?".
Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.
Что почитать для вкатывания? http://www.deeplearningbook.org/ | Николенко и др. "Глубокое обучение" На русском, есть примеры, но уже охват материала
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/ | https://www.hackerrank.com/domains/ai | https://github.com/pytorch/examples
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/
Где работать? https://www.indeed.com/q-deep-learning-jobs.html
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/ | http://www.datatau.com/ На реддите также есть хороший ФЭК для вкатывающихся
Где посмотреть последние статьи? http://www.arxiv-sanity.com/
Где ещё можно поговорить про анализ данных? http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Иначе выгоднее вложиться в 1080Ti или Titan X.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Предыдущий:
https://2ch.hk/pr/res/1373612.html

Архивач:
http://arhivach.ng/thread/412868/
Остальные в предыдущих тредах

Там же можно найти треды 2016-2018 гг. по поиску "machine learning" и "НЕЙРОНОЧКИ & МАШОБЧИК"
Аноним 26/05/19 Вск 13:45:38 14066762
filters.jpg (2454Кб, 2000x2000)
2000x2000
filtersbadConv1.jpg (9364Кб, 4000x4000)
4000x4000
Собственно, мой вопрос.
Пробую визуализировать фильтры сверточных слоев.
Слева - то, что должно быть, стандартная сеть VGG16.
Справа - моя сеть, MobilenetV2.
Почему выдает только начальный рандомный шум?

Я думал, может дело в том, что не все каналы участвуют в предсказании, но пробовал другие и другие пачки по 64 фильтра из одного и того же слоя - везде такая же фигня.

Сам алгоритм отсюда: https://github.com/fchollet/deep-learning-with-python-notebooks/blob/master/5.4-visualizing-what-convnets-learn.ipynb

Аноним 27/05/19 Пнд 20:11:46 14075753
>>1406676
плохо обучил или датасет маленький
Аноним 27/05/19 Пнд 20:13:27 14075814
>>1406660 (OP)
Когда вы уже начнете со своими сетями перемогать?
Аноним 27/05/19 Пнд 20:37:33 14075945
Дайте позязя датасет с симптомами и диагнозами. У вас есть, я знаю.
Аноним 27/05/19 Пнд 20:40:37 14075966
Аноним 27/05/19 Пнд 20:48:22 14075987
Аноним 27/05/19 Пнд 21:40:14 14076178
Аноним 27/05/19 Пнд 22:11:05 14076319
>>1406676
>Почему выдает только начальный рандомный шум?
Это не так. У тебя какие-то точечные пиксели стали сильно белыми. На этом все и застревает. Увеличивай регуляризацию
Аноним 28/05/19 Втр 19:06:52 140812910
index.jpg (10Кб, 275x183)
275x183
>>1407581
> своими сетями
Значение знаешь?
Аноним 28/05/19 Втр 22:03:00 140828611
image.png (77Кб, 680x490)
680x490
image.png (399Кб, 906x630)
906x630
Помогите, пожалуйста, немного с идеей.

Сущесутвуют инвойсы, иными словами, документы счёт-фактура.
На пике типичный инвойс.
Счёт-фактура выставляется (направляется) продавцом (подрядчиком, исполнителем) покупателю (заказчику) после окончательного приема покупателем (заказчиком) товара или услуг
Часто случается так, что эти счета-фактуры по ошибке дублируются или продавец накосячит, как итог, оплачиваются дважды-трижды и компании несут большие убытки.

Как можно применить подход машинного обучения к решения проблемы, а именно, выявление потенциально дублированных счетов-фактур?
Я читал вот это:
https://ctmfile.com/story/payrank-an-algorithmic-approach-to-invoice-payment
В статье говорится о ранжировании и упоминается модель word2vec, которую кормили большими объемами текста. В итоге, она может превращать текст в набор ассоциаций или кластеры, которые, видимо, сравниваются, однако, все равно не понятно как всё работает. Все доступные Счёта-фактуры превращаются в набор ассоциаций и это набор сравнивается со всеми остальными и ищутся схожести?

Заранее спасибо.
Аноним 29/05/19 Срд 15:55:53 140873912
есть unet и вот такой вот лог обучения
Epoch 1/10
2000/2000 [==============================] - 346s 173ms/step - loss: 0.0367 - acc: 0.9924 - val_loss: 0.1006 - val_acc: 0.9819

Epoch 00001: val_loss improved from inf to 0.10056, saving model to /content/drive/My Drive/last_result/linknet_model.hdf5
Epoch 2/10
2000/2000 [==============================] - 337s 169ms/step - loss: 0.0066 - acc: 0.9979 - val_loss: 0.0146 - val_acc: 0.9947

Epoch 00002: val_loss improved from 0.10056 to 0.01463, saving model to /content/drive/My Drive/last_result/linknet_model.hdf5
Epoch 3/10
2000/2000 [==============================] - 337s 169ms/step - loss: 0.0048 - acc: 0.9984 - val_loss: 0.0163 - val_acc: 0.9964

Epoch 00003: val_loss did not improve from 0.01463
Epoch 4/10
2000/2000 [==============================] - 337s 168ms/step - loss: 0.0052 - acc: 0.9984 - val_loss: 0.0299 - val_acc: 0.9947

Epoch 00004: val_loss did not improve from 0.01463
Epoch 5/10
2000/2000 [==============================] - 337s 169ms/step - loss: 0.0044 - acc: 0.9985 - val_loss: 0.1095 - val_acc: 0.9860

Epoch 00005: val_loss did not improve from 0.01463
Epoch 6/10
2000/2000 [==============================] - 337s 169ms/step - loss: 0.0042 - acc: 0.9986 - val_loss: 0.0537 - val_acc: 0.9930

Epoch 00006: val_loss did not improve from 0.01463
Epoch 7/10
2000/2000 [==============================] - 337s 168ms/step - loss: 0.0039 - acc: 0.9986 - val_loss: 0.0393 - val_acc: 0.9940

Epoch 00007: val_loss did not improve from 0.01463
Epoch 8/10
2000/2000 [==============================] - 337s 168ms/step - loss: 0.0043 - acc: 0.9986 - val_loss: 0.0438 - val_acc: 0.9935

Epoch 00008: val_loss did not improve from 0.01463
Epoch 9/10
2000/2000 [==============================] - 337s 168ms/step - loss: 0.0041 - acc: 0.9987 - val_loss: 0.0295 - val_acc: 0.9918

Epoch 00009: val_loss did not improve from 0.01463
Epoch 10/10
2000/2000 [==============================] - 338s 169ms/step - loss: 0.0038 - acc: 0.9987 - val_loss: 0.0698 - val_acc: 0.9911

Epoch 00010: val_loss did not improve from 0.01463

Как я понял, идет переобучение(?), как с ним можно бороться?
Аноним 30/05/19 Чтв 01:23:06 140896013
Кто работал с текстом, подскажите алгоритмы для преобразования текстов разной длины в фиксированные вектора
Аноним 30/05/19 Чтв 01:25:15 140896114
>>1408739
>Как я понял, идет переобучение
Далеко не факт, у нейронок большое значение дисперсии метрик.
>как с ним можно бороться
Регуляризацией или уменьшением сложности нейронки.
К тому же у тебя нейронка не до конца сошлась (лосс на обучении болтает), уменьшай скорость градиетного спуска динамически на плато https://keras.io/callbacks/#learningratescheduler
Аноним 30/05/19 Чтв 01:28:48 140896415
>>1408960
max_len = max(len(sentence) for sentence in corpus)
corpus_padded = [sentence + ["#PADDING#"] * (max_len - len(sentence)) for sentence in corpus]
Аноним 30/05/19 Чтв 11:29:05 140908316
Аноним 30/05/19 Чтв 13:49:09 140916317
Screen Shot 201[...].png (25Кб, 581x224)
581x224
Почему нейроночки не могут в такую простую задачу - понять, на картинке два одинаковых или два разных объекта? У GoogLeNet результат чуть лучше рандома.
Аноним 30/05/19 Чтв 14:54:08 140923418
>>1409163
>такую простую
Не простую
>нейроночки
Оверхайпнутое нерабочее говно
Аноним 30/05/19 Чтв 15:56:05 140926119
>>1409163
Не может такого быть, обучал через жопу, наверняка.
Аноним 30/05/19 Чтв 16:14:37 140926620
Аноним 30/05/19 Чтв 16:34:42 140926921
>>1409163
Потому что нет инвариантности к по воротам, только ко сдвигам.
Аноним 30/05/19 Чтв 16:44:24 140927422
>>1409269
Что, собственно элементарно решается аугментацией. Только для большинства практических применений и не нужно.
Аноним 30/05/19 Чтв 17:06:10 140928123
>>1409266
Слышь, не раскачивай лодку, нам ещё лохов на нейронки обувать
Аноним 31/05/19 Птн 07:28:22 140967924
>>1409163
Ты хочешь, чтобы GoogleNet за тебя сам выделил объекты, выделил их фичи, и сравнил? Дохуя хочешь.
Аноним 31/05/19 Птн 07:47:03 140968425
15592432898250.jpg (489Кб, 1500x1073)
1500x1073
Там это, нейроночки опять учат живописи. На сей раз по идеям Кандинского. Эх, а я ж ещё в начале 2015, за полгода до всяких дипдримов такую идею озвучивал. Правда, всего лишь на этой подмывальне.

https://daily.afisha.ru/news/27307-neyroset-ot-microsoft-napisala-abstraktnuyu-kartinu-na-osnove-pesni-na-zare/
> Нейросеть от Microsoft написала абстрактную картину на основе песни «На заре»

> Microsoft разработала нейросеть, основанную на принципах синергии музыки и живописи, описанных абстракционистом Василием Кандинским. Алгоритм смог нарисовать картину по мотивам песни «На заре» группы «Альянс». Об этом «Афише Daily» рассказали в «Microsoft Россия».

> Нейросеть обучили на картинах Кандинского и музыкальных произведениях, которые его вдохновляли. Проанализировав принцип взаимосвязи между музыкой и живописью, ИИ реализовал его на примере песни «На заре».

> В Microsoft сказали, что выбрали именно эту песню, поскольку она сочетает традиции с современностью и не теряет своей актуальности. Кроме того, разработчики хотели создать картину на музыку, которую никогда не слышал Кандинский.
Аноним 31/05/19 Птн 08:26:08 140970326
Screenshot41.png (54Кб, 493x747)
493x747
Чому так медленно?
Аноним 31/05/19 Птн 09:54:18 140973627
>>1409684
А, ну озвучить то самое главное, никому раньше в голову идея то не приходила.
Аноним 31/05/19 Птн 10:14:21 140974928
>>1409736
Именно, самое главное сделал я. А потом кто-то из DeepMind спиздил мою идею и даже не указал этого
Аноним 31/05/19 Птн 12:34:47 140983129
>>1409684
>абстрактную картину
Как они мазню хитро назвали и вот уже не хуета, а картина, а вы ничего не понимаете.
Аноним 31/05/19 Птн 12:39:57 140983730
>>1409831
> Как они мазню хитро назвали и вот уже не хуета, а картина, а вы ничего не понимаете.
Мамкин искусствовед прохудился.
Аноним 31/05/19 Птн 12:44:22 140984031
>>1409837
Вот давай мне подобие Шишкина или Айвазовского, а не эту рендомную залупу, которая для эстетов и прочих поехавших.
Аноним 31/05/19 Птн 14:18:29 140987732
>>1409840
> Вот давай мне подобие Шишкина или Айвазовского
Любой фотоаппарат + пара фильтров в Фотошопе. Ещё пару лет назад делали нейроночки, которые по тексту рисуют картинки. Это все хуйня. А вот нарисовать картину по музыке, исходя из принципов синергии Кандинского, это достижение.
Аноним 31/05/19 Птн 14:28:27 140988933
Аноним 31/05/19 Птн 14:29:29 140989234
>>1409877
>по тексту рисуют картинки.
Ого, таки научились извлекать семантику из текста? Ну пиздеж же
Аноним 31/05/19 Птн 15:24:08 140993235
>>1409892
Ну ты же научился нет
Аноним 31/05/19 Птн 15:57:23 140995636
>>1409892
Нет конечно, какая семантика.
Есть в тексте слово коты - нахуячим кота, есть стол - стол заебнём.
А если вместо кота напишешь "мохнатый пидарас" будет селфи гудфеллоу.
Аноним 31/05/19 Птн 16:06:20 140996137
foto-kenguru-gu[...].jpg (46Кб, 868x653)
868x653
Аноним 31/05/19 Птн 16:20:17 140997038
>>1409877
>исходя из принципов синергии Кандинского
inb4 кто-то на свете понимает вообще эту шизофазию
Аноним 31/05/19 Птн 17:02:45 140998539
>>1409970
>кто-то на свете понимает вообще эту шизофазию
Ты не ценитель искусства? Там примерно так и объясняется, что это мол не говно и мазня, а великий шедевр имеющий глубокий тайный смысл.
Аноним 31/05/19 Птн 17:29:49 140999440
>>1409985
>великий шедевр имеющий глубокий тайный смысл
После унитаза дюшана эти высеры для меня имеют смысла столько же, сколько свежевысранный бомжом кусок кала.

Вот классическая музыка - да, это топчик.
Аноним 31/05/19 Птн 17:33:14 140999741
>>1409994
>Вот классическая музыка - да, это топчик.
Сорта говн, мне 99.9% классики не заходит, вот такое гонво еще можно слушать
https://youtu.be/bZ_BoOlAXyk
но это не тру классика
Аноним 31/05/19 Птн 18:30:15 141002342
>>1409994
>для меня имеют смысла
Ну да, но тех кто разбирается и не ебёт мнение бессмысленных существ.
Аноним 31/05/19 Птн 19:34:00 141004743
Безымянный.png (86Кб, 1140x413)
1140x413
Имеется результат работы двух алгоритмов(пикрил), 2 временных ряда), но отсутствуют эталонные значения. Каким способом можно оценить эти два ряда? Какая есть методика оценки зашумлености?
Аноним 01/06/19 Суб 04:23:06 141016344
>>1410047
Судя по периодичности напрашивается преобразование Фурье (STFT) и посчет энергии высоких частот. Если их дохуя, значи много шума.
Аноним 01/06/19 Суб 04:24:34 141016445
>>1409970
Я понимаю. Кандинский охуенен.
А сгенерированное нейронками это примерно как сгенерированное нейронками порно. Мельком взглнешь - вроде что-то пошлое, приглядишься к деталям - ошметки какой-то хуиты и ни одного хуя даже нет.
Аноним 01/06/19 Суб 04:27:41 141016546
>>1409274
Элементарно это не решается, только брутфорсом. Для решения этой проблемы Хинтон даже капсульные сети попробовал запилить. Получилась хуита (а когда у него была не хуита?).
Другой вопрос что человек например тоже хуево подобные задачи решает, он не может взять и одним взглядом определить то или не то, нужно сидеть и думать. Фактически это значит что нужна RNN с модулем внимания.
Аноним 01/06/19 Суб 05:03:25 141016747
>>1410164
> А сгенерированное нейронками это примерно как сгенерированное нейронками порно. Мельком взглнешь - вроде что-то пошлое, приглядишься к деталям - ошметки какой-то хуиты и ни одного хуя даже нет.
Так в этом и смысль! Нейроночка из датасета с поревом учится выделять саму суть порно. В итоге человек на сгенерированном контенте однозначно видит порно, хотя по факту там даже ни хуя ни пизды нет. Это и есть истинный абстракционизм.
Аноним 01/06/19 Суб 06:37:27 141017148
>>1410167
Истинный абстракционизм не в том. Нейронка может сделать style transfer и любой провинциальный художник может сделать картинку "под кандинского". Но изначально выдумать свой стиль, который будет узнаваем, быть приятным для глазу иметь какую-то семантику и т. д. - вот это творчество.
Аноним 01/06/19 Суб 12:45:42 141023749
А есть какой-нибудь сервис с простыми задачками по машинлёрнингу для тренировки, типа leetcode?
Аноним 01/06/19 Суб 12:53:48 141024350
Аноним 02/06/19 Вск 09:59:43 141059851
>>1410243
Там именно лёгких тренировочных задач штук десять
Аноним 02/06/19 Вск 10:22:41 141060252
>>1410598
Весь машоб - это штук десять задач, на которые натаскивают разные параметры.
Аноним 02/06/19 Вск 10:41:12 141061253
>>1410602
>натаскивают разные параметры
Да, здорово.
Вся математика это суть одна задача, просто с разными параметрами.
Аноним 02/06/19 Вск 11:52:38 141062754
>>1410612
>это суть
Не употребляй слова, значения которых не знаешь
Аноним 02/06/19 Вск 12:18:04 141063655
>>1410602
> Весь машоб - это штук десять задач, на которые натаскивают разные параметры.
Ровно две - регрессия и классификация. Причем, при желании классификацию можно рассматривать как дискретную регрессию, а регрессию как непрерывную классификацию.
Аноним 02/06/19 Вск 15:34:08 141076756
Дисперсия ряда - это понятно.
А что такое робастная оценка дисперсии ряда?
Аноним 02/06/19 Вск 18:47:40 141088157
>>1410627
Вся математика = все математические задачи
Аноним 02/06/19 Вск 19:05:37 141088958
inceptioncobb.jpg (42Кб, 753x816)
753x816
Короче, высказываю шизоидную идею, как сделать распознающие изображения нейросети более пиздатыми, более приближенными к человеческому мозгу.

Все мы знаем, что нейросети, чтобы обучиться, надо дохуища примеров. Если есть дообучается, то меньше, но один хуй много.
Для сложных объектов вроде разных пород котов или разных моделей автомобилей - не менее нескольких сотен.
Что, если я скажу, что можно создать сеть, которая будет обучаться на 5-10 примерах для каждого класса?

Важный нюанс! Многие об этом забыли. Дело в том, что человек живет в трехмерном мире, но зрение у него двухмерное.
Человек не видит "вглубь" предметов.
Он всегда видит лишь двухмерную проекцию трехмерного мира.
Но!
При взгляде на абсолютно любой предмет у человека в мозгу сразу же возникает 3D-модель этого объекта.
Это хуйня работает настолько быстро и автоматически, что люди вообще забывают, что вообще-то не видят реальный трехмерный мир. Но им это не мешает, ибо мозг сразу же создает полноценную 3D-модель того, что видит. Трехмерная сцена комнаты, трехмерный шкаф, трехмерный стул. Даже если человек не видит обратной стороны шкафа, он знает, что она там есть.

Так и работает зрение. Мы видим тигра. Мы видим ТИГРА. Не его 2D-проекцию, нет, мы видим всего тигра целиком, хотя мы видим только морду тигра, но не его жопу. Но тем не менее, жопа тигра тоже постоянно присутствует в нашем сознании.

Так вот, к чему я веду. Нейросети должны делать точно так же. При виде двухмерной картинки, они должны тут же составлять полноценную 3D-модель всего, что видят. Модель всей сцены, модель каждого знакомого объекта в ней.
И даже незнакомого. Человек способен с высокой точностью предсказать 3D-вид объекта, даже если он в первый раз в жизни его видит и еще не видел со всех сторон. Его сознание дорисует недостающее. Сетки тоже так умеют, но для 2D.

Так вот, эта хуйня полюбасу должна повысить точность сетей.
Вместо тупого анализа 2D-проекции, сеть должна построить 3D-модель и анализировать ее.
Это потребует значительных вычислительных ресурсов. Полагаю, даже текущие немаленькие сетки вырастут в размерах еще в десятки раз. Производительность тоже потребуется соответствующая.

Можете скринить, через 5 лет выкатят сеть, которая будет работать в точности, как я сказал.
Аноним 02/06/19 Вск 19:14:05 141089859
>>1410889
Насколько я знаю, человек может распознавать глубину из-за того, что у него два глаза в разных местах, то есть он получает две слегка разных картинки.
Аноним 02/06/19 Вск 19:23:59 141090760
>>1410898
Нет, эта хуйня. Ты вторым глазом видишь заднюю поверхность шкафа?
Дело в мозге. Мозг создает 3D-модель.
Бинокулярное зрение - лишь аппаратный финт, помогающий быстро и более точно динамически оценивать расстояние до объектов.
Тип тигр в пяти метрах или в трех.

Ты можешь все то же самое и с одним глазом. Да, будет чуток похуже, но лишь чуток.

Я думал, может глубокие сети, за счет выявления все более высокоуровневых признаков, имитируют создание 3D а то и 4D и 58D-модели?

НЕТ, НИХУЯ.
Погляди на любую сверточную сеть - тупо набор двухмерных фильтров.
Сеть в принципе не анализирует 3D-информацию, она всегда видит сраное 2D.
Тот же хуй, только в профиль.
Аноним 02/06/19 Вск 19:34:01 141091661
>>1406676
kрасиво выглядит. А у тебя сеть не обучена нормально она работает вообще?
Аноним 02/06/19 Вск 19:35:48 141092062
>>1410898
закрыл один глаз и все плоским стало
Аноним 02/06/19 Вск 19:39:26 141092563
>>1410907
Короче, первые несколько слоев должны делать конвертацию 2D->3D, а далее все как обычно, но трехмерное ядро свертки ездит уже по трёхмерной пикче.
Фильтры получаются трехмерные.
Пушка же!
Аноним 02/06/19 Вск 19:43:06 141093164
>>1410889
Ближе к мозгу - не значит хорошо. Зависит от задачи. В мозгу скорее всего дохуя избыточности, всяких контекстов. Работает, конечно, охуенно, хотя и не без косяков, но это все же косо-кривая биологическая система, собранная слепой природой. В идеале, чтобы выжать максимум из компов, у них должна быть какая-то особая логика, вполне вероятно отличная от человеческой.
Запилить-то мб запилят, мб даже сейчас кто-то пилит, но сомневаюсь, что будет какой-то прорыв. Прорыв будет ровно настолько, насколько затратнее оно станет.
Аноним 02/06/19 Вск 19:55:42 141094765
>>1410931
Да один хуй, попробовать стоит.
Не получится - ну и похуй.
Зато если получится - будет охуенно.

Неужели никто не делал ничего подобного?
Знаю, есть сети, которые строят 3D-модель объектов.

Но неужели никто не пробовал совместить это с обычными сверточными сетями?
Полюбасу же теряется трехмерная информация.
Возможно, чтобы извлечь важные признаки из 2D-картинки нужно больше примеров обучающей выборки, чем из 3D-картинки.

Допустим, сесть построила сперва 3D-пикчу. А тут хопа - и сразу видны отличительные признаки класса.
А может и вовсе быстрее вычисляются со слоями, высокоуровневые представления быстрее извлекаются.

Смотреть на 2D-проекцию 3D-мира - тупиковый путь.
Если нет сразу 3D-данных, то строить их автоматически и анализировать именно их, а не сраное 2D.

Теперь будет аж 3 стадии обучения.
1. Сеть, которая строить 3D по 2D. Такие могут даже отдельно обучать на каких-то своих данных.
2. Обучение обычной большой выборке вроде ImageNet.
3. Обучение твоей целевой выборки.
Аноним 02/06/19 Вск 19:59:59 141094966
>>1410947
Ебать ты шизик.
И дебил, конечно.
Аноним 02/06/19 Вск 20:06:28 141095367
>>1410947
>Возможно, чтобы извлечь важные признаки из 2D-картинки нужно больше примеров обучающей выборки, чем из 3D-картинки.
Если модель воксельная, то нихуя не поменяется, только сложность в 1.5 раза увеличится. Если полигональная модель, то хуй ты че предскажешь, там уже свертку не применишь просто так.
Аноним 02/06/19 Вск 20:07:01 141095468
>>1410953
>Если модель воксельная, то нихуя не поменяется, только сложность в 1.5 раза увеличится
Пруфы?
Аноним 02/06/19 Вск 20:14:49 141096069
изображение.png (17Кб, 259x194)
259x194
Аноним 02/06/19 Вск 20:18:23 141096370
>>1410954
Ну ок, не в 1.5, а даже больше. Свертки в степень 1.5 увеличатся, плюс затраты на саму генерацию модели и прочую хуйню.
Аноним 02/06/19 Вск 20:34:51 141097671
>>1410960
врети, я гений, это должно работать!
Аноним 02/06/19 Вск 20:51:30 141099072
>>1410953
voxelnet и 3D cnn уже существуют так-то
Аноним 02/06/19 Вск 21:27:30 141100873
proxy.duckduckg[...].jpeg (17Кб, 474x237)
474x237
>>1410889
>Все мы знаем, что нейросети, чтобы обучиться, надо дохуища примеров.
А человеку не нужно? Новорожденный год срет под себя и пускает пузыри, фактически реализуя генетическую программу. Говорить он начинает только через пары лет в среде. При этом обучается он непрерывным видеопотоком, гигабайтами информации ежечасно. Уже доказано, что если держать котят слепыми первое время жизни, они не научатся видеть никогда.
Очевидно, что все, что мозг делает - это файнтюнинг того, что было наработано в детстве. Поэтому и возникает иллюзия быстрого обучения. А на самом деле достаточно, например, заняться чем-то принципиально новым, например, игрой на гитаре, чтобы понять, насколько мозг на самом деле медленный и неэффективный.
При чем именно сверточность сетей как раз очевидна по тому, как работают оптические иллюзии типа пикрелейтед. Некоторые женщины даже карту в уме повернуть не могут.

>Дело в том, что человек живет в трехмерном мире, но зрение у него двухмерное.
А еще цветное зрение это только поле примерно в 2 градуса, а еще у глаза дикие аберрации. Поэтому все, что реально поступает со зрением - это рандомные куски картинки 2х2 градуса, которые глаз сканирует за счет непроизвольных движений. В этом плане нейронка, которая может взять картинку в 16384х16384 пикселей и за один проход через U-Net хуйнуть сегментацию каждого пикселя - для мозга это просто рокет саенс.

Вообще же твоя идея не нова, читай Хинтона про капсульные сети. Я считаю, что это тупиковый путь по описанным выше причинам, но тем не менее.
Аноним 03/06/19 Пнд 00:57:01 141109774
0agdqUYd.jpg (21Кб, 640x538)
640x538
Аноним 03/06/19 Пнд 01:25:59 141110775
>>1410907
> Сеть в принципе не анализирует 3D-информацию, она всегда видит сраное 2D.
Это она тебе когда бухали вместе выдала всё как на духу?
Аноним 03/06/19 Пнд 01:31:46 141111276
Нет никакой априорной открытой человеку в сакральном знании "3D модели", додик. Человек может оперировать твоими обоссаными "3D моделями" только лишь потому что эволюция так распорядилась: человек может физически обойти любой предмет с разных сторон и посмотреть на него под разными ракурсами, что он и делает всю жизнб. А нейросеть не может, ей скармливают те фотографии которые есть.
Аноним 03/06/19 Пнд 09:19:36 141115777
giphy.mp4 (137Кб, 480x268, 00:00:04)
480x268
Аноним 03/06/19 Пнд 09:19:53 141115878
>>1410636
А GAN это классификация или регрессия?
Аноним 03/06/19 Пнд 10:41:03 141118279
>>1411112
Ты в своем тупом посте противоречишь сам себе.
Аноним 03/06/19 Пнд 10:45:42 141118880
>>1411182
Тупой здесь только ты, шизик.
Аноним 03/06/19 Пнд 11:44:37 141121781
>>1411188
Не только. Есть еще я.
Аноним 03/06/19 Пнд 19:22:48 141136082
15520534628591.png (411Кб, 512x512)
512x512
Восприятие 3д это результат научения, от рождения оно не даётся. Пруфы есть с самых разных сторон, но самый наглядный пример - эксперименты с котятами, которых с рождения содержат в помещении с определенной геометрией. Так вот, коты, с рождения не видевшие горизонтальных линий, не могут спуститься с лестницы, валятся с нее, тогда как точно такие же коты, содержащиеся в помещении с горизонтальными линиями, легко бегают по лестнице, но с большим трудом могут пройти через забор из вертикальных палок. И те и другие в нормальном окружении быстро учатся нормально перемещаться. Мораль - изначально нейроночки не могут в 3д, но при правильном датасете это не проблема вообще. Ни о чём у вас спор так-то.
Аноним 03/06/19 Пнд 19:58:07 141137183
Аноним 03/06/19 Пнд 22:06:43 141142184
14996130418030.jpg (47Кб, 533x800)
533x800
Аноны, а есть тред, где обсуждается работа?
Подумываю перекатиться из enterprise в нейросети, но пока что неясен рынок труда в РФ
Аноним 03/06/19 Пнд 22:28:02 141143585
>>1411421
Аж целый тред "мы вам перезвоним".
Аноним 04/06/19 Втр 08:46:34 141156486
>>1410889
Больше моделирую в голове, чем смотрю
мимо очкарик
Аноним 04/06/19 Втр 09:37:44 141157987
Аноним 04/06/19 Втр 16:16:11 141176888
Какие щас самые топовые архитектуры?
Аноним 04/06/19 Втр 16:24:36 141177289
Есть ли у мозга аналог переобучения?
По-моему, такой хуйни вообще нет. Недообучение есть, пере - нету.
Аноним 04/06/19 Втр 16:43:00 141178590
>>1411772
Переобучение - недостаток обобщения. Вполне себе бывает в жизни, человек задрочил факт, и если поменять переменные в нем, он уже не может разглядеть его.
Аноним 04/06/19 Втр 17:15:41 141180991
Аноним 04/06/19 Втр 18:34:16 141184292
Аноним 05/06/19 Срд 09:45:32 141207693
Как токенизировать текст русского языка?
Эти ебаные окончания, падежи, спряжения, формы числительных и т.д. и т.п. Да тут блядь двух одинаковых слов в предложении не бывает.

Во всех (английских, разумеется) статьях по NLP токенизация выполняется тупо разделением по пробелам и этого оказывается достаточно для большинства простых задач.
Но в русском языке такое говно по дефолту не прокатит.
Че делать?
Аноним 05/06/19 Срд 09:54:32 141208194
>>1412076
Stopwords + стеммер Портера? Не, не слышал.
Аноним 05/06/19 Срд 10:02:14 141208395
попугай 1.jpg (10Кб, 254x190)
254x190
>>1412081
Спасибо, анон, это будет хорошей отправной точкой
Аноним 05/06/19 Срд 10:06:33 141208596
>>1412081
Анон, может подскажешь и как векторизировать слова русского языка?
Аноним 05/06/19 Срд 10:12:31 141209097
>>1412085

напиши слово на бумажке и проведи над ним стрелку
Аноним 05/06/19 Срд 11:01:26 141210298
>>1412085
> Анон, может подскажешь и как векторизировать слова русского языка?
Fasttext.
Аноним 05/06/19 Срд 12:55:30 141219499
>>1411768
Учись прунить, это сейчас топчик
Аноним 05/06/19 Срд 14:32:21 1412241100
15595906611432.png (126Кб, 419x249)
419x249
>>1412194
Повторяется история с перцептрончиками, тогда тоже все скисло на всякой дрочьбе вприсядку из-под ноги типа OBD, OBS (optimal brain damage / surgery). После чего сверточные нейроночки торжественно определят в петушиный угол и найдут что-то другое, на основе statistical learning theory
Аноним 05/06/19 Срд 14:41:24 1412245101
>>1408286
Тебе нейронки для такой задачи не нужны, OpenCV хватит
Аноним 05/06/19 Срд 15:28:14 1412275102
>>1412241
>на основе того, что очередные фокусники из гугла для лулзов протестят очередной высер на своем кластере, а он возьмет, да выстрелит
>а потом быстро накатают под это статейку, мол они сверхразумы, вели тщательные исследования и мол так и было задумано, никаких случайностей
Аноним 05/06/19 Срд 20:16:00 1412396103
Анон, подскажи ньюфагу, пожалуйста, в GradientDescentOptimizer непременно нужно что-то указывать?
Просто вызвать как GradientDescentOptimizer().minmize(loss) нельзя?

Выдаёт ошибку TypeError: __init__() missing 1 required positional argument: 'learning_rate'
Аноним 05/06/19 Срд 21:14:29 1412417104
>>1412081
>Stopwords + стеммер Портера
Говно
>>1412076
>токенизировать текст русского языка?
Юзай pymorphy или mystem от хуяндекса и жди пока я нормальный морфоанализатор допишу.
Аноним 05/06/19 Срд 21:23:32 1412420105
>>1406660 (OP)
Насколько хорошо нужно знать дискретную математику и теорию графов в бигдате и машинном обучении?
Аноним 06/06/19 Чтв 05:00:10 1412691106
Аноним 06/06/19 Чтв 07:37:27 1412703107
Аноним 06/06/19 Чтв 07:37:50 1412704108
Уменьшаю batch_size - точность растет. Какого хуя? Разве не наоборот должно быть?
Аноним 06/06/19 Чтв 08:35:11 1412714109
Привет анон, посоветуй что-то из приблизившегося к прохождению теста тьюринга осознающего себя компутера
Аноним 06/06/19 Чтв 08:42:22 1412716110
>>1412714
>осознающего себя компутера
привет ты че охуел
Аноним 06/06/19 Чтв 09:50:11 1412731111
>>1412704
Не факт, тут уж как повезет, зависит от данных и от "модели".
Аноним 06/06/19 Чтв 11:48:00 1412767112
>>1412241
Нет, нечеткий петух, история не повторяется, а ты как сосал хуи, так и сосешь.
Аноним 06/06/19 Чтв 11:53:13 1412769113
15590288550100.jpg (594Кб, 840x854)
840x854
Когда я прочитал тред, у меня возникло ощущение, что сидящие тут не совсем понимают, что они делают и как оно работает
Аноним 06/06/19 Чтв 13:01:07 1412788114
>>1412767
> Нет, нечеткий петух, история не повторяется,
Повторяется. Генерация несуществующих сельдей и котов уже никого не удивляет, а новых достижений что-то не завезли.
Аноним 06/06/19 Чтв 13:51:46 1412807115
>>1412788
Откуда ты можешь знать, что там завезли или не завезли, если ты не следишь за темой и не читаешь пейперы (для чтения которых у тебя отсутствует математическая база)?
Аноним 06/06/19 Чтв 13:55:18 1412809116
>>1412807
> Откуда ты можешь знать, что там завезли или не завезли, если ты не следишь за темой и не читаешь пейперы (для чтения которых у тебя отсутствует математическая база)?
Ну ты расскажи. Ты ж умный, телевизор поди смотришь.
Аноним 06/06/19 Чтв 13:57:28 1412810117
>>1412809
>расскажи
Деньги вперед.
Аноним 06/06/19 Чтв 14:00:09 1412812118
>>1412810
Ясно, понятно. Как всегда, одни кукареканья и пердёж в лужу без всякой конкретики.
Аноним 06/06/19 Чтв 14:16:44 1412817119
Аноним 06/06/19 Чтв 14:20:58 1412819120
>>1412812
>конкретики
Быдлу (тебе) не положено.
Аноним 06/06/19 Чтв 14:36:36 1412828121
>>1412819
Родители твои быдло. Ты ж даже слиться нормально не можешь, какие-то ебланские маневры ни для чего. Передо мной можешь не выебываться, ты мне никто. А перед самим собой давно стоило бы признать, что ты дебил.
Аноним 06/06/19 Чтв 15:26:16 1412854122
>>1408286
if hash(invoice) == hash (invoice[j]) and invoice.title == invoice[j].title:
_____invoice.is_valid = '?'
_____questionable.append(invoice)

Добавлять машинное обучение сюда просто идиотия.
Аноним 06/06/19 Чтв 16:44:31 1412884123
лягушка.jpg (9Кб, 316x317)
316x317
>>1412769
>не совсем понимают как оно работает
Лол. С помощью import keras можно решать 90% задач, а понимают пусть умники всякие в гуглах
Аноним 06/06/19 Чтв 16:48:04 1412889124
>>1412828
>КУДАХ БАБАХ КУКАРЕКУ
Ясно.
Аноним 06/06/19 Чтв 17:02:42 1412892125
image.png (12Кб, 380x443)
380x443
>>1412884
Но это же шаманство в чистом виде, даже веб-макакены обладают большим пониманием своей области
Аноним 06/06/19 Чтв 17:03:22 1412893126
>>1412788
>Генерация несуществующих сельдей и котов уже никого не удивляет
Кого - никого? Тебя ведь это никогда не удивляло. Сколько лет ты рассказываешь о том, что нихуя нового нет, и что мол никого не удивляет. Удобный манямирок создал и живешь в нем.
А за это время люди типа меня пейперы доводят до продакшена и устанавливают на каждом утюге. Ты как протопоповец-девственник, который пытается доказать, что тянок ебать нужно вовсе не так, и вообще секс это скучно.
Аноним 06/06/19 Чтв 17:07:30 1412896127
>>1412893
>типа меня пейперы доводят до продакшена и устанавливают на каждом утюге
Довай ссылу, посмотрим на твою йобу.
Аноним 06/06/19 Чтв 17:09:35 1412900128
Аноним 06/06/19 Чтв 17:09:47 1412901129
>>1412893
> ы как протопоповец-девственник, который пытается доказать, что тянок ебать нужно вовсе не так, и вообще секс это скучно.
Причем тут это? Я говорю, что нынешние нейроночки это путь в никуда по вполне очевидным причинам. Я это говорил во время хайпа, я и сейчас это говорю, когда хайп уже начал сдуваться.
Аноним 06/06/19 Чтв 17:23:33 1412908130
>>1412901
Да я помню, что ты говоришь. Уже года три, наверное. Только вот такая твердолобость это не показатель ума, совсем.
Аноним 06/06/19 Чтв 18:37:26 1412942131
>>1412716
Извини компутер, я не хотел тебя обижать =) ну если так то можешь порекомендовать чтива по этому поводу? можно конечн она дижиталфлоу сделать себе собеседника, но я хочу как папакарло выстругать \ту дрять самостоятельно(конечно не самомстоятельно а просто спиздить готовый код)
Аноним 06/06/19 Чтв 18:45:25 1412949132
>>1412942
Читай в сторону от дифференцируемых функций.
А вообще, у нас кудахтеры очень слабые.
Тут даже микросетку по распознаванию собачих анусов неделю обучают.
Аноним 06/06/19 Чтв 19:12:08 1412964133
>>1412942
>сделать себе собеседника
Чатботы прекрасно делаются с 80х без нейроговна.
Аноним 07/06/19 Птн 08:15:02 1413158134
>>1412908
> Только вот такая твердолобость это не показатель ума, совсем.
А это не твердолобость, это понимание вопроса. Все эти нейроночки только за счёт закона Мура ещё на плаву держатся. Действительно умных решений типа иерархического софтмакса единицы, в основном все решается методом "наебенить побольше слоев / нарастить кластер". Будущее за квантовыми вычислениями, а квантовая логика считай другое название нечеткой и любой квантовый вычислитель де-факто суть fuzzy inference system.
Аноним 07/06/19 Птн 09:01:16 1413171135
>>1413158
>Будущее за квантовыми вычислениями, а квантовая логика считай другое название нечеткой и любой квантовый вычислитель де-факто суть fuzzy inference system.
Спасибо, мы вам перезвоним.
Аноним 07/06/19 Птн 11:37:26 1413213136
>>1413158
>квантовыми вычислениями
Хуйня в кубе, еще больший попил чем нейронки.
Аноним 07/06/19 Птн 12:24:32 1413233137
>>1413213
> Хуйня в кубе, еще больший попил чем нейронки.
Если бы это был только попил, на этой теме пилили бы только госконторы, в том числе в Блинолопатии. А этого нет. Тому же Брину какая от этой темы польза, он что на пентагоновских госконтрактах сидит? А почему до сих пор нет "роскванта" с Чубайсом во главе? Думаешь, он хуже тебя в распилах понимает?
Аноним 07/06/19 Птн 13:47:17 1413271138
>>1413233
> А этого нет.
Зделой
Аноним 07/06/19 Птн 14:43:51 1413288139
1403198410700.jpg (16Кб, 400x400)
400x400
Ребята, есть нихуевая вероятность, что я долбоеб.

Нейросеть ведь нельзя тренировать после наступления эффекта переобучения?

Иначе она высосет слишком много нерелевантных данных из обучающей выборки, верно?
И на новых данных будет пытаться их найти, ухудшая качество на данных, которых никогда не видела прежде.
Аноним 07/06/19 Птн 23:41:34 1413481140
>>1410947
>1. Сеть, которая строить 3D по 2D. Такие могут даже отдельно обучать на каких-то своих данных.
Такое уже есть
Аноним 08/06/19 Суб 07:54:35 1413532141
Аноним 08/06/19 Суб 11:50:00 1413563142
>>1413532
>Тест Тьюринга
На сколько ты педик и похож на Белоснежку?
Аноним 09/06/19 Вск 13:18:29 1414014143
>>1410960
пруфанул тебе за щеку - проверяй
Аноним 09/06/19 Вск 15:47:23 1414075144
Действительно ли так нужна матеша в этих ваших нейронках? Знаю людей, которые занимаются рекомендательными системами в одной конторе и постоянно на конфах рассказывают про новый рекуррентные архитектуры со всеми баззвордами, зарабатывают весьма прилично, но не знают математику причем относятся к ней враждебно. Интересно, как они это делают, потому что из серьезных книг у меня сложилось впечатление, что порог вхождения очень высокий и даже обычной программы линала и теорвера из вуза недостаточно.
Аноним 09/06/19 Вск 17:00:26 1414116145
>>1414075
>Ебут в жопу красноглазиков с матфаков, которым не хатает социальных навыков самостоятельно выступать на конфах и зарабатывать бабло.
Аноним 10/06/19 Пнд 17:24:56 1414562146
>>1410889
Ты можешь на изи проверить свою идею. Берёшь к боттлнек слою vgg16 прикручиваешь несколько deconv+batch norm слоёв. И тренируешь одновременно две задачи - классификация изображения и построение карты глубины изображения. Дальше на валидационном сете проверяешь точность классификации. Если она выше, чем без auxiliary task, то публикуешься и начинаешь искать нормальную архитектуру для deconv слоёв.
Аноним 11/06/19 Втр 08:30:34 1414764147
>>1414562
Как-то слишком сложно звучит, я больше по части высказывания всяких шизоидных высеров, а не программированию
Аноним 11/06/19 Втр 13:15:13 1414811148
>>1409163
>у GoogLeNet
Как там в 2015? ГАНы уже научились овалы с ушами генерировать?
Аноним 11/06/19 Втр 14:05:24 1414820149
>>1414811
ну попробуй этот таск решить своим реснетом или вгг, однохуйственно
Аноним 12/06/19 Срд 09:02:50 1415078150
Обучил нейронку. Точность на валидационных данных (не обучающих) - 80%.
Тестю вручную на тех же валидационных данных - нихуя, блядь, не распознает, точнее точность гораздо ниже 80%, по ощущениям процентов 30.
Как это возможно вообще?
Аноним 12/06/19 Срд 09:05:48 1415080151
Аноним 12/06/19 Срд 09:12:07 1415081152
>>1415078
Ах ты ж блядь, сильно похоже, что я перепутал лейблы.
Питон же грузит папки в своей маня-сортировке.
И порядок классов в итоге при flow_from_directory получается ДРУГОЙ.

Ща протестю и напишу, если это так
Аноним 12/06/19 Срд 09:34:06 1415086153
>>1415081
Ах ты ж блядь, да, это так.
Ебаный порядок классов.
Я 2 месяца юзал сеть с перепутанным порядком классов.

А она все это время хорошо работала.
Да моя сеть на новых данных работает еще пизже, чем на валидационных.
Аноним 12/06/19 Срд 09:42:13 1415088154
>>1415086
> Я 2 месяца юзал сеть с перепутанным порядком классов.
И норм было. Вся суть практического использования ваших нейроночек. Простой рандом и то работал бы лучше.
Аноним 12/06/19 Срд 09:45:58 1415090155
>>1415088
>И норм было
На самом деле нет, но я это скрывал. Я все это время думал, что я допустил какой-то фатальный недостаток вроде переобучения и сама сеть - говно.
А она была заебись, просто я даун и не проверил порядок классов.
Теперь все сходится, я все это время был прав, все было заебись
Аноним 12/06/19 Срд 11:42:51 1415139156
Какая машина нужна чтобы быть компетитив на каггле? С коллабом можно даже не соваться?
Аноним 12/06/19 Срд 12:07:30 1415154157
>>1415139
Ну какг бэ на кагле свои виртуалки, где в итоге тестится проект.
Но никто тебе не мешает использовать любое железо.
Аноним 12/06/19 Срд 16:10:04 1415335158
Занимаюсь переводами текстов англ > рус, наткнулся на seq2seq, который обещает сделать обучаемый переводчик.
Есть ~500 обработанных вордовских страниц оргинал | перевод, дальнейшие тексты примерно похожей тематики и терминологии.
Реально вообще хоть немного облегчить и автоматизировать свой труд или я что-то упускаю?
Аноним 12/06/19 Срд 16:13:56 1415340159
>>1415335
>Реально вообще
Неа
Аноним 12/06/19 Срд 16:25:28 1415346160
>>1415335
>>1415340
Интересно, легче ли сделать не адекватный переводчик, а модель которая бы оценивала адекватность перевода?
Аноним 12/06/19 Срд 16:31:09 1415354161
Аноним 12/06/19 Срд 16:36:23 1415360162
>>1415354
Сложна
>>1415346
>адекватность перевода
Формализуй, хотя очевидно, что без разбора семантики текста, адекватность ты не узнаешь.
Аноним 12/06/19 Срд 17:27:27 1415379163
>>1415335
По поводу машинного перевода нужно смотреть в сторону поделий от Facebook ai research. Они единственные занимаются архитектурами, которые в такое могут или почти могут. Посмотри ихний гитхаб с описаниями проектов, точно что-то такое там попадалось. Все остальное типа seq2seq для твоей задачи хуета полная.
Аноним 13/06/19 Чтв 01:20:27 1415564164
Как решают задачи одноклассовой классификации? То есть не сказать, кот на картинке или собака, а есть ли на ней человек или его нет (а может быть что угодно).
Аноним 13/06/19 Чтв 01:21:43 1415566165
>>1415346
Если сделать оценщик адекватности, то можно запускать adversarial learning, так ведь?
Аноним 13/06/19 Чтв 21:24:12 1416024166
>>1415564
укажешь 1 класс (человек), место 2х (собака/кот)
Аноним 14/06/19 Птн 13:42:07 1416326167
есть задача: нужна нейросеть, которая классифицирует объекты.
На объектах есть технические пометки, типа "ТП 2008-10" "ПГ 1007-16" и т.д. Формат всегда один и тот же. Помогите правильно составить вектор Y (метки)
Формат: (буква, буква, 4хцифры - цифра, цифра)
я правильно понимаю, что Y должен быть ([Y1а, Y1б, Y1в ....][Y2а, Y2б, Y2в][Y30, Y31...Y39][Y40...Y49]...[Y80...Y89]), где все эти Y - или 0, или 1?
Аноним 14/06/19 Птн 13:43:41 1416329168
>>1416326
то есть Y - вектор размерностью (132, 1), стостоящий из 0 и 1
Аноним 14/06/19 Птн 14:00:25 1416349169
>>1416326
>>1416329
Если ТП, ПГ, 2008, 1007 итп это категории (т.е. у тебя конечное и очень ограниченное количество вариантов из двух букв/из четырёх цифр, встречающихся в данных) то лучше просто для каждого варианта сделать свой выход и тренировать сеть чтобы она вероятностные распределения на этих категориях предсказывала.
Аноним 14/06/19 Птн 14:01:44 1416350170
>>1416349
нет, там 36 возможных букв и 10 возможных цифр. То есть бывают и варианты "АА 7777-15" и т.д.
Аноним 14/06/19 Птн 14:07:16 1416354171
>>1416350
Это уже распознавание текста. То есть сначала тебе надо найти текст на изображении - это похоже на предсказание bounding box, а потом его распознать - это задача сродни image captioning. Хотя ещё разумнее, как мне кажется, искать отдельные цифры и буквы и их распознавать отдельно. Сколько у тебя вообще данных есть? Как выглядит типично изображение?
Аноним 14/06/19 Птн 14:10:44 1416356172
>>1416354
данных очень мало, не для всех классов.
Согласен, тут скорее распознавание текста.
Шарить типичное изображение не могу, увы, но изображение всегда четкое и всегда падает один и тот же свет, с этим никаких проблем.
Проблема только в том, что нет данных для всех возможных классов, так как не все объекты пока существуют (не построены)
Спасибо за подсказку
Аноним 14/06/19 Птн 14:12:10 1416358173
>>1416354
о, моя задача очень похожа на распознавание номеров
Ее тоже решают через OCR, не через классификацию?
Аноним 14/06/19 Птн 17:01:41 1416452174
Аноним 14/06/19 Птн 17:11:23 1416456175
>>1416452
>Все?
А было по другому?
Аноним 14/06/19 Птн 18:14:33 1416487176
>>1416452
Ты статью-то прочитал, или только заголовок/
Аноним 14/06/19 Птн 18:34:06 1416499177
15591757748580.png (40Кб, 1177x662)
1177x662
>>1416487
Тип прадакшена стало больше, стали более лучше распознавать негров, овощи там, рожь, вот это все, стартапы ненужны. Ясно, понятно. Рулю пизда, из нейроночек больше не выжать, их использование усложняется, системные требования растут лавинообразно. Года 2-3 назад для проекта хватало двух сойбоев - друзей по жопе, сейчас нужна мощная команда + немаленькие влошения. Собственно, приплыли. Скоро до всех дойдет, что нужно искать что-то ещё.
Аноним 14/06/19 Птн 18:58:32 1416515178
>>1416499
Кто вкатился - будет на коне, время, когда для первой работы достаточно ввести import keras кончилось
Аноним 14/06/19 Птн 19:44:31 1416534179
forman.jpeg (88Кб, 454x600)
454x600
>>1416024
И будет он всегда выдавать "человек" на любых данных. Нет, тут надо посложнее.
Аноним 14/06/19 Птн 20:06:23 1416546180
>>1416499
>Скоро до всех дойдет
>Скоро, скоро
Шел очередной год вечеринки, на которую нечеткого петуха не пригласили.
Аноним 14/06/19 Птн 20:12:35 1416551181
>>1416534
он не будет всегда выдавать "человек" на любых данных, он будет выдавать % того, что на картинке человек...
Аноним 14/06/19 Птн 20:14:55 1416553182
>>1416515
Такое время было только в маняфантазиях посетителей этого треда, никто из которых работу, что характерно, не нашел.
Аноним 14/06/19 Птн 20:25:04 1416557183
>>1416553
Ирл знаю людей, которые в проде тупо скачивают модели с торч хаба, меняют целевую функцию и деплоят. Зарабатывают побольше всяких программистов, от чего чсв выше крыши.
Аноним 14/06/19 Птн 20:36:12 1416563184
sadfrog.jpeg (103Кб, 500x484)
500x484
>>1416557
Скажи, где такие работают?
Аноним 14/06/19 Птн 20:38:31 1416564185
>>1416551
А расскажи, как тогда выглядит loss и датасет?
Аноним 14/06/19 Птн 20:40:04 1416565186
>>1416563
Там же, где работают всякие бестолковые кодеры, которые искренне удивляются задачам на вечерние деревьев в крупных ит-компаниях — в ноунейм стартапах и прочем малом бизнесе.
Аноним 14/06/19 Птн 21:35:40 1416598187
Аноны, что посоветуете почитать про OpenSet recognition, желательно с примерами, в идеале на пистоновских либах.
Аноним 14/06/19 Птн 22:39:16 1416630188
>>1416557
Представляю ваш диалог
- Я работаю над мл в таком-то стартапе
- Гыы-гы-гы, лол, качаешь модельки, а сам нихуя не делаешь)))
- Иди нахуй
- Ыыы. лалка у тебя чсв выше крыши)))
Аноним 14/06/19 Птн 23:11:00 1416643189
Как должно выглядеть резюме у успешного вкатывальщика в датасцаенс? Гитхаб, кегля, курсера?
Аноним 14/06/19 Птн 23:13:47 1416646190
>>1416630
Я спрашивал о деталях. А когда спросил "а как же математика и все такое", мне сказали, что это для задротов и в нейронках достаточно интуитивного понимания.
Аноним 14/06/19 Птн 23:34:59 1416658191
>>1416564
binary_crossentropy, 2 класса - человеки и все остальное
Аноним 14/06/19 Птн 23:45:57 1416663192
Аноним 15/06/19 Суб 00:04:12 1416668193
>>1416658
А как "всё остальное" набрать? Вот у нас в датасете - только фотографии людей. Что делать? Качать ещё один? То есть такой подход (+ использовать неправильно классифицированные фотки как дополнительные негативные примеры) понятен, он уже старый, ещё до нейронок был известен. С тех пор других идей не появилось?
Аноним 15/06/19 Суб 00:23:10 1416675194
>>1416668
>А как "всё остальное" набрать?
Да как хочешь.
>Качать ещё один?
C dial up сидишь?
>С тех пор других идей не появилось?
Предложи свои
Аноним 15/06/19 Суб 01:08:52 1416685195
>>1416646
Если почитать Фейнмана, может сложиться такое же впечатленеие - физика это просто и интуитивно, вообще раз плюнуть. Вышел и нобелевку получил.
Аноним 15/06/19 Суб 01:16:41 1416688196
>>1416668
>С тех пор других идей не появилось?
Появилась, GAN называется. Генератор учится генерировать что-то похожее на твой датасет, дискриминатор отличать датасет от не-датасета. Потом генератор ты выкидываешь, а дискриминатор используешь для классификации.
Правда негативные примеры все равно будут работать лучше.
Аноним 15/06/19 Суб 02:46:44 1416700197
>>1416688
> Появилась, GAN называется.
Ровно одно сомнительное достижение с ограниченным применением типа нагенерить несуществующих сельдей по набору существующих.
Аноним 15/06/19 Суб 02:57:03 1416702198
>>1416546
Можешь и дальше отрицать реальность, хотя вон выше даже графики подвезли. Все происходящее закономерно, я вообще ничего удивительного в этом не вижу, это вы итт наяривали из-под ноги на всемогущие нейроночки когда я уже говорил, почему не взлетит.
Аноним 15/06/19 Суб 03:14:40 1416705199
>>1416700
Мне кажется, там самое ценное - идея adversarial training. По идее, в задачах генерации сложных объектов она на ура зайдёт. Например, при генерации текстов - тут и перевод, и captioning.
Аноним 15/06/19 Суб 04:43:23 1416718200
>>1416705
Есть примеры использования этого для NLP?
Аноним 15/06/19 Суб 06:01:44 1416723201
>>1416700
Сейчас бы с петухами, которые судят о ганах по статьям на хабре, обсуждать их применение.
>>1416702
Происходящее очень закономерно: новая индустрия растет и крепнет, на место ученым приходят инженеры, которые берут разработки и выжимают из них максимум, что ученым не очень интересно. Как жаль, что ты настолько тупой, что тебе остается только рассказывать о том, как мы тут тензорфлоу импортируем.
Аноним 15/06/19 Суб 06:19:15 1416724202
>>1416705
Самое ценное - идея того, что любую функцию в пайплайне нейронки можно заменить другой нейронкой. Например, типичная ситуация: у тебя есть датасет, но он маленький. Тебе нужно аугментировать данные. Ты можешь сделать это вручную (сдвиги-повороты, хуе-мое). А можешь сделать аугментатор в виде нейронки, у которой на входе картинка из датасета и случайный вектор и целевой функцией так саугментировать, чтобы наебать твой классификатор, но не слишком сильно.
Или, наоборот, если ты проектируешь генератор, то дискриминатор - это на самом деле продвинутый самообучаемый лосс.
Аноним 15/06/19 Суб 12:14:34 1416778203
>>1416718
Есть для машинного перевода без учителя, но там адверсарная часть сидит на выходе кодировщика в промежуточное представление: https://openreview.net/pdf?id=rkYTTf-AZ
Аноним 15/06/19 Суб 13:26:38 1416803204
e1d7a5973bdf.jpg (33Кб, 405x552)
405x552
>>1416718
>NLP
>Рычи, двигай тазом.
Ты там для какого языка делаешь, если для аналитического англоговна то более менее создат иллюзию, если для нормальных языков то соснешь, не мучайся.
Аноним 15/06/19 Суб 20:12:25 1416950205
>>1416803
> если для нормальных языков то соснешь, не мучайся.
Ещё один верующий в великий и могучий
Аноним 16/06/19 Вск 10:07:45 1417102206
>>1416950
он только в нечеткие модели и экспертные системы верит. Русске вообще шизики. Заходишь в комментарии на каком-нибудь хабре - а там перепись нечетких дегенератов. https://habr.com/ru/company/recognitor/blog/455676/

(наш нечеткий петух тоже звезда хабра)
Аноним 16/06/19 Вск 10:43:09 1417112207
В чем прекол прунинга? Как известно, нейронки - это перемножение матриц. Так какой смысл занулять какие-то элементы, если они все равно перемножаются? Или оно как-то по-другому работает или имеет иное значение?
Аноним 16/06/19 Вск 12:24:03 1417134208
>>1417112
Прунинг - это деревья, при чём тут нейронки?
Аноним 16/06/19 Вск 12:43:26 1417139209
>>1417134
Зумера нихуя не понимают, но свое зумерское мнение имеют. Посмотри хоть в гуглопереводчике значение.
Аноним 16/06/19 Вск 15:28:46 1417237210
>>1416950
>верующий
Я знающий
Аноним 16/06/19 Вск 15:38:23 1417242211
image.png (251Кб, 459x393)
459x393
Как расчитывать место, которое займет модель после обучения?
Можно ли обучать модель из временных хранилищ? Например спарсил 1 тб пикч -> прогнал нейронкой -> удалил и спарсил еще 1 тб других, и т.п. пока не выкачаю все интернеты, лол?
Аноним 16/06/19 Вск 18:58:51 1417331212
>>1417242
> Как расчитывать место, которое займет модель после обучения?
Что ты имеешь в виду?
> Можно ли обучать модель из временных хранилищ? Например спарсил 1 тб пикч -> прогнал нейронкой -> удалил и спарсил еще 1 тб
Обычно объем обучающей выборки в несколько раз меньше.
Аноним 16/06/19 Вск 19:39:12 1417371213
>>1417331
>Что ты имеешь в виду?
Размер в байтах.
Аноним 17/06/19 Пнд 12:44:14 1417619214
Какой выбрать вуз для изучения машоба?
Аноним 17/06/19 Пнд 13:27:42 1417647215
Аноним 17/06/19 Пнд 13:59:40 1417668216
>>1417647
Там надо тему исследования и какие-то наработки иметь, чтобы взяли на бюджет
Аноним 17/06/19 Пнд 14:17:47 1417679217
>>1417668
>>1417647

Да,я прочитал,там охуеть какие требования.
Вопрос вот такой, я собираюсь идти в бакалавриат, но не могу выбрать направление. Конкретно нужно,чтобы не потратил время зря, ведь я хочу заниматься машобом. Вот список:
Математика и компьютерные наук

Механика и математическое моделирование
Информатика и вычислительная техника
Прикладная информатика
Аноним 17/06/19 Пнд 14:23:44 1417683218
Аноним 17/06/19 Пнд 14:29:06 1417686219
>>1417683
Спасибо за консультацию,но поступать в вшэ не планирую.
Олимпиаду я не смог затащить,а по егэ планирую не больше 270(сейчас жду инфу,математика+русский = 184). А там на бюджет надо 290+.
Аноним 17/06/19 Пнд 14:33:36 1417687220
Как загнать датасет для обучения в питон? Есть папка с размеченными фотками, как организовать массив с пикселечками и лейблами, чтобы ничего не перепуталось?
Или мой вопрос идиотский и надо "просто делать"?
если есть пример кода с прочтением фоток, дайте линк, очень прошу
Аноним 17/06/19 Пнд 14:33:46 1417688221
>>1417686
В таком случае тебе в "Математика и компьютерные науки" или "Прикладная математика" вместе с курсами в сети (читай: ссылками в шапке треда) и занятиями в свободное время. Это, пожалуй, максимально независимый от университета путь.
Аноним 17/06/19 Пнд 14:34:26 1417690222
Аноним 17/06/19 Пнд 16:59:18 1417797223
>>1417679
учусь на ивт, брат жив. Есть математика и железо (часть нахуй не нежна, часть довольно полезна). Есть предметы с сетками, но тут довольно скудно
Ты должен прекрасно понимать, что тебе надо от универа. Мне расписывать лень, но знай, что универ не всегда может дать актуальные/полезные знания. Будь к тому готов
Аноним 17/06/19 Пнд 18:07:04 1417835224
Аноним 17/06/19 Пнд 18:54:55 1417881225
>>1417371
Он известен заранее ещё до обучения
Аноним 18/06/19 Втр 15:58:31 1418295226
А можно ML применять в QA и operations с пользой для бизнеса? Есть такие вакансии сейчас?
Аноним 20/06/19 Чтв 14:13:01 1419394227
1.png (8Кб, 716x289)
716x289
Здравствуйте, извините если не по теме, но есть какой либо алгоритм по определению начало роста локального пика (к примеру этот момент виден на 84-86 по оси X)? Спасибо.
Аноним 20/06/19 Чтв 23:23:05 1419635228
Есть ли алгоритм кластеризации, который
1) Масштабируемый (500к векторов по 10 компонент)
2) Не зависит от параметров (не надо указывать число сообществ или волшебные константы, которые всё меняют).
3) Есть на Кэггл.
???
Аноним 21/06/19 Птн 05:14:08 1419729229
>>1419635
SOM Кохонена. В оригинальном варианте не для кластеризации, но в том же R полно разновидностей и для работы с кластерами. За зумерский кагл не знаю, есть ли там что-то полезное.
Аноним 21/06/19 Птн 05:54:55 1419733230
>>1410925
Манюня, пиздеть - не мешки ворочить. Ты хотя бы блоксхему попробуй сделать с деталтным описанием процесса для начала, а не смеши людей своими маняфантазиями. Пока что твои "умозаключения" смахивают на истерику избалованного ребенка, кукарекающего что-то в духе "мам пицу!".
Аноним 21/06/19 Птн 06:01:29 1419735231
>>1412076
К любому учителю русского языка средней школы подойди, он тебе долбоебу напомнит про члены предложения и словообразование.
Аноним 21/06/19 Птн 12:56:22 1419886232
Подскажите пж, как сохранять контуры объектов в файл?
Может их в векторы как-то трансформировать?
Аноним 21/06/19 Птн 13:32:04 1419901233
Где можно эконометрику выучить? Я даже не подозревал, что консультанту это может быть нужно.
Аноним 21/06/19 Птн 13:32:23 1419903234
>>1419901
бля, не консультанту, а DS.
Аноним 21/06/19 Птн 15:09:12 1419959235
>>1419394
Мейби через скользящие средние.
Взять одну с большим периодом, а вторую с маленьким. Если малая пересекает большую снизу, то это начало восходящего тренда.

Аноним 21/06/19 Птн 16:26:33 1420020236
>>1419959
спасибо, сейчас попробую
Аноним 23/06/19 Вск 10:46:14 1420800237
Хочу вот с RL в вовке попробовать поиграться, но вопрос скорее общий. Как всем изветсно для таких енвайроментов сервер и клиент уже написан. Можно ли как-то автоматически (или с минимальной программистской работой) ускорить время на сервере и клиенте чтобы можно было прогнать пятьдесят тысяч лет симуляции за условные пару месяцев или придётся с нуля всё переписывать для этого?
Аноним 23/06/19 Вск 13:29:42 1420881238
>>1419394
Локальный пик это высокочастотный всплеск. Соответственно тебе нужен фильтр высоких частот, сигнал которого выше порога и будет говорить о пике. Классическая DSP короче
Аноним 23/06/19 Вск 14:03:02 1420885239
Почитал про эти ваши GAN'ы, да подобных идей ещё в нулевые и в блинолопатии было полно - натравить один алгоритм на качество работы другого, и так сколько угодно раз, стыкуя все что угодно с любой целью, причем, даже структуру такой метаархитектуры может определять алгоритм, входящий в ее же набор. GAN это эта же идея на минималках и с единственной целью.
Аноним 23/06/19 Вск 14:29:46 1420888240
140881363813107[...].jpg (117Кб, 604x544)
604x544
>>1420885
Какой же ты убогий. Демагогическая позиция "все говно, потому что ваша идея не новая" - это очень убогая позиция повыебывайся. Не выебывайся.
Аноним 23/06/19 Вск 17:26:28 1420977241
зумер.mp4 (3703Кб, 1280x720, 00:00:23)
1280x720
>>1420888
Я не говорю, что говно, я говорю, что зумера в восторге от новизны идеи, которая всерьез обсуждалась еще когда мамки зумеров целками были.
Аноним 23/06/19 Вск 19:06:04 1421025242
1.png (109Кб, 578x604)
578x604
2.png (184Кб, 639x778)
639x778
Анон, помоги нубу, пожалуйста.
Я правильно понимаю, что fc_v_logits автор где-то проебал?
>NameError: name 'fc_v_logits' is not defined
Что, теоретически там должно быть?
Аноним 24/06/19 Пнд 08:00:54 1421337243
>>1420977
Поздравляю, ты уже превратился в батю в проперженных труханах, который пиздит что-то подобное о любой вещи, которая появилась в те времена, когда у него еще хуй стоял.
Аноним 24/06/19 Пнд 08:13:59 1421340244
>>1421025
По логике вместо fc_v_logits должно было быть написано visible_logits. Видимо он сначала обозвал перменную первым образом (fully connected visible logits), а потом переименовал
Аноним 24/06/19 Пнд 22:39:05 1421753245
Какие есть методы анализа временных рядов, кроме "натравить ARIMA" и "засунуть в рекуррентную нейронку"? Заодно хорошо бы получить внятное объяснение шаманства с подбором параметров p, q в ариме по ACF и PACF, да и с d тоже непонятно.
Аноним 25/06/19 Втр 02:38:50 1421816246
>>1421753
> Какие есть методы анализа временных рядов, кроме "натравить ARIMA" и "засунуть в рекуррентную нейронку"?
State-space методы, в наиболее запущенном случае - динамический хаос и всякие векторы Такенса. Но если даже арима не осилил, в это точно лезть не стоит.
Аноним 25/06/19 Втр 09:39:16 1421860247
>>1421816
О мудрейший, а можешь рассказать полный процесс подбора гиперпараметров аримы и саримы?
Аноним 25/06/19 Втр 10:13:42 1421877248
>>1421860
>аримы и саримы
Вупселя и Пупселя
Аноним 25/06/19 Втр 14:34:06 1422023249
>>1420885
в великое савецкое время и ни такое предумывали!
многае еше пылыиться где-то в потайенном архиве, в толстых связаных ниткой от торта стопках бумаги на которые ставят чай (обязательно в стакане и подстаканики)
где-то там далеко-глубоко в опечатанных комнатах на мехмати ждет ДРЕВНЕЕ ЗНАНИЕ
а тем временем человечества дечаит и ПОПСЕЕТ постипенно утрачивая сам язык на которром говориле ВЕЛИКИЕ
Аноним 25/06/19 Втр 14:41:08 1422024250
>>1417242
берешь считаеш количество параметров умножаешь на 16, 32 в зависимосте от того какой тип даных испольщуешь (скорее всего 32)
посчитать параметры легко для полносвязаных слоев это ВЫСОТА Х ШИРИНА, а для свернутых слоев все хитреи xyzk
xy - площать ядра
z - глубинавходного тензара
k - глубина выходного тензара
потом сумируешь все размеры всех слоев умножаешь как я говорил и все
ну и еще оверхет будет какой то но этим можноп ренеребреьечь
Аноним 25/06/19 Втр 14:43:45 1422026251
>>1417683
очень не советую ийти на /ba/data там лжеалегбраисты сидят (и пьют ХИМОЗНЫЙ ЧАЙ а потом всем другим его же и придлагают)
все самыи умные приподователи и ученики на /ba/ami там лучше учебная програма очень вежливые в учебной части
по карйний мере когда я бы л перпродавателем в высшке быоло так сейчас не берусь судить
Аноним 25/06/19 Втр 14:49:21 1422029252
>>1419635
есть такой алгоритм тебе понадобядся енпараметрические байес и стохастический вывод
например - процесс дирихле + стохастический вариационый инференс
там легнк о запутаться но ты апиши я все обьясню а пока вот тебе две три ссылки
http://mlg.eng.cam.ac.uk/pub/pdf/GoeRas10.pdf
http://www.columbia.edu/~jwp2128/Papers/HoffmanBleiWangPaisley2013.pdf
Аноним 25/06/19 Втр 15:37:06 1422045253
Аноним 25/06/19 Втр 16:09:48 1422065254
>>1422045
все хорошо спасибо
моя V(s_t) ≈ V*(s_t), а вот градиентно соболевы условея уже не уверен((
Аноним 25/06/19 Втр 17:22:50 1422093255
>>1420800
Ты даже не сказал, что за среда...
Аноним 25/06/19 Втр 17:43:45 1422099256
15589914421480.png (142Кб, 512x512)
512x512
>>1422023
> где-то там далеко-глубоко в опечатанных комнатах на мехмати ждет ДРЕВНЕЕ ЗНАНИЕ
Вот ты петросянишь, а я находил пейперы 80х годов про логические вентили и аппаратные нейросети на основе каскадных реакций между ферментами. По-сути готовые реализации биочипов, как в киберпанке и даже автор был японец. Вот увидишь, лет через -дцать такое будет подаваться как сверхсовременный аналоговнет и малолетние дегроды будут восхищаться наступившим будущим.
Аноним 25/06/19 Втр 21:22:01 1422205257
>>1422099
>японец
Две понюшки труханов этому господину
Аноним 25/06/19 Втр 21:36:09 1422212258
>>1422099
>аппаратные нейросети на основе каскадных реакций между ферментами
Нервная система, что ли?
Аноним 25/06/19 Втр 22:07:41 1422239259
>>1422099
>Вот ты петросянишь, а я находил
Ну ты ведь хуесос, который не понимает, как распространяются знания. Принципы паровой машины были известны грекам, а америке не использовали колесо, несмотря на то, что были игрушки с колесными осями. Какой-то обоссанный пейпер, в котором сделали 2% наработок и закопали где-то в архиве обоссаных пейперов, не стоит нихуя.
Только долбоебы типа тебя считают, что если они нашли какую-то банальную мысль в работе полувековой давности, это позволяет им распираться от гордости по поводу того, что они-то знают все, а вокруг все нихуя не понимают, что будущего-то на самом деле нет.
Аноним 26/06/19 Срд 00:00:14 1422279260
>>1422239
> какую-то банальную мысль
> банальную
Забавное невзначай проскочило у зумерка в порыве гнева. В стадию принятия т.е. уже переходим потихоньку, лёд тронулся, это хорошо.
Аноним 26/06/19 Срд 00:28:25 1422283261
Где в TF (в naive, без кераса) предобученные сети обычно берут?
Есть какие-то общепринятые библиотеки, или только самому васяно-сборки искать?
Аноним 26/06/19 Срд 01:45:36 1422290262
>>1422239
> Ну ты ведь хуесос,
Да нет, это папа твой хуесос. А ты, получается, петух потомственный.
Аноним 26/06/19 Срд 06:06:07 1422311263
>>1422279
Любая мысль, которую ты способен осилить - банальная. Потому что ты тупой. Был бы умный - спустился бы со своих небес и нашел бы удаленную работу хотя бы на $100К, ведь нейронки это так просто и в них прогресса нет. Это же заметная хуйня, что как только здесь начинается какой-то разговор по существу (типа >>1421860), ты сливаешься, потому что даже в пятистрочном скрипте на керасе разобраться не в состоянии.
Все твои аргументы сводится к демагогии вокруг идеи и реализации. Типа "я нашел пейпер, что транзистор изобрели в 40-е, значит ваш прогресс не прогресс нихуя". У нейросетей на основе химии есть фундаментальные ограничения, с которыми не понятно, что делать. Объяснять нужно, какие, или ты умнее куска дерева? Когда будет понятно - это будет прогресс и будущее. Но всегда найдется хуесос типа тебя, который скажет, что, вообще похуй на этот процесс, главное, что я читал пейпер, где описана банальная идея, а на процесс ее реализации положить вообще, потому что реализация сложных вещей в твой мозг не помещается.
Аноним 26/06/19 Срд 07:01:42 1422319264
>>1406660 (OP)
ОП пидор, даже шапку нормальную не осилил сделать, где еще куча бесплатных курсов!?
Аноним 26/06/19 Срд 08:15:21 1422328265
>>1422311
О как двачного зумера разворотило, лол. Набивайте кашей нового. А это ведь даже не мой пост был. Ну давай, излагай, какие есть фундаментальные ограничения у нейросетей на основе химии.
Аноним 26/06/19 Срд 08:41:32 1422338266
>>1422328
>какие есть фундаментальные ограничения у нейросетей на основе химии.
То есть ты и правда не понимаешь
Хуево быть олигофреном (тобой).
Аноним 26/06/19 Срд 09:13:23 1422351267
>>1422338
Я понимаю, что ты клоунесса, решившая, что понимает что-то
Аноним 26/06/19 Срд 09:16:28 1422352268
>>1422351
>КУДАХ БАБАХ КУКАРЕКУ
As expected.
Аноним 26/06/19 Срд 10:11:48 1422369269
>>1422239
Грекам были неизвестны эти принципы, они даже до понимания давления пара не дошли, а двигатель Герона был лишь развлекалочкой
Аноним 26/06/19 Срд 11:10:44 1422397270
>>1410889
>При взгляде на абсолютно любой предмет у человека в мозгу сразу же возникает 3D-модель этого объекта.
Ну мозг же не видит это сразу, он это синтезирует.
У нас несколько колонок есть в коре головного мозга, которые весьма ебануто обрабатывают входящее изображение: сначала они воспринимают полоски, потом синтезируют их в фигуры и т.д.
Вообще мозг очень много чего добавляет к изображению, которое попадает на сетчатку, перед тем, как ты его увидишь.
Самый банальный пример - он его переворачивает.
Если посложнее, то в принципе часть изображения, которое ты видишь на самом деле рисует тебе мозг, фотоны на сетчатку не падают (например, мозг сам закрашивает тебе слепое пятно, или делает заливку цветом сплошных поверхностей).
Аноним 26/06/19 Срд 12:55:30 1422447271
382845291021239[...].jpg (337Кб, 1920x1318)
1920x1318
давайти я охлажду ваш пыл!
все дело в том что в науке есть ЦИКЛЫ (как у женщинь хехехе) мы ходем по кругу развевая уже существующеи идеи
реально же унекальных идей очень мало в основном это разные вареации и проекции неких прото идей на канретные предмедные области и языки
могу привезти простой премер - псле 9 класа до 11 класа ты учишь тоже что и до 9 класа но тебе расказывают БОЛЬШЕ и ГЛУБЖЕ (хехехе)
а потом в институте ты прходишь уже вышую математику и математическую физеку которая на ней основывается поэтому постинаешь суть еще глубже
становится ли при этом простая школьная математика какойто ненужной или плохой? НЕТ!
она по прежгнему замечатильная милая хрошая и может многое ни часто умнее нек нужно
но ВЫСШАЯ МАТЕМАТИКА все равно выше и глуюже без нее самолет может и взлетил но НЕ КОСМОЛЕТ
надеюсь всем все объяснил теперь можем дальше жить ДРУЖЕНО
Аноним 26/06/19 Срд 13:53:24 1422475272
>>1422447
>но ВЫСШАЯ МАТЕМАТИКА все равно выше и глуюже без нее самолет может и взлетил но НЕ КОСМОЛЕТ
Школьник, уходи. Космолет бля
Аноним 26/06/19 Срд 14:28:20 1422503273
>>1422311
>идея, а на процесс ее реализации
Хе-хе, "добавить слоёв от балды, нарастить мощностей, захуярить побольше данных и как-нибудь заработает))" называть процессом реализации как-то слишком громко. Ещё нелепей кого-то пафосно обвинять в том что детали данного тупикового пути ему не интересны.
Аноним 26/06/19 Срд 14:32:26 1422508274
1024px-VaticanM[...].jpg (143Кб, 1024x674)
1024x674
>>1422475
если ты будеш больше и глубже вдумываться в СУТЬ слов и меньше придираться то может быть ты поумнеешь
я между прочем пенсею с 15 лет получаю а ты говориш "школьник"
Аноним 26/06/19 Срд 14:46:30 1422525275
изображение.png (334Кб, 484x600)
484x600
>>1422508
>прочем пенсею с 15 лет получаю
Аноним 26/06/19 Срд 23:02:06 1422842276
>>1422525
Судя по уровню грамотности, он действительно инвалид умственного труда.
Аноним 27/06/19 Чтв 11:07:40 1423066277
Походу, первое полезное применение этих ваших GAN'ов https://www.deepnude.com/ До чего техника дошла, теперь можно "раздеть" нейроночкой и погонять лысого на любую сельдь, даже если у вас нет и не будет ее голых фоток.
Аноним 27/06/19 Чтв 16:12:18 1423323278
>>1423066
ИИ которое мы заслужили.
Аноним 27/06/19 Чтв 19:33:34 1423466279
>>1423066
Лол, а ведь в треде кто-то это предлагал, его на смех подняли.
Аноним 27/06/19 Чтв 20:09:58 1423507280
M5yQxKZ.png (29Кб, 255x282)
255x282
Как жить, если считаешь кегль скучным задротством?
Аноним 27/06/19 Чтв 21:06:52 1423540281
>>1423507
Это и есть скучное задротство. Нейронки это бухгалтерия.
Аноним 27/06/19 Чтв 23:46:34 1423605282
Какой прикладной смысл в задаче переноса текста? Кроме кучи сайтов "загрузи фотку, и мы переделаем её под ван Гога". По виду - чисто развлекательная вещь.
Аноним 28/06/19 Птн 01:07:04 1423665283
>>1423605
Основное применение для решений с помощью машинлёрнинха - попил инвесторских денег (для мелких фирм и стартапов) или возможность отчитаться об "сследованиях" перед начальством и поддержании престижа (крупные корпорации). Для этого всё это развлекалово с неграми, вангогами и котами подходит лучше некуда.
Аноним 28/06/19 Птн 01:14:06 1423670284
>>1423665
Так, понятно.
Кто-нибудь кроме нечёткопетуха может ответить?
Аноним 28/06/19 Птн 01:17:16 1423672285
>>1423670
Если все от кого у тебя горит - нечёткопетухи (?) то скорее всего нет.
Аноним 28/06/19 Птн 01:48:31 1423682286
>>1423670
>Так, понятно.
А башкой по сторонам повертеть и увидеть, что это наебалово, не?
Аноним 28/06/19 Птн 02:49:16 1423698287
>>1423672
>>1423682
Ну вам жи онскозал. Если не видишь ничего революционного и прорывного в перерисовывании котов под Ван Гога, а тем более если закрадывается мысль что все это наебалово с целью развести инвестора или работодателя, то ты нечеткий петух. И похуй, что по факту пока ничего интереснее приложения для онанистов за 50$ не создали.
Аноним 28/06/19 Птн 08:03:27 1423718288
>>1422503
>Хе-хе, "добавить слоёв от балды, нарастить мощностей, захуярить побольше данных и как-нибудь заработает))" называть процессом реализации как-то слишком громко.
Откуда ты, блядь, это знаешь. Из хайповых постов в интернете.
Программистом, знаешь ли, еще проще работать: набиваешь какие-то английские слова в компьютер, а тебе платят 300к.
Аноним 28/06/19 Птн 11:01:13 1423805289
>>1423605
>Кроме кучи сайтов "загрузи фотку, и мы переделаем её под ван Гога". По виду - чисто развлекательная вещь.
Чтобы переделать что-то под Ван Гога, нужно понять, а что такое этот Ван Гог, то есть формализовать понятие стиля картины, и отделить стиль от контента. Поэтому везде, где у тебя есть задача разделить твое изображение на контентную (пространственно переменную) и стилевую (фактически - любую пространственно инвариантную), тебе есть смысл смотреть, какой state or art решения этой задачи и применять его.
Аноним 28/06/19 Птн 11:07:14 1423808290
>>1423805
>где у тебя есть задача разделить твое изображение на контентную и стилевую
Так я и спрашиваю, где возникает в реальности такая задача! Пока что я нашёл только мысль, что эту штуку можно использовать для аугментации данных ы других задачах.
Аноним 28/06/19 Птн 11:07:49 1423809291
>>1423805
>понять, а что такое этот Ван Гог, то есть формализовать понятие стиля картины, и отделить стиль от контента
Ага, щас. Вставить просто все данные по пикселям и как-то так оно там заработает))
Аноним 28/06/19 Птн 21:22:42 1424165292
Сап хинтоннач, помоги.
Вот есть у меня корреляционная матрица для параметров а,б,с. Нахожу я значит её собственные векторы, а как узнать к какому параметру соотвествует каждый вектор, ведь компутер просто мне выдаст вектор отсортированные по собственным значениям. Или это ещё можно узнать через свд?
Аноним 28/06/19 Птн 22:03:05 1424193293
>>1424165
a,b,c - это что, скаляры, векторы?
Аноним 28/06/19 Птн 23:36:40 1424234294
>>1424165
Эти вектора соответствуют главным компонентам, а не параметрам исходной задачи.
Аноним 28/06/19 Птн 23:36:53 1424235295
>>1424165
не непорядок что значит собств вектора соотв параметрам?
объясни расскажи зачем тебе что ты собираешься получить
Аноним 29/06/19 Суб 12:25:39 1424414296
wadjetegyptiang[...].png (678Кб, 600x1098)
600x1098
tigerlilyinspir[...].jpg (209Кб, 1024x1366)
1024x1366
vU-d-nsHdPg.jpg (56Кб, 500x611)
500x611
В общем, я решил накодить что-то наколеночное по этим вашим нейронкам. Сам я крестовик, но решил сделать хоть что-то на питоне. Прогуглил этот ваш керас. Сделал apt install python3 , потом какие-то там там pip install. Вроде всё поставил и вроде всё заработало (заебенил hello world и указал import tensorflow и keras, завелось). Далее представил себе такую задачку: классификация картинки по четырём классам. Придумал примерно такую структуру кода.
У меня четыре функции генератора картинок (через PIL), которые возвращают массив пикселей или что-там (вообще не ебу что). Я создаю нейронную сеть, потом беру картинку из одного генератора картинок. Потом эту картинку скармливаю нейронке, она мне даёт на выходе какие-то четыре циферки (по одной циферке на каждый класс). Если я вижу, что нейронка неправильно классифицировала, то вызываю метод ты_не_права_на_самом_деле_класс_такой(индекс_класса). Если же я вижу что нейронка правильно классифицировала (на нужном выходе коэффициент более 0.5), вызываю метод молодец_нейронка_правильно_узнала_класс(индекс_класса). Я повторяю это 100к раз и у меня получится нейронка, которая классифицирует с хорошей точностью. ТАК Я СЕБЕ ВСЁ ПРЕДСТАВЛЯЛ.

А НА САМОМ ДЕЛЕ:
1. открыл исходник https://github.com/keras-team/keras/blob/master/examples/mnist_mlp.py
2. увидел
>(x_train, y_train), (x_test, y_test) = mnist.load_data()
Сразу пошла какая-то магия. Метод ОТКУДА-ТО ГРУЗИТ данные и выдаёт pair из двух массивов, в каждом из которых какие-то непонятные объекты. Просто какая-то магия
3. потом какие-то вычисления непонятно зачем. В общем, опять МАГИЯ
4. потом вижу создание сетки и её компиляцию. Тут мне понятно.
5. Потом какой-то метод fit, который вообще ни о чём мне говорит. Но по параметрам я вижу, что это наверно обучение
6. Потом
>score = model.evaluate(x_test, y_test, verbose=0)
как я понял, это само использование сетки

Бля, это пиздец. Какой-то код для питоно-имбецилов, которые привыкли копипастить какую-то магию и радоваться как дети после того как это заработает. НО! Я не хочу сраться. Мне нужна простая хуйня. Где взять пример, который бы демонстрировал обучение и использование нейронки по принципу постоянного обучения, когда я на каждом одиночном примере говорю ты_не_права_на_самом_деле_класс_такой(индекс_класса) или молодец_нейронка_правильно_узнала_класс(индекс_класса)? Чтобы моя программа, например, брала результат от нейронки, использовала его в своих целях, а потом через какое-то время сказала нейронке "вот тут ты была права, а вот тут нет" и чтобы нейронка дообучалась на лету во время использования.
Аноним 29/06/19 Суб 12:55:21 1424423297
>>1424414
У тебя представление неправильное. Нет таких функций, через которые ты говоришь нейронке, правильно она классифицирует или нет. Есть одна функция ошибки, которая должна быть непрерывной, чтобы ее можно было оптимизировать. Она выдает большие значения при ошибках и маленькие при правильных ответах. Вот вроде бы ты плюсовик, элита общества. Я думал мы все искатели, которых интересует, как реально вещи устроены, а ты даже книжку не удосужился почитать. Попробуй написать на чистых крестах простую нейронку с фиксированным числом слоев и нейронов на слое, которая по честному вычисляет градиенты и обновляет веса, тогда все поймешь.
Аноним 29/06/19 Суб 13:07:22 1424427298
>>1424414
Ты просто тупенький, не способный прочитать азы теории и документацию библиотеки.
Аноним 29/06/19 Суб 13:08:42 1424428299
Снимок экрана о[...].png (70Кб, 760x551)
760x551
>>1424423
Год назад я кодил на С хеллоуворлдную сеточку на основе вот этой хуйни https://github.com/libfann/fann
Я сделал 8-слойную сетку (не понимаю зачем 8 слоёв). На пикрелейтеде кусок кода. Вот там
>fann_type* result = fann_run(san, &source);
получение результата
>get_check_result_and_get_desired(source_handle, result, &desired);
>fann_compute_MSE(san, &desired);
>fann_backpropagate_MSE(san);
>fann_update_weights(san);
я уже не помню, что это и зачем, но судя по всему, это дообучение сетки на лету. Я точно помню, что работало всё охуенно и обучалось просто на ура и я достигал результата 99%.

Вот, как видишь, у меня была нейронка которая дообучалась на лету.
Аноним 29/06/19 Суб 13:19:00 1424434300
>>1424423
>Вот вроде бы ты плюсовик, элита общества.
)))
Аноним 29/06/19 Суб 13:20:17 1424436301
>>1424428
Это можно сделать, но я не уверен, что с tensorflow у тебя получится. Там у данные должны быть заранее размечены, а ты хочешь размечать их по ходу дела. Попробуй pytorch. И я все еще предлагаю написать тебе нейронку на чистом cpp (без сторонних либ, только stl и мб boost), чтобы ты не думал, что это какая-то магия.
Аноним 29/06/19 Суб 13:22:14 1424438302
>>1424434
Все самое интересное пишется на крестах, в том числе нейронки.
Аноним 29/06/19 Суб 13:27:39 1424441303
>>1424438
Интересное бизнесу - может быть, хотя сейчас бизнес уэб интереснее мне кажется, но это смотря какой бизнес.
Интереснее людям - только если ты отбитый ментальный инвалид, как супчик выше.
Аноним 29/06/19 Суб 13:36:28 1424449304
>>1424436
А в чём основная разница в возможностях между тензоркерасом и торчем?
Аноним 29/06/19 Суб 13:44:54 1424459305
>>1423808
В реальности это все так или иначе связано с обработкой изображений, то есть пригодилось бы для художников, и т. п., но им не интересен глобальный перенос стиля. Поэтому там решают алгоритмы типа CycleGAN и т. п. При этом людей в теме очень мало, вопреки кукарекам о хайпе, поэтому я оцениваю появление алгоритмов в фотошопах и т. п. только лет через 5.
>Пока что я нашёл только мысль, что эту штуку можно использовать для аугментации данных ы других задачах.
Для того, чтобы нейронка училась классифицировать контент, а не текстуры, есть и более удобные способы регуляризации на лету. Проблема в том, что, опять же, на вершине айсберга сплошные имейджнеты и кагглы, где идет соревнование между готовыми датасетами. Аугментация на лету намного более востребована, но менее интересна.
Аноним 29/06/19 Суб 13:46:57 1424461306
Аноним 29/06/19 Суб 13:49:12 1424465307
>>1424414
> Если я вижу, что нейронка неправильно классифицировала, то вызываю метод ты_не_права_на_самом_деле_класс_такой(индекс_класса). Если же я вижу что нейронка правильно классифицировала (на нужном выходе коэффициент более 0.5), вызываю метод молодец_нейронка_правильно_узнала_класс(индекс_класса)
Это называется reinforcement learning. Так классификаторы не учат. слишком медленно.
>Какой-то код для питоно-имбецилов, которые привыкли копипастить какую-то магию и радоваться как дети после того как это заработает. НО! Я не хочу сраться.
Ха-ха-ха. Чувак, ты сейчас доебался до того, что в printf("hello, world\n") сплошная магия, \n какой-то, и никто не объясняет, как система рисует тебе окно cmd.exe. Или нахуй, не имбецил, в общем.
Аноним 29/06/19 Суб 13:50:06 1424466308
>>1424428
> Я точно помню, что работало всё охуенно и обучалось просто на ура и я достигал результата 99%.
Неимбецил добился оверфита и радуется.
Аноним 29/06/19 Суб 13:56:42 1424471309
>>1424465
С чего ты взял, что там подкрепление? Данные просто размечаются не перед обучением, а незадолго до вычисления ошибки. Наверняка подойдёт обычная кросс-энтропия. Главное, чтобы для каждого инпута был единственный желаемый результат, иначе получится шляпа. Ну и естественно это будет очень медленно обучаться, так как за раз будет прогоняться один пример, и в процессе будет еще какое-то стороннее вычисление, которое будет узнавать реальный класс. Лучше конечно разметить заранее.
Аноним 29/06/19 Суб 13:58:43 1424472310
>>1424466
>>1424465
Ну ладно вам, относитесь к пограммистобыдлу без явного пренебрежения, люмпенпролетариат не виноват в том что он такой в конце концов.
Аноним 29/06/19 Суб 14:01:27 1424473311
>>1424472
Бизнес-дебил, ты? Уже посчитал, какой прирост в кликах вашему говносайту дала готовая нейронка с пайторча?
Аноним 29/06/19 Суб 14:05:39 1424476312
>>1424473
С моим говносайтом всё в порядке, лавешка мутится, спасибо за интерес. А у вас как там в котельной, слесарёк? Мужичьё ещё не всё спилось?
Аноним 29/06/19 Суб 14:16:14 1424483313
>>1410889
Сиамские сети есть для такого
Аноним 29/06/19 Суб 14:17:29 1424485314
Screenshot2019-[...].png (262Кб, 644x1081)
644x1081
>>1424476
>А у вас как там в котельной, слесарёк?
Сеточка прунится - лавешка мутится.
Аноним 29/06/19 Суб 14:19:35 1424489315
Аноним 29/06/19 Суб 15:10:10 1424550316
156085338616026[...].jpg (115Кб, 570x626)
570x626
>>1406660 (OP)
Считаю, что нейронки говно, сам маг Экспертных Систем, так вот, можно ли как автоматом генерировать правила для ЭС, ну там статистика или какая у вас магия еще есть?
Аноним 29/06/19 Суб 15:11:30 1424552317
>>1424550
Попробуй генерировать правила для ЭС нейронкой
Аноним 29/06/19 Суб 15:12:36 1424554318
>>1424552
>нейронкой
Не, она не сможет, там же не негров находить
Аноним 29/06/19 Суб 16:41:50 1424595319
А везде где есть ограничение по времени выполнения ноутбуков, я могу запустить снова и продолжить обучение или придётся заново весь ноут запускать?
Аноним 29/06/19 Суб 17:23:46 1424615320
>>1424595
Скорее всего, придётся заново. Так что сохраняй промежуточные веса.
Аноним 29/06/19 Суб 18:12:01 1424621321
>>1424550
> Считаю, что нейронки говно, сам маг Экспертных Систем, так вот, можно ли как автоматом генерировать правила для ЭС, ну там статистика или какая у вас магия еще есть?
Ну и как там в 70х? Можно конечно, любой метод идентификации систем на выбор. Те же модели нечеткого вывода не только автоматом генерируют такие правила, но и делают это полностью прозрачно и в готовом лингвистическом виде. Даже если система описывается десятками тысяч правил, все равно есть методы представить их в виде, пригодном для анализа человеком.
Аноним 29/06/19 Суб 18:58:56 1424640322
>>1424621
>Ну и как там в 70х?
Заебись, ИИ типа MYCIN реально работало, поджигая пердаки докторишкам, а не эти ваши котики.
>есть методы представить
Кокие? Мне типа поиск скрытых закономерностей или типа того.
Аноним 29/06/19 Суб 21:12:19 1424677323
>>1424414
Крестодебилы привыкли дрочить указатели и контролировать каждый чих, а тут либа сама за тебя всю рутину делает! Охуеть, что творится, люди добрые, как так можно-то!? Так ведь и программисты станут не нужны.
Аноним 29/06/19 Суб 21:38:30 1424688324
image.png (141Кб, 800x450)
800x450
>>1424677
К сожалению, индустрия существенно отупела. Теперь даже умственно отсталые вроде тебя могут на коленке написать сетку и самоутверждаться в интернете.
Аноним 29/06/19 Суб 21:47:24 1424690325
Аноны, расскажите, как "искать закономерности в данных"? Вот приходит заказчик, даёт датасет и говорит: "найди мне закономерности". Чего он хочет и как ему это дать?
Аноним 29/06/19 Суб 22:50:02 1424722326
>>1424690
Если брейнлет, то матрица корреляций, PCA и регрессия. Если нормальный пацан, то статистические тесты на зависимость.
Аноним 30/06/19 Вск 06:02:48 1424789327
>>1424722
> Если нормальный пацан, то статистические тесты на зависимость.
Ага, и будет результат как в классическом примере - продажи мороженого на пляже увеличивают количество нападения акул, заебись выявили закономерность. Нет, это так не работает. Если не брейнлет и в датасете больше 5-10 переменных, то датамайнинг нужен. Для начала карты Кохонена и decision tree, а дальше по обстоятельствам.
Аноним 30/06/19 Вск 07:22:25 1424793328
>>1424414
Так оно и есть. Говно для мартышек. Вообще не советую начинать с тензорплова, лучше pytorch. Но если ты хочешь всё понять и разобраться как оно и что, то придется копаться в документации или на крайняк полностью учить как вообще эти нейронам устроены.
Данные, которые выгружаются можно преобразовать из обычного списка, вычисления там простые и все они не происходят в коде, а компилируются как сама модель. Метод обучения автоматический, я вообще не ебу каким образом они его связали. Все эти библиотеки и фреймворки действительно магические, работают по нажатию кнопки, нигде нет информации о том, как волшебная функция определяет где какой слой и как интерпретировать мою хиленькую звёздочку умножения, да так что оно всё работает. Честное слово, будто по велению господа вся эта каша собирается в упорядоченный граф. Вообще ебать. Я не понимаю этого.
Аноним 30/06/19 Вск 12:19:30 1424824329
>>1424793
>Говно для мартышек
>Я не понимаю этого.
Еще одна не мартышка порвалась.
Аноним 30/06/19 Вск 12:24:03 1424825330
>>1424789
>Нет, это так не работает.
>карты Кохонена и decision tree
Ха-ха-ха. Когда ты переходишь от линейных моделей к нелинейным, то шансы найти ложную закономерность только выше.
Аноним 30/06/19 Вск 12:40:07 1424830331
>>1424789
Так для этого достаточно поправки на множественную проверку.
Аноним 30/06/19 Вск 12:41:59 1424832332
>>1424824
К несчастью, то ж бывает у людей:
Как ни полезна вещь, — цены не зная ей,
Невежда про нее свой толк все к худу клонит;
А ежели невежда познатней,
Так он ее еще и гонит.
Аноним 30/06/19 Вск 12:47:14 1424834333
Имеет смысл учить R lang, если планирую стать биоинформатиком?
Или лучше освоить полностью Python?
Аноним 30/06/19 Вск 13:03:39 1424839334
>>1424834
Выучи и то, и другое. И библиотеки посмотри, есть надежда, что пакеты R перенесут в питон полностью и наконец-то закроют этот ублюдочный язык.
Аноним 30/06/19 Вск 13:16:58 1424845335
>>1424830
А причём здесь множественная проверка? Он же про косвенную корреляцию.
Аноним 30/06/19 Вск 14:01:40 1424871336
>>1424839
> есть надежда, что пакеты R перенесут в питон полностью и наконец-то закроют этот ублюдочный язык.
Лол. R изначально язык обработки данных, в отличие от каличного письтона, где подобное возможно только через костыли. Для того, чтобы работать в R, его просто нужно поставить из инсталлятора и все, он блядь просто работает. Не тащит какие-то ебучие гигабайты зависимостей, а просто работает. Пакет в нем поставить можно просто распаковав архив вручную в каталог с либами, и оно будет работать! Ему похуй на русские буквы в путях, похуй вообще на все. Я ещё ни разу не сталкивался с проблемой что в R что-то не работает, этого просто нет, неважно откуда у тебя руки. Если нужны разные версии, просто тупо ставишь в два клика все нужные и они просто работают! В R надо реально тыкать еблом всех разработчиков языков программирования как в недостижимый идеал. Про пакеты я вообще молчу, там реализовано просто вообще все для любой работы с любыми данными. Ни в каких письтонах этого не будет никогда.
Аноним 30/06/19 Вск 14:26:10 1424892337
>>1424871
Я и говорю - убогий, ублюдочный и ущербный язык.
Не то что божественный Питон.
Аноним 30/06/19 Вск 14:27:25 1424895338
>>1424892
Чем же он ублюдочный? Аргументировать можешь?
Аноним 30/06/19 Вск 15:12:10 1424926339
>>1424895
Говно нечиотко петух кок заебал найди работу говно ублюдочность ниронки
Аноним 30/06/19 Вск 17:07:03 1424968340
>>1424871
Ага, а теперь встрой решение на нём в уже существующее приложение.
Аноним 30/06/19 Вск 18:51:40 1425011341
>>1424968
А зачем? Скажем, есть датасет, с ним нужно что-то сделать. Допустим, сделали. Для чего это решение куда-то встраивать, в какое-то приложение? Приведи пример что ли, когда, кому и для чего это нужно.
Аноним 30/06/19 Вск 18:59:56 1425017342
Аноним 30/06/19 Вск 19:15:20 1425023343
>>1424690
мб кластеринг запусти с разным колличеством классов, и в классе уже можно что-то глянуть. А так pca t-sne всякие, выбросы можно глянуть, стат тесты запустить

Аноним 30/06/19 Вск 22:06:17 1425153344
>>1425011
>Приведи пример что ли, когда, кому и для чего это нужно.
Попробуй работу найти что ли
Аноним 30/06/19 Вск 22:35:13 1425174345
penguin-joker-2[...].gif (1960Кб, 320x240)
320x240
>>1425011
Если строится модель (какая угодно простая,хоть линейная регрессия), то она уже направлена на то, чтобы предсказывать некий результат на новых данных, которые ей подают пользователи - а значит, её нужно встроить в какое-то приложение для пользователей. Банк хочет кредитный скоринг? Классификатор нужно встроить в приложение, в которое девушка-операционистка будет вбивать данные. Банк хочет предсказывать курсы валют? Модель временного ряда нужно встроить в торгового робота. Хотя бы через доступ к серверу, где эти модели крутятся. Одна из целей машоба - автоматизация принятия решений, чтобы не пришлось каждый раз человека привлекать на исследование.
Аноним 01/07/19 Пнд 05:09:32 1425265346
>>1425174
> Хотя бы через доступ к серверу, где эти модели крутятся
С этим проблем точно нет. Неоднократно попадались R пакеты с интерфейсом через браузер. Как я понимаю, при желании это можно к чему угодно прикрутить.
Аноним 01/07/19 Пнд 07:11:40 1425278347
>>1425174
>Банк хочет предсказывать курсы валют
Ебать, еще один кукаретик с гениальной идеей "А ДАВАЙТЕ КУРХС В НЕЙРОНКУ ПАМЕСТИМ И БУДИМ ЗАРАБАТЫВАТЬ ЫЫЫ". Как же вы заебали.
Аноним 01/07/19 Пнд 07:21:42 1425279348
>>1425278
Японские свечи вполне можно детектировать и автоматизировать мащобчиком, как и многое другое.
Аноним 01/07/19 Пнд 07:34:14 1425281349
>>1425279
Ты вообще не понимаещь, какой бред ты несешь как и 95% машобщиков с нулевым пониманием предметной области

Если ты умеешь прогнозировать курс, предлагаю выкладывать в тред результаты предсказаний, а еще лучше торговать на свои деньги с пруфами.
Аноним 01/07/19 Пнд 07:42:32 1425282350
>>1425278
Первый пример ты решил проигнорировать, я так понимаю.
Аноним 01/07/19 Пнд 07:45:26 1425283351
>>1425282
У меня есть компетенции только по второму вопросу.
Да и там скорее всего тоже пиздешь, ты же явно простой кукаретик.
Аноним 01/07/19 Пнд 08:36:49 1425286352
>>1425283
> У меня есть компетенции только по второму вопросу.
Рассказывай. Почему курс нельзя предсказать? Типа там случайное блуждание, совсем-совсем случайное, прямо как в TRNG, вот это все. Или что?
Аноним 01/07/19 Пнд 09:13:18 1425295353
>>1425283
Так поделись, лишним не будет. Я слышал, что алгоритмическая торговля в основном направлена на автоматизацию крупных сделок, а не на прибыль, но есть же black box trading?
Аноним 01/07/19 Пнд 11:37:34 1425353354
>>1425286
>Рассказывай. Почему будущее нельзя предсказать? Типа карты таро хуйня или что?
Аноним 01/07/19 Пнд 11:42:33 1425356355
>>1425353
Смотря какое будущее, Мань. Если ты навернешь несвежего хавчика, твое ближайшее будущее очень несложно предсказать. Чаще всего проблемы с предсказанием сводятся к недостаточной точности и сложности построенной для предсказания модели системы.
Аноним 01/07/19 Пнд 13:39:07 1425402356
>>1425278
>Ебать, еще один кукаретик с гениальной идеей "А ДАВАЙТЕ КУРХС В НЕЙРОНКУ ПАМЕСТИМ И БУДИМ ЗАРАБАТЫВАТЬ ЫЫЫ". Как же
>>1425283
>У меня есть компетенции только по второму вопросу.

Читай: еще один кукаретик обосрался и уверен, что раз у него не получилось слезть с мамкиной шеи со своей гениальной идеи, то у него теперь есть КОМПЕТЕНЦИИ и способности кукарекать о том, что торговых ботов не существует.
Аноним 01/07/19 Пнд 19:28:08 1425585357
Валерий Бабушкин охуевший ЧСВ! Но он мне нравится! Крутой чел.
Аноним 01/07/19 Пнд 21:21:56 1425678358
Почему вам SVN не хватает для всех этих задач?
Аноним 01/07/19 Пнд 21:37:25 1425697359
Аноним 01/07/19 Пнд 21:38:17 1425698360
Аноним 01/07/19 Пнд 21:44:28 1425704361
>>1425678
Потому что линейно разделимых задач меньшинство.
Аноним 02/07/19 Втр 02:51:41 1425931362
>>1425704
> Потому что линейно разделимых задач меньшинство.
Ещё один иксперд. SVM уже в 90х использовали для нелинейных задач, линейный пример просто для описания идеи, ты дальше этого педивикию и не осилил, да?
Аноним 02/07/19 Втр 03:29:54 1425935363
>>1425931
Все зависит от определения. Для нормальных людей SVM это линейный классификатор с особым лоссом. Петухи начинают вспоминать про кернел-трики. Проблема в том, что я могу взять ResNet-9000 с 9000 слоями, захуярить в конце hinge loss и звявить, что это у меня кернел трик такой, а так это SVM.
Но это нужно конченным петухом быть.
Аноним 02/07/19 Втр 05:17:11 1425949364
>>1425935
>конченным петухом быть
А ты кокой?
Аноним 02/07/19 Втр 05:25:40 1425950365
>>1425935
> Все зависит от определения. Для нормальных людей SVM это линейный классификатор с особым лоссом. Петухи начинают вспоминать про кернел-трики.
SVM это типичный пример кернел-метода, все остальное просто особый обвес. Тут принято R хейтить, а там есть очень наглядная реализация кернел-методов, kernlab, частный случай которых SVM.
> Проблема в том, что я могу взять ResNet-9000 с 9000 слоями, захуярить в конце hinge loss и звявить, что это у меня кернел трик такой, а так это SVM.
За такое тебя бы даже зумера на коворкинге засмеяли. Суть именно SVM в том, что там зануляется и не используется в обучении все кроме примеров на границах классов. А обычная нейроночка это квадратно-гнездовое окучивание всего вообще датасета.
Аноним 02/07/19 Втр 13:48:12 1426160366
>>1425950
>SVM это типичный пример кернел-метода, все остальное просто особый обвес.
Как и моя нейронка с 9000 слоями.
>Суть именно SVM в том, что там зануляется и не используется в обучении все кроме примеров на границах классов.
Ты про hinge loss? Да ладно, никогда не слышал об этом. Даже забыл упомянуть в своем посте.
Аноним 02/07/19 Втр 14:36:46 1426194367
>>1426160
На чем свои нейронки пишете, парашники? Все ещё на питоне?
Когда будет первый искусственный интеллект на fpga?
Аноним 02/07/19 Втр 14:47:13 1426202368
>>1426194
FPGA хуево дружат с floating point вычислениями. ASIC который хорошо с ними дружит на данный момент называется GPU
Аноним 02/07/19 Втр 15:14:21 1426220369
Насколько интересна математика для нейронок? В этой области применяется теория категорий, топология, коммутативная алгебра и алгебраическая геометрия с разными абелевыми многообразиями? Или в нейронках надо знать линал и статистику, но рутины и хардкора будет столько, что говно из ушей полезет?
Аноним 02/07/19 Втр 15:59:47 1426257370
>>1426220
Математика не нужна. Все успешные машобисты, которых я знаю, хуй клали на матешу в вузе и задрачивали фреймворки.
Аноним 02/07/19 Втр 16:07:19 1426267371
>>1426220
>Насколько интересна математика для нейронок?
Это инжинерия прежде всего, так что ни насколько.
>>1426220
>В этой области применяется теория категорий, топология, коммутативная алгебра и алгебраическая геометрия с разными абелевыми многообразиями?
Только у малой части исследователей, которые очень хотят прикрутить гамалогии хоть куда-нибудь. Есть topological data analysis, persistence modules, кто-то даже занимается algebraic statistic где пытается алгемчик свой как-то всунуть. Но это всё больше болтовня чем реальное дело.
>>1426220
>но рутины и хардкора будет столько, что говно из ушей полезет?
Да, как и везде.
Аноним 02/07/19 Втр 16:12:41 1426276372
>>1426257
Как будто в вузе дают релевантную математику.
Аноним 02/07/19 Втр 18:31:17 1426412373
>>1426220
Математика, необходимая для машобчика это дискретка. Более высокие материи теоретически применимы, разумеется, но практически ни у кого кроме Вапника для этого мозгов недостаточно.
>>1426160
И.е ты хочешь сказать, что современные нейроночки пытаются незаметно превратить в SVM, но так чтобы никто не догадался и не стал ржать из-за того, что умные люди ещё в 70е этот путь предлагали, а всякая хипстота только сейчас понемногу начинает догадываться, что других путей все равно нет?
Аноним 02/07/19 Втр 18:47:00 1426416374
>>1426160
Алсо, все эти xgboost'ы, deepboost'ы и иже с ними так же исконный статистикал лернинг. Как жи так-то, это что жи делается, люди добрые? Куда в современном машобчике ни плюнь, везде в Вапника попадешь!
Аноним 02/07/19 Втр 20:09:30 1426468375
>>1426412
>Математика, необходимая для машобчика это дискретка
Журавлёв, идите нахуй и дискретку свою заберите. В рот ебал Вашу программу экзаменов, в которой половина - сраный маткиб, а теорвера и матстата нет вообще. АВО были ошибкой.
Аноним 02/07/19 Втр 21:11:49 1426555376
Я испытываю трудности с вопросами вроде "выбрать ли для кодирования инпутов one-hot или целое число" и т.п., посоветуйте что-нибудь (желательно обучающее, но на безрыбье и коллекция скриптов на гитхабе щука) с большим количеством жизненных примеров в т.ч. с какими-нибудь очень хитровыебанными инпутами-аутпутами, где можно извлечь интересный идей касательно отображения данных и постановки задачи. А то во всех туториалах одно и то же, картинки да текст, упор в основном делается на архитектуре скрытых слоёв.
Аноним 02/07/19 Втр 21:19:48 1426567377
>>1426276
Почти везде дают. Там (якобы) нужен базовый матан, линал и теорвер, опционально матстат.
Аноним 02/07/19 Втр 21:39:52 1426604378
>>1426567
>Почти везде дают. Там (якобы) нужен базовый матан, линал и теорвер, опционально матстат.
Матан дают, но практика там это бесконечный дроч хитровыебанных интегралов. А на самом деле нужно знать основы дифференцирования, и, самое главное - как дифференцировать матрицы, суммы, свертки и прочий matrix calculus. Я вот не умею этого, но благо запилили www.matrixcalculus.org и не нужно запускать символьные пакеты.
>линал
В том линале по-моему даже SVD нет, просто показывают пару алгоритмов типа Грамма-Шмидта без описания того, нахуя они нужны.
>теорвер
Какие-то фриквентистские азы даются

Помимо этого было дохуя обыкновенных диффуров, диффуров в частных производных, тфкп (что немного полезно для цифровой обработки сигналов, но в целом из пушки по воробьям), ебучие теоремы Гаусса и Стокса и прочая поебота для проектирования двигателей ракет, а не машоба.

Самое толковое, что было у меня - численные методы.
Аноним 02/07/19 Втр 21:49:23 1426631379
Аноним 03/07/19 Срд 06:45:38 1426835380
15616436839280.jpg (33Кб, 600x400)
600x400
Автоматизированная система куколдизации котов - новейшая технология применения машобчика http://9tv.co.il/news/2019/07/02/272169.html Ожидание: ИИ, беспилотный транспорт. Реальность: раздевание сельдей по фото, обучение котов охотиться. Сойбойство в машобе до добра не доводит.
Аноним 03/07/19 Срд 10:49:20 1426904381
>>1426835
Нечёткопетух, уймись. Уже и самобеглые повозки обучают, и роботы более-менее ходят, и в смартфонах голосовые помощники есть, и котов охотиться учат, и девушек раздевают, а ты всё вопишь, что нейронки не нужны.
Аноним 03/07/19 Срд 11:08:20 1426912382
>>1426904
> Уже и самобеглые повозки обучают,
Беспилотное такси унтер Убер, которое размазало пешехода по переходу?
> и роботы более-менее ходят,
Робот Федор?
Аноним 03/07/19 Срд 11:57:51 1426933383
>>1426912
>Беспилотное такси Убер, которое размазало пешехода по переходу?
Беспилотные такси на нечёткой логике и другом устаревшем говне даже с места не сдвинулось, так что чья б корова мычала.
>Робот Фёдор?
Роботы Бостон динамики.

Остальное ты ожидаемо проигнорировал, потому что возразить нечего.
Аноним 03/07/19 Срд 12:04:16 1426938384
>>1426933
>Роботы Бостон динамики.
Там никакого машоба нет, кстати, всё руками кодят. Потому и работает.
Аноним 03/07/19 Срд 12:10:00 1426943385
>>1426933
> Беспилотные такси на нечёткой логике и другом устаревшем говне даже с места не сдвинулось,
Их никто и не разрабатывал никогда. Поезд метро на нечеткой логике был запущен в серию в 1987, вроде бы работы начались ещё в 1979. Больше 3000 испытаний только в реальных условиях реальных локомотивов, сколько всего остального, история умалчивает. Стоимость проекта так же неизвестна, но наверняка всю Блинолопатию можно было купить. Это если все по уму делать, а не засунуть в машину сойбойскую поебень, пусть людей давит, хуй на них, все равно дотационные были)))
Аноним 03/07/19 Срд 13:02:40 1426968386
4bgsbqdcy2uwanh[...].png (871Кб, 1366x768)
1366x768
>>1406660 (OP)
Инженер Amazon создал блокирующее устройство с ИИ, которое не пускает в дом кота с уличной добычей
Аноним 03/07/19 Срд 13:26:30 1426976387
>>1426968
> Инженер Amazon создал блокирующее устройство с ИИ, которое не пускает в дом кота с уличной добычей
Эта шайтан-машина при блокировке кота ещё автоматом донатит сжв конторе по защите диких животных от котов. Я о чем и говорю, совсем уж сойбои кукухой ебнулись.
Аноним 03/07/19 Срд 13:41:21 1426980388
>>1406660 (OP)
А есть какие-нибудь годные ресурсы по pattern recognition для time-series данных?
Аноним 03/07/19 Срд 13:41:34 1426981389
>>1426943
>Поезд метро на нечеткой логике был запущен в серию в 1987, вроде бы работы начались ещё в 1979. Больше 3000 испытаний только в реальных условиях реальных локомотивов, сколько всего остального, история умалчивает. Стоимость проекта так же неизвестна, но наверняка всю Блинолопатию можно было купить.
Ну то есть сраный поезд, который ездит по сраным рельсам по сраному расписанию не нуждается ни в каком компьютерном зрении, и самая большая проблема которого не прижать дверями пассажиров, разрабатывали 8 лет, проебали кучу денег, и на выходе получили хуиту, которая даже не масштабируется даже на сраный трамвай.
Даже интересно, почему это никто беспилотные такси на этой базе никто не разрабатывал.
Ты дрочишь на мертвую технологию, потому что считаешь, что якобы 10000 правил это просто и понятно. Так эти долбоебы и рассуждали. Хули, введем всеобщее высшее, образуем миллиард инженеров, каждому дадим по сто правил, и хуяк-хуяк вот оно будущее. А оказалось, что эта хуйня вообще не масштабируется. Если сто правил в голове помещается, а десять тысяч - нет, то оно не помещается в голове ни у кого, и никто в конторе не знает, как работает сумма того, что разрабатывается. И привет.
Аноним 03/07/19 Срд 13:42:05 1426982390
>>1426980
На бирже решил играть? азазза
Аноним 03/07/19 Срд 13:54:20 1426987391
Screenshot2019-[...].png (74Кб, 892x797)
892x797
Аноним 03/07/19 Срд 14:03:03 1426990392
Аноним 03/07/19 Срд 14:15:11 1426996393
>>1426990
Не лезь, она тебя сожрёт.
Аноним 03/07/19 Срд 14:25:28 1427000394
>>1426996
Уже нашел нужную информацию. Обтекай, еблан.
Аноним 03/07/19 Срд 14:45:43 1427018395
>>1426987
Повелись недавно на модную тему значит, решили нанять датамакак. То что все продемонстрированные роботы на классических алгоритмах работают это общеизвестный факт, гугли.
Аноним 03/07/19 Срд 14:48:37 1427020396
>>1427000
> нагуглил курсы форексамошонлёрненх в финансах
> соси педораха обтекай еблан я зароботаю меллеарды))
Чем бы дитя не тешилось))
Только кредит под залог мамкиной хаты не бери
Аноним 03/07/19 Срд 14:57:11 1427027397
>>1427018
Как классно быть промыткой. Факт потверждает твою точку зрения - о, молодцы, я прав, вы все в треде сосете. Факт опровергает - повелись на модную тему, а я все равно прав.
>То что все продемонстрированные роботы на классических алгоритмах работают это общеизвестный факт, гугли.
Ага, в компании, в которой все секреты защищены пятью слоями NDA, а безопасники следят за тем, чтобы китайцы ничего не спиздили, каждый хуй в блогах для сойбоев (которые для тебя основной источник информации о мире) знает 100%, как оно все устроено.
То, что нейронки должны применяться исключительно end-to-end - это лично твоя шизофрения. Как, собственно, и большинство твоих утверждений.
Аноним 03/07/19 Срд 14:59:03 1427029398
>>1426990
Это хуевый способ вката, потому что торговые данные слабо отличаются от случайного шума. Возьми че попроще, тогда, может быть, через несколько лет сможешь писать своих ботов.
Аноним 03/07/19 Срд 15:12:46 1427037399
>>1427029
Каких еще ботов? На чем тогда предлагаешь тренировать модель, раз не на торговых данных?
Аноним 03/07/19 Срд 15:19:32 1427044400
>>1427037
Какую модель? Вот прочитал ты где-то в блоге, что жопоебный хулиасинг хорош. Взял свои данные, взял этот хулиасинг - и не работает. И что дальше? Гиперпараметры не те, аугментации нет, регуляризацию добавить надо (какую?) или хулиасинг вообще приницпиально не подходит в твоем случае?
Ты сначала научись на чем полегче. Хотя бля, тебе же некогда. Бабки сами себя не зарабаотают.
Аноним 03/07/19 Срд 15:20:39 1427045401
>>1426981
> Ты дрочишь на мертвую технологию,
Эта технология живее любой другой. Просто исторически сложилось, что этим микроскопом только гвозди и забивали. Даже сам Заде видел только довольно узкую направленность применения нечеткой логики. Просто навскидку - нечеткая логика формализует квантовые вычисления, до сих пор никто даже не пробовал использовать ее вместо ущербной бинарной для оснований итд.
Аноним 03/07/19 Срд 15:23:36 1427047402
>>1427044
Ебать ты дуралей. На хуй пошел.
Аноним 03/07/19 Срд 15:30:14 1427049403
Снимок.PNG (71Кб, 1171x1021)
1171x1021
Снимок2.PNG (114Кб, 1180x996)
1180x996
Снимок3.PNG (74Кб, 1175x1011)
1175x1011
>>1427027
> наняли макаку улучшить обработку сигнала с сенсоров на 10% или специалиста по машинному зрению
> ШОК ИИ УПРАВЛЯЕТ РОБОТАМИ СВЁРТОЧНЫЕ СЕТИ ВЫЛЕЧИЛИ РАК УЧЁНЫЙ ИЗНАСИЛОВАЛ ЖУРНАЛИСТА
Ну тебе-то в экзоскелете на нейронках пять слоёв nda ни по чём.
И даже гугл не помеха https://mitpress.mit.edu/books/legged-robots-balance
> Как классно быть промыткой.
Да по тебе не скажешь.
Аноним 03/07/19 Срд 15:32:12 1427050404
>>1426981
>и никто в конторе не знает, как работает сумма того, что разрабатывается
Сказала мартыха со свёрточной чёрной коробкой в руках и рандомным лесом подмышкой.
Аноним 03/07/19 Срд 16:05:47 1427062405
>>1427000
Дебс, я не нечёткопетух, но в этом с ним согласен - не лезь в биржевую торговлю за свои деньги, всё просрёшь и ещё должен останешься.
Аноним 03/07/19 Срд 16:17:37 1427071406
>>1427062
С подростками разговаривать таким тоном - педагогическая ошибка. Теперь обязательно полезет.
Аноним 03/07/19 Срд 16:25:23 1427080407
>>1427071
>Теперь обязательно полезет.
Just as planned.
Аноним 03/07/19 Срд 16:52:29 1427101408
Screenshot2019-[...].png (133Кб, 876x858)
876x858
>>1427049
>Твои пики.
АААА БЛЯДЬ ТЫ МЕНЯ ПОРВАЛ СУКА
Первая же блядь вакансия из выделенных тобой желтым цветом.

Ты блядь в курсе вообще, что такое perception? Сука, даун ты тупорылый.
Аноним 03/07/19 Срд 17:12:30 1427119409
Короче, объясняю для непетухов, если кому-то в этом треде еще не похуй.
Как я писал постом выше, об end-to-end дипленинге сейчас никто не говорит (точнее говорят, но это больше прикол). Нейронки сейчас безальтернативы в задачах зрения, распознавании речи, удалении шума и прочей feedforward поеботе. Никаких других альтернатив им нет, а если бы были, то нейронки бы вобрали в себя это, потому что это просто название для очень сложных тренируемых функций. Там они и применяются всеми, от яндексовской алисы и автопилотов до boston dynamics. Так как люди заняты работой, а не трепом, то людям похуй нейронки-не-нейронки (и вопреки мнению несойбоев, которые об отрасли судят по блогам для сойбоев, классические алгоритмы все прекрасно знают, потому человек 30+ лет не может их не знать просто из-за своего возраста, нейронки когда-то были маргинальны), критерии немного другие, а именно перформанс при решении данных задач. В других частях пайплайна используются другие алгоритмы. И это нормально. Если ты не петух, конечно.
Аноним 03/07/19 Срд 17:26:42 1427131410
>>1427119
>Как я писал постом выше, об end-to-end дипленинге сейчас никто не говорит
>>1426904
>Уже и самобеглые повозки обучают, и роботы более-менее ходят
Ну на самом деле я токово не говорил)
Аноним 03/07/19 Срд 17:33:33 1427143411
>>1427131
Я же написал: объясняю для непетухов. Ты ведь даже в нечеткие множества не можешь, типичная бинарная логика: либо нейронки не используют вообще, либо используют только их. Хотя в процитированных цитатах этого нет. Ты тупее стула на котором сидишь. Не читай мои посты.
Аноним 03/07/19 Срд 17:57:10 1427180412
>>1427143
Маня, своим "ты тупой, ничаво не понимаешь" будешь среди других таких же стажёрчиков желторотых из ямбекса маневрировать. Ты сказал "самобеглые повозки обучают, и роботы более-менее ходят". Действительно нужно цитировавть то что было десять постов назад и в каком контексте это было сказано? Кого ты наебать пытаешься-то, всем же видно. Оказывается что в хождении роботов мошонлёрнинг не участвует, а применяется он на уровне дипнюдса, которым задрики из бостондайнемикс своих баб коллег по работе раздевают. Однако ты упираешься и верещишь что ВЫ ПРОСТО НИТАК ПОНЯЛИ, классический обосравшийся зумер.
Аноним 03/07/19 Срд 18:39:16 1427193413
>>1427119
> Никаких других альтернатив им нет, а если бы были, то нейронки бы вобрали в себя это, потому что это просто название для очень сложных тренируемых функций.
Но ведь чуть выше уже выяснился неприятный факт - нейроночки все больше и больше косплеят SVM в частности и статистикал лернинг вообще - кернел трик, hinge loss, регуляризация.
Аноним 03/07/19 Срд 18:41:58 1427194414
>>1427193
Что значит "все больше"? Дай определение нейросети так, чтобы под это дело не попадал SVM.
Аноним 03/07/19 Срд 18:51:51 1427200415
>>1427180
Кретин, мы разные люди. Про повозки написал я, длиннопост - не я.
Аноним 03/07/19 Срд 18:54:32 1427205416
>>1427194
> Дай определение нейросети так, чтобы под это дело не попадал SVM.
Ну, так вообще далеко зайти можно. Веса нейронов, значение функций активации, лоссов можно рассматривать как нечёткие числа, взятие максимума при свертке как дефаззификацию итд. Тогда получится, что в нейроночках со времён Розенблатта ничего кроме нечеткой логики не было.
Аноним 03/07/19 Срд 18:55:00 1427206417
>>1427180
>Маня, своим "ты тупой, ничаво не понимаешь" будешь среди других таких же стажёрчиков желторотых из ямбекса маневрировать
Нахуя мне маневрировать. Это я что ли обосрался в >>1427101 . Лучший способ для тебя был бы "да, соснул", и потихоньку свернуть тему. Но ты слишком тупой для такого.
>Оказывается что в хождении роботов мошонлёрнинг не участвует
Оказывается кому? Тупому чепушиле оказывается. Объясняю, как происходит хождение робота (а еще человека, любого другого животного). Роботу дают команду, например, переложи коробку с этого места на это место. Роботу нужно эту коробку увидеть. Упс. Оказывается, чтобы ходить, нужно видеть. Чтобы не споткнуться, например. Можно, конечно поставить робота на рельсы, и добавить команду не_въебаться_в_депо, но это будет хуевый робот. Современных роботов без дипленинга ты не сделаешь. Даже если вместо пары камер с паралаксом ты заебенишь лидар.
Аноним 03/07/19 Срд 19:06:34 1427213418
>>1427193
>нейроночки все больше и больше косплеят SVM в частности
Чушь
>и статистикал лернинг вообще
Они не могут косплеить то, чем и так являются - статистика из машоба никуда не уходила, задача Байеса по минимизации эмпирического риска никуда не исчезла.
>hinge loss
Ценен только тем, что у линейных классификаторов при этом вектор весов выражается линейно через объекты выборки (у перцептрона, кстати, лосс примерно такой же, и у него это тоже наблюдается, о чём есть теорема Розенблатта), без чего о кернел трике можно забвть, причём значительная часть коэффициентов обратится в 0 (потому он и опорных)
>кернел трик
Нужен, чтобы неудобные искусственные признаки перевести в пригодные для линейной разделимости, нейронка ту же задачу решает обучением признаков из сырых данных, ей эти кернелы слабо нужны.
>регуляризация
Блядь, регуляризации есть далеко не только у svm, это вообще общий термин для искусственного понижения сложности модели, у нейронок она делается обычно через дропаут, а не через weight decay.
Аноним 03/07/19 Срд 19:11:00 1427216419
>>1427206
>Роботу нужно эту коробку увидеть.
У БостонДинамикс большие черные маркеры похожие на QR, чтобы болван ее заметил.
Аноним 03/07/19 Срд 19:13:18 1427219420
>>1427213
>Нужен, чтобы неудобные искусственные признаки перевести в пригодные для линейной разделимости, нейронка ту же задачу решает обучением признаков из сырых данных, ей эти кернелы слабо нужны.
Убедительнее сказать, что у SVM параметры кернела - это гиперпараметры, алгоритм не подбирает их. А у нейронки в конце тот же линейный классификатор (возможно даже с тем же лоссом), но параметры "кернела" уже являются частью алгоритма. Именно поэтому нейронки это шаг вперед по сравнению с SVM, а SVM является частным случаем нейронки, хотя зависит от определения.
Аноним 03/07/19 Срд 19:22:41 1427226421
>>1427205
>Веса нейронов, значение функций активации, лоссов можно рассматривать как нечёткие числа, взятие максимума при свертке как дефаззификацию итд.
Ровно поэтому никто от нечеткой логики кипятком не писает - это просто другой способ обозвать вещи, как иностранный язык. Ничего принципиально иного там нет.

Перед любым ML-инженером при решении задачи есть пирамида manual rule deisgn => manual feature design => manual architecture design, и к тебе претензии не из-за того, что ты будешь пулинг называть дефаззификацией (мне даже лень проверять так это или нет), а потому что ты считаешь, что за пределами manual rule design ничего нет, а это не так. Специалист на то и специалист, что выбирает подходящее решение подходящей задаче, где ПИД-регулятор заебенить, а где неделю видюхой комнату греть.
Аноним 03/07/19 Срд 19:23:45 1427228422
>>1427219
Не надо так говорить. Кернел - это не просто "сложное отображение", это композиция спрямляющего отображения и скалярного произведения в спрямляющем пространстве.
Аноним 03/07/19 Срд 19:48:55 1427248423
>>1427206
Ох, ладно, по полочкам, больше для стороннего наблюдателя скорее.
> Роботу дают команду, например, переложи коробку с этого места на это место. Роботу нужно эту коробку увидеть. Упс. Оказывается, чтобы ходить, нужно видеть. Чтобы не споткнуться, например.
Суммируя твоё многословное вихляние жопой, няронки там для зрения, а не для хождения. Основная трудность в ходящих роботах (и самодвижущихся машинах) не в том чтобы кота/негра/коробку/машину с камеры распознать, а в управлении. В управлении роботами бостон динамикс используются классические control theory алгоритмы. Кто соснул? Ты соснул со своим утверждением о бороздящих просторы космоса роботах на мошонном обучении. Продолжишь вихляние?
Аноним 03/07/19 Срд 19:53:16 1427252424
>>1427228
Поэтому я написал второй раз кернел в кавычках. Нейронкам-то обязательная зависимость только от скалярного произведения не нужна.
Аноним 03/07/19 Срд 20:36:25 1427320425
>>1427248
>Основная трудность в ходящих роботах (и самодвижущихся машинах) не в том чтобы кота/негра/коробку/машину с камеры распознать, а в управлении
Ну, если ты тупой чепушила, который роботов только на картинках видел, а при слове дифференциальное уровнение ложит в штаны - то да. Но вообще нет. Это одна из самых простых вещей при разработке роботов. Чтобы было понятно, почему, в России до жопы специалистов, которые это умеют, которые стоят 30к в мухосранском НИИ. А вот boston dynamics почему-то нет. Загадка! На самом деле нет. Главное в таких роботах это их опиздинецки дорогая высокотехнологичность.

>Кто соснул?
Ты, ты.
Аноним 03/07/19 Срд 21:59:12 1427412426
>>1427320
> Это одна из самых простых вещей при разработке роботов.
Но намного сложнее всего зумерского маньшиньлёрнинха
> в России до жопы специалистов, которые это умеют
Просто в России они пока ещё есть, а на западе уже одно сойбойство. Мы как провинция всё с запаздыванием перенимаем, но в этом и плюс.
> стоят 30к в мухосранском НИИ. А вот boston dynamics почему-то нет.
> ряяя многаплотят
Ты ещё и адепт святого машка небось? Стоимость сшайских бизнесОв (в том числе как следствие и размер зарплат) измеряется раздутостью пузыря американской экономики в целом и только лишь им.
Аноним 03/07/19 Срд 23:41:56 1427489427
>>1427320
>дифференциальное уровнение
>роботов
Где связь?
Аноним 04/07/19 Чтв 00:43:02 1427517428
Аноним 04/07/19 Чтв 01:34:16 1427537429
>>1427517
Для "чайников", сплошная матанохуета какая-то.
Аноним 04/07/19 Чтв 01:38:43 1427538430
>>1427537
А что ты хотел, чтобы тебе дали, когда спросил про дифференциальные уравнения? По привычке думал что тебе хуй в рот засунут?
Аноним 04/07/19 Чтв 02:08:10 1427556431
>>1427537
> матанохуетааа нипонятно
Тогда мошонлёрнинг - твой выбор.
Аноним 04/07/19 Чтв 02:10:04 1427559432
>>1427538
>А что ты хотел
Сразу видно что поебота бесполезная
Аноним 04/07/19 Чтв 02:14:49 1427564433
>>1427412
> Ты ещё и адепт святого машка небось? Стоимость сшайских бизнесОв (в том числе как следствие и размер зарплат) измеряется раздутостью пузыря американской экономики в целом и только лишь им.
Ты из Лахты? Какое-то у тебя подзалупное маняобьяснение почему в цивилизованных странах зарплаты в 5-20 раз выше чем в Блинолопатии при схожих ценах.
Аноним 04/07/19 Чтв 02:22:22 1427568434
>>1427564
>в цивилизованных странах зарплаты в 5-20 раз выше
Грабить колонии и печатать бумагу, так себе достижения.
Аноним 04/07/19 Чтв 02:30:27 1427579435
>>1427568
Кого они грабят, Мань?
Аноним 04/07/19 Чтв 02:33:30 1427580436
00s.jpg (286Кб, 1100x733)
1100x733
>>1427579
Либираш, перестань, свою гнилую пендопропаганду неси в /po
Аноним 04/07/19 Чтв 02:44:22 1427582437
>>1427580
Нечеткий петух еще и ватан?
Аноним 04/07/19 Чтв 02:53:46 1427584438
>>1427582
Продифференцировал либеральные ценности тебе за щеку
Аноним 04/07/19 Чтв 02:54:27 1427585439
>>1427582
>ватан
Что плохого в любви к Родине и патриотизме?
Аноним 04/07/19 Чтв 02:57:17 1427586440
>>1427585
Какое это имеет отношение к ватанам, которые просто находят оправдание тому, чтобы сидеть в говне.
Аноним 04/07/19 Чтв 03:06:49 1427593441
>>1427586
>которые просто находят оправдание тому, чтобы сидеть в говне.
Я не сижу в говне и всех кого я знаю тоже. Вопросы? Или тебе больше негде выплеснуть свою желчь и несостоятельность как в пограмоче?
Аноним 04/07/19 Чтв 03:25:26 1427597442
>>1427593
>Я не сижу в говне и всех кого я знаю тоже.
Какой-нибудь негр в Нигерии тоже так сказать может. Потому что он нигде не был и нихуя не видел. Следующая стадия ватана - это побывать, охуеть и начать пиздеть об особом пути и ограбляемых колониях. Ты уж определись, на какой ты стадии, где специалисты по теории управления 30к получают потому что колонии грабили или где все кого ты знаешь не сидят в говне. Иначе твоя картина мира либо противоречива, либо ты считаешь зарплату в 30к не жизнью в говне, то есть ты что-то типа негра из Нигерии, блаженно неведующего.
>Или тебе больше негде выплеснуть свою желчь и несостоятельность как в пограмоче?
Точно не я этот ватанодискурс начал.
Аноним 04/07/19 Чтв 03:31:10 1427599443
>>1427597
>негр в Нигерии
Чем тебе Нигерия не угодила, или твои либирашьи ценности заканчиваются на корыте с хрючивом и трусиках?
Аноним 04/07/19 Чтв 03:31:39 1427600444
Аноним 04/07/19 Чтв 05:52:04 1427611445
Между прочим, раз уж и сюда Лахта пролезла, стоит напомнить, что вы 15рублевые пидорасты, живёте на мои налоги, рака вам зумера подзалупные африканская параша Блинолопатия ничего не дала машобчику. Даже сраный совок и то внёс огромный вклад в эту тему, Вапник один чего стоит.
Аноним 04/07/19 Чтв 10:44:20 1427711446
>>1427564
>Какое-то у тебя подзалупное маняобьяснение
Зато верное.
Аноним 04/07/19 Чтв 11:23:10 1427729447
>>1427711
Ты так и не ответил, кого они грабят и как.
Аноним 04/07/19 Чтв 11:30:35 1427737448
>>1427729
Спрашивай у тех с кем говорил.
Ты уже избавился от параноидальной навязчивой идеи про преследующего тебя "нечёткопетуха", надеюсь?
Аноним 04/07/19 Чтв 11:32:48 1427739449
>>1427611
>огромный вклад в эту тему, Вапник один чего стоит
Не только он, всю теорию оптимизации (которая и охватывает всю рабочую часть мошонлёрнинга) по сути придумали в сссре.
Аноним 04/07/19 Чтв 13:36:43 1427818450
>>1427739
Сильное заявление.
Аноним 04/07/19 Чтв 13:43:27 1427823451
>>1427739
Слава советским математикам - Ньютону, Лагранжу, Карушу, Куну, Таккеру, Бройдену, Флетчеру, Гольдфарбу и Шанно!
Аноним 04/07/19 Чтв 13:51:58 1427830452
>>1426631
Ну и к чему ты это запостил? Там вообще ничего не сказано, пустой пост. Названы (содержащиеся в моём вопросе) 2 принципиальных способа кодировки, без знания которых нельзя написать буквально ничего, one-hot и числовые лейблы, и обмолвился ещё, сказав очевидное "лейбл можно сделать не из порядкого номера, а... ну, как-нибудь по-другому". И если уж на то пошло, то его 2 принципиальных варианта это даже не полный список, потому что есть ещё, например, class-probability и embedding

Это никак не помогает получить интуицию, когда что использовать, какие эффективные на практике принципы существуют и стоит ли, скажем, делать огромный one-hot вектор для списка всех аэропортов для решения определённой задачи или пытаться их каким-то неестественным образом упорядочить.
Аноним 04/07/19 Чтв 14:39:02 1427891453
>>1427823
>Ньютону, Лагранжу
Ещё шумеров вспомни.
> Карушу, Куну, Таккеру, Бройдену, Флетчеру, Гольдфарбу и Шанно
Туда же, это всё очевидности уровня первой половины XIX века.
В общем, и ногтя на мизинцах Кантаровича с Хинчиным не стоят.
Аноним 04/07/19 Чтв 15:01:04 1427914454
Посоветуйте учебник или курс по методам оптимизации.
Аноним 04/07/19 Чтв 17:11:15 1427981455
>>1427729
Иран, Сирия, Ливия, Китай, Индия, Куба, Мексика, Украина
Аноним 04/07/19 Чтв 18:07:34 1428001456
>>1427830
Последнее предложение - ответ на твой вопрос. Если данные естественно не упорядивачиваются, то ванхот, а если это нереально, то предварительный эмбединг в пространство меньшей размерности.
Аноним 04/07/19 Чтв 18:08:08 1428002457
Аноним 04/07/19 Чтв 18:19:24 1428006458
>>1427981
> Украина
Крым у хохлов украл плешивый, но грабят их все равно США. Ясно все с тобой, после смены в долбильню.
Аноним 04/07/19 Чтв 18:22:37 1428007459
>>1428006
>Крым у хохлов украл
Крым русская земоя, как и 90% оккупированной хохлами Украхи
Аноним 05/07/19 Птн 01:45:09 1428243460
Аноним 06/07/19 Суб 13:39:34 1428985461
>>1428243
Укробота и ВатаSBR тестируем.
Аноним 06/07/19 Суб 18:38:57 1429183462
Ребята, тут немножко старперского нытья и чесания ЧСВ, можно не читать.

Уже три с половиной года прошло, анон. Спасибо тебе за вновь создаваемые треды. Три с половиной года назад я запилил первый тред https://arhivach.ng/thread/147800/ и оно вот так вот хорошо взлетело. Хочется думать, что все эти треды благодаря вам помогли людям вкатится. Ну а мне было удивительно найти артефакт такой давности, теперь испытываю немного ностальгические ощущения.
Аноним 06/07/19 Суб 22:01:05 1429349463
>>1410165
есть сферические CNN которые инвариантны к поворотам, нах тебе внимание, внимательный ты наш
Аноним 06/07/19 Суб 22:09:41 1429354464
Знающий анон подскажи с РАБотой. Мой бэкграунд - финансы, бизнес-аналитика (в прошлом физика), сейчас учусь на ИИ. Хочу найти работу типо аналитика в Яндексе, а именно решать прикладные бизнес задачки с помощью ИИ и МЛ и прочего барахла, а не просто зачуханным девелопером за 300к в наносек.
По каким компаниям и позициям искать?

Аноним 06/07/19 Суб 22:20:37 1429359465
>>1429354
В Дагестан на кирпичный завод
Аноним 06/07/19 Суб 22:26:23 1429364466
>>1429359
но я уже отстажировался там
Аноним 06/07/19 Суб 23:34:53 1429404467
forman.jpeg (88Кб, 454x600)
454x600
>>1429183
>хорошо взлетело
>худший тематический тред на доске
Аноним 06/07/19 Суб 23:36:46 1429407468
>>1429354
Попробуй эконометрику искать.
Аноним 07/07/19 Вск 08:04:19 1429554469
>>1410889
Шизоид. Человек не создаёт трехмерную модель автоматически, это происходит благодаря ассоциативному мышлению при определенной поставленной задаче. Например мозг виртуально вращает фигуру чтобы ее классифицировать или создаёт виртуальную модель для обработки сознательной части, но не 3D модель, а описание и зрительные образы. Про вращение где-то точно читал в когнитивной психологии, там доказывали эксперементально. Тем более что графы как на вход так и на выход в нейронках если не самые сложные данные, то хоть в тройку входят. Современные сверхточные сети в depthwise convolution и механизмами внимания побыстрее будут, да и уже лучше человека классифицируют.
Аноним 07/07/19 Вск 08:41:24 1429557470
>>1429554
>Человек не создаёт трехмерную модель автоматически
А как блядь, вручную что ли.
У человека как минимум моторные навыки работают в честном 3д, да и вообще глупо предполагать, что у хищника и потомка живших на деревьях обезьян будут проблемы с 3д. Фундаментальные проблемы есть с 4д, например, но не с 3д.
>когнитивной психологии
Хуетивной хуелогии. Эти хуесосы находят какую-то линейную корреляцию в каком-то сверовакуумном эксперименте и ура, бабки на грант отбиты.
Аноним 07/07/19 Вск 09:51:18 1429569471
>>1429557
Успокойся. Как хочешь. Но я с тобой не согласен, человеку 3Д нинужно и врятли мозг может эффективно представить какую-то трехмерную форму.
Аноним 07/07/19 Вск 10:02:27 1429570472
jackyalcine3.png (75Кб, 800x419)
800x419
>>1429554
> Современные сверхточные сети в depthwise convolution и механизмами внимания побыстрее будут, да и уже лучше человека классифицируют.
Аноним 07/07/19 Вск 10:06:55 1429573473
>>1429557
Ты ублюдок и дебил, нехуй судить за всех. У меня например один глаз на 5 диоптрий отличается от другого нормального, никаких 3д я не вижу без линзы, скорее даже фантомные пространства появляются.
Аноним 07/07/19 Вск 10:07:18 1429574474
Аноним 07/07/19 Вск 10:14:49 1429576475
>>1429573
Ущербных инвалидов (тебя) это не касается, разумеется.
Аноним 07/07/19 Вск 10:52:16 1429602476
По поводу машобчика для распознавания. Это 100% лоховодство и развод лохов на бабки. Без лоха жизнь плоха. Суть в том, что распознать рак на снимках может любой кабыздох с помойки https://well.blogs.nytimes.com/2014/09/10/training-dogs-to-sniff-out-cancer/ любой голубь оттуда же https://www.nytimes.com/2015/11/25/science/pigeons-detect-breast-cancer-tumors.html?_r=0 а сдетектить рак по материалу с биопсии может помойная дрозофила https://www.nature.com/articles/srep03576?WT.ec_id=SREP-20140107 все эти технологии стоят ровно 0, т.к. используют совершенно дубовые и простые как 3 копейки методы оперантного научения, разработанные Скиннером еще в 30х годах прошлого века. Для того, чтобы обучить голубя детектить рак по снимкам лучше любого врача-коновала, нужно затратить 1 пакет семок для гопников. Никаких тыщбаксов на покупку у (((Сунь Хуй Чая))) из нвидии видеокарт, никаких 300кк/сек зарплаты дегенерату за "импорт слесарьплов ас сф". Никаких дорогущих реактивов, микроскопов и опять же, зарплаты коновалу. Понимаете, в чем наебка, не? Любители заработать на лохах наживают на них миллиарды денег, впаривая свою хуйню в качестве решения остросоциальных проблем, тогда как на самом деле какие-то из этих проблем решаются на коленке говном, палками и семками.
Аноним 07/07/19 Вск 10:58:20 1429606477
>>1429573
>У меня например один глаз на 5 диоптрий отличается от другого нормального, никаких 3д я не вижу без линзы, скорее даже фантомные пространства появляются.
Ага, а еще в мире полно одноглазых людей, они все не видят 3д и живут в плоском мире, как герой игры Fez. Даже с кровати встать не могут - одна же объемная блядь, а у них мир плоский.
Ебанько, твое ощущение глубины от паралакса между глазами это далеко не единственный способ, которым мозг строит трехмерную картину мира.
Аноним 07/07/19 Вск 10:59:35 1429607478
>>1429602
Охуеть, адепт биопанка.
Аноним 07/07/19 Вск 11:01:42 1429610479
>>1429602
>все эти технологии стоят ровно 0
>Понимаете, в чем наебка, не?
Понимаю. Эти технологии не стоят 0. А теперь пройди нахуй.
Аноним 07/07/19 Вск 13:39:00 1429702480
>>1429602
Вот бы нейроночку на голубях..
Аноним 07/07/19 Вск 14:31:26 1429739481
kat donlan ok.jpg (18Кб, 198x241)
198x241
>>1429602
С нечёткопетухом спорить - только время тратить.
Аноним 07/07/19 Вск 14:37:33 1429744482
>>1429602
>решения остросоциальных проблем
Прилепить ебло к сиськам
Аноним 08/07/19 Пнд 01:35:06 1430059483
Аноним 08/07/19 Пнд 06:33:25 1430086484
>>1430059
Это не сюда вопрос, а к разработчикам дрочильни.
Аноним 08/07/19 Пнд 06:55:18 1430088485
>>1420800
Вообще можно конечно, но тебе процессорных возможностей не хватит ускорить игровое время в триста тысяч раз.
Аноним 08/07/19 Пнд 13:31:09 1430229486
gtx1080 или rtx2060?
Аноним 08/07/19 Пнд 13:37:58 1430234487
Аноним 08/07/19 Пнд 13:53:00 1430251488
А для того чтобы компетитив на кагле быть какой бюджет?
Аноним 08/07/19 Пнд 15:30:21 1430296489
>>1430234
Там Tesla k80 стоит, которая чуть-чуть быстрее моей gtx 770.
Аноним 09/07/19 Втр 03:00:46 1430617490
15619158116580.jpg (23Кб, 800x543)
800x543
>>1429739
> приводишь ссылки на реферируемые источники в подтверждение своей точки зрения
> тебе в ответ пукают, считая это опровержением
Классика.
Аноним 09/07/19 Втр 03:12:29 1430619491
Аноним 09/07/19 Втр 04:45:57 1430629492
>>1430619
Это родители твои хуесосы и петухи. Ты тем более.
Аноним 09/07/19 Втр 04:49:54 1430631493
>>1430629
> приводишь ссылки на реферируемые источники в подтверждение своей точки зрения
> тебе в ответ пукают, считая это опровержением
Аноним 09/07/19 Втр 09:45:34 1430699494
Аноним 09/07/19 Втр 10:02:55 1430721495
>>1430296
Зато память 12 ГБ и бесплатно.
Аноним 09/07/19 Втр 11:33:38 1430831496
>>1430631
Я не виноват, что ты хуета без мозгов, которая даже не может связать написанное с содержимым приведенной ссылки. Чего ты тут забыл вообще, петух тупой?
Аноним 09/07/19 Втр 11:45:41 1430835497
>>1430831
Я тебе ответил >>1429610 , что ты успешно проигнорировал, и начал кукарекать про реферируемые источники.
>петух тупой
Но ведь это ты нечеткий петух
Аноним 09/07/19 Втр 12:43:16 1430879498
Хочу сделать свой собственный deepnude

Сам я нуб в DS, но нашел ноутбуки типа
https://www.tensorflow.org/beta/tutorials/generative/pix2pix

Как думаете, какой должен быть набор данных? Какого размера? Забить на расположение девочек?
Аноним 09/07/19 Втр 16:41:05 1431057499
Можно ли сделать систему сигнализации для квартиры на компьютерном зрении? Недавно менял в первый раз смеситель и теперь начал боятся прорыва трубы в мое отсутствие, потому что живу один с котом и собакой. Собственно, за них как-то страшно. Тем более, на одной сантехнике не заканчивается, ведь может и проводка загорется, и хуй знает еще что.

Не подскажете, куда копать? В прошлом писал бота для одной онлайн дрочильни, спиздив алгоритм из OpenCV. Ну и персептрон простейший для ознакомления с нейроночками. Может уже реализованы подобные системы, особенно если попенсорс?
Аноним 09/07/19 Втр 17:02:33 1431067500
datchikprot1-1.jpg (119Кб, 576x433)
576x433
Аноним 09/07/19 Втр 17:06:15 1431070501
>>1431057
> Тем более, на одной сантехнике не заканчивается, ведь может и проводка загорется, и хуй знает еще что.
Датчики задымления и пожарная сигнализация тоже не супертехнологии и их миллион готовых. Зачем тут какие-то сложности с нейроночками, непонятно.
Аноним 09/07/19 Втр 20:36:07 1431165502
А в чем выгода Гугла нахаляву предоставлять любому желающему вычислительные ресурсы? Я про colab, если что.
Аноним 09/07/19 Втр 21:57:22 1431239503
>>1430879
> Хочу сделать свой собственный deepnude
Там как-то иначе надо делать, у этих деятелей хуйня получилась, то пизда поперек, то ещё какая крипота. Идея хорошая, но реализация - шляпа полная.
Аноним 10/07/19 Срд 00:14:55 1431340504
>>1431239
Надо лэндмарки добавлять, мол, тут рисуй пизду, а тут соски
Аноним 10/07/19 Срд 19:27:08 1431821505
testout1.jpg (57Кб, 512x512)
512x512
testout2.jpg (62Кб, 512x512)
512x512
Аноним 10/07/19 Срд 22:49:10 1431928506
А кто всё-таки заставил их убрать с рынка эту хуйню?
Аноним 10/07/19 Срд 23:19:15 1431945507
Есть ли смысл копаться в старом низкоуровневом говне мамонта, или спокойно залетаешь в Keras и с минимальной отдачей получаешь максимальный результат?
Аноним 10/07/19 Срд 23:35:19 1431955508
Сап. Есть сиамская нейронная сеть. Обучаю её говорить, что на 2 похожих картинках один и тот же объект. Соответственно, на входе 2 картинки и бинарный лейбл, который показывает один и тот же объект на фотках или нет.

Подскажите в каком соотношении лучше ей показывать положительные и отрицательные примеры?
Аноним 11/07/19 Чтв 01:41:38 1432019509
>>1431945
Если хочешь сделать слой, который реализует операцию посложнее тензорного произведения, то придётся лезть в бекенд (чаще всего tensorflow).
Аноним 11/07/19 Чтв 12:35:30 1432317510
>>1432019
Хуйню несёшь. Через керас можно любой слой сделать, в тензорфлоу все тоже сводится к вызову готового класса и подгонке своих параметров.
Аноним 11/07/19 Чтв 12:40:00 1432320511
>>1431955
В любом. С точки зрения сети нет положительных и отрицательных примеров, только лосс. Но, конечно, нужно чтоб были и те и те, лучше в равных количествах, но это нельзя предсказать.
Аноним 11/07/19 Чтв 20:41:18 1432643512
Сап, машинообучатели. Устроился вот летом на практику, и чтобы особо не скучать пошел в питон-нейронки, думаю ознакомиться что это за зверь такой, с чем едят. В общем тестовые задания выполнил отлично, теперь поставили задачу — смоделировать сеть, которая находит в логах приватную информацию и затирает ее. Причем в любых, это не парсер написать под конкретный лог. Появилось несколько вопросов:
1) Есть ли какой-то токенайзер специально сделанный для логов? Ну, fit_on_texts из Keras с подкорректированным фильтром на знаки препинания работает по большей части хорошо (хотя когда в логе встречаются пароли со спецсимволами это уже создает лишние токены и плодит куски данных каждый из которых надо замазать)
2) Я с такими же стажерами определили два подхода: либо это две нейронные сети, первая из которых просто учиться определять, что строка содержит приватные данные, а вторая берет за sample каждое слово в этих строках и определяет что он является персональной информацией или нет. Второй подход это сразу давать сети токены, и учить что vasya@mail.ru, +79319875631 (сколько вообще нужно тренировочных данных, чтобы сеть и почтовые ящики и телефоны и адреса с именами выделило, это вообще возможно, перемножая просто матрицы?) это персональная информация, а системная срань по типу {1876-13905-debug-8951} это нет. По замыслу в первой лучше будет пониматься контекст, а вторая просто научиться находить емейлы, телефоны, имена, что-то что более или менее отличается от строки с тех. датой. Нам сказали что лучше перетереть, чем недотереть, так стоит ли усложнять?
3) Поможет ли в этом деле векторизация слов по типу Word2Vec и так далее. Не вижу пока пользы в обычной задаче бинарной классификации, но может быть вы знаете лучше.

Пишу сюда потому что обучающих статей как-то мало в сети, именно по теме классификации частей предложений, все либо сотый раз мозолят датасет ириса, либо классифицируют всю строку с каким-то sentiment analysis.
Аноним 12/07/19 Птн 09:49:28 1432966513
Аноним 12/07/19 Птн 12:48:06 1433127514
Сап анончики. У меня на работе начался какой-то нездоровый хайп вокруг Pytorch. Сам я делаю нейроночки на tf и мне заебись. Стоит ли перекатываться на торч? Какие подводные? Какие преимущества?
Аноним 12/07/19 Птн 13:01:54 1433140515
>>1432643
Карочи, берёшь какие нибудь эмбедденги для слов, типа word2vec, дальше символы из слова кодируешь one-hot, пропускаешь через embedding lookup table и пихаешь в lstm, если возьмёшь последний выход lstm, то получишь character-level embedding. Дальше конкатенируешь word- и character-level эмбеддинги, и пихаешь в bilstm, на выход bilstm хуяришь dense слой с одним выходом и туда sigmoid cross entropy. Если тренировочных данных прям дохуя, то можно перед bilstm впаять пару 1d свёрток. Изи вин.
Аноним 12/07/19 Птн 15:13:40 1433243516
>>1433140
>lstm
Алё, дедуля, вам место уступить?
Аноним 12/07/19 Птн 16:37:44 1433302517
>>1433243
Поясни-ка за базар, щегол.
Аноним 12/07/19 Птн 17:19:28 1433339518
Аноним 12/07/19 Птн 17:39:22 1433357519
>>1433339
>>1433243
Два зумера-хипстерка один на полгода другого старше спорят чьё смусси крепче.
Аноним 12/07/19 Птн 17:50:29 1433362520
>>1433339
Это ж не seq2seq задача. Или я правда что-то проспал?
Аноним 12/07/19 Птн 23:56:33 1433637521
>>1433362
не обязалово seq2seq, транформер-like сетки нормально умеют эмбеддинги делать (тот же берт можно почитать шоб посмотреть как конкретно - все шо про энкодер), а знач почти под любую задачу

а насчет проспал: ну хз, народ насмотрелся на Sotы на академ датасетаз и теперь думает шо attention реально таки is all you need, хотя для 90% задач это оверкилл жуткий. Аттеншн хорош, когда у тебя длинные сиквенсы (больше 30) и RNN обламывается удержать инфу в hidden'е не расплескав. На практике для большинства практических задач эти транфсормеры ваши нахуй не нужоны - только тренятся ахулиард лет и оверфитятся только в путь
Аноним 13/07/19 Суб 23:18:59 1434459522
>>1406660 (OP)
Почему б не написать ИИ, хорошо играющий в покер и поднимать на этом бабке в онлайне?
Аноним 13/07/19 Суб 23:42:41 1434487523
>>1432643
написать что-то типо re.sub([/w]@[/w], '',text)?
Или NER сделать/взять готовый, типо Spacy/Stanford
Аноним 14/07/19 Вск 00:59:38 1434525524
>>1433140
Спасибо за развернутый ответ, у меня осталась пара вопросов.
1) One-hot кодирование и Embedding Lookup Table это все нужно только для подготовки эмбединга? У Gensim есть функция чтобы сделать словарь, и после этого модель Word2Vec уже тренируется, видимо one-hot где-то внутри происходит и не нужно отдельно его генерировать.
2) Я правильно понял что модель на входе будет получать вектор каждого слова, внутри будет создавать character-embedding для этих слов, соединять два эмбеддинга и на output я вообще не представляю как это делается внутри, но, наверное, это вопрос на другой раз будет идти ответ — является ли слово приватной информацией, согласно тренировочным данным. Значит в датасете нужно залейблить каждое слово, так?
Аноним 14/07/19 Вск 07:34:22 1434583525
>>1433140
Нихуя не понял. Какой-то бред. Нахуя пропускать one-hot кодированные символы через эмбендинги для полных слов? Какого хуя ты получишь символьные эмбендинги из лстм если это вообще продукт свёртки? Сам то понял что написал?
Аноним 14/07/19 Вск 07:51:07 1434589526
>>1434525
Я удивлен, что каким-то образом тебе удалось самому выделить хорошую идею для формата инпута из этого набора слов. Но это полная хуйня. То, что там написано даже не относится к самой сетке. Тебе просто напросто насрали на лицо непонятными терминами для препроцессинга и потом предложили использовать лстм. Я посоветую тебе использовать любые ембенденги и засунуть их в иерархическую сетку для классификации текста. Сам я не нашел конкретной статьи но видел лекцию. Хуй найдешь поди. Если сложно разбираться, то без проблем можешь использовать и лстм и атеншн, вообще у тебя ведь задача сделать, а не добиться прорывных результатов.
Аноним 14/07/19 Вск 14:57:17 1434885527
Аноним 14/07/19 Вск 17:20:51 1435040528
>>1434525

Смотри, у тебя основная проблема будет заключаться в том, что 99% личной инфы, при трансформации в вектора с помощью word2vec, будет сконверчено в OOV, так как этих слов не будет в словаре. Соответственно, если учить сетку на на таких векторах, то она научится помечать все OOV слова как личную инфу. А значит точность у тебя будет плохая.

Поэтому тебе нужно сделать как-то так, чтобы сетка принимала решения на основе и структуры предложения и структуры слова одновременно. Для этого я предлагаю тебе кроме word2vec эмбеддингов подавать сетке и символы из которых состоит слово. Но просто символы в виде тех же ascii кодов подавать нельзя, их надо как-то закодировать в вектора. Мы будем кодировать их one-hot, и дальше выбирать соответствующую строку матрицы эмбеддингов. Матрица эмбеддингов символов будет тренироваться в процессе тренировки сети. В tf это все делается с помощью tf.nn.embedding_lookup.

Теперь у нас возникает новая проблема - надо как-то из n векторов, которые получились из букв сделать один вектор слова. Для этого мы пропускаем эти n векторов через lstm и берем последний выход. В нем будет вся инфа о символьном представлении слова.

Дальше мы конкатенируем word2vec представление слова и выход нашей lstm. Теперь у нас есть и глобальный и локальный контекст. Его мы можем засунуть в bilstm. Выход bilstm будет бОльшей размерности, чем нам нужно, мы можем уменьшить ее с помощью dense слоя. На выходе dense слоя у нас будет logit, который если пропустить через сигмоид, покажет нам вероятность того, что данное слово является личной инфой. Очевидно, что в тренировочном датасете все слова с личной инфой должны быть помечены, иначе ты не сможешь тренировать.

word2vec ты не тренируешь, а берешь уже готовые эмбеддинги.

По размерам входов и выходов. На вход идет [batch_size, max_sentence_len, word2vec_vector_size] - предложения, закодированные в word2vec и [batch_size, max_sentence_len, max_word_len] - символьные представления. Если решишь самостоятельно кодировать one-hot, то добавится еще одно измерение.

Последний выход lstm будет [batch_size, max_sentence_len, lstm_cell_size].

Выход bilstm [batch_size, max_sentence_len, bilstm_cell_size]

После dense слоя [batch_size, max_sentence_len, 1]. Тебе надо будет убрать последнее измерение. В tf это делается с помощью tf.squeeze.

Как-то так.
Аноним 14/07/19 Вск 17:25:39 1435045529
>>1434589

> не нашел конкретной статьи но видел лекцию
> Если сложно разбираться
> без проблем можешь использовать атеншн

Блядь, я даже не знаю, что тебе ответить.
Аноним 14/07/19 Вск 19:15:41 1435149530
>>1435040
Если брать Keras LSTM(return_sequences=False), он вернет 2 измерения, и можно пихать после него dense и activation

Аноним 15/07/19 Пнд 18:57:01 1436160531
15615624023330.png (277Кб, 872x916)
872x916
Вы тута в эмбеддингах понимаете штоле? Вот смотрите, допустим есть готовый эмбеддинг. На его основе нужно сделать другой, где каждый элемент первого эмбеддинга должен быть представлен вектором, компоненты которого - расстояния между текущим элементом эмбеддинга и всеми остальными. Однако же, размерность такого вторичного эмбеддинга будет равна количеству элементов первого, что в итоге просто поставит раком любой кудахтер, ибо элементов в эмбеддинге может быть и миллиард. И что делать?
Аноним 15/07/19 Пнд 22:38:25 1436387532
>>1436160
Ты придумал какой-то странный эмбеддинг. Зачем тебе такой нужен?
Аноним 16/07/19 Втр 07:18:19 1436539533
>>1436387
Есть одна задача, для которой нужны именно расстояния между элементами эмбеддинга. Это связано с лингвистическими регулярностями в NLP. Вот я и подумал, что вместо эмбеддинга будет удобнее работать сразу с такой структурой. Конечно, можно считать расстояния по мере надобности, как это и делается в лингвистических регулярностях, но считать все равно придется их все, т.к речь о сравнении их структуры на всем эмбеддинге. И вот, получается что это невозможно.
Аноним 16/07/19 Втр 15:19:05 1436785534
>>1432317
Удачи сделать вычисление главного собственного значения.
Аноним 16/07/19 Втр 16:49:57 1436862535
Вот такой вот вопрос, сколько нужно количество нейронов в нейронке, чтобы научить ее предсказывать sin()?)
Аноним 16/07/19 Втр 17:09:15 1436878536
>>1436539

А расстояния не до всех элементов, а только до элементов минибатча не подойдут?
Аноним 16/07/19 Втр 22:19:23 1437153537
Про Яндекс рассказывают, что там набирают юных ботанов за низкую цену, унижают их, чтобы они лучше старались. А ботаны, стиснув зубы, терпят унижения, чтобы накопить опыт и сбежать в норм контору.

Это правда?

А как Яндекс держится? Неужели только силами временных ботанов вся корпорация держится?
Аноним 16/07/19 Втр 22:27:56 1437160538
>>1437153
З.Ы. Когда гуглю про машинное обучение, то кругом контекстная реклама Яндекса: пройди курсы Воронцова по анализу данных, помоги интеллектуальной системе Яндекса решай задачи за центы на Яндекс.Толока и т.д.
Аноним 16/07/19 Втр 22:31:13 1437169539
>>1437153
В таком бизьнесе основное правило: шохи, что метят выше, терпят низкую зп ради опыта и потом уходят выше если повезёт, а к тем кто приходит спускаясь из места покруче отношение и зп уже другие.
Аноним 16/07/19 Втр 22:47:27 1437189540
>>1437169
То есть они изредка при наступлении крайней необходимости выманивают деньгами людей из мест покруче?
Аноним 16/07/19 Втр 23:12:11 1437212541
>>1437189
Да даже выманивать не надо, один из стандартных путей стремящегося шохи: перебираться из конторы в контору наверх, добравшись до этого верха поработать там пару годиков, и пойти искать чего попроще.
Аноним 17/07/19 Срд 04:41:34 1437325542
>>1436878
> А расстояния не до всех элементов, а только до элементов минибатча не подойдут?
Не, нужно именно по всему эмбеддингу.
Аноним 17/07/19 Срд 06:09:16 1437336543
>>1436878
> А расстояния не до всех элементов, а только до элементов минибатча не подойдут?
Я вот подумал, если такое расстояние, или расстояние между элементом и скажем 10 ближайшими к нему, возможно получить, то расстояние между двумя произвольными элементами эмбеддинга можно вывести как композицию расстояний 1 - х1, х1 - х2, ... , хn-1 - xn, xn - 2, где 1 и 2 - элементы, расстояние между которыми нужно получить, х* - самый дальний из элементов, ближайших к предыдущему. Такое расстояние будет не по прямой, но мб это некритично. И во всяком случае не требует эмбеддинга, размерностью в миллиарды.
Аноним 19/07/19 Птн 00:45:56 1438577544
Использую Pytorch. Если ставлю в Dataloader'е num_workers больше, чем 0, то работает в несколько раз дольше.
Работаю в linux, cuda есть. Сами вычисления нормально работают на GPU. Не понимаю почему не распараллеливается подгрузка данных.
файнтюнинг GAN Аноним 19/07/19 Птн 13:56:37 1438740545
А есть здесь нейрогоспода, кто в режиме платных консультаций поможет мне зафайнтюнить BigGAN или ProGAN?
Вычислительная платформа - Google Cloud Platform.
Аноним 19/07/19 Птн 19:30:43 1439054546
>>1406660 (OP)
ананон помогай. делаю на java + opencv Вообщем, надо получить ключевые точки лица -landmarks . Сдетектить лицо получилось. Переписал https://github.com/spmallick/learnopencv/blob/master/FaceDetectionComparison/face_detection_opencv_dnn.cpp
Как теперь получить landmarks, точнее Mat или хотя бы blob с координатами. Можно, как то запилить под свои нужды модель от сюда https://github.com/lsy17096535/face-landmark.? Типа нейронка + нейронка(без dlib).


Аноним 19/07/19 Птн 19:31:49 1439056547
Аноним 20/07/19 Суб 17:23:33 1439533548
Сап, пытаюсь запилить одну вещь для себя, используя простой перцептрон. Книжки пока не осилил, поэтому, у меня есть два вопроса:

1. Есть ли разница, в каком диапазоне нормировать значения, продаваемые на входы (например, обязательно нужно (0 ; 1) или можно например (-0,5; 0,5))? Второе просто больше подходит по смыслу.

2. Большинство входов нейросети получают одно из шести дискретных значений, которым я присвоил произвольные числовые значения. Подозреваю, что это хуйня и нужно увеличивать количество входов (6 вместо одного) и подавать на каждый вход ноль или единицу.

Также, посоветуйте, книжку, где есть ответы на мои вопросы, я тупой, поэтому, если есть, на русском


Аноним 20/07/19 Суб 18:13:53 1439574549
>>1439533
>1. Есть ли разница, в каком диапазоне нормировать значения, продаваемые на входы (например, обязательно нужно (0 ; 1) или можно например (-0,5; 0,5))? Второе просто больше подходит по смыслу.
Теоретически не нужно, практически приходится. Зависит от наличия дропаутов и прочих l2 регуляризаций, от датасета, от характера задачи. Короче, мошон лёрнинг типичный, нужно или нет познаётся только trial/error методом.

>2. Большинство входов нейросети получают одно из шести дискретных значений, которым я присвоил произвольные числовые значения. Подозреваю, что это хуйня и нужно увеличивать количество входов (6 вместо одного) и подавать на каждый вход ноль или единицу.
Теоретически не нужно, практически обязательно. Если нет соображений что от этих дискретных значений что-то должно зависеть не сильно нелинейно.
Аноним 20/07/19 Суб 19:27:16 1439608550
>>1439574
Спасибо, буду пробовать увеличить кол-во входов.
Аноним 20/07/19 Суб 21:10:25 1439643551
>>1430229
Я бы охотно взял 1080ti, только их же не сталось нихуя.
Аноним 20/07/19 Суб 21:11:46 1439645552
>>1429570
Ну ведь и правда лучше человека.
Аноним 20/07/19 Суб 21:19:48 1439649553
Прошёл я значит такой пару курсов по МЛ в инторнетах, выполнил задания из разряда
x_train, y_train, x_test, y_test = mlcourse.helpers.prepare_data()
reg = LinearRegression(...) # здесь какие-то подобранные за 10 прогонов параметры
reg.fit(x_train, y_train)

Получил reg.score 0.9999, сказал "аа, ну дадада, всё понятно". Пошёл применять те же самые рандом форесты на простеньких (как мне казалось) датасетах, котоые предварительно не облапал своими грязными ручёнками автор курса. И всё, RMSE over 9000, reg.score 0.1488.

Хуйня, короче, все эти курсы. Есть какая-нибудь нормальная коллекция реальных задач (с сырыми данными) и вменяемых (без kaggle-style тюнига) решений?
Аноним 20/07/19 Суб 22:12:32 1439675554
origf45c5fcee72[...].png (179Кб, 1050x708)
1050x708
Аноним 22/07/19 Пнд 17:42:56 1440495555
>>1439649
Это что за простенький датасет у тебя?
Аноним 22/07/19 Пнд 20:34:21 1440633556
Аноним 08/08/19 Чтв 19:13:25 1449955557
Настройки X
Ответить в тред X
15000 [S]
Макс объем: 40Mб, макс кол-во файлов: 4
Кликни/брось файл/ctrl-v
Стикеры X
Избранное / Топ тредов