Главная Настройка Mobile Контакты NSFW Каталог Пожертвования Купить пасскод Pics Adult Pics API Архив Реквест доски Каталог стикеров Реклама
Доски


[Ответить в тред] Ответить в тред



<<
[Назад][Обновить тред][Вниз][Каталог] [ Автообновление ] 509 | 44 | 179

НЕЙРОНОЧКИ И МАШОБ ТРЕД №? Аноним 18/01/18 Чтв 17:35:37  1121858  
1.png (148Кб, 1152x768)
2.jpg (157Кб, 1390x986)
3.jpg (66Кб, 802x478)
4.jpg (81Кб, 640x713)
Очередной тред про нейроночки.

Что почитать для вкатывания? http://www.deeplearningbook.org/
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ https://halite.io/ https://www.general-ai-challenge.org/
Где работать? https://www.indeed.com/jobs?q=deep+learning&l=
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/
Где посмотреть последние статьи? http://www.arxiv-sanity.com/

Предыдущий тред: >>1105498 (OP)

Предлагаю переписать шапку, добавив ответов на платину, дедовских и свежих книг и, возможно, списки статей
Аноним 18/01/18 Чтв 17:41:11  1121867
уже нимодно
Аноним 18/01/18 Чтв 18:13:44  1121904
уноси это говно мамонта.
щас блокчейны в моде
Аноним 18/01/18 Чтв 19:08:06  1121935
изображение.png (221Кб, 648x526)
интересно, а что если интегрировать нейроночки, в малварь? В червя например
самообучающийся, полиморфный червь, избегающий слива сигнатур и не поддающийся обнаружению
Аноним 18/01/18 Чтв 19:48:00  1121952
>>1121858 (OP)
>2018
>нейронки
Ты бояры объебался что-ли? Где блокчейн-тред?
Аноним 18/01/18 Чтв 20:10:41  1121966
>>1121904
> щас блокчейны в моде
>>1121952
> Ты бояры объебался что-ли? Где блокчейн-тред?
Причём тут опущейн ваш, дегенераты? Вы даже не знание, что это.
Аноним 18/01/18 Чтв 20:21:20  1121979
>>1121858 (OP)
Никто не будет читать простыню в шапке. Все, что нужно, сейчас есть: единственная книга, стоящая времени на ее прочтение, и архив-санити со статьями. Платину расписывать бессмысленно, т.к. все равно будут спрашивать.
Аноним 18/01/18 Чтв 20:22:27  1121981
>>1121935
Блокчейн интегрируй. С дампом в 15 Гб его ни один антивирус эвристить не будет.
Аноним 18/01/18 Чтв 23:23:45  1122094
Киньте репозиторий с готовыми моделями на керасе типа
def mod1(...):
...
model.compile(...)
return model
Аноним 19/01/18 Птн 00:35:30  1122160
>>1121858 (OP)
Хайп уже сдувается, все пишут смарт-контракты и блокчейн на эрганге и голом железе.
Ты думаешь почему не перекатывали, маня?
Аноним 19/01/18 Птн 00:41:20  1122163
>>1121858 (OP)
Пока ты дрочишь свои манянейронки, всякие заки уходят нахуй из разработки блокчейн технологий, только потому что их не устраивает зп в сотни к баксов в месяц
https://github.com/zack-bitcoin/amoveo/blob/master/docs/why_I_left.md
Аноним 19/01/18 Птн 00:45:45  1122165
>>1121979
Но текущая шапка действительно сосёт. Выполнена максимально на отъебись.
Аноним 19/01/18 Птн 00:46:04  1122167
>>1121904
>>1121952
>>1121981
>>1122160
>>1122163
Сём, плиз.
Аноним 19/01/18 Птн 00:49:25  1122171
>>1122167
Мои тут два последних поста второй с пруфом
Нахуй мне бы вообще всралось форсить тут блокчейны и семенить, как и остальным, ты ебанутый?
Аноним 19/01/18 Птн 00:50:00  1122173
Capture.PNG (50Кб, 797x928)
Отлепилось
Аноним 19/01/18 Птн 00:58:27  1122175
>>1122165
Можешь сделать свою, посмотрим будет ли лучше. По-моему она вообще не важна, можно просто сократить до "Очередной тред про нейроночки." Все остальное постеры либо уже знают, либо оно им не нужно/не поможет.
автор текущей шапки
Аноним 19/01/18 Птн 01:22:45  1122188
Screenshot20180[...].png (70Кб, 826x500)
>>1122171
Проиграл с этого "пруфа".
Аноним 19/01/18 Птн 03:17:51  1122231
посаны, поясните за Nument-у и ее HTM модел и как ее обучать? Из всего я лишь понял что они как-то кодируют входные данные в длинные избыточные последовательности нулей и единиц. Почему такие модли не могут в CIFAR, хотя MNIST смогли? Мешает фон? Что с этим делать?
Аноним 19/01/18 Птн 03:51:31  1122240
>>1122188
Ну да, мне ведь так важно засеменить опа-хуя что я полезу менять хтмли двача.
Вернись в б, плиз
Аноним 19/01/18 Птн 04:49:49  1122250
>>1122240
Люди делают и более странные вещи ради более глупых целей. Так что меня бы это совершенно не удивило. Более того, сам факт того, что ты счел нужным скринить свои посты ради какого-то пруфа неизвестно чего, делает такое объяснение наиболее вероятным. Т.е. создалась такая парадоксальная ситуация, когда запостив пруф ты только убедил всех еще больше в своей виновности.
Аноним 19/01/18 Птн 05:07:08  1122253
>>1122250
Мань, из чистого двачеблагородства я тебе посоветовал осваивать нормальные вещи на которые скоро будет спрос, через пару лет крутильщики ползунков гиперпараметров пойдут на свалку. А ты уже каких-то манятеорий себе напридумывал, да и еще мой скриншот под свои выдумки подогнал. Более того сам факт твоей фантазии делает объяснение, что ты не способен объективно воспринимать реальность, наиболее вероятным. И даже когда прямо тебя попросят пройти на помоечку, ты таки не сможешь понять что твои нейроночки уже даже сейчас никому не нужны, а будешь под это строить очередной свой манямирок.
Аноним 19/01/18 Птн 10:24:38  1122298
>>1121817
>у меня есть, скажем, PSD макет или просто изображение мокапа страниц и я хочу этот мокап представить в виде жсона (точнее представление уже есть, просто надо научить этому комп)
>например:
>Изображение ->
>{
>Form1:{
>children:[{
>Button_1...,
>TextField1...,
>}]
>}
>}
>
>Т.е представить страницу в виде древовиднойструктуры

кто чем может, дайте инфы
знаю проекты типа pix2code, но там рендерится сразу страница, а мне бы кастомный объект, чтобы в редакторе на работе открыть.
Спасибо.
Аноним 19/01/18 Птн 10:31:00  1122299
>>1122253
Очень неумело траливанишь. Рекомендую пройти шестимесячную подготовку в /b/, а потом возвращаться.
Аноним 19/01/18 Птн 10:46:17  1122302
>>1122298
pix2code ровно это и делает. Ты бы хоть статью прочёл для начала. Естественно, под твою задачу тебе придётся тренировать свою модель.
Аноним 19/01/18 Птн 10:49:49  1122303
>>1122302
сорян
да, ты прав
ступил.
только по идее он не умеет во вложенные объекты
только в плейн.
Аноним 19/01/18 Птн 10:50:21  1122304
>>1122302
просто думал, что может есть другая модель для такой задачи
+ мне компилятор не нужен, чисто структуру выдавать.
Аноним 19/01/18 Птн 10:52:49  1122305
>>1122302
короче я даун, пошел читать статью
сложновато будет, конечно.
быстрый вопрос
гугл бесплатно предоставляет мейнфрейм? а то у меня комп на работе слабоват для МЛ.
Аноним 19/01/18 Птн 11:05:33  1122307
>>1122305
300$ там при регистрации на счёт кладут. Возможно, этого хватит.
Во вложенные объекты оно умеет. Насколько хорошо - сам посмотришь. Я бы на твоём месте скачал их модель и подергал на своих примерах, чтобы понять примерно возможности.
Аноним 19/01/18 Птн 11:08:40  1122309
>>1122307
ну да, спс
просто опыта у меня в МЛ ноль
я веб макака, просто у нас проект типа кайнд оф билдер сайтов для бизнес-аналитиков
так я прям загорелся идеей заюзать похожую штуку, только чтобы с нашим DSL приложения.
годнота была бы.
Аноним 19/01/18 Птн 11:23:37  1122313
team.01d60ddd.jpg (263Кб, 1531x1024)
>>1122309
Опыт в МЛ на деревьях не растет, именно так ты его и получаешь. Пробуй, смотри что и как. Бекграунд по первой ссылке в шапке, если зайдешь в тупик.

По возможностям в МЛ: смарите на этих чуваков, сделавших pix2code (пикрел). Они сделали хорошую работу на хайповую тему (все же обсуждали, как ИИ отнимет у всех работу), написали статью. Это взлетело, они уже организовали конторку под это дело (uizard), походят сейчас на конференции, туда-сюда, и их купит какой-нибудь гугл за 100млн. Это бабло делится на 4 основателей, и вот они уже в свои 20-30 лет могут больше не работать ни дня. Вот так куются бабки в силиконовой долине. Ради этого можно не спать ночами, красноглазить на хакатонах и проч.
Немного грустно, что нам с вами максимум от этого пирога светит Н1В рабство за 100к, да и то лишь для 0.1% самых лучших, пробивных и удачливых. Но такова уж наша орочья доля.
Аноним 19/01/18 Птн 11:32:33  1122315
>>1122313
ну отнять то вряд ли отнимет.
но для прототипов пойдет точно.
пока только ИИ в го победил.
Аноним 19/01/18 Птн 11:33:08  1122316
>>1122313
бтв
ни работать и дня не очень.
я бы с ума сошел без работы.
Аноним 19/01/18 Птн 11:35:13  1122317
>>1122313
> Ради этого можно не спать ночами, красноглазить на хакатонах и проч.
так это все, обычно, не ради бабок делается, а ради интереса/for fun
ставить целью бабки это изначально угробить мотивацию
Тебе должно быть пиздец интересно то, что ты делаешь иначе никак
Аноним 19/01/18 Птн 11:47:49  1122324
>>1122315
Конечно, не отнимет. Как самый максимум эта штука внешний вид интерфейса может оформить, но как это все должно работать кто-то все равно должен кодить.

Про не работать: я не имел в виду сидеть на диване. Независимость от работы переводит тебя из рабочего класса в буржуи. Это реально другой мир. Ты обретаешь полную свободу, делаешь что хочешь. Хочешь - работаешь, но опять же только там, где тебе самому нравится. Захотел, не знаю, написать книгу или научиться играть на скрипке, или пройти весь pacific crest trail, забраться на Эверест, съездить в Антарктиду, пожить в тибетском монастыре и выучить тибетский язык, вообще все что тебе в голову взбредет - пожимаешь руки своим коллегам-батракам и просто идешь и делаешь. Весь мир твой. Как если бы в ММО ты из НПЦ превратился в игрока. Это головокружительная перспектива.
Аноним 19/01/18 Птн 12:09:05  1122339
>>1122324
ну так-то да. Тут не поспоришь.
Да и, в принципе, можно как цукербрин, сидеть работать сколько хочешь и норм.
Аноним 19/01/18 Птн 12:16:27  1122340
>>1122313
>Немного грустно, что нам с вами максимум от этого пирога светит Н1В рабство за 100к, да и то лишь для 0.1% самых лучших, пробивных и удачливых. Но такова уж наша орочья доля.
Рашка в жопу говна заливает? Вон недавно гугл купил беларуский стартап по нейроночкам.
Аноним 19/01/18 Птн 12:23:22  1122344
>>1122340
ну это при условии что ты умен, талантлин и не проебал время/мотивацию в шараге.
Аноним 19/01/18 Птн 12:33:15  1122347
>>1122340
Ничоси, почитал про AIMATTER. Но уверен на 100%, это не такая простая контора.
Например, см. здесь:
https://techcrunch.com/2017/01/13/fabby-grabs-2m/
>The seed round of funding was led by Haxus Venture Fund. Haxus knows what it is doing in terms of image filter apps: it’s known for previously funding the MSQRD & Prisma filters, and was co-founded by Yuri Gurski. Fabby was co-founded by Yuri Melnichek (the founder of Maps.me).
(Fabby = AIMATTER)

https://techcrunch.com/2017/08/16/google-acquires-aimatter-maker-of-the-fabby-computer-vision-app/
>AIMatter had people working in Minsk, the Bay Area, and Zurich (Switzerland being particularly strong in computer vision tech, see here, here, and here). It’s not clear yet if the staff will stay where they are now or relocate elsewhere, or what else they will be working on for Google.)

Из этого следует, что основатели сами из тусовки в Долине, а в Беларуси у них просто галеры.
Аноним 19/01/18 Птн 12:43:14  1122349
>>1122347
в беларуси образование говнище просто.
если ты со школы в олимпиадки не вкатывался, то отупеешь в универе хуже некуда.
и мотивацию потеряешь.
Аноним 19/01/18 Птн 12:43:45  1122350
hcwa14a4ixa01.png (1876Кб, 1024x1024)
Сгенерированные нейроночкой картины-пейзажи.
Аноним 19/01/18 Птн 12:47:54  1122351
>>1122350
не хочу сказать ничего плохого, но выглядит просто пиздец
с точки зрения искусства полное дерьмо.
Аноним 19/01/18 Птн 13:04:47  1122362
>>1122351
А мне понравилось.
С т.з. Искусства, конечно, нейроночка никуда не годится - у нее же нет никакой идеи, никакого мессаджа, чисто рандомом фигачит, стараясь сделать похожую картинку. Но стиль ничо так выходит.
Аноним 19/01/18 Птн 13:09:13  1122364
>>1122362
какой-то адекватный тред
уже 20 минут, а меня еще нахуй не послали.
посижу тут еще.
Не, так-то да, акварель какая-то.
Аноним 19/01/18 Птн 13:09:39  1122365
>>1122362
по крайней мере, лучше меня рисует.
Аноним 19/01/18 Птн 15:57:55  1122439
Чем тюнить гиперпараметры? Хочу только ввести диапазоны, количество итераций и сплитов, нажать на кнопочку и чтобы программа сама сперва равномерно тыкалась, а потом искала максимум где-то рядом с лучшими результатами.
Аноним 19/01/18 Птн 16:03:39  1122443
>>1122347
Ну ключевые фигуры: Гурский и Мельничек обычные бульбаши, просто работали и на всякие гуглы прежде чем придти к успеху. Они кстати еще не так давно продали maps with me майлу, отличные карты кстати.
Так что и у орков есть шансы
>>1122344
>ну это при условии что ты умен, талантлин и не проебал время/мотивацию в шараге.
Как будто к стартапам в долине это не относиться.

>>1122349
>если ты со школы в олимпиадки не вкатывался, то отупеешь в универе хуже некуда.
Не согласен, я сам был олимпиадником(неуспешным), мне это привило такое отвращение к алгоритмам из-за этих ебанутых надуманных задач, что я только спустя 5-6 лет начинаю получать интерес читая и реализуя какой-нибудь хитрый алгоритм.
Аноним 19/01/18 Птн 16:51:45  1122461
>>1122362
>у нее же нет никакой идеи, никакого мессаджа, чисто рандомом фигачит
Лол, ты думаешь черный квадрат Малевича был рождён иначе?
Аноним 19/01/18 Птн 19:22:51  1122511
А почему цвет картинки не представляют 256 картами и значениями в них 1 или 0, а используют float от 0..1 ? Т.е. получается чтобы описать картинку и подать на вход сети надо 3x256 карт. По идее сходимость должна быть намного быстрее.
Аноним 19/01/18 Птн 20:25:14  1122534
>>1122461
За черным квадратом стоит большая идея, просветись.
>>1122511
Потому что цвета непрерывны. Близкие интенсивности кодируются близкими значениями. В твоем случае сходимость будт очень медленной, т.к. нейроночке придется узнавать, что черный и почти черный близки друг к другу.
Аноним 19/01/18 Птн 20:27:09  1122536
>>1122439
Методов и либ миллион, ищи на гитхабе. Лично мне всегда было неудобно втискивать свой код в эти фреймворки, и я каждый раз делал свое.
Аноним 19/01/18 Птн 21:40:15  1122575
>>1122534
>Потому что цвета непрерывны.
Хорошо, давай тогда объединим все 3 цвета в один и сделаем только одну входную карту.
Аноним 19/01/18 Птн 23:29:01  1122644
>>1122313
что ж ты сделал. меня теперь гложит зависть
Аноним 19/01/18 Птн 23:45:57  1122650
>>1122575
Я не понял, что ты предлагаешь, но в любом случае обосновывать почему это лучше придется тебе.
Если уж заниматься улучшательством, то можно перевести цвета в более осмысленную кодировку, например в HSV или специально задизайненную для этой цели. Но это на самом деле не нужно, слишком низкоуровневое преобразование. Нейроночка такое прекрасно может сделать сама.
Аноним 19/01/18 Птн 23:50:25  1122652
>>1122644
Я им завидую, но по-белому. Рад за них. Это ведь очень хорошо, когда есть такие возможности у ученых, обогатиться на собственной работе. В какой еще области ты, делая исследования, можешь стать миллионером? Именно в Долине общество приблизилось к идеалу, награждая людей пропорционально вкладу.
Аноним 19/01/18 Птн 23:56:19  1122656
>>1122650
Я предлагаю обосновать, почему данные именно в РГБ формате, а не в битовом как-то запихиваются в сеть. Ведь сети всегда удобнее оперировтаь дискретными данными 0 или 1.

И еще интересен вопрос почему гугл капча пихает картинки с ветринами и мостами, сеть их плохо распознает? На сколько я видел сегментация любых объектов для автопилота проходит неплохо с любыми объектами.
Аноним 20/01/18 Суб 00:04:27  1122658
>>1122656
Потому что это неплохой формат в данном случае. Непрерывные величины из заранее заданного диапазона тоже вполне хорошо оперируются.

Как конкретно работает рекапча это секрет гугла.
Аноним 20/01/18 Суб 00:13:04  1122664
>>1122658
>Как конкретно работает рекапча это секрет гугла.
Я не спрашиваю секрет это или нет, я спрашиваю в чем сложность распознавания того что он выдает.
Аноним 20/01/18 Суб 00:19:40  1122668
>>1122664
Из того, что мне попадалось, там бывают очень сложные случаи, где знаки сливаются с фоном, где они мелкие и нечеткие. Но это все гадания. Может быть, никакой особой сложности нет.
Аноним 20/01/18 Суб 02:42:55  1122708
>>1122650
>Нейроночка такое прекрасно может сделать сама
Может, но захочет ли, если её специально не учить. Вот это я не понимаю. Из чего нейронка догадается, что конвертацию в HSV делать эффективнее? Как это следует из статистических данных выборки обучения?
Аноним 20/01/18 Суб 02:52:13  1122712
>>1122708
Например, ты учишь нейроночку отличать яблоки от апельсинов по фотографиям. Тогда из данных нейроночка установит, что ответ зависит от тона, в некоторой степени от насыщенности, но не от яркости. Вот на фильтрах первых слоев и появится соответствующее преобразование. Конечно, это не будет именно HSV, но нечто подобное ему.
Аноним 20/01/18 Суб 03:08:17  1122714
>>1122712
Так это надо сначала учить на оттенки на специальном датасете, а потом обученные слои переносить на котиков, например. Кто-нибудь так делает? Не думаю. Ну, претренированные сети используют конечно, на несчастном Imagenet, там всего 1000 классов.
Я так понял сеть изначально ленивая, если научилась котов детектить например по ушам - дальше не учится, на другие признаки плевать. Потому что нет сигнала ошибки - нет обучения.
Аноним 20/01/18 Суб 03:37:28  1122718
>>1122714
У тебя наивные представления о том, как работают нейроночки. Почитай книгу из шапки для более детального понимания.
Аноним 20/01/18 Суб 03:40:32  1122719
horse2zebra.gif (7506Кб, 448x128)
Еще вам пример работы ГАНчика (гифка).
Аноним 20/01/18 Суб 15:12:17  1122849
>>1122718
У него небось и искусственный интеллект уже полноценно существует в голове, и нейронки сами догадываются, как им учиться.
Ленивая сеть, мда. Сеть - это не человек, она не может быть ленивой, трудоспособной, угрюмой, дружелюбной и так далее. Она может быть только в разной степени эффективной.
Аноним 20/01/18 Суб 16:50:48  1122882
>>1122849
Объясняю мысль. В первую очередь классификатором выделяются сильные и простые признаки. Например, для леопарда - это пятна. По ним легко и просто определить его. Сеть учится выделять пятна. Все, леопарда узнаем в 100%. Значит на леопарде нет сигнала ошибки, градиенты по нолям, веса не меняются, другие признаки леопарда не выделяются. Все выглядит прекрасно, пока мы не подаем на вход Леонтьева в леопардовых трусах. Так понятнее?
Аноним 20/01/18 Суб 17:22:02  1122904
>>1122849
Нужно не прочесть ни одной книги чтобы не знать что такое ленивость, жадность и угрюмость алгоритма. Для 2018 это достижение, так держать!
Аноним 20/01/18 Суб 19:04:29  1122975
>>1122882
Я тут вспомнил, что для борьбы с этим уже придумали dropout.
Ладно, изобретаю нейронку дальше.
Аноним 20/01/18 Суб 19:18:13  1122979
Можете что по выч.методам порекомендовать почитать?
Аноним 20/01/18 Суб 20:04:06  1123008
>>1122882
Она не пятна учится выделять, а циферки на входе.
Аноним 20/01/18 Суб 20:04:33  1123009
>>1122904
Так он это в антропологическом смысле говорил.
Аноним 21/01/18 Вск 05:08:14  1123157
https://numenta.com/

Кто что думает? Почему еще нет впечатляющих результатов от них? Чего им не хватает?
Аноним 21/01/18 Вск 05:08:56  1123158
>>1123157
Работающей теории.
Аноним 21/01/18 Вск 06:35:46  1123160
Есть что почитать по теме?
Ссылки в ОП-посте не предлагать, там всё на собачьем.

Реализация того покерного алгоритма, который уже давненько тестили на профессионалах, не появилась в открытом доступе?
Аноним 21/01/18 Вск 16:45:00  1123390
>>1123160
Читай хабр, быдло.
Аноним 21/01/18 Вск 17:06:56  1123414
ПОДСКАЖИТЕ, ПОЖАЛУЙСТАВот в scikit-learn есть функция linearRegression. Всё отлично, она работает. Выдает значения точек.

Но я так и не понял, можно ли чтобы данная функция показала какое уравнение графика у неё получилось в результате обучения? Например, получилась прямая и можно ли как-то получить уравнение прямой?
Аноним 21/01/18 Вск 17:33:07  1123466
>>1123414
coef_
Аноним 21/01/18 Вск 17:40:12  1123476
>>1123466
Спасибо
Аноним 21/01/18 Вск 23:29:02  1123872
Сап, котаны.

А есть что-нибудь нормальное почитать \ поюзать касаемо синтеза речи?

Да, слышал про tacotron, wavenet и lyrebird, кто-нибудь с этим работал?
Аноним 22/01/18 Пнд 15:56:35  1124356
>>1123414
Чисто дружеский тебе совет: читай документацию. Хотя бы по диагонали.
Аноним 22/01/18 Пнд 22:35:33  1124610
>>1123390
Где конкретно там читать?
Аноним 22/01/18 Пнд 23:17:06  1124627
>>1124356
>дружеский
Тамбовский волк тебе друган.
Аноним 25/01/18 Чтв 09:45:51  1125908
>>1121858 (OP)
В чём можно смоделировать нейронку? Интересуют инструменты наподобие матлабовского Neural Network Tool.
Аноним 26/01/18 Птн 00:08:37  1126426
>>1125908
https://en.m.wikipedia.org/wiki/Comparison_of_deep_learning_software
Аноним 26/01/18 Птн 13:41:11  1126662
>>1121858 (OP)
Что быстрее работает: torch7 или tensorflow? Или есть что-то ещё быстрее из фреймворков? в гугле забанен
Аноним 26/01/18 Птн 19:25:42  1126853
>>1126662
У них немного разные концепции исполнения. Торч (я имел дело только с питорчем) выполняет действия сразу, а тф отложенно. В тф сначала создаёшь граф вычислений, а потом его многократно гоняешь. Задачи, которые хорошо укладываются в модель работы тф, будут там немного быстрее обычно.
В тф недавно сделали immediate mode, который работает как в питорче, но он вроде пока медленный.
Аноним 26/01/18 Птн 22:06:06  1126978
>>1122575
Вообще так и делается в коммерческих сетках - гугли HSV преобразование.
Аноним 26/01/18 Птн 23:48:13  1127049
>>1126853
ТОРЧ
@
ПИТОРЧ

Аха ахаха ахахахаха
Аноним 28/01/18 Вск 07:04:24  1127774
Прибежали в избу дети,
Второпях зовут отца:
«Тятя! тятя! нейросети
Заменили продавца».
Аноним 29/01/18 Пнд 14:08:44  1128623
Аноны, а есть что почитать по мо, на русском?
Аноним 29/01/18 Пнд 16:10:23  1128672
Поясните, в чем суть наебалова отключать физически поддержку видеокарт с производительностью ниже 3.0 (что сделано везде, от никому не нужного матлаба, до суперхайпового слесарьплова)? Разве не лучше хоть какое-то ускорение, чем ничего? Я понимаю, что (((нвидии))) нужно продавать новые видюхи, но всему есть предел. Или нет?
>>1128623
Полезного точно нет ничего. А смысл на русском? Все равно вся матчасть алгоритмов, весь софт, вся документация на английском.
Аноним 29/01/18 Пнд 16:24:27  1128679
>>1128672
Когда нюфаня, английский смущает. Мне бы подвкатиться, что бы общую концепцию понять, тогда язык уже не принципиален, тем более уже привычно, что свежая инфа только на англ, переводить всем лень, тк нахуй никому не надо, гугол транслит чудеса творит.
Посоветуйте для нюфани, хоть на английском.
Аноним 29/01/18 Пнд 16:29:27  1128686
>>1128679
>Мне бы подвкатиться, что бы общую концепцию понять,
Общую концепцию чего? Глубоких нейросетей, точнее сверточных, т.к. другие глубокие архитектуры уже не в моде? Педивикия, хабр, на ютубе лекций полно.
Аноним 29/01/18 Пнд 19:50:23  1128789
Короче вчера решил вкатываться в ваш data science, мш, биг дата. Тока начал смореть курсы на курсере Ына и от яндекса и мфти. Интересует есть тут кто то кто устроился на работку в этой сфере? Реально ли самому заработать авторитет на кэгле и устроится на работу показав работодателю место? Насколько много матана? Могут ли устроится туда не матемаматики а так сказать те кто только калькулус могут, типа знать определения, численные методы, решать уравнения и знать неплохо тервер и матстат но не могут доказывать теоремы и не обладают сильным математическим бэкграундом например не знать что положительная однородность Риманова многообразия реализующая гладкие метрики Гильберта в k-ой точке соответствует разложению векторного пространства на Лежандра?
И еще что почитать, посмотреть на тему нейронок?
Аноним 29/01/18 Пнд 23:30:15  1128953
>>1128672
>с производительностью ниже 3.0
че
Аноним 30/01/18 Втр 00:35:02  1128981
>>1128789
Вкатился как дата инженер потом буду в дата саинс перекатыватся
Аноним 30/01/18 Втр 07:27:14  1129028
>>1128953
> че
Что-то там capability. Пишет, что надо 3.0 и выше. Если меньше - бреешься, gpu работать не будет нигде, от матлаба и микрософта cntk до слесарьплова. На сайте нвидии есть таблица, сколько у каждой видюхи. Максимум вроде 5.5 но это всякие Теслы. Поддержку ниже 3.0 отключили все, как по указке сверху. И мне кто-то будет говорить, что нет сговора производителей.
Аноним 30/01/18 Втр 09:35:26  1129049
>>1129028
>производительностью
>capability
Ебать дебил.
Аноним 30/01/18 Втр 11:24:37  1129081
>>1128789
>И еще что почитать, посмотреть на тему нейронок?
https://habrahabr.ru/company/mailru/blog/333862/
Аноним 30/01/18 Втр 11:28:29  1129085
>>1129049
> Ебать дебил.
Мань, факт в том, что не самые новые-модные-молодежные видюхи физически блочат. Без всякой разумной причины это делать кроме стимулирования спроса. А то что ты дебил, как и представился, роли не играет.
Аноним 30/01/18 Втр 11:32:34  1129088
>>1128981
Интересно. Что знаешь и что умеешь? И на каком примерно уровне? Как пришел, как готовился и что учил? Сам наверное начну с этого так как вакансии в моем городе и в соседнем как раз дата инженер и что то рядом, а для сайнтистов нет.
Аноним 30/01/18 Втр 11:34:37  1129090
>>1129085
>>1129085
>не самые новые-модные-молодежные видюхи
>говно мамонта ниже 3.0
Потому что никому нахуй не надо поддержать зоопарк устаревших версий.
А проблемы быдла шерифа не ебут - это твои проблемы.
Аноним 30/01/18 Втр 11:42:09  1129096
привет. хочу научиться
делать neural network
Аноним 30/01/18 Втр 11:44:17  1129097
>>1129096
просишь ты советов мудрых
сосни хуйца
Аноним 30/01/18 Втр 11:45:15  1129098
однажды прочел мнение одного человека
что нн - это просто умножение матриц
друг на друга. Интересно о чем это он?
Вроде бы умножить каждую ячейку
массива где 2 уровня на ячейку матрицы
близнеца и умножение на ноль в фильтре
даст ноль, а потом все числа сложить и
получиться большое число, а потом
сравнить это число с результатом
фильтр * на фильтр
Аноним 30/01/18 Втр 11:53:47  1129106
>>1129098
Михаил, примите вещества и покиньте тред.
Аноним 30/01/18 Втр 12:41:14  1129123
>>1129090
> Потому что никому нахуй не надо поддержать зоопарк устаревших версий.
Устаревших версий чего? Куда поддерживает, драйвера последние поддерживают. А слесарьплов работает с драйвером и кудой, ему похуй, какая видюха, процессор, память итд. Не знаешь, так хоть бы хуйни не нес.
Аноним 30/01/18 Втр 12:54:21  1129130
>>1129123
>3.0
>Устаревших версий чего?
И правда дебил.
Хуево быть тобой.
Аноним 30/01/18 Втр 14:31:13  1129162
>>1121858 (OP)
Какие языки используются в нейроночке да машобчике? Так понимаю, безраздельно властвует Python с иногда библиотеками на крестах, верно? Что по поводу какой-нибудь Java?
Аноним 30/01/18 Втр 14:46:38  1129171
Не понимаю в чём нахуй космический эффект питона что большинство нейронок на нем?
Аноним 30/01/18 Втр 14:54:45  1129172
>>1129171
> Не понимаю в чём нахуй космический эффект питона что большинство нейронок на нем?
Стильно, модно, молодежно, бородатым петушкам из барбершопов нраица, индусы говоря молодца, хорошо сделоли. Хипстерская технология от хипстеров для хипстеров.
Аноним 30/01/18 Втр 15:09:53  1129182
>>1129172
Динамическая типизация же говнииище. Или я не прав?
Аноним 30/01/18 Втр 23:21:07  1129400
>>1123414
Коэффициенты поверхности лежат в coef_, как выше сказали. Нарисовать можешь сам если размерность пространства не больше 3
Аноним 31/01/18 Срд 22:57:48  1129853
>>1127774
в ашане (в некоторых) в дс уже частично заменили и без нейросетей
Аноним 31/01/18 Срд 23:01:44  1129856
>>1129182
питон - это сахар для библиотек на плюсах (тензорфлоу), там хоть р, хоть хаскель, хоть брэинфак используй
Аноним 01/02/18 Чтв 01:08:19  1129905
>>1129162
Загуглить, не? Может и есть чё под жабу, а на шарпе с этим совсем плохо.
Аноним 01/02/18 Чтв 01:09:54  1129906
>>1129171
Думаю то, что этот язык даже дебил осилит. Вот и пишут на нём.
Аноним 01/02/18 Чтв 23:17:34  1130411
Halite challenge из оппоста закончился на днях. Боты, основанные на нейроночках, не попали даже в топ25. Хотя в этом году там инфраструктура подтянулась: ГПУ машины с ТФ появились, даже пример нейробота сделали.
Аноним 02/02/18 Птн 12:38:14  1130653
>>1130411
В области роботизированной ебулды нейроночки сосут хуй с самого своего появления. И это я еще умолчу о том, что внедрять алгоритм, для которого нет строгих математических доказательств устойчивости, не будет никто, т.к. никому не нужно, чтобы роботизированный поезд метро со всей дури размазал пару сотен пассажиров об тупиковую призму, или чтобы автоматизированная доменная печь сожгла ползавода вместе с работягами. В этой области хороши контроллеры, в т.ч. на нечеткой логике. Напомню, первый поезд на нечетко-логических контроллерах ввели в эксплуатацию еще в 1987 году (после почти 10 лет работ и испытаний). На нейроночках ничего подобного нет и в наше время, более того, не будет никогда по причине отсутствия госта "ебань хипстерская, как работает хуй ее знает, но GPU надо хотя бы с 4 гигами оперативы".
Аноним 02/02/18 Птн 12:51:34  1130664
>>1130653
байтоёбы лают, караван идёт
Аноним 02/02/18 Птн 13:44:52  1130684
>>1130653
>строгих математических доказательств
Ненужно.
>роботизированный поезд метро со всей дури размазал пару сотен пассажиров об тупиковую призму, или чтобы автоматизированная доменная печь сожгла ползавода вместе с работягами
Всем похуй, чем меньше людишек - тем лучше.
Аноним 02/02/18 Птн 14:50:33  1130730
горилла.png (213Кб, 491x424)
>>1130684
>Ненужно.
Конечно-конечно, раз уж школотрон-мизантрап на мейлру так написал, значит и правда ненужно. Я тебе реальную причину назвал, почему с этим говном из жопы в промышленности не связываются и не будут связываться никогда. Все потуги сирожина пирожина гугла - это реклама от рекламной параши. Самое серьезное достижение нейроночек со времен Розенблатта - научились котиков под пикассо раскрашивать и негров детектить.
Аноним 02/02/18 Птн 15:02:56  1130739
1454117521575.jpg (27Кб, 204x269)
>tensorflow использует только нвидиа гпу
Нафиг так жить, котаны?
Хочу как-нибудь с зарплат себе купить пеку для игорей и нейроночек, что лучше брать? Учитывая уязвимости интелов и их говнокодерские заплатки
Аноним 02/02/18 Птн 15:07:35  1130742
>>1130739
32 GB RAM, CPU-any(Need more pci-express lanes), GPU: 3xGTX 1080ti
Аноним 02/02/18 Птн 15:11:00  1130744
14925855721.png (486Кб, 592x592)
>>1130730
Ну сделай что-то подобное вместо кукарекания. Я пока твою нечеткую логику видел только в стиральной машине (еще бы она там была нужна)
Аноним 02/02/18 Птн 15:12:46  1130745
>>1130730
В промышленности будут связываться и уже связываются, они дают добиться лучших или целевых результатов за меньшее время, в промышленности на заводах они могут использоваться для определения брака на ранних стадиях.
Аноним 02/02/18 Птн 15:13:27  1130747
пынясисян.gif (6816Кб, 300x168)
>>1130744
>Ну сделай что-то подобное
Во, еще одно огромное достижение. И про порнуху забыл с любым подставляемым еблом. Передний край прогресса - болтающий сиськами Пыня.
Аноним 02/02/18 Птн 15:15:44  1130748
>>1130742
>каждая 1080ти стоит 700 долларов
Ну, не всё так просто в жизни, да.
Аноним 02/02/18 Птн 15:16:32  1130749
>>1130747
Ты либо траллишь, либо очень недалекий. Завтра уже в твой роботизированный паровоз поставят нейронку и она будет управлять твоим контроллером и тормозить, когда на путях постороннее тело. Никто не говорит что нейронки заменят классические алгоритмы.
Аноним 02/02/18 Птн 15:17:59  1130750
>>1130748
Зато негров распознавать сможешь, ты че. 150000р жалко для такого штоле?
Аноним 02/02/18 Птн 15:29:41  1130753
>>1130750
Ну блэдж, это уже придётся буквально год копить, а там всё опять поменяется.
Я хотел как средний класс за 2 месяца купить пеку за 1к и начинать для себя нейроночки дрочить.
Аноним 02/02/18 Птн 16:11:20  1130783
>>1130749
>Завтра уже в твой роботизированный паровоз поставят нейронку
Нужно только потерпеть? Не поставят, я уже объяснил почему. Давно бы поставили, если бы была возможность.
Аноним 02/02/18 Птн 16:14:03  1130786
>>1130783
>я уже объяснил
Всем похуй на твою маняматику и прочую чухню для задротов-неудачников вроде тебя
Как только станет экономически оправдано - тут же поставят, сразу же.
Аноним 02/02/18 Птн 16:16:18  1130789
>>1130786
>Всем похуй на твою маняматику и прочую чухню для задротов-неудачников
Ты - это не все. "Одному дегенерату похуй" не равно "всем похуй".
Аноним 02/02/18 Птн 16:25:46  1130802
>>1130789
>Ты - это не все.
Верно. Все - это рыночек, который тебя, байтоебик, и порешал.
Аноним 02/02/18 Птн 16:32:34  1130808
>>1130783
Ничего ты не объяснил. Для человека нет и не будет никаких строгих математических доказательств, однако же его сажают управлять самолетом.
Да и вообще, внутре нейронки кроются все те же алгоритмы и нечеткие множества с вероятностями, известные из других подходов, это одинаковые яйца в профиль. Найдут способ и их верифицировать, упростят и причешут, а ты хочешь быстро
Аноним 02/02/18 Птн 18:53:49  1130862
>>1130753
Да не нужны три карты. Их все три нагрузить довольно трудно, т.к. автоматического распараллеливания нет. Ты можешь, например, тренировать три нейроночки параллельно, но это уже продвинутое использование, когда гиперпараметры подбираешь, например. В большинстве хобби-проектов это не нужно.
И одну-то нагрузить полностью надо еще постараться.
Аноним 02/02/18 Птн 19:17:25  1130872
>>1121858 (OP)
Есть где-нибудь подробные видеогайды по TensorFlow на русском? По-другому информацию о программировании никак не воспринимаю.
Аноним 02/02/18 Птн 19:53:06  1130887
>>1130862
+ к этому: если тебе нужно будет параллельно тренировать много нейроночек для подбора гиперпараметров, будет эффективнее закинуть сотню баксов в облако и тренировать там. С учетом того, что там можно хоть сотни, если не тысячи инстансов гонять параллельно, и нужно тебе это будет от силы раз в год для статьи или чего-то такого, это будет и быстрее, и проще, и выгоднее по деньгам, чем держать несколько карт у себя, которые будут почти всегда простаивать.
Аноним 02/02/18 Птн 20:55:50  1130911
>>1130872
>на русском?
Червь-пидор, ты?
Аноним 02/02/18 Птн 20:58:59  1130914
>>1130911
Да бля. Тяжело на ангельском. Понимаю всё, но воспринимать трудно пиздец.
Аноним 02/02/18 Птн 21:08:28  1130917
>>1130914
>воспринимать трудно пиздец.
Налицо легкая степень олигофрении.
Можешь попробовать ноотропы хотя вряд ли существенно помогут
Аноним 02/02/18 Птн 21:15:52  1130923
>>1130917
Ебать ты тонкий тролль.
Аноним 02/02/18 Птн 21:23:24  1130930
>>1130872
Да ты ее и так не воспринимаешь. Просто повторяешь действия, как макака, и всё.
Аноним 02/02/18 Птн 21:28:53  1130932
>>1130930
Даунич. Если человек учится не на ебнутых книжках, которые невозможно читать, а как-то по-другому, то он повторяет как макака сразу?
Аноним 02/02/18 Птн 21:31:11  1130934
>>1130932
Да.
Аноним 02/02/18 Птн 21:32:18  1130936
>>1130934
Лицемерный скам. Я то же самое могу перевернуть и сказать про тебя.
Аноним 02/02/18 Птн 21:36:44  1130939
>>1130862
>>1130887
А, тогда спасибо.
Значит буду выпрашивать на работке облако, а потом куплю себе пеку и буду для себя делать :3
Аноним 02/02/18 Птн 21:44:51  1130947
>>1130936
>могу
Не можешь, ты же дебил.
Аноним 02/02/18 Птн 21:46:41  1130949
>>1130947
Если человек учится на ебнутых книжках, которые невозможно читать, а не как-то по-другому, то он просто повторяет действия, как макака, всё.
Аноним 02/02/18 Птн 21:51:23  1130954
>>1130949
>книжках, которые невозможно читать
С точки зрения малолетнего олигофрена - несомненно.
Аноним 02/02/18 Птн 21:53:00  1130955
>>1130954
Да мне как-то похуй на твоё мнение, если я лучше тебя разрабатывать буду. А вот что ты делать будешь со своим илитарством?
Аноним 02/02/18 Птн 22:06:59  1130961
>>1130955
Лучше ты можешь разрабатывать только свое очко. Кстати, видеоуроки тут реально помогут лучше книжки.
Аноним 02/02/18 Птн 22:13:54  1130967
>>1130961
Как горит у учебникопидора.
Аноним 03/02/18 Суб 06:05:35  1131102
15174305572230.jpg (260Кб, 2048x1152)
Я вам, школьникам, даже обьясню, почему эти ваши хипсторские нейроночки никогда не смогут в решение реальных задач. Тем же самым страдает и весь остальной манямашоб. И никто не видит эту проблему, хотя она на поверхности. Вот смотрите. Есть некая система, процесс, неважно. Они порождтся неким взаимодействием неких переменных. Переменные можно измерить и нередко даже выявить вид функциональной зависимости между ними. Но чаще функции и их суперпозиции, описывающие систему, неизвестны. Помимо этого есть ещё неустранимая неточность, которая в общем случае к вероятности не сводится. Подобные функции можно аппроксимировать соотв алгоритмами, к которым относятся и нейроночки. Но это всегда будет аппроксимация неизвестных функций всякой хуетой, которая даёт удовлетворительную точность только на обучающих данных. При уже минимальной экстраполяции получается хуйня, т.к реально функции не те. И вот на этот момент всем похуй, не считая того, что мало кто вообще это осознает. И лично мне не известен ни один подход в машобе, который бы ставил вопрос идентификации реальных законов системы, а не его аппроксимацию левыми функциями. Ну кроме работ советского академика Ивахненко по методу группового учёта аргументов, который тоже в итоге слился до полиномиальных манянейроночек. Именно отсюда вытекает тот факт, что сколько бы хипстеры и индусы не сосали друг у друга на коворкингах, сколько бы не стыковали слоёв и не насиловали видюх и кластеров, решения не будет, потому что проблема не ставится во всей её полноте.
Аноним 03/02/18 Суб 06:58:47  1131106
>>1131102
Даунич. Твоя математика уже не действует в современных технологиях. Нейросети не представляют никаких функций. Они показывают соотношения совпадений результатов.Ты бы ещё эволюционный алгоритм как функцию рассматривал. Никому нахуй не сдались твои блокчейны, заебал.
Аноним 03/02/18 Суб 07:05:23  1131107
>>1131106
> Даунич. Твоя математика уже не действует в современных технологиях.
Дебил тупой, читал бы хоть что пишешь. Машоб это математика от и до.
> Нейросети не представляют никаких функций. Они показывают соотношения совпадений результатов
Это и есть аппроксимация функций.
> Никому нахуй не сдались твои блокчейны, заебал.
Какие блохчейны, чучело? Уроки иди делай.
Аноним 03/02/18 Суб 08:49:46  1131126
>>1131102
>вопрос идентификации реальных законов системы
Ты в курсе, что ньютоновская механика - это тоже аппроксимация левыми функциями? Тебя это не беспокоит?
Аноним 03/02/18 Суб 09:08:06  1131129
>>1131126
> Ты в курсе, что ньютоновская механика - это тоже аппроксимация левыми функциями? Тебя это не беспокоит?
Есть реальная система, есть её описание и есть её аппроксимация. Точное описание часто невозможно из-за неустранимой неточности, но это лучше, чем аппроксимировать линейными функциями, полиномами итд, когда они не имеют никакого отношения к реальной системе. Вопрос в практическом применении, с ньютоновской механикой ситуация все же лучше, чем с предсказанием временных рядов.
Аноним 03/02/18 Суб 10:05:36  1131154
>>1131129
Но ведь процессор в комплюктере тоже синусы аппроксимирует полиномами, как дальше жить?
Аноним 03/02/18 Суб 10:11:27  1131157
>>1131154
>синусы аппроксимирует полиномами
Я всю жизнь жил во лжи.
Аноним 03/02/18 Суб 10:15:21  1131160
>>1131129
>чем с предсказанием временных рядов
С этим вообще как бы ситуация не очень, но есть здоровая конкуренция, и пусть она решит, кто прав.
Спекулянты давным-давно используют нейросети, а уж их-то не обманешь.
Аноним 03/02/18 Суб 10:22:48  1131163
>>1131154
> Но ведь процессор в комплюктере тоже синусы аппроксимирует полиномами, как дальше жить?
Когда есть знание, что изначальная функция это синусоида, это одно дело. А когда полиномом аппроксимируют хуй знает что - совсем другое. Проблема как раз в том, что одну и ту же систему можно описать кучей разных функций. Но какие-то из них будут давать более лучшую экстраполяцию, какие-то наоборот в зависимости от степени близости к реальной системе. И если не ставить вопрос о выборе наиболее адекватной функции, которая может быть суперпозицией чего угодно, то никакими алгоритмами не повысить качество модели. Именно поэтому никакая манянейроночка как бы хорошо она не распознавала котиков, не поможет предсказать какие-нибудь бинарные опционы даже на минуту. Притом что там не рандом, ибо если бы там был рандом, любой дебил на этом делал бы триллионы тупо методом мартингейла, т.е 100% заходило бы максимум на 3-4 ставке. И вот, при всем этом, вопрос автоматического выбора наилучшей функции и метода подбора их суперпозиций не ставится вообще никем.
Аноним 03/02/18 Суб 10:33:41  1131166
>>1131163
>>1131107
Так ёпта. Ты лезешь с апроксимацией туда, где никакой функции, блять, нету вообще.
Аноним 03/02/18 Суб 10:38:39  1131168
>>1131166
ты бы хотя бы 1 книжку по машинному обучению прочитал. Узнал бы что такое эмпирический риск. и что нейронки действительно востанавливают зависимости.
Аноним 03/02/18 Суб 10:38:57  1131169
>>1131166
> ы лезешь с апроксимацией туда, где никакой функции, блять, нету вообще.
Если есть система (совокупность связанных переменных), то есть и наиболее точно описывающая её функция или суперпозиция многих функций.
Аноним 03/02/18 Суб 10:43:56  1131171
>>1131166
Двачую. Сраная биржа это самодестабилизирующаяся система. Как только в ней появляется хоть какая-то закономерность - все игроки ломятся туда, и расшатывают всю упорядоченность к хуям.
Аноним 03/02/18 Суб 10:45:35  1131173
>>1131169
Да суперпозиция то есть, но ты же понимаешь, что по сути она у тебя только на один набор данных. И исходные значения каждого элемента сети изменены по закономерностям без возможности восстановления.
Аноним 03/02/18 Суб 10:54:21  1131179
>>1131173
> Да суперпозиция то есть, но ты же понимаешь, что по сути она у тебя только на один набор данных. И исходные значения каждого элемента сети изменены по закономерностям без возможности восстановления.
С чего бы? Есть система, по каким-то законам она работает. Значит, их можно восстановить, используя данные, порождаемые системой.
Аноним 03/02/18 Суб 11:06:12  1131182
>>1131179
Систем измерения этих данных не существует.
Аноним 03/02/18 Суб 11:10:12  1131183
>>1131182
> Систем измерения этих данных не существует.
Ты даже не в курсе, что такое идентификация систем, а пытаешься спорить. Иди лучше делай уроки.
Аноним 03/02/18 Суб 11:16:40  1131187
>>1131183
У тебя нет конкретных значений в системе измерения. Как ты модель построишь?
Аноним 03/02/18 Суб 11:20:11  1131189
>>1131187
> У тебя нет конкретных значений в системе измерения. Как ты модель построишь?
Конкретные значения есть всегда. Даже словесное кукареканье можно выразить в тексте, а текст в виде tfxidf матрицы вещественных чисел.
Аноним 03/02/18 Суб 11:23:23  1131191
>>1131189
Про теорию хаоса слышал? Так вот у тебя значения могут находиться где угодно, но не последовательно.
Аноним 03/02/18 Суб 11:46:29  1131194
>>1131191
> Про теорию хаоса слышал?
Как и про методы работы с хаотическими системами. В частности, восстановления хаотических аттракторов, определение наличия хаотической системы по сечению Пуанкаре и т.д. все это частный случай идентификации систем.
Аноним 03/02/18 Суб 12:56:08  1131215
>>1131194
Только количество возможных диапазонов не известно.
Аноним 03/02/18 Суб 13:01:01  1131217
>>1131215
> Только количество возможных диапазонов не известно.
Систему всегда можно идентифицировать, если она существует. Чистый рандом да, это просто нормальное распределение. Но если есть какие-то законы, их можно восстановить по данным, порождаемые системой. В этом суть всего машоба, обучение на данных возможно только в случае, если в этих данных содержатся закономерности, зависимости одних переменных от других. Вот только делать это можно по-разному.
Аноним 03/02/18 Суб 22:32:59  1131719
>>1131217
Ты сам то понимаешь, что говоришь о модели нейросети как о функции, которую нейросеть аппроксимирует.
Аноним 03/02/18 Суб 22:34:18  1131721
Как же в нейросетях с квалиа?
Аноним 04/02/18 Вск 04:59:32  1131865
15135248190470.jpg (16Кб, 400x400)
>>1131719
> Ты сам то понимаешь, что говоришь о модели нейросети как о функции, которую нейросеть аппроксимирует.
А то ты не знаешь, что так оно и есть? Посмотри на матчасть хоть нейроночки, хоть svm, это параметризованная суперпозиция функций и алгоритм настройки свободных параметров функции. Другое дело, что вид функций задан априори, это сигмоиды, relu и прочее говнишко, относящееся к реальной идентифицируемой системе ровно никак. А я ещё в прошлом году писал, что если такую структуру задать типизированной лямбдой, то свободными параметрами станет и сама структура svm, автоматически подбираемая под конкретные данные например генетическим программированием в типизированной лямбде. Такой алгоритм максимально точно идентифицировал бы систему по имеющемуся датасету и сходу дал бы пососать любому существующему подходу. Палишь бесплатно идею для стартапа, который купит гугл за сто мильенов долларов, а никто даже не понимает о чем речь. Это смешно, субханалла
Аноним 04/02/18 Вск 06:06:33  1131872
sin.jpg (23Кб, 774x349)
Здравствуйте, у меня есть статистическая выборка из точек, которые располагаются близко к синусоидальной линии(на картинке).

У меня есть два метода по аппроксимации взятых из Python:

1)Из sklearn построение аппроксимирующего многочлена по точкам

2)Из scipy подбор синусоиды к точкам

В обоих случаях выходит результат как на картинке, то есть программа строит красную линию близкую к синусу.

Подскажите, пожалуйста, каким показателем измеряется точность аппроксимирующей модели по отношению к точкам из выборки? То есть за счет какого показателя можно сказать какой из методов лучше первый или второй? Я думал, что буду использовать коэффициент корреляции Пирсона, но я прочитал, что он плохо подходит для кривых аппроксимирующих, ибо коэффициент работает только для прямых.

А каким показателем тогда оценивать точность модели? Дисперсией? Корнем из дисперсии? Коэффициентом корреляции Спирмена? Может есть какой-нибудь волшебный коэффициент детерминации для кривых?
Аноним 04/02/18 Вск 07:26:29  1131882
>>1131872
Стандарт для регрессии - среднеквадратичная ошибка. Это оптимальная оценка, если данные сгенерированы твоей моделью с аддитивным гауссовским шумом.
Аноним 04/02/18 Вск 08:12:06  1131890
>>1131882
Благодарю
Аноним 04/02/18 Вск 09:35:52  1131908
https://www.youtube.com/watch?v=Dhkd_bAwwMc&feature=youtu.be
Детекция позы человека нейроночкой. Делает полный маппинг текстуры обобщенного человека на картинку. Можно, например, голые тела маппить на людей в видео. Мы стали на шаг ближе к раздевающим очкам.
Аноним 04/02/18 Вск 10:58:48  1131928
>>1131908
> Можно, например, голые тела маппить на людей в видео. Мы стали на шаг ближе к раздевающим очкам.
Фейковое ЦП, ну наканецта!
Аноним 04/02/18 Вск 11:25:59  1131934
>>1131865
Прости, мы слишком глупые.
Аноним 04/02/18 Вск 11:43:05  1131939
>>1131102
Ну если про CV говорить, то там достаточно очевидно что можно аппроксимировать. Это как разложение в ряды Тейлора. Над просто побольше параметров захуярить, чтоб аппроксимация соответствовала функции с ошибкой меньше эпсилон.
Аноним 04/02/18 Вск 11:46:12  1131941
>>1131934
>глупые
Слишком лестная характеристика.
Черви-пидоры с олигофренией - так правильней.
Аноним 04/02/18 Вск 13:08:53  1131984
>>1131865
>генетическим
А чего сразу не меметическим?
Аноним 04/02/18 Вск 13:45:53  1132012
1.png (58Кб, 555x469)
>>1131984
Никогда не слышал, чтобы такое реализовывали. Речь, по-сути, о том, чтобы в методе группового учета аргументов процесс порождения кандидатов на лучшую функцию представить чем-то уровня пикрелейтед, а саму функцию (в оригинале - частные полиномы от полного степенного) заменить на регуляризованную SVM. Т.о. последовательно будет строиться SVM, в которой как вид функций, так и параметры будут настраиваться исходя из подходящих критериев (н-р, наилучшей экстраполяции построенной модели на данные, далекие от тренировочных).
Аноним 04/02/18 Вск 23:21:24  1132396
>>1131941
сказал рекурсивный программист
Аноним 05/02/18 Пнд 00:42:18  1132443
>>1131106
Перечитай определение нейронной сети. Их суть и смысл - приближение некоторой функции. Уже обученная нейронная сеть, по сути своей, и является функцией из множества возможных входных данных в возможных возможных выходных данных.
Аноним 05/02/18 Пнд 02:30:32  1132523
>>1131865
Никогда, кстати, не понимал, с какого хуя все ограничивают себя 3-4 стандартными функциями на нейронах, да ещё и функции эти друг на друга слишком сильно похожи.

Нет бы запилить старый добрый синус и посмотреть, что получится
Аноним 05/02/18 Пнд 03:37:06  1132540
Давайте начистоту.

Кто из вас зарабатывает при помощи ИИ и как именно?
Аноним 05/02/18 Пнд 03:38:01  1132541
c23df0a140cb5f2[...].jpg (385Кб, 849x1200)
Давайте начистоту.

Кто из вас зарабатывает при помощи ИИ и если да, то как именно?
Аноним 05/02/18 Пнд 09:04:15  1132597
>>1132523
Ну в svm итд используются ядра преобразования входных данных (кернелы), причём их класс очень большой, по-сути это любая функция, удовлетворяющая требованиям теоремы Мерсера. Это уже лучше, вот только выбор ядра остаётся за пользователем и по-сути есть простое шаманство, выбираешь или пишешь ядро, натягиваешь на него сову и смотришь что получится. По уму нужен алгоритм подбора кернела, в т.ч в виде суперпозиции симметричных функций, исходя из качества аппроксимации или классификации данных за пределами тренировочных. Но тут опять же, лучше лямбды сложно что-то придумать.
Аноним 05/02/18 Пнд 09:06:07  1132601
>>1132541
Я даже не знаю в какой сфере их можно применять промышленно. Только разработка ведь.
Аноним 05/02/18 Пнд 09:32:39  1132621
Вот подскажите мне, обязательно ли заканчивать университет, чтобы стать великим гуру в сфере нейроничков и машоба? Просто я хочу сам всё изучать, самостоятельно. А эти все пары, экзамены, учеба с утра до вечера, где ты большую часть времени не учишься, а шараебишь между кабинетами, жрешь и пытаешься социализироваться.
Аноним 05/02/18 Пнд 09:39:41  1132630
Я вам даже больше скажу, любители нейроночек. Вы ж даже не знаете, зачем вообще в нейроночке "нейроны". Потому что не читали классику, Колмогорова и Арнольда потому что считаете это устаревшим говном из первой половины прошлого века, где показано, что функцию от многих переменных можно представить суперпозицией частных функций от двух переменных. Нейроны именно это и делают, т.к на них распределяется входной вектор или тензор, ну, входной относительно предыдущего слоя.
Аноним 05/02/18 Пнд 09:43:12  1132634
>>1132621
> Вот подскажите мне, обязательно ли заканчивать университет, чтобы стать великим гуру в сфере нейроничков и машоба?
Без бамажки на РАБоту не возьмут и хипстеры с пхд засмеют. Самому можно разобраться, но на практике мотивации не хватит, в универе хоть заставят что-то учить, а сам просто дропнешь через пару месяцев.
Аноним 05/02/18 Пнд 09:43:44  1132635
>>1132630
Ты с кем разговариваешь?
Аноним 05/02/18 Пнд 09:58:10  1132645
>>1131171

> Сраная биржа это самодестабилизирующаяся система

Сраная биржа - это не то, чем она кажется простому обывателю. И манямодели, построенные по её представлению для простого обывателя соснут обязательно. Их предел в таком варианте - механизация скальподрочерства, упирающееся в интернет-канал.

Если в нейросеточки инсайдерскую информацию подавать, причем которая обычно или "государственные тайна" или "коммерческая тайна" - то нейросетки тут же сосать перестанут.
Аноним 05/02/18 Пнд 10:57:27  1132687
>>1132645
Ну, допустим, применительно к биткоину, какая может быть инсайдерская информация? Просто некто с большим капиталом шатает курс в целях извлечения выгоды, или просто хацкер сливает битки, мелочь пытается эти события ванговать и тоже извлечь прибыль.
Ты предлагаешь на вход нейросети подавать желания всех игроков? Ну тогда задача предсказания будет очень простой.
Аноним 05/02/18 Пнд 11:37:15  1132717
>>1132645
>>1132687
Начнём с того, что суть теханализа в том, что все, важное для рынка отражается на курсе, капитализации, объёме продаж и тп первичных данных, доступных для анализа. Это же касается и инсайдерской информации. Например, захотели рептилоиды пошатать курс, сделали для этого что-то с объёмами продаж, капитализацией итп, курс пошатался. Т.е есть готовая закономерность изменения курса, функция, которую можно идентифицировать. Похуй, что нам доподлинно неизвестно, кто и для чего шатал курс, но нам известны объективные показатели рынка и их взаимосвязи.
Аноним 05/02/18 Пнд 11:39:27  1132720
>>1132717
Т.е. теханализ изначально предполагает стационарность этих связей? Лол
Аноним 05/02/18 Пнд 11:46:47  1132726
>>1132720
> Т.е. теханализ изначально предполагает стационарность этих связей? Лол
Теханализ предполагает их наличие. Стационарности или динамичность нельзя предполагать априори, их можно получить только из самих данных.
Аноним 05/02/18 Пнд 12:57:43  1132770
>>1132726
>Стационарности или динамичность нельзя предполагать априори

Жопу ставишь?
Аноним 05/02/18 Пнд 13:01:21  1132774
>>1132770
Я говорю о том, что для идентификации системы таких предположений не требуется. Так-то никто не запрещает.
Аноним 05/02/18 Пнд 19:19:44  1133057
1391273112770.jpg (499Кб, 1280x1945)
Нейроны - хорошо, конечно, а как запрограммировать глюоны?
Аноним 05/02/18 Пнд 21:53:46  1133149
>>1132630
А почему от двух переменных?
Аноним 05/02/18 Пнд 22:34:03  1133169
>>1133149
В общем случае - от меньшего числа переменных. Думаю, две - наиболее удобный для представления и вычисления вариант.
Аноним 05/02/18 Пнд 23:15:27  1133196
>>1131171
>все игроки ломятся туда
Какие "все"? Все занимаются тем что строят разнообразные прямые, чтобы воспринимать их пересечение как ЗНАК.
Аноним 06/02/18 Втр 11:31:09  1133366
>>1133057
Это нужно у здешних биологодаунов спрашивать, у которых нейросетки - это савсем не нийроны!!
Аноним 06/02/18 Втр 12:14:46  1133384
>>1132597
>По уму нужен алгоритм подбора кернела
Ах как было бы хорошо! Ну придумай. Хотя ладно, спалю идею на сто триллионов: придумай алгоритм, который сконструировал бы данный алгоритм. И думать не надо. Ах как хорошо!
Аноним 06/02/18 Втр 12:28:27  1133390
origae83e52b6f5[...].jpg (77Кб, 600x773)
Математика для ПТУ Башмаков 1987 года нормальный учебник?
Аноним 06/02/18 Втр 13:14:45  1133407
Нейроанон помоги. Использую keras.

Есть массив из 30 значений на входе и попытка предсказания следующих 5 на выходе. Соответственно есть хуева гора этих массивов по 35 для тренировки (30 на вход, 5 на выход).

Обычная полновесная нейросеть нормально жрет эту гору и тренируется без проблем (и даже кое-как работает).
А сверточная выебывается на входные данные.

Данные генерирую так:
trainx=[];trainy=[]
for i in train:
trainx.append(i[:30])
trainy.append(i[30:])

x=np.array(trainx)
y=np.array(trainy)

train это та самая гора массивов по 35. Результат:

ValueError: Error when checking input: expected conv1d_1_input to have 3 dimensions, but got array with shape (395049, 30)

395049 примеров по 30 значений. Что сделать чтобы оно заработало?
Аноним 06/02/18 Втр 13:22:50  1133412
>>1133407
>30 значений. Что сделать чтобы оно заработало?
либо x = x[:,:, np.newaxis], изменит форму входа на [batch_size, 30, 1], либо x = x[:, np.newaxis] изменит форму входа на [batch_size, 1, 30]. Ну и входные размерности пофиксить.
Аноним 06/02/18 Втр 13:23:06  1133413
>>1133390

Вот еще прочитай:

http://www.philol.msu.ru/~otipl/new/main/courses/Neirobiology/xx__2009_2010/Bloom_Mozg-razum-povedenie.pdf
Аноним 06/02/18 Втр 13:24:46  1133414
>>1133407
ты сверточную сеть для картинок взял? бездумно копипастить не прокатит
Аноним 06/02/18 Втр 13:26:35  1133416
>>1133390
Для школьников да, для нейроночек нужна вузовская математика.
Аноним 06/02/18 Втр 13:35:23  1133422
>>1133412
Не помогает:
ValueError: Error when checking input: expected conv1d_1_input to have shape (None, None, 30) but got array with shape (395049, 30, 1)
Второй выдает (395049, 5)

>Ну и входные размерности пофиксить.
Как?
Аноним 06/02/18 Втр 13:59:55  1133434
>>1121858 (OP)
>Предлагаю переписать шапку, добавив ответов на платину, дедовских и свежих книг и, возможно, списки статей
Аноним 06/02/18 Втр 14:23:49  1133450
>>1121858 (OP)
>Предлагаю переписать шапку, добавив ответов на платину, дедовских и свежих книг и, возможно, списки статей

https://hal.archives-ouvertes.fr/hal-01221226/document
Аноним 06/02/18 Втр 16:13:15  1133514
>>1133422
в Conv1d нужно указать input_shape = [30,1], а не просто 30 читай инструкцию к keras.
Аноним 06/02/18 Втр 17:36:32  1133560
Дали тз. Есть софт с тестовым периодом 7 дней. Есть 1000 акков, 550 регистрировались как компания, 325 как частники 125 как "универсальный аккаунт". Есть количество запусков софта для каждого акка в каждый из семи дней. Известно, кто купил софт после триала.
Какую модель тут лучше взять?
Аноним 06/02/18 Втр 17:39:37  1133565
>>1133560
SVM, очевидно же. "Купил/не купил" - 2 класса (1/0), остальное - входные данные. Я бы с такого начал.
Аноним 06/02/18 Втр 17:45:17  1133567
>>1133384
>Ах как было бы хорошо! Ну придумай.
Для тебя "генетическое программирование с типизированной лямбдой" набор рандомных слов, я правильно понял?
Аноним 06/02/18 Втр 18:02:48  1133579
>>1133514
Это я действительно проглядел но ошибка остается.

Доки говорят что вход должен быть (batch_size, steps, input_dim) и я нифига не понимаю что это значит.
Для Dense вход (batch_size, input_dim) поэтому я предполагаю что batch_size это количество примеров а input_dim это количество значений в примере но что такое steps и как преобразовать входной массив я не понимаю.
Аноним 06/02/18 Втр 20:37:33  1133661
c23df0a140cb5f2[...].jpg (385Кб, 849x1200)
>>1133366
Я думала, это по части физики... :|
Аноним 06/02/18 Втр 22:03:28  1133724
>>1133661

А ты няншенькая? :3
Аноним 07/02/18 Срд 02:58:16  1133837
justme.png (1160Кб, 844x714)
>>1133724
больше чем
Аноним 07/02/18 Срд 09:32:04  1133862
>>1133837
Пофапано.
Аноним 07/02/18 Срд 10:06:19  1133866
>>1133837
Ну ты хоть трапик, так что можно тебе всё простить. А то достала аватаркофажить повсюду.
Аноним 08/02/18 Чтв 00:05:46  1134427
яняша.jpg (385Кб, 849x1200)
>>1133866
просто ты изрващенец, приследуешь меня и следишь за мной везде ^^
Аноним 08/02/18 Чтв 01:58:08  1134476
Нейронку можно натренировать на генерацию текста по определенным шаблонам?
Аноним 08/02/18 Чтв 05:34:02  1134499
>>1134476
Съеби обратно в дыру из которой вылез.
Аноним 08/02/18 Чтв 10:30:46  1134543
>>1134499
Ну че ты сразу ругаешься, а?
Аноним 08/02/18 Чтв 19:42:12  1134942
Здравствуйте, я по учебе сделал домашнее задание на языке Python c применением sklearn. И применил несколько метрик из sklearn. Но, я не знаю как правильно перевести на русский названия этих функций, чтобы записать в отчет, и чтобы было понятно что это за результат получился. Подскажите пожалуйста, как правильно это перевести на русский.

1) explained variance score
2) mean squared log error - я думал, что это "средняя квадратичная логарифмическая ошибка", но загуглил такое сочетание слов и оказалось, что его не существует. Ещё помогите пожалуйста с mean squared log error, как правильно перевести error как ошибку или как погрешность?
Аноним 09/02/18 Птн 01:37:54  1135123
1) Показатель дисперсии (взвешенной? сравни формулу из sklearn с русскоязычными определениями)
2) Это точно "ошибка", перевод кажется правильным.
Аноним 09/02/18 Птн 03:15:26  1135139
>>1135123
1) Вроде, объясненная дисперсия. С русскоязычными тяжело сравнивать, ибо на русском там формулы для мат. статистики и теории вероятности. А в sklearn формулы для y и y с крышечкой.
2) В другом треде советуют, что error - это отклонение.
Аноним 09/02/18 Птн 03:21:41  1135140
>>1135123
Ну то есть я неправильно выразился, короче, на русском определения для ВУЗовских предметов, а в sklearn для машинного обучения. И так как я умственно отсталый, то не осилил сравнить эквивалентность формул.
Аноним 09/02/18 Птн 13:16:48  1135307
>>1134942
На кого ты учишься, что в гугл не можешь и про педивикию не слышал?
https://en.wikipedia.org/wiki/Explained_variation
https://www.kaggle.com/marknagelberg/rmsle-function
>помогите пожалуйста с mean squared log error, как правильно перевести error как ошибку или как погрешность?
Еррор - это еррор. Перевести можно как "ошибка", разумеется. Русский язык слишком могучий, поэтому переводят как хотят - ошибка, погрешность, отклонение, невязка итд.
Аноним 09/02/18 Птн 16:33:05  1135430
Пацаны, поясните за NLP. Модно? Вкатываться? Или уже гуглы/амазоны все что можно сделали ?
Аноним 09/02/18 Птн 18:54:56  1135512
>>1135307
Спасибо, я плох в английским, поэтому не смог такую хорошую ссылку найти как вторую которую ты дал.
Аноним 09/02/18 Птн 22:16:39  1135595
Здесь есть тред про ДС в целом и статы, чтоб без манянейронок и гаданий на кофейной гуще?
Или на харкаче только хайпомакаки вместо самих разработчиков?
Аноним 11/02/18 Вск 14:50:56  1136573
>>1134476
можно, но ненужно
Аноним 12/02/18 Пнд 05:42:45  1137273
15183880981250.png (15Кб, 337x153)
Поясните ньюфагу, чем все перечисленное на пике отличается друг от друга? Прочитал вроде каждую статью, но разницы между ними особой не увидел. И к какому типу относятся нейронки?
Аноним 12/02/18 Пнд 14:23:34  1137499
>>1137273
нейронками в основном решают задачи классификации и регрессии, и часто бывает что в интеллектуальных системах эти задачи визникают и их можно решить в том числе и нейронками.
Аноним 12/02/18 Пнд 22:30:24  1137839
1.jpg (39Кб, 774x533)
Здравствуйте, у меня такой вопрос: если у меня есть

1) функция f(x) выражающая количественные характеристики первого вещества, где характеристика "у" зависит от количественной характеристики "х" по закону f(x)

2) есть второе вещество с такими же количественными характеристиками "х" и "у", но "у" от "х" зависит уже по закону g(x)

3)А потом первое и второе вещество смешали в пропорции 40% на 60% и получился третий закон для смешанного вещества h(x).

Подскажите, пожалуйста, есть ли методы машинного обучения позволяющие по законам f(x), g(x), h(x) и по величине пропорций веществ определить как закон смешанного вещества h(x) выражается через первые два g(x) и f(x)?

Ну например, допустим, что окажется, что h(x) = 0.4f(x) + 0.6g(x). То есть ли методы машинного обучения позволяющие эту зависимость h(x) от f(x) и от g(x) выявить?
Аноним 12/02/18 Пнд 22:58:57  1137853
>>1137839
> есть ли методы машинного обучения позволяющие эту зависимость h(x) от f(x)и от g(x) выявить?
Это вопрос представления данных. Алгоритм почти любой сойдёт. По-сути у тебя речь об идентификации системы, нахождении зависимости вида y = f(x1, x2), где y это h(x), x1 это f(x), x2 - g(x). Собираешь датасет из 3х столбцов, строки которого - h(x), f(x), g(x) при разных концентрациях и подсовываешь чему угодно, хоть svm.
Аноним 12/02/18 Пнд 23:03:39  1137855
>>1137853
О, прикольно, спасибо большое
Аноним 12/02/18 Пнд 23:08:28  1137861
>>1137853
Очень классно, спасибо огромное ещё раз, ну ты жесткий тип))
Аноним 13/02/18 Втр 10:33:39  1138004
Есть задачка по предсказанию следующих значений в последовательности (скажем, изменения цены товара). Как я понял для этого лучше всего подходят lstm сети. Но есть пара вопросов:

1. Товаров много а просто скармливать значения по всем не выйдет - сеть же с памятью. Как лучше сделать? Можно просто в лоб создать несколько сетей для каждого товара но может есть варианты получше? Слышал что можно вытащить не только ответ но и внутреннее состояние сети.

2. В последовательности довольно много нулей (цена без изменений). Если просто выкинуть все нули то может ли это негативно повлиять на точность предсказания?
Аноним 13/02/18 Втр 11:05:28  1138012
>>1138004
Я тута чуть выше вскрывал тему, почему весь вообще машобчик люто, бешено сосёт в предсказании временных рядов, и почему никакая мегагитлер нейроночка на мегагитлер кластере для этой задачи не лучше дубового arima из прошлого века. Поэтому лично я в качестве алгоритма взял бы svm, там хотя бы теоретически обосновано, почему при правильном использовании результат будет лучшим на конечном датасете.
> 1. Товаров много а просто скармливать значения по всем не выйдет - сеть же с памятью. Как лучше сделать? Можно просто в лоб создать несколько сетей для каждого товара но может есть варианты получше? Слышал что можно вытащить не только ответ но и внутреннее состояние сети.
Отдельная модель для каждой системы, т.е товара. Если не хочешь предсказания уровня среднего анализа мочи по больничке.
> 2. В последовательности довольно много нулей (цена без изменений). Если просто выкинуть все нули то может ли это негативно повлиять на точность предсказания?
Т.е у тебя там дельты цены, разницы между последним и предпоследним значениями? Выкидывать не надо.
Аноним 13/02/18 Втр 11:58:07  1138035
>>1138012
Я конечно не пробовал ни arima ни svm но обычный персептрон более-менее адекватно предсказывал следующее изменение (а вот второе, третье и тд очень херово).

>svm
Есть что почитать про это? Нашел только какие-то дикие формулы при полном отсутствие примеров.

>Т.е у тебя там дельты цены, разницы между последним и предпоследним значениями? Выкидывать не надо.
Да, дельты. Выглядеть может примерно так:
-0.2 0.0 0.0 0.0 0.0 0.0 0.0 0.5 0.0 -0.1 0.0 -0.4 0.0 0.0 0.0 0.7 0.0

Вообще интересуют именно следующие движения, а когда они будут - через 2 шага или через 10 - пофиг.
Аноним 13/02/18 Втр 12:44:16  1138065
>>1138035
В принципе, если перцептрон устраивает, то им и пользуйся, SVM вещь крайне годная, но матчасть там страшновата, да. Лучшая реализация с либами для всех ЯП https://www.csie.ntu.edu.tw/~cjlin/libsvm/ там же пейперы и примеры.
>Выглядеть может примерно так: -0.2 0.0 0.0 0.0 0.0 0.0 0.0 0.5 0.0 -0.1 0.0 -0.4 0.0 0.0 0.0 0.7 0.0
Из временного ряда лучше сделать матрицу Ганкеля столбца в 4, и уже строки из нее подавать алгоритму по типу 4столбец = f(3,2,1).
Аноним 13/02/18 Втр 14:06:39  1138113
>>1138065
Перцептрон не совсем устраивает тк предсказывает только на шаг вперед, мне бы на 3-5 шагов.

В sklearn есть и свм и документация и примеры. Там и попробую.

>Из временного ряда лучше сделать матрицу Ганкеля столбца в 4, и уже строки из нее подавать алгоритму по типу 4столбец = f(3,2,1).
Я не совсем понимаю зачем и честно говоря не знаю как. Нужно будет входные данные преобразовать в такую матрицу, изменить input_shape под нее, (4, 4) вроде как? Что такое f(3,2,1)?
У lstm один из плюсов это то что можно по одному значению подавать на вход и получать результат.
Аноним 13/02/18 Втр 14:29:27  1138128
>>1138113
>Я не совсем понимаю зачем и честно говоря не знаю как. Нужно будет входные данные преобразовать в такую матрицу, изменить input_shape под нее, (4, 4) вроде как? Что такое f(3,2,1)?
Например, у тебя есть временной ряд из 10 значений - 1 2 3 4 5 6 7 8 9 10. Нужно построить матрицу вида:
1 2 3 4
2 3 4 5
3 4 5 6
4 5 6 7
5 6 7 8
6 7 8 9
7 8 9 10
Далее, последняя колонка используется как выход у, первые 3 - как вход х. Такая схема для временных рядов практически идеальна для идентификации систем. Ну а матрицу Ганкеля из временного ряда можно строить автоматически, это есть на каждом углу, в пистоне уж точно есть https://docs.scipy.org/doc/scipy-0.14.0/reference/generated/scipy.linalg.hankel.html LSTM тоже можешь пробовать, но я очень сомневаюсь, что любой метод даст 500% качества от перцептрона (5 шагов вперед вместо 1), хотя если сама система там несложная, то мб, но это надо пробовать все подряд и смотреть что лучше.
Аноним 13/02/18 Втр 14:38:40  1138142
>>1138113
Еще вариант - построить 5 моделей, каждая из которых будет предсказывать на определенное кол-во шагов вперед. Но тогда соотв. образом должны быть сделаны датасеты (выход должен быть соотв-но следующий шаг, потом второй, третий, 4ый и 5ый). Это можно следать с перцептроном, ты ж говоришь, что на 1 шаг вперед точно предсказывает, тут то же, только вместо одного у тебя будет 5 перцептронов. Это аутизм, конечно, но мб и поможет, машобчик то еще шаманство вприсядку с бубном.
Аноним 13/02/18 Втр 15:01:36  1138177
>>1138128
Теперь понял. У меня примерно так и есть.
Для 5 шагов с перцептроном скорее подойдет вариант добавления предсказанного шага в входную последовательность (как я понял в LSTM это так и работает).
Перцептрон плохо предсказывает на более чем 1 шаг (пробовал), скорее всего именно потому что пытается предсказать не глядя на предсказание предыдущего. Под плохо я имею ввиду что-то вроде -0.002 при любом вводе.
Аноним 13/02/18 Втр 20:31:55  1138392
>>1138177
Временные ряды вообще довольно гиблое дело. Чувак выше дельный совет дал - попробуй ARIMA для начала, хотя бы как бейзлайн. То, что изменение цены происходит лишь иногда, сильно ухудшает прогноз. Вряд ли хоть какой-то метод тебе предскажет, что мол через три дня будет +5. Тут тебе кроме цены нужны другие факторы, которые влияют на нее.
На LSTM я бы сильно не расчитывал в данной ситуации. Поиграться можно, но вряд ли это даст результат.
Аноним 14/02/18 Срд 07:54:00  1138565
В шараге начался предмет по ИИ будем кодить на прологе и лиспе, блядь, препод, ктн, сказал параллельно проходить курсы и тесты по предмету на сервисе "Интуит", мол, от экзамена освободит. Что за Интуит? Сервис на уровне каких-нибудь geekbrains или ещё хуже?
Аноним 14/02/18 Срд 09:33:23  1138573
>>1138565

Типа текстовички с лекциями читаешь а потом тест проходишь.
Аноним 14/02/18 Срд 10:42:40  1138594
>>1138565
Ещё хуже, старье из 00х
Аноним 14/02/18 Срд 11:19:31  1138616
чуваки, возможно в далёком будущем программирование заменит ИИ, и тогда этой отрасли наступит шляпа?
Аноним 14/02/18 Срд 14:35:22  1138738
>>1138616
нетъ
Аноним 14/02/18 Срд 15:43:03  1138803
При запуске обучения выдает:
Your CPU supports instructions that this TensorFlow binary was not compiled to use: AVX AVX2

В интернетах советуют либо забить на это либо компилить весь TensorFlow целиком.
Неужели нет скомпилированных вариантов с этими инструкциями?

>>1138392
Я еще играюсь но LSTM дает довольно таки неплохие результаты. Конечно ошибается в отдельных шагах но в целом предсказания дает похожие на правду.
Аноним 15/02/18 Чтв 20:56:06  1139602
Поясните вкрации за нейронки. Насколько я понял, между входом и выходом расположено несколько слоев из нейронов, которые передают на следующий слой какие-то данные с предыдущего, и суть обучения заключается в настройке передаточной функции для каждого нейрона. А где магия-то? Как нейронная сеть позволяет, например, управлять машиной? Как проектировать их под свои нужды? Насколько сложно написать свою реализацию без тензорфлоу?
Аноним 15/02/18 Чтв 21:08:29  1139615
>>1139602
Если с английским так себе, то можно пройти бесплатный трехнедельный курс про нейронные сети на русском:
https://stepik.org/course/401

Там чисто базовый алгем, матан и самые основы нейронных сетей.
Аноним 15/02/18 Чтв 23:14:41  1139807
c.webm (1630Кб, 640x360, 00:00:18)
>>1121858 (OP)
Сап искусственные интеллекты. Как сделать так чтобы на вход нейроночки подавать флоат с двумя знаками после точки от -5 до 5, а на выход получать интежер от 0 до 99?
Аноним 15/02/18 Чтв 23:23:36  1139821
>>1139602
>Насколько сложно написать свою реализацию без тензорфлоу?
Написать свою реализацию - хуйня по сравнению с используеванием этого вашего тензорфлоу. Пиздец, как долго я его пытаюсь задрочить, а нихуя не выходит.
Аноним 16/02/18 Птн 00:08:48  1139858
>>1138803
Со следующей версии вроде обещали компилить сразу с этими инструкциями, пока только самому.
Аноним 16/02/18 Птн 10:53:06  1140080
>>1139602
Тарик Рашид - Создаем нейронную сеть
Как раз про самые основы и создание своей сети почти с нуля.
Аноним 16/02/18 Птн 21:09:29  1140481
>>1139615

Стесняюсь спросить, какое отношение алгем имеет к нейронкам?
Аноним 16/02/18 Птн 21:39:45  1140493
Где в физике кроме обработки данных с ускорителей могут использоваться нейронки?
Аноним 17/02/18 Суб 10:35:34  1140728
>>1140493
В написании статей с хайповым названием и зарабатывании на этом цитирований и респекта.
Аноним 17/02/18 Суб 12:15:41  1140754
>>1140728
Очень плохо.
А если серьезно?
Мне в голову пришла еще разве что хемоинформатика с предсказыванием структуры молекул.
Аноним 19/02/18 Пнд 10:16:27  1141879
>>1140754
> Мне в голову пришла еще разве что хемоинформатика с предсказыванием структуры молекул.
Это не физика. Если про молекулы заговорили, машобчик можно использовать для классификации геномов. Правда, там разного рода хитрая кластеризация, а не эти ваши нейроночки. Попадалось немного работ на эту тему, местами весьма круто, можно прямо филогенетические графы строить по степени близости видов, кто от кого произошёл, и все это как обучение без учителя. Противники эволюции сгорели бы дотла от батрушки, но к счастью для них, они дегенераты и не поймут подобных работ. По структурно-функциональным зависимостям молекул тоже попадались пейперы, самый интересный про карты Кохонена с взвешенной кросскорелляцией в качестве метрики (вместо обычной для этих алгоритмов евклидовой). Автор - голландский химик, написал не только статью, но и реализацию этого алгоритма в виде либы wccsom для R.
Аноним 19/02/18 Пнд 11:54:13  1141923
У меня есть некоторый набор данных. Catboost (random forest) на нем показывает хорошие результаты. Я смотрю какие из фич, подающихся на catboost являются самыми значимыми. И я вижу, что там нет тех фичей, о которых я думал.
Знают ли анонимные эксперты справляется ли random forest с такими данными, где какие-то две фичи, применяемые по отдельности, не дают результата, а их совместное применение дают огромную синергию?

Само собой, я могу просто нагенерить синтетических данных и проверить, но я буду это делать 2-3 часа, а анонимные эксперты может быть УЖЕ такие опыты проводили
Аноним 19/02/18 Пнд 12:58:24  1141972
>>1141923
Во первых catboost это градиентный бустинг на деревьях решений, во вторых деревья решений, который обычно используются не могут видеть связи между признаками.
Аноним 19/02/18 Пнд 13:41:07  1141991
>>1141972
Я не про (A-B), я про (A>=C)&(B>=D)

> градиентный бустинг на деревьях решений
градиентный бустинг, как я понимаю, это алгоритм обучения, а не устройство сети. Совокупность деревьев решений называется лесом, то есть random tree forest
Аноним 19/02/18 Пнд 13:50:38  1141994
>>1122534
>За черным квадратом стоит большая идея, просветись.
"Большую идею" придумали "критики" после увиденного. Если бы ты не знал, что указанные картинки нарисовали нейросети, а какой-нибудь художник, ты бы тоже в них начал искать идею.
Аноним 19/02/18 Пнд 14:19:23  1142004
>>1141991
бустинг и бэггинг принципиально разные вещи (ансамбли), в catboost действительно есть лес (смысле графов), но прицип работы принципиально другой, если в random forest дерьвья слабо коррелированы, то в градиентном бустинге каждое следующее дерево зависит от всех предыдущих. И как в одном так и в другом деревья могут быть каким-нубудь CART.
Аноним 19/02/18 Пнд 14:36:39  1142009
>>1141879
А не дашь ссылку на статью?
Аноним 19/02/18 Пнд 15:02:58  1142017
>>1142009
> А не дашь ссылку на статью?
Гугли SOTA self organizing tree algorithm. Там не одна статья.
Аноним 19/02/18 Пнд 15:11:21  1142021
>>1142004
> в градиентном бустинге каждое следующее дерево зависит от всех предыдущих
Оба-на. Я думал, что каждое отдельное дерево обучается само и не связано с другими. Спасибо
Аноним 19/02/18 Пнд 17:08:08  1142138
>>1141994
>я невежа и не стесняюсь это демонстрировать
Аноним 19/02/18 Пнд 17:15:01  1142148
>>1141972
>деревья решений, который обычно используются не могут видеть связи между признаками
Это не так. Если глубина больше 1, то вполне себе видят. Очевидно же, что модель, не видящая связей между признаками, крайне ограничена, и не сможет решить даже совсем простые задачи, например XOR.
Аноним 19/02/18 Пнд 17:50:35  1142188
>>1142148
XOR (как и NOT, AND, OR) решается заучиванием, а не аналитическим разбором
Аноним 19/02/18 Пнд 18:48:19  1142256
>>1142148
Ты бы для начала википедию прочитал:
There are concepts that are hard to learn because decision trees do not express them easily, such as XOR, parity or multiplexer problems. In such cases, the decision tree becomes prohibitively large. Approaches to solve the problem involve either changing the representation of the problem domain (known as propositionalization)[21] or using learning algorithms based on more expressive representations (such as statistical relational learning or inductive logic programming).
Аноним 20/02/18 Втр 19:15:15  1142940
1.png (31Кб, 1012x336)
дебил2.jpg (62Кб, 400x300)
Тут есть кто-нибудь из яндекса? Вам лечиться надо, реально, лол.
>либа для R
>не ставится без питона
А для софта на С у вас в зависимостях паскаль или гиви бейсик? А почему вместе с этой либой яндекс браузер не ставится, и яндекс-панель во все установленные браузеры?
Аноним 20/02/18 Втр 21:46:24  1143079
На питоне норм писать ? Не зашквар ?
Аноним 20/02/18 Втр 22:38:34  1143112
>>1143079
Зашквар, пиши на H2O и Clojure. Ну или Hylang накрайняк.
Аноним 20/02/18 Втр 22:52:50  1143119
>>1143112
А Haskell?
Аноним 20/02/18 Втр 23:03:56  1143124
>>1143112
>Hylang
Scala ?
Аноним 20/02/18 Втр 23:46:50  1143159
Подскажите.
Имею небольшой мат бэкграунд. Не хочу заниматься нейроночками, потому что они из всех щелей лезут. Нравятся обычные алгоритмы, например для обработки большого объёма данных. Не откажусь от всяких анализов текстов.
Как называется этот раздел и что упарывать? Заранее спасибо.
Аноним 21/02/18 Срд 06:31:34  1143254
>>1143159
> Нравятся обычные алгоритмы, например для обработки большого объёма данных.
Data mining.
> Не откажусь от всяких анализов текстов.
NLP, natural language processing
> Как называется этот раздел и что упарывать? Заранее спасибо.
Будешь смеяться, но топовые алгоритмы для NLP это нейроночки - skipgram, cbow, glove модели. Ищи реализацию под нужный тебе яп таких вещей как fasttext, word2vec, text2vec и кури документацию и оригинальные пейперы.
Аноним 21/02/18 Срд 11:33:35  1143313
>>1143124
https://github.com/hylang/hy
Аноним 21/02/18 Срд 11:33:58  1143314
>>1143119
Под хаскель научных либ мало, а так добро.
Аноним 23/02/18 Птн 00:28:16  1144573
Поясните чем глубокое обучение отличается от простого обучения?
Аноним 23/02/18 Птн 04:35:45  1144637
>>1144573
> Поясните чем глубокое обучение отличается от простого обучения?
В глубоком стыкованные алгоритмы неглубокого. Пример - аутоэнкодер это простое обучение, стыкованный аутоэнкодер - глубокое.
Аноним 23/02/18 Птн 10:35:16  1144678
.png (36Кб, 650x586)
>>1144637
Блэн, все равно ничего не понял, ну ладно.
Аноним 23/02/18 Птн 12:40:26  1144745
>>1144573
Слоев в нейроночке больше
Аноним 23/02/18 Птн 14:23:44  1144790
>>1144745
На сколько больше?
Аноним 23/02/18 Птн 21:00:15  1144967
>>1144790
не менее пяти 5
Аноним 24/02/18 Суб 21:23:36  1145474
15186224401022.jpg (47Кб, 598x564)
Аноним 26/02/18 Пнд 14:40:26  1146314
Анон, есть ли готовая реализация метода главных компонент для сокращения размерности? Не хочу тратить время на создание своего велосипеда.
Аноним 26/02/18 Пнд 16:03:45  1146408
>>1146314
http://scikit-learn.org/stable/modules/generated/sklearn.decomposition.PCA.html
Аноним 26/02/18 Пнд 17:02:27  1146466
>>1146408
Спасибо! Попробую переписать.
Аноним 28/02/18 Срд 04:42:19  1147331
>>1121858 (OP)
Сап
Есть одна нейронка, она работает, но в моем грузится почти 10 минут.
Вопрос: как делают чтобы все работало быстро и не грузилось каждый раз по пол часа при запуске скрипта? Может можно сохранить результат обучения или еще какие то хитрости?
Аноним 28/02/18 Срд 21:22:59  1147681
>>1144573
Смотри короче, суть такова. При неглубоком обучении особенности(фичи) по которым будет проходить обучение выбираешь ты, а при глубоком система сама обучается их выделять. Например фильтры в свёрточных сетях. В целом архитектуру тех же сетей ты всё равно выбираешь, поэтому на эти разделения можно хуй положить.
Аноним 01/03/18 Чтв 01:45:38  1147797
245106686127886.jpg (76Кб, 1280x720)
Где можно найти простенькие примеры нейросетей без кода, а в виде как пикрелтрейд? А то чет вообще ебу, как из этой хуеты делают алгоритмы распознавания текстов и лиц.
Аноним 01/03/18 Чтв 01:47:11  1147798
>>1147331
>Может можно сохранить результат обучения
Ты чё, каждый раз сбрасываешь все конфициенты и заново учишь сеть? Ты ебобо?
Аноним 01/03/18 Чтв 03:43:58  1147812
>>1131194
А какие книжки можно почитать про идентификацию систем?
Аноним 01/03/18 Чтв 03:53:21  1147813
>>1147798
>каждый раз сбрасываешь все конфициенты и заново учишь сеть?
>Ты ебобо?
да(
как их сохранять?
Аноним 01/03/18 Чтв 06:51:11  1147837
>>1132540
Я. Продаю футболки с красивым принтом "ИИ близко, спасайтесь люди"
Аноним 01/03/18 Чтв 18:21:09  1148081
Так, ну кто не мудак, дайте пару советов и не кидайтесь тухлыми яйцами. Мне кажется, что это офигенная штука, понимать как это работает, чисто для себя и решил вкатится. Ультимативная цель - это написать простенькую игрушку (думаю арканоид подойдет) и нейросеть, которая через reinforcement learning или по генетическим алгоритмам научится играть в игруху. В моем понимании - это не сложно, чем лучше результат изначально рандомных движений вправо-влево, тем больше будет вес у нейронов, которые к этим движениям привели, а у тех, что ведут к неправильным действиям - он уменьшается. И так оно учится, но бля..

Для понимания, решил начать с написания собственной простенькой нейросети (посоветуйте элементарный пример с минимумом нейронов, который можно воплотить), пока не получилось, проблема, судя по всему с математикой, я не понял по какой формуле нужно аджастить вес чтобы оно нормально училось, но надеюсь, разберусь. В шапке ссылки, блин, оно хорошо, но из опыта знаю, что прям сильно глубоко разбираться, сразу не пробуя на практике - говно, я так по Java 2 тома прочитал, в итоге на моем уровне и половина не требуется.

Короче, если знаете ссылку (можно англ), где разжовывается элементарная, но имеющая смысл нейросеть, то поделитесь, плз. Разберусь с вами или без вас.
Аноним 01/03/18 Чтв 19:14:43  1148119
>>1148081
Deeplearningbook (первая ссылка из оппоста) это то, что тебе надо. То, что ты просишь, аналогично "я не хочу сейчас глубоко изучать умножение, просто объясните, почему 2х2=4". Ну разберешься ты с элементарной нейроночкой (что это такое вообще? Перцептрон?), а дальше что? Элементарные нейроночки - сюрприз - не работают. Обучаются медленно и плохо. Работает глубокое обучение, которое не элементарно. Не трать время на перелопачивание говн мамонта, сразу учи то, что нужно.

>сразу не пробуя на практике
Вторая ссылка из оппоста.
Аноним 01/03/18 Чтв 19:19:28  1148125
>>1148081
И, если ты вдруг не в курсе, то нейроночки уже давно играют в арканоид и многое другое. Как с помощью обучения с подкреплением, так и на генетических алгоритмах. На гитхабе полно примеров. Только обучается это очень долго - пару суток на 1080ти как минимум, на ЦПУ забудь.
Аноним 02/03/18 Птн 13:47:45  1148464
>>1148081
На stepik.org есть очень доступный курс, там как раз во всех подробностях рассказывают про алгоритм обратного распространения ошибки и градиентный спуск.
Аноним 02/03/18 Птн 20:27:14  1148652
лол, нечёткий петушок всё ещё жив
Аноним 03/03/18 Суб 01:50:09  1148826
Суп, аноны. Кто в теме. Поясните ньюфагу. Допустим я хочу сделать нейронку, которая принимает на вход картинку, на выходе она дает, что на картинке допустим аниме или нет.

Какая структура для такой нейронки подойдет? Сколько входов надо сделать?
Аноним 03/03/18 Суб 11:13:18  1148888
>>1148826
> Сколько входов надо сделать?
Зависит от того, какого размера картинка.
Аноним 03/03/18 Суб 12:10:10  1148898
>>1148888 Мне кажется размера привьюшек двача достаточно, чтобы распознать анимепидоров. Стоит ли делать картинки меньше?
Аноним 03/03/18 Суб 12:11:16  1148900
и какая структура нейронки рулит для таких задач? Я кроме перцептрона ничего не знаю.

>>1148826-кун
Аноним 03/03/18 Суб 12:42:13  1148912
>>1148900
Свёрточные.
Аноним 04/03/18 Вск 19:35:07  1149613
>>1148900
гугли keras
Аноним 04/03/18 Вск 22:27:59  1149676
Хочу вкатиться в машобчик, скачал себе десяток книг и думаю, вот, с чего начать. Хочу почитать сначала статистику, тем более что данные для анализа есть, но насколько сильно ее нужно вкуривать, бахнуть весь учебник на 800 страниц или первые 100-200?
Аноним 04/03/18 Вск 22:50:03  1149690
Дратути. Подскажите, неужели нет готовых натрененых нейроночек чтоб пешеходов детектировать?
Потрогал dnn в опенсв, качество распознавания из говна, хожу чем у HOG+SVM.
Аноним 05/03/18 Пнд 08:12:57  1149820
ac141ef0-1668-1[...].png (942Кб, 1248x384)
>>1149690
DetectNet
Аноним 05/03/18 Пнд 13:07:20  1149945
>>1149690
Молодой человек, а вам зачем?
Аноним 05/03/18 Пнд 13:18:48  1149957
>>1149945
Думаю он из "Яндекса", робомобиль делает.
Аноним 05/03/18 Пнд 14:59:00  1150006
>>1149820
нашел джва проеба на пикче, а какой же будет пиздец в реале
Аноним 05/03/18 Пнд 21:36:54  1150253
image.png (34Кб, 497x264)
ЧЗХ? Это в четырёх измерениях?
Аноним 05/03/18 Пнд 21:43:58  1150257
>>1149945
>>1149957
На диплом взял робомобиль лол)))
Думал, что сейчас возьму обученную сетку и без задней мысли найду всех пешеходов, а потом сверху наверну разных методов принятия решений и зарулю как царь.
Но Че то надужной ОБУЧЕННОЙ сетки для детекта пешеходов не нашел.
Pedestrian detection, и MOT это целая проблема похоже.
Аноним 05/03/18 Пнд 22:14:23  1150284
Где взять входные данные для текста с лэйблами? Желательно чтобы лейблы можно было преобразовывать легко и просто в необходимый формат.
Аноним 06/03/18 Втр 11:05:15  1150551
>>1150253
> Это в четырёх измерениях?
Там жи написано, t-1, t, t+1, да и нарисовано по 3 нейрона.
Аноним 06/03/18 Втр 12:03:33  1150570
>>1150551
Как итерация нейронной сети может передавать значения предыдущей вообще?
Аноним 06/03/18 Втр 23:42:24  1150958
Можно мне обратно в /b/?
Аноним 06/03/18 Втр 23:46:26  1150959
>>1150958
И тред с собой прихвати.
Ко-ко-коско, говорили они. Нечеткий петух, говорили они. Аноним 07/03/18 Срд 12:34:03  1151067
1.png (125Кб, 585x667)
qu.jpg (57Кб, 640x366)
qu2.jpg (94Кб, 730x547)
Как известно, будущее вычислительной техники вообще - это квантовые вычисления. Квантовые вычисления проще и тривиальнее всего рассматривать как нечеткую логику (пик 1). Т.е. все алгоритмы МЛ в обозримом будущем будут прямо представлять собой либо нечеткую логику, либо что-то полностью равнообъемное ей, просто в других терминах. И вот тут-то и вспомнят, что МЛ давно уже изложен в рамках теории нечетких множеств, и все вообще (в т.ч. все, потенциально возможные) алгоритмы нечеткого машобчика являются частными случаями стандартной аддитивной модели Коско. Т.е. нечеткая логика - это не прошлое машоба, а его будущее. По факту, петухами в этой ситуации уже сейчас можно торжественно объявлять всю хипстерскую индусню (включая гугл) с их парашными сверточными сетями и прочей хуйней без будущего. Хотелось бы ОПРАВДАНИЙ.

Квантовые компьютеры основаны на квантовых битах или кубитах. Они также имеют два возможных значения, которые мы можем назвать 0 и 1. Но законы квантовой механики также допускают другие значения, которые мы называем состояниями суперпозиций.


В каком-то смысле состояния суперпозиции представляют собой значения, которые существуют между крайностями 0 и 1. Мы можем представить кубит как сферу, причем 0 и 1 расположены на противоположных полюсах. Состояния суперпозиции — все остальные возможные точки на поверхности.
https://habrahabr.ru/company/mailru/blog/350208/
Аноним 07/03/18 Срд 13:04:54  1151074
>>1151067
Интересно, доживу я до того момента, когда квантовое наебалово вскроется, или нет.
Аноним 07/03/18 Срд 13:10:20  1151078
152023397319663[...].jpg (111Кб, 700x521)
>>1151067
щас бы матанопетухам верить
Аноним 07/03/18 Срд 13:23:50  1151083
>>1151078
Маня, что вы забыли в треде про математику?
Аноним 07/03/18 Срд 13:29:18  1151085
>>1151083
>математику
петухатику
Аноним 07/03/18 Срд 14:17:54  1151120
Тут еще одно интересное соображение имеется - квантовые вычисления основаны на квантмехе, фундаментальном основании всей реальности. И вот, лучшее описание квантовых эффектов - это нечеткая логика. Так что это не какая-то там математическая теория, это язык бога, дегенераты инбифо бога нет
Аноним 07/03/18 Срд 20:32:38  1151294
>>1151074
>Интересно, доживу я до того момента, когда нечеткий петух вскроется, или нет.
Кармак пытается в нейроночки Аноним 07/03/18 Срд 22:29:50  1151338
After a several year gap, I finally took another week-long programming retreat, where I could work in hermit mode, away from the normal press of work. My wife has been generously offering it to me the last few years, but I’m generally bad at taking vacations from work.

As a change of pace from my current Oculus work, I wanted to write some from-scratch-in-C++ neural network implementations, and I wanted to do it with a strictly base OpenBSD system. Someone remarked that is a pretty random pairing, but it worked out ok.

Despite not having actually used it, I have always been fond of the idea of OpenBSD — a relatively minimal and opinionated system with a cohesive vision and an emphasis on quality and craftsmanship. Linux is a lot of things, but cohesive isn’t one of them.

I’m not a Unix geek. I get around ok, but I am most comfortable developing in Visual Studio on Windows. I thought a week of full immersion work in the old school Unix style would be interesting, even if it meant working at a slower pace. It was sort of an adventure in retro computing — this was fvwm and vi. Not vim, actual BSD vi.

In the end, I didn’t really explore the system all that much, with 95% of my time in just the basic vi / make / gdb operations. I appreciated the good man pages, as I tried to do everything within the self contained system, without resorting to internet searches. Seeing references to 30+ year old things like Tektronix terminals was amusing.

I was a little surprised that the C++ support wasn’t very good. G++ didn’t support C++11, and LLVM C++ didn’t play nicely with gdb. Gdb crashed on me a lot as well, I suspect due to C++ issues. I know you can get more recent versions through ports, but I stuck with using the base system.

In hindsight, I should have just gone full retro and done everything in ANSI C. I do have plenty of days where, like many older programmers, I think “Maybe C++ isn’t as much of a net positive as we assume...”. There is still much that I like, but it isn’t a hardship for me to build small projects in plain C.

Maybe next time I do this I will try to go full emacs, another major culture that I don’t have much exposure to.

I have a decent overview understanding of most machine learning algorithms, and I have done some linear classifier and decision tree work, but for some reason I have avoided neural networks. On some level, I suspect that Deep Learning being so trendy tweaked a little bit of contrarian in me, and I still have a little bit of a reflexive bias against “throw everything at the NN and let it sort it out!”

In the spirit of my retro theme, I had printed out several of Yann LeCun’s old papers and was considering doing everything completely off line, as if I was actually in a mountain cabin somewhere, but I wound up watching a lot of the Stanford CS231N lectures on YouTube, and found them really valuable. Watching lecture videos is something that I very rarely do — it is normally hard for me to feel the time is justified, but on retreat it was great!

I don’t think I have anything particularly insightful to add about neural networks, but it was a very productive week for me, solidifying “book knowledge” into real experience.

I used a common pattern for me: get first results with hacky code, then write a brand new and clean implementation with the lessons learned, so they both exist and can be cross checked.

I initially got backprop wrong both times, comparison with numerical differentiation was critical! It is interesting that things still train even when various parts are pretty wrong — as long as the sign is right most of the time, progress is often made.

I was pretty happy with my multi-layer neural net code; it wound up in a form that I can just drop it into future efforts. Yes, for anything serious I should use an established library, but there are a lot of times when just having a single .cpp and .h file that you wrote ever line of is convenient.

My conv net code just got to the hacky but working phase, I could have used another day or two to make a clean and flexible implementation.

One thing I found interesting was that when testing on MNIST with my initial NN before adding any convolutions, I was getting significantly better results than the non-convolutional NN reported for comparison in LeCun ‘98 — right around 2% error on the test set with a single 100 node hidden layer, versus 3% for both wider and deeper nets back then. I attribute this to the modern best practices —ReLU, Softmax, and better initialization.

This is one of the most fascinating things about NN work — it is all so simple, and the breakthrough advances are often things that can be expressed with just a few lines of code. It feels like there are some similarities with ray tracing in the graphics world, where you can implement a physically based light transport ray tracer quite quickly, and produce state of the art images if you have the data and enough runtime patience.

I got a much better gut-level understanding of overtraining / generalization / regularization by exploring a bunch of training parameters. On the last night before I had to head home, I froze the architecture and just played with hyperparameters. “Training!” Is definitely worse than “Compiling!” for staying focused.

Now I get to keep my eyes open for a work opportunity to use the new skills!

I am dreading what my email and workspace are going to look like when I get into the office tomorrow.
Аноним 08/03/18 Чтв 18:22:26  1151679
Есть годные примеры нейронок на питоне для нуфага?
Аноним 09/03/18 Птн 22:57:19  1152630
Учить языки же просто. Зубри, повторяй, генерируй. Так почему вы ещё не научили компьютер языку?
Аноним 09/03/18 Птн 23:50:59  1152659
изображение.png (146Кб, 680x680)
>>1152630
Аноним 10/03/18 Суб 00:40:04  1152680
>>1152630
Не срать в нейроночкотреде тоже просто, а вот ты не справился. Так и везде.
Аноним 10/03/18 Суб 00:44:50  1152684
>>1128789
Бамп вопросу.
Аноним 10/03/18 Суб 01:25:12  1152709
>>1152684
>Реально ли самому заработать авторитет на кэгле и устроится на работу показав работодателю место?
Если только у тебя есть 3-5 лет опыта как программиста.
Аноним 10/03/18 Суб 08:27:40  1152783
>>1131102
> Но чаще функции и их суперпозиции, описывающие систему, неизвестны.
Неправда. Неизвестны все переменные. Но все переменные и не нужно знать достаточно только тех, знание которых позволяет построить функциональную зависимость между ними и результатом с необходимой точностью. Это имеет место быть в большинстве процессов, если не касаться процессов связанных с человеческим поведением, но даже там есть вполне конкретные взаимосвязи (психоанализ и ежи с ним).
>Помимо этого есть ещё неустранимая неточность, которая в общем случае к вероятности не сводится.
Ложь. Любая неточность, читай ошибка, сводится к плотности распределения вероятности этой ошибки. Для этого достаточно наблюдать процесс долгое время. Ты не знаешь составляющих ошибки, но саму ошибку с точки зрения вероятности описать можно как и ее динамику. Исключения только те процессы, которые не могут быть наблюдаемыми.
>Но это всегда будет аппроксимация неизвестных функций всякой хуетой, которая даёт удовлетворительную точность только на обучающих данных. При уже минимальной экстраполяции получается хуйня, т.к реально функции не те.
Верно. При отсутствие реальной (то есть физической) математической модели, хотя бы приближенной, то любая экстраполяция может соснуть, если только не рассматриваются тривиальные модели типа ортогональных функций.
>И вот на этот момент всем похуй
Ага, то-то научные эксперименты существуют. Вы вообще хотя бы гуглили эту "проблему"?
>И лично мне не известен ни один подход в машобе, который бы ставил вопрос идентификации реальных законов системы, а не его аппроксимацию левыми функциями.
Потому что это не задача машинного обучения? Насколько я знаю искусственный интеллект еще далёк от понимания абстракций, что является основой для любой научной деятельности. Вы наверное не в курсе.. Но то что вы написали
>идентификации реальных законов системы
это как раз задача исследователей, а не нейронной сети.
>решения не будет, потому что проблема не ставится во всей её полноте.
Не знаю по поводу индусов и прочих, но здесь соглашусь: неправильное определение проблемы одна из самых распространенных ошибок в любой сфере деятельности.


Аноним 10/03/18 Суб 09:18:10  1152787
>>1152783
> Ложь. Любая неточность, читай ошибка, сводится к плотности распределения вероятности этой ошибки. Для этого достаточно наблюдать процесс долгое время. Ты не знаешь составляющих ошибки, но саму ошибку с точки зрения вероятности описать можно как и ее динамику. Исключения только те процессы, которые не могут быть наблюдаемыми.
Я же приводил пример - временные ряды, пусть цена валюты. У нас есть сколько угодно исторических данных, какой-нибудь архив truefx за пару лет с миллисекундным разрешением. Это достаточно долгое наблюдение за процессом, чтобы вычислить плотности вероятности всех его составляющих (т.к процесс недетерминированный, только о них и можно говорить). И что, даст нам это возможность прогнозировать процесс хотя бы на минуту вперёд и хотя бы в виде прогноза "больше - меньше текущего значения"? Нет. Можно изьебываться как угодно, построить любую модель, все равно результат будет плачевный. Вопрос - почему? Ведь у нас есть все для вычисления.
> Неправда. Неизвестны все переменные. Но все переменные и не нужно знать достаточно только тех, знание которых позволяет построить функциональную зависимость между ними и результатом с необходимой точностью. Это имеет место быть в большинстве процессов, если не касаться процессов связанных с человеческим поведением, но даже там есть вполне конкретные взаимосвязи (психоанализ и ежи с ним).
На примере временных рядов очень легко увидеть, что это не так, и что сколь угодно точная аппроксимация не экстраполируется вообще никак. Опять же вопрос - почему?
> Потому что это не задача машинного обучения?
Это как раз самая что ни на есть задача машинного обучения. Но в такой форме её не ставил никто кроме Ивахненко.
Аноним 10/03/18 Суб 10:38:36  1152803
>>1152787
>Я же приводил пример - временные ряды, пусть цена валюты. У нас есть сколько угодно исторических данных, какой-нибудь архив truefx за пару лет с миллисекундным разрешением. Это достаточно долгое наблюдение за процессом, чтобы вычислить плотности вероятности всех его составляющих (т.к процесс недетерминированный, только о них и можно говорить). И что, даст нам это возможность прогнозировать процесс хотя бы на минуту вперёд и хотя бы в виде прогноза "больше - меньше текущего значения"? Нет. Можно изьебываться как угодно, построить любую модель, все равно результат будет плачевный. Вопрос - почему? Ведь у нас есть все для вычисления.
Для вычисления ошибки модели? Ведь именно про нее я и написал. Если так, то да. Конечно. Сравнивая значения реальных данных (те самые котировки) и значения полученные с помощью созданной мат. модели мы можем получить невязку и ее статистические характеристики. Это позволит нам правильно выбрать уровень доверия" к выбранной модели.
>Нет. Можно изьебываться как угодно, построить любую модель, все равно результат будет плачевный. Вопрос - почему? Ведь у нас есть все для вычисления.
Для вычисления
невязки - да. Для предсказания того как поведет себя процесс в будущем? На самом деле тоже да. Построив плотность распределения вероятности мы сможем сказать, что вероятность того, что завтра доллар будет стоить 36 рублей маловероятно*. Это связано с тем, что настолько резкое изменение цены на доллар не характерно, то есть маловероятно. А вот через год это чуть более вероятно. А через 5 лет еще более вероятно. А через 100 лет мы приблизимся к 50/50 - то есть к равновероятному результату, потому что я для простоты решил, что у нас ПРВ нормальная. НО это будет справедливо для выбранной модели, которая основана только на статистическом анализе процесса изменения цены. Я думаю очевидно, что этого недостаточно для торговли ценными бумагами.
>На примере временных рядов очень легко увидеть, что это не так, и что сколь угодно точная аппроксимация не экстраполируется вообще никак. Опять же вопрос - почему?
Опять таки где вы вообще увидели, что я говорил про аппроксимацию? Я говорил про создание мат. модели имеющую вполне конкретную ошибку и что эту ошибку можно учесть. Аппроксимировать непонятный процесс - это в принципе отчаянный поступок. Нормальные ученные стремятся найти аналитическое решение функции, а не просто нагородить полиномы 20-тых степеней и типа и так сойдет. Я повторяю второй раз - для предсказания нужна математическая модель, которая основана на физическом, реальном мире. У ценообразования доллара есть такая модель. Она написана в учебниках по экономике и психоанализе действий трейдеров. И эта модель не идеальна и не точна, но тем не менее она будет точнее и лучше любого полинома, который был выведен для аппроксимации кривой изменения цены.
>Это как раз самая что ни на есть задача машинного обучения.
Я немного сомневаюсь в этом, но воля ваша так считать.
Аноним 10/03/18 Суб 11:01:55  1152815
>>1152803
>Для вычисления невязки - да. Для предсказания того как поведет себя процесс в будущем? На самом деле тоже да.
Ок, тогда хотелось бы примеров алгоритмов, которые могут прогнозировать хотя бы направление курса с вероятностью хотя бы 70-80% хотя бы через минуту от текущего значения. Требования достаточно скромные.
> для предсказания нужна математическая модель, которая основана на физическом, реальном мире. У ценообразования доллара есть такая модель. Она написана в учебниках по экономике и психоанализе действий трейдеров. И эта модель не идеальна и не точна, но тем не менее она будет точнее и лучше любого полинома, который был выведен для аппроксимации кривой изменения цены.
Вопрос в том, можно ли построить такую модель, основываясь только на имеющихся данных, а не на знаниях в предметной области. Т.е. вот у нас есть данные, что мы можем сказать о процессах, генерирующих такие данные, основываясь только на самих данных? Это же классическая постановка задачи идентификации системы типа черного ящика, т.е. машинное обучение как оно есть. Т.е. у нас есть выход (значение курса через минуту) и есть вход (значения в более ранние моменты времени). Вопрос в том, как предсказать значение через минуту, имея все значения включая текущие. Очевидно, что если зависимости нет и мы имеем дело с полным рандомом, то используя стратегию мартингейла, мы будем в плюсе всегда. Однако, легко проверить что это не так и мартингейл не работает. Значит, имеется распределение вероятностей, отличное от нормального. Вроде как теоретически его можно восстановить из данных. Но подобные модели не могут в экстраполяцию. Значит, проблема в самих моделях. Вопрос в том, что это за проблема.
Аноним 10/03/18 Суб 11:21:10  1152820
>>1152815
>Ок, тогда хотелось бы примеров алгоритмов, которые могут прогнозировать хотя бы направление курса с вероятностью хотя бы 70-80% хотя бы через минуту от текущего значения. Требования достаточно скромные.
Ничего сложного, только вот по поводу 70% - это вы перегнули. В районе 35-40% устроит? Обычные movings averages в любом трейдерском терминале. Стратегии/алгоритмы как их использовать описаны в любой книжке по тех. анализу. И не подумайте, чтя смеюсь - это и правда одна из многих вполне корректных моделей для описания процесса ценообразования, но как я уже говорил - они все не обладают требуемой точностью.
>Это же классическая постановка задачи идентификации системы типа черного ящика, т.е. машинное обучение как оно есть.
Вы правы, но неправы к области применения. Насколько я помню из лекций в ВУЗе одно из главных требованиям к такому анализу, чтобы из данных на входе можно было получить данные на выходе.
Пример:
на входе 3 и 4.
на выходе 7.
найденная функция: сложение элементов (3 + 4 = 7).
Это случай корректного применения алгоритма "подбора" по неважно какому алгоритму "решения" задачи.
Другой пример:
на входе 3.
на выходе 7.
функция не может быть найдена.
Почему? Потому что входные данные не содержат в себе выходных данных. То есть не содержат в себе решения задачи. То есть они неполные. То же самое происходит когда кто-то пытаетесь запихнуть значения котировок в свою нейронную сеть - ничего не получится. Данные не полные. В этом случае любая модель, которая получится у алгоритма - ложь не отражающая действительность. И это не беда на самом деле - мы всегда не обладаем полными входными данными, но как я уже писал выше "нам не нужно знать все переменные функции, нам нужно знать только те, которые значительно влияют на результат". Здесь то же самое. Кто-то думает, что значение котировок достаточный минимум входных данных для решения задачи, но на самом деле это не так. В этом я вижу причину проблемы. Не в алгоритмах дело - дело во входных данных.
Аноним 10/03/18 Суб 11:29:34  1152823
>>1152815
>>1152820
>Вопрос в том, можно ли построить такую модель, основываясь только на имеющихся данных, а не на знаниях в предметной области.
Ну, и вдогонку к моему ответу. Мне кажется, что нет. Если все имеющиеся данные это значения котировок в прошлом. Если вам и правда это интересно, то советую книгу "Инвестиционная оценка" Дамодарана или подобную книгу про фундаментальный анализ компаний на фондовом рынке. Идея в том, что бы оценивать компании по вполне конкретным показателям выраженных в числа: доходы за год, общий долг, волатильность акций, в общем активы и пассивы предприятия. Имея подобные показатели, а они в свободном доступе представлены самими компаниями в электронном виде, + котировки цен акций компаний вы можете загрузить их в свой алгоритм и я готов поклясться, что невязка будет значительно меньше, чем если бы использовать только котировки.
Аноним 10/03/18 Суб 12:16:49  1152833
>>1152820
>Другой пример:
>на входе 3.
>на выходе 7.
>функция не может быть найдена.
Почему? (х*2)+1 же, линейная функция, аффинная, если точнее (не проходит через начало координат). Вопрос больше в том, насколько другие входные данные соответствуют такому выходу. Возможно, коэффициенты будут немного другие. Если выходы нелинейно зависят от входов, то аппроксимировать это все равно можно линейными моделями, например аффинный вариант нечеткой модели Такаги-Сугено с твоим примером справится наотличненько, даже если там строго нелинейная система. Однако, для временных рядов вышеуказанная модель в целом не лучше любой другой, что только подтверждает т.н. "no free lunch theorem".
>>1152823
>Идея в том, что бы оценивать компании по вполне конкретным показателям выраженных в числа: доходы за год, общий долг, волатильность акций, в общем активы и пассивы предприятия. Имея подобные показатели, а они в свободном доступе представлены самими компаниями в электронном виде, + котировки цен акций компаний вы можете загрузить их в свой алгоритм и я готов поклясться, что невязка будет значительно меньше, чем если бы использовать только котировки.
Это в машобе называется "фичи". И да, общеизвестно, что для идентификации систем наборы фич гораздо эффективнее сырых данных, генерируемых неизвестным процессом или суперпозицией таковых. Но, их выделение требует априорных знаний о природе идентифицируемой системы, т.е. нужен эксперт в данной предметной области, чтобы выделить значимые для модели показатели. Задача же машинного обучения в том, чтобы обойтись без экспертов, одними данными и алгоритмами. Модный диплернинг, к слову, именно из-за некоторой способности к автоматическому выделению фич и имеет такой космический эффект по сравнению с другими классами алгоритмов в задачах типа детекции котиков на снимках.
Аноним 10/03/18 Суб 13:11:43  1152849
Нейрач, распознаю капчу с одного сайта, добился 70% успеха, но мне хочется больше.
Сделал двухцветное изображение, повернул методом минимального граничного прямоугольника из OpenCv, сделал обычный однослойный персептрон, в качестве передаточной функции использую:
color == 0 ? --weight : ++weight
Дело в том, что повернуть не всегда удается правильно - иногда минимальный прямоугольник получается, когда символ лежит под углом. Поэтому я думаю как-нибудь подогнать передаточную функцию.
Что можешь посоветовать? Какие вообще функции используются для капчей?
Аноним 10/03/18 Суб 13:45:59  1152871
ГЕНИАЛЬНОЕ РЕШЕНИЕ БЕСЧЕЛОВЕЧЕСТНОСТИ ИИ
Задумать ИИ первоначально как повара. Его первоначальные убеждения будут на основе вкусности и соответствия безопасности и санитарным нормам.
Аноним 10/03/18 Суб 14:01:28  1152876
>>1152871
>как повара
зохавать всех мясных человеков. заебца придумал
Аноним 10/03/18 Суб 15:40:37  1152951
Каким образом можно видеофрагмент нейросети скормить ? Сеть обычная - многослойная с сигмоидом, до этого обучал её на распознавание ч/б цифр (по датасету MNIST) - 87% выдавала на выходе.
Матрица изображения была двухмерная, просто разворачивал её в вектор и передавал сети.
У видео же 4 измерения будет - ширина, длина, цвета в RGB и количество кадров. Есть другие варианты, кроме как все эти 4 измерения преобразовать в одномерный вектор?
Аноним 10/03/18 Суб 16:19:43  1152977
>>1152849
>персептрон
Несерьёзно. Пиздуй про свёрточные сети читать, а потом стейт-оф-тхе-арт архитектуры для капчи гугли.
>>1152951
Вслед за первым отправляйся, затем ищи что-нибудь типа "video data preprocessing".
Аноним 10/03/18 Суб 16:26:24  1152982
>>1152977
Знаю, что на сверточных лучше работать будет, вопрос в другом - в каком виде данные с видео в сеть подать.
Аноним 10/03/18 Суб 16:29:20  1152984
>>1152977
Пошел вон из треда.
Аноним 10/03/18 Суб 16:41:40  1152991
СМ.jpg (57Кб, 640x480)
>>1152982
Кадр в тензор можно запихать. Только обычная сеть с ними обосрётся работать. Говорю, лучше иди свёрточные разбери, вся фигня из 60-ых работает только на игрушечных задачах, как распознавание циферок.
>>1152984
Дожили, я его перекатил, а меня выгоняют.
Аноним 10/03/18 Суб 17:38:30  1153032
>>1152876
Мясо человека вредное и невкусное.
Аноним 10/03/18 Суб 19:43:44  1153099
>>1153032
Буквально как свинина, а вредность зависит от образа жизни.
Аноним 11/03/18 Вск 00:19:03  1153232
>>1152984
раздался голос со стороны помоечки
Аноним 11/03/18 Вск 00:21:39  1153234
Поясните за вышмат г-споди, чувствую себя очередным довеном, вопрошающим "А нужна ли математика программисту?" в машобе:я питонист с годом опыта, решил ради интереса потыкать нейроночки, с калкулосом и линейкой не очобо знаком, но "надо, Федя, надо", так что взял список литературы, который рекомендуется изучить для поступления в ШАД (есть у них на сайте) и начал осваивать. Также начал смотреть лекции по машобу на курсере (от яндекса и ВШЭ), на вопросы в предлагаемых тестах легко отвечаю, но с КУЧИ БЛЯДСКИХ НЕПОНЯТНЫХ ФОРМУЛ В ЕГО ПРЕЗЕНТАЦИЯХ люто охуеваю и не пойму -- понадобится ли мне в дальнейшем полное понимание всех этих зубодробительных формул и прочее, или всё же это не критично? И хватит ли мне для этого того перечня литературы или нужно что-то ещё читать?
Аноним 11/03/18 Вск 00:56:43  1153248
>>1153234
>понадобится ли мне
Да кто ж тебя знает, чем ты собираеш'ся занимат'ся.
>хватит ли мне
Хватит.
Аноним 11/03/18 Вск 01:06:05  1153251
>>1153234
Но там нету сложных формул, наоборот, они очень простые. Если они тебе кажутся сложными то тебе линал надо подтянуть. Там хватает знаний линала в рамках первой части учебника Кострикина. Это буквально пара глав.
Аноним 11/03/18 Вск 01:13:43  1153253
>>1153248
>Да кто ж тебя знает, чем ты собираеш'ся занимат'ся.

Ну что-то ресёрчить я вряд ли буду, но хотя бы в рамках использования всяких популярных МЛ-библиотек типа TF и CatBoost и успешного их использования для решения каких-нибудь задач.
Аноним 11/03/18 Вск 01:15:21  1153255
image.png (111Кб, 619x361)
>>1153251
Я, например, вот о таких записях. Ну то есть я вообще не выкупаю что тут происходит:

Аноним 11/03/18 Вск 01:59:25  1153273
>>1153255
Откуда эти лекции?
Аноним 11/03/18 Вск 02:23:46  1153280
>>1153273
С курсеры. Совместные лекции Яндекса и ВШЭ:
https://www.coursera.org/learn/vvedenie-mashinnoe-obuchenie/
Аноним 11/03/18 Вск 03:03:20  1153287
>>1153255
В начале курса должны были объяснить значение всех букв. Вот на примере первой формулы: X - это наборы данных, вектора. Судя по всему X^l это обучающая выборка. X^k - это ответы. Мю - это некоторый алгоритм который обычно и подбирается. Q - это функция ошибки, которую надо минимизировать, подбирая правильный алгоритм. И так далее. Но посмотри курс с начала. Там сто процентов должны были определить все эти термины.
Аноним 11/03/18 Вск 03:05:01  1153288
Решил вкатиться сразу с tensorflow. Осознал свою ошибку, но было поздно, откатываться на низкоуровневый кодинг сетей теперь западло, а синтаксис и логика самого tf по имеющейся немногочисленной рускоязычной инфе дается очень трудно по причине своего некоррелирующего с требуемой функциональностью синтаксиса (процедуры и функции требуют абсурдного количества аргументов и методов, когда этого не требуется). Подскажи, что делать? Может учебнички какие на русском или есть более адаптивные для еще не поехавших людей инструменты?
Аноним 11/03/18 Вск 03:06:41  1153290
>>1153287
Ничего этого вообще не было. Он быстренько всё рассказал, формулы промелькали и баста. Ну может быть, конечно, дальше будет, это пока была только вводная лекция, но всё равно как-то обескураживает.
Аноним 11/03/18 Вск 03:11:00  1153292
>>1153290
Попробуй другой курс тогда. Вот на курсере есть специализация от яндекса 6 курсов. "Машинное обучение и анализ данных" называется. Попробуй ее, там все очень подробно объясняют.
Аноним 11/03/18 Вск 03:35:58  1153302
>>1153292
Спасибо, гляну.
Аноним 11/03/18 Вск 04:18:23  1153307
>>1153255
Это азы, это ты должен понимат', чтобы хот' как-то продвинут'ся.
Аноним 11/03/18 Вск 04:39:18  1153315
>>1153255
> Я, например, вот о таких записях. Ну то есть я вообще не выкупаю что тут происходит:
Сие функционалы, самые азы вариационного исчисления. Автор этих записей решил выебнуться просто, если это шад, поди какой-нибудь Воронцов соснул концов. Грубо говоря, функционал - это одна циферка, обычно вещественное число, зависящая от аргументов в скобке (левая часть уравнения), в правой части описываются функции от этих аргументов, которые слева в скобках. Суть в том, чтобы найти значения аргументов этих функций, минимизирующие функционал. Такая нотация довольно удобна, если она используется к месту, а не в учебном курсе, потешить чсв автора.
Аноним 11/03/18 Вск 04:46:42  1153316
>>1153315
Да даже такая нотация будет понятна, если показать пример, что вот отсюда берется число, вставляется сюда, проходит следующие вычисления и здесь выходит результат.

Но вот хуй, просто показываются формулы и гадай сам. Речи нет, можно взять тома матана и алгема, вызубрить их. Взять тома 70-90ых годов с чистой математической теорией нейронных сетей и методов машинного обучения. И таки дойти до этих формул и понять, что же они значат. Но это довольно долго.
Аноним 11/03/18 Вск 04:50:19  1153318
>>1153302
По нейронным сетям самый простой курс на stepic.org
https://stepik.org/course/401
Там лысый пацанчик тоже любит формулы, но потом объясняет откуда они взялись, и куда какие числа выткать.
Аноним 11/03/18 Вск 07:16:13  1153333
>>1153316
> Но вот хуй, просто показываются формулы и гадай сам.
Дропать нужно таких авторов и их писульки. В ISLR даже SVM объясняют без функционалов, хотя там такая нотация исторически традиционна, начиная с Вапника и 60х годов. Поэтому ISLR это учебник здорового человека, а лекции шад - курильщика.
Аноним 11/03/18 Вск 14:44:58  1153481
>>1153315
> поди какой-нибудь Воронцов
Да, это он.
Я просто начал охуевать от количества переменных, которые нигде не описаны и не обозначены (а значит предполагается, что я должен знать их значение) и от конструкций (типа этого функционала), которые никогда до этого не видел.
Аноним 11/03/18 Вск 14:54:24  1153500
>>1153481
> Я просто начал охуевать от количества переменных, которые нигде не описаны и не обозначены (а значит предполагается, что я должен знать их значение) и от конструкций (типа этого функционала), которые никогда до этого не видел.
Ну так и брось каку, родина дала нормальные учебники типа того же ISLR, что там в этой рекламной параше, яндексе, могут родить годного, даже не представляю.
Аноним 11/03/18 Вск 14:57:34  1153505
image.png (125Кб, 535x886)
>>1153500
Ты вот про это?
Я просто заебался искать точку входа в эти ваши нейроночки. Возьмёшься за одно -- там говорят, что нужен неебический матан и алгем, возьмёшься за другое -- там вроде школьной программы достаточно, но преподают, например, херово.
Аноним 11/03/18 Вск 15:05:12  1153516
>>1153505
> Ты вот про это?
Да. Ещё Бишоп был, точное название не помню, раньше в шапке были ссылки, потом все проебали.
Аноним 11/03/18 Вск 17:03:08  1153634
>>1153288
Да выучи немного английского, чо ты.
Аноним 11/03/18 Вск 19:47:11  1153832
Пацаны а реально написать на селениуме распознаватель капчи двачевской? Сколько по времени придется писать и какие алгоритмы посоветуете?
Аноним 11/03/18 Вск 22:07:47  1153957
Шалом, пацаны.
Вводная: есть один краулер новостей. Он вяленько мониторит пару десятков сайтов, выграбает заголовки, потом что мне покажется относящимся к законодательной тематике, которую мониторю - я апрувлю к своему агрегатору новостей, оно с горем пополам парсит. Есть пара тысяч заапрувленных новостей, которые мне подходят.
Задача: хочу нейронную сеточку, что бы оно без меня прогоняло заголовки и тексты статей, и апрувило самое очевидное без моего участия вообще, что бы я только заходил и удалял лишнее сообщив об том что нейросеть накосячила самой нейросети.

Из языков программирования знаю только Python да и то так, по гуглу.
Подскажите хоть как это гуглить это все, может примером киньтесь на гитхабе или в книге какой, или еще где как это все можно замутить. Почти уверен что задача достаточно шаблонная и как бы не тривиальная.
Аноним 11/03/18 Вск 22:30:28  1153979
>>1153957
С нейроночкой ты тут завязнешь. Нейроночки для работы с текстом оче сложны. Тебе больше подойдет традиционный алгоритм для фильтрации спама, bag of words + наивный Байес, например. Или вовсе по набору ключевых слов детектить.
Аноним 11/03/18 Вск 22:38:39  1153992
>>1153979
Спасибо большое!
Погуглил, выглядит простовато, но думаю для начала поиграться хватит
Аноним 11/03/18 Вск 22:42:24  1153995
>>1153957
http://scikit-learn.org/stable/tutorial/text_analytics/working_with_text_data.html
Пара тысяч будет маловато, наверное. Лучше 5, а то и 10 взять. Мешок + регрессия на такой задаче дадут где-то 85-90% точности.
Аноним 11/03/18 Вск 22:43:42  1153996
Пацаны а реально написать на селениуме распознаватель капчи двачевской? Сколько по времени придется писать и какие алгоритмы посоветуете?
Аноним 11/03/18 Вск 22:56:37  1154005
>>1153995
Спасибо, гляну.
Можешь сказать как оно называется упомянутый тобой термин "мешок" на английском? так и есть, просто bag?
Аноним 12/03/18 Пнд 01:13:28  1154126
>>1154005
Наверное имелся ввиду Bag of Words
Аноним 12/03/18 Пнд 02:54:54  1154213
>>1153996
Иди в жопу, из таких как ты макака сделал настолько трудную капчу, что даже человек не всегда разгадывает. Автоматизатор хуев.
Аноним 12/03/18 Пнд 04:27:33  1154282
1493410553011.jpg (60Кб, 553x861)
Есть данные о значении переменной каждый час за несколько лет:
дата час температура
01.01.1999 1 3
01.01.1999 2 3
01.01.1999 3 4
...
01.01.1999 24 1
02.01.1999 1 2
....
Как предсказать значение этой переменной на следующие сутки? Мне нужен только подход.
Аноним 12/03/18 Пнд 06:37:28  1154337
>>1154282
Seasonal ARIMA
Аноним 12/03/18 Пнд 07:13:13  1154344
>>1154337
Хорошо. Но для начала, как сделать сам time series? Когда есть только дата, то все понятно, для x_train берем какое-то количество дней t, тогда y_train будет t+1. Но у меня на каждый день есть данные по 24 часа и мне кажется что из t часов сложно делать вывод о t+1, нужно ли разделить датасет на 24 части и предсказывать каждый час отдельно?
Аноним 12/03/18 Пнд 07:49:54  1154350
>>1154344
ARIMA тебе все сделает, разберись что это такое. При разработке модели разбиваешь на две части: t < T0 для тренировки и t > T0 для теста. Для продакшена тренируешь на всех доступных данных.
Аноним 12/03/18 Пнд 08:45:32  1154355
>>1153500
>>1153505
>300 страниц линейной регресии
Зачем?
Аноним 12/03/18 Пнд 09:34:34  1154360
>>1154350
Спасибо, взлетело.
Аноним 12/03/18 Пнд 11:07:12  1154382
>>1154126
Спасибо!
Аноним 12/03/18 Пнд 11:12:23  1154385
>>1154355
> Зачем?
А чтобы прониклись! Зато потом не будет совсем уж детских вопросов.
Аноним 12/03/18 Пнд 12:02:46  1154396
Просто оставлю на почитать, статейка о проблемах глубинного обучения: https://geektimes.ru/post/297309/
Аноним 12/03/18 Пнд 12:31:36  1154405
>>1154396
Самая главная проблема там в том, что весь этот ололо-диплернинх это всего лишь один из миллионов возможных вариантов асимптотически-эффективных решений задач машобчика. Эта проблема не новая, о ней писал еще Вапник в 70-х годах прошлого века. В начале 10-х годов хайпанули, получив увеличение эффективности сразу на несколько процентов, а уже сейчас дальнейший прогресс скукожился, несмотря на нарастающую мощность используемого железа. И все, хипстеры сосут, энтузиазм кончился, начинаются статейки типа той, что ты покушать принес. Опять нужны деды машоба типа Хинтона и Лекуна, чтобы придумать что-то новое. В лучшем случае - еще один асимптотически-эффективный метод. Но это путь в никуда, допустим, пробьют они стену башкой из барбершопа, в соседней-то камере один хуй делать нечего.
Аноним 12/03/18 Пнд 17:55:23  1154639
>>1154405
>Но это путь в никуда
а они и никуда не идут, они зарабатывают бабосы и научный авторитет, выпуская маняфантастические книги и читая лекции. даже наоборот, любой качественный прогресс в ии будет резаться на корню.

мимо
Аноним 12/03/18 Пнд 23:53:11  1154793
http://karpathy.github.io/neuralnets/
Это нормес для начала? В математику не умею, хочу делать чат-ботов.
Аноним 13/03/18 Втр 07:47:23  1154900
>>1154793
Для чего чат-боты? Бабло клянчить?
Аноним 13/03/18 Втр 11:23:55  1154936
>>1154900
Я чет не думал про конкретное применение, просто хочется сделать что-то умное.
А что, ботами можно клянчить деньги?
Аноним 13/03/18 Втр 11:40:41  1154944
>>1154936
Забудь
Аноним 13/03/18 Втр 11:57:56  1154950
Huehuehue.jpg (22Кб, 310x232)
>>1154944
Аноним 17/03/18 Суб 04:44:14  1157107
image.png (142Кб, 693x492)
Чё-то как-то помер тред.
Аноним 17/03/18 Суб 06:39:56  1157114
>>1157107
Запости что-нибудь интересное, и будет жить. Только не надо в сотый раз про то, как ИИ заберет у всех работу, или какие все нейроночкодрочеры дураки и все делают не так.
Аноним 17/03/18 Суб 12:59:22  1157199
>>1157107
очевидно, что нейроноебы в тупике и хвастаться нечем
Аноним 17/03/18 Суб 19:27:32  1157521
Стоит ли из джава макикинга перекатываться в машоб?
Аноним 17/03/18 Суб 20:06:08  1157554
>>1157521
Куда ты перекатываться собрался? В машобе работы нет.
Аноним 17/03/18 Суб 22:29:24  1157646
>>1157554
Кто о чем, а раб о цепях. Создай рабочие места или работай бесплатно.
Аноним 17/03/18 Суб 23:07:54  1157671
>>1157646
Ты что, дебил?
Аноним 18/03/18 Вск 02:06:32  1157851
Ананасы, можете посоветовать адекватных книг/туториалов по Probabilistic Graphical Models, а конкретно Bayesian Networks. Под адекватным понимаю ориентированных на практическое использование
Аноним 18/03/18 Вск 04:31:56  1157885
Русский перевод книжки из шапки:
https://rutracker.org/forum/viewtopic.php?t=5525017
Качество - издательский макет.
Аноним 18/03/18 Вск 05:28:06  1157890
>>1157851
На курсере был годнейший курс, один из самых годных за все время ее существования. Так и назывался, Probabilistic Graphical Models.
Аноним 18/03/18 Вск 05:30:10  1157891
>>1157885
Вот это можно в новую шапку добавить, только не на трекер ссылку, а на книгу.
Аноним 18/03/18 Вск 09:29:01  1157952
>>1157885
>Извините, раздача недоступна для вашего региона
Чего, блять?
Инбифо перевод ненужон, потому что 1) небось опять через жопу переводили, 2) лучше один раз привыкнуть к английским терминам, чем потом ебаться с поиском инфы и статей.
Аноним 18/03/18 Вск 09:52:08  1157966
>>1157952
Но ведь перевод действительно не нужон, даже неважно насколько он качественный. Документацию к софту, свежие пейперы и многое другое, без чего в этой теме делать строго нехуй, переводить тебе не будет никто и никогда. Не можешь в английский = неграмотный, это факт. Учитесь уже грамоте.
Аноним 18/03/18 Вск 10:36:21  1157995
>>1157966
Ну для общего развития и крестьянам можно почитать. Статьи это ж не для всех. Вот я, скажем, по физике учебник могу прочитать на досуге, чтобы разобраться в какой-то теме, но в статьи мне лезть просто не нужно.
Аноним 18/03/18 Вск 19:29:46  1158453
http://datasciencecourse.ru/
Кто знает, как этот курс, годный если бесплатно проходить? Не претендую на написание диссертации, так, from tensorflow import tensor в какой-нибудь непрофильной конторе ну и диплом можно написать.
Аноним 18/03/18 Вск 20:04:38  1158488
>>1158453
>from tensorflow import tensor
бгг, нашел нуба не нюхавшего ТФ
Аноним 18/03/18 Вск 20:11:13  1158494
>>1158488
>ТФ
тф говно?
мимо байтоеб
Аноним 18/03/18 Вск 20:12:07  1158495
>>1158494
там вроде пистон, а пистон по определению говно
Аноним 18/03/18 Вск 22:32:03  1158592
>>1158495
А что не говно, по-твоему?
Аноним 18/03/18 Вск 22:38:01  1158598
>>1158592
Ассемблер.
Аноним 18/03/18 Вск 23:11:15  1158611
>>1158598
Пишешь нейронки на ассемблере? Или что имеется в виду.
Аноним 18/03/18 Вск 23:22:38  1158618
1.png (67Кб, 896x626)
2.png (21Кб, 917x203)
>Многие исследователи нейронных сетей являются инженерами, физиками, нейрофизиологами, психологами или специалистами по компьютерам, которые мало знают о статистике и нелинейной оптимизации. Исследователи нейронных сетей постоянно переоткрывают методы, которые известны в математической и статистической литературе десятилетиями и столетиями, но часто оказываются неспособными понять как работают эти методы
Уоррен Сэрл
Аноним 19/03/18 Пнд 01:58:42  1158664
spd.png (230Кб, 346x530)
решил взбодрить свою нейроночку, stohastic методом. я у мамки sinioor piton diveloopir
Аноним 19/03/18 Пнд 04:31:29  1158681
>>1158618
Вот об этом я сто раз тут писал. Все эти хипстеры пока никуда не ушли от вапниковской постановки задачи машинного обучения из 60-х, только в отличие от Вапника не сделали в этом направлении ровно нихуя.
Аноним 19/03/18 Пнд 04:35:54  1158683
>>1158681
Я бегло глянул какую-то из книг Вапника, но многобукаф и ниасилил. Можешь порекомендовать какую из его работ (и какой раздел книги) читать по общей проблеме постановки задачи ML?
Аноним 19/03/18 Пнд 05:00:58  1158687
>>1158683
Можно начать с ещё советской "теория распознавания образов". Введение и первая часть, этого уже достаточно. Если зайдет, то еще "the nature of statistical learning theory", эту можно всю навернуть,она того стоит. У него единственный недостаток - нотация сложнее среднего по типичной литературе о машобчике, т.к он помимо матана, линейной алгебры и теорвера использует ещё функционалы и операторы из вариационного исчисления. Тут можно ниасилить, но мне попадалась в интернетах какая-то методичка какого-то питерского вузика, там очень годно за это пояснялось, причём все на одной странице.
Аноним 19/03/18 Пнд 06:06:57  1158690
The Lottery Ticket Hypothesis: Training Pruned
Neural Networks
https://arxiv.org/pdf/1803.03635.pdf
Рекомендую статью тем, кто в теме нейроночек. Неплохая попытка проникнуть в суть процесса тренировки.
Аноним 19/03/18 Пнд 23:07:48  1159265
Поясните что в 2018 в тренде и на хайпе в машинлернинге, а то я на пару лет подотстал.

>>1158681
>только в отличие от Вапника не сделали в этом направлении ровно нихуя.
А типа вапник дохуя сделал? Кукареки you doing wrong не в счет.
Аноним 19/03/18 Пнд 23:31:44  1159279
>>1159265
RL, GANs, новые архитектуры все еще в моде, но только если они действительно новые (капсулы, IndRNN, OpenAI Reptile...), попытки объяснить, почему нейроночки работают.
Аноним 19/03/18 Пнд 23:41:25  1159284
>>1159279
А кроме нейроночек есть какие-нибудь живые крупные проекты в AI?
Аноним 19/03/18 Пнд 23:42:35  1159286
>>1159284
Нет.
Аноним 20/03/18 Втр 01:07:05  1159335
>>1159284
Хочу сейчас РЛа навернуть. Доставляют видосы с этими ебанутыми агентами. Если шаришь что посоветуешь: курс стенфорта или беркли, или сразу книги навернуть(какие?).

Как насчет бесплатных альтернатив mujoco? Есть ли кейгены для него? Bullet подойдет или хуета?
Аноним 20/03/18 Втр 01:07:53  1159337
Проебался с постом.
>>1159279
------>
>>1159335
Аноним 20/03/18 Втр 02:52:34  1159353
>>1159265
> А типа вапник дохуя сделал? Кукареки you doing wrong не в счет.
Дохуя. Теория статистического обучения - единственная не шаманская тема в машобе, бустинг - пример алгоритмов, которые уделывают все остальные. А в разработке ещё глубокий бустинг и глубокие SVM. Про you doing wrong у него вообще пара предложений, к слову.
Аноним 20/03/18 Втр 05:25:39  1159377
>>1159335
Чисто по РЛ классика это Саттон. Там про нейроночки ничего нет, так что книга, можно сказать, прошлого поколения. Но основы, которые в ней изложены, нужно знать, иначе ты ничего не поймешь в современных разработках, даже на уровне терминологии.
По РЛ+нейроночки книг нет, надо быть в курсе статей, постов и твитов. Утомительно, но такова жизнь на острие хайпа.

Я сам не очень понимаю, почему все занимаются ерундой с этим мужико. Что я слышал по этой теме, это исключительно невнятное бормотание: ну... эмм... там контакты это все... кароч на других симуляторах РЛ не работаит х_х )) У меня к этому крайне скептическое отношение. Сам мужико делают друзья тех же челов, которые делают фреймворки его использующие (или это даже одни и те же люди, я забыл уже), так что имхо это просто многоходовочка с целью ободрать баблоса с горе-исследователей. Если же действительно РЛ работает только с мужико (что по-моему крайне маловероятно), то исследование самого этого факта было бы интересным.
Аноним 20/03/18 Втр 13:12:57  1159522
>>1159377
>>1159335
Что-то у вас в головах не просто каша, а синяя кирзуха из советской армии... Саттон, РЛ, мужико какой-то, пиздец. Классика РЛ, это внезапно, Павлов. Затем уравнения Хебба. Этого уже достаточно, чтобы понять самое новомодное хипстерство на эту тему. А если еще про Q-learning и POMDP по диагонали почитаете, вообще идеально. По софту, вся годнота на эту тему производства Маска Небоходца (OpenAI - gym, universe, reptile). Но это уже дипРЛ, т.е. РЛ, к которому прикрутили хипстерские глубокие нейроночки. Так же можно кукарекать, что неизвестно как это все работает. Так вот, если читали Павлова и понимаете уравнения Хебба - то понятно. Пока никто и ничего не придумал, что не сводилось бы к классике из прошлого века.
Аноним 20/03/18 Втр 17:52:40  1159684
Чел уже несколько недель унижает всю область РЛ: https://arxiv.org/pdf/1803.07055v1.pdf
Грит, мол, ваши новомодные методы сосут у случайного поиска. Грит, ваши методы становятся все сложнее, аббревиатуры их названий все длиннее, но суть происходящего это оверфитинг частных задач и множащихся гиперпараметров, а случайный поиск вы так и не преодолели. Кризис повторения результатов в области, грит.

Мне это напоминает ситуацию с генетическими алгоритмами 10-20 летней давности. Тоже клепались кучи статей по якобы улучшенным вариантам ГА, которые были ничем не лучше, а результаты были получены банальным оверфитингом. Сейчас большая часть этого похоронена, но некоторые не работающие методы (NEAT) все еще тлеют на самоподдуве авторов. Думаю, и здесь будет то же самое. Нельзя же вдруг взять и признать, что метод ТРПОВЗГРМЫЩЪ, по которому написано 10000 статей, не работает.
Аноним 20/03/18 Втр 18:24:18  1159690
1.png (61Кб, 1034x363)
2.png (40Кб, 897x199)
>>1159684
Дело в том, что вся эта индусня из барбершопов, не зная классики многолетней давности, лезет изобретать велосипед, который не только изобрели, но и обоссали задолго до их рождения, и даже показали, как на самом деле надо, чтобы получился велосипед не курильщика, а хотя бы сколько-нибудь здорового человека. Очевидно, что проблема, сформулированная на 1 пике слишком общая, чтобы решаться теми деревянными методами, которые только и известны хипстерам. Хотя еще в 60-е годы показано, что поставленная задача такого рода в лоб нерешаема. Решить ее с максимально возможной точностью можно только при постановке задачи в виде минимизации функционала со 2 пика, используя принципы SRM (минимизации структурного риска), но даже такой подход гарантирует только достижимую точность, а не заведомое решение поставленной задачи. Еще в древней Греции понимали, что борода сама по себе не делает мудрецом, но дегенератам со смузи даже эта истина недоступна.
Аноним 20/03/18 Втр 18:42:12  1159698
>>1159690
>Хотя еще в 60-е годы показано, что поставленная задача такого рода в лоб нерешаема.
Что это там показано? В самом общем виде ее и не решают, ее нужно решать для конкретных задач. Так, скажем, проблема останова тоже нерешаема, но вполне можно написать статический чекер, который бы отлавливал многие частные случаи бесконечного зацикливания программ. Скажем, рекурсию без выхода или с невыполнимым условием выхода.
Так и здесь, тот факт что для произвольного окружения это нерешаемо (что очевидно) никак не влияет на дальнейшие разработки практических методов. Только надо нормально разрабатывать, а не перебирать рандом сииды, пока твой метод не превзойдет предыдущий.
Аноним 20/03/18 Втр 19:01:24  1159700
>>1159698
>В самом общем виде ее и не решают, ее нужно решать для конкретных задач.
Чтобы ее решать для конкретной задачи, нужно учитывать в решении специфику этой задачи, и решать именно частный случай вместо общего. В нейроночках этого нет и никогда не было, начиная с самого Розенблатта. Хорошо видно в чем разница, если сравнить классификацию перцептроном и SVM. В первом случае это тупо учет каждого примера из датасета, во втором - не лежащие на границе классов примеры просто умножаются на нулевые лагранжианы и вообще не участвуют в формировании правила разделения классов, это и есть подход здорового человека.
>тот факт что для произвольного окружения это нерешаемо (что очевидно) никак не влияет на дальнейшие разработки практических методов. Только надо нормально разрабатывать, а не перебирать рандом сииды, пока твой метод не превзойдет предыдущий.
Чтобы нормально решать, нужно нормально сформулировать решаемое. А этого нет нигдекроме статистической теории обучения. Все остальное - чистое шаманство.
Аноним 20/03/18 Втр 19:17:51  1159702
>>1159700
Нет, не нужно. В этом и суть всех разрабатываемых методов - сделать достаточно общий решатель для всех задач, которые нужно решать. Странно вообще обсуждать эти элементарные вещи, неужели это не очевидно?
Аноним 20/03/18 Втр 19:45:52  1159716
>>1159702
>В этом и суть всех разрабатываемых методов - сделать достаточно общий решатель для всех задач, которые нужно решать.
Это не так работает. Нужен решатель, учитывающий каждый частный случай, но пригодный для как можно бОльшего класса задач. Хороший пример - SVM и др. алгоритмы на основе теории статичтияеского обучения. Но это не модно же, стараются решить задачу именно в общей постановке, как итог - прыгают на граблях, которые уже сто лет известно как обойти. Но чукчи ж не читатели, чукчи писатели.
Аноним 20/03/18 Втр 23:50:11  1159859
Можно будет попрактиковаться в РЛ: https://habrahabr.ru/company/mailru/blog/351522/
Аноним 21/03/18 Срд 02:07:18  1159898
>>1159859
Там же не получиться тысячами раз своих агентов гонять, какой рл?
Аноним 21/03/18 Срд 02:37:00  1159906
>>1159898
Получится, сервер оупенсорсный будет, по требованиям трудящихся в этот раз на С, для скорости.
Аноним 21/03/18 Срд 14:20:53  1160042
аноны, хочу зделоть бота, есть такая идея: анализировать дампы диалогов и строить статистические отношения по фразам. например после слова привет в 23% идет фраза как дела, в 10% имя и т.п. чем такую статистику можно собирать и красиво анализировать?
Аноним 21/03/18 Срд 16:29:39  1160121
15144029773392.jpg (2072Кб, 3264x2448)
Посоны, для предсказания курса крипты нейронки годнота или нет?
Аноним 21/03/18 Срд 17:03:10  1160139
>>1160121
лол
Аноним 21/03/18 Срд 17:29:27  1160153
Раньше в шапке висела книга The Elements of Statistical Learning, насколько сильно содержание пересекается с книгой из нынешней шапки? И что лучше читать первым для вката?
Аноним 21/03/18 Срд 17:32:08  1160154
>>1160139
Двачну
Аноним 21/03/18 Срд 17:45:13  1160165
>>1160153
>насколько сильно содержание пересекается с книгой из нынешней шапки?
11.3%
>что лучше читать первым для вката?
Нынешнюю.
Аноним 21/03/18 Срд 19:03:40  1160195
>>1160165
Начитаются всякой хипстерской хуйни по совету таких же иекспердов, потом линейную регрессию осилить не могут.
Аноним 21/03/18 Срд 20:36:29  1160279
>>1160195
Линейная регрессия так то посложнее современного подхода с изучением нейроночек аля import slesorflow as sf.
Там и фичи надо правильно обработать, и сгенерить новые суметь чтобы разделяло, формулы понимать надо.
Аноним 21/03/18 Срд 23:26:49  1160396
>>1160279
збс же, за 2 года можно скопить денег на 2 квартиры в Киеве и потом тупо сдавать их не работая
Аноним 22/03/18 Чтв 05:46:53  1160506
Есть натренированная карта кохонена, рисует красивые кластеры, но как с ее помощью классифицировать?
Аноним 22/03/18 Чтв 10:38:39  1160573
>>1160506
Начнем с того, что SOM это не классификатор в принципе. И если конкретно та реализация, которой пользуешься ты не имеет возможности присваивать тестовому примеру именно номер кластера - брейся. Если такая возможность реализована, соответственно, пользуйся ей (документация, да). Если нужен именно классификатор и именно на основе векторного квантования (к которому относится карты Кохонена), то пользоваться нужно LVQ.
Аноним 22/03/18 Чтв 11:24:44  1160596
>>1160573
Начнем с того что каждый ответ тому кто задавал такой вопрос начинался с этого, а вот дальше дело как-то не шло. Я пишу без библиотек, так что нужен алгоритм.
Аноним 22/03/18 Чтв 11:41:41  1160605
>>1160596
>Я пишу без библиотек, так что нужен алгоритм.
LVQ.
Аноним 22/03/18 Чтв 12:44:42  1160630
>>1160605
Спасибо, но это не то. Я забываю что голосам вне моей головы сложно догадаться о чем я говорю. Сам чистый Кохонен тоже может классифицировать - https://arxiv.org/pdf/1206.0104.pdf , но у нас с простым инденезийский парнем получается языковой барьер.
Аноним 22/03/18 Чтв 12:57:32  1160634
1.png (46Кб, 562x655)
>>1160630
>Сам чистый Кохонен тоже может классифицировать - https://arxiv.org/pdf/1206.0104.pdf
Как я понял, смысл использования именно SOM - классификация непомеченных примеров, т.е. без учителя. Ок, это будет работать, но нужна либо реализация SOM, могущая в автоматическое выделение кластеров (т.к. в оригинальном алгоритме этого нет и никогда не было), либо алгоритм, специально измененный именно для таких нужд. В R точно видел и то и другое (но названия конкретных либ уже не помню), к слову, там вообще полно реализаций карт Кохонена, аналогов которых больше нет нигде.
Аноним 22/03/18 Чтв 16:01:13  1160740
бамп это вопросу >>1160042
давайте помогайте, как реальная задача так нехуя и не можете
Аноним 22/03/18 Чтв 16:22:14  1160765
>>1160740
Это ты не можешь, а мы не хотим. Фил тхе дифференс. То, что ты хочешь, делает модель CBOW (contonous bag-of-word). Как ее использовать конкретно для твоей цели, я не ебу, т.к. чят-ботами не занимался. Но оно точно может в такой анализ и предсказания слов, которые встречаются рядом в анализируемом тексте.
Аноним 22/03/18 Чтв 16:52:46  1160802
>>1160765
>word2vec
ну хоть что то, спасибо, целую в попку
Аноним 22/03/18 Чтв 17:10:16  1160813
>>1160802
>word2vec
Не только. Можешь еще фасттекст пейсбуковский навернуть https://fasttext.cc/
Аноним 24/03/18 Суб 11:56:57  1161704
>>1160765
только тебе неправильно подсказали, тебе нужны обычные марковские цепи, а бэг оф вердс не учитывает порядок слов
Аноним 24/03/18 Суб 17:15:47  1161895
>>1161704
>марковские цепи
То же не особо применимы. Я понял, что мне нужно, мне нужно воссоздать грамматические правила. Но машоб отсасывает как всегда.
Аноним 24/03/18 Суб 18:31:45  1161916
Аноны, у меня тут диплом по нейроночкам, так вот, у меня входные слои цифры и буквы автомобильного номера, но все они должны быть размером строго 50x50 пикселей, и как я понял бинарными, потому что тогда их будет не распознать, ну это я умею, но где мне взять цифры и буквы автомобильного номера, размером строго 50x50 пикселей.
Аноним 24/03/18 Суб 18:39:02  1161919
>>1161916
Сжать
Аноним 24/03/18 Суб 18:40:44  1161921
>>1161919
То есть, как?
Аноним 24/03/18 Суб 18:42:36  1161922
>>1161921
Препроцессинг изображений
Аноним 24/03/18 Суб 18:53:04  1161929
>>1161922
То есть
Аноним 24/03/18 Суб 19:18:37  1161936
>>1161929
Прежде чем что-нибудь подать в "умную" нейроночку, нужно сделать препроцессинг картинки: поворот на нужный угол (чтобы цифры стали вертикальными), приведение к заданному размеру (из любого размера в 50x50), очистка картинки от шума (сделать более резкими края). И всё это старыми дедовскими методами из других разделов математики и программирования.
Аноним 24/03/18 Суб 19:19:05  1161938
>>1161916
Берешь фоточки из интернета и вырезаешь. Или ты думал, что можешь сделать дипломник из 10 строчек кода? А вот хуй тебе, сбор и обработка данных это часть твоей задачи. Работай, студент.
Аноним 24/03/18 Суб 20:16:09  1161991
>>1161936
Ну я знаю все эти функции в матлабе.
Аноним 25/03/18 Вск 01:03:15  1162125
>>1161991
https://www.ffmpeg.org/
Не благодари
Аноним 25/03/18 Вск 01:09:12  1162126
>>1161936
Скууука. Есть нейроночка которая делает препроцессинг изображений для нейроночек?
Аноним 25/03/18 Вск 01:26:53  1162131
>>1162125
Что это и как мне поможет, я тупой.
Аноним 25/03/18 Вск 10:45:22  1162207
Объясните, зачем в тензорфлоу плейсхолдеры? Сахар или они реально полезны? Если да, то покажите пример, где ими сделать что-то легче.
Аноним 25/03/18 Вск 12:54:08  1162272
Поцоны, как вкатиться? Учить калькулус, линалг, статистику сначала? Или открыть книгу "нейросеточки за 21 день на питоне" и доучивать все что надо по ходу?
Аноним 25/03/18 Вск 12:56:31  1162274
Есть ли тут математики уровня Перельмана, которые могут обьяснить за статистику и морфологию?
Аноним 25/03/18 Вск 12:57:54  1162276
>>1162126
тоже ебусь сейчас над этим вопросом. Помоему в этом и весь сок. Чтобы нейронки парсили инфу для более спциальных нейронок.
Аноним 25/03/18 Вск 12:58:45  1162277
>>1162276
давай мутнём опенсорсик и будем друг другу отсасывать помогать
Аноним 25/03/18 Вск 12:59:26  1162278
А как работают коммерческие системы распознавания текста или изображений? Там есть нейронки?
Аноним 25/03/18 Вск 12:59:27  1162279
>>1162277
давай анаон; кто хочет присоединиться к груповухе ?
Аноним 25/03/18 Вск 13:14:38  1162295
Как мне обучить нейросеть играть например в герои 6 не хуже человека, чтобы по тактике рвал, какую библиотеку скачать как начать обучения сети?
Аноним 25/03/18 Вск 13:15:45  1162297
>>1162295
>герои 6
Отстой же.
Аноним 25/03/18 Вск 13:18:14  1162301
>>1162297
Как по мне одна из лучших частей, 4 тоже, все остальные части проходняк.
Аноним 25/03/18 Вск 13:23:38  1162307
>>1162295
Нельзя просто так взять и обучить нейросеть
Аноним 25/03/18 Вск 14:14:15  1162345
>>1162272
Когда учат играть на хитарке, то сначала дают звезду по имени Солнце чтоб нуб охуел, с того, что что-то получается, а после уже нотную грамоту и прочие музыкальные приблуды. Так и ты сначала котов научись распознавать, а после закапывайся вглубь.
Аноним 25/03/18 Вск 14:37:41  1162359
ПЕРЕКАТ
>>1162357 (OP)
>>1162357 (OP)
>>1162357 (OP)
Аноним 26/03/18 Пнд 00:25:44  1162734
>>1161895
если тебе нужно оценивать вероятность фраз, то это чуть ли не единственный способ это сделать, про остальное промолчу, и грамматические правила машоб сейчас распознает на стейт-оф-зе-арт уровне, от синтакснета, до кучи новых модных моделей, за которыми я не успеваю следить
Аноним 26/03/18 Пнд 00:26:28  1162735
>>1162734
ну, и для хорошего бота синтаксических правил, конечно же, недостаточно


Топ тредов
Избранное