[Ответить в тред] Ответить в тред

03/04/16 - Набор в модераторы 03.04 по 8.04
26/03/16 - Конкурс: Помоги гомункулу обрести семью!
15/10/15 - Набор в модераторы 15.10 по 17.10



[Назад][Обновить тред][Вниз][Каталог] [ Автообновление ] 49 | 7 | 24
Назад Вниз Каталог Обновить

anons 28/03/16 Пнд 16:24:51  701033  
14591714914850.jpg (91Кб, 453x604)
sup dvoch
интересует всевозможная инфа о нейросетях?
выгорит ли в будущем? стоит ли изучать? книги/источники?
годнее, чем обыдное быдлокодство игрушек и сайтов?
Аноним 28/03/16 Пнд 16:34:24  701043
удваиваю реквест. дайте ссылку на простое описание какой-либо нейросети
Аноним 28/03/16 Пнд 16:38:34  701048
>>701043
Тебе зачем?
Аноним 28/03/16 Пнд 16:54:28  701064
>>701048
Надоело вводить капчу на двапче.
Аноним 28/03/16 Пнд 17:09:35  701075
14591741754840.png (80Кб, 1109x857)
>>701064
Какую капчу?
Аноним 28/03/16 Пнд 17:16:45  701081
14591746058760.png (341Кб, 1366x768)
>>701075
при создании треда и если отвечать, не заходя в тхреад
Аноним 28/03/16 Пнд 17:25:57  701089
14591751576410.png (87Кб, 1065x626)
>>701081
Часто треды создаешь?
Аноним 28/03/16 Пнд 17:26:30  701090
>>701089
он же хохол.
помогите Олегу разобраться в двачике.
Аноним 28/03/16 Пнд 17:45:23  701098
>>701090
Тебе в /po, ебанашка
Аноним 28/03/16 Пнд 17:51:24  701104
>>701033 (OP)
Да. Стоит изучать.
Аноним 28/03/16 Пнд 17:55:37  701106
В рашке даже пхпмакаки не могут найти работу, какие нейронные сети? Картоху учись сажать.
Аноним 28/03/16 Пнд 19:19:50  701237
>>701048
прожил 25лвл и ни разу нейросеть не видел, толкьо слышал

есть на хабре статья https://habrahabr.ru/post/143129/ - прочитал, но ЭТО БЛЕАТЬ НЕ НЕЙРОСЕТЬ там описана
Аноним 28/03/16 Пнд 19:22:36  701240
Не все нейросети одинаково полезны. Это вообще очень широкая тема, чтобы характеризовать ее в целом. Сейчас, т.е. начиная с 2015 года, в моде всяческие глубокие архитектуры, в основном сверточные сети и софт для распределенного выполнения таких алгоритмов. Примеры - гугловский TensorFlow, MXNet от известного в этой теме китайца, Apache SINGA, Microsoft CNTK. Это только самые модные библиотеки второго поколения (поддерживающие распределенное выполнение на физически разных машинах). Тема с прошлого года достаточно быстро развивается, но не в рашке. В отличие от игрушек и сайтов требуется знание матчасти, а на русском языке по диплернингу считай ничего интересного нет. Один из обзоров http://handong1587.github.io/deep_learning/2015/10/09/dl-frameworks.html Тута можно пощупать готовую сверточную сеть, натренированную на распознавание рукописных символов http://scs.ryerson.ca/~aharley/vis/conv/
Аноним 28/03/16 Пнд 19:26:39  701243
>>701237
а википедию почитать слишком гордый?
Аноним 28/03/16 Пнд 20:49:19  701365
>>701243
читал - не понятно.

фактически, ни разу не видел работающего кода нейросети - без этого непонятно
Аноним 28/03/16 Пнд 21:39:23  701417
>>701365
Ну смотри: https://github.com/Rochester-NRT/AlphaGo
Аноним 28/03/16 Пнд 22:00:20  701450
>>701417
а так чтобы как в учебнике, строк на 30? чтобы охватить взглядом?
Аноним 28/03/16 Пнд 22:41:10  701485
Сука, на гитхабе тонны написанных на самых различных языках для самых различных задач нейросетей. Хули вы такие тупые-то?
Аноним 28/03/16 Пнд 23:33:53  701544
>>701485
ты, долбоёб чсвшный, математику и физику учил по статьям с препринтами научных работ?
Аноним 29/03/16 Втр 01:30:24  701662
>>701043
> простое описание
Графические модели, Байесовский вывод, MCMC, вариационный вывод, стохастическая аппроксимация и оптимизация. Вот этими вещами сейчас дышут нейросети.
Простые нейросети были сорок лет назад.
Аноним 29/03/16 Втр 01:35:10  701664
>>701662
начать изучение, наверно, стоит с тех, которые были 40 лет назад, нет?
Аноним 29/03/16 Втр 01:40:43  701667
>>701664
Не обязательно. Полезно знать про перцептрон, но не уверен, что знание сетей Хопфилда будет таким уж полезным, хотя та же RBM очень на неё похожа.
В целом, достаточно изучить на достаточно серьёзном уровне разные методы ML по книге Мёрфи или Бишопа. После этого уже можно курить всякие глубокие сети.
Аноним 29/03/16 Втр 04:06:01  701682
Выгорит!
Аноним 29/03/16 Втр 12:17:06  701847
это говно для пидаров

кури символьные вычисления, логическое программирование, лисп и пролог, вот где настоящий искусственный интеллект
Аноним 29/03/16 Втр 13:02:08  701883
>>701450
Вот доебался. 30 строк и сам можешь написать, тренировка и использование нейросети это такие же алгоритмы как и все остальные. На худой конец из своего учебника перепиши. Как ты вообще программируешь?
Аноним 29/03/16 Втр 14:04:32  701932
>>701883
я понять не могу сути её, что такое эта нейросеть сама по себе. Понятно?
Аноним 29/03/16 Втр 14:04:52  701933
>>701883
вот представь что тебе на пальцах объяснили цикл с ветвлением не показав примера кода
Аноним 29/03/16 Втр 14:05:35  701935
суп тг )
Аноним 29/03/16 Втр 14:39:08  701961
>>701033 (OP)
> интересует всевозможная инфа о нейросетях?
нет
Аноним 29/03/16 Втр 14:40:51  701965
>>701240
Давно у нас deep learning приравняли к свёрточным сетям?
Я думал, что deep learning - это когда фичи для классификатора извлекаются из данных автоматически, а не прописываются вручную.
Аноним 29/03/16 Втр 14:41:35  701967
>>701847
нет
Аноним 29/03/16 Втр 14:45:36  701972
14592519368480.jpg (14Кб, 442x331)
>>701932
Тебе за перспетрон пояснить?
Аноним 29/03/16 Втр 14:56:13  701987
>>701965
>Я думал, что deep learning - это когда фичи для классификатора извлекаются из данных автоматически, а не прописываются вручную.
Неправильно думал. Любой классификатор без учителя фичи из данных сам достает, диплернинг как таковой тут - только один из вариантов.
>>701450
>чтобы как в учебнике, строк на 30? чтобы охватить взглядом?
http://gen.lib.rus.ec/book/index.php?md5=A5205BD61ADDC523C7FBFE1D7EB0B3C6 Есть еще одна хорошая книжка, но она древняя совсем - http://gen.lib.rus.ec/book/index.php?md5=6C589D57AC9363F6CF183796BB4E599C
Аноним 29/03/16 Втр 15:27:26  702011
>>701987
> Неправильно думал.
"Думал" тут неправильно слово, наверное. Правильно "Andrew Ng так говорил в курсе Machine Learning на Coursera".
> Любой классификатор без учителя фичи из данных сам достает,
Да ладно-ка? А что ты на вход классификатору подаёшь? Сырые данные в виде бит? А если фича является нелинейной относительно сырых данных, откуда нейроная сеть, которая по сути линейна, её высрет?
Аноним 29/03/16 Втр 15:28:56  702012
>>701972
а давай!
Аноним 29/03/16 Втр 15:48:49  702037
>>702011
>А если фича является нелинейной относительно сырых данных, откуда нейроная сеть, которая по сути линейна, её высрет?
У тебя каша какая-то в голове. Даже многослойный перцептрон уже может в нелинейные функции, точнее в их представление как суперпозиции линейных. http://kpfu.ru/portal/docs/F1732864826/02_5.PDF Это не говоря о других алгоритмах, которые тоже записывают в "нейросети", н-р все адаптивное векторное квантование. Там изначально никакой линейности в данных не предполагается.
>"Andrew Ng так говорил в курсе Machine Learning на Coursera".
Правильно говорил, диплернинг - это один из методов такого подхода, но странно считать что в этом его отличия от всего остального.
Аноним 29/03/16 Втр 15:55:09  702047
Deep learning (надмозг. глубокое обучение) - это набор способов обучения многослойных нейросетей. Все.
>>701240
Ой дурааак...
Аноним 29/03/16 Втр 16:20:29  702065
>>702011
>откуда нейроная сеть, которая по сути линейна
Ты наркоман?
Аноним 29/03/16 Втр 16:44:06  702082
14592590467780.png (1Кб, 369x65)
>>702012
На примере однослойного персептрона с 10 нейронами.
Персептрон обучается распознавать цифры от 0 до 9. Цифры будем скармливать png-шками 3x5 пикселей (смотри пикчу)

Каждый из нейронов соответствует своей png-шки. Png-шки мы эти показываем всем нейронам (поочередно: учим нолик - показываем всем нейронам нолик, учим единичку - показываем единичку) и задача сводится к тому, чтобы соответствующий нейрон реагировал на свою png-шку, а остальные - не реагировали.

Смотри, учим скажем, первую картинку. Каждому пикселю на картинке соответствует свой синапс (похуй на терминологию, не обращай внимание). Синапс =1 - если пиксель черный и =0 - если пиксель белый. Каждый синапс умножается на соответствующий весовой коэффициент (коэффициент связи), которых у нас 15 штук и они общие для всех нейронов (корректировка этих коэффициентов и есть обучение сети). Пока сеть не обучена - эти коэффициенты пустые (забиты значениями по умолчанию, ноликами или еще чем).
В цикле:
{
Взяли первый нейрон, показали ему картиночку с определенной цифрой (n), умножили каждый пиксель-синапс на соответствующий весовой коэффициент, потом все вот эти синапс*вес суммировали (получили сумму) и дальше используем пороговую функцию. В самом элементарном варианте пороговая функция линейная и реализуется следующим образом - если сумма больше limit (четко заданное число) - тогда n-ый нейрон утверждает, что на картинке изображена его цифра n. Если меньше limit - нейрон молчит - это не его цифра.
Далее происходит обучение. Нейрон ошибся и распознал не свою цифру (слишком дохуя весов в коэффициентах) - минусуем весовые коэффициенты. Если нейрон стормозил и не распознал свою цифру (не хватило весов) - плюсуем весовые коэффициенты (у нас тут всё дохуя линейно, без сигмоидов, поэтому limit можем тупо 100 вбить, а коэффициенты минусовать/плюсовать на единичку).
Взяли следующий нейрон. Проделали всю нехитрую поеботу, описанную выше. Так для каждого нейрона.
туц
туц
туц
Взяли последний нейрон...
}
while (завершаем цикл когда соответствующий нейрон (n) четко научится реагировать на картинку с цифрой n, а остальные нейроны перестанут на эту картинку срабатывать)
...
Берем следующую картинку... изучаем ее описанным выше способом. Потом опять возвращаемся к предыдущей картинке и ее обратно переучиваем/корректируем (пока учили "2" - похерились все связи с "1").

Просто, элементарно, примитивно, на PHP реализуется за 15 минут:
http://xcont.com/perc/newperceptron/ - вот тут можешь обучить персептрон и посмотреть, как херятся связи, когда учим другую картинку.
http://xcont.com/perc/newperceptron/perc.txt - а тут та же бяка, только с расширением .txt, чтобы можно было посмотреть исходный код персептрона.
Аноним 29/03/16 Втр 16:51:12  702091
>>702082
>общие для всех нейронов
Не подожжи, я наврал))) У каждого нейрона свои коэффициенты
Аноним 29/03/16 Втр 17:58:18  702166
>>702091
Вроде для каждого пикселя свой нейрон?
писал такой курсач три года назад
Аноним 29/03/16 Втр 18:00:07  702170
>>702082
что такое нейрон и синапс?
как их представим в софтверном виде?
Аноним 29/03/16 Втр 19:02:11  702250
14592673316120.png (253Кб, 680x809)
14592673316171.png (471Кб, 671x784)
>>702166
Зойчем? Если у тебя дохуя-картинка - ее разбивают на небольшие сегменты.

>>702170
>что такое нейрон и синапс?
Нейрон - ящичек, в который входят сигналы. Сигналы - синапсы. На примере выше - в нейрон отправляем картинку. Картинка поступает в виде сигналов. Таких сигналов 3х5=15 штук (количество пикселей на картинке). Закрашен пиксель - единичка поступает, не закрашен - нолик. Далее эти сигналы корректируются (перемножаются на весовые коэффициенты), суммируются. Эта сумма отправляется в функцию активации f(sum), которая выдает единичку (если нейрон сработал) или нолик (если не сработал)

В софтверном виде нейрон - объект. Синапсы - поступающая информация, разбитая на фрагменты (массив). Объект, грубо говоря, содержит несколько основных функций: считывание массива с сигналами, перемножение сигналов на соответствующие веса, суммирование и сравнение с помощью функции активации.
Аноним 29/03/16 Втр 20:10:42  702380
>>702250
В чем отличие от простого алгоритма, проверяющего сколько пикселей совпало у картинки и паттерна и выбирающего наиболее подходящий?
Аноним 29/03/16 Втр 20:14:01  702383
>>702250
>В софтверном виде нейрон - объект.
Да вы тут совсем ебанулись я смотрю.
Аноним 30/03/16 Срд 00:15:12  702655
>>701967
И да, и нет.
Символьные когнитивные архитектуры довольно популярный подход в AGI, если я не ошибаюсь. И там используются все эти вещи.
Аноним 30/03/16 Срд 00:20:47  702663
>>701987
> Классификатор без учителя
Что это по-твоему? RBM или автоэнкодеры - классификаторы?

>>701965
Это не только глубокое обучение, но это там есть, да.
Аноним 30/03/16 Срд 16:56:54  703063
>>702380
2, 3, 5 или 0, 6, 9 - одинаковое количество пикселей.
Аноним 30/03/16 Срд 17:12:58  703081
>>702037
Ты так на главный вопрос и не ответил - ты что на вход подаёшь?
Если готовые фичи (как в гугловской программе для Го), то никаким автоматическим поиском фич и не пахнет.
Аноним 30/03/16 Срд 18:38:02  703129
>>702663
>RBM или автоэнкодеры - классификаторы?
Будто нет.
>>703081
>Ты так на главный вопрос и не ответил - ты что на вход подаёшь? Если готовые фичи (как в гугловской программе для Го), то никаким автоматическим поиском фич и не пахнет.
Зачем готовые, просто тестовые данные, любой датасет.

[Назад][Обновить тред][Вверх][Каталог] [Реквест разбана] [Подписаться на тред] [ ] 49 | 7 | 24
Назад Вверх Каталог Обновить

Топ тредов