sup dvoch интересует всевозможная инфа о нейросетях? выгорит ли в будущем? стоит ли изучать? книги/источники? годнее, чем обыдное быдлокодство игрушек и сайтов?
удваиваю реквест. дайте ссылку на простое описание какой-либо нейросети
>>701043Тебе зачем?
>>701048Надоело вводить капчу на двапче.
>>701064Какую капчу?
>>701075при создании треда и если отвечать, не заходя в тхреад
>>701081Часто треды создаешь?
>>701089он же хохол. помогите Олегу разобраться в двачике.
>>701090Тебе в /po, ебанашка
>>701033 (OP)Да. Стоит изучать.
В рашке даже пхпмакаки не могут найти работу, какие нейронные сети? Картоху учись сажать.
>>701048прожил 25лвл и ни разу нейросеть не видел, толкьо слышалесть на хабре статья https://habrahabr.ru/post/143129/ - прочитал, но ЭТО БЛЕАТЬ НЕ НЕЙРОСЕТЬ там описана
Не все нейросети одинаково полезны. Это вообще очень широкая тема, чтобы характеризовать ее в целом. Сейчас, т.е. начиная с 2015 года, в моде всяческие глубокие архитектуры, в основном сверточные сети и софт для распределенного выполнения таких алгоритмов. Примеры - гугловский TensorFlow, MXNet от известного в этой теме китайца, Apache SINGA, Microsoft CNTK. Это только самые модные библиотеки второго поколения (поддерживающие распределенное выполнение на физически разных машинах). Тема с прошлого года достаточно быстро развивается, но не в рашке. В отличие от игрушек и сайтов требуется знание матчасти, а на русском языке по диплернингу считай ничего интересного нет. Один из обзоров http://handong1587.github.io/deep_learning/2015/10/09/dl-frameworks.html Тута можно пощупать готовую сверточную сеть, натренированную на распознавание рукописных символов http://scs.ryerson.ca/~aharley/vis/conv/
>>701237а википедию почитать слишком гордый?
>>701243читал - не понятно.фактически, ни разу не видел работающего кода нейросети - без этого непонятно
>>701365Ну смотри: https://github.com/Rochester-NRT/AlphaGo
>>701417а так чтобы как в учебнике, строк на 30? чтобы охватить взглядом?
Сука, на гитхабе тонны написанных на самых различных языках для самых различных задач нейросетей. Хули вы такие тупые-то?
>>701485ты, долбоёб чсвшный, математику и физику учил по статьям с препринтами научных работ?
>>701043> простое описаниеГрафические модели, Байесовский вывод, MCMC, вариационный вывод, стохастическая аппроксимация и оптимизация. Вот этими вещами сейчас дышут нейросети.Простые нейросети были сорок лет назад.
>>701662начать изучение, наверно, стоит с тех, которые были 40 лет назад, нет?
>>701664Не обязательно. Полезно знать про перцептрон, но не уверен, что знание сетей Хопфилда будет таким уж полезным, хотя та же RBM очень на неё похожа.В целом, достаточно изучить на достаточно серьёзном уровне разные методы ML по книге Мёрфи или Бишопа. После этого уже можно курить всякие глубокие сети.
Выгорит!
это говно для пидаровкури символьные вычисления, логическое программирование, лисп и пролог, вот где настоящий искусственный интеллект
>>701450Вот доебался. 30 строк и сам можешь написать, тренировка и использование нейросети это такие же алгоритмы как и все остальные. На худой конец из своего учебника перепиши. Как ты вообще программируешь?
>>701883я понять не могу сути её, что такое эта нейросеть сама по себе. Понятно?
>>701883вот представь что тебе на пальцах объяснили цикл с ветвлением не показав примера кода
суп тг )
>>701033 (OP)> интересует всевозможная инфа о нейросетях? нет
>>701240Давно у нас deep learning приравняли к свёрточным сетям?Я думал, что deep learning - это когда фичи для классификатора извлекаются из данных автоматически, а не прописываются вручную.
>>701847нет
>>701932Тебе за перспетрон пояснить?
>>701965>Я думал, что deep learning - это когда фичи для классификатора извлекаются из данных автоматически, а не прописываются вручную. Неправильно думал. Любой классификатор без учителя фичи из данных сам достает, диплернинг как таковой тут - только один из вариантов.>>701450>чтобы как в учебнике, строк на 30? чтобы охватить взглядом? http://gen.lib.rus.ec/book/index.php?md5=A5205BD61ADDC523C7FBFE1D7EB0B3C6 Есть еще одна хорошая книжка, но она древняя совсем - http://gen.lib.rus.ec/book/index.php?md5=6C589D57AC9363F6CF183796BB4E599C
>>701987> Неправильно думал. "Думал" тут неправильно слово, наверное. Правильно "Andrew Ng так говорил в курсе Machine Learning на Coursera".> Любой классификатор без учителя фичи из данных сам достает,Да ладно-ка? А что ты на вход классификатору подаёшь? Сырые данные в виде бит? А если фича является нелинейной относительно сырых данных, откуда нейроная сеть, которая по сути линейна, её высрет?
>>701972а давай!
>>702011>А если фича является нелинейной относительно сырых данных, откуда нейроная сеть, которая по сути линейна, её высрет? У тебя каша какая-то в голове. Даже многослойный перцептрон уже может в нелинейные функции, точнее в их представление как суперпозиции линейных. http://kpfu.ru/portal/docs/F1732864826/02_5.PDF Это не говоря о других алгоритмах, которые тоже записывают в "нейросети", н-р все адаптивное векторное квантование. Там изначально никакой линейности в данных не предполагается.>"Andrew Ng так говорил в курсе Machine Learning на Coursera".Правильно говорил, диплернинг - это один из методов такого подхода, но странно считать что в этом его отличия от всего остального.
Deep learning (надмозг. глубокое обучение) - это набор способов обучения многослойных нейросетей. Все.>>701240Ой дурааак...
>>702011>откуда нейроная сеть, которая по сути линейнаТы наркоман?
>>702012На примере однослойного персептрона с 10 нейронами.Персептрон обучается распознавать цифры от 0 до 9. Цифры будем скармливать png-шками 3x5 пикселей (смотри пикчу)Каждый из нейронов соответствует своей png-шки. Png-шки мы эти показываем всем нейронам (поочередно: учим нолик - показываем всем нейронам нолик, учим единичку - показываем единичку) и задача сводится к тому, чтобы соответствующий нейрон реагировал на свою png-шку, а остальные - не реагировали.Смотри, учим скажем, первую картинку. Каждому пикселю на картинке соответствует свой синапс (похуй на терминологию, не обращай внимание). Синапс =1 - если пиксель черный и =0 - если пиксель белый. Каждый синапс умножается на соответствующий весовой коэффициент (коэффициент связи), которых у нас 15 штук и они общие для всех нейронов (корректировка этих коэффициентов и есть обучение сети). Пока сеть не обучена - эти коэффициенты пустые (забиты значениями по умолчанию, ноликами или еще чем).В цикле:{Взяли первый нейрон, показали ему картиночку с определенной цифрой (n), умножили каждый пиксель-синапс на соответствующий весовой коэффициент, потом все вот эти синапс*вес суммировали (получили сумму) и дальше используем пороговую функцию. В самом элементарном варианте пороговая функция линейная и реализуется следующим образом - если сумма больше limit (четко заданное число) - тогда n-ый нейрон утверждает, что на картинке изображена его цифра n. Если меньше limit - нейрон молчит - это не его цифра.Далее происходит обучение. Нейрон ошибся и распознал не свою цифру (слишком дохуя весов в коэффициентах) - минусуем весовые коэффициенты. Если нейрон стормозил и не распознал свою цифру (не хватило весов) - плюсуем весовые коэффициенты (у нас тут всё дохуя линейно, без сигмоидов, поэтому limit можем тупо 100 вбить, а коэффициенты минусовать/плюсовать на единичку).Взяли следующий нейрон. Проделали всю нехитрую поеботу, описанную выше. Так для каждого нейрона.туцтуцтуцВзяли последний нейрон...}while (завершаем цикл когда соответствующий нейрон (n) четко научится реагировать на картинку с цифрой n, а остальные нейроны перестанут на эту картинку срабатывать)...Берем следующую картинку... изучаем ее описанным выше способом. Потом опять возвращаемся к предыдущей картинке и ее обратно переучиваем/корректируем (пока учили "2" - похерились все связи с "1").Просто, элементарно, примитивно, на PHP реализуется за 15 минут:http://xcont.com/perc/newperceptron/ - вот тут можешь обучить персептрон и посмотреть, как херятся связи, когда учим другую картинку.http://xcont.com/perc/newperceptron/perc.txt - а тут та же бяка, только с расширением .txt, чтобы можно было посмотреть исходный код персептрона.
>>702082>общие для всех нейроновНе подожжи, я наврал))) У каждого нейрона свои коэффициенты
>>702091Вроде для каждого пикселя свой нейрон?писал такой курсач три года назад
>>702082что такое нейрон и синапс?как их представим в софтверном виде?
>>702166Зойчем? Если у тебя дохуя-картинка - ее разбивают на небольшие сегменты.>>702170>что такое нейрон и синапс?Нейрон - ящичек, в который входят сигналы. Сигналы - синапсы. На примере выше - в нейрон отправляем картинку. Картинка поступает в виде сигналов. Таких сигналов 3х5=15 штук (количество пикселей на картинке). Закрашен пиксель - единичка поступает, не закрашен - нолик. Далее эти сигналы корректируются (перемножаются на весовые коэффициенты), суммируются. Эта сумма отправляется в функцию активации f(sum), которая выдает единичку (если нейрон сработал) или нолик (если не сработал)В софтверном виде нейрон - объект. Синапсы - поступающая информация, разбитая на фрагменты (массив). Объект, грубо говоря, содержит несколько основных функций: считывание массива с сигналами, перемножение сигналов на соответствующие веса, суммирование и сравнение с помощью функции активации.
>>702250В чем отличие от простого алгоритма, проверяющего сколько пикселей совпало у картинки и паттерна и выбирающего наиболее подходящий?
>>702250>В софтверном виде нейрон - объект.Да вы тут совсем ебанулись я смотрю.
>>701967И да, и нет.Символьные когнитивные архитектуры довольно популярный подход в AGI, если я не ошибаюсь. И там используются все эти вещи.
>>701987> Классификатор без учителяЧто это по-твоему? RBM или автоэнкодеры - классификаторы?>>701965Это не только глубокое обучение, но это там есть, да.
>>7023802, 3, 5 или 0, 6, 9 - одинаковое количество пикселей.
>>702037Ты так на главный вопрос и не ответил - ты что на вход подаёшь?Если готовые фичи (как в гугловской программе для Го), то никаким автоматическим поиском фич и не пахнет.
>>702663>RBM или автоэнкодеры - классификаторы?Будто нет. >>703081>Ты так на главный вопрос и не ответил - ты что на вход подаёшь? Если готовые фичи (как в гугловской программе для Го), то никаким автоматическим поиском фич и не пахнет. Зачем готовые, просто тестовые данные, любой датасет.