[Ответить в тред] Ответить в тред

09/07/16 - Новое API для капчи - внимание разработчикам приложений
03/04/16 - Набор в модераторы 03.04 по 8.04
26/03/16 - Конкурс: Помоги гомункулу обрести семью!



[Назад][Обновить тред][Вниз][Каталог] [ Автообновление ] 523 | 40 | 107
Назад Вниз Каталог Обновить

Computer Science & Machine Learning #3 Аноним 23/05/16 Пнд 23:06:34  752098  
14640339951030.jpg (102Кб, 620x387)
Тред #1: https://arhivach.org/thread/147800/
Тред #2: https://arhivach.org/thread/170611/

Machine Learning 101:
1. Introduction to Statistical Learning, Casella ( http://www-bcf.usc.edu/~gareth/ISL/ISLR%20Sixth%20Printing.pdf )
Читается легко, неплохая разминка перед ESL
2. Pattern Recognition and Machine Learning, Bishop.
3. Bayesian Methods for Hackers. Введение в байесовские методы, годно.
4. http://neuralnetworksanddeeplearning.com
Введение в нейронные сеточки для самых маленьких. Написано простым английским.
5. https://yandexdataschool.ru/edu-process/courses - базовые курсы ШАДа.

Machine Learning Advanced
1. Elements of Statistical Learning (http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Сложность - 9 из 10. Шутки в сторону, можно читать годами. Если вы сможете полностью проработать эту книгу и прорешать упражнения, обязательно свяжитесь со мной - у меня найдется работа для вас.
2. Optimization for Machine Learning. Edited by Suvrit Sra, Sebastian Nowozin and Stephen J. Wright, MIT Press, 2012.
Иногда from sklearn.linear_model import LogisticRegression перестает работать и тогда нужно все переписать. Оптимизация квадратичных приближений на больших объемах данных, разреженные модели, суррогатные оптимизации - вот это все тут есть.
3. http://www.cs.nyu.edu/~mohri/mlbook/
Как ESL, только слегка по-проще. Попробуйте, может зайти.

Дальше вас ждет дикий и необузданный мир. Два маяка https://vk.com/deeplearning и http://deeplearning.net/reading-list/ осветят дорогу: это списки литературы и обзоры статей для прощупывания пульса индустрии.

Computer Science
1. Intoduction to Algorithms, Corman
2. The Art of Computer Programming, Knuth
3. Compilers: Principles, Techniques, and Tools. Разработчикам компиляторов и прочим авторам убийц питонов и крестов посвящается.
4. Введение в информационный поиск, Кристофер Маннинг.
Как работает поиск с теоретической точки зрения.

Programming
1. Python Unlocked. Короткая книжка без соплей. В ней описаны метаклассы, дескрипторы, системы типов, шаблоны проектирования и TDD. Всего чуть больше 100 страниц концентрированной сути.
2. Code Complete (2nd), McConnel.
Неплохая книга. Не то чтобы обдрочиться, но в голове всякие фишки по структуризации кода и его проектированию остались.

Misc
1. Telegram: @techsparks
Подкаст про всякие гик-штуки.

F.A.Q
По мотивам предыдущего треда.
Эти ваши книжки стоят овер 9000 рублей, как быть?
http://libgen.io
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.
Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2016 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru
Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.
Но ведь есть Machine Learning per se, чем он занимается?
Действительно есть. Одаренная прослойка людей изобретает новые методы, но это правильнее называть просто математикой. Сейчас пищей для ума являются нейронные сети и их возможные архитектуры, но даже они двигаются рука об руку с практикой.
Что такое TensorFlow?
TensorFlow - часть гуглового инструмента для перемножения тензоров и оптимизации функционалов. Часть - потому что важные куски типа паралелизации еще не выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
Аноним 23/05/16 Пнд 23:14:41  752112
14640344819390.jpg (108Кб, 778x960)
>>752098 (OP)
Аноним 23/05/16 Пнд 23:25:40  752130
Добавьте плиз https://github.com/open-source-society/computer-science
Аноним 23/05/16 Пнд 23:27:09  752132
Аноны, я в прошлом треде начитался всякого с роботами.
Расскажите мне, например, как нейронная сеть научится управлять обратным маятником?
Аноним 24/05/16 Втр 01:09:05  752300
>>752132
http://www.wseas.us/e-library/transactions/circuits/2011/52-095.pdf
Аноним 24/05/16 Втр 01:18:32  752305
>>752132
например так
эволюция связей и весов нейросетевого графа

https://www.google.ru/search?q=neat+pole+balancing&oq=neat+pole+balancing&aqs=chrome..69i57.10776j0j1&sourceid=chrome&ie=UTF-8
Аноним 24/05/16 Втр 22:57:03  753154
up
Аноним 25/05/16 Срд 05:11:15  753340
Аноны, а вы можете пояснить, как генетический алгоритм будет приспосабливаться к разным показателям обратного маятника?
Он что, просто подождет, пока маятник придет в норму и обратно восстановит баланс?
Аноним 25/05/16 Срд 14:05:41  753591
>>753340
Функция приспособленности для обратного маятника принимает свой максимум при 0 угле наклона и 0 дельте угла наклона, как-то так. Остальное - рандомный поиск в пространстве состояний угла наклона и его дельты. Но вообще говоря, стабилизировать обратный маятник генетическим алгоритмом - аутизм какой-то.
Аноним 25/05/16 Срд 16:46:19  753704
14641839798750.png (74Кб, 665x396)
14641839798751.png (89Кб, 732x479)
Я смотрю, половина постов ИТТ про обратный маятник. Вкину симулятор нечеткой модели для стабилизации такого маятника, вполне работоспособно под досбоксом, пикрелейтед 1. Суть метода в бвзе правил, пикрелейтед 2. Тета - угол наклона, дельта тета - скорость изменения угла, ячейки таблицы - скорость мотора. Все вместе - правила типа "если тета = ZE (зеро, ноль) и дельта тета = ZE, то скорость мотора, требующаяся для компенсации маятника = ZE".
http://ftp.funet.fi/pub/sci/neural/cns-bbs/annsim/togai.lzh
Аноним 25/05/16 Срд 18:30:33  753820
>>753704
Какой-то брутфорс, в чем нечеткость?
Аноним 25/05/16 Срд 18:39:50  753834
>>753820
А в чем брутфорс?
Аноним 25/05/16 Срд 18:40:24  753835
>>753834
Ну, обычный поиск значений и запоминание их куда-либо
Аноним 25/05/16 Срд 23:47:01  754123
Смотрите, как вариант с вирт. реальностью можно сделать. Типа два человека, подключенные к сети, надевают 3D очки, потом они как бы оказываются в гипер пространстве, где взаимодействуют. Только по факту физически каждый из них взаимодействует с роботом-манекеном, которым управляет оппонент на другом конце провода.
Аноним 25/05/16 Срд 23:51:23  754125
>>754123
Сначала бы с разрешением окулус рифта разобраться.
Сначала бы нормальную анимацию в нем сделать.
Сначала бы нормальную передачу движения сделать
Сначала бы в нормальную нейронную сеть суметь хотя я не понял, зачем она тут
Короче, мы не умеем ни во что из того, что ты хочешь
Аноним 25/05/16 Срд 23:51:51  754127
>>754123
>>754125
Сначала бы в нормального робота суметь
Аноним 25/05/16 Срд 23:54:54  754131
>>754127
Ведь это пиздец непросто.
Знаешь, сколько конструкционных заморочек?
А ведь надо заморочиться так, чтобы потом не заморачиваться.
И когда делаешь что-то сам и впервые, то все по другому, тебе никто не скажет, почему у тебя тут нечеткая логика работает так, что сервопривод не доходит на 4 см, а по расчетам все вообще верно?
Или как бы сделать ей систему торможения, чтобы ее не колбасило моментом инерции?
Или как сделать нормальную амортизацию в коленных суставах и тазобедренном шарнире?

Аноним 26/05/16 Чтв 00:00:30  754137
>>754131
И у меня давно не встает член на девушек, я дрочу на макак
Аноним 26/05/16 Чтв 00:01:09  754138
>>754137
Что блядь?
Аноним 26/05/16 Чтв 00:04:24  754146
>>754125
А зачем нейросеть? Просто датчики на скафандре и манкене сканируют и передают те же движения манекену, а через окулус и манекен поступает инфа о расстоянии до тела.
Аноним 26/05/16 Чтв 00:06:49  754148
>>754138
Извини не туда написал, хотел тебе ответить что-то другое.
Аноним 26/05/16 Чтв 00:07:28  754151
>>754146
Какие датчики? Как настраивать их точность? Как их калибровать? Как их размещать? Как их запитывать, какая архитектура, вид платы?
Аноним 26/05/16 Чтв 01:44:50  754198
Прошлый тред был плох, но тут вообще какая-то ахинея пошла.
Аноним 26/05/16 Чтв 01:49:19  754205
>>754151
Есть же аналоги таких роботов, действующих по движениям. Я лично для себя подумал, что можно изменять угол сгиба скелета в трехмерном пространстве (т.е. три оси координат). И на его основании моделировать положение тела. Расстояние между манекеном и скелетом человека можно измерять с помощью датчиков, ну как на тачках, который расстояние до парковки измеряют лол. А там от какой-то одной точки выстраивается аналогичная модель скелета оппонента трехмерная.
Аноним 26/05/16 Чтв 01:51:05  754207
>>754151
>какая архитектура, вид платы?
Я вот не силен в роботехнике и компьютерных железках, я просто быдлокодерок, но наверняка серьезные фирмы запилят машину для такого устройства с соответсвующей платой-кодом-архитектурой. Может даже свой язык запилят под это дело.
Аноним 26/05/16 Чтв 14:53:11  754535
14642635911950.png (553Кб, 1268x825)
Что-то тред правда не туда катится. Давайте-ка вскроем вот какую тему. В любых моделях, хоть нейросеточках, хоть кластерного анализа, хоть генетических алгоритмов, да хоть чего, используется довольно ограниченный набор критериев качества получаемой модели. Не сильно ошибусь, если скажу что это варианты среднеквадратичной ошибки и AIC для кластеризации еще есть понятие ошибки квантования. Но ведь еще в 70-х годах в совке были предложены целые классы подобных критериев - критерии несмещенности, баланса переменных, что интересно - комбинированные. Причем, их необходимость обосновывалась тем, что среднеквадратичная ошибка не дает большой точности, если модель делается для предсказания числовых рядов и т.п. Может быть, я чего-то не знаю и таки сейчас где-то используются более сложные критерии качества модели чем SSE?
Аноним 26/05/16 Чтв 15:17:04  754555
>>754535
Для классификаторов сейчас используется почти исключительно кросс энтропия. Там через логарифмы пропускают выход.

Для НС крайне важно, чтобы функция цены имела хорошие производные. Абсолютно необходимо, чтобы цена от Х примеров была суммой цены по всем примерам, иначе и производную считать геморно, и на батчи не разложишь, т.е. это вообще ни в какие ворота. "Странные" функции, которые ты перечислил, по-моему этим свойством не обладают.

Кросс-энтропия, средние квадраты и еще несколько обладают всеми нужными свойствами. Однако см. также недавние работы по аутоэнкодерам, в частности variational autoencoder, generative adversarial networks. Там как раз борются со среднеквадратичной ошибкой, т.к. по ней выходит, что если у стола может быть она нога или четыре, то оптимально предсказывать 2.5. На эту тему много исписано, но думаю что в 70-х годах о таком еще никто и не подозревал.
Аноним 26/05/16 Чтв 15:21:39  754566
>>754535
Для классификаторов обычно используют F1-score.
Аноним 26/05/16 Чтв 16:11:23  754596
То́чечная оце́нка - говноедство
дискас
Аноним 26/05/16 Чтв 17:20:10  754667
>>754596
А как надо, точе́чная о́ценка?
Аноним 26/05/16 Чтв 17:47:11  754706
эй машинисты, сколько за месяц бабла загребаете?
Аноним 26/05/16 Чтв 18:07:55  754732
>>754706
Нам платят не за время, а за модели. 5руб. за каждый натренированный параметр.
Аноним 26/05/16 Чтв 23:05:13  754993
Посоны? Никто не занимался вероятностными графическими моделями? Пытаюсь найти оценку апостериорного среднего Марковской сети, но нихуя не выходит.
MCMC кормит меня хуями.
В mean field не получается ввести сопряжённые приоры.
Particle Loopy BP не сходится.
Есть ещё какие-нибудь общеизвестные варианты?
Мб, анон наставит на путь истинный?
Аноним 26/05/16 Чтв 23:48:49  755022
>>754993
https://en.wikipedia.org/wiki/Gibbs_sampling
Аноним 27/05/16 Птн 04:04:59  755072
>>754205
Это уже все известно и не работает нормально и эффективно.
>>754207
>Может
>наверняка серьезные фирмы
Ну ты сам понял
Аноним 27/05/16 Птн 13:33:56  755268
> MCMC кормит меня хуями
не может быть
Аноним 27/05/16 Птн 14:01:12  755280
>>755268
То есть?
Аноним 27/05/16 Птн 17:55:14  755393
пацаны насколько силен щас ажиотаж вокруг ML?
Аноним 27/05/16 Птн 17:57:05  755396
>>755393
невероятно силен
Аноним 27/05/16 Птн 18:03:17  755399
>>755396
Ну хоть на спад идет?
Аноним 27/05/16 Птн 18:17:31  755404
>>755399
нет же, с каждым твитом от дипмайнда интерес все больше разогревается
https://www.google.com/trends/explore#q=machine%20learning%2C%20deep%20learning&date=1%2F2010%2077m&cmpt=q&tz=Etc%2FGMT-2
Аноним 27/05/16 Птн 18:24:12  755405
14643626525680.jpg (73Кб, 600x600)
>>755404
Ну всеравно это интереснее, чем быть макакой. Да и порог входа тут выше, хотя и требуется меньше.

Мойдодыр! Принимайте пополнение!
Знаю что такое p.value, нормальное распределение, анализ выживаемости, могу в r сделать кластерный анализ, построить регрессию, немного могу knn, gbm, деревья классификации.

Где мне стелить? У окошка с авторитетами, на параше или к мужикам пока?
Аноним 27/05/16 Птн 18:36:09  755410
>>755405
> p.value
> Где мне стелить?
-> на параше
Аноним 27/05/16 Птн 20:04:53  755457
>>755405
>Где мне стелить? У окошка с авторитетами, на параше или к мужикам пока?
Есть две НС. В одной 200 слоев по 50 нейронов, а в другой 50 слоев по 200 нейронов. Какую сам будешь использовать, какую матери отдашь?
Аноним 27/05/16 Птн 20:39:49  755481
>>755410
Это ваш петух местный? Что не так p.value?
Аноним 27/05/16 Птн 20:40:25  755482
>>755457
Матери 200 слоев. Хотя хз что там в ваших нейросетях.
Аноним 27/05/16 Птн 23:50:52  755614
>>755481
>>755481
> Что не так?
С частым false positive.
Почитай про критику p value. Некоторые журналы даже не принимают статьи, где они используются.
Аноним 27/05/16 Птн 23:54:51  755615
>>755614
Какие есть альтернативы?
Аноним 27/05/16 Птн 23:55:16  755616
Из твитора Салахутдинова:
http://arxiv.org/pdf/1605.07912v2.pdf
Аноним 27/05/16 Птн 23:59:33  755617
>>755615
https://www.quora.com/Statistics-academic-discipline-What-are-some-alternatives-to-p-values
Аноним 28/05/16 Суб 00:04:12  755621
>>755617
Спасибо
Аноним 28/05/16 Суб 18:30:22  756205
>>755616
https://twitter.com/rsalakhu
Аноним 29/05/16 Вск 00:49:43  756518
>>754146
>>755072
Маркерный мокап себя уже сколько времени хорошо чувствует.
Аноним 29/05/16 Вск 05:11:36  756565
Как тут ваш back propagation? Если вы понимаете, о чем я.
Аноним 29/05/16 Вск 10:50:21  756620
>>756565
> back propagation
Результатов: примерно 0
Возможно вы имели в виду: expectation propagation
Аноним 29/05/16 Вск 12:13:32  756670
>>756620
я бы тебе anal prpagation устроил.
Аноним 29/05/16 Вск 15:38:58  756782
Анончики, не смотрели этот курс?
https://www.youtube.com/watch?v=2pWv7GOvuf0&list=PL5X3mDkKaJrL42i_jhE4N-p6E2Ol62Ofa
Кто как изучал RL?
Аноним 29/05/16 Вск 16:55:53  756817
14645301531780.png (1801Кб, 1946x1258)
За нейросеточки поясните. В чем разница между перцептроном и ADALINE?
Аноним 29/05/16 Вск 16:57:30  756818
>>756817
> The difference between Adaline and the standard (McCulloch–Pitts) perceptron is that in the learning phase the weights are adjusted according to the weighted sum of the inputs (the net). In the standard perceptron, the net is passed to the activation (transfer) function and the function's output is used for adjusting the weights.
Аноним 29/05/16 Вск 17:00:41  756820
>>756782
Курс Сильвера мне показался сложным. Рекомендую 5 и 6 недели этого:
https://courses.edx.org/courses/BerkeleyX/CS188x_1/1T2013/info для плавного въезда в RL.
Аноним 29/05/16 Вск 17:03:23  756822
14645306034500.jpg (14Кб, 259x194)
>>756818
Веса настраиваются по-разному штоле? Вроде и там и там обратное распространение ошибки, не?
Аноним 29/05/16 Вск 17:04:03  756823
>>756820
Ага. спасибо.
У меня в шаражке уже было два семестра с ИИ, так что какая-то минимальная база у меня есть.
Аноним 29/05/16 Вск 17:06:16  756824
>>756822
ADALINE линеен. В русской литературе это называется "адаптивный линейный сумматор", емнип.
Аноним 29/05/16 Вск 17:07:47  756828
>>756824
Однослойный линеен, да. Как и перцептрон.
Аноним 29/05/16 Вск 17:09:40  756830
>>756828
> перцептрон линеен
> нелинейная активационная функция
Аноним 29/05/16 Вск 17:14:09  756837
14645312493900.png (137Кб, 503x409)
14645312493911.png (2709Кб, 1280x720)
>>756830
На >>756817 пике тоже сигмоид, а это адалайн. Как жи быть?
Аноним 29/05/16 Вск 17:21:04  756839
>>756837
У тебя на втором пике ошибка идёт до активации выхода, в перцептроне после.
Аноним 29/05/16 Вск 17:26:13  756841
14645319740300.png (370Кб, 772x554)
>>756839
На втором пике м.б. дядя намудрил. На схеме-то немного не так.
Аноним 30/05/16 Пнд 03:24:58  757302
>>752098 (OP)
Почему гугл еще не выдал более менее нормальный переводчик на основе deeplearning?
Аноним 30/05/16 Пнд 03:38:36  757304
Если я добавлю на выход(кроме 10 выходов) еще координаты цифры, ширину и длину, то сеть сможет обучиться находить цифры на картинке?
Аноним 30/05/16 Пнд 13:25:07  757475
http://joelgrus.com/2016/05/23/fizz-buzz-in-tensorflow/
Аноним 30/05/16 Пнд 13:36:35  757495
14646045955850.png (1545Кб, 2398x1298)
Я нашел еще одну, нормальную схему адалайна, предыдущий оратор >>756839 предположил, что разница в том, что у перцептрона ошибка считается после активации (н-р сигмоида), а у адалайна - до. Это не так, т.к. на схеме пикрелейтед и втором пике >>756837 ручная электромеханическая конструкция адалайна и поправка вводится вручную после срабатывания активации. Т.е. ошибка таки считается после сигмоида или что там вместо активации, как у перцептрона. Но тогда вопрос >>756817 остается в силе. Неужели правда никто не знает?
Аноним 30/05/16 Пнд 14:30:44  757551
>>757304
А если еще свои мысли добавишь, она вообше думать научится.
Аноним 30/05/16 Пнд 14:36:38  757553
>>757551
Вот если ты такой умный, объясни как правильно делать сегментацию.
Аноним 30/05/16 Пнд 14:44:50  757556
>>757553
>как правильно делать сегментацию.
В сверточных сетях и неокогнитроне она автоматически делается. А вообще, должно быть достаточно, если на картинке кроме самой цифры ничего нет.
Аноним 30/05/16 Пнд 19:10:15  757744
>>757556
Я понимаю, что можно одну картинку прогонять с разной вырезкой по координате и найти ее оптимальное начало и длину и высоту, но есть же способ сразу получить их.
Аноним 30/05/16 Пнд 23:53:29  758015
>>757495
У тебя опять сигнал ошибки до активации идёт.
Ты сам гуглить то пытался, нет?
https://www.quora.com/Artificial-Neural-Networks-what-is-the-difference-between-perceptron-and-adaline-in-recognition-+-and-X-images

https://en.wikipedia.org/wiki/ADALINE
Аноним 31/05/16 Втр 01:01:50  758083
Скомпилил openblas.dll (там же создался openblas.a) под вин, там же появился, указал в настройках Theano путь к папке где эти 2 файла, вроде все подключилось. Удалил эти 2 файла, но Python почему-то не ругается на это и каким-то образом их находит. Ошибки начинаются только если я укжу другой путь к openblas где его нет.
Аноним 31/05/16 Втр 13:49:02  758360
14646917421520.gif (3Кб, 393x605)
>>758015
Ну смотри, на пикрелейтед "учитель" оценивает выход адалайна после активации, после чего правит в консерватории, если выход неправильный. Правятся-то веса модели, а не сам сигмоид. По второй ссылке одни общие фразы кроме
>The only difference is that the adaline, after each iteration checks if the weight works for each of the input patterns; the perceptron just updates the weight after each new input pattern and does not go back and check.
Аноним 31/05/16 Втр 21:52:01  758826
>>757744
бамп вопросу
Аноним 31/05/16 Втр 22:36:40  758882
Играют в майнкрафт (почти) с помощью RL: http://arxiv.org/abs/1605.09128
https://www.youtube.com/watch?v=jQg8p-V8jF4
Аноним 01/06/16 Срд 14:48:16  759288
>>757744
Ну хуй знает. Может быть вейвлеты какие-нибудь помогут, может быть главные компоненты, может быть аутоэнкодеры. Вряд ли есть способ сделать это проще чем в сверточных сетях.
Аноним 02/06/16 Чтв 21:12:11  760295
поссал на ригер
Аноним 02/06/16 Чтв 21:36:19  760306
>>758083
лучше сразу поставь убунту и не еби мозг всем.
Аноним 03/06/16 Птн 18:07:18  760768
Аноны, а нейронная сеть сама может находить взаимосвязи между поступающей в нее информации?
Или например, вычислить формулу, по которой качаются качели?
Аноним 03/06/16 Птн 18:23:29  760776
>>760768
Да, может. Это называется идентификация системы. Только в нейросети результат непрозрачен, весовые коэффициенты тебе не дадут ничего. Интерпретируемый результат возможен при использовании например нечетких моделей. Вычислить формулу сложнее, но это тоже возможно. В совке еще был разработан такой метод как МГУА (метод группового учета аргументов, GMDH). Частный его случай - полиномиальная нейросеть. Подобными алгоритмами можно прямо восстанавливать формулы по входным-выходным данным системы, подробнее например http://gen.lib.rus.ec/book/index.php?md5=E73366E46C7B2375264EA47C1C09F4C5 там есть пример восстановления по данным т.н. соотношений Онзагера https://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D0%BE%D1%80%D0%B5%D0%BC%D0%B0_%D0%9E%D0%BD%D0%B7%D0%B0%D0%B3%D0%B5%D1%80%D0%B0 но эти алгоритмы в своем изначальном (а не обрезанном) виде нигде не реализованы, и в массе своей существуют в виде еще совкового кода на фортране разной степени допиленности.
Аноним 03/06/16 Птн 18:27:50  760780
>>760776
Ну, вычислять формулу не надо, главное - искать взаимосвязи.
А совковский код - очень даже интересно, в этом направлении еще никто не работал, если не ошибаюсь?
Может себе дипломник взять по этой теме?
Аноним 03/06/16 Птн 18:39:59  760783
>>760780
>главное - искать взаимосвязи.
Тогда идентификация систем. Аппроксимация функций зависимости выходов от входов. Тема известная и широкая. Основная проблема - интерпретируемость полученной модели, но тут тоже есть свои подходы. А эти совеццкие алгоритмы вещь вообще малоизвестная, сейчас смотрю даже сайт http://gmdh.net/ где весь код был выложен, помер.
Аноним 03/06/16 Птн 18:47:44  760792
Хотя вот есть довольно новая кнжка http://gen.lib.rus.ec/book/index.php?md5=2D438F11AAB79ACDE5A004F211EC93DF
Лол, поехавший >>760789 в треде, я спокоен.
Аноним 03/06/16 Птн 19:03:00  760801
>>760783
Хм, очень даже интересно.
А если у меня задача не в классификации, а в том, чтобы идентифицируемую систему, нейронная сеть составила сама.
Аноним 03/06/16 Птн 19:13:23  760806
>>760801
>чтобы идентифицируемую систему, нейронная сеть составила сама.
Это как? Система - это некий реальный объект или их совокупность. Качеля та же. Есть некие действия (входы), на которые система отвечает (выходы). Допустим, нам не известны принципы ответа системы на внешние воздействия. Но есть возможность измерить как воздействия так и ответ системы. Вот по этим данным можно построить модель системы, что и составляет идентификацию.
Аноним 03/06/16 Птн 19:14:52  760808
>>760806
Можно накапливать информацию от объекта и искать взаимосвязи.
Аноним 03/06/16 Птн 19:19:54  760810
>>760808
Я об этом и говорю. Любая такая взаимосвязь есть функция зависимости выходов от входов. Задача в том чтобы такие функции выявить. Это и есть идентификация системы. Которая решается с помощью универсальных аппроксиматоров функций.
Аноним 03/06/16 Птн 19:30:32  760812
>>760810
>функция зависимости
Ты рили немного поехавший, лел.
>Задача в том, чтобы такие функции выявить.
Ну это понятно, но как такое реализовать? Может использовать несколько нейросетей? Или есть архитектура сети, умеющая в такое?

Ведь нужно искать не только взаимосвязь между данными, но и исключения.
Аноним 03/06/16 Птн 19:35:08  760819
>>760812
Вообще, можно представить все в виде области значений из точек.
Такое в Картах Кохонена вроде реализовано, но они старые.
Аноним 03/06/16 Птн 19:58:23  760830
>>760768
Ох, а правда.
Как научить нейронную сеть считать упреждение?
Как научить ее предсказывать точно колебания маятника?
И платина:
Может ли нейронная сеть научить шагоход ходить?

И чтобы сеть не имела изначально никакой информации, а сама все узнала, подбирая методы.
Аноним 03/06/16 Птн 21:25:26  760879
Жил-был царь,
у царя был двор,
на дворе был кол,
на колу мочало;
не сказать ли с начала?
Аноним 03/06/16 Птн 23:50:13  760967
Аноны, а для сравнения и классификации у нейросети обязательно должни быть математические операторы, вроде <>=/*+-
Есть ли сети, которые могут сравнивать и классифицировать информацию только потому, что в процессе обучения без учителя получают награждение, например?
Аноним 03/06/16 Птн 23:53:56  760969
>>760830
Ты про нечёткие модели забыл.
Аноним 04/06/16 Суб 00:01:21  760974
>>760967
О, догадался.
Надо научить сеть математике самостоятельно.
Аноним 04/06/16 Суб 00:03:40  760975
>>760830
а ты можешь держать равновесие двух длинных палок одновременно ?
а нейронка может (ну как минимум с помощью td\Q обучения)

В меня сейчас будут кидаться немытыми хуями перельмана, но предлагаю порассуждать о нейронках с точки зрения психологии.

И вопрос господам когнитивистам, зачем нам внимание ?
Для перераспределия вычислительных ресурсов ?

Аноним 04/06/16 Суб 00:05:54  760977
>>760975
>а ты можешь держать равновесие двух длинных палок одновременно ?
Могу, я же тоже нейронка, лел.
>В меня сейчас будут кидаться немытыми хуями перельмана, но предлагаю порассуждать о нейронках с точки зрения психологии.
Чистый вычислительный механизм.
Порассуждай еще о синусе с точки зрения психологии, одно и тоже.
Аноним 04/06/16 Суб 00:10:03  760979
>>760974
Кстати, а это уже интересно.
Аноним 04/06/16 Суб 00:27:48  760985
14649892685910.jpg (29Кб, 256x256)
Давайте придумывать какие нибудь механизмы по аналогии word2vec, doc2vec, like2vec , illustration2vec
https://github.com/MaxwellRebo/awesome-2vec

Для неофитов поясняю, мы берём некое пространство, и редуцируем его в пространство меньшей размерности с помощью автоэнекодера прости господи.

В результате получаем семантически сжатое пространство, вектора которого отражают вектора из пространства большей размерности. При том нам становятся доступны такие ништяки как интерполяция, векторные операции и сравнение векторов.
Аноним 04/06/16 Суб 00:30:12  760987
>>760985
anime2vec
Аноним 04/06/16 Суб 00:34:30  760989
>>760987
https://mattya.github.io/chainer-DCGAN/
Аноним 04/06/16 Суб 00:51:21  760996
>>760985
прикольно было бы попробовать редуцировать на другие типы конструкций: алгебры, кольца и т.д.
Аноним 04/06/16 Суб 00:52:25  760997
>>760996
А с функциями есть что-нибудь такое?
Аноним 04/06/16 Суб 01:07:27  761002
>>760996
я не эксперт в этих ваших кольцах и гомологиях, но что может быть проще и понятнее обычного вектора ?
У нас есть вектор в n-мерном пространстве. Близкие вектора похожи. Над векторами можно проводить разные операции которые будут интуитивно понятно.
Что предлагает ваш аппарат ?
Аноним 04/06/16 Суб 01:38:02  761007
>>761002
в векторном пространстве слишком много операций задано. Например, как интерпретировать скалярное произведение двух векторов? Сложение интерпретируется как аналогия. Имхо нужна по настоящему только одна операция, которая должна быть некомутативна (композиция слов) + одна комутативная (аналогия). Идеально для этого подходят кольца:

A ring is a set R equipped with binary operations[1] + and · satisfying the following three sets of axioms, called the ring axioms[2][3][4]

1. R is an abelian group under addition, meaning that

(a + b) + c = a + (b + c) for all a, b, c in R (+ is associative).
a + b = b + a for all a, b in R (+ is commutative).
There is an element 0 in R such that a + 0 = a for all a in R (0 is the additive identity).
For each a in R there exists −a in R such that a + (−a) = 0 (−a is the additive inverse of a).
2. R is a monoid under multiplication, meaning that:

(a ⋅ b) ⋅ c = a ⋅ (b ⋅ c) for all a, b, c in R (⋅ is associative).
There is an element 1 in R such that a ⋅ 1 = a and 1 ⋅ a = a for all a in R (1 is the multiplicative identity).[5]
3. Multiplication is distributive with respect to addition:

a ⋅ (b + c) = (a ⋅ b) + (a ⋅ c) for all a, b, c in R (left distributivity).
(b + c) ⋅ a = (b ⋅ a) + (c ⋅ a) for all a, b, c in R (right distributivity).
Аноним 04/06/16 Суб 01:39:42  761010
>>761007
точнее варианты колец с измененными пунктами 2 и 3.
Аноним 04/06/16 Суб 02:24:16  761021
14649962564000.jpg (32Кб, 638x479)
>>761007
как интерпретировать скалярное произведение двух векторов?
Для начала разберёмся с углом между векторами.
Вот у нас есть пространство характеризующее пиструн, пусть это будет длина и ширина. Для каждого пиструна в мире можно задать длину и ширину.
Допустим мы хотим узнать, на сколько похожи два пиструна.
Соотвественно мы можем воспользоваться манхэттенским расстоянием, евклидовым и другими параметрами расстояния минковского.
Померяли расстояние, получилось 15. И что из этого следует ? это много или мало ?

Заменим меру на угол, таким образом получим меру схожести. Если угол 90, то у нас есть два пиструна, один абсолютно толстый, но нисколько не длинный, а другой на оборот. Если угол 0, то мы сможем получить один пиструн умножив характеристики другого на одно число.

В случае множеств я думаю надо смотреть на расстояния Джаккарда.
Аноним 04/06/16 Суб 11:27:59  761134
Аноны, а как можно научить нейронную сеть классифицировать информацию?
Например, есть рекуррентная сеть.
Я хочу ее обучать математике, но, как мне дать ей понять, что цифры - это цифры? И что они выражают?
Вместо тупого матана
Аноним 04/06/16 Суб 11:43:48  761144
>>761134
больной ублюдок, чем тебя обычный калькулятор не устраивает ?
У людей за математикой стоят некие идеи, а математика это просто язык описания этих идей.
Делать математические операции можно и с яблоками не зная вообще ничего о математике.

Если рассматривать математику как часть логики (мы же можем перевести всю математику в бинарное исчисление) то про обычный XOR на ИНС я говорить не буду, скажу что уже есть калькуляторы на нейронках и с недавних пор машины тьюринга.
http://arxiv.org/abs/1511.06279
Аноним 04/06/16 Суб 13:28:07  761176
14650360874040.jpg (108Кб, 604x604)
>>760812
>>760818
>но как такое реализовать? Может использовать несколько нейросетей? Или есть архитектура сети, умеющая в такое?
>Эта задача НЕ РЕШАЕТСЯ с помощью универсальных аппроксиматоров.
Пиздец, я реально не могу уже с вами. Сколько раз за последние года 3 я упоминал теорему Коско об универсальных нечетких аппроксиматорах - http://sipi.usc.edu/~kosko/FuzzyUniversalApprox.pdf - Аллаху одному ведомо. Вот даже целая книга на эту тему http://gen.lib.rus.ec/book/index.php?md5=BC1EC0F44F2E619AB46D6FD0B7088514 глава 2 особенно, И что? Ответ один - врети, поехавший, и т.д.
>>760819
>в Картах Кохонена вроде реализовано, но они старые.
А, ну ясно. Раз до 2015 года создано, значит старье. А много ли ты слышал о двунаправленных картах Кохонена с супервайзед обучением? https://cran.r-project.org/web/packages/kohonen/index.html Да, карты Кохонена могут в такую задачу, особенно XYF, Supersom и BDK.
>>760830
Идентификация систем же. Маятник или что там у тебя, представляется в виде матрицы Ганкеля и подкладывается нейросети или чему угодно и все, профит. Гугли NARX/NARMAX если интересно подробнее.
>>761134
Входы - любое выражение, выходы - правильные ответы.
Аноним 04/06/16 Суб 13:57:11  761195
Все-таки фрилансером, несмотря на мизерные копйки, хамское отношение заков и биржи, я ощущаю, что исполняю какую-то интеллектуальную работу, где нужно зарабатывать именно извилиной и элементарной грамотностью. Пусть даже у меня будет выходить всего косарь в месяц, а остальное время я буду прогать for free. Не могу представить, как можно работать каким-то официантом или подаваном-продаваном, пусть даже там ты общаешься с людьми, но ты ведь вообще ничего не создаешь, не выполняешь никакой полезной функции, не ощущаешь себя уникальным. Тобой просто забивают дыру в велфере, ну родился человек, нихуя не умеет, мозг ему дан просто, чтобы ложку мимо рта не пронести и не промахнуться, подтирая жопу. Не давать же им с голода дохнуть, вот тебе паек рядом с продажами, сиди и пинай хуи либо страдай ненужной хренью. Вот так вот они все думают, когда очередной васян с улицы просится в теплое местечко посидеть за зарплату. Вот так все это быдло и вьет себе кормушки возле продажных мест, где проходят денежные потоки, ничего по сути не делая, совершенно лишние люди, изображающие деятельность ради деятельности. Вся суть эпохи постмодернизма. Или вот взять каких-нибудь тупорылых зажиточных бизнесменов и нефтянников, многие ни писать, ни читать, ничего не умеют, а им и не нужно, им хватает того, что они чем-то денежным владеют, а за них все сделают задроты, которые всю жизнь жопу рвут и что-то изучают, чтобы попасть на это копеечное место, еще и конкурируют за него во всю. Вот мы тут думаем, напрягаемся, чтобы что-то написать или напрогать, используем мозг на полную катушку, а какой-нибудь васян или машка-продавщица сидят, принимают деньги и записывают в книжку товар по 8 часов в сутки, не напрягая ни одной извилины, и получают гораздо больше нас. Тупые ненужные люди получают больше умных, тех, кто зарабатывает мозгом и кому унизительно работать, как баба маша - затычкой в системе. Короче, всех их заменят скоро роботы и справедливость восторжествует. Вот к чему я, сори за простыню.
Аноним 04/06/16 Суб 13:59:34  761199
14650379743830.jpg (107Кб, 666x800)
>хотел сделать прорыв в науке и изобрести ИИ
>открыл pdf про backpropagation
>не понимаешь линейной алгебры, формул и высшего матана
ладно, пойду дальше круды шлепать.
Аноним 04/06/16 Суб 14:00:50  761200
>>761007
>по настоящему
русский выучи, скалярный вектор блять.
Аноним 04/06/16 Суб 14:03:58  761201
>>761195
>работать, как баба маша - затычкой в системе. Короче, всех их заменят скоро роботы и справедливость восторжествует. Вот к чему я,
Считаешь программизм дохуя интеллектуальной работой? Тогда у меня для тебя плохие новости, от бабы маши ты ничем не отличаешься. Ты про конструктивную теорию типов Мартин-Лёфа слышал? Читни http://maxim.livejournal.com/479716.html вот. В крации - любая возможная программа на любом языке программирования есть подмножество инфинити топоса, причем поддается экстракции оттуда.
Аноним 04/06/16 Суб 15:17:24  761233
>>761199
Вот. Проще уже вряд ли можно найти
http://www.aiportal.ru/articles/neural-networks/back-propagation.html
Аноним 04/06/16 Суб 15:53:18  761264
>>761201
Интелелктуальный - это вообще избитый термин. Я бы сказал оптимальный, прогрессивный, современный. Один кодер накодит прогу для миллиона роботов, выполняющих функции продаванов. Смотри, какая КПД у кодера и какая у продаванов. У них ведь алгоритм: принять деньги, доставить товар покупателю. Тут даже нейросеть не нужна, этот простой алгоритм уже реализован в автоматах с кофе. Знаешь, мне вот кажется, что это натуральный заговор. да они уже бы смогли поставить везде такие автоматы с роботами (только больших размеров) в каждый магазин, в каждую аптеку, в каждую кафешку и забегаловку. Но нет, они хотят сохранить места для тупого и бесполезного быдла, не могущего в создание чего-то.
Аноним 04/06/16 Суб 15:55:15  761267
>>761201
а любой натюрморт - это просто набор трехмерных объектов, а теперь попробуй выстроить из рандомных объектов натюрморт, все дело в креативности и организации, которых нет у бидла.
Аноним 04/06/16 Суб 16:00:15  761274
>>761267
Сразу видно, что по ссылке ты не читал, либо не понял.
Аноним 04/06/16 Суб 17:46:29  761354
>>752098 (OP)
Аноны, а почему все только на компьютерах?
Ведь нейронная сеть - это математическая модель.

Но почему она реализовывается только в виде кода? Ведь вычислять и сохранять в памяти умеют и шестереночные механизмы.
Можно ли воссоздать нейронную сеть в виде шестереночного механизма?
Аноним 04/06/16 Суб 17:52:09  761358
>>761354
А так, как подобные механизмы теперь могут быть ОЧЕНЬ маленькими, то проблем с размерами теперь не будет.
Но в чем будут проблемы? В скорости?


Интересно будет собрать нейронную сеть в аналоговом виде
Аноним 04/06/16 Суб 17:56:43  761363
>>761354
Да можно вообще делать вычисления с помощью узелков на веревке.....

%%съеби нахуй из раздела??
Аноним 04/06/16 Суб 17:59:45  761365
>>761354
Можешь почитать про голографические нейросети. Эти поехавшие спят и видят, как они создают AGI на базе голографии. Но на практике там дикий обосрамс.
Аноним 04/06/16 Суб 18:00:06  761366
>>761363
С чего такая агрессия?
Этого еще никто и никогда не делал же, а у меня внезапно возникла такая мысль.
Аноним 04/06/16 Суб 18:01:08  761370
>>761365
Не, в голографию не хочу.
А вот сделать что-нибудь забавное на базе шестеренок, игрушку, которая сама сможет чему-нибудь научиться - это забавно.
Аноним 04/06/16 Суб 18:02:03  761371
>>761370
99% людей даже неправильно понимают это слово.
Аноним 04/06/16 Суб 18:02:41  761372
>>761354
>Можно ли воссоздать нейронную сеть в виде шестереночного механизма?
Можно. Можно в виде химической реакции, оптических элементов, в виде чего угодно можно.
Аноним 04/06/16 Суб 18:02:55  761373
>>761371
Обычно все понимают объемные изображения.
Аноним 04/06/16 Суб 18:04:18  761374
>>761372
>Можно в виде химической реакции
То-есть, теоретически, можно заставить воду в туалете разговаривать с людьми?
Аноним 04/06/16 Суб 18:07:52  761376
>>761374
Человеческий мозг более чем на 80% та же вода из унитаза. И никаких специальных алгоритмов в мозгу не реализовано, все работает только на свойствах среды. Никого не удивляет при этом, что человека можно научить разговаривать с другими людьми.
Аноним 04/06/16 Суб 18:08:26  761377
>>761370
Розен, даже не думай.
Аноним 04/06/16 Суб 18:56:26  761403
14650557863280.png (86Кб, 537x447)
Не понимаю. Зачем скрытые нейроны?
Аноним 04/06/16 Суб 19:03:24  761412
14650562044110.webm webm file (429Кб, 640x360, 00:00:04)
>>761403
Представление функции многих аргументов через суперпозиции функций одного аргумента. Колмогоров, Арнольд, Горбань. http://icm.krasn.ru/ftp/articles/1998/2096gorban_SibZhVM98.pdf Это классика, блядь, это знать нада!
Аноним 04/06/16 Суб 19:07:04  761418
>>761412
Что? А попроще. На примере распознание рукописных цифр. Что эти 15 нейронов делают и почему их количество можно менять? 2 часа назад учить начал
Аноним 04/06/16 Суб 19:15:44  761437
>>761418
Это самое простое объяснение происходящему, можешь поверить.
Аноним 04/06/16 Суб 19:15:55  761438
>>761418
На хуй иди. Тебе литературу дали, учи, блять!
Нет, не хочу, говно жрать хочу.
Чтобы получить более высокоуровневое представление
Аноним 04/06/16 Суб 19:18:11  761441
>>761438
Я половины слов не понимаю. Давай литературу для новичка.
Аноним 04/06/16 Суб 19:26:46  761451
>>761441
По нейросетям штоле? Вот это можно навернуть, там с примерами http://gen.lib.rus.ec/book/index.php?md5=9EC6CA538388D16910331E309741732E Если сам будешь искать - Хайкина читать не вздумай, вынос мозга гарантирован.
Аноним 04/06/16 Суб 19:29:36  761458
такое ощущение, что вы обчитались умных книг и теперь повторяете про свои вектора и бэкпропагешены без понимания сути произносимых слов и реализации на практике, как попугаи.
Аноним 04/06/16 Суб 19:33:17  761464
>>761458
Тебе ж посоветовали >>761451 интересную книжку, там каждый алгоритм на пальцах расписан, кто угодно поймет. Если интересуешься реализацией на практике, вот тебе еще книжка http://gen.lib.rus.ec/book/index.php?md5=A5205BD61ADDC523C7FBFE1D7EB0B3C6
Аноним 04/06/16 Суб 19:35:54  761470
>>761451
Спасибо. Ахуеть 500 страниц введения в нейросети. Я на 100 рассчитывал.
Аноним 04/06/16 Суб 19:38:38  761476
>>761464
а как ее открыть?
Аноним 04/06/16 Суб 19:40:06  761478
>>761458
>без понимания сути
Про суть опять же, >>761412 статья. По ссылкам почитай соотв. теоремы Колмогорова и Арнольда. Это именно вся суть происходящего. Вот еще видео есть https://www.youtube.com/watch?v=hc2Zj55j1zU https://www.youtube.com/watch?v=skfNlwEbqck как раз очень годно рассказано и показано распознавание символов.
Аноним 04/06/16 Суб 19:41:36  761487
>>761476
Ну ты даешь. http://windjview.sourceforge.net/ru/ Впрочем, там есть и пдф http://gen.lib.rus.ec/book/index.php?md5=AE6CE64B978DCC3E4C0623C70D6D5973
Аноним 04/06/16 Суб 19:43:12  761489
>>761478
Какой-то разваливающийся дед с двумя блоками 60 года выпуска. Поновее ниче нет?
Аноним 04/06/16 Суб 19:44:16  761491
>>761487
нет там пдф.
Аноним 04/06/16 Суб 19:45:12  761495
>>761489
Это основы, сначала пойми их, потом гугли поновее.
Аноним 04/06/16 Суб 19:45:29  761497
>>761489
Поновее в оп-посте ссылка. А этот дед, это не просто дед.
Аноним 04/06/16 Суб 19:46:07  761499
>>761403
Ебать, зачем столько нейронов? Какое назначение у этой функции вообще?
Аноним 04/06/16 Суб 19:47:03  761506
>>761499
*у этой функции
У этой сети, шрифты распознает?
Аноним 04/06/16 Суб 19:48:04  761509
>>761506
На входе 784 на выходе 10. Да.
Аноним 04/06/16 Суб 19:49:37  761513
>>761506
Цифры от 0 до 9 же, смотри выход.
Аноним 04/06/16 Суб 21:00:03  761596
Аноны, а нейронная сеть всегда имеет жесткое количество нейронов?
Аноним 04/06/16 Суб 21:11:53  761613
>>761596
да
нервные клетки не восстанавливаются/растут
Аноним 04/06/16 Суб 21:12:52  761615
>>761613
Но как тогда человек живет? У него просто очень дофига нейронов или что?
Аноним 04/06/16 Суб 21:14:55  761617
>>761613
расскажи это своему гиппокампу
Аноним 04/06/16 Суб 21:19:15  761625
>>761615
И вообще, может ли нейронная сеть включать дополнительные слои нейронов?
Может ли ей не хватать нейронов?
Аноним 04/06/16 Суб 22:08:45  761671
>>761412
Прочитал. Ещё и в гугле определения незнакомым словам искал. А как эти функции, теоремы, радикалы, суперпозиции и прочая хуйня связана с скрытым слоем в той нейросети?
Аноним 04/06/16 Суб 22:18:32  761683
>>761613
Нейрогенез же.
Аноним 05/06/16 Вск 13:20:35  762119
> Нейрогенез
https://www.reddit.com/r/MachineLearning/comments/4mar3t/nag_neurogenesis_along_the_gradient_using/
Аноним 05/06/16 Вск 13:54:45  762150
14651240858770.png (58Кб, 1198x221)
Решаю яндекс курсы и надо узнать какую долю составили пассажиры первого класса. Где здесь написано какой у них класс?
Аноним 05/06/16 Вск 14:03:01  762157
>>762150
> Pclass
Аноним 05/06/16 Вск 14:18:32  762168
>>762150
pclass, даун.
Аноним 05/06/16 Вск 14:20:24  762173
Я в теме не очень шарю, но в этом треде обсужаются нейронные сети, bigdata, ML и еще какая-то еботень? А разве это не сильно разные вещи?
Аноним 05/06/16 Вск 14:20:26  762174
>>762157
>>762168
Ясно. Спасибо. А first name? Там же у них по 2 слова после Mr и Mrs у некоторых.
Аноним 05/06/16 Вск 14:42:06  762199
>>762174
>>762150
Бамп вопросу. Подчеркните там имя .Последнее задание осталось.
Аноним 05/06/16 Вск 14:49:24  762210
>>762206
И то что в скобках тоже не подходит?
Аноним 05/06/16 Вск 14:55:17  762217
>>762173
Разные, но связанные.
Аноним 05/06/16 Вск 14:56:27  762219
>>762174
тебе 12? первое имя до запятой идет.
Аноним 05/06/16 Вск 14:57:17  762220
т.е. наоборот после запятой.
Аноним 05/06/16 Вск 15:06:37  762227
>>762215
А нужно найти самое популярно женское first name. Пробую так s[s.index('. ')+2:s.index(' ',s.index('. ')+2)]
, но вдруг скобки имеют значение?
Аноним 05/06/16 Вск 15:13:39  762229
>>762150
кр4 весь плебс подох
а богатые суки все выжили
такие дела
Аноним 05/06/16 Вск 15:14:03  762230
14651288434100.jpg (624Кб, 2025x2052)
>>761195
Молодец, теперь ты можешь в капитализм.
Аноним 05/06/16 Вск 15:17:28  762232
>>761354
Можешь в майнкрафте потренироваться.
https://www.youtube.com/watch?v=zi6gdjLLSPE
Аноним 05/06/16 Вск 15:30:31  762241
14651298320150.jpg (51Кб, 362x395)
>>762229
но но
Аноним 05/06/16 Вск 15:49:46  762252
>>762241
в третьем классе же одни работяги ехали.
Аноним 05/06/16 Вск 15:57:43  762264
>>762232
Проиграл с опущенца в видео
Аноним 05/06/16 Вск 17:08:04  762348
>>762150
Здесь кто-то ещё решал эти задачки? Знает кто ответы и решения на задачи с средним арифметическим возрастов и самым популярным женским именем?
Аноним 05/06/16 Вск 17:18:13  762355
>>761354
http://golovolomka.hobby.ru/books/gardner/mathdiv/14.shtml
Аноним 05/06/16 Вск 19:08:33  762487
допустим у меня есть матрица чисел.
можно ли использовать нейросеть для поиска минимума и максимума?
теоретически скорость работы должна замедлится?
Аноним 05/06/16 Вск 19:12:36  762493
>>762487
Допустим мне нужно решить FizzBuzz.
Можно ли использовать нейросеть для решения?
Теоретически скорость работы должна замедлиться?

Что ты делаешь то?
Аноним 05/06/16 Вск 19:32:04  762515
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
Аноним 05/06/16 Вск 19:35:07  762521
>>762515
Быдлецо набигает. Это тленчик.
Аноним 05/06/16 Вск 19:39:03  762526
Тред #1: https://arhivach.org/thread/147800/
Тред #2: https://arhivach.org/thread/170611/

НЕЙРОНОЧКИ 101:
1. Introduction to НЕЙРОНОЧКИ, Casella ( http://www-bcf.usc.edu/~gareth/ISL/ISLR%20Sixth%20Printing.pdf )
Читается легко, неплохая разминка перед ESL
2. НЕЙРОНОЧКИ and НЕЙРОНОЧКИ, Bishop.
3. НЕЙРОНОЧКИ for Hackers. Введение в НЕЙРОНОЧКИ, годно.
4. http://neuralnetworksanddeeplearning.com
Введение в НЕЙРОНОЧКИ для самых маленьких. Написано простым английским.
5. https://yandexdataschool.ru/edu-process/courses - базовые курсы ШАДа.

НЕЙРОНОЧКИ Advanced
1. Elements of НЕЙРОНОЧКИ (http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Сложность - 9 из 10. Шутки в сторону, можно читать годами. Если вы сможете полностью проработать эту книгу и прорешать упражнения, обязательно свяжитесь со мной - у меня найдется работа для вас.
2. Optimization for НЕЙРОНОЧКИ. Edited by Suvrit Sra, Sebastian Nowozin and Stephen J. Wright, MIT Press, 2012.
Иногда from НЕЙРОНОЧКИ.НЕЙРОНОЧКИ import НЕЙРОНОЧКA перестает работать и тогда нужно все переписать. Оптимизация НЕЙРОНОЧКИ на больших объемах данных, НЕЙРОНОЧКИ, НЕЙРОНОЧКИ - вот это все тут есть.
3. http://www.cs.nyu.edu/~mohri/mlbook/
Как ESL, только слегка по-проще. Попробуйте, может зайти.

Дальше вас ждет дикий и необузданный мир. Два маяка https://vk.com/deeplearning и http://deeplearning.net/reading-list/ осветят дорогу: это списки литературы и обзоры статей для прощупывания пульса индустрии.

F.A.Q
По мотивам предыдущего треда.
Эти ваши книжки стоят овер 9000 рублей, как быть?
http://libgen.io
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и НЕЙРОНОЧКEK, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут НЕЙРОНОЧКАМИ и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.
Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг НЕЙРОНОЧКИ, далеко не во всех IT компания есть необходимость в НЕЙРОНОЧКИ и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2016 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru
Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
НЕЙРОНОЧКИ-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.
Но ведь есть НЕЙРОНОЧКИ per se, чем он занимается?
Действительно есть. Одаренная прослойка людей изобретает новые методы, но это правильнее называть просто математикой. Сейчас пищей для ума являются нейронные сети и НЕЙРОНОЧКИ, но даже они двигаются рука об руку с практикой.
Что такое TensorFlow?
TensorFlow - часть гуглового инструмента для перемножения тензоров и оптимизации функционалов. Часть - потому что важные куски типа паралелизации еще не выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и НЕЙРОНОЧКA для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
Аноним 05/06/16 Вск 19:47:23  762538
>>762526
Э, слы, пацан, у тебя в нейроночке LSTM юниты есть? А если найду?
Аноним 05/06/16 Вск 20:04:12  762551
>>762241
> Алёна думает что во всех классах женщины&дети / мужчины = 50 / 50
Аноним 05/06/16 Вск 22:38:24  762646
14651555050330.jpg (30Кб, 209x512)
>>761201
Объясните, пожалуйста, зелёному студенту, почему из этого:
>>любая возможная программа на любом языке программирования есть подмножество инфинити топоса, причем поддается экстракции оттуда.
следует, что
>>программизм не является дохуя интеллектуальной работой
?

Топос — тип категорий в теории категорий, по своим свойствам напоминающих и обобщающих категорию множеств. То есть выше утверждается,что любую программу можно формализовать, упростить и как следствие, автоматизировать?
Аноним 05/06/16 Вск 22:48:04  762655
>>762646
Это маняфантазии технофашистов. Любой текст на естественном языке тоже внезапно объект Set, и эти кукареки ничем не лучше утверждения о том, что Шекспир это обезьяна, которой дали перо и чернила.
Аноним 05/06/16 Вск 22:56:28  762658
>>762646
Тогда и механизм работы человека тривиальная программа.

Меня эти топосы уже просто доебали, не могу их слушать, одно кольцо охуительней другого.
Аноним 06/06/16 Пнд 00:45:09  762718
>>762655
>>762658
Спасибо.
А то я за это время подумал и уже было пришёл к согласию с тем, что, по аналогии с текстом произведений Шекспира, который
>>на естественном языке тоже внезапно объект Set ,
текст программы, безусловно является тривиальным, но зато процесс поиска идеи и разработки в обоих примерах считается выдающимся, потому что пока что недостаточно изучен. В общем, загнался.
Аноним 06/06/16 Пнд 13:29:01  762842
>>762646
Ты текст по ссылке почитай, а не местных клованов типа >>762655
Аноним 06/06/16 Пнд 16:29:36  762953
>>762842
Прочитал, но не нашёл ни слова про интеллект. Причина того, что, по мнению >>761201 , программистов рано или поздно заменят роботами, понятна без ссылки. Не понятно высказывание про интеллект. По-моему, дело в том, что слово выбрано неверно, как выше уже писалось. Только сейчас до этого >>761264 дошёл.
Аноним 06/06/16 Пнд 17:37:48  762990
Что думаете про эту интеллектуальную систему полного разума с интуицией (Колешко, Воробей): http://intsysjournal.org/articles/is04/04_koleshko.pdf ?
Вот обновлённая статья с подробностями и красивыми графиками: http://j-asymmetry.com/Koleshko_3_2015.pdf.

Цитаты:
>>"Полный разум — это гипер-метаэвристическая многокомпонентная гиперсферная интеллектуальная нейронная сеть (МГИНС) с логическим и интуитивным ускоренным распознаванием сенсорных информационных образов, беспроводных сенсорных систем и сетей при классической метрологии.
>><...> Ряд электронных блоков выполняют функции левого полушария, то есть самоорганизующегося гиперметаэвристического распознавания информационных образов, и правого полушария, то есть интуитивного прогнозирования на основе ранее полученных знаний. Чтобы придать сенсорам разум, на основе самоорганизующейся МГИНС проводится обучение на количественных данных информационных сенсорных образов."

Меня напрягает указание "Европейского свободного смарт университета удаленного доступа", информации о котором нет в интернете.
Аноним 06/06/16 Пнд 17:40:42  762993
14652240425680.jpg (56Кб, 560x604)
Как вытащить из LogisticRegression() имя алгоритма?
Пробую model.__class__, выдает
<class 'sklearn.linear_model.logistic.LogisticRegression'>
а мне нужно только 'LogisticRegression'
Аноним 06/06/16 Пнд 17:42:31  762996
>>762990
>>>"Полный разум — это гипер-метаэвристическая многокомпонентная гиперсферная интеллектуальная нейронная сеть (МГИНС) с логическим и интуитивным ускоренным распознаванием сенсорных информационных образов, беспроводных сенсорных систем и сетей при классической метрологии.
Хуета и вода, итак понятная каждому дауну.
>Ряд электронных блоков выполняют функции левого полушария, то есть самоорганизующегося гиперметаэвристического распознавания информационных образов, и правого полушария, то есть интуитивного прогнозирования на основе ранее полученных знаний. Чтобы придать сенсорам разум, на основе самоорганизующейся МГИНС проводится обучение на количественных данных информационных сенсорных образов."
Ну, вопросы на счет самоорганизующегося
Интуитивного прогнозирования - обычное прогнозирование, никакой интуиции в этом нету.
Придать сенсорам разум, лел
Ога, сначала учим, потом она распознает, ничего в точности не указано, вода.

Итого: статья дерьмо.
Аноним 06/06/16 Пнд 17:43:06  762997
>>762953
Верстальщиков уже можно заменять и без всяких нейронных сетей.
Аноним 06/06/16 Пнд 17:45:08  762999
>>762990
>Полный разум — это гипер-метаэвристическая многокомпонентная гиперсферная интеллектуальная нейронная сеть (МГИНС)
Уже на этом этапе фрикометр зашкалило.
Аноним 06/06/16 Пнд 17:47:21  763001
>>762150
https://habrahabr.ru/post/202090/
Аноним 06/06/16 Пнд 17:49:13  763003
Аноны, а на русском языке где-нибудь есть грамотная статья про работу мозга?
Вот на хабре было пиздато написано про ассоциативную работу нейронов.
А про все остальное? Логические решения, например, удаление информации и прочее?
Аноним 06/06/16 Пнд 17:49:35  763005
>>763003
Авторитет информации и то, как человек создает контекст - тоже очень интересно.
Аноним 06/06/16 Пнд 17:59:34  763012
14652251750590.webm webm file (1644Кб, 900x712, 00:00:10)
>>762990
Самый прикол, что в статье описан обычный перцептрончик, к которому добавлены какие-то эвристики. Ну и всю терминологию переписали на какую-то шизу типа мегагитлерметаэвристический технослой технодендрит и т.п. Наркоманы какие-то.
Аноним 06/06/16 Пнд 18:02:04  763016
>>763012
Обычный перцептрончик
А будущее то, будущее то, за рекуррентными нейронными сетями.
Но это когда они научатся анализировать всю прошлую информацию, а не просто учитывать ее подольше перцптрончика.
Аноним 06/06/16 Пнд 18:07:26  763024
>>763018
Вот ты неправ. Это как раз путь в никуда, уже сейчас все эти глубокие сеточки сходятся неделями на GPU-кластерах, все закончится на том, что дойдут до сеточек, которые даже на Аллахе не сойдутся за приемлемое время.
Аноним 06/06/16 Пнд 18:08:30  763025
>>763018
Это да, недавно на тире тестировалась модель рекурретной сети.
У нас была информация о массе заряда, его скорости и положению ружья Оно стояла на одном расстоянии от мишени
Ее фича в том, что всю информацию, которая она запоминает влетает в банку памяти и оттуда в БД.
Информация бралась из БД и отдельно обсчитывалась сетью, которая была обучена математическим операторам и понятию ряда, пропорции.
На удивление, она быстро научилась считать то, куда попадет.
Но вот ресурсов поела сильно.
Аноним 06/06/16 Пнд 18:15:18  763033
>>763025
Ну, на самом деле не так уж много она и пожрала, просто провела овердохуя вычислений, считайте, что обсчитала вообще всю информацию.
На 1 выстрел она перемножила, переделила, вычитала и складывала все, определила то, что там больше и меньше чего.
На 2 выстрел она уже проводила математические действия с 2-мя таблицами.
На 3 выстрел она уже нашла закономерность и 4 выстрел смогла предсказать.

Теперь интересно бы было, если она научилась бы находить закономерности между 2-мя действиями, если, например, изменить ружье, а потом, снова его взять, или что будет, если в действие вступит аэродинамика на дальних расстояниях, как она будет формировать исключения.


Эх, а потом на шагоход.
Аноним 06/06/16 Пнд 18:23:27  763037
>>763033
Зачем для этого рекуррентная нейросеть, поясни. Типичная задача векторного квантования, т.к.:
>информация о массе заряда, его скорости и положению ружья
-это вещественнозначный вектор.
Аноним 06/06/16 Пнд 18:24:33  763040
>>763037
И да, вычислений для этого надо чуть менее чем нихуя.
Аноним 06/06/16 Пнд 18:26:00  763043
>>763037
Потому что надо, чтобы сеть из знаний о своем нихуя взяла и сформировала методы по быстрому.
Аноним 06/06/16 Пнд 18:26:21  763044
>>763040
Да я мог и сразу формулу наебашить, смысл не в решении задачи.
Аноним 06/06/16 Пнд 18:26:51  763045
Да даже не векторное квантование, а тупо проекцией Сэммона можно было ебнуть.
>>763043
Ну так я об этом. обучение без учителя.
Аноним 06/06/16 Пнд 18:27:33  763046
>>763044
Вы там походу знатно гвозди микроскопом забиваете, господа.
Аноним 06/06/16 Пнд 18:37:36  763055
>>762996 >>762999 >>763012
То есть эта схема уже устарела или она изначально была бредовой?
>>763033
Ого. Где это тестировалось?
Аноним 06/06/16 Пнд 18:39:10  763058
>>763046
Это да, но все на будущие задачи с шагоходом рассчитывается, чтобы, он умел разбираться с разными ситуациями, так сказать.
Так он и на льду сможет научиться ходить, а нечеткая логика здесь уже не справится, да и формула для такого неизвестна.
>>763055
На кафедре Информационных технологий.
Аноним 06/06/16 Пнд 18:39:16  763059
>>762997
Тогда почему же не заменяют? Инб4 люди не готовы
Аноним 06/06/16 Пнд 18:40:35  763064
>>763059
Никто еще не сделал такую программу %%хотя заготовки уже есть и многие сайты можно
А в связи с развитием технологий многие фреймворки и прочая лабуда устаревает.
Аноним 06/06/16 Пнд 18:42:03  763066
>>763058
>нечеткая логика здесь уже не справится
Это еще почему? С шагоходом вполне возможно построить полную базу правил, которая будет охватывать все возможные положения ног и нарушения равновесия для их компенсации. Априорные формулы для этого не нужны.
Аноним 06/06/16 Пнд 18:44:57  763068
>>763066
Заебешься все это строить, очень заебешься.
Да даже тогда он будет ходить как парализованный инвалид.
Мы проверяли, поверь.

А нейронная сеть в этом плане выгоднее ген. алгоритма, так как научиться ходить может всего за 10 шагов от учителя.
Но для этого ее надо немного допилить.
Аноним 06/06/16 Пнд 19:04:15  763083
>>763068
Но есть страх в том, что робот сможет ошибиться и не поймет, в чем именно.
Прямо как человек, лал.
Аноним 06/06/16 Пнд 19:12:13  763089
>>763058
>На кафедре Информационных технологий.
Пожалуйста, напиши название института. Иду в магистратуру по этому направлению, очень бы пригодилось.

Аноним 06/06/16 Пнд 19:26:59  763097
>>763089
Наш закрывают, после того, как МГИМО перекупило.
Аноним 06/06/16 Пнд 19:28:11  763098
>>763097
А вообще совместно работаем с ИТМО, так что туда и поступай.
Аноним 06/06/16 Пнд 19:32:35  763104
>>763098
Спасибо.
Аноним 06/06/16 Пнд 23:58:51  763291
>>763098
>>763104
Бля, только на КТ или, в другие места даже не суйся. Разрекламированная шарага.
Аноним 07/06/16 Втр 08:20:41  763418
>>763033
Тир говоришь? А сколько у вас всего параметров то было? Скорость, масса, положение и цель?
Да там же не так уж и много вариантов перебора?
Аноним 07/06/16 Втр 09:05:14  763424
>>763418
Да, а кроме этого еще и наклон оружия, изначально оно стояла под 90 градусов.
У всех тех переменных по 20 значений.
Аноним 07/06/16 Втр 22:50:31  764085
Аноны, я вот почитал про работу мозга достаточно дохуя.
И меня возмутило то, что нейронные сети вообще сравнивают с человеческим мозгом.
Они, пусть и симулируют часть его работы, но уже давно ушли от той математической модели, что есть в голове у животных и людей.

То, чем руководствуются живые существа - это больше нечеткая логика и работала сигналов-транспортных путей, чем нейронные сети.
Аноним 07/06/16 Втр 22:55:28  764087
Ребят, задался вопросом попытаться распознать капчу абу. Возможно ли это, если я нуб? Юзать хочу си шарп
Аноним 07/06/16 Втр 22:58:24  764090
>>764087
конечно, opencv в помощь.
Аноним 07/06/16 Втр 23:14:14  764108
>>764085
Что почитать о работе мозга порекомендуешь? Не столько для проф пользования, я даже не совался еще в мл и все такое, сколько для общего образования
Аноним 07/06/16 Втр 23:17:09  764110
>>764108
Зачем оно тебе нужно?
В работе мозга и нейронных сетях ничего общего почти нету
Аноним 07/06/16 Втр 23:18:40  764111
>>764110
Для общего образования. Знать как работает твоя память мне кажется полезнее чем не знать.
Аноним 07/06/16 Втр 23:20:36  764113
>>764111
Ты оттуда ничего не поймешь же, там не написано в точности, как работает твоя память, ибо это слишком общее описание.
Да и вообще, за такими вопросами тебе в когнитивную психологию.
Аноним 07/06/16 Втр 23:29:26  764119
>>764113
Ок, спасибо. Говна тебе.
Аноним 07/06/16 Втр 23:47:01  764130
>>764085
сравнивают их только две категории:
1. долбоебы журналисты, которые нихуя не шарят
2. ученые которые дохуя шарят но их сравнения очень точные и в узком смысле (типа корреляции активаций конвнетов и нескольких слоев сетчатки)
не слушай первых, а про вторых ты скорее всего ничего не знаешь.
Аноним 08/06/16 Срд 00:04:02  764152
>>764085
>Они, пусть и симулируют часть его работы, но уже давно ушли от той математической модели, что есть в голове у животных и людей.
А у тебя когда самолеты птичками называют не бомбит случайно? На самом деле ушли не далеко, просто реализуют те же идее на другой "элементной базе".
Аноним 08/06/16 Срд 00:50:26  764174
14653362262050.jpg (13Кб, 500x223)
Аноним 08/06/16 Срд 07:02:42  764276
>>764152
Я уже давно не встречал таких сравнений.
Аноним 08/06/16 Срд 14:51:26  764590
>>764085
>меня возмутило то, что нейронные сети вообще сравнивают с человеческим мозгом.
Как из душа окатило, аж трисёт? Про любые нейросети, которые сравнивают с человеческим мозгом, обычно пишут что там именно от биологических нейронов, какой функционал эмулируется и т.д. Ну если это серьезная работа, а не быдлостатейка. Более предметно - 2 и 4 главы https://rutracker.org/forum/viewtopic.php?t=5096476 этой книжки. Можешь читнуть и сказать, возмутило ли тебя там что-нибудь.
>То, чем руководствуются живые существа - это больше нечеткая логика
Любая адаптивная нечеткая модель это частный случай нейросети, т.к. свободные параметры надо как-то настраивать, а самый естественный способ это сделать - то же самое обратное распространение ошибки.
Аноним 08/06/16 Срд 15:11:20  764601
Аноны, что можете сказать по бигдате и пр. в сбербанке?
Аноним 08/06/16 Срд 17:02:46  764683
>>764601
бигдата и пр. в сбербанке - заебись!
Аноним 08/06/16 Срд 17:11:35  764694
>>764590
Почему нет хайпа вокруг карт Кохонена, а все вокруг дрочат на AE, VAE, RBM, DBM?
Аноним 08/06/16 Срд 17:15:31  764703
Вам делать нехуй сидеть огромные шизоpdf с дискретным матаном читать? Каким это боком вообще к кодингу? Типа чтобы понтоваться потом в своей вебшараге: а вот я прочитал хуйнянейм.
Аноним 08/06/16 Срд 17:16:00  764704
>>764090
а капчу гугл чем распознавать?
Аноним 08/06/16 Срд 17:18:35  764708
>>764703
Шизопдф не читай,
@
Ебанутый вопрос сразу задавай

Тут господа-академики беседают за МЛ, а не за вебпараши
Аноним 08/06/16 Срд 17:43:15  764740
>>764708
Что ты забыл на сосаче, академик? иди свои диссертации пописывай.
Аноним 08/06/16 Срд 18:31:45  764799
>>764694
>Почему нет хайпа вокруг карт Кохонена
Форсить некому. Это касается не только SOM, а вообще всего адаптивного векторного квантования - LVQ, Neural gas, Growing neural gas.
>>764747
>Потому что они deep.
Не поэтому. Некие японцы разрабатывали стеки из SOM (SOM^2, SOM of SOMs и т.д.) не зашло, опять же из-за малоизвестности.
Аноним 08/06/16 Срд 18:32:07  764800
>>764703
Каким боком он нужен?
Попробуй сделать манипулятор хотя-бы на нейронных сетях и узнаешь, каким боком он нужен
Аноним 08/06/16 Срд 18:36:39  764804
>>764694
Потому что никто не развивает, а тащить на себе это - вообще не хочется.
Да и нахуй оно нужно? Что-то я еще здравого применения не видел.
Аноним 08/06/16 Срд 18:43:30  764814
14654006105370.gif (53Кб, 262x319)
Иксперды приехали.
>>764804
>никто не развивает
https://github.com/peterwittek/somoclu
Somoclu is a massively parallel implementation of self-organizing maps. It exploits multicore CPUs, it is able to rely on MPI for distributing the workload in a cluster, and it can be accelerated by CUDA.
>я еще здравого применения не видел.
http://gen.lib.rus.ec/book/index.php?md5=259CC290B1BD9BDFF950EB595C1CB0E9
Аноним 08/06/16 Срд 20:20:51  764895
>>764814
Какой-то один полуживой проект
И одна система?
ВАУ, РАЗВИТИЕ, ПРОРЫВ.
Аноним 09/06/16 Чтв 00:37:12  765140
14654218329060.png (743Кб, 2122x1323)
Лайвхаки, наканецта
Аноним 09/06/16 Чтв 00:44:03  765145
>>765140
У Dlib похожая есть.
Аноним 09/06/16 Чтв 00:44:21  765146
14654222615830.png (510Кб, 1826x888)
>>765145
Отклеилось.
Аноним 09/06/16 Чтв 01:02:02  765163
>>752098 (OP)
http://scanlibs.com/postroenie-sistem-mashinnogo-obucheniya-na-yazyike-python/
Аноны, годнота или нет? Добавите в шапку для начинающих?
Аноним 09/06/16 Чтв 01:10:58  765166
>>765140
Короч взял готовую реализацию сверточной сети на теано, она там на мнисте обучается. Сделал под свои 32 на 32 генерированные цифры с помощью пхп скрипта переделал, а она хуй че обучается.пиздец короч
Аноним 09/06/16 Чтв 01:17:56  765171
>>765163
На озоне засрали
Аноним 09/06/16 Чтв 01:21:34  765174
>>765171
Чому?
Аноним 09/06/16 Чтв 01:35:19  765185
Кто знаком с Hearthstone, подскажите, применим ли там ML?
Кто не знаком, вкратце:
1) Пошаговая карточная игра для 2-х игроков
2) Колода оппонента не известна и состоит из 30 карт (из 1000+), но какие-то карты имеют бОльшую вероятность там оказаться (некоторые почти 100%-ую)
3) В среднем матч длится 15 ходов, на каждом ходу у игрока примерно 3-15 вариантов действий, некоторые действия приводят к разному исходу (эффект рандома)

По идее мы тут ближе к го, чем к шахматам.
Есть ли смысл вкатываться в ML или лучше использовать минимакс и эвристику?
Аноним 09/06/16 Чтв 01:36:45  765187
14654254052550.png (67Кб, 935x405)
>>765185
Можно какой-нибудь RL потренировать, наверное. Но ресурсов нужна уйма.

>>765174
Аноним 09/06/16 Чтв 02:53:02  765214
>>765185
Есть какая-нибудь база с матчами? API к этой базе?
Аноним 09/06/16 Чтв 03:13:35  765219
>>765214
В публичном доступе точно нету.
Матчхистори официально не поддерживается, есть только самодельные решения для трекинга.
Даже если насобирать сколько-то, часто выходят обновления (карты меняются, добавляются новые). Еще осложняется тем, что может быть очень много разных колод.
Я так понимаю, в лучшем случае получилось бы обучить какую-то конкретую колоду против другой конкретной.
Аноним 09/06/16 Чтв 09:02:31  765269
>>765187
Херово, с ангельским у меня проблемки, а тут вроде бы все годно расписано. Есть ли русскоязычное подобие, которое не обосрали? Конкретно интересует Байес и бинарная классификация с помощью scikit. А везде просто формулы и код, поясняют его не так годно, как в книжке.
Аноним 09/06/16 Чтв 13:18:32  765390
>>765140
>>765146
Зачем столько рисовали, можно было бы просто написать "в любой непонятной ситуации используй SVM)))". Векторное квантование на пистон не завезли, или авторы этих картинок про него не слышали?
Аноним 09/06/16 Чтв 15:24:46  765486
Я только вкатываюсь в тему. Разделяют ли опытные аноны мое мнение, составленное просто по научной картине мира без занятий ИИ, что никакого И о котором принято говорить у человека то и нету, и создание полноценного ИИ и даже сложнее лишь вопрос ресурсоемкости. А интеллект по сути триллиарды условий если?
Или я неправ и скорее всего изменю свое мнение почитав литературу об ИИ?
Аноним 09/06/16 Чтв 15:33:48  765494
>>765486
Почитай про свойства эмергентных структур для начала.
Аноним 09/06/16 Чтв 15:35:03  765495
>>765494
Ты на вопрос ответь, плиз, если можешь, то что я нулевый и мне много читать надо я сам понимаю.
А ответ мне важен потому что я свое восприятие изучаю. Это важно для саморазвития.
Аноним 09/06/16 Чтв 15:40:39  765501
>>765486
"Интеллект" - это просто термин, к тому же неформализованный. Рандомная гуманитарщина, короче. Без сколько-либо строгих определений говорить об эквивалентности чего-то одного чему-то другому бессмысленно.
Аноним 09/06/16 Чтв 15:41:53  765502
>>765501
Ясно, спасибо большое.
Аноним 09/06/16 Чтв 15:43:58  765506
>>765486
Интеллекта у человека нету?
Как разгадаем полностью работу мозга - так можно будет о чем-то подобном говорить.

А создание ИИ - и правда вопрос ресурсоемкости, но это не триллиарды условий если.
Аноним 09/06/16 Чтв 15:48:15  765512
Аноны, у нейронных сетей есть что-то вроде фоновой активности?
Аноним 09/06/16 Чтв 15:51:12  765514
>>765506
>Интеллекта у человека нету?
Ну как мы выяснили туманное понятие. Самая суть моей точки зрения, это что нет никакого трудного и магического порога в достижении ИИ равного человеческому нет и он будет достигнут просто увеличивающейся сложностью.
Аноним 09/06/16 Чтв 16:02:12  765519
>>765514
На самом деле нет.
А трудный и магический порог в достижении хоть немного работающей системы есть.
Не то, чтобы она была равной человеческой
Аноним 09/06/16 Чтв 18:34:36  765632
Порог очень простой: никто понятия не имеет, как сделать интеллект. Есть средства для решения каких-то формализованных задач, но именно самой сути они не понимают. Т.е., допустим, система может научиться подавать сигналы в правильной последовательности, ориентируясь по фреймам из видеоигры, чтобы получать награду, но при этом она бесконечно далека от понимания того, что на самом деле происходит: что это игра, что игра это модель реальности, что определенные картинки символизируют свои ИРЛ аналоги. Поэтому им нужны годы игрового времени чтобы научиться играть в какой-нибудь понг, и то он будет управлять ракеткой как пьяный эпилетик.
Аноним 09/06/16 Чтв 18:45:46  765643
14654871468930.webm webm file (3651Кб, 640x480, 00:00:47)
>>765632
Обосрался ты, братюнь. Это тебе нужно несколько лет, чтобы научиться управлять пикрелейтедом как автоматика, и то будешь дергать джойстик как эпилептик, а контроллер за 1 сек прошивается. Не говоря о том, что у тебя реакция раз в 100 хуже, чем у автоматики и от атаки ты не увернешься, причем так чтобы не уебаться. То же самое с игорами, против нормального алгоритма без искусственных ограничений ни тебе ни кому другому не устоять. А "интеллект" и прочая фуфлософия это просто слова.
Аноним 09/06/16 Чтв 18:48:53  765648
>>765632
> Сёрл.тхт
> Artificial general intelligence (AGI) is the intelligence of a (hypothetical) machine that could successfully perform any intellectual task that a human being can.
Аноним 09/06/16 Чтв 19:42:28  765689
>>765648
>the intelligence that could perform any intellectual task
Люблю такие определения. Не мешало бы еще тогда определить понятие intellectual task.
Аноним 09/06/16 Чтв 19:45:32  765691
>>765689
intellectual task is a task that requires intelligence to solve
Аноним 09/06/16 Чтв 19:51:14  765697
>>765166
оказалось че ЧБ изображения не конвертирует в нумпи аррай нормально.
Аноним 09/06/16 Чтв 21:03:02  765775
>>765632
>но при этом она бесконечно далека от понимания того, что на самом деле происходит: что это игра, что игра это модель реальности, что определенные картинки символизируют свои ИРЛ аналоги.
Нет, все зависит от обучающей выборки и того, сколько ты ей данных подаешь, если она не может анализировать остальной мир, то на что ты вообще надеешься?
Полноценный искусственный человек не нужен.
Аноним 10/06/16 Птн 16:00:35  766340
Аноны, как карты Кохонена связываются с волновой моделью мозга и ассоциативной работой нейронов?
Аноним 10/06/16 Птн 16:12:20  766351
>>766340
И сверточными сетями?
Совсем не понимаю, в каждом слое нейронов они растаскиваются, как в картах?
Аноним 10/06/16 Птн 16:18:30  766355
>>765643
>Есть средства для решения каких-то формализованных задач
>>765648
>никто понятия не имеет, как сделать
>>765775
Поноценный "человек" в машине это как раз то, что нужно, в этом и есть "порог". Программа, распознающая картинки, это просто игрушка или в лучшем случае некий инструмент, но к самому понятию интеллекта оно даже близко не стоит, потому что она не понимает, что это за картинки, зачем их нужно распознавать.

Пример с понгом был просто для пояснения. Суть в том, что даже если ты подашь как обучающую выборку, скажем, несколько лет записей теннисных турниров, миллиарды часов симулированных прыгающих мячиков, или что угодно из этой области, оно все равно не научится сопоставлять это с тем, что происходит в понге. Оно не поймет в чем суть игры, что второй ракеткой управляет условный противник, что цель игры в ловле мячика, что надо отразить мяч по определенной траектории чтобы противник его не поймал. Ведь в этом суть понга, а не в том, что если пиксель 57:134 ярче 0.3, то нужно подать 0.8 на выход 3, т.к. раньше в миллионах предыдущих эпизодов такое действие приводило к большей награде в 50.02% случаев.
Аноним 10/06/16 Птн 16:25:18  766360
>>766355
Бля, 30+ лет прошло, а эти дебилы всё ещё мусолят Сёрла в комнате. Съеби отсюда со своим пониманием, квалиа и рефлексией.
Аноним 10/06/16 Птн 17:54:17  766413
>>766351
Ничего никуда не растаскивается. Ни в мозгу, ни в картах Кохонена.
>>766340
Читай про физиологические модели SOM. Что такое "волновая модель мозга" я не знаю.
Аноним 10/06/16 Птн 20:07:56  766494
>>766413
Да я понял.
Но мне интересно, а как тогда в мозгу, в случае ошибки, мы запоминаем то, что предыдущий опыт был неверен?
Аноним 10/06/16 Птн 20:09:57  766496
>>766494
Очень маленькая награда, заставляющая избегать таких действий/состояний.
Аноним 10/06/16 Птн 20:14:04  766498
>>766496
Получается, что сеть запоминает предыдущее состояние или что?
Если у меня например карта организовалась, но тут оказывается, что данные прежние неверные и мне надо запомнить исключения.
Чтобы было, как у человека в голове.
Как мне поступить?
Может запоминать ошибки отдельно в память?
Аноним 10/06/16 Птн 22:24:48  766610
В чем отличие LinearSVC() от SVC(kernel='linear')?
Аноним 11/06/16 Суб 00:32:54  766775
Короч, без видюшки кроме как научить гадать циферки и буковки вряд ли получится.
Аноним 11/06/16 Суб 18:23:16  767136
>>752098 (OP)
Анон, нет, я уже второй день ищу инфу по поводу того, как гормоны воздействуют на нейроны.
Нет, вот нейроны просчитывают и обрабатывают информацию, по сути - они сумматоры, а нейронная сеть просто аппроксиматор

КАК НА ЭТО ДЕЙСТВУЮТ ГОРМОНЫ? Нигде не нашел подобной инфы, придерживаюсь волновой модели мозга.
Аноним 11/06/16 Суб 19:23:17  767212
>>767136
>ищу инфу по поводу того, как гормоны воздействуют на нейроны.
На русском языке поди ищешь? Неудивительно. Родина дала сайнсдирект http://www.sciencedirect.com/ ищещь там по ключевым словам, затем релевантные статьи пиздишь через сайхаб. Вот эту книжку еще посмотри http://gen.lib.rus.ec/book/index.php?md5=FB94D5F7C1F4A86F7C1EAAD002A711AB
Аноним 11/06/16 Суб 19:32:39  767220
>>767212
Там же ПЛАТНА. Вывод: наука не для нищенок.
Аноним 11/06/16 Суб 19:35:07  767225
>>767220
>Там же ПЛАТНА.
Сайхаб для кого сделали?
Аноним 12/06/16 Вск 16:14:11  767819
Сап аноны, я тут кое что выяснил.
Если использовать несколько SOM и попытаться "накладывать" их друг на друга, то можно получить интересный результат.
Мне кажется, что сеть начинает уметь в "абстракцию".

Мы продолжили обучать сеть на том, чтобы она на этот раз попробовала в управление шагоходом.
И получилось, что у нее очень хорошо выходит обобщение.
Сеть сама смогла понять, что от нее имеют ввиду, когда просят пойти вправо или влево, сама классифицировала и выдала нам все значения.

То есть она уже работает не просто со значениями, она их классифицировала и выделила закономерности, обобщив все.
И самое главное то, что она может делать то, что не смогла раньше, теперь она подбирает направление конечностей не единообразно, а ищет лучший вариант, разрабатывая стратегию самостоятельно.
Аноним 12/06/16 Вск 16:38:02  767834
>>767819
Я уже не первый раз тута пишу, что многие задачи, которыми содомируют всякие модные глубокие сети и прочий градиентный бустинг, тривиально сводятся к адаптивному векторному квантованию, в частности SOM. Я тебе больше скажу - в твоем случае и карты Кохонена излишни, т.к. они нужны для проецирования многомерных данных на 2д вид. В случае шагохода это абсолютно лишняя работа, более чем достаточно было бы использование "нейронного газа" NG или его растущей разновидности GNG. И да, все эти алгоритмы можно стыковать через опорные векторы для получения глубоких сетей, такие стеки очень даже могут в абстракцию в т.ч. для динамических систем и т.п. В т.ч. и буквально, есть примеры использования карт Кохонена для анализа текстов и их классификации по семантике. Н-р WEBSOM. Растуще-иерархические карты Кохонена GHSOM для этого еще лучше. Вот эти ребята http://www.ifs.tuwien.ac.at/dm/somtoolbox/ этим занимались. У них же есть примеры классификации музыки по жанрам и рекомендации музыки, похожей на понравившуюся с помощью SOM.
Аноним 12/06/16 Вск 16:56:40  767846
>>767834
Да это вообще новая информация для меня оказалась.
В частности то, что сеть учится выбирать стратегии, если раньше она видела только поля значений и логику в виде взаимодействий, то теперь она все это классифицировала и использует как абстрактное понятие.

Если раньше был манипулятор с 4 степенями свободы, который умел двигаться по кругу и хватать предметы, то теперь он научится делать это с разворота и двигать конечность нестандартно.
А вот GHSOM - очень интересная сеть, надо посмотреть.
Аноним 12/06/16 Вск 16:58:19  767851
Анончики, есть ли у кого-нибудь сей опус в пдф?
https://www.crcpress.com/Music-Data-Mining/Li-Ogihara-Tzanetakis/p/book/9781439835524
Аноним 12/06/16 Вск 17:10:11  767858
14657406121130.jpg (42Кб, 600x600)
>>767851
Если тi хочеш уяснить как поет Мiку Хатсуне, тобi сюда:
http://www.dmoz.org/Arts/Music/Theory/Tuning_Systems/Microtonal/
Аноним 12/06/16 Вск 17:19:09  767879
Аноны, а может ли нейронная сеть сомневаться?
Или она настолько прочно завязана с математикой, что у нее сомнений не возникает?
мимопроходил
Аноним 12/06/16 Вск 17:29:43  767891
14657417839480.jpg (1087Кб, 2592x1944)
>>767846
>А вот GHSOM - очень интересная сеть, надо посмотреть.
http://www.ifs.tuwien.ac.at/~andi/ghsom/publications.html Тут статьи по GHSOM. В этом алгоритме самое интересное то, что он не затрагивает самой SOM, а реализован как бы поверх нее и работает за счет манипуляций с ошибкой квантования. Т.е. при желании нечто похожее можно прикрутить к любому алгоритму векторного квантования, технических проблем нет. Если бы я не был хуем, не могущем в серьезное программирование, обязательно занялся бы этой темой, благо идей хватает.
>>767879
>может ли нейронная сеть сомневаться?
Может. Считай вероятность классификации нейросетью обратно пропорциональной сомнению. То же с нечеткостью для нечетких моделей. В конце-концов человеческое сомнение возможно только там где есть неточность. А неточность это либо вероятность, либо нечеткость события и т.д.
Аноним 12/06/16 Вск 18:16:40  767945
Аноны, а может ли нейронная сеть влюбляться?
Или она настолько прочно завязана с математикой, что у нее любви не возникает?
мимопроходил
Аноним 12/06/16 Вск 18:32:21  767961
>>767819
>>767846
Ух ты, получается, что твоя сеть может искать скрытый смысл?
Интересно, а какая-нибудь из сетей умеет фантазировать, чтобы как человек?
Аноним 12/06/16 Вск 19:06:41  767989
>>767945
Аноны, а могут ли люди влюбляться?
Или они настолько прочно завязаны с химией, что у них любви не возникает?
Аноним 12/06/16 Вск 19:07:41  767991
А можно ли нейросеть научить играть в карты? В дурака, скажем?
Насколько я понимаю, для этой задачи нужна обратная связь, чтобы сеть могла планировать свои ходы, но как такую обучать - не представляю.
Аноним 12/06/16 Вск 19:10:17  767992
Пора заводить отдельный тред для "может ли нейросеть в X"?
Аноним 12/06/16 Вск 19:11:29  767994
>>767991
в шахматы же играет.
Аноним 12/06/16 Вск 19:16:38  767999
>>767994
Какие сети там используются? Какая у неё структура?
У меня довольно поверхностные знания в этой области, поэтому слабо представляю, как с помощью сетей решать более сложные задачи, чем распознавание циферок на поле 8x4.
Аноним 12/06/16 Вск 19:16:44  768000
>>767991
>А можно ли нейросеть научить играть в карты? В дурака, скажем?
Легко, в шахматы может.
В Го может.
Аноним 12/06/16 Вск 19:17:33  768001
>>767999
Обычный перцептрон даже сможет.
Задача из теории вероятностей, не более, ходов не так уж и много.
Аноним 12/06/16 Вск 19:18:00  768003
>>767992
С одним семеном-хейтером нейросетей на самоподдуве?
>>767991
Забудьте вы слово "нейросеть" вообще, это просто аппроксиматор функций. Если задачу можно представить в виде переменных с какой-либо (даже априорно неизвестной) взаимосвязью между ними, значит нейросеть в это может.
Аноним 12/06/16 Вск 19:19:22  768005
>>768003
> С одним семеном-хейтером нейросетей на самоподдуве?
Тут же ещё нечёткопетух есть.
Аноним 12/06/16 Вск 19:19:54  768006
>>768005
Ты кого петухом назвал, сука?
Аноним 12/06/16 Вск 19:22:58  768013
>>768001
На каждый ход по слою предлагаешь что ли?
Аноним 12/06/16 Вск 19:24:25  768014
>>768013
Нет, погугли, как учат в шахматы играть.
А я пока набью ебало тому петуху, который не любит нечеткую логику
Аноним 12/06/16 Вск 19:25:53  768016
14657487538570.jpg (62Кб, 453x604)
>>768014
>нечоткая логика
слыш
Аноним 12/06/16 Вск 19:39:35  768036
Есть какие-то ML-стажировки? Кроме Яндекса: там вообще god tier, меня туда не возьмут.
Аноним 12/06/16 Вск 20:54:18  768123
Посоны, а автоэнкодер сети подскажет где именно сеть увидела циферку?
Аноним 12/06/16 Вск 21:32:36  768166
>>768123
>автоэнкодер
это когда пропустили сигнал через сеть, а потом хуяк и пропустили в обратном направлении с тем же сигналом и весами который был на выходе.
Аноним 12/06/16 Вск 22:17:25  768202
Ауууу. Тут есть кто-то?
Аноним 12/06/16 Вск 23:00:14  768244
Отдыхайте ребята.

5 лет в ДМ, статьи, публикации, магистратура. Не сказать, что пиздец продуман, но не новичок.

Работы нет, сижу во всяких шарашках делаю хуй пойми что.

Думаю зря я этим занялся. На каггле пиздец, лютые типы через час после начала грузят под максимум - ловить нехуй.

В яндексе и в мейле уже сидят люди. Биоинформатика в России это пиздец уровня мытья толчков по выходным.

Так что не идите сюда, в натуре пацаны, я не шучу, если не хотите жестко проебаться.
Аноним 12/06/16 Вск 23:20:18  768255
кто-то пробовал смоделировать коннекты мухи и для нее виртуальный мир?
Аноним 12/06/16 Вск 23:40:34  768269
>>768255

ты с грибами завязывай, а то реально заберут ведь
Аноним 12/06/16 Вск 23:42:26  768273
>>768123
Сам не подскажет, нужно свистопердюли поверх строить вроде.
Аноним 12/06/16 Вск 23:43:26  768274
>>768255
блять, это вопрос уровня детсадовца. не думаю, что даже у школьника хватило тупости такое спросить.
Аноним 12/06/16 Вск 23:46:39  768276
>>768274
В начале января модераторы онлайн-игры EyeWire, посвященной картографированию сетчатки человека с обозначением всех находящихся там нейронов и связей между ними (синапсов) силами добровольцев со всего мира, с гордостью заявили о завершении обследования 250-го нейрона. Учитывая, что таких нейронов в сетчатке больше миллиона, это достижение трудно назвать гигантским прорывом — скорее один из первых шажков по дороге «в тысячу ли». Дороге, которая должна привести нас к раскрытию тайн нашего мозга. И кто знает — может быть, даже к цифровому бессмертию.
Аноним 12/06/16 Вск 23:50:58  768286
>>768276
Тогда будущий Нобелевский лауреат 2002 года Сидней Бреннер (Sidney Brenner), южно-африканский биолог, предположил, что поведение живого организма можно понять, составив полную карту его нервной системы. Он взялся за простейшую нервную систему круглого червя Caenorhabditis elegans (всего 302 нейрона, распределенных по всему телу), и, изучая один за другим его тонкие срезы, создал за два десятилетия полную нейронную карту. В 1986 году она была опубликована в Philosophical Transactions of the Royal Society of London, почтенном научном журнале, основанном еще Исааком Ньютоном. Номер вышел объемным, в 340 страниц, и с тех пор многие биологи называют его Книгой, причем не столько из-за фолиантной толщины, сколько из-за информации, которая там содержится, и сегодня, спустя почти три десятилетия, остается для исследователей сборником вопросов без ответа.

Пиздос 304 нейрона управляют червем. Как же такое на кампутерах не повторить-то?
Аноним 13/06/16 Пнд 00:01:24  768305
>>768014
Довольно хуево гуглится. Везде сплошной научпоп о невероятном прорыве нейросетей с весьма поверхностным обзором. Исходники ёбаные 30к крестодрисни не слишком хочется читать.
Может, сам на пальцах пояснишь, какую архитектуру сети он там использует или какую ты бы использовал?
Аноним 13/06/16 Пнд 00:03:42  768309
>>768305
https://gogameguru.com/i/2016/03/deepmind-mastering-go.pdf
https://www.cs.toronto.edu/~vmnih/docs/dqn.pdf
Аноним 13/06/16 Пнд 00:06:07  768311
>>768286
https://ru.wikipedia.org/wiki/OpenWorm
Аноним 13/06/16 Пнд 00:10:08  768315
>>768311
https://www.youtube.com/watch?v=J_wG5PfDIoU
Аноним 13/06/16 Пнд 04:26:20  768389
Сап, аноны. Ищу человека, который мне пояснит по scikit learn. Есть готовая база текстов (слова нормализованны, стоп-слова убраны). Мне нужно, чтобы мне помогли обучить модель, я не понимаю что и в каком виде передается в функции библиотеки. Готов оплатить.
Почта randommail1@bk.ru
Аноним 13/06/16 Пнд 09:47:18  768472
Аноны, а вот теперь я возвращаюсь к задачам классифицирования.
Да, я использовал две сети SOM для того, чтобы сеть могла абстрагировать данные, это вполне подобно тому, как человек это делает.
Но что получается, когда нам нужно классифицировать больше признаков и их количество нам неизвестно?

Также интересна еще следующая вещь, в мозгу человека многие отделы мозга общаются с друг-другом только для того, чтобы узнать о происходящем и на основе своей "логики" что-либо предпринять.

Нам требуется нечто подобное, дабы каждая конечность могла обучаться в процессе более эффективнее, чем сейчас.

Кстати, внезапно, но обнаружил, что игровые движки с физикой Rigdoll вполне могут что-нибудь классное симулировать.
Аноним 13/06/16 Пнд 12:11:43  768507
>>768472
> я возвращаюсь к задачам классифицирования.
таак..
> ... НЕЙРОНОЧКИ ИИ НЕЙРОНОЧКИ КОКОК
понятно
Аноним 13/06/16 Пнд 15:36:59  768628
14658214193070.png (301Кб, 1440x900)
>>768472
>что получается, когда нам нужно классифицировать больше признаков и их количество нам неизвестно?
Я ж говорю - любое unsupervised адаптивное векторное квантование (NG/GNG). SOM это несколько не то что нужно в данном случае, оно для визуализации и визуального анализа данных. В случае надобности все это легко визуализируется, например проекцией Сэммона, для наглядности можно даже мозаику Вороного прикрутить.
Аноним 13/06/16 Пнд 18:05:47  768735
>>768311
>These early attempts of simulation have been criticized for not being biologically realistic. Although we have the complete structural connectome, we do not know the synaptic weights at each of the known synapses. We do not even know whether the synapses are inhibitory or excitatory. To compensate for this the Hiroshima group used machine learning to find some weights of the synapses which would generate the desired behaviour. It is therefore no surprise that the model displayed the behaviour, and it may not represent true understanding of the system.
Аноним 13/06/16 Пнд 18:09:16  768739
>>768244
Трактор. Алсо что такое ДМ?
Аноним 13/06/16 Пнд 18:10:11  768741
>>768739
Очевидный дата майнинг.
Аноним 14/06/16 Втр 04:38:37  768987
>>752098 (OP)
Вот я дурааааак. Оказывается слой свертки - просто максимум из 4-ех значений(если 22), а я думал настраиваемые веса 22 и настраивал их.
Аноним 14/06/16 Втр 15:25:29  769263
14659071294350.png (494Кб, 886x704)
>>768987
>максимум из 4-ех значений
Максимум - это max pooling. Свертка - это умножение значений исходных пикселей на значение ядра свертки.
Аноним 14/06/16 Втр 15:41:58  769285
>>769263
Да, имелось ввиду объединение. Это единственное место где нет весов.
Аноним 14/06/16 Втр 16:44:17  769339
>>769263
И да, картинка неправильная, -8 должна быть в самом левом верхнем углу.
Аноним 15/06/16 Срд 18:39:53  770214
>>768507
Что тебе понятно?
Аноним 15/06/16 Срд 18:47:51  770219
>>768628
Да нет, SOM - это конкретно то, что нужно в данном случае.
А векторное квантование и тут и там присутствует.
Да и гугл что-то отказывает гуглить NG сети.
Аноним 15/06/16 Срд 22:28:18  770400
>>752098 (OP)
Аноны, хочу вкурить, что такое персептрон
Рекуррентные сети и этот ваш SOM
Уже завтра начну повторять Питона.
А что по сетям почитать?
Не на английском, я то перевести смогу, но хуево.
Аноним 16/06/16 Чтв 00:23:04  770508
>>770400
> Не на английском
No way
Аноним 16/06/16 Чтв 00:24:21  770509
>>770508
Да блджад, я другим языком занят, нет у меня времени на английский.
Аноним 16/06/16 Чтв 00:26:19  770511
>>770509
Немецкий, французский? Только не говори, что это пиздон.
Аноним 16/06/16 Чтв 00:26:59  770512
>>770511
Японский, лол.
Аноним 16/06/16 Чтв 00:41:58  770523
Черт, сейчас уже не до кода, но что будет, если рекуррентную сеть динамически расширять?
У меня, допустим, есть потребность в динамической памяти, которую нужно по разному обрабатывать и сохранять, причем, эта информация всегда остается актуальной.
Аноним 16/06/16 Чтв 00:43:49  770524
Хочу начать заниматься биоинформатикой, какой курс лучше подойдет с курсэры и прочих вещей, какие еще критерии надо изучать?
Аноним 16/06/16 Чтв 00:44:38  770525
>>770524
причем тут машинное обучение?
Аноним 16/06/16 Чтв 00:51:47  770532
>>770525
http://goo.gl/zpydkN

>>770524
впаше/bioinf
Аноним 16/06/16 Чтв 03:50:36  770581
>>770525
Ну, если смоделировать нервную систему, то самое прямое.
Аноним 16/06/16 Чтв 03:52:40  770583
>>770581
а если упростить с несущественными потерями, то мы получим искусственную нейросеть с полезной структурой, которую можно было бы применить где-либо.
Аноним 16/06/16 Чтв 17:15:03  771132
>>770583
Нейронную сеть и так можно применять где-либо, а по сути - везде.
Но суть далеко не в этом.

Суть в том, что приходится пилить ОЧЕНЬ МНОГО КОСТЫЛЕЙ.
Знаете, что пришло в голову в нашем универе у людей? А давайте обучим сеть чистой мат логике и на основе иерархической структуры будем анализировать вообще все.
То-есть хотят взять числа и прочие показатели как константу, связать их с методами и обрабатывать.

Это пиздецкие костыли, а ведь я просто предлагал использовать классификацию для того, чтобы получать новые методы..
Аноним 16/06/16 Чтв 17:23:48  771144
>>770219
>гугл что-то отказывает гуглить NG сети.
Neural Gas / Growing Neural Gas.
>>771132
А с чего ты вообще взял, что различные (адекватные решаемой задаче) представления данных это костыли? Чтобы решить какую-то задачу каким-то аогоритмом, ее нужно представить в виде, адекватном для алгоритма, это норма. В чем костыльность-то?
Аноним 16/06/16 Чтв 17:26:53  771151
>>771132
Это представьте, что если бы вы для решения примера вспоминали бы всю математику заново и вспоминали бы все свои ранее решенные примеры ради чего-нибудь простого.

Нет, с 2 + 2 это еще легко, но на практике понадобится пиздецкая мощность для 50 параллельных расчетов одновременно.
Правда такая сеть может считать вообще все, что угодно, подходит для решения любой задачи, где есть набор переменных и надо найти взаимосвязи
Аноним 16/06/16 Чтв 17:33:23  771157
>>771151
И чем сложнее задача и больше переменных, тем больше придется просчитывать, в некоторы случаях нужно около 10000 вычислений одновременно.
Ну, можно еще сократить вычисления до 100, но тогда обучение будет очень медленным и ответа придется ждать долго.
Аноним 16/06/16 Чтв 17:50:01  771173
>>771151
>>771157
Я так и не понял, в чем проблема. Долго? Так новомодные сверточные сети на многопроцессорных теслах по месяцу сходятся, и всем норм.
Аноним 16/06/16 Чтв 17:51:17  771177
>>771173
Я бугурчу от отсутствия иерархичности и рационального подхода, все тупо сваливают в одну кучу, пишут говнокод
Аноним 16/06/16 Чтв 17:55:51  771182
Аноын, я почти все понял, но не понял, что такое весысинапсы нейронной сети, объясните мне, что это и зачем оно нужно?
Или где почитать в целом об работе одного, конкретного, отдельного нейрона
Аноним 16/06/16 Чтв 18:04:56  771199
>>771182
Коэффициенты линейной функции ax+b, где x - вход, a - "синаптический" вес, b - порог.
>где почитать в целом об работе одного, конкретного, отдельного нейрона
Да где угодно, на каждом углу жи расписано.
Аноним 16/06/16 Чтв 18:06:08  771202
>>771199
А что делает конкретно, один нейрон в сети?
Тупо складывает поступающие на него значения или что?
И чему равен этот синаптический вес?
Аноним 16/06/16 Чтв 18:17:44  771211
>>771202
>что делает конкретно, один нейрон в сети?
Если речь о перцептроне, то вычисляет суперпозицию частной функции от одного аргумента в общей функции от многих аргументов. Горбаня читни http://www.pereplet.ru/nauka/Soros/pdf/9812_105.pdf http://kpfu.ru/portal/docs/F1732864826/02_5.PDF у него годно расписано что и зачем. В общем случае - постарайся понять что такое линейная функция, в той же педивикии есть. Как она соотносится с "нейроном" - я написал. Для чего нужна функция активации нейрона (обычно нелинейная, н-р сигмоид) на пальцах объяснить уже сложнее, там суть в том, чтобы деформировать входы так, чтобы они оказались линейно-разделимыми для линейных функций первой части "нейрона". Общая же суть происходящего - аппроксимация зависимости выходов от входов.
Аноним 16/06/16 Чтв 18:21:03  771214
>>771202
>>771211
Этот прав, тебе в матан надо.
Сначала пойми что такое функция вообще
Потом, все про линейные функции.
Пойми про суперпозицию функции.

И это будет только началом, но не согласен с тем аноном по части матана, не нужно его столько, вон, есть статьи попроще на хабре
https://geektimes.ru/post/84125/
https://habrahabr.ru/post/143129/
Аноним 16/06/16 Чтв 18:33:53  771227
>>771177
Да и вообще, представлять все в виде сети Джордана и пытаться применить к банкам памяти метод векторного квантования - малясь долбоебизм.
Аноним 16/06/16 Чтв 18:45:30  771236
>>771233
Это разные алгоритмы, от слова совсем разные. Гугли каждый.
Аноним 16/06/16 Чтв 18:57:00  771248
>>771243
>как выбрать нужный алгоритм, исходя из данных?
Тут два варианта:
- читаешь про каждый алгоритм, понимаешь его логику (что, как и с какой целью он делает), думаешь что лучше подойдет для решения конкретной задачи, анализа конкретных данных.
- хуяришь все подряд, прямо по списку, смотришь с каким алгоритмом самый лучший результат (при классификации - наименьшее количество неправильно классифицированных примеров из тестовой выборки).
Аноним 16/06/16 Чтв 18:57:56  771249
>>771214
Спасибо, так матан совсем легкий.
Получается, что посылаются векторы, адаптивный сумматор их считает посылает на нелинейный преобразователь сигнала и тот преобразует в число, потом этот сигнал перераспределяется на выходе.
Это пока просто.
Аноним 16/06/16 Чтв 18:59:42  771252
>>771249
Но тут в дело входит просто охуительное объяснение, спасибо блядь, что из этого понятно вообще?
>Линейная связь – синапс отдельно от сумматоров не встречается, однако для некоторых рассуждений ывает удобно выделить этот элемент. Он умножает входной сигнал x на “вес синапса” α.
Аноним 16/06/16 Чтв 19:00:47  771253
>>771252
Как, зачем и нахуя задавать этот вес синапса? По какой логике и чему он должен быть равен?
Аноним 16/06/16 Чтв 19:07:59  771255
14660932795900.png (10Кб, 566x475)
>>771249
>потом этот сигнал перераспределяется на выходе.
На выходе полученное значение сравнивается с реальным, разница (ошибка) используется для настройки свободных параметров сети (тех же коэффициентов линейных функций).
>>771252
Очевидно же, речь о параметрах линейной функции.
>По какой логике и чему он должен быть равен?
Тебе жи говорят - читай про линейную функцию. В линейной функции ax+b параметр а - это тангенс угла между линейной функцией и положительным направлением координатной оси. Т.е. входное значение х умножается на значение этого тангенса.
Аноним 16/06/16 Чтв 19:14:03  771259
>>771255
А все, кажись понял, для чего оно нужно, для того, чтобы входной сигнал корректировать в согласии с результатом обучения?
Только я еще не понял, сигнал поступает в векторном виде, переводится в скалярный, а потом опять в векторный?
В каких местах идут эти переводы?
Аноним 16/06/16 Чтв 19:17:21  771264
>>771259
И вот этот момент странный
>Для полносвязной сети входной сумматор ней-
рона фактически распадается на два: первый вычисляет линейную функцию от входных сигналов сети, второй – линейную функцию от выходных cигналов других нейронов, полученных на предыдущем шаге.
Такс, Два сумматора
Первый вычисляет результат от входа, второй от других нейронов.
А что дальше с этими результатами происходит?
Аноним 16/06/16 Чтв 19:24:19  771267
>>771259
А все понял, сначала берется вектор, подается в сумматор
У которого есть переменная A
Тот берет и складывает в скалярном виде
Посылает на Нелинейный преобразователь, тот переводит в векторный вид
И все это рассылается?

А от чего сначала зависит параметр A? Чему он равен?
Обучение - это и есть настройка этого параметра A?
Аноним 16/06/16 Чтв 19:29:01  771271
>>771267
>>771264
Неужели наши мозги также работают, серьезно?
Вот эта вот хуйня, простая как дверь?
Аноним 16/06/16 Чтв 20:17:38  771299
>>771267
Аноны, а объясните, зачем нейрон делает вот это вот?
>Нейрон получает на входе вектор сигналов x, вычисляет его скалярное произведение на вектор весов α и некоторую функцию одного переменного ϕ(x, α).
Я опять ничего не понял, что делает адаптивный сумматор.
Сначала думал, что он берет и находит произведение входящих в него векторов в скалярном виде.
А теперь - это что еще за нахуй? Ну объясните, пожалуйста, я совсем нихуя не понимаю.
Аноним 16/06/16 Чтв 21:03:31  771347
А есть ли какие актуальные средства разработки не на прыщах? Чтобы сразу можно было взять нейросеточку закомпилить, обучить, пощупать? А не проливать реки слёз, обламываясь с установкой куды на виртуалку убунты.
Аноним 16/06/16 Чтв 21:14:21  771357
Аноны, а значение синаптических весов всегда лежит в диапазоне от 1 до -1
Или это может быть любое число вообще?
Аноним 16/06/16 Чтв 21:48:25  771394
Как будет обучаться сеть, если у меня есть несколько параметров, например 3
И я провожу обучающую выборку, показывая взаимосвязь правильную.
А потом я даю сети задачу на нахождение взаимосвязи уже с другими значениями.

Как это все осуществляется, аноны?
Аноним 16/06/16 Чтв 23:44:52  771529
>>752098 (OP)
Аноны, нейронные сети же работают только с -1,0,1
А как они работают с цифровыми данными?
Аноним 16/06/16 Чтв 23:58:10  771557
У Лекуна есть демки где он с шумами показывает распознавание. Это он их с шумами обучал?
Аноним 17/06/16 Птн 02:49:00  771657
>>770400
Ну хотя бы хайкина для ознакомления с темой вообще.
Аноним 17/06/16 Птн 02:50:29  771658
>>771347
matlab
Аноним 17/06/16 Птн 03:00:43  771662
Анончики есть ли способ проверить на адекватность обучающую и тестовую выбоки?
Аноним 17/06/16 Птн 07:20:20  771712
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
Аноним 17/06/16 Птн 07:41:05  771719
>>771712
Хули ты тут забыл?
Аноним 17/06/16 Птн 07:54:18  771725
Аноны, посмотрел вступительные экзамены для поступления в ШАД, и понял, что там всё достаточно серьезно в плане требований к математике.
В связи с этим вопрос: какая математическая подготовка должна быть для нормального восприятия ML, то есть не на уровне "магии"? В ШАД адекватно оценивают сложность темы или всё-таки перестраховываются, дабы оградить менее одарённых товарищей даже от мыслей о поступлении?
Еще лучше будет конкретнее - какие книги по теме стоит переработать перед изучением сабжа?
Аноним 17/06/16 Птн 11:43:39  771871
>>771725
Ты не поступишь.
Аноним 17/06/16 Птн 12:24:45  771909
>>771725
> В связи с этим вопрос: какая математическая подготовка должна быть для нормального восприятия ML, то есть не на уровне "магии"?
Хз.

> посмотрел вступительные экзамены для поступления в ШАД, и понял, что там всё достаточно серьезно в плане требований к математике
Нет. Нужно тупо дрочить примерчики из Демидовича. Теорию множеств знать не надо, топологию знать не надо, теорию меры знать не надо. То, что там требуют - это вообще не математика.
Аноним 17/06/16 Птн 14:56:32  772006
Аноны, я все вкурил в нейронных сетях и персептронах многослойных. Не надо уж так много матана для этого знать.
А что посоветуете почитать для того, чтобы понять по части матана и всяким приемчикам?
Пожалуйста не на английском и чтобы не много матана было
Аноним 17/06/16 Птн 15:05:36  772012
Аноны, а вы помните статью того чувака на хабре про волновую, паттерновую модель?
Волновую модель в топку, а вот распространение всего с помощью паттернов - это фишка.

Представьте, что у вас есть револьвер.
И револьвер - это рекуррентная сеть с открытой памятью.
И при каждой операции у других сетей мы берем и навешиваем им некоторый символ, по которому мы сможем их отличать.

И так вот, если обучить сеть чему-нибудь, закодировать все операции в виде паттернов, дальше, методом векторного квантования мы классифицируем результаты и получаем приоритеты в тех или иных вещах.

Теперь, когда на сеть подаются данные - она ищет соответствия в паттернах, и загружает информацию в слой рекуррентной сети.
Получается, что это работает, как револьвер.
И главное - вычисления можно проводить в несколько потоках, то есть как у человека, который выполняет несколько привычных действий.

Эх, еще бы примотать к этому надклассификацию, чтобы сеть могла выискивать новые значения функции, исходя из старых И в том числе поиск закономерностей
Аноним 17/06/16 Птн 15:06:47  772014
>>772006
Долбоёб, бля.
Дебилы, бля.

АНОНЧИКИ, ПОСОВЕТУЙТЕ КНИЖКУ ПО ДИП ЛЕАРНИНГУ, ТОЛЬКО НА РУССКОМ БЕЗ МЕТЕМАТИКИ, РЕГИСТРАЦИИ, СМС И КРОСС-ВАЛИДЕЙШЕН. АНОНЧИКИ, А МОЖЕТ ЛИ СЕТОЧКА НАУЧИТЬСЯ ГЛУБОКОМУ БЛОУДЖОБУ? НО ВЕДЬ ЛЮДИ ТАК НЕ ОТЛИЧАЮТСЯ, СЁРЛ, СЁРЛ, СЁРЛ.КАК ПОСТУПИТЬ В ШАД, ЕСЛИ У МЕНЯ ДЕВЯТЬ КЛАССОВ ОБРАЗОВАНИЯ В ШКОЛЕ ДЛЯ ДЕБИЛОВ?

Либо вы очень унылая зелень, умрите[/spoiler[
Аноним 17/06/16 Птн 15:08:17  772015
>>772014
Ещё и с разметкой обосрался.
Академика на вас нет, пидоры.
Аноним 17/06/16 Птн 15:12:14  772017
>>772012
Правда производить надклассификацию еще очень тяжело.
Но с простыми мат.функциями сеть работает отлично, она быстро научилась всем правилам.
>>772006
>Хочу разобраться в матане без матана
>Без английского.
Что ты тогда тут вообще забыл? Иди английский учи, тебе либо нормальное объяснение на энглише, либо статьи русских маразматиков.
>>772014
Ой, да не агрись ты так, побесится и уйдет
Аноним 17/06/16 Птн 15:12:41  772018
а вы можете в этих учебниках перевести все матановые алгебраичные формулы в код? ну непонятно же.
мы же программисты, а не математики.
Аноним 17/06/16 Птн 15:13:37  772019
>>772018
Да хули там непонятного, блядь
Тебе математическая сумма непонятна?
Или линейная функция?
Или операция умножения двух чисел тебе непонятна, блядь?
Ты не программист - ты говно.
Аноним 17/06/16 Птн 15:19:04  772022
>>772017
>>772014
Анон, ну объясни хотя-бы как сеть работает с цифровыми данными.
Есть ли где-нибудь пример калькулятора на нейронной сети или вроде того?
Аноним 17/06/16 Птн 15:22:27  772026
14661661475320.png (5Кб, 229x83)
14661661475321.png (5Кб, 263x78)
>>772019
вот это, например.
Аноним 17/06/16 Птн 15:24:31  772028
14661662717540.png (44Кб, 711x487)
НЕПОНЯТНА
Аноним 17/06/16 Птн 15:24:55  772030
показательная функция, вес, дробь.
Что тебе непонятно?
Аноним 17/06/16 Птн 15:29:10  772033
>>772030
>>772026
Аноним 17/06/16 Птн 15:39:36  772043
>>771259
>для того, чтобы входной сигнал корректировать в согласии с результатом обучения?
Нет. Входной сигнал - это константа, корректировать можно свободные параметры сети.
Аноним 17/06/16 Птн 15:41:06  772044
>>771357
>значение синаптических весов всегда лежит в диапазоне от 1 до -1
Это значение нелинейной функции активации "нейрона". Параметры линейной функции не обязаны быть от -1 до 1.
Аноним 17/06/16 Птн 15:42:26  772045
>>771144
Охуеннейший алгоритм, анон, спасибо.
Как нельзя лучше подходит для векторного квантования данных.
Кстати, название на русском "Нейронный газ", блядь.
Интересно, как это визуализировать? Какая-нибудь мозаика Вороного явно подойдет.
Аноним 17/06/16 Птн 15:44:27  772046
>>772043
То-есть вполне допустимо работать с числами любых размеров?
И я вполне могу обучить нейронную сеть, что 15+5 = 1, она сама подберет синаптические веса, верно?
Аноним 17/06/16 Птн 15:45:42  772047
>>772046
>я вполне могу обучить нейронную сеть, что 15+5 = 1, она сама подберет синаптические веса, верно?
Да.
Аноним 17/06/16 Птн 15:47:29  772051
Многое зависит от датасета, если там будет хуйня уровня "15+5 = 1", это не проблема нейросети.
Аноним 17/06/16 Птн 15:48:26  772052
>>772045
Подожди, это растущая сеть.
А что в ней случится, если я укажу, что она ошиблась?
Победители тупо перерастянутся?
Аноним 17/06/16 Птн 15:50:44  772053
>>772052
NG/GNG нельзя указать на ошибку, это алгоритмы обучения без учителя. Они воспринимают только ошибку квантования на текущем датасете. Есть векторное квантование с учителем, там можно задавать правильные выходы.
Аноним 17/06/16 Птн 15:58:13  772059
>>772053
А, в глаза ебусь.
Кстати, забавно оно работает.
https://www.youtube.com/watch?v=L4hYvMXoO0c
Аноним 17/06/16 Птн 16:18:24  772076
>>772053
>>772059
>>772052
>>772045
>>771144
Аноны, а зачем это нужно? Это типа, чтобы классифицировать что-то?
А как эти растянутые нейроны означают группу? Это типа как у гугла, где от главного запроса можно получить связанные с ним?
Аноним 17/06/16 Птн 16:21:10  772080
>>772059
Это апплет от самого автора GNG http://www.demogng.de/ http://sund.de/netze/applets/gng/full/GNG-U_0.html растущий нейронный газ в базовом варианте для практических целей бесполезен, т.к. при большой размерности датасета и большом количестве узлов объем вычислений настолько конский, что любой комплюктер встает раком. Смысл есть использовать только оптимизированные варианты, н-р http://r.gmum.net/ пшеки для R делали.
>>772076
Для любой задачи, сводимой к векторному квантованию. Не только классификация.
Аноним 17/06/16 Птн 16:21:35  772082
>>772026
Кстати, да, всегда бесило, что некоторые пишут только мат формулы без объяснения как это программить. Ладно там только сумма или еще че простое, но если та интегралы и вся хуйня математическая, которую хуй пойми как запрограммировать.
Аноним 17/06/16 Птн 16:22:11  772083
>>772028
Где ты такие ебанутые объяснения берешь?
Аноним 17/06/16 Птн 16:22:39  772084
>>772082
Интеграл - это и есть сумма, только для непрерывной а не дискретной величины.
Аноним 17/06/16 Птн 16:22:45  772085
>>772082
ХУЛИ СЛОЖНОГО В ИНТЕГРАЛАХ, БЛЯДЬ?
ВОЗЬМИ ЕГО ЗНАЧЕНИЕ ИЗ ТАБЛИЦЫ, БЛЯДЬ И НАЙДИ ИНТЕГРАЛ, НИЧЕГО ЛЕГЧЕ БЫТЬ НЕ МОЖЕТ.
Кто в треде сидит, девятиклассники?
Аноним 17/06/16 Птн 16:25:57  772089
>>772084
Это ясен хуй. Самый простое объяснение: это умножаешь с этим, получаешь то-то - это эквивалент записи такой-то, схем побольше и т.д.
Аноним 17/06/16 Птн 16:27:18  772091
>>772085
А ты уверен, что именно тот интеграл из таблицы надо брать, а не вычислять численными методами, где об этом могут нигде не сказать.
Аноним 17/06/16 Птн 16:31:22  772099
>>772080
У него возможностей побольше, чем у обычной SOM, архитектура не задана сразу и при небольшом кол-ве данных оно очень полезно.
А такой подход в Som - даже для меня новизна.
Это же можно брать классы и паттерны из операций и грузить их в банки памяти рекуррентной сети сразу же.
Только надо еще посмотреть, как она с логическими операциями справляется и как на нее можно влиять, все-таки такое обучение без учителя может оказаться и правда бесполезным.
Или еще 50 методов сколхозить Som с другими сетями
Аноним 17/06/16 Птн 16:31:55  772100
>>772091
Обычно - да.
Если какой-то слишком сложный, то всегда есть калькулятор.
Аноним 17/06/16 Птн 16:42:01  772119
>>772099
>А такой подход в Som - даже для меня новизна.
Есть жи растущие варианты SOM и даже растуще-иерархические - GSOM, GHSOM http://www.ifs.tuwien.ac.at/dm/somtoolbox/index.html к слову тоже основаны на работах этого Фрицке. Всё адаптивное векторное квантование сходно в своей сути, карты Кохонена не исключение, там тоже большие возможности для всяких маневров с ростом, иерархией, стыкованием и т.д. SOM к слову, есть и с учителем - XYF/BDK/Supersom https://cran.r-project.org/web/packages/kohonen/index.html https://www.jstatsoft.org/article/view/v021i05/v21i05.pdf
Аноним 17/06/16 Птн 16:48:01  772128
>>772119
Ну, их "рост" - это тоже до предела значений, потом все более-менее организовывается.
Хотя можно и их наебнуть.

Но на больших данных - это ебнешься такие расчеты производить, я и так сервак держу под нужды вычислений
Аноним 17/06/16 Птн 17:01:38  772142
>>772026
Если ты не можешь перевести это в код, то ты не знаешь ни матетики, ни программирования.
Аноним 17/06/16 Птн 17:41:45  772179
Поясните за ELM, это убийца ANN или просто еще один алгоритм, типа RBF-сетей, который вскоре канет в лету?
Аноним 17/06/16 Птн 17:44:59  772181
>>772179
Че это такое хоть?
Аноним 17/06/16 Птн 17:47:29  772183
>>772181
extreme learning machines
Аноним 17/06/16 Птн 17:58:58  772198
Какие годные книги есть по text mining, текстовая обработка данных и тому подобному?
Аноним 17/06/16 Птн 18:00:36  772201
>>772179
>Поясните за ELM,
Ну хуй знает, создатель сверточных сетей ЛеКун эту идею обоссал, грит, во-первых еще Розенблатт такое предлагал, во-вторых, плохо сделано, тупо:
Yann LeCun's thoughts about ELMs:

What's so great about "Extreme Learning Machines"?

There is an interesting sociological phenomenon taking place in some corners of machine learning right now. A small research community, largely centered in China, has rallied around the concept of "Extreme Learning Machines".

Frankly, I don't understand what's so great about ELM. Would someone please care to explain?

An ELM is basically a 2-layer neural net in which the first layer is fixed and random, and the second layer is trained. There is a number of issues with this idea.

First, the name: an ELM is exactly what Minsky & Papert call a Gamba Perceptron (a Perceptron whose first layer is a bunch of linear threshold units). The original 1958 Rosenblatt perceptron was an ELM in that the first layer was randomly connected.

Second, the method: connecting the first layer randomly is just about the stupidest thing you could do. People have spent the almost 60 years since the Perceptron to come up with better schemes to non-linearly expand the dimension of an input vector so as to make the data more separable (many of which are documented in the 1974 edition of Duda & Hart). Let's just list a few: using families of basis functions such as polynomials, using "kernel methods" in which the basis functions (aka neurons) are centered on the training samples, using clustering or GMM to place the centers of the basis functions where the data is (something we used to call RBF networks), and using gradient descent to optimize the position of the basis functions (aka a 2-layer neural net trained with backprop).

Setting the layer-one weights randomly (if you do it in an appropriate way) can possibly be effective if the function you are trying to learn is very simple, and the amount of labelled data is small. The advantages are similar to that of an SVM (though to a lesser extent): the number of parameters that need to be trained supervised is small (since the first layer is fixed) and easily regularized (since they constitute a linear classifier). But then, why not use an SVM or an RBF net in the first place?

There may be a very narrow area of simple classification problems with small datasets where this kind of 2-layer net with random first layer may perform OK. But you will never see them beat records on complex tasks, such as ImageNet or speech recognition.
Аноним 17/06/16 Птн 18:21:27  772226
>>772201
> лекун
это жолтая женщина
патриархия обосралась вместе с росистами
Аноним 17/06/16 Птн 18:23:43  772230
а нет, это я обосрался и перепутал персонажей
идите нахуй?
Аноним 17/06/16 Птн 18:25:41  772232
14661771416300.webm webm file (1644Кб, 900x712, 00:00:10)
>>772226
>>772230
Наркоман, уходи
Аноним 17/06/16 Птн 18:26:20  772234
>>772201
А как же результаты экспериментов на различных дата сетах, которые показывают, что ELM, по точности классификации сравнима с MLP и deep boltsman networks?
Аноним 17/06/16 Птн 18:31:56  772238
>>772234
>ELM, по точности классификации сравнима с MLP
Это местами и есть MLP: The original 1958 Rosenblatt perceptron was an ELM in that the first layer was randomly connected.
Аноним 17/06/16 Птн 18:33:49  772242
И да, тот жи ЛеКун где-то писал, что все что может сверточная сеть, может и MLP, только свободных параметров будет в разы больше, соотв-но и вычислительных ресурсов нужно намного больше.
Аноним 17/06/16 Птн 18:41:51  772255
>>772238
Там BP нету
Аноним 17/06/16 Птн 18:44:16  772258
>>772255
И что? BP необязательный аттрибут MLP. Веса настраивать можно как угодно, хоть генетическим алгоритмом, не только обратным распространением.
Аноним 17/06/16 Птн 18:55:22  772268
>>772014
Четко пояснил.
Аноним 17/06/16 Птн 19:16:48  772282
>>772205
Что-бы детектировать тнн-пасту
Надо взять пасту на анализ, выделить ключевые слова, количество оскорблений
И из подобной статистики машина поймет, что это тнн-паста, на самом деле все куда сложнее и легче самому читать, чем это дело программировать.
Аноним 17/06/16 Птн 19:33:55  772296
а может ли НЕЙРОНОЧКА Х, где Х = генерирование тнн паст?
Аноним 17/06/16 Птн 19:35:30  772298
>>772296
Может
Аноним 17/06/16 Птн 19:37:24  772301
>>772298
а если X = предсказать понравлюсь ли я тянке?
Аноним 17/06/16 Птн 19:38:16  772303
>>772301
Может
Аноним 17/06/16 Птн 19:40:14  772307
>>772303
а Х = ответить может ли НЕЙРОНОЧКА Y
где Y задаётся отдельно?
Аноним 17/06/16 Птн 19:43:36  772313
>>772307
Хочешь, чтобы нейронная сеть сама спрашивала и отвечала на вопрос, может она то или иное X?
Аноним 17/06/16 Птн 19:45:52  772314
>>772313
нет, я хочу автоматизировать отвечание на вопрос "может ли НЯРОНОЧКА Х"
она должна только отвечать
спрашивать её будет здешний контингент
Аноним 17/06/16 Птн 19:49:01  772318
Намного интереснее - это идея сделать все механическим.
Может можно какую сеть в таком виде захуярить?
Ведь по сути в персептроне есть синапсы - ну, это просто операция умножения, блок суммирования - операция сложения и дальше просто взять и развести сигнал на встречу другим синапсам.

Надеюсь, я ничего не упустил? Механические калькуляторы уже были, если шестерни сделать очень маленькими, то оно и займет очень малые размеры.
Можно сделать что-нибудь, что будет самостоятельно калиброваться, например, или подстраиваться под какие-то условия.

Если бы она научилась считывать информацию с пленки механического фотика - то можно было бы вообще без электроники обходиться.
Аноним 17/06/16 Птн 19:51:57  772320
>>772318
А она вполне может, правда тебе придется крутить много барабанчиков с пленкой, можно кадр на пиксели разбить даже.
То-есть научиться распознавать цифры какие-нибудь она и так может.


А вот вам и корм для каких-нибудь шизанутых.
Аноним 17/06/16 Птн 20:00:22  772335
>>772318
Как сделаешь настройку синаптических весов?
Все, конечно, можно реализовать через математическую функцию, но есть же ПК, нахуй оно надо?
Аноним 17/06/16 Птн 20:11:23  772352
>>772335
Также, как это делает и нейронная сеть.
Хм, что-ли взять такое аутирование себе и построить какой-нибудь дирижабль на механике или подобное чудо и сказать, что он разумный?
Мне же все любители стимпанка и прочей хуйни поклоняться станут.
Это же несколько простых операций - сначала обучить нормальную нейронную сеть, а потом перевести в механику.
Если ты прав насчет того, что через механический фотик можно сделать распознавание образов - так это же замечательно.
Представь, что можно научить дирижабль стрелять в один тип объекта.
Типа "видит" объект и стреляет в него.
Да это же будет первый механический, беспилотный бот с нейронной сетью.
Итого: сеть для управления дирижаблем и его двигателем, сеть для навигации, определение ветра и погоды, счет образа, баллистическая сеть для пушки.
Бля, ушел делать
Аноним 17/06/16 Птн 22:56:08  772526
>>772022
Как, как? Там, бля, на выходе сети всё что угодно может быть. То, что на выходе могут быть числа в диапазоне от -1 до 1, не является никаким препятствием для обработки цифровых данных.
Аноним 17/06/16 Птн 22:59:14  772533
>>772082
>>772082
MCMC, стохастические аппроксимации. Обычно об этом упоминают.
Аноним 17/06/16 Птн 23:03:00  772538
>>772313
Лол, intrinsically motivated rl.
Аноним 18/06/16 Суб 00:35:13  772693
Аноны, понял насчет перцептрона
Понял насчет многослойных сетей
Понял насчет обратного распространения ошибки
Мне уже можно изучать питон и брать библиотеку PyBrain? Она вообще нормальная?
Аноним 18/06/16 Суб 00:40:17  772698
>>772693
Брать NumPy и изобретать велосипеды. На мой взгляд, иного пути нет.
Аноним 18/06/16 Суб 00:41:50  772700
>>772698
Но ведь NumPy - не нейронные сети, а массивы.
Аноним 18/06/16 Суб 00:49:10  772701
>>772700
Тебе хватит на первое время для реализации своих mlp, автоэнкодеров, RBM и свёрточных нейронок.
Аноним 18/06/16 Суб 00:55:09  772708
>>772701
Но у меня же будут велосипеды всякие, а в функции по части матана я все равно вкурил плохо, у меня с логикой намного лучше.
Или идти перекуривать?
А, может ты и прав.
Аноним 18/06/16 Суб 00:58:45  772715
>>772708
Полезно научиться собирать велосипеды.
Аноним 18/06/16 Суб 01:05:10  772717
>>772715
Черт, не так я себе представлял создание нейронной сети.
Но ладно, главное ведь результат.
Пока единственное что вижу - это статья про 11 строк кода
Аноним 18/06/16 Суб 01:18:24  772726
>>770525
Потому что блядь в заголове мелькает CS сука слепая
Аноним 18/06/16 Суб 01:19:21  772728
>>772717
СТОП
Подожди, то-есть, если написать что-то типа вот этого:
X = np.array([ [0,0,1],[0,1,1],[1,0,1],[1,1,1] ])
y = np.array([[0,1,1,0]]).T
syn0 = 2np.random.random((3,4)) - 1
syn1 = 2
np.random.random((4,1)) - 1
for j in xrange(60000):
l1 = 1/(1+np.exp(-(np.dot(X,syn0))))
l2 = 1/(1+np.exp(-(np.dot(l1,syn1))))
l2_delta = (y - l2)(l2(1-l2))
l1_delta = l2_delta.dot(syn1.T) (l1 (1-l1))
syn1 += l1.T.dot(l2_delta)
syn0 += X.T.dot(l1_delta)

То это и есть нейронная сеть? Блядь, а я ждал чего-то особого.
Вон, там выше в треде чувак про шагоходы рассказывал.
Аноним 18/06/16 Суб 10:23:49  772838
>>772728
НЕЙРОНОЧКА - массив
Аноним 18/06/16 Суб 13:56:05  773011
>>772838
Ее и писать вот так вот?
В виде массива?
Аноним 18/06/16 Суб 13:57:14  773014
>>772728
> а я ждал чего-то особого.
Например?
Аноним 18/06/16 Суб 14:03:31  773018
>>773014
Ну не знаю, хотя бы не писать каждый нейрон отдельно.
Но ладно, раз так надо, то буду.
А всегда надо представлять нейрон в виде простого массива?
Аноним 18/06/16 Суб 14:55:02  773073
>>773018
можешь представить его в виде монады - одно и то же ведь
"веса" (параметры) разумеется представляются в виде распределиния вероятности, распределение считаешь по теореме бейса
для НЕЙРОНОЧЕК оно не будет задано аналитически - придётся аппроксимировать
советую найти пару-сотен максимумов апостеирорного распределения. хороший численный метод - метод нютона
твоя реализация бекпропа должна уметь считать как градиенты, так и гессианы
используя гессианы на максимумах делаеш лаплас аппроксимейшены
теперь из получившийся комбинации гауссовых распределений делаеш сэмплинг (никакого мсмс)
сэмплаешь каких 50-100 массивов параметров, вычеслешь значение НЕЙРОНОЧЕК с этими параметрами и берёшь среднее
Аноним 18/06/16 Суб 14:59:58  773076
>>773073
Итого, мне надо знать:
Python, библиотеку numpy
теорему байеса
Что такое аппроксимация
Апостериорное распределение
Метод Ньютона
градиенты, гессианы
ГАУССОВЫ РАСПРЕДЕЛЕНИЯ, БЛЯДЬ? ЭТО ЖЕ ВЫШ МАТАН.
Аноним 18/06/16 Суб 15:03:13  773078
>>773073
Вореции - сила, Лаплас - могила.
Ты, кстати, неявно подсказал мне, как решить мою проблему, ACOC должен подойти, спасибо.
Аноним 18/06/16 Суб 15:04:16  773080
>>773076
Сука, да что тут за монстры сидят? Чтобы реализовать простую, значит, нейронную сеть - надо лезть в Гауссовы распределения, метод ньютона.
Ну охуеть теперь, я в депрессии.
Аноним 18/06/16 Суб 15:38:30  773113
>>773076
Нахуя? Есть книжка про алгоритмы ML на пистоне http://gen.lib.rus.ec/book/index.php?md5=A5205BD61ADDC523C7FBFE1D7EB0B3C6 читаешь, пробуешь, что непонятно - гуглишь, разбираешься. Ты не с той стороны в тему заходишь.
Аноним 18/06/16 Суб 15:40:51  773115
>>773113
Спасибо.
Только придется ее полностью переводить, хотя оно и не важно, главное, что код понятен.
После этой книги я смогу писать простые персептроны, Som, да?
Аноним 18/06/16 Суб 15:46:53  773120
>>773115
>придется ее полностью переводить,
Зачем? Там английский уровня школы.
>После этой книги я смогу писать простые персептроны, Som, да?
Ну да, там все это разбирается на примерах. Весь код к книге тута http://stephenmonika.net/MLbook.html
Аноним 18/06/16 Суб 15:48:04  773122
>>773120
А знания Питона на уровне книги "Укус Питона" мне хватит?
Аноним 18/06/16 Суб 15:48:25  773123
>>773120
харош его кормить
перекат делай
Аноним 18/06/16 Суб 15:54:28  773126
>>773123
Я не зеленый.
Аноним 18/06/16 Суб 16:00:02  773130
>>773123
>перекат делай
Лол, я не оп.
>>773122
Хз, я больше по R угораю, хотя у местных школьников он не в моде. Касаемо нейроночек и т.п. там даже без доп. пакетов, чисто стандартными средствами ограниченную машину Больцмана делали в несколько строк кода http://www.r-bloggers.com/restricted-boltzmann-machines-in-r/
Аноним 18/06/16 Суб 16:05:04  773133
>>773113
Черт, там же ни одного пира нету, как книгу получить?
Аноним 18/06/16 Суб 16:06:10  773134
>>773133
А все, скачал, где оп?
Пора перекатываться
Аноним 18/06/16 Суб 16:11:32  773137
>>773120
По оглавлению пробежался, ничего в духе Som не нашел.
Но хуй с ним, сейчас перечитаю книгу по питону и пойду со словарем читать эту книгу.
Аноним 18/06/16 Суб 16:24:02  773143
>>773137
>ничего в духе Som не нашел.
Глава 14.3, стр. 291
Аноним 18/06/16 Суб 16:35:23  773157
>>773143
Ой, в глаза долблюсь.
Аноним 18/06/16 Суб 18:19:54  773284
Как же хуево, что в 23 года я впервые заинтересовался ML, но без знаний проганья и матана можно только хуи сосать.
Аноним 18/06/16 Суб 18:39:20  773310
>>773284
Ну матан да, местами весьма хитрый. Но кодинг-то зачем? Почти все реализовано до тебя, для любых практических целей достаточно существующего софта.
Аноним 18/06/16 Суб 18:47:38  773319
>>773284
ну и хули? самый збс возраст что бы чем нибудь заняться таким вот
читай:
1. david mackay (RIP) - ITILA. 2, 3, 27, 28 чаптеры
2. лекции из летней школы МЛ, кембридж-едишн:
http://videolectures.net/mlss09uk_cambridge/
3. bishop - PRML. от корки до корки
это на 2-3 месяца
дальше сам поймёшь что интересует
и к 24 будешь норм шарить
Аноним 18/06/16 Суб 19:26:09  773352
>>773310
>>773319
Посоны, а есть ли толк от учебы по паре часов в будни и выходные? Работаю в сапе (лол) и свободен по вечерам.
И да, спасибо за ответы.
Аноним 18/06/16 Суб 19:42:20  773365
> имеет ли смысл учить Х если я хочу научиться Х
Аноним 18/06/16 Суб 19:55:03  773385
>>773113
Короче, буду разбирать и переводить по 30 страниц в день.
Может, через 2 недели и закончу.
До этого срока в тред и не войду.

Это же хорошая книга, если я знаю только питона и хуево знаю матан?
НЕЙРОНОЧКИ #4 Аноним 18/06/16 Суб 20:25:33  773428
предлагаю шапку для переката:

НЕЙРОНОЧКИ 101:
1. Introduction to НЕЙРОНОЧКИ, Casella ( http://www-bcf.usc.edu/~gareth/ISL/ISLR%20Sixth%20Printing.pdf )
Читается легко, неплохая разминка перед ESL
2. НЕЙРОНОЧКИ and НЕЙРОНОЧКИ, Bishop.
3. НЕЙРОНОЧКИ for Hackers. Введение в НЕЙРОНОЧКИ, годно.
4. http://neuralnetworksanddeeplearning.com
Введение в НЕЙРОНОЧКИ для самых маленьких. Написано простым английским.
5. https://yandexdataschool.ru/edu-process/courses - базовые курсы ШАДа.

НЕЙРОНОЧКИ Advanced
1. Elements of НЕЙРОНОЧКИ (http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Сложность - 9 из 10. Шутки в сторону, можно читать годами. Если вы сможете полностью проработать эту книгу и прорешать упражнения, обязательно свяжитесь со мной - у меня найдется работа для вас.
2. Optimization for НЕЙРОНОЧКИ. Edited by Suvrit Sra, Sebastian Nowozin and Stephen J. Wright, MIT Press, 2012.
Иногда from НЕЙРОНОЧКИ.НЕЙРОНОЧКИ import НЕЙРОНОЧКA перестает работать и тогда нужно все переписать. Оптимизация НЕЙРОНОЧКИ на больших объемах данных, НЕЙРОНОЧКИ, НЕЙРОНОЧКИ - вот это все тут есть.
3. http://www.cs.nyu.edu/~mohri/mlbook/
Как ESH, только слегка по-проще. Попробуйте, может зайти.

Дальше вас ждет дикий и необузданный мир. Два маяка https://vk.com/deeplearning и http://deeplearning.net/reading-list/ осветят дорогу: это списки литературы и обзоры статей для прощупывания пульса индустрии.

F.A.Q
По мотивам предыдущего треда.
Эти ваши книжки стоят овер 9000 рублей, как быть?
http://libgen.io
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и НЕЙРОНОЧКИ, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут НЕЙРОНОЧКАМИ и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.
Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг НЕЙРОНОЧКИ, далеко не во всех IT компания есть необходимость в НЕЙРОНОЧКИ и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2016 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru
Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
НЕЙРОНОЧКИ-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.
Но ведь есть НЕЙРОНОЧКA per se, чем онa занимается?
Действительно есть. Одаренная прослойка людей изобретает новые методы, но это правильнее называть просто математикой. Сейчас пищей для ума являются нейронные сети и НЕЙРОНОЧКИ, но даже они двигаются рука об руку с практикой.
Что такое TensorFlow?
TensorFlow - часть гуглового инструмента для перемножения тензоров и оптимизации функционалов. Часть - потому что важные куски типа паралелизации еще не выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и НЕЙРОНОЧКA для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
Аноним 18/06/16 Суб 20:26:53  773430
>>773428
Заебал, слово НЕЙРОНОЧКИ бесит и мозолит глаза.
Аноним 18/06/16 Суб 20:38:03  773437
14662714836430.jpg (77Кб, 600x565)
>>773430
НЕЙРОНОЧКИ
Аноним 19/06/16 Вск 09:08:34  773938
>>773385
Мой план осуществляется аноны, восприимчивость к английскому тексту повысилась уже на 2-й день, правда, не сильно.
А покажите перспективы развития, что почитать после этой книги?
Аноним 19/06/16 Вск 10:06:00  773975
Аноны, первый раз в жизни повезло
Моя идея с реккурентной сетью со сменной памятью оказалась удачной.
Ng сеть классифицирует информацию и подает нейронной сети сигнал о том, какую банку памяти юзать
Новая "группа" - новая банка памяти.
Но всего еще недостаточно, хочу, чтобы группы в растущей сети умели в иерархию, для того, чтобы искать информацию быстрее.
И это облегчит параллельные вычисления, как по мне.
Аноним 19/06/16 Вск 12:02:13  774050
>>773975
покажи что нибудь?
Аноним 19/06/16 Вск 12:12:55  774054
>>774050
нда
Аноним 19/06/16 Вск 12:34:49  774064
>>774054
а ты под спойлер засунь
Аноним 19/06/16 Вск 13:20:52  774142
>>774064
несколько тысяч строк кода?
Аноним 19/06/16 Вск 13:42:05  774176
>>774142
ты как стриптизёрша, возбуждаешь но не даёшь
надо тебя отшлёпать..
Аноним 19/06/16 Вск 14:03:32  774203
14663342123960.png (49Кб, 1050x396)
Почему они клепают такие курсы, что их можно пройти за неделю с 97% баллом и в итоге ничего толком не уметь и не знать?
Аноним 19/06/16 Вск 14:14:20  774214
>>774203
Чтобы денег заработать
Аноним 19/06/16 Вск 14:27:41  774232
>>774203
с китаёзой всё время курсы советуют
значит правда говно
Аноним 19/06/16 Вск 14:36:46  774240
>>773352
Почти все так и делают. Есть 1-2% элиты, которые учились в 57й матшколе а потом в каком-нибудь элитном вузе, но у остальных 98% детство проебано почти полностью и люди наверстывают как могут.

Алсо, ты по 8 часов прям работаешь? Если ты на работе будешь учебники по матану читать, кто-то заметит?
Аноним 19/06/16 Вск 17:26:04  774588
Куда оп проебался? Кто тред перекатывать будет?
Аноним 19/06/16 Вск 18:44:30  774682
>>774588
ОП в лесу ягоды ест.
Перекачу сегодня вечером. Покидайте пока что в шапку добавить
Аноним 19/06/16 Вск 21:47:48  774807
Аноны, регрессия - это когда нам надо дать значения выходов y, имея значение входов x?
А что такое аппроксимация тогда?
Аноним 19/06/16 Вск 22:01:24  774824
>>774807
аппроксимация это когда __аппроксимируешь__
можно __апприксимировать__ апостериорное распределение параметров НЕЙРОНОЧКИ например
для __аппроксимации__ можно минимизировать расстояние кулльбака лейблера
это можно зделать неявно максимизируя нижнюю границу вероятности данных
забыл как это выводится, есть у бишопа в начале 10 чаптера всё разжёвано
после этого НЕЙРОНОЧКА может вычислять предсказания маргинализируясь над этим аппроксимирующим распределением, вместо поедания говна (предсказание по точечной оценке)
Аноним 20/06/16 Пнд 09:57:55  775025
>>774682
Взять пример с крестоблядского тредика.
Сёрлодауны идут на хуй.
Рузке безматановые шадники идут на хуй.
Аноним 20/06/16 Пнд 11:38:56  775072
>>774824
Что аппроксимируешь? Что такое аппроксимация?
Что такое апостериорное распределение?
Что такое расстояние кулльбака лейблера
Аноним 20/06/16 Пнд 12:09:09  775091
>>774682
убери всё про 'computer science'
добавь больше яп: R, julia
Аноним 20/06/16 Пнд 17:40:46  775344
Аноны, что такое "Обобщение"generalisation у нейронной сети?
И правда ли, что когда сеть переобучается, что она теряет способность этого "обобщения" в сторону точных данных?
Или я неправильно нихуя перевел?
Аноним 20/06/16 Пнд 18:53:29  775374
>>775344
> Аноны, что такое "Обобщение" у нейронной сети?
это когда подобрано удачное апостериорное распределение и у НЕЙРОНОЧКИ хоросё получается экстраполировать за пределы тренировочных данных
> И правда ли, что когда сеть переобучается, что она теряет способность этого "обобщения" в сторону точных данных?
переобучение произходит в основном при использовании точечной оценки параметров вместо всего распределения
оценка часто берётся с как можно большей плотностью вероятности в распределении
однако плотность алсо часто высока на очень ограниченной площади, основная масса вероятности может лежать далеко в регионах с меньшей плотностью
и тогда НЕЙРОНОЧКА обсирается
Аноним 20/06/16 Пнд 18:54:47  775377
https://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%BE%D0%BA%D0%BB%D1%8F%D1%82%D0%B8%D0%B5_%D1%80%D0%B0%D0%B7%D0%BC%D0%B5%D1%80%D0%BD%D0%BE%D1%81%D1%82%D0%B8
Аноним 20/06/16 Пнд 18:58:56  775383
Где сраный перекат?
Аноним 20/06/16 Пнд 19:34:01  775399
>>775383
>>775383
https://2ch.hk/pr/res/770057.html
Аноним 21/06/16 Втр 17:05:03  776071
походу опа сьел медведь и перекатываться придется самим ;з
Аноним 21/06/16 Втр 18:24:12  776123
>>776071
Тест ОП-а с форматированием:
http://termbin.com/qzfw
Аноним 21/06/16 Втр 18:46:22  776151
https://2ch.hk/pr/res/776147.html
https://2ch.hk/pr/res/776147.html
https://2ch.hk/pr/res/776147.html
Аноним 28/06/16 Втр 09:25:41  781892
Всем привет. Учиться по этому ресурсу норм?

http://deeplearning.net/
Аноним 01/07/16 Птн 21:03:29  785485
>>770400
Хайкин в переводе
Аноним 01/07/16 Птн 21:05:33  785490
>>774203
курс хорошо дает основы за неделю. Это же вообще отлично.

[Назад][Обновить тред][Вверх][Каталог] [Реквест разбана] [Подписаться на тред] [ ] 523 | 40 | 107
Назад Вверх Каталог Обновить

Топ тредов