Тред #1: https://arhivach.org/thread/147800/Тред #2: https://arhivach.org/thread/170611/Machine Learning 101:1. Introduction to Statistical Learning, Casella ( http://www-bcf.usc.edu/~gareth/ISL/ISLR%20Sixth%20Printing.pdf )Читается легко, неплохая разминка перед ESL2. Pattern Recognition and Machine Learning, Bishop.3. Bayesian Methods for Hackers. Введение в байесовские методы, годно.4. http://neuralnetworksanddeeplearning.comВведение в нейронные сеточки для самых маленьких. Написано простым английским.5. https://yandexdataschool.ru/edu-process/courses - базовые курсы ШАДа.Machine Learning Advanced1. Elements of Statistical Learning (http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )Сложность - 9 из 10. Шутки в сторону, можно читать годами. Если вы сможете полностью проработать эту книгу и прорешать упражнения, обязательно свяжитесь со мной - у меня найдется работа для вас.2. Optimization for Machine Learning. Edited by Suvrit Sra, Sebastian Nowozin and Stephen J. Wright, MIT Press, 2012.Иногда from sklearn.linear_model import LogisticRegression перестает работать и тогда нужно все переписать. Оптимизация квадратичных приближений на больших объемах данных, разреженные модели, суррогатные оптимизации - вот это все тут есть.3. http://www.cs.nyu.edu/~mohri/mlbook/Как ESL, только слегка по-проще. Попробуйте, может зайти.Дальше вас ждет дикий и необузданный мир. Два маяка https://vk.com/deeplearning и http://deeplearning.net/reading-list/ осветят дорогу: это списки литературы и обзоры статей для прощупывания пульса индустрии.Computer Science1. Intoduction to Algorithms, Corman2. The Art of Computer Programming, Knuth3. Compilers: Principles, Techniques, and Tools. Разработчикам компиляторов и прочим авторам убийц питонов и крестов посвящается.4. Введение в информационный поиск, Кристофер Маннинг.Как работает поиск с теоретической точки зрения.Programming1. Python Unlocked. Короткая книжка без соплей. В ней описаны метаклассы, дескрипторы, системы типов, шаблоны проектирования и TDD. Всего чуть больше 100 страниц концентрированной сути.2. Code Complete (2nd), McConnel.Неплохая книга. Не то чтобы обдрочиться, но в голове всякие фишки по структуризации кода и его проектированию остались.Misc1. Telegram: @techsparksПодкаст про всякие гик-штуки.F.A.QПо мотивам предыдущего треда.Эти ваши книжки стоят овер 9000 рублей, как быть?http://libgen.ioКниги хорошо, но с чего начать практический вкат?Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2016 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ruЗдорово, но я так и не понял чем же вы занимаетесь в IT компаниях?Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.Имхо, мы все же остаемся в первую очередь разработчиками.Но ведь есть Machine Learning per se, чем он занимается?Действительно есть. Одаренная прослойка людей изобретает новые методы, но это правильнее называть просто математикой. Сейчас пищей для ума являются нейронные сети и их возможные архитектуры, но даже они двигаются рука об руку с практикой.Что такое TensorFlow?TensorFlow - часть гуглового инструмента для перемножения тензоров и оптимизации функционалов. Часть - потому что важные куски типа паралелизации еще не выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
>>752098 (OP)
Добавьте плиз https://github.com/open-source-society/computer-science
Аноны, я в прошлом треде начитался всякого с роботами.Расскажите мне, например, как нейронная сеть научится управлять обратным маятником?
>>752132http://www.wseas.us/e-library/transactions/circuits/2011/52-095.pdf
>>752132например такэволюция связей и весов нейросетевого графа https://www.google.ru/search?q=neat+pole+balancing&oq=neat+pole+balancing&aqs=chrome..69i57.10776j0j1&sourceid=chrome&ie=UTF-8
up
Аноны, а вы можете пояснить, как генетический алгоритм будет приспосабливаться к разным показателям обратного маятника? Он что, просто подождет, пока маятник придет в норму и обратно восстановит баланс?
>>753340Функция приспособленности для обратного маятника принимает свой максимум при 0 угле наклона и 0 дельте угла наклона, как-то так. Остальное - рандомный поиск в пространстве состояний угла наклона и его дельты. Но вообще говоря, стабилизировать обратный маятник генетическим алгоритмом - аутизм какой-то.
Я смотрю, половина постов ИТТ про обратный маятник. Вкину симулятор нечеткой модели для стабилизации такого маятника, вполне работоспособно под досбоксом, пикрелейтед 1. Суть метода в бвзе правил, пикрелейтед 2. Тета - угол наклона, дельта тета - скорость изменения угла, ячейки таблицы - скорость мотора. Все вместе - правила типа "если тета = ZE (зеро, ноль) и дельта тета = ZE, то скорость мотора, требующаяся для компенсации маятника = ZE". http://ftp.funet.fi/pub/sci/neural/cns-bbs/annsim/togai.lzh
>>753704Какой-то брутфорс, в чем нечеткость?
>>753820А в чем брутфорс?
>>753834Ну, обычный поиск значений и запоминание их куда-либо
Смотрите, как вариант с вирт. реальностью можно сделать. Типа два человека, подключенные к сети, надевают 3D очки, потом они как бы оказываются в гипер пространстве, где взаимодействуют. Только по факту физически каждый из них взаимодействует с роботом-манекеном, которым управляет оппонент на другом конце провода.
>>754123Сначала бы с разрешением окулус рифта разобраться.Сначала бы нормальную анимацию в нем сделать.Сначала бы нормальную передачу движения сделатьСначала бы в нормальную нейронную сеть суметь хотя я не понял, зачем она тутКороче, мы не умеем ни во что из того, что ты хочешь
>>754123>>754125Сначала бы в нормального робота суметь
>>754127Ведь это пиздец непросто.Знаешь, сколько конструкционных заморочек?А ведь надо заморочиться так, чтобы потом не заморачиваться.И когда делаешь что-то сам и впервые, то все по другому, тебе никто не скажет, почему у тебя тут нечеткая логика работает так, что сервопривод не доходит на 4 см, а по расчетам все вообще верно?Или как бы сделать ей систему торможения, чтобы ее не колбасило моментом инерции?Или как сделать нормальную амортизацию в коленных суставах и тазобедренном шарнире?
>>754131И у меня давно не встает член на девушек, я дрочу на макак
>>754137Что блядь?
>>754125А зачем нейросеть? Просто датчики на скафандре и манкене сканируют и передают те же движения манекену, а через окулус и манекен поступает инфа о расстоянии до тела.
>>754138Извини не туда написал, хотел тебе ответить что-то другое.
>>754146Какие датчики? Как настраивать их точность? Как их калибровать? Как их размещать? Как их запитывать, какая архитектура, вид платы?
Прошлый тред был плох, но тут вообще какая-то ахинея пошла.
>>754151Есть же аналоги таких роботов, действующих по движениям. Я лично для себя подумал, что можно изменять угол сгиба скелета в трехмерном пространстве (т.е. три оси координат). И на его основании моделировать положение тела. Расстояние между манекеном и скелетом человека можно измерять с помощью датчиков, ну как на тачках, который расстояние до парковки измеряют лол. А там от какой-то одной точки выстраивается аналогичная модель скелета оппонента трехмерная.
>>754151>какая архитектура, вид платы? Я вот не силен в роботехнике и компьютерных железках, я просто быдлокодерок, но наверняка серьезные фирмы запилят машину для такого устройства с соответсвующей платой-кодом-архитектурой. Может даже свой язык запилят под это дело.
Что-то тред правда не туда катится. Давайте-ка вскроем вот какую тему. В любых моделях, хоть нейросеточках, хоть кластерного анализа, хоть генетических алгоритмов, да хоть чего, используется довольно ограниченный набор критериев качества получаемой модели. Не сильно ошибусь, если скажу что это варианты среднеквадратичной ошибки и AIC для кластеризации еще есть понятие ошибки квантования. Но ведь еще в 70-х годах в совке были предложены целые классы подобных критериев - критерии несмещенности, баланса переменных, что интересно - комбинированные. Причем, их необходимость обосновывалась тем, что среднеквадратичная ошибка не дает большой точности, если модель делается для предсказания числовых рядов и т.п. Может быть, я чего-то не знаю и таки сейчас где-то используются более сложные критерии качества модели чем SSE?
>>754535Для классификаторов сейчас используется почти исключительно кросс энтропия. Там через логарифмы пропускают выход.Для НС крайне важно, чтобы функция цены имела хорошие производные. Абсолютно необходимо, чтобы цена от Х примеров была суммой цены по всем примерам, иначе и производную считать геморно, и на батчи не разложишь, т.е. это вообще ни в какие ворота. "Странные" функции, которые ты перечислил, по-моему этим свойством не обладают.Кросс-энтропия, средние квадраты и еще несколько обладают всеми нужными свойствами. Однако см. также недавние работы по аутоэнкодерам, в частности variational autoencoder, generative adversarial networks. Там как раз борются со среднеквадратичной ошибкой, т.к. по ней выходит, что если у стола может быть она нога или четыре, то оптимально предсказывать 2.5. На эту тему много исписано, но думаю что в 70-х годах о таком еще никто и не подозревал.
>>754535Для классификаторов обычно используют F1-score.
То́чечная оце́нка - говноедстводискас
>>754596А как надо, точе́чная о́ценка?
эй машинисты, сколько за месяц бабла загребаете?
>>754706Нам платят не за время, а за модели. 5руб. за каждый натренированный параметр.
Посоны? Никто не занимался вероятностными графическими моделями? Пытаюсь найти оценку апостериорного среднего Марковской сети, но нихуя не выходит.MCMC кормит меня хуями.В mean field не получается ввести сопряжённые приоры.Particle Loopy BP не сходится.Есть ещё какие-нибудь общеизвестные варианты?Мб, анон наставит на путь истинный?
>>754993https://en.wikipedia.org/wiki/Gibbs_sampling
>>754205Это уже все известно и не работает нормально и эффективно.>>754207>Может>наверняка серьезные фирмыНу ты сам понял
> MCMC кормит меня хуямине может быть
>>755268То есть?
пацаны насколько силен щас ажиотаж вокруг ML?
>>755393невероятно силен
>>755396Ну хоть на спад идет?
>>755399нет же, с каждым твитом от дипмайнда интерес все больше разогреваетсяhttps://www.google.com/trends/explore#q=machine%20learning%2C%20deep%20learning&date=1%2F2010%2077m&cmpt=q&tz=Etc%2FGMT-2
>>755404Ну всеравно это интереснее, чем быть макакой. Да и порог входа тут выше, хотя и требуется меньше.Мойдодыр! Принимайте пополнение!Знаю что такое p.value, нормальное распределение, анализ выживаемости, могу в r сделать кластерный анализ, построить регрессию, немного могу knn, gbm, деревья классификации.Где мне стелить? У окошка с авторитетами, на параше или к мужикам пока?
>>755405> p.value> Где мне стелить?-> на параше
>>755405>Где мне стелить? У окошка с авторитетами, на параше или к мужикам пока? Есть две НС. В одной 200 слоев по 50 нейронов, а в другой 50 слоев по 200 нейронов. Какую сам будешь использовать, какую матери отдашь?
>>755410Это ваш петух местный? Что не так p.value?
>>755457Матери 200 слоев. Хотя хз что там в ваших нейросетях.
>>755481>>755481> Что не так?С частым false positive.Почитай про критику p value. Некоторые журналы даже не принимают статьи, где они используются.
>>755614Какие есть альтернативы?
Из твитора Салахутдинова:http://arxiv.org/pdf/1605.07912v2.pdf
>>755615https://www.quora.com/Statistics-academic-discipline-What-are-some-alternatives-to-p-values
>>755617Спасибо
>>755616https://twitter.com/rsalakhu
>>754146>>755072Маркерный мокап себя уже сколько времени хорошо чувствует.
Как тут ваш back propagation? Если вы понимаете, о чем я.
>>756565> back propagationРезультатов: примерно 0Возможно вы имели в виду: expectation propagation
>>756620я бы тебе anal prpagation устроил.
Анончики, не смотрели этот курс?https://www.youtube.com/watch?v=2pWv7GOvuf0&list=PL5X3mDkKaJrL42i_jhE4N-p6E2Ol62OfaКто как изучал RL?
За нейросеточки поясните. В чем разница между перцептроном и ADALINE?
>>756817> The difference between Adaline and the standard (McCulloch–Pitts) perceptron is that in the learning phase the weights are adjusted according to the weighted sum of the inputs (the net). In the standard perceptron, the net is passed to the activation (transfer) function and the function's output is used for adjusting the weights.
>>756782Курс Сильвера мне показался сложным. Рекомендую 5 и 6 недели этого:https://courses.edx.org/courses/BerkeleyX/CS188x_1/1T2013/info для плавного въезда в RL.
>>756818Веса настраиваются по-разному штоле? Вроде и там и там обратное распространение ошибки, не?
>>756820Ага. спасибо.У меня в шаражке уже было два семестра с ИИ, так что какая-то минимальная база у меня есть.
>>756822ADALINE линеен. В русской литературе это называется "адаптивный линейный сумматор", емнип.
>>756824Однослойный линеен, да. Как и перцептрон.
>>756828> перцептрон линеен> нелинейная активационная функция
>>756830На >>756817 пике тоже сигмоид, а это адалайн. Как жи быть?
>>756837У тебя на втором пике ошибка идёт до активации выхода, в перцептроне после.
>>756839На втором пике м.б. дядя намудрил. На схеме-то немного не так.
>>752098 (OP)Почему гугл еще не выдал более менее нормальный переводчик на основе deeplearning?
Если я добавлю на выход(кроме 10 выходов) еще координаты цифры, ширину и длину, то сеть сможет обучиться находить цифры на картинке?
http://joelgrus.com/2016/05/23/fizz-buzz-in-tensorflow/
Я нашел еще одну, нормальную схему адалайна, предыдущий оратор >>756839 предположил, что разница в том, что у перцептрона ошибка считается после активации (н-р сигмоида), а у адалайна - до. Это не так, т.к. на схеме пикрелейтед и втором пике >>756837 ручная электромеханическая конструкция адалайна и поправка вводится вручную после срабатывания активации. Т.е. ошибка таки считается после сигмоида или что там вместо активации, как у перцептрона. Но тогда вопрос >>756817 остается в силе. Неужели правда никто не знает?
>>757304А если еще свои мысли добавишь, она вообше думать научится.
>>757551Вот если ты такой умный, объясни как правильно делать сегментацию.
>>757553>как правильно делать сегментацию. В сверточных сетях и неокогнитроне она автоматически делается. А вообще, должно быть достаточно, если на картинке кроме самой цифры ничего нет.
>>757556Я понимаю, что можно одну картинку прогонять с разной вырезкой по координате и найти ее оптимальное начало и длину и высоту, но есть же способ сразу получить их.
>>757495У тебя опять сигнал ошибки до активации идёт.Ты сам гуглить то пытался, нет?https://www.quora.com/Artificial-Neural-Networks-what-is-the-difference-between-perceptron-and-adaline-in-recognition-+-and-X-imageshttps://en.wikipedia.org/wiki/ADALINE
Скомпилил openblas.dll (там же создался openblas.a) под вин, там же появился, указал в настройках Theano путь к папке где эти 2 файла, вроде все подключилось. Удалил эти 2 файла, но Python почему-то не ругается на это и каким-то образом их находит. Ошибки начинаются только если я укжу другой путь к openblas где его нет.
>>758015Ну смотри, на пикрелейтед "учитель" оценивает выход адалайна после активации, после чего правит в консерватории, если выход неправильный. Правятся-то веса модели, а не сам сигмоид. По второй ссылке одни общие фразы кроме >The only difference is that the adaline, after each iteration checks if the weight works for each of the input patterns; the perceptron just updates the weight after each new input pattern and does not go back and check.
>>757744бамп вопросу
Играют в майнкрафт (почти) с помощью RL: http://arxiv.org/abs/1605.09128https://www.youtube.com/watch?v=jQg8p-V8jF4
>>757744Ну хуй знает. Может быть вейвлеты какие-нибудь помогут, может быть главные компоненты, может быть аутоэнкодеры. Вряд ли есть способ сделать это проще чем в сверточных сетях.
поссал на ригер
>>758083лучше сразу поставь убунту и не еби мозг всем.
Аноны, а нейронная сеть сама может находить взаимосвязи между поступающей в нее информации?Или например, вычислить формулу, по которой качаются качели?
>>760768Да, может. Это называется идентификация системы. Только в нейросети результат непрозрачен, весовые коэффициенты тебе не дадут ничего. Интерпретируемый результат возможен при использовании например нечетких моделей. Вычислить формулу сложнее, но это тоже возможно. В совке еще был разработан такой метод как МГУА (метод группового учета аргументов, GMDH). Частный его случай - полиномиальная нейросеть. Подобными алгоритмами можно прямо восстанавливать формулы по входным-выходным данным системы, подробнее например http://gen.lib.rus.ec/book/index.php?md5=E73366E46C7B2375264EA47C1C09F4C5 там есть пример восстановления по данным т.н. соотношений Онзагера https://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D0%BE%D1%80%D0%B5%D0%BC%D0%B0_%D0%9E%D0%BD%D0%B7%D0%B0%D0%B3%D0%B5%D1%80%D0%B0 но эти алгоритмы в своем изначальном (а не обрезанном) виде нигде не реализованы, и в массе своей существуют в виде еще совкового кода на фортране разной степени допиленности.
>>760776Ну, вычислять формулу не надо, главное - искать взаимосвязи.А совковский код - очень даже интересно, в этом направлении еще никто не работал, если не ошибаюсь?Может себе дипломник взять по этой теме?
>>760780>главное - искать взаимосвязи.Тогда идентификация систем. Аппроксимация функций зависимости выходов от входов. Тема известная и широкая. Основная проблема - интерпретируемость полученной модели, но тут тоже есть свои подходы. А эти совеццкие алгоритмы вещь вообще малоизвестная, сейчас смотрю даже сайт http://gmdh.net/ где весь код был выложен, помер.
Хотя вот есть довольно новая кнжка http://gen.lib.rus.ec/book/index.php?md5=2D438F11AAB79ACDE5A004F211EC93DFЛол, поехавший >>760789 в треде, я спокоен.
>>760783Хм, очень даже интересно.А если у меня задача не в классификации, а в том, чтобы идентифицируемую систему, нейронная сеть составила сама.
>>760801>чтобы идентифицируемую систему, нейронная сеть составила сама. Это как? Система - это некий реальный объект или их совокупность. Качеля та же. Есть некие действия (входы), на которые система отвечает (выходы). Допустим, нам не известны принципы ответа системы на внешние воздействия. Но есть возможность измерить как воздействия так и ответ системы. Вот по этим данным можно построить модель системы, что и составляет идентификацию.
>>760806Можно накапливать информацию от объекта и искать взаимосвязи.
>>760808Я об этом и говорю. Любая такая взаимосвязь есть функция зависимости выходов от входов. Задача в том чтобы такие функции выявить. Это и есть идентификация системы. Которая решается с помощью универсальных аппроксиматоров функций.
>>760810>функция зависимостиТы рили немного поехавший, лел.>Задача в том, чтобы такие функции выявить.Ну это понятно, но как такое реализовать? Может использовать несколько нейросетей? Или есть архитектура сети, умеющая в такое?Ведь нужно искать не только взаимосвязь между данными, но и исключения.
>>760812Вообще, можно представить все в виде области значений из точек.Такое в Картах Кохонена вроде реализовано, но они старые.
>>760768Ох, а правда.Как научить нейронную сеть считать упреждение?Как научить ее предсказывать точно колебания маятника?И платина:Может ли нейронная сеть научить шагоход ходить?И чтобы сеть не имела изначально никакой информации, а сама все узнала, подбирая методы.
Жил-был царь, у царя был двор, на дворе был кол, на колу мочало; не сказать ли с начала?
Аноны, а для сравнения и классификации у нейросети обязательно должни быть математические операторы, вроде <>=/*+-Есть ли сети, которые могут сравнивать и классифицировать информацию только потому, что в процессе обучения без учителя получают награждение, например?
>>760830Ты про нечёткие модели забыл.
>>760967О, догадался.Надо научить сеть математике самостоятельно.
>>760830а ты можешь держать равновесие двух длинных палок одновременно ?а нейронка может (ну как минимум с помощью td\Q обучения)В меня сейчас будут кидаться немытыми хуями перельмана, но предлагаю порассуждать о нейронках с точки зрения психологии. И вопрос господам когнитивистам, зачем нам внимание ? Для перераспределия вычислительных ресурсов ?
>>760975>а ты можешь держать равновесие двух длинных палок одновременно ?Могу, я же тоже нейронка, лел.>В меня сейчас будут кидаться немытыми хуями перельмана, но предлагаю порассуждать о нейронках с точки зрения психологии. Чистый вычислительный механизм.Порассуждай еще о синусе с точки зрения психологии, одно и тоже.
>>760974Кстати, а это уже интересно.
Давайте придумывать какие нибудь механизмы по аналогии word2vec, doc2vec, like2vec , illustration2vechttps://github.com/MaxwellRebo/awesome-2vecДля неофитов поясняю, мы берём некое пространство, и редуцируем его в пространство меньшей размерности с помощью автоэнекодера прости господи.В результате получаем семантически сжатое пространство, вектора которого отражают вектора из пространства большей размерности. При том нам становятся доступны такие ништяки как интерполяция, векторные операции и сравнение векторов.
>>760985anime2vec
>>760987https://mattya.github.io/chainer-DCGAN/
>>760985прикольно было бы попробовать редуцировать на другие типы конструкций: алгебры, кольца и т.д.
>>760996А с функциями есть что-нибудь такое?
>>760996я не эксперт в этих ваших кольцах и гомологиях, но что может быть проще и понятнее обычного вектора ?У нас есть вектор в n-мерном пространстве. Близкие вектора похожи. Над векторами можно проводить разные операции которые будут интуитивно понятно. Что предлагает ваш аппарат ?
>>761002в векторном пространстве слишком много операций задано. Например, как интерпретировать скалярное произведение двух векторов? Сложение интерпретируется как аналогия. Имхо нужна по настоящему только одна операция, которая должна быть некомутативна (композиция слов) + одна комутативная (аналогия). Идеально для этого подходят кольца:A ring is a set R equipped with binary operations[1] + and · satisfying the following three sets of axioms, called the ring axioms[2][3][4]1. R is an abelian group under addition, meaning that(a + b) + c = a + (b + c) for all a, b, c in R (+ is associative).a + b = b + a for all a, b in R (+ is commutative).There is an element 0 in R such that a + 0 = a for all a in R (0 is the additive identity).For each a in R there exists −a in R such that a + (−a) = 0 (−a is the additive inverse of a).2. R is a monoid under multiplication, meaning that:(a ⋅ b) ⋅ c = a ⋅ (b ⋅ c) for all a, b, c in R (⋅ is associative).There is an element 1 in R such that a ⋅ 1 = a and 1 ⋅ a = a for all a in R (1 is the multiplicative identity).[5]3. Multiplication is distributive with respect to addition:a ⋅ (b + c) = (a ⋅ b) + (a ⋅ c) for all a, b, c in R (left distributivity).(b + c) ⋅ a = (b ⋅ a) + (c ⋅ a) for all a, b, c in R (right distributivity).
>>761007точнее варианты колец с измененными пунктами 2 и 3.
>>761007как интерпретировать скалярное произведение двух векторов? Для начала разберёмся с углом между векторами. Вот у нас есть пространство характеризующее пиструн, пусть это будет длина и ширина. Для каждого пиструна в мире можно задать длину и ширину. Допустим мы хотим узнать, на сколько похожи два пиструна. Соотвественно мы можем воспользоваться манхэттенским расстоянием, евклидовым и другими параметрами расстояния минковского. Померяли расстояние, получилось 15. И что из этого следует ? это много или мало ?Заменим меру на угол, таким образом получим меру схожести. Если угол 90, то у нас есть два пиструна, один абсолютно толстый, но нисколько не длинный, а другой на оборот. Если угол 0, то мы сможем получить один пиструн умножив характеристики другого на одно число.В случае множеств я думаю надо смотреть на расстояния Джаккарда.
Аноны, а как можно научить нейронную сеть классифицировать информацию?Например, есть рекуррентная сеть.Я хочу ее обучать математике, но, как мне дать ей понять, что цифры - это цифры? И что они выражают? Вместо тупого матана
>>761134больной ублюдок, чем тебя обычный калькулятор не устраивает ?У людей за математикой стоят некие идеи, а математика это просто язык описания этих идей. Делать математические операции можно и с яблоками не зная вообще ничего о математике.Если рассматривать математику как часть логики (мы же можем перевести всю математику в бинарное исчисление) то про обычный XOR на ИНС я говорить не буду, скажу что уже есть калькуляторы на нейронках и с недавних пор машины тьюринга.http://arxiv.org/abs/1511.06279
>>760812>>760818>но как такое реализовать? Может использовать несколько нейросетей? Или есть архитектура сети, умеющая в такое?>Эта задача НЕ РЕШАЕТСЯ с помощью универсальных аппроксиматоров.Пиздец, я реально не могу уже с вами. Сколько раз за последние года 3 я упоминал теорему Коско об универсальных нечетких аппроксиматорах - http://sipi.usc.edu/~kosko/FuzzyUniversalApprox.pdf - Аллаху одному ведомо. Вот даже целая книга на эту тему http://gen.lib.rus.ec/book/index.php?md5=BC1EC0F44F2E619AB46D6FD0B7088514 глава 2 особенно, И что? Ответ один - врети, поехавший, и т.д. >>760819>в Картах Кохонена вроде реализовано, но они старые. А, ну ясно. Раз до 2015 года создано, значит старье. А много ли ты слышал о двунаправленных картах Кохонена с супервайзед обучением? https://cran.r-project.org/web/packages/kohonen/index.html Да, карты Кохонена могут в такую задачу, особенно XYF, Supersom и BDK. >>760830Идентификация систем же. Маятник или что там у тебя, представляется в виде матрицы Ганкеля и подкладывается нейросети или чему угодно и все, профит. Гугли NARX/NARMAX если интересно подробнее.>>761134Входы - любое выражение, выходы - правильные ответы.
Все-таки фрилансером, несмотря на мизерные копйки, хамское отношение заков и биржи, я ощущаю, что исполняю какую-то интеллектуальную работу, где нужно зарабатывать именно извилиной и элементарной грамотностью. Пусть даже у меня будет выходить всего косарь в месяц, а остальное время я буду прогать for free. Не могу представить, как можно работать каким-то официантом или подаваном-продаваном, пусть даже там ты общаешься с людьми, но ты ведь вообще ничего не создаешь, не выполняешь никакой полезной функции, не ощущаешь себя уникальным. Тобой просто забивают дыру в велфере, ну родился человек, нихуя не умеет, мозг ему дан просто, чтобы ложку мимо рта не пронести и не промахнуться, подтирая жопу. Не давать же им с голода дохнуть, вот тебе паек рядом с продажами, сиди и пинай хуи либо страдай ненужной хренью. Вот так вот они все думают, когда очередной васян с улицы просится в теплое местечко посидеть за зарплату. Вот так все это быдло и вьет себе кормушки возле продажных мест, где проходят денежные потоки, ничего по сути не делая, совершенно лишние люди, изображающие деятельность ради деятельности. Вся суть эпохи постмодернизма. Или вот взять каких-нибудь тупорылых зажиточных бизнесменов и нефтянников, многие ни писать, ни читать, ничего не умеют, а им и не нужно, им хватает того, что они чем-то денежным владеют, а за них все сделают задроты, которые всю жизнь жопу рвут и что-то изучают, чтобы попасть на это копеечное место, еще и конкурируют за него во всю. Вот мы тут думаем, напрягаемся, чтобы что-то написать или напрогать, используем мозг на полную катушку, а какой-нибудь васян или машка-продавщица сидят, принимают деньги и записывают в книжку товар по 8 часов в сутки, не напрягая ни одной извилины, и получают гораздо больше нас. Тупые ненужные люди получают больше умных, тех, кто зарабатывает мозгом и кому унизительно работать, как баба маша - затычкой в системе. Короче, всех их заменят скоро роботы и справедливость восторжествует. Вот к чему я, сори за простыню.
>хотел сделать прорыв в науке и изобрести ИИ>открыл pdf про backpropagation>не понимаешь линейной алгебры, формул и высшего матаналадно, пойду дальше круды шлепать.
>>761007>по настоящемурусский выучи, скалярный вектор блять.
>>761195>работать, как баба маша - затычкой в системе. Короче, всех их заменят скоро роботы и справедливость восторжествует. Вот к чему я, Считаешь программизм дохуя интеллектуальной работой? Тогда у меня для тебя плохие новости, от бабы маши ты ничем не отличаешься. Ты про конструктивную теорию типов Мартин-Лёфа слышал? Читни http://maxim.livejournal.com/479716.html вот. В крации - любая возможная программа на любом языке программирования есть подмножество инфинити топоса, причем поддается экстракции оттуда.
>>761199Вот. Проще уже вряд ли можно найтиhttp://www.aiportal.ru/articles/neural-networks/back-propagation.html
>>761201Интелелктуальный - это вообще избитый термин. Я бы сказал оптимальный, прогрессивный, современный. Один кодер накодит прогу для миллиона роботов, выполняющих функции продаванов. Смотри, какая КПД у кодера и какая у продаванов. У них ведь алгоритм: принять деньги, доставить товар покупателю. Тут даже нейросеть не нужна, этот простой алгоритм уже реализован в автоматах с кофе. Знаешь, мне вот кажется, что это натуральный заговор. да они уже бы смогли поставить везде такие автоматы с роботами (только больших размеров) в каждый магазин, в каждую аптеку, в каждую кафешку и забегаловку. Но нет, они хотят сохранить места для тупого и бесполезного быдла, не могущего в создание чего-то.
>>761201а любой натюрморт - это просто набор трехмерных объектов, а теперь попробуй выстроить из рандомных объектов натюрморт, все дело в креативности и организации, которых нет у бидла.
>>761267Сразу видно, что по ссылке ты не читал, либо не понял.
>>752098 (OP)Аноны, а почему все только на компьютерах?Ведь нейронная сеть - это математическая модель.Но почему она реализовывается только в виде кода? Ведь вычислять и сохранять в памяти умеют и шестереночные механизмы.Можно ли воссоздать нейронную сеть в виде шестереночного механизма?
>>761354А так, как подобные механизмы теперь могут быть ОЧЕНЬ маленькими, то проблем с размерами теперь не будет.Но в чем будут проблемы? В скорости?Интересно будет собрать нейронную сеть в аналоговом виде
>>761354Да можно вообще делать вычисления с помощью узелков на веревке.....%%съеби нахуй из раздела??
>>761354Можешь почитать про голографические нейросети. Эти поехавшие спят и видят, как они создают AGI на базе голографии. Но на практике там дикий обосрамс.
>>761363С чего такая агрессия?Этого еще никто и никогда не делал же, а у меня внезапно возникла такая мысль.
>>761365Не, в голографию не хочу.А вот сделать что-нибудь забавное на базе шестеренок, игрушку, которая сама сможет чему-нибудь научиться - это забавно.
>>76137099% людей даже неправильно понимают это слово.
>>761354>Можно ли воссоздать нейронную сеть в виде шестереночного механизма? Можно. Можно в виде химической реакции, оптических элементов, в виде чего угодно можно.
>>761371Обычно все понимают объемные изображения.
>>761372>Можно в виде химической реакцииТо-есть, теоретически, можно заставить воду в туалете разговаривать с людьми?
>>761374Человеческий мозг более чем на 80% та же вода из унитаза. И никаких специальных алгоритмов в мозгу не реализовано, все работает только на свойствах среды. Никого не удивляет при этом, что человека можно научить разговаривать с другими людьми.
>>761370Розен, даже не думай.
Не понимаю. Зачем скрытые нейроны?
>>761403Представление функции многих аргументов через суперпозиции функций одного аргумента. Колмогоров, Арнольд, Горбань. http://icm.krasn.ru/ftp/articles/1998/2096gorban_SibZhVM98.pdf Это классика, блядь, это знать нада!
>>761412Что? А попроще. На примере распознание рукописных цифр. Что эти 15 нейронов делают и почему их количество можно менять? 2 часа назад учить начал
>>761418Это самое простое объяснение происходящему, можешь поверить.
>>761418На хуй иди. Тебе литературу дали, учи, блять!Нет, не хочу, говно жрать хочу.Чтобы получить более высокоуровневое представление
>>761438Я половины слов не понимаю. Давай литературу для новичка.
>>761441По нейросетям штоле? Вот это можно навернуть, там с примерами http://gen.lib.rus.ec/book/index.php?md5=9EC6CA538388D16910331E309741732E Если сам будешь искать - Хайкина читать не вздумай, вынос мозга гарантирован.
такое ощущение, что вы обчитались умных книг и теперь повторяете про свои вектора и бэкпропагешены без понимания сути произносимых слов и реализации на практике, как попугаи.
>>761458Тебе ж посоветовали >>761451 интересную книжку, там каждый алгоритм на пальцах расписан, кто угодно поймет. Если интересуешься реализацией на практике, вот тебе еще книжка http://gen.lib.rus.ec/book/index.php?md5=A5205BD61ADDC523C7FBFE1D7EB0B3C6
>>761451Спасибо. Ахуеть 500 страниц введения в нейросети. Я на 100 рассчитывал.
>>761464а как ее открыть?
>>761458>без понимания сутиПро суть опять же, >>761412 статья. По ссылкам почитай соотв. теоремы Колмогорова и Арнольда. Это именно вся суть происходящего. Вот еще видео есть https://www.youtube.com/watch?v=hc2Zj55j1zU https://www.youtube.com/watch?v=skfNlwEbqck как раз очень годно рассказано и показано распознавание символов.
>>761476Ну ты даешь. http://windjview.sourceforge.net/ru/ Впрочем, там есть и пдф http://gen.lib.rus.ec/book/index.php?md5=AE6CE64B978DCC3E4C0623C70D6D5973
>>761478Какой-то разваливающийся дед с двумя блоками 60 года выпуска. Поновее ниче нет?
>>761487нет там пдф.
>>761489Это основы, сначала пойми их, потом гугли поновее.
>>761489Поновее в оп-посте ссылка. А этот дед, это не просто дед.
>>761403Ебать, зачем столько нейронов? Какое назначение у этой функции вообще?
>>761499*у этой функцииУ этой сети, шрифты распознает?
>>761506На входе 784 на выходе 10. Да.
>>761506Цифры от 0 до 9 же, смотри выход.
Аноны, а нейронная сеть всегда имеет жесткое количество нейронов?
>>761596данервные клетки не восстанавливаются/растут
>>761613Но как тогда человек живет? У него просто очень дофига нейронов или что?
>>761613расскажи это своему гиппокампу
>>761615И вообще, может ли нейронная сеть включать дополнительные слои нейронов?Может ли ей не хватать нейронов?
>>761412Прочитал. Ещё и в гугле определения незнакомым словам искал. А как эти функции, теоремы, радикалы, суперпозиции и прочая хуйня связана с скрытым слоем в той нейросети?
>>761613Нейрогенез же.
> Нейрогенезhttps://www.reddit.com/r/MachineLearning/comments/4mar3t/nag_neurogenesis_along_the_gradient_using/
Решаю яндекс курсы и надо узнать какую долю составили пассажиры первого класса. Где здесь написано какой у них класс?
>>762150> Pclass
>>762150pclass, даун.
Я в теме не очень шарю, но в этом треде обсужаются нейронные сети, bigdata, ML и еще какая-то еботень? А разве это не сильно разные вещи?
>>762157>>762168Ясно. Спасибо. А first name? Там же у них по 2 слова после Mr и Mrs у некоторых.
>>762174>>762150Бамп вопросу. Подчеркните там имя .Последнее задание осталось.
>>762206И то что в скобках тоже не подходит?
>>762173Разные, но связанные.
>>762174тебе 12? первое имя до запятой идет.
т.е. наоборот после запятой.
>>762215А нужно найти самое популярно женское first name. Пробую так s[s.index('. ')+2:s.index(' ',s.index('. ')+2)], но вдруг скобки имеют значение?
>>762150кр4 весь плебс подоха богатые суки все выжилитакие дела
>>761195Молодец, теперь ты можешь в капитализм.
>>761354Можешь в майнкрафте потренироваться.https://www.youtube.com/watch?v=zi6gdjLLSPE
>>762229но но
>>762241в третьем классе же одни работяги ехали.
>>762232Проиграл с опущенца в видео
>>762150Здесь кто-то ещё решал эти задачки? Знает кто ответы и решения на задачи с средним арифметическим возрастов и самым популярным женским именем?
>>761354http://golovolomka.hobby.ru/books/gardner/mathdiv/14.shtml
допустим у меня есть матрица чисел.можно ли использовать нейросеть для поиска минимума и максимума? теоретически скорость работы должна замедлится?
>>762487Допустим мне нужно решить FizzBuzz.Можно ли использовать нейросеть для решения?Теоретически скорость работы должна замедлиться?Что ты делаешь то?
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
>>762515Быдлецо набигает. Это тленчик.
Тред #1: https://arhivach.org/thread/147800/Тред #2: https://arhivach.org/thread/170611/НЕЙРОНОЧКИ 101:1. Introduction to НЕЙРОНОЧКИ, Casella ( http://www-bcf.usc.edu/~gareth/ISL/ISLR%20Sixth%20Printing.pdf )Читается легко, неплохая разминка перед ESL2. НЕЙРОНОЧКИ and НЕЙРОНОЧКИ, Bishop.3. НЕЙРОНОЧКИ for Hackers. Введение в НЕЙРОНОЧКИ, годно.4. http://neuralnetworksanddeeplearning.comВведение в НЕЙРОНОЧКИ для самых маленьких. Написано простым английским.5. https://yandexdataschool.ru/edu-process/courses - базовые курсы ШАДа.НЕЙРОНОЧКИ Advanced1. Elements of НЕЙРОНОЧКИ (http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )Сложность - 9 из 10. Шутки в сторону, можно читать годами. Если вы сможете полностью проработать эту книгу и прорешать упражнения, обязательно свяжитесь со мной - у меня найдется работа для вас.2. Optimization for НЕЙРОНОЧКИ. Edited by Suvrit Sra, Sebastian Nowozin and Stephen J. Wright, MIT Press, 2012.Иногда from НЕЙРОНОЧКИ.НЕЙРОНОЧКИ import НЕЙРОНОЧКA перестает работать и тогда нужно все переписать. Оптимизация НЕЙРОНОЧКИ на больших объемах данных, НЕЙРОНОЧКИ, НЕЙРОНОЧКИ - вот это все тут есть.3. http://www.cs.nyu.edu/~mohri/mlbook/Как ESL, только слегка по-проще. Попробуйте, может зайти.Дальше вас ждет дикий и необузданный мир. Два маяка https://vk.com/deeplearning и http://deeplearning.net/reading-list/ осветят дорогу: это списки литературы и обзоры статей для прощупывания пульса индустрии.F.A.QПо мотивам предыдущего треда.Эти ваши книжки стоят овер 9000 рублей, как быть?http://libgen.ioКниги хорошо, но с чего начать практический вкат?Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и НЕЙРОНОЧКEK, Linux/OS X является стандартом. Привыкайте.Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут НЕЙРОНОЧКАМИ и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?Несмотря на хайп вокруг НЕЙРОНОЧКИ, далеко не во всех IT компания есть необходимость в НЕЙРОНОЧКИ и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2016 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ruЗдорово, но я так и не понял чем же вы занимаетесь в IT компаниях?Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.НЕЙРОНОЧКИ-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.Имхо, мы все же остаемся в первую очередь разработчиками.Но ведь есть НЕЙРОНОЧКИ per se, чем он занимается?Действительно есть. Одаренная прослойка людей изобретает новые методы, но это правильнее называть просто математикой. Сейчас пищей для ума являются нейронные сети и НЕЙРОНОЧКИ, но даже они двигаются рука об руку с практикой.Что такое TensorFlow?TensorFlow - часть гуглового инструмента для перемножения тензоров и оптимизации функционалов. Часть - потому что важные куски типа паралелизации еще не выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и НЕЙРОНОЧКA для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
>>762526Э, слы, пацан, у тебя в нейроночке LSTM юниты есть? А если найду?
>>762241> Алёна думает что во всех классах женщины&дети / мужчины = 50 / 50
>>761201Объясните, пожалуйста, зелёному студенту, почему из этого:>>любая возможная программа на любом языке программирования есть подмножество инфинити топоса, причем поддается экстракции оттуда.следует, что >>программизм не является дохуя интеллектуальной работой?Топос — тип категорий в теории категорий, по своим свойствам напоминающих и обобщающих категорию множеств. То есть выше утверждается,что любую программу можно формализовать, упростить и как следствие, автоматизировать?
>>762646Это маняфантазии технофашистов. Любой текст на естественном языке тоже внезапно объект Set, и эти кукареки ничем не лучше утверждения о том, что Шекспир это обезьяна, которой дали перо и чернила.
>>762646Тогда и механизм работы человека тривиальная программа.Меня эти топосы уже просто доебали, не могу их слушать, одно кольцо охуительней другого.
>>762655>>762658Спасибо. А то я за это время подумал и уже было пришёл к согласию с тем, что, по аналогии с текстом произведений Шекспира, который>>на естественном языке тоже внезапно объект Set ,текст программы, безусловно является тривиальным, но зато процесс поиска идеи и разработки в обоих примерах считается выдающимся, потому что пока что недостаточно изучен. В общем, загнался.
>>762646Ты текст по ссылке почитай, а не местных клованов типа >>762655
>>762842Прочитал, но не нашёл ни слова про интеллект. Причина того, что, по мнению >>761201 , программистов рано или поздно заменят роботами, понятна без ссылки. Не понятно высказывание про интеллект. По-моему, дело в том, что слово выбрано неверно, как выше уже писалось. Только сейчас до этого >>761264 дошёл.
Что думаете про эту интеллектуальную систему полного разума с интуицией (Колешко, Воробей): http://intsysjournal.org/articles/is04/04_koleshko.pdf ?Вот обновлённая статья с подробностями и красивыми графиками: http://j-asymmetry.com/Koleshko_3_2015.pdf.Цитаты:>>"Полный разум — это гипер-метаэвристическая многокомпонентная гиперсферная интеллектуальная нейронная сеть (МГИНС) с логическим и интуитивным ускоренным распознаванием сенсорных информационных образов, беспроводных сенсорных систем и сетей при классической метрологии.>><...> Ряд электронных блоков выполняют функции левого полушария, то есть самоорганизующегося гиперметаэвристического распознавания информационных образов, и правого полушария, то есть интуитивного прогнозирования на основе ранее полученных знаний. Чтобы придать сенсорам разум, на основе самоорганизующейся МГИНС проводится обучение на количественных данных информационных сенсорных образов."Меня напрягает указание "Европейского свободного смарт университета удаленного доступа", информации о котором нет в интернете.
Как вытащить из LogisticRegression() имя алгоритма?Пробую model.__class__, выдает <class 'sklearn.linear_model.logistic.LogisticRegression'>а мне нужно только 'LogisticRegression'
>>762990>>>"Полный разум — это гипер-метаэвристическая многокомпонентная гиперсферная интеллектуальная нейронная сеть (МГИНС) с логическим и интуитивным ускоренным распознаванием сенсорных информационных образов, беспроводных сенсорных систем и сетей при классической метрологии.Хуета и вода, итак понятная каждому дауну.>Ряд электронных блоков выполняют функции левого полушария, то есть самоорганизующегося гиперметаэвристического распознавания информационных образов, и правого полушария, то есть интуитивного прогнозирования на основе ранее полученных знаний. Чтобы придать сенсорам разум, на основе самоорганизующейся МГИНС проводится обучение на количественных данных информационных сенсорных образов."Ну, вопросы на счет самоорганизующегосяИнтуитивного прогнозирования - обычное прогнозирование, никакой интуиции в этом нету.Придать сенсорам разум, лелОга, сначала учим, потом она распознает, ничего в точности не указано, вода.Итого: статья дерьмо.
>>762953Верстальщиков уже можно заменять и без всяких нейронных сетей.
>>762990>Полный разум — это гипер-метаэвристическая многокомпонентная гиперсферная интеллектуальная нейронная сеть (МГИНС)Уже на этом этапе фрикометр зашкалило.
>>762150https://habrahabr.ru/post/202090/
Аноны, а на русском языке где-нибудь есть грамотная статья про работу мозга?Вот на хабре было пиздато написано про ассоциативную работу нейронов.А про все остальное? Логические решения, например, удаление информации и прочее?
>>763003Авторитет информации и то, как человек создает контекст - тоже очень интересно.
>>762990Самый прикол, что в статье описан обычный перцептрончик, к которому добавлены какие-то эвристики. Ну и всю терминологию переписали на какую-то шизу типа мегагитлерметаэвристический технослой технодендрит и т.п. Наркоманы какие-то.
>>763012Обычный перцептрончикА будущее то, будущее то, за рекуррентными нейронными сетями.Но это когда они научатся анализировать всю прошлую информацию, а не просто учитывать ее подольше перцптрончика.
>>763018Вот ты неправ. Это как раз путь в никуда, уже сейчас все эти глубокие сеточки сходятся неделями на GPU-кластерах, все закончится на том, что дойдут до сеточек, которые даже на Аллахе не сойдутся за приемлемое время.
>>763018Это да, недавно на тире тестировалась модель рекурретной сети.У нас была информация о массе заряда, его скорости и положению ружья Оно стояла на одном расстоянии от мишениЕе фича в том, что всю информацию, которая она запоминает влетает в банку памяти и оттуда в БД.Информация бралась из БД и отдельно обсчитывалась сетью, которая была обучена математическим операторам и понятию ряда, пропорции.На удивление, она быстро научилась считать то, куда попадет.Но вот ресурсов поела сильно.
>>763025Ну, на самом деле не так уж много она и пожрала, просто провела овердохуя вычислений, считайте, что обсчитала вообще всю информацию.На 1 выстрел она перемножила, переделила, вычитала и складывала все, определила то, что там больше и меньше чего.На 2 выстрел она уже проводила математические действия с 2-мя таблицами.На 3 выстрел она уже нашла закономерность и 4 выстрел смогла предсказать.Теперь интересно бы было, если она научилась бы находить закономерности между 2-мя действиями, если, например, изменить ружье, а потом, снова его взять, или что будет, если в действие вступит аэродинамика на дальних расстояниях, как она будет формировать исключения.Эх, а потом на шагоход.
>>763033Зачем для этого рекуррентная нейросеть, поясни. Типичная задача векторного квантования, т.к.:>информация о массе заряда, его скорости и положению ружья-это вещественнозначный вектор.
>>763037И да, вычислений для этого надо чуть менее чем нихуя.
>>763037Потому что надо, чтобы сеть из знаний о своем нихуя взяла и сформировала методы по быстрому.
>>763040Да я мог и сразу формулу наебашить, смысл не в решении задачи.
Да даже не векторное квантование, а тупо проекцией Сэммона можно было ебнуть.>>763043Ну так я об этом. обучение без учителя.
>>763044Вы там походу знатно гвозди микроскопом забиваете, господа.
>>762996 >>762999 >>763012То есть эта схема уже устарела или она изначально была бредовой?>>763033Ого. Где это тестировалось?
>>763046Это да, но все на будущие задачи с шагоходом рассчитывается, чтобы, он умел разбираться с разными ситуациями, так сказать.Так он и на льду сможет научиться ходить, а нечеткая логика здесь уже не справится, да и формула для такого неизвестна.>>763055На кафедре Информационных технологий.
>>762997Тогда почему же не заменяют? Инб4 люди не готовы
>>763059Никто еще не сделал такую программу %%хотя заготовки уже есть и многие сайты можноА в связи с развитием технологий многие фреймворки и прочая лабуда устаревает.
>>763058>нечеткая логика здесь уже не справитсяЭто еще почему? С шагоходом вполне возможно построить полную базу правил, которая будет охватывать все возможные положения ног и нарушения равновесия для их компенсации. Априорные формулы для этого не нужны.
>>763066Заебешься все это строить, очень заебешься.Да даже тогда он будет ходить как парализованный инвалид.Мы проверяли, поверь.А нейронная сеть в этом плане выгоднее ген. алгоритма, так как научиться ходить может всего за 10 шагов от учителя.Но для этого ее надо немного допилить.
>>763068Но есть страх в том, что робот сможет ошибиться и не поймет, в чем именно.Прямо как человек, лал.
>>763058>На кафедре Информационных технологий.Пожалуйста, напиши название института. Иду в магистратуру по этому направлению, очень бы пригодилось.
>>763089Наш закрывают, после того, как МГИМО перекупило.
>>763097А вообще совместно работаем с ИТМО, так что туда и поступай.
>>763098Спасибо.
>>763098>>763104Бля, только на КТ или, в другие места даже не суйся. Разрекламированная шарага.
>>763033Тир говоришь? А сколько у вас всего параметров то было? Скорость, масса, положение и цель?Да там же не так уж и много вариантов перебора?
>>763418Да, а кроме этого еще и наклон оружия, изначально оно стояла под 90 градусов.У всех тех переменных по 20 значений.
Аноны, я вот почитал про работу мозга достаточно дохуя.И меня возмутило то, что нейронные сети вообще сравнивают с человеческим мозгом.Они, пусть и симулируют часть его работы, но уже давно ушли от той математической модели, что есть в голове у животных и людей.То, чем руководствуются живые существа - это больше нечеткая логика и работала сигналов-транспортных путей, чем нейронные сети.
Ребят, задался вопросом попытаться распознать капчу абу. Возможно ли это, если я нуб? Юзать хочу си шарп
>>764087конечно, opencv в помощь.
>>764085Что почитать о работе мозга порекомендуешь? Не столько для проф пользования, я даже не совался еще в мл и все такое, сколько для общего образования
>>764108Зачем оно тебе нужно?В работе мозга и нейронных сетях ничего общего почти нету
>>764110Для общего образования. Знать как работает твоя память мне кажется полезнее чем не знать.
>>764111Ты оттуда ничего не поймешь же, там не написано в точности, как работает твоя память, ибо это слишком общее описание.Да и вообще, за такими вопросами тебе в когнитивную психологию.
>>764113Ок, спасибо. Говна тебе.
>>764085сравнивают их только две категории:1. долбоебы журналисты, которые нихуя не шарят2. ученые которые дохуя шарят но их сравнения очень точные и в узком смысле (типа корреляции активаций конвнетов и нескольких слоев сетчатки)не слушай первых, а про вторых ты скорее всего ничего не знаешь.
>>764085>Они, пусть и симулируют часть его работы, но уже давно ушли от той математической модели, что есть в голове у животных и людей.А у тебя когда самолеты птичками называют не бомбит случайно? На самом деле ушли не далеко, просто реализуют те же идее на другой "элементной базе".
>>764152Я уже давно не встречал таких сравнений.
>>764085>меня возмутило то, что нейронные сети вообще сравнивают с человеческим мозгом.Как из душа окатило, аж трисёт? Про любые нейросети, которые сравнивают с человеческим мозгом, обычно пишут что там именно от биологических нейронов, какой функционал эмулируется и т.д. Ну если это серьезная работа, а не быдлостатейка. Более предметно - 2 и 4 главы https://rutracker.org/forum/viewtopic.php?t=5096476 этой книжки. Можешь читнуть и сказать, возмутило ли тебя там что-нибудь.>То, чем руководствуются живые существа - это больше нечеткая логикаЛюбая адаптивная нечеткая модель это частный случай нейросети, т.к. свободные параметры надо как-то настраивать, а самый естественный способ это сделать - то же самое обратное распространение ошибки.
Аноны, что можете сказать по бигдате и пр. в сбербанке?
>>764601бигдата и пр. в сбербанке - заебись!
>>764590Почему нет хайпа вокруг карт Кохонена, а все вокруг дрочат на AE, VAE, RBM, DBM?
Вам делать нехуй сидеть огромные шизоpdf с дискретным матаном читать? Каким это боком вообще к кодингу? Типа чтобы понтоваться потом в своей вебшараге: а вот я прочитал хуйнянейм.
>>764090а капчу гугл чем распознавать?
>>764703Шизопдф не читай,@Ебанутый вопрос сразу задавайТут господа-академики беседают за МЛ, а не за вебпараши
>>764708Что ты забыл на сосаче, академик? иди свои диссертации пописывай.
>>764694>Почему нет хайпа вокруг карт КохоненаФорсить некому. Это касается не только SOM, а вообще всего адаптивного векторного квантования - LVQ, Neural gas, Growing neural gas. >>764747>Потому что они deep. Не поэтому. Некие японцы разрабатывали стеки из SOM (SOM^2, SOM of SOMs и т.д.) не зашло, опять же из-за малоизвестности.
>>764703Каким боком он нужен?Попробуй сделать манипулятор хотя-бы на нейронных сетях и узнаешь, каким боком он нужен
>>764694Потому что никто не развивает, а тащить на себе это - вообще не хочется.Да и нахуй оно нужно? Что-то я еще здравого применения не видел.
Иксперды приехали.>>764804>никто не развиваетhttps://github.com/peterwittek/somocluSomoclu is a massively parallel implementation of self-organizing maps. It exploits multicore CPUs, it is able to rely on MPI for distributing the workload in a cluster, and it can be accelerated by CUDA. >я еще здравого применения не видел. http://gen.lib.rus.ec/book/index.php?md5=259CC290B1BD9BDFF950EB595C1CB0E9
>>764814Какой-то один полуживой проектИ одна система?ВАУ, РАЗВИТИЕ, ПРОРЫВ.
Лайвхаки, наканецта
>>765140У Dlib похожая есть.
>>765145Отклеилось.
>>752098 (OP)http://scanlibs.com/postroenie-sistem-mashinnogo-obucheniya-na-yazyike-python/Аноны, годнота или нет? Добавите в шапку для начинающих?
>>765140Короч взял готовую реализацию сверточной сети на теано, она там на мнисте обучается. Сделал под свои 32 на 32 генерированные цифры с помощью пхп скрипта переделал, а она хуй че обучается.пиздец короч
>>765163На озоне засрали
>>765171Чому?
Кто знаком с Hearthstone, подскажите, применим ли там ML?Кто не знаком, вкратце:1) Пошаговая карточная игра для 2-х игроков2) Колода оппонента не известна и состоит из 30 карт (из 1000+), но какие-то карты имеют бОльшую вероятность там оказаться (некоторые почти 100%-ую)3) В среднем матч длится 15 ходов, на каждом ходу у игрока примерно 3-15 вариантов действий, некоторые действия приводят к разному исходу (эффект рандома)По идее мы тут ближе к го, чем к шахматам. Есть ли смысл вкатываться в ML или лучше использовать минимакс и эвристику?
>>765185Можно какой-нибудь RL потренировать, наверное. Но ресурсов нужна уйма.>>765174
>>765185Есть какая-нибудь база с матчами? API к этой базе?
>>765214В публичном доступе точно нету.Матчхистори официально не поддерживается, есть только самодельные решения для трекинга.Даже если насобирать сколько-то, часто выходят обновления (карты меняются, добавляются новые). Еще осложняется тем, что может быть очень много разных колод.Я так понимаю, в лучшем случае получилось бы обучить какую-то конкретую колоду против другой конкретной.
>>765187Херово, с ангельским у меня проблемки, а тут вроде бы все годно расписано. Есть ли русскоязычное подобие, которое не обосрали? Конкретно интересует Байес и бинарная классификация с помощью scikit. А везде просто формулы и код, поясняют его не так годно, как в книжке.
>>765140>>765146Зачем столько рисовали, можно было бы просто написать "в любой непонятной ситуации используй SVM)))". Векторное квантование на пистон не завезли, или авторы этих картинок про него не слышали?
Я только вкатываюсь в тему. Разделяют ли опытные аноны мое мнение, составленное просто по научной картине мира без занятий ИИ, что никакого И о котором принято говорить у человека то и нету, и создание полноценного ИИ и даже сложнее лишь вопрос ресурсоемкости. А интеллект по сути триллиарды условий если?Или я неправ и скорее всего изменю свое мнение почитав литературу об ИИ?
>>765486Почитай про свойства эмергентных структур для начала.
>>765494Ты на вопрос ответь, плиз, если можешь, то что я нулевый и мне много читать надо я сам понимаю.А ответ мне важен потому что я свое восприятие изучаю. Это важно для саморазвития.
>>765486"Интеллект" - это просто термин, к тому же неформализованный. Рандомная гуманитарщина, короче. Без сколько-либо строгих определений говорить об эквивалентности чего-то одного чему-то другому бессмысленно.
>>765501Ясно, спасибо большое.
>>765486Интеллекта у человека нету?Как разгадаем полностью работу мозга - так можно будет о чем-то подобном говорить.А создание ИИ - и правда вопрос ресурсоемкости, но это не триллиарды условий если.
Аноны, у нейронных сетей есть что-то вроде фоновой активности?
>>765506>Интеллекта у человека нету?Ну как мы выяснили туманное понятие. Самая суть моей точки зрения, это что нет никакого трудного и магического порога в достижении ИИ равного человеческому нет и он будет достигнут просто увеличивающейся сложностью.
>>765514На самом деле нет.А трудный и магический порог в достижении хоть немного работающей системы есть.Не то, чтобы она была равной человеческой
Порог очень простой: никто понятия не имеет, как сделать интеллект. Есть средства для решения каких-то формализованных задач, но именно самой сути они не понимают. Т.е., допустим, система может научиться подавать сигналы в правильной последовательности, ориентируясь по фреймам из видеоигры, чтобы получать награду, но при этом она бесконечно далека от понимания того, что на самом деле происходит: что это игра, что игра это модель реальности, что определенные картинки символизируют свои ИРЛ аналоги. Поэтому им нужны годы игрового времени чтобы научиться играть в какой-нибудь понг, и то он будет управлять ракеткой как пьяный эпилетик.
>>765632Обосрался ты, братюнь. Это тебе нужно несколько лет, чтобы научиться управлять пикрелейтедом как автоматика, и то будешь дергать джойстик как эпилептик, а контроллер за 1 сек прошивается. Не говоря о том, что у тебя реакция раз в 100 хуже, чем у автоматики и от атаки ты не увернешься, причем так чтобы не уебаться. То же самое с игорами, против нормального алгоритма без искусственных ограничений ни тебе ни кому другому не устоять. А "интеллект" и прочая фуфлософия это просто слова.
>>765632> Сёрл.тхт> Artificial general intelligence (AGI) is the intelligence of a (hypothetical) machine that could successfully perform any intellectual task that a human being can.
>>765648>the intelligence that could perform any intellectual taskЛюблю такие определения. Не мешало бы еще тогда определить понятие intellectual task.
>>765689intellectual task is a task that requires intelligence to solve
>>765166оказалось че ЧБ изображения не конвертирует в нумпи аррай нормально.
>>765632>но при этом она бесконечно далека от понимания того, что на самом деле происходит: что это игра, что игра это модель реальности, что определенные картинки символизируют свои ИРЛ аналоги.Нет, все зависит от обучающей выборки и того, сколько ты ей данных подаешь, если она не может анализировать остальной мир, то на что ты вообще надеешься?Полноценный искусственный человек не нужен.
Аноны, как карты Кохонена связываются с волновой моделью мозга и ассоциативной работой нейронов?
>>766340И сверточными сетями?Совсем не понимаю, в каждом слое нейронов они растаскиваются, как в картах?
>>765643>Есть средства для решения каких-то формализованных задач>>765648>никто понятия не имеет, как сделать>>765775Поноценный "человек" в машине это как раз то, что нужно, в этом и есть "порог". Программа, распознающая картинки, это просто игрушка или в лучшем случае некий инструмент, но к самому понятию интеллекта оно даже близко не стоит, потому что она не понимает, что это за картинки, зачем их нужно распознавать.Пример с понгом был просто для пояснения. Суть в том, что даже если ты подашь как обучающую выборку, скажем, несколько лет записей теннисных турниров, миллиарды часов симулированных прыгающих мячиков, или что угодно из этой области, оно все равно не научится сопоставлять это с тем, что происходит в понге. Оно не поймет в чем суть игры, что второй ракеткой управляет условный противник, что цель игры в ловле мячика, что надо отразить мяч по определенной траектории чтобы противник его не поймал. Ведь в этом суть понга, а не в том, что если пиксель 57:134 ярче 0.3, то нужно подать 0.8 на выход 3, т.к. раньше в миллионах предыдущих эпизодов такое действие приводило к большей награде в 50.02% случаев.
>>766355Бля, 30+ лет прошло, а эти дебилы всё ещё мусолят Сёрла в комнате. Съеби отсюда со своим пониманием, квалиа и рефлексией.
>>766351Ничего никуда не растаскивается. Ни в мозгу, ни в картах Кохонена. >>766340Читай про физиологические модели SOM. Что такое "волновая модель мозга" я не знаю.
>>766413Да я понял.Но мне интересно, а как тогда в мозгу, в случае ошибки, мы запоминаем то, что предыдущий опыт был неверен?
>>766494Очень маленькая награда, заставляющая избегать таких действий/состояний.
>>766496Получается, что сеть запоминает предыдущее состояние или что? Если у меня например карта организовалась, но тут оказывается, что данные прежние неверные и мне надо запомнить исключения.Чтобы было, как у человека в голове.Как мне поступить?Может запоминать ошибки отдельно в память?
В чем отличие LinearSVC() от SVC(kernel='linear')?
Короч, без видюшки кроме как научить гадать циферки и буковки вряд ли получится.
>>752098 (OP)Анон, нет, я уже второй день ищу инфу по поводу того, как гормоны воздействуют на нейроны.Нет, вот нейроны просчитывают и обрабатывают информацию, по сути - они сумматоры, а нейронная сеть просто аппроксиматорКАК НА ЭТО ДЕЙСТВУЮТ ГОРМОНЫ? Нигде не нашел подобной инфы, придерживаюсь волновой модели мозга.
>>767136>ищу инфу по поводу того, как гормоны воздействуют на нейроны.На русском языке поди ищешь? Неудивительно. Родина дала сайнсдирект http://www.sciencedirect.com/ ищещь там по ключевым словам, затем релевантные статьи пиздишь через сайхаб. Вот эту книжку еще посмотри http://gen.lib.rus.ec/book/index.php?md5=FB94D5F7C1F4A86F7C1EAAD002A711AB
>>767212Там же ПЛАТНА. Вывод: наука не для нищенок.
>>767220>Там же ПЛАТНА.Сайхаб для кого сделали?
Сап аноны, я тут кое что выяснил.Если использовать несколько SOM и попытаться "накладывать" их друг на друга, то можно получить интересный результат.Мне кажется, что сеть начинает уметь в "абстракцию".Мы продолжили обучать сеть на том, чтобы она на этот раз попробовала в управление шагоходом.И получилось, что у нее очень хорошо выходит обобщение.Сеть сама смогла понять, что от нее имеют ввиду, когда просят пойти вправо или влево, сама классифицировала и выдала нам все значения.То есть она уже работает не просто со значениями, она их классифицировала и выделила закономерности, обобщив все.И самое главное то, что она может делать то, что не смогла раньше, теперь она подбирает направление конечностей не единообразно, а ищет лучший вариант, разрабатывая стратегию самостоятельно.
>>767819Я уже не первый раз тута пишу, что многие задачи, которыми содомируют всякие модные глубокие сети и прочий градиентный бустинг, тривиально сводятся к адаптивному векторному квантованию, в частности SOM. Я тебе больше скажу - в твоем случае и карты Кохонена излишни, т.к. они нужны для проецирования многомерных данных на 2д вид. В случае шагохода это абсолютно лишняя работа, более чем достаточно было бы использование "нейронного газа" NG или его растущей разновидности GNG. И да, все эти алгоритмы можно стыковать через опорные векторы для получения глубоких сетей, такие стеки очень даже могут в абстракцию в т.ч. для динамических систем и т.п. В т.ч. и буквально, есть примеры использования карт Кохонена для анализа текстов и их классификации по семантике. Н-р WEBSOM. Растуще-иерархические карты Кохонена GHSOM для этого еще лучше. Вот эти ребята http://www.ifs.tuwien.ac.at/dm/somtoolbox/ этим занимались. У них же есть примеры классификации музыки по жанрам и рекомендации музыки, похожей на понравившуюся с помощью SOM.
>>767834Да это вообще новая информация для меня оказалась.В частности то, что сеть учится выбирать стратегии, если раньше она видела только поля значений и логику в виде взаимодействий, то теперь она все это классифицировала и использует как абстрактное понятие.Если раньше был манипулятор с 4 степенями свободы, который умел двигаться по кругу и хватать предметы, то теперь он научится делать это с разворота и двигать конечность нестандартно.А вот GHSOM - очень интересная сеть, надо посмотреть.
Анончики, есть ли у кого-нибудь сей опус в пдф?https://www.crcpress.com/Music-Data-Mining/Li-Ogihara-Tzanetakis/p/book/9781439835524
>>767851Если тi хочеш уяснить как поет Мiку Хатсуне, тобi сюда:http://www.dmoz.org/Arts/Music/Theory/Tuning_Systems/Microtonal/
Аноны, а может ли нейронная сеть сомневаться?Или она настолько прочно завязана с математикой, что у нее сомнений не возникает?мимопроходил
>>767846>А вот GHSOM - очень интересная сеть, надо посмотреть. http://www.ifs.tuwien.ac.at/~andi/ghsom/publications.html Тут статьи по GHSOM. В этом алгоритме самое интересное то, что он не затрагивает самой SOM, а реализован как бы поверх нее и работает за счет манипуляций с ошибкой квантования. Т.е. при желании нечто похожее можно прикрутить к любому алгоритму векторного квантования, технических проблем нет. Если бы я не был хуем, не могущем в серьезное программирование, обязательно занялся бы этой темой, благо идей хватает. >>767879>может ли нейронная сеть сомневаться?Может. Считай вероятность классификации нейросетью обратно пропорциональной сомнению. То же с нечеткостью для нечетких моделей. В конце-концов человеческое сомнение возможно только там где есть неточность. А неточность это либо вероятность, либо нечеткость события и т.д.
Аноны, а может ли нейронная сеть влюбляться?Или она настолько прочно завязана с математикой, что у нее любви не возникает?мимопроходил
>>767819>>767846Ух ты, получается, что твоя сеть может искать скрытый смысл?Интересно, а какая-нибудь из сетей умеет фантазировать, чтобы как человек?
>>767945Аноны, а могут ли люди влюбляться?Или они настолько прочно завязаны с химией, что у них любви не возникает?
А можно ли нейросеть научить играть в карты? В дурака, скажем?Насколько я понимаю, для этой задачи нужна обратная связь, чтобы сеть могла планировать свои ходы, но как такую обучать - не представляю.
Пора заводить отдельный тред для "может ли нейросеть в X"?
>>767991в шахматы же играет.
>>767994Какие сети там используются? Какая у неё структура?У меня довольно поверхностные знания в этой области, поэтому слабо представляю, как с помощью сетей решать более сложные задачи, чем распознавание циферок на поле 8x4.
>>767991>А можно ли нейросеть научить играть в карты? В дурака, скажем?Легко, в шахматы может.В Го может.
>>767999Обычный перцептрон даже сможет.Задача из теории вероятностей, не более, ходов не так уж и много.
>>767992С одним семеном-хейтером нейросетей на самоподдуве? >>767991Забудьте вы слово "нейросеть" вообще, это просто аппроксиматор функций. Если задачу можно представить в виде переменных с какой-либо (даже априорно неизвестной) взаимосвязью между ними, значит нейросеть в это может.
>>768003> С одним семеном-хейтером нейросетей на самоподдуве? Тут же ещё нечёткопетух есть.
>>768005Ты кого петухом назвал, сука?
>>768001На каждый ход по слою предлагаешь что ли?
>>768013Нет, погугли, как учат в шахматы играть.А я пока набью ебало тому петуху, который не любит нечеткую логику
>>768014>нечоткая логикаслыш
Есть какие-то ML-стажировки? Кроме Яндекса: там вообще god tier, меня туда не возьмут.
Посоны, а автоэнкодер сети подскажет где именно сеть увидела циферку?
>>768123>автоэнкодер это когда пропустили сигнал через сеть, а потом хуяк и пропустили в обратном направлении с тем же сигналом и весами который был на выходе.
Ауууу. Тут есть кто-то?
Отдыхайте ребята.5 лет в ДМ, статьи, публикации, магистратура. Не сказать, что пиздец продуман, но не новичок.Работы нет, сижу во всяких шарашках делаю хуй пойми что.Думаю зря я этим занялся. На каггле пиздец, лютые типы через час после начала грузят под максимум - ловить нехуй.В яндексе и в мейле уже сидят люди. Биоинформатика в России это пиздец уровня мытья толчков по выходным.Так что не идите сюда, в натуре пацаны, я не шучу, если не хотите жестко проебаться.
кто-то пробовал смоделировать коннекты мухи и для нее виртуальный мир?
>>768255ты с грибами завязывай, а то реально заберут ведь
>>768123Сам не подскажет, нужно свистопердюли поверх строить вроде.
>>768255блять, это вопрос уровня детсадовца. не думаю, что даже у школьника хватило тупости такое спросить.
>>768274В начале января модераторы онлайн-игры EyeWire, посвященной картографированию сетчатки человека с обозначением всех находящихся там нейронов и связей между ними (синапсов) силами добровольцев со всего мира, с гордостью заявили о завершении обследования 250-го нейрона. Учитывая, что таких нейронов в сетчатке больше миллиона, это достижение трудно назвать гигантским прорывом — скорее один из первых шажков по дороге «в тысячу ли». Дороге, которая должна привести нас к раскрытию тайн нашего мозга. И кто знает — может быть, даже к цифровому бессмертию.
>>768276Тогда будущий Нобелевский лауреат 2002 года Сидней Бреннер (Sidney Brenner), южно-африканский биолог, предположил, что поведение живого организма можно понять, составив полную карту его нервной системы. Он взялся за простейшую нервную систему круглого червя Caenorhabditis elegans (всего 302 нейрона, распределенных по всему телу), и, изучая один за другим его тонкие срезы, создал за два десятилетия полную нейронную карту. В 1986 году она была опубликована в Philosophical Transactions of the Royal Society of London, почтенном научном журнале, основанном еще Исааком Ньютоном. Номер вышел объемным, в 340 страниц, и с тех пор многие биологи называют его Книгой, причем не столько из-за фолиантной толщины, сколько из-за информации, которая там содержится, и сегодня, спустя почти три десятилетия, остается для исследователей сборником вопросов без ответа.Пиздос 304 нейрона управляют червем. Как же такое на кампутерах не повторить-то?
>>768014Довольно хуево гуглится. Везде сплошной научпоп о невероятном прорыве нейросетей с весьма поверхностным обзором. Исходники ёбаные 30к крестодрисни не слишком хочется читать.Может, сам на пальцах пояснишь, какую архитектуру сети он там использует или какую ты бы использовал?
>>768305https://gogameguru.com/i/2016/03/deepmind-mastering-go.pdfhttps://www.cs.toronto.edu/~vmnih/docs/dqn.pdf
>>768286https://ru.wikipedia.org/wiki/OpenWorm
>>768311https://www.youtube.com/watch?v=J_wG5PfDIoU
Сап, аноны. Ищу человека, который мне пояснит по scikit learn. Есть готовая база текстов (слова нормализованны, стоп-слова убраны). Мне нужно, чтобы мне помогли обучить модель, я не понимаю что и в каком виде передается в функции библиотеки. Готов оплатить.Почта randommail1@bk.ru
Аноны, а вот теперь я возвращаюсь к задачам классифицирования.Да, я использовал две сети SOM для того, чтобы сеть могла абстрагировать данные, это вполне подобно тому, как человек это делает.Но что получается, когда нам нужно классифицировать больше признаков и их количество нам неизвестно?Также интересна еще следующая вещь, в мозгу человека многие отделы мозга общаются с друг-другом только для того, чтобы узнать о происходящем и на основе своей "логики" что-либо предпринять.Нам требуется нечто подобное, дабы каждая конечность могла обучаться в процессе более эффективнее, чем сейчас.Кстати, внезапно, но обнаружил, что игровые движки с физикой Rigdoll вполне могут что-нибудь классное симулировать.
>>768472> я возвращаюсь к задачам классифицирования.таак..> ... НЕЙРОНОЧКИ ИИ НЕЙРОНОЧКИ КОКОКпонятно
>>768472>что получается, когда нам нужно классифицировать больше признаков и их количество нам неизвестно?Я ж говорю - любое unsupervised адаптивное векторное квантование (NG/GNG). SOM это несколько не то что нужно в данном случае, оно для визуализации и визуального анализа данных. В случае надобности все это легко визуализируется, например проекцией Сэммона, для наглядности можно даже мозаику Вороного прикрутить.
>>768311>These early attempts of simulation have been criticized for not being biologically realistic. Although we have the complete structural connectome, we do not know the synaptic weights at each of the known synapses. We do not even know whether the synapses are inhibitory or excitatory. To compensate for this the Hiroshima group used machine learning to find some weights of the synapses which would generate the desired behaviour. It is therefore no surprise that the model displayed the behaviour, and it may not represent true understanding of the system.
>>768244Трактор. Алсо что такое ДМ?
>>768739Очевидный дата майнинг.
>>752098 (OP)Вот я дурааааак. Оказывается слой свертки - просто максимум из 4-ех значений(если 22), а я думал настраиваемые веса 22 и настраивал их.
>>768987>максимум из 4-ех значенийМаксимум - это max pooling. Свертка - это умножение значений исходных пикселей на значение ядра свертки.
>>769263Да, имелось ввиду объединение. Это единственное место где нет весов.
>>769263И да, картинка неправильная, -8 должна быть в самом левом верхнем углу.
>>768507Что тебе понятно?
>>768628Да нет, SOM - это конкретно то, что нужно в данном случае.А векторное квантование и тут и там присутствует.Да и гугл что-то отказывает гуглить NG сети.
>>752098 (OP)Аноны, хочу вкурить, что такое персептронРекуррентные сети и этот ваш SOMУже завтра начну повторять Питона.А что по сетям почитать? Не на английском, я то перевести смогу, но хуево.
>>770400> Не на английскомNo way
>>770508Да блджад, я другим языком занят, нет у меня времени на английский.
>>770509Немецкий, французский? Только не говори, что это пиздон.
>>770511Японский, лол.
Черт, сейчас уже не до кода, но что будет, если рекуррентную сеть динамически расширять? У меня, допустим, есть потребность в динамической памяти, которую нужно по разному обрабатывать и сохранять, причем, эта информация всегда остается актуальной.
Хочу начать заниматься биоинформатикой, какой курс лучше подойдет с курсэры и прочих вещей, какие еще критерии надо изучать?
>>770524причем тут машинное обучение?
>>770525http://goo.gl/zpydkN>>770524впаше/bioinf
>>770525Ну, если смоделировать нервную систему, то самое прямое.
>>770581а если упростить с несущественными потерями, то мы получим искусственную нейросеть с полезной структурой, которую можно было бы применить где-либо.
>>770583Нейронную сеть и так можно применять где-либо, а по сути - везде.Но суть далеко не в этом.Суть в том, что приходится пилить ОЧЕНЬ МНОГО КОСТЫЛЕЙ.Знаете, что пришло в голову в нашем универе у людей? А давайте обучим сеть чистой мат логике и на основе иерархической структуры будем анализировать вообще все.То-есть хотят взять числа и прочие показатели как константу, связать их с методами и обрабатывать.Это пиздецкие костыли, а ведь я просто предлагал использовать классификацию для того, чтобы получать новые методы..
>>770219>гугл что-то отказывает гуглить NG сети. Neural Gas / Growing Neural Gas.>>771132А с чего ты вообще взял, что различные (адекватные решаемой задаче) представления данных это костыли? Чтобы решить какую-то задачу каким-то аогоритмом, ее нужно представить в виде, адекватном для алгоритма, это норма. В чем костыльность-то?
>>771132Это представьте, что если бы вы для решения примера вспоминали бы всю математику заново и вспоминали бы все свои ранее решенные примеры ради чего-нибудь простого.Нет, с 2 + 2 это еще легко, но на практике понадобится пиздецкая мощность для 50 параллельных расчетов одновременно.Правда такая сеть может считать вообще все, что угодно, подходит для решения любой задачи, где есть набор переменных и надо найти взаимосвязи
>>771151И чем сложнее задача и больше переменных, тем больше придется просчитывать, в некоторы случаях нужно около 10000 вычислений одновременно.Ну, можно еще сократить вычисления до 100, но тогда обучение будет очень медленным и ответа придется ждать долго.
>>771151>>771157Я так и не понял, в чем проблема. Долго? Так новомодные сверточные сети на многопроцессорных теслах по месяцу сходятся, и всем норм.
>>771173Я бугурчу от отсутствия иерархичности и рационального подхода, все тупо сваливают в одну кучу, пишут говнокод
Аноын, я почти все понял, но не понял, что такое весысинапсы нейронной сети, объясните мне, что это и зачем оно нужно?Или где почитать в целом об работе одного, конкретного, отдельного нейрона
>>771182Коэффициенты линейной функции ax+b, где x - вход, a - "синаптический" вес, b - порог. >где почитать в целом об работе одного, конкретного, отдельного нейрона Да где угодно, на каждом углу жи расписано.
>>771199А что делает конкретно, один нейрон в сети?Тупо складывает поступающие на него значения или что?И чему равен этот синаптический вес?
>>771202>что делает конкретно, один нейрон в сети?Если речь о перцептроне, то вычисляет суперпозицию частной функции от одного аргумента в общей функции от многих аргументов. Горбаня читни http://www.pereplet.ru/nauka/Soros/pdf/9812_105.pdf http://kpfu.ru/portal/docs/F1732864826/02_5.PDF у него годно расписано что и зачем. В общем случае - постарайся понять что такое линейная функция, в той же педивикии есть. Как она соотносится с "нейроном" - я написал. Для чего нужна функция активации нейрона (обычно нелинейная, н-р сигмоид) на пальцах объяснить уже сложнее, там суть в том, чтобы деформировать входы так, чтобы они оказались линейно-разделимыми для линейных функций первой части "нейрона". Общая же суть происходящего - аппроксимация зависимости выходов от входов.
>>771202>>771211Этот прав, тебе в матан надо.Сначала пойми что такое функция вообщеПотом, все про линейные функции.Пойми про суперпозицию функции.И это будет только началом, но не согласен с тем аноном по части матана, не нужно его столько, вон, есть статьи попроще на хабреhttps://geektimes.ru/post/84125/https://habrahabr.ru/post/143129/
>>771177Да и вообще, представлять все в виде сети Джордана и пытаться применить к банкам памяти метод векторного квантования - малясь долбоебизм.
>>771233Это разные алгоритмы, от слова совсем разные. Гугли каждый.
>>771243>как выбрать нужный алгоритм, исходя из данных? Тут два варианта:- читаешь про каждый алгоритм, понимаешь его логику (что, как и с какой целью он делает), думаешь что лучше подойдет для решения конкретной задачи, анализа конкретных данных.- хуяришь все подряд, прямо по списку, смотришь с каким алгоритмом самый лучший результат (при классификации - наименьшее количество неправильно классифицированных примеров из тестовой выборки).
>>771214Спасибо, так матан совсем легкий.Получается, что посылаются векторы, адаптивный сумматор их считает посылает на нелинейный преобразователь сигнала и тот преобразует в число, потом этот сигнал перераспределяется на выходе.Это пока просто.
>>771249Но тут в дело входит просто охуительное объяснение, спасибо блядь, что из этого понятно вообще?>Линейная связь – синапс отдельно от сумматоров не встречается, однако для некоторых рассуждений ывает удобно выделить этот элемент. Он умножает входной сигнал x на “вес синапса” α.
>>771252Как, зачем и нахуя задавать этот вес синапса? По какой логике и чему он должен быть равен?
>>771249>потом этот сигнал перераспределяется на выходе.На выходе полученное значение сравнивается с реальным, разница (ошибка) используется для настройки свободных параметров сети (тех же коэффициентов линейных функций).>>771252Очевидно же, речь о параметрах линейной функции. >По какой логике и чему он должен быть равен? Тебе жи говорят - читай про линейную функцию. В линейной функции ax+b параметр а - это тангенс угла между линейной функцией и положительным направлением координатной оси. Т.е. входное значение х умножается на значение этого тангенса.
>>771255А все, кажись понял, для чего оно нужно, для того, чтобы входной сигнал корректировать в согласии с результатом обучения?Только я еще не понял, сигнал поступает в векторном виде, переводится в скалярный, а потом опять в векторный? В каких местах идут эти переводы?
>>771259И вот этот момент странный>Для полносвязной сети входной сумматор ней-рона фактически распадается на два: первый вычисляет линейную функцию от входных сигналов сети, второй – линейную функцию от выходных cигналов других нейронов, полученных на предыдущем шаге.Такс, Два сумматораПервый вычисляет результат от входа, второй от других нейронов.А что дальше с этими результатами происходит?
>>771259А все понял, сначала берется вектор, подается в сумматорУ которого есть переменная AТот берет и складывает в скалярном видеПосылает на Нелинейный преобразователь, тот переводит в векторный видИ все это рассылается?А от чего сначала зависит параметр A? Чему он равен?Обучение - это и есть настройка этого параметра A?
>>771267>>771264Неужели наши мозги также работают, серьезно?Вот эта вот хуйня, простая как дверь?
>>771267Аноны, а объясните, зачем нейрон делает вот это вот?>Нейрон получает на входе вектор сигналов x, вычисляет его скалярное произведение на вектор весов α и некоторую функцию одного переменного ϕ(x, α).Я опять ничего не понял, что делает адаптивный сумматор.Сначала думал, что он берет и находит произведение входящих в него векторов в скалярном виде.А теперь - это что еще за нахуй? Ну объясните, пожалуйста, я совсем нихуя не понимаю.
А есть ли какие актуальные средства разработки не на прыщах? Чтобы сразу можно было взять нейросеточку закомпилить, обучить, пощупать? А не проливать реки слёз, обламываясь с установкой куды на виртуалку убунты.
Аноны, а значение синаптических весов всегда лежит в диапазоне от 1 до -1Или это может быть любое число вообще?
Как будет обучаться сеть, если у меня есть несколько параметров, например 3И я провожу обучающую выборку, показывая взаимосвязь правильную.А потом я даю сети задачу на нахождение взаимосвязи уже с другими значениями.Как это все осуществляется, аноны?
>>752098 (OP)Аноны, нейронные сети же работают только с -1,0,1А как они работают с цифровыми данными?
У Лекуна есть демки где он с шумами показывает распознавание. Это он их с шумами обучал?
>>770400Ну хотя бы хайкина для ознакомления с темой вообще.
>>771347matlab
Анончики есть ли способ проверить на адекватность обучающую и тестовую выбоки?
НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ НЕЙРОНОЧКИ
>>771712Хули ты тут забыл?
Аноны, посмотрел вступительные экзамены для поступления в ШАД, и понял, что там всё достаточно серьезно в плане требований к математике.В связи с этим вопрос: какая математическая подготовка должна быть для нормального восприятия ML, то есть не на уровне "магии"? В ШАД адекватно оценивают сложность темы или всё-таки перестраховываются, дабы оградить менее одарённых товарищей даже от мыслей о поступлении?Еще лучше будет конкретнее - какие книги по теме стоит переработать перед изучением сабжа?
>>771725Ты не поступишь.
>>771725> В связи с этим вопрос: какая математическая подготовка должна быть для нормального восприятия ML, то есть не на уровне "магии"?Хз.> посмотрел вступительные экзамены для поступления в ШАД, и понял, что там всё достаточно серьезно в плане требований к математикеНет. Нужно тупо дрочить примерчики из Демидовича. Теорию множеств знать не надо, топологию знать не надо, теорию меры знать не надо. То, что там требуют - это вообще не математика.
Аноны, я все вкурил в нейронных сетях и персептронах многослойных. Не надо уж так много матана для этого знать. А что посоветуете почитать для того, чтобы понять по части матана и всяким приемчикам?Пожалуйста не на английском и чтобы не много матана было
Аноны, а вы помните статью того чувака на хабре про волновую, паттерновую модель?Волновую модель в топку, а вот распространение всего с помощью паттернов - это фишка.Представьте, что у вас есть револьвер.И револьвер - это рекуррентная сеть с открытой памятью.И при каждой операции у других сетей мы берем и навешиваем им некоторый символ, по которому мы сможем их отличать.И так вот, если обучить сеть чему-нибудь, закодировать все операции в виде паттернов, дальше, методом векторного квантования мы классифицируем результаты и получаем приоритеты в тех или иных вещах.Теперь, когда на сеть подаются данные - она ищет соответствия в паттернах, и загружает информацию в слой рекуррентной сети.Получается, что это работает, как револьвер.И главное - вычисления можно проводить в несколько потоках, то есть как у человека, который выполняет несколько привычных действий.Эх, еще бы примотать к этому надклассификацию, чтобы сеть могла выискивать новые значения функции, исходя из старых И в том числе поиск закономерностей
>>772006Долбоёб, бля.Дебилы, бля.АНОНЧИКИ, ПОСОВЕТУЙТЕ КНИЖКУ ПО ДИП ЛЕАРНИНГУ, ТОЛЬКО НА РУССКОМ БЕЗ МЕТЕМАТИКИ, РЕГИСТРАЦИИ, СМС И КРОСС-ВАЛИДЕЙШЕН. АНОНЧИКИ, А МОЖЕТ ЛИ СЕТОЧКА НАУЧИТЬСЯ ГЛУБОКОМУ БЛОУДЖОБУ? НО ВЕДЬ ЛЮДИ ТАК НЕ ОТЛИЧАЮТСЯ, СЁРЛ, СЁРЛ, СЁРЛ.КАК ПОСТУПИТЬ В ШАД, ЕСЛИ У МЕНЯ ДЕВЯТЬ КЛАССОВ ОБРАЗОВАНИЯ В ШКОЛЕ ДЛЯ ДЕБИЛОВ?Либо вы очень унылая зелень, умрите[/spoiler[
>>772014Ещё и с разметкой обосрался.Академика на вас нет, пидоры.
>>772012Правда производить надклассификацию еще очень тяжело.Но с простыми мат.функциями сеть работает отлично, она быстро научилась всем правилам.>>772006>Хочу разобраться в матане без матана>Без английского.Что ты тогда тут вообще забыл? Иди английский учи, тебе либо нормальное объяснение на энглише, либо статьи русских маразматиков.>>772014Ой, да не агрись ты так, побесится и уйдет
а вы можете в этих учебниках перевести все матановые алгебраичные формулы в код? ну непонятно же.мы же программисты, а не математики.
>>772018Да хули там непонятного, блядьТебе математическая сумма непонятна?Или линейная функция?Или операция умножения двух чисел тебе непонятна, блядь?Ты не программист - ты говно.
>>772017>>772014Анон, ну объясни хотя-бы как сеть работает с цифровыми данными.Есть ли где-нибудь пример калькулятора на нейронной сети или вроде того?
>>772019вот это, например.
НЕПОНЯТНА
показательная функция, вес, дробь.Что тебе непонятно?
>>772030>>772026
>>771259>для того, чтобы входной сигнал корректировать в согласии с результатом обучения?Нет. Входной сигнал - это константа, корректировать можно свободные параметры сети.
>>771357>значение синаптических весов всегда лежит в диапазоне от 1 до -1Это значение нелинейной функции активации "нейрона". Параметры линейной функции не обязаны быть от -1 до 1.
>>771144Охуеннейший алгоритм, анон, спасибо.Как нельзя лучше подходит для векторного квантования данных.Кстати, название на русском "Нейронный газ", блядь.Интересно, как это визуализировать? Какая-нибудь мозаика Вороного явно подойдет.
>>772043То-есть вполне допустимо работать с числами любых размеров?И я вполне могу обучить нейронную сеть, что 15+5 = 1, она сама подберет синаптические веса, верно?
>>772046>я вполне могу обучить нейронную сеть, что 15+5 = 1, она сама подберет синаптические веса, верно? Да.
Многое зависит от датасета, если там будет хуйня уровня "15+5 = 1", это не проблема нейросети.
>>772045Подожди, это растущая сеть.А что в ней случится, если я укажу, что она ошиблась?Победители тупо перерастянутся?
>>772052NG/GNG нельзя указать на ошибку, это алгоритмы обучения без учителя. Они воспринимают только ошибку квантования на текущем датасете. Есть векторное квантование с учителем, там можно задавать правильные выходы.
>>772053А, в глаза ебусь.Кстати, забавно оно работает.https://www.youtube.com/watch?v=L4hYvMXoO0c
>>772053>>772059>>772052>>772045>>771144Аноны, а зачем это нужно? Это типа, чтобы классифицировать что-то? А как эти растянутые нейроны означают группу? Это типа как у гугла, где от главного запроса можно получить связанные с ним?
>>772059Это апплет от самого автора GNG http://www.demogng.de/ http://sund.de/netze/applets/gng/full/GNG-U_0.html растущий нейронный газ в базовом варианте для практических целей бесполезен, т.к. при большой размерности датасета и большом количестве узлов объем вычислений настолько конский, что любой комплюктер встает раком. Смысл есть использовать только оптимизированные варианты, н-р http://r.gmum.net/ пшеки для R делали.>>772076Для любой задачи, сводимой к векторному квантованию. Не только классификация.
>>772026Кстати, да, всегда бесило, что некоторые пишут только мат формулы без объяснения как это программить. Ладно там только сумма или еще че простое, но если та интегралы и вся хуйня математическая, которую хуй пойми как запрограммировать.
>>772028Где ты такие ебанутые объяснения берешь?
>>772082Интеграл - это и есть сумма, только для непрерывной а не дискретной величины.
>>772082ХУЛИ СЛОЖНОГО В ИНТЕГРАЛАХ, БЛЯДЬ?ВОЗЬМИ ЕГО ЗНАЧЕНИЕ ИЗ ТАБЛИЦЫ, БЛЯДЬ И НАЙДИ ИНТЕГРАЛ, НИЧЕГО ЛЕГЧЕ БЫТЬ НЕ МОЖЕТ.Кто в треде сидит, девятиклассники?
>>772084Это ясен хуй. Самый простое объяснение: это умножаешь с этим, получаешь то-то - это эквивалент записи такой-то, схем побольше и т.д.
>>772085А ты уверен, что именно тот интеграл из таблицы надо брать, а не вычислять численными методами, где об этом могут нигде не сказать.
>>772080У него возможностей побольше, чем у обычной SOM, архитектура не задана сразу и при небольшом кол-ве данных оно очень полезно.А такой подход в Som - даже для меня новизна.Это же можно брать классы и паттерны из операций и грузить их в банки памяти рекуррентной сети сразу же.Только надо еще посмотреть, как она с логическими операциями справляется и как на нее можно влиять, все-таки такое обучение без учителя может оказаться и правда бесполезным.Или еще 50 методов сколхозить Som с другими сетями
>>772091Обычно - да.Если какой-то слишком сложный, то всегда есть калькулятор.
>>772099>А такой подход в Som - даже для меня новизна.Есть жи растущие варианты SOM и даже растуще-иерархические - GSOM, GHSOM http://www.ifs.tuwien.ac.at/dm/somtoolbox/index.html к слову тоже основаны на работах этого Фрицке. Всё адаптивное векторное квантование сходно в своей сути, карты Кохонена не исключение, там тоже большие возможности для всяких маневров с ростом, иерархией, стыкованием и т.д. SOM к слову, есть и с учителем - XYF/BDK/Supersom https://cran.r-project.org/web/packages/kohonen/index.html https://www.jstatsoft.org/article/view/v021i05/v21i05.pdf
>>772119Ну, их "рост" - это тоже до предела значений, потом все более-менее организовывается.Хотя можно и их наебнуть.Но на больших данных - это ебнешься такие расчеты производить, я и так сервак держу под нужды вычислений
>>772026Если ты не можешь перевести это в код, то ты не знаешь ни матетики, ни программирования.
Поясните за ELM, это убийца ANN или просто еще один алгоритм, типа RBF-сетей, который вскоре канет в лету?
>>772179Че это такое хоть?
>>772181extreme learning machines
Какие годные книги есть по text mining, текстовая обработка данных и тому подобному?
>>772179>Поясните за ELM,Ну хуй знает, создатель сверточных сетей ЛеКун эту идею обоссал, грит, во-первых еще Розенблатт такое предлагал, во-вторых, плохо сделано, тупо:Yann LeCun's thoughts about ELMs: What's so great about "Extreme Learning Machines"? There is an interesting sociological phenomenon taking place in some corners of machine learning right now. A small research community, largely centered in China, has rallied around the concept of "Extreme Learning Machines". Frankly, I don't understand what's so great about ELM. Would someone please care to explain? An ELM is basically a 2-layer neural net in which the first layer is fixed and random, and the second layer is trained. There is a number of issues with this idea. First, the name: an ELM is exactly what Minsky & Papert call a Gamba Perceptron (a Perceptron whose first layer is a bunch of linear threshold units). The original 1958 Rosenblatt perceptron was an ELM in that the first layer was randomly connected. Second, the method: connecting the first layer randomly is just about the stupidest thing you could do. People have spent the almost 60 years since the Perceptron to come up with better schemes to non-linearly expand the dimension of an input vector so as to make the data more separable (many of which are documented in the 1974 edition of Duda & Hart). Let's just list a few: using families of basis functions such as polynomials, using "kernel methods" in which the basis functions (aka neurons) are centered on the training samples, using clustering or GMM to place the centers of the basis functions where the data is (something we used to call RBF networks), and using gradient descent to optimize the position of the basis functions (aka a 2-layer neural net trained with backprop). Setting the layer-one weights randomly (if you do it in an appropriate way) can possibly be effective if the function you are trying to learn is very simple, and the amount of labelled data is small. The advantages are similar to that of an SVM (though to a lesser extent): the number of parameters that need to be trained supervised is small (since the first layer is fixed) and easily regularized (since they constitute a linear classifier). But then, why not use an SVM or an RBF net in the first place? There may be a very narrow area of simple classification problems with small datasets where this kind of 2-layer net with random first layer may perform OK. But you will never see them beat records on complex tasks, such as ImageNet or speech recognition.
>>772201> лекунэто жолтая женщинапатриархия обосралась вместе с росистами
а нет, это я обосрался и перепутал персонажейидите нахуй?
>>772226>>772230Наркоман, уходи
>>772201А как же результаты экспериментов на различных дата сетах, которые показывают, что ELM, по точности классификации сравнима с MLP и deep boltsman networks?
>>772234>ELM, по точности классификации сравнима с MLPЭто местами и есть MLP: The original 1958 Rosenblatt perceptron was an ELM in that the first layer was randomly connected.
И да, тот жи ЛеКун где-то писал, что все что может сверточная сеть, может и MLP, только свободных параметров будет в разы больше, соотв-но и вычислительных ресурсов нужно намного больше.
>>772238Там BP нету
>>772255И что? BP необязательный аттрибут MLP. Веса настраивать можно как угодно, хоть генетическим алгоритмом, не только обратным распространением.
>>772014Четко пояснил.
>>772205Что-бы детектировать тнн-пастуНадо взять пасту на анализ, выделить ключевые слова, количество оскорбленийИ из подобной статистики машина поймет, что это тнн-паста, на самом деле все куда сложнее и легче самому читать, чем это дело программировать.
а может ли НЕЙРОНОЧКА Х, где Х = генерирование тнн паст?
>>772296Может
>>772298а если X = предсказать понравлюсь ли я тянке?
>>772301Может
>>772303а Х = ответить может ли НЕЙРОНОЧКА Yгде Y задаётся отдельно?
>>772307Хочешь, чтобы нейронная сеть сама спрашивала и отвечала на вопрос, может она то или иное X?
>>772313нет, я хочу автоматизировать отвечание на вопрос "может ли НЯРОНОЧКА Х"она должна только отвечатьспрашивать её будет здешний контингент
Намного интереснее - это идея сделать все механическим.Может можно какую сеть в таком виде захуярить?Ведь по сути в персептроне есть синапсы - ну, это просто операция умножения, блок суммирования - операция сложения и дальше просто взять и развести сигнал на встречу другим синапсам.Надеюсь, я ничего не упустил? Механические калькуляторы уже были, если шестерни сделать очень маленькими, то оно и займет очень малые размеры.Можно сделать что-нибудь, что будет самостоятельно калиброваться, например, или подстраиваться под какие-то условия.Если бы она научилась считывать информацию с пленки механического фотика - то можно было бы вообще без электроники обходиться.
>>772318А она вполне может, правда тебе придется крутить много барабанчиков с пленкой, можно кадр на пиксели разбить даже.То-есть научиться распознавать цифры какие-нибудь она и так может.А вот вам и корм для каких-нибудь шизанутых.
>>772318Как сделаешь настройку синаптических весов?Все, конечно, можно реализовать через математическую функцию, но есть же ПК, нахуй оно надо?
>>772335Также, как это делает и нейронная сеть.Хм, что-ли взять такое аутирование себе и построить какой-нибудь дирижабль на механике или подобное чудо и сказать, что он разумный?Мне же все любители стимпанка и прочей хуйни поклоняться станут.Это же несколько простых операций - сначала обучить нормальную нейронную сеть, а потом перевести в механику.Если ты прав насчет того, что через механический фотик можно сделать распознавание образов - так это же замечательно.Представь, что можно научить дирижабль стрелять в один тип объекта.Типа "видит" объект и стреляет в него.Да это же будет первый механический, беспилотный бот с нейронной сетью.Итого: сеть для управления дирижаблем и его двигателем, сеть для навигации, определение ветра и погоды, счет образа, баллистическая сеть для пушки.Бля, ушел делать
>>772022Как, как? Там, бля, на выходе сети всё что угодно может быть. То, что на выходе могут быть числа в диапазоне от -1 до 1, не является никаким препятствием для обработки цифровых данных.
>>772082>>772082MCMC, стохастические аппроксимации. Обычно об этом упоминают.
>>772313Лол, intrinsically motivated rl.
Аноны, понял насчет перцептронаПонял насчет многослойных сетейПонял насчет обратного распространения ошибкиМне уже можно изучать питон и брать библиотеку PyBrain? Она вообще нормальная?
>>772693Брать NumPy и изобретать велосипеды. На мой взгляд, иного пути нет.
>>772698Но ведь NumPy - не нейронные сети, а массивы.
>>772700Тебе хватит на первое время для реализации своих mlp, автоэнкодеров, RBM и свёрточных нейронок.
>>772701Но у меня же будут велосипеды всякие, а в функции по части матана я все равно вкурил плохо, у меня с логикой намного лучше.Или идти перекуривать? А, может ты и прав.
>>772708Полезно научиться собирать велосипеды.
>>772715Черт, не так я себе представлял создание нейронной сети.Но ладно, главное ведь результат.Пока единственное что вижу - это статья про 11 строк кода
>>770525Потому что блядь в заголове мелькает CS сука слепая
>>772717СТОППодожди, то-есть, если написать что-то типа вот этого:X = np.array([ [0,0,1],[0,1,1],[1,0,1],[1,1,1] ])y = np.array([[0,1,1,0]]).Tsyn0 = 2np.random.random((3,4)) - 1syn1 = 2np.random.random((4,1)) - 1for j in xrange(60000): l1 = 1/(1+np.exp(-(np.dot(X,syn0)))) l2 = 1/(1+np.exp(-(np.dot(l1,syn1)))) l2_delta = (y - l2)(l2(1-l2)) l1_delta = l2_delta.dot(syn1.T) (l1 (1-l1)) syn1 += l1.T.dot(l2_delta) syn0 += X.T.dot(l1_delta)То это и есть нейронная сеть? Блядь, а я ждал чего-то особого.Вон, там выше в треде чувак про шагоходы рассказывал.
>>772728НЕЙРОНОЧКА - массив
>>772838Ее и писать вот так вот?В виде массива?
>>772728> а я ждал чего-то особого.Например?
>>773014Ну не знаю, хотя бы не писать каждый нейрон отдельно.Но ладно, раз так надо, то буду.А всегда надо представлять нейрон в виде простого массива?
>>773018можешь представить его в виде монады - одно и то же ведь"веса" (параметры) разумеется представляются в виде распределиния вероятности, распределение считаешь по теореме бейсадля НЕЙРОНОЧЕК оно не будет задано аналитически - придётся аппроксимироватьсоветую найти пару-сотен максимумов апостеирорного распределения. хороший численный метод - метод нютонатвоя реализация бекпропа должна уметь считать как градиенты, так и гессианыиспользуя гессианы на максимумах делаеш лаплас аппроксимейшенытеперь из получившийся комбинации гауссовых распределений делаеш сэмплинг (никакого мсмс)сэмплаешь каких 50-100 массивов параметров, вычеслешь значение НЕЙРОНОЧЕК с этими параметрами и берёшь среднее
>>773073Итого, мне надо знать:Python, библиотеку numpyтеорему байесаЧто такое аппроксимацияАпостериорное распределениеМетод Ньютонаградиенты, гессианыГАУССОВЫ РАСПРЕДЕЛЕНИЯ, БЛЯДЬ? ЭТО ЖЕ ВЫШ МАТАН.
>>773073Вореции - сила, Лаплас - могила.Ты, кстати, неявно подсказал мне, как решить мою проблему, ACOC должен подойти, спасибо.
>>773076Сука, да что тут за монстры сидят? Чтобы реализовать простую, значит, нейронную сеть - надо лезть в Гауссовы распределения, метод ньютона.Ну охуеть теперь, я в депрессии.
>>773076Нахуя? Есть книжка про алгоритмы ML на пистоне http://gen.lib.rus.ec/book/index.php?md5=A5205BD61ADDC523C7FBFE1D7EB0B3C6 читаешь, пробуешь, что непонятно - гуглишь, разбираешься. Ты не с той стороны в тему заходишь.
>>773113Спасибо.Только придется ее полностью переводить, хотя оно и не важно, главное, что код понятен.После этой книги я смогу писать простые персептроны, Som, да?
>>773115>придется ее полностью переводить,Зачем? Там английский уровня школы.>После этой книги я смогу писать простые персептроны, Som, да? Ну да, там все это разбирается на примерах. Весь код к книге тута http://stephenmonika.net/MLbook.html
>>773120А знания Питона на уровне книги "Укус Питона" мне хватит?
>>773120харош его кормитьперекат делай
>>773123Я не зеленый.
>>773123>перекат делай Лол, я не оп.>>773122Хз, я больше по R угораю, хотя у местных школьников он не в моде. Касаемо нейроночек и т.п. там даже без доп. пакетов, чисто стандартными средствами ограниченную машину Больцмана делали в несколько строк кода http://www.r-bloggers.com/restricted-boltzmann-machines-in-r/
>>773113Черт, там же ни одного пира нету, как книгу получить?
>>773133А все, скачал, где оп?Пора перекатываться
>>773120По оглавлению пробежался, ничего в духе Som не нашел.Но хуй с ним, сейчас перечитаю книгу по питону и пойду со словарем читать эту книгу.
>>773137>ничего в духе Som не нашел.Глава 14.3, стр. 291
>>773143Ой, в глаза долблюсь.
Как же хуево, что в 23 года я впервые заинтересовался ML, но без знаний проганья и матана можно только хуи сосать.
>>773284Ну матан да, местами весьма хитрый. Но кодинг-то зачем? Почти все реализовано до тебя, для любых практических целей достаточно существующего софта.
>>773284ну и хули? самый збс возраст что бы чем нибудь заняться таким вотчитай: 1. david mackay (RIP) - ITILA. 2, 3, 27, 28 чаптеры2. лекции из летней школы МЛ, кембридж-едишн:http://videolectures.net/mlss09uk_cambridge/3. bishop - PRML. от корки до коркиэто на 2-3 месяцадальше сам поймёшь что интересуети к 24 будешь норм шарить
>>773310>>773319Посоны, а есть ли толк от учебы по паре часов в будни и выходные? Работаю в сапе (лол) и свободен по вечерам. И да, спасибо за ответы.
> имеет ли смысл учить Х если я хочу научиться Х
>>773113Короче, буду разбирать и переводить по 30 страниц в день.Может, через 2 недели и закончу.До этого срока в тред и не войду.Это же хорошая книга, если я знаю только питона и хуево знаю матан?
предлагаю шапку для переката:НЕЙРОНОЧКИ 101:1. Introduction to НЕЙРОНОЧКИ, Casella ( http://www-bcf.usc.edu/~gareth/ISL/ISLR%20Sixth%20Printing.pdf )Читается легко, неплохая разминка перед ESL2. НЕЙРОНОЧКИ and НЕЙРОНОЧКИ, Bishop.3. НЕЙРОНОЧКИ for Hackers. Введение в НЕЙРОНОЧКИ, годно.4. http://neuralnetworksanddeeplearning.comВведение в НЕЙРОНОЧКИ для самых маленьких. Написано простым английским.5. https://yandexdataschool.ru/edu-process/courses - базовые курсы ШАДа.НЕЙРОНОЧКИ Advanced1. Elements of НЕЙРОНОЧКИ (http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )Сложность - 9 из 10. Шутки в сторону, можно читать годами. Если вы сможете полностью проработать эту книгу и прорешать упражнения, обязательно свяжитесь со мной - у меня найдется работа для вас.2. Optimization for НЕЙРОНОЧКИ. Edited by Suvrit Sra, Sebastian Nowozin and Stephen J. Wright, MIT Press, 2012.Иногда from НЕЙРОНОЧКИ.НЕЙРОНОЧКИ import НЕЙРОНОЧКA перестает работать и тогда нужно все переписать. Оптимизация НЕЙРОНОЧКИ на больших объемах данных, НЕЙРОНОЧКИ, НЕЙРОНОЧКИ - вот это все тут есть.3. http://www.cs.nyu.edu/~mohri/mlbook/Как ESH, только слегка по-проще. Попробуйте, может зайти.Дальше вас ждет дикий и необузданный мир. Два маяка https://vk.com/deeplearning и http://deeplearning.net/reading-list/ осветят дорогу: это списки литературы и обзоры статей для прощупывания пульса индустрии.F.A.QПо мотивам предыдущего треда.Эти ваши книжки стоят овер 9000 рублей, как быть?http://libgen.ioКниги хорошо, но с чего начать практический вкат?Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и НЕЙРОНОЧКИ, Linux/OS X является стандартом. Привыкайте.Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут НЕЙРОНОЧКАМИ и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?Несмотря на хайп вокруг НЕЙРОНОЧКИ, далеко не во всех IT компания есть необходимость в НЕЙРОНОЧКИ и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2016 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ruЗдорово, но я так и не понял чем же вы занимаетесь в IT компаниях?Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.НЕЙРОНОЧКИ-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.Имхо, мы все же остаемся в первую очередь разработчиками.Но ведь есть НЕЙРОНОЧКA per se, чем онa занимается?Действительно есть. Одаренная прослойка людей изобретает новые методы, но это правильнее называть просто математикой. Сейчас пищей для ума являются нейронные сети и НЕЙРОНОЧКИ, но даже они двигаются рука об руку с практикой.Что такое TensorFlow?TensorFlow - часть гуглового инструмента для перемножения тензоров и оптимизации функционалов. Часть - потому что важные куски типа паралелизации еще не выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и НЕЙРОНОЧКA для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
>>773428Заебал, слово НЕЙРОНОЧКИ бесит и мозолит глаза.
>>773430НЕЙРОНОЧКИ
>>773385Мой план осуществляется аноны, восприимчивость к английскому тексту повысилась уже на 2-й день, правда, не сильно.А покажите перспективы развития, что почитать после этой книги?
Аноны, первый раз в жизни повезлоМоя идея с реккурентной сетью со сменной памятью оказалась удачной.Ng сеть классифицирует информацию и подает нейронной сети сигнал о том, какую банку памяти юзатьНовая "группа" - новая банка памяти.Но всего еще недостаточно, хочу, чтобы группы в растущей сети умели в иерархию, для того, чтобы искать информацию быстрее.И это облегчит параллельные вычисления, как по мне.
>>773975покажи что нибудь?
>>774050нда
>>774054а ты под спойлер засунь
>>774064несколько тысяч строк кода?
>>774142ты как стриптизёрша, возбуждаешь но не даёшьнадо тебя отшлёпать..
Почему они клепают такие курсы, что их можно пройти за неделю с 97% баллом и в итоге ничего толком не уметь и не знать?
>>774203Чтобы денег заработать
>>774203с китаёзой всё время курсы советуютзначит правда говно
>>773352Почти все так и делают. Есть 1-2% элиты, которые учились в 57й матшколе а потом в каком-нибудь элитном вузе, но у остальных 98% детство проебано почти полностью и люди наверстывают как могут.Алсо, ты по 8 часов прям работаешь? Если ты на работе будешь учебники по матану читать, кто-то заметит?
Куда оп проебался? Кто тред перекатывать будет?
>>774588ОП в лесу ягоды ест.Перекачу сегодня вечером. Покидайте пока что в шапку добавить
Аноны, регрессия - это когда нам надо дать значения выходов y, имея значение входов x?А что такое аппроксимация тогда?
>>774807аппроксимация это когда __аппроксимируешь__можно __апприксимировать__ апостериорное распределение параметров НЕЙРОНОЧКИ напримердля __аппроксимации__ можно минимизировать расстояние кулльбака лейблераэто можно зделать неявно максимизируя нижнюю границу вероятности данныхзабыл как это выводится, есть у бишопа в начале 10 чаптера всё разжёванопосле этого НЕЙРОНОЧКА может вычислять предсказания маргинализируясь над этим аппроксимирующим распределением, вместо поедания говна (предсказание по точечной оценке)
>>774682Взять пример с крестоблядского тредика.Сёрлодауны идут на хуй.Рузке безматановые шадники идут на хуй.
>>774824Что аппроксимируешь? Что такое аппроксимация?Что такое апостериорное распределение?Что такое расстояние кулльбака лейблера
>>774682убери всё про 'computer science'добавь больше яп: R, julia
Аноны, что такое "Обобщение"generalisation у нейронной сети?И правда ли, что когда сеть переобучается, что она теряет способность этого "обобщения" в сторону точных данных?Или я неправильно нихуя перевел?
>>775344> Аноны, что такое "Обобщение" у нейронной сети?это когда подобрано удачное апостериорное распределение и у НЕЙРОНОЧКИ хоросё получается экстраполировать за пределы тренировочных данных> И правда ли, что когда сеть переобучается, что она теряет способность этого "обобщения" в сторону точных данных?переобучение произходит в основном при использовании точечной оценки параметров вместо всего распределенияоценка часто берётся с как можно большей плотностью вероятности в распределенииоднако плотность алсо часто высока на очень ограниченной площади, основная масса вероятности может лежать далеко в регионах с меньшей плотностьюи тогда НЕЙРОНОЧКА обсирается
https://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%BE%D0%BA%D0%BB%D1%8F%D1%82%D0%B8%D0%B5_%D1%80%D0%B0%D0%B7%D0%BC%D0%B5%D1%80%D0%BD%D0%BE%D1%81%D1%82%D0%B8
Где сраный перекат?
>>775383>>775383https://2ch.hk/pr/res/770057.html
походу опа сьел медведь и перекатываться придется самим ;з
>>776071Тест ОП-а с форматированием:http://termbin.com/qzfw
https://2ch.hk/pr/res/776147.htmlhttps://2ch.hk/pr/res/776147.htmlhttps://2ch.hk/pr/res/776147.html
Всем привет. Учиться по этому ресурсу норм?http://deeplearning.net/
>>770400Хайкин в переводе
>>774203курс хорошо дает основы за неделю. Это же вообще отлично.