книгиPattern Recognition and Machine Learning, Bishop.Information theory, inference & learning algorithms, MacKay http://www.inference.phy.cam.ac.uk/itila/Machine Learning: A Probabilistic Perspective, MurphyIntroduction to Statistical Learning ( http://www-bcf.usc.edu/~gareth/ISL/ISLR%20Sixth%20Printing.pdf )Elements of Statistical Learning ( http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )Foundations of Machine Learning, أشهد أن لا إله إلا الله وأشهد أن محمد رسول الله. http://www.cs.nyu.edu/~mohri/mlbook/Fundamentals of Neural Networks: Architectures, Algorithms, and Applications, Fausett L.А. Пегат, "Нечёткое моделирование и управление"другоеhttp://libgen.io / http://bookzz.org/ - здесь можно одолжить ^ книги и не толькоhttp://arxiv.org/find/all/1/all:+nejronochki/0/1/0/all/0/1https://www.reddit.com/r/MachineLearning/wiki/indexhttps://vk.com/deeplearning и http://deeplearning.net/reading-list/https://www.kadenze.com/courses/creative-applications-of-deep-learning-with-tensorflow/info тюториал по slesarflowhttp://rgho.st/8g68fTCSx две брошюры по deep learning для слесарей.http://kaggle.com - весёлые контесты. денежные призыhttps://www.hackerrank.com/domains/ai/machine-learning/difficulty/all/page/1 - олимпиадкикурс от китаёзыhttp://videolectures.net/mlss09uk_cambridge/яп1. http://julialang.org/ 2. https://www.microsoft.com/en-us/research/project/infernet/3. https://www.r-project.org/4. питухон и так все знают5. idris/coq - модные яп для формально верифицированных нейроночек с тренировкой на этапе компиляцииПЛАТИНАКниги хорошо, но с чего начать практический вкат?Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2017 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ruЗдорово, но я так и не понял чем же вы занимаетесь в IT компаниях?Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.Имхо, мы все же остаемся в первую очередь разработчиками.Что такое TensorFlow?TensorFlow - опенсорсный гугловый инструмент для перемножения тензоров и оптимизации функционалов. Опенсорсный - потому что даже важные куски типа параллелизации уже выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.будет ли ML нужен в ближайшие 10 лет, или это просто хайп?будет. хайп.смогу найти работу?Яндекс, мейлру, касперский, несколько биоинформатических компаний (iBinom, можно еще blastim.ru поскролить на тему работы), билайн (они с НГ целое подразделение открыли под ML и биг дату), связной. Ну и западные аутсорсы, если готов рачить за валюту.нужна математика?для начинающего ничего особого знать не нужноhttps://www.amazon.co.uk/Calculus-Michael-Spivak-x/dp/0521867444https://www.amazon.co.uk/dp/0534422004/ref=pd_lpo_sbs_dp_ss_2?pf_rd_p=569136327&pf_rd_s=lpo-top-stripe&pf_rd_t=201&pf_rd_i=0980232716&pf_rd_m=A3P5ROKL5A1OLE&pf_rd_r=3TZ38AZ2BY28R19H4SA5https://www.amazon.co.uk/Calculus-Several-Variables-Undergraduate-Mathematics/dp/0387964053https://www.amazon.co.uk/Introduction-Probability-Dimitri-P-Bertsekas/dp/188652923X"основы теории вероятностей" Вентцельпоясните за нейроночкинейроночка - массившад)))Нет там ничего ML-специфичного, знание матана и теорвера на уровне заборостроительного вуза. Теорвер проходится на третьем курсе, как раз 20 лет.Рандомный хрен туда не сможет поступить, потому что планка намеренно задрана, а не потому что там такая охуенно сложная программа. Это традиционная наебка "элитных учебных заведений", в которой учат так же хуево, как и везде, но за счет отбора поступающих якобы формируются неебовые успехи, которые объясняются именно качеством преподавания.Иными словами, у тех, кто способен поступить, и так в жизни проблем с трудоустройством не будет.Тред #1: https://arhivach.org/thread/147800/Тред #2: https://arhivach.org/thread/170611/Тред #3: https://arhivach.org/thread/179539/Тред #4: https://arhivach.org/thread/185385/Тред #5: https://arhivach.org/thread/186283/Тред #6: https://arhivach.org/thread/187794/Тред #7: https://arhivach.org/thread/196781/Тред #8: https://arhivach.org/thread/209934/Тред #9: https://arhivach.org/thread/223216/Тред #10: https://arhivach.org/thread/234497/Тред #11: https://arhivach.org/thread/240332/Тред #12: https://arhivach.org/thread/246273/
Очень толстые оп-пики, тоньше надо. По первому имею сказать, что в анализе рыночков важен не инструмент, а понимание проблемы.
>>956920важно и то и то имхоа ты занимался рыночками?
>>956903 (OP)Сколько этот пост не обновлялся уже?>яп>1. http://julialang.org/ >2. https://www.microsoft.com/en-us/research/project/infernet/>3. https://www.r-project.org/>4. питухон и так все знают>5. idris/coq - модные яп для формально верифицированных нейроночек с тренировкой на этапе компиляцииЧто за пиздец? Кроме питона, R и С++ в МЛ почти ничего не юзают. Потом будут в тред вкатываться Васи, которые идрис выучили, но работу найти не могут.>Что такое TensorFlow?>TensorFlow - опенсорсный гугловый инструмент для перемножения тензоров и оптимизации функционалов. Опенсорсный - потому что даже важные куски типа параллелизации уже выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.Слесарьфлоу уже месяца 2 как релизнут, но и до этого он был стабильным и работал намного лучше Теано.
Рейтаните книжку Барсегяна "Анализ данных и процессов"Что-то лучше на русском языке найти можно?
>>957075добро пожаловать в тредик! всегда рады новым постерам
>>956903 (OP)Двач, тебе не кажется, что существующие названия вакансий (и позиций), вроде Data Analyst, Data Scientist, ML engineer и пр. какие-то очень широкие, примерно как просто Developer, без привязки к языку, платформе etc, при этом каждая вторая контора считает своим долгом вставить свои 5 копеек в трактовку понятия? Появятся ли более мелкие, но точные названия в будущем?
>>957075В оп посте толстоты хватает. Учись отличать хуйню от полезной инфы. Причем Идрис к машобу вообще не ясно.
>>957171Да, мл сейчас это как веб 15 лет назад.
Собственно говоря, в программе поступления в ШАД алгебра наиболее объемная: подстановки, комплексные числа, СЛАУ (отсюда матрицы & определители), векторы, линейные отображения/операторы, билилейные и квадратичные функцииЭто все имеет прикладной характер в МЛ? Или что-то можно скипнуть при самовкате?
>>957312Это азы математики, которые должен знать любой образованный человек, проходится на первом курсе любого универа. Учи, не торопись. На ютубе 3blue1brown шикарные интуитивные анимации есть линейной алгебры.
>>957361маняматика ненужна
>>957312Это все нужно чтобы понять svm.
А какую математику используют лучшие люди с идеями, дела машинного обучения?
>>957469маняматика нинужна
>>957469E(w) = 0
>>957472
>>957289Каким был веб 15 лет назад? По моему, в МЛ все гораздо понятней и популярней, чем тогда.Посмотрел в архиваче, пара анонов предлагали запилить чатик в телеграмчике. Я б с вами там тоже посидел, но я рачье и буду пиздеть в основном не по тематике
>>957516Примерно так же, вместо того, чтобы делать дела, люди в основном борятся с несовершенными инструментами. Не, классический МЛ-то еще более-менее, но нейроночки пиздец вообще.
>>95751915 лет назад гугл не сделали ангуляр, МЛ захайпали не так давно, гугл сделал тензорфлоу. Не, чет не похожи ситуации
>>957523Так тензорфлоу говно. Что-то более-менее для людей - это nvidia digits. В веб-интерфейсе сделал датасет, выбрал нейроночку, она обучилась и работает.Нет, чувак, ситуция как сейчас будет, когда основную долю рынка будут занимать CMS на PHP, а не гуглы для аутистов.
>>957552поясни за гугл для аутистов бля
>>957552>Что-то более-менее для людей - это nvidia digitsДля обучения (человека, а не нейронки) - очень годная штука. Кнопочки тыц-тыц, мышей гуй потыкал, графики посмотрел, красота.Но, чуть что сложнее простой классификации (локализация объекта, например, или кастомный слой caffe) - и начинается глубокий пердолинг копания в сорцах.ML еще в самом зародыше, даже не родилось толком, и инструменты для него тоже.
>>957566Теория статистического обучения как раз общая теория мл. Нейроночки туда тоже вписываются.
>>955390В чате годно. Есть куча каналов на разные темы (в т.ч. NLP), народ собирается на сходки, на вопросы отвечают. Алсо в каком вузе учишься, если не секрет?
>>957664Что за чат?слоупок.жпг
>>957664>NLPНу и при чем тут это говно?
>>957681Чат в слаке для датасаентистов и сочувствующих opendatascience.
>>957685Natural Language Processing мудло
>>957688Так надо, чтоб в телеграмчике еще был двачевский. Похаживал я по популярным каналам по тематике нашей, так там не лампово вообще
>>957701В телеграме можно только за котики пиздеть, код вставлять и прочее в слаке намного удобнее.Единственное, что бесит в слаке это инвайты, но это можно пережить, если грамотно автобота сделать.
>>957703```так делаешь и нормально все обсуждается```
>>956903 (OP)>dadfs.pngРокфелер рип
>>957707А отдельные каналы general, хуе-моё? А большие тексты? Неудобно всё равно в ентом телеграме.
>>957710На пикче Сорос вроде.
Короче я не затащил специализацию от МФТИ и Яндекса. Не могу сделать задания по программированию на 2-ом курсе. Впизду дропаю. Хуита какая то. И еще я уверен что мимохуя со средней вышкой не по математике или прогерской. Без должного знания статистики и математики хуй возьмут на работу по мл. Я думаю мне не вкатиться, это просто трата времени.Всем спасибо, идите нахуй!
>>957720А мог бы пхп задрочить и кушать хлебушек. Эх ты.
Интересно мне можно вернуть деньги? Я только 2 курса поюзал из 6.
А есть уже теория нейросетей или это и дальше кибернетический эксперимент?
Что скажите за машинное обучение на php?
>>957731Ни разу не встречал.
>>957732https://tproger.ru/articles/php-ml/
>>957716сорос следующий
>>957720мфти хуйня! техникум лучше!
>>957739кукарек кок! хуёк кокок!
Функциональный анализ надо знать для этого?
>>957747дакомплан и топологию тоже
>>957746Типичная речь шаражника. Ну шо, готов в НИИ за 8к сидеть всю жизнь?
>>957817Да. Не берут без ВО.
>>957664секрет, а то деанон
>>957664за чат спасибо, на неделю попрошусь туда
>>957731На похапе полтора алгоритма. А так похуй на чем,всеравно Тьюринг полный язык.
>>957991Может, фейкомыльце оставишь? Расскажешь про свой вуз, про ваше нлп комьюнити. Могу там же про своё рассказать.
>>957992сделайте в телеграмчике. У всех нормальных тредов программача есть чатики в телеге, у нас нет.
>>958042>телеграмчикеговноед
Я, в общем, решил серьезно подойти. Так что надо знать? Правильно ли я понимаю, что нужен следующий список:- Системный подход, теория систем и т.п- Дискретная математика- Теория типов- Теория распознавания образов- Анализ: математический анализ, функциональный анализ и прочая; статистика; теория хаоса; теория вероятностей, нечёткай логика, теория возможностей, теория очевидностей Демпстера-Шафера и прочая- Нейронные сети- Байесовская сеть, вероятностное программирование, дифференцируемое программированиеЧто скажете? Может что-то добавить или убавить?
Поясните за преимущества машинного обучения на Idris. Какие именно преимущества для машинного обучения дадут те же зависимые типы?
>>958081>Системный подход, теория систем и т.пГуманитарная чушь>Дискретная математикаЛишнее>Теория типовСтрого нахуй>Теория распознавания образовПрошлый век>Анализ: математический анализ, функциональный анализ и прочаяМатан и линал нужен. Функан - на уровне определений. Matrix calculus нужен. Статистика и теорвер нужны. Теория хаоса нет. Нечеткие петухи не нужны.Зная это (первые 3 курса математики в универе), можно приступать к переднему краю и доучивать пробелы в процессе.
>>958081Все, что нужно - желание, видение проекта и, собственно, сам проект и пилить.Все остальное, если будешь не мочь, наберешь по ходу разработки твоей хуйты. Только так люди и набирают скилы и вкатываются во что угодно, кмк
>>958082Видимо,можно писать спецификацию алгоритма, а идрис тебе выдаст скомпилированный алгоритм,соответствующий этой спецификации. Насколько мне известно, для мл никто ничего похожего не делал.
>>958090картафанский разбушевался)))
>>958224Съебы в обосцай, здесь эмелебояре будущее творят.
>>958233>отсталая инженегропараша из 70х>будущее творятв голос
Раз уж заговорили о зависимых типах. Вот смотрите, у того же Вапника имеются общие требования для алгоритмов, эффективных более, чем просто асимптотически приближающиеся к оптимальному решению проблемы распознавания образов, бла-бла-бла. По-сути, это готовые спецификации, которые можно выразить в виде типов, зависимых в т.ч. Остается только найти программы, наиболее оптимально представляющие такие типы, методами program derivation в этих ваших Куках и прочих Идрисах, как вариано - генетическим программированием в типизированной лямбде с последующей проверкой в ЯП с зависимыми типами - program verification. В итоге получим нечто эффективнее SVM и всяких бустингов, в т.ч. глубоких. Если что-то подобное запилить и вылодить на гитхаб и отрастить бороду, есть вариант что в гугл РАБотать возьмут?..
Котаны, помогите запилить простецкий классификатор. Задача примерно как в типичном спам-классификаторе. Есть вероятность попадания элементов в классы 1 и 2. Есть уникальные элементы, которые встречаются только в 1 или только в 2. Т.е. допустим есть элемент А, который в классе 1 встречается с вероятностью 0.6 (в 60% случаев в обучающей выборке), а в классе 2 вероятность 0. А есть элемент Б, который в 1 с вероятностью 0, а в 2 с вероятностью 0.7.И надо классифицировать образец, в котором есть и А, и Б.Если запилить байесовский классификатор, то для обоих классов будет умножение на ноль.Что делать?
>>958323Это троллинг такой?
>>958331Промахнулся. Я про " генетическим программированием в типизированной лямбде ". Я думал тут так стебутся, а, судя по посту, не похоже.
>>958323Сперва создать канал в телеграме, а там посмотрим.
>>956903 (OP)>нужна математика?>для начинающего ничего особого знать не нужно>список математической лит-рыЭтот список и есть "ничего особого знать не нужно" или же все-таки действительно из метематики ничего особого знать не нужно в начале? А в середине, чтобы устоиться на работу, например?
>>958349*математики
>>958349Ты можешь взять готовую библиотеку даже на том же пхп и что-то делать, но ты не будешь существенно двигать к созданию ИИ и сингулярности таким образом.
>>958317Чем оно будет эффективней?
>>958353сингулярно-петушок>>958317завтипы-петушок>>958323лаба-петушок>>958349мaтeматика-петушок
>>958354Тем, что может гораздо лучше соответствовать спецификации, чем человеческие поделия.
>>958368петушок-петушок
>>958374петушок-петушок-петушок
>>958373А спецификацию кто напишет?
>>958400сам
>>958400Вапник. Причем еще в 90-е.
>>958387>>958374Уебывайте, школьники.
>>958368Это не лаба. Помогите, плес. Я просто другим занимаюсь по жизни, а тут такая задача возникла. Я вот думаю, может, из прикладной статистики что-то поможет? Но даже не знаю, с какого конца взяться.
>>958323>>958419покажи где умножение на 0P(A|1) = 0.6P(A|2) = 0P(B|1) = 0P(B|2) = 0.7
>>958426Не, в образце для классификации будет и А, и Б встречаться, и ещё какие-то элементы (допустим: n1, n2, n3, которые с разной вероятностью есть в обоих классах). То есть там надо считать:P(1|A,Б,n1,n2,n3);P(2|A,Б,n1,n2,n3).Не?
лол https://medium.com/towards-data-science/linear-algebra-cheat-sheet-for-deep-learning-cd67aba4526c#.5migl6ymj
>>958432ну да, чем тебя умножение на ноль неустраивает?там суммируется много значений и конечная вероятность не будет нулём
>>958353Понятно, что могу. Но вот, если идти работать в этом направлении, что из математики полюбому нужно знать?
>>958442
>>958442И да, на вопрос, что нужно из перечисленных математической направленности книг, так ответа и нет.
>>958373Ну, так, давайте запилим. Авось, прорыв будет.
>>958449Линейную алгебру? Была в универе, но напрочь забыл за отсутствием практики. Не порекомендуешь литературу/курс?
>>958450эти книги только чтобы осилить мл литературу в шапкеесли будешь работать по другим направлениям то надо будет учить что-0то другое>>958456https://medium.com/towards-data-science/linear-algebra-cheat-sheet-for-deep-learning-cd67aba4526c#.5migl6ymj
>>958458Круто, спасибо.
>>958495Какой курс? Просто в гугл вбей "матрицы учебник". Из всей математики, что была у нас в вузе, это самое элементарное, думаю. Проще только арифметика, даже школьная геометрия сложнее.
>>958504двачую, школьная геометрия - мощь
>>958435Там в числителе произведение, а не суммирование значений. Сумма в знаменателе лишь.
>>958015zharenyipes@mail.ru
>>958519но если P(B|1) = 0 то и P(1|B) = 0ты распиши конкретно что ты делаешь
>>958653>но если P(B|1) = 0 то и P(1|B) = 0P(B|1) участвует в числителе и весь его перемножает на 0. Таким образом, классификатор игнорит все остальные признаки классифицируемого объекта. Меня это не устраивает.Напоминаю, что считаю P(1|A,Б,n1,n2,n3).
>>958657если Б входит в объект и Б не может входить в класс 1, то и этот объект не может входить в 1?
>>958659Может. Потому что невхождение Б в 1 - не значит, что наличие Б в образце автоматом этот образец делает чужеродным для 1. Считай, что это часть формулировки задачи классификации.То есть мне надо посчитать, насколько образец похож на 1 и на 2, несмотря на все такие вот противоречивые вхождения А и Б.
>>958665возможно наивный байес не самая лучшая модельпопробуй логистическую регрессию?
>>958671Вот да, я пришёл спросить, что пробовать-то теперь. Наивный байес явно не подошёл. Я пробовал вообще выкидывать элементы с нулевыми для вычисляемого класса вероятностями - получались значения вероятности >1. Может, ты ещё бы что-то назвал, что пробовать? Чтоб два раза не бегать.
А, ещё. В регрессии ж вектора значений. У меня, чтоб уточнить, каждый образец будет иметь разное количество фич (где-то есть только А и n2, например). Ну и классам принадлежит разное количество возможных фич.Например, 1 = А, n1; 2 = Б, n1, n2, n3.
>>958675гауссов процесс попробуй, лолещё рандом форест есть и SVM - только у этих двух не будет вероятность на выходе, сразу класс выплёвывают. незнаю насколько для тебя это критичноэти 3 оче попсовые классификаторы, что-нибудь да подойдёт
А я смогу своё барахло адаптировать под вектора каким-то образом? (см.>>958681) Всю дорогу отказываюсь от векторного по этой причине.
>>958687фичи неизвестны или совсем отсутствуют? можешь попытаться вывести неизвестные фичи чтоб всё было одной длиныесли фичи вещественны то нормализуй на [0; 1]. если дискретные то можешь использовать 1-of-К кодировку. будет длинный вектор нулей и единиц и по одному весу на каждое число
>>958693Совсем отсутствуют. Вместо них можно нулей напихать? Веса это вероятности же будут, я полагаю.Пик в качестве благодарности, сотен нефти не нашлось.
Буду писать диплом на тему, связанную с распознаванием образов.Анон, посоветуй чего интересного можно пораспознавать и чтобы при этом не ахуеть, ибо времени не очень много остается.
>>958724Распознай капчу мейлача.
>>958823что еще распознать? суканахуй
Можно ли рационально применить вейвлет-преобразование для искусственных нейронных сетей? И если можно, то как?
>>958902Можно на вход подавать не сырые данные, а обработанные. В том числе и вейвлетами. Можно это преобразование вкорячить в саму нейроночку, гугли wavelet neural network.
По поводу зависимых типов и Вапника. Поясню конкретнее, что я имел в виду чуть выше >>958317 в этом ИТТ тренде. 1) По Вапнику, задача обучения сводится к минимизации т.н. функционала риска, пик 1.2) Конкретные примеры реализации этого принципа на пике 2, на место общей формулировки Q(zi, a) подставлены соответственно SSE и логарифм значения плотности распределения вероятности штоле, не суть. 3) Фишка предлагаемого метода в том, что все возможные варианты Q(zi, a) это функции, в общем случае - функционалы различной сложности. Само собой, все они сводятся к типизированной лямбде, т.к. имеют свой тип и представимы в виде конечного дерева из аппликаций, абстракций и чего там еще есть. 4) Задача, таким образом, сводится к нахождению оптимального функционала минимизации риска, что и возможно при представлении формулы 1.8 в виде спецификации для ЯП с зав.типами. Конкретно, нас интересует непустой тип с минимальными значениями R emp (a), зависимый от типа суммирования Q(zi, a) по всему датасету zi, точнее по самым разным таким датасетам. 5) Как было сказано выше, один из методов - генетическое программирование в типизированной лямбде, которое и подберет некоторое количество оптимальных вариантов функционала Q(zi, a), лучше других минимизирующего зависимый от него R emp (a). Что скажете?
>>959210Где ты начитался этих типизированных лямбд?
>>959210код?
Да, небольшое добавление к >>959210 все несколько сложнее, чем я описал. Там надо отдельно подбирать генетическим программированием собственно структуру функционала минимизации риска, и отдельно - параметры функционала, минимизирующего его для конкретного датасета. Что усложняет задачу, но технически это все равно реализуемо. >>959314Дело не в типизированных лямбдах, а в генетическом программировании с использованием их. Обычные ЯП для такой задачи не подходят, т.к. там сложный синтаксис и практически получить осмысленный код уже при небольшом объеме программы за разумное время вычисления нереально, автор генетического программирования именно на этом и обосрался. А лямбда - то, что нужно, т.к. там полтора элемента для выражения любой сложности - аппликация с абстракцией и глубина дерева общего выражения, что элементарно и без всяких костылей кодируется в виде "хромосом" для генетического алгоритма. Тута https://eldorado.tu-dortmund.de/bitstream/2003/34162/1/Dissertation.pdf все по-хардкору изложено. Совершенно понятно, что общий смысл происходящего - "экстракция" программы из некоего большого типа, содержащего все используемые для данной задачи в типизированной лямбде типы, что-то уровня описанного Максимкой http://maxim.livejournal.com/479716.html
>>959322До кода далеко, пока только гениальная идея - представить вапниковскую общую постановку проблемы МЛ в виде спецификации в MLTT с последующим автоматизированным нахождением лучших вариантов, удовлетворяющих условиям такой спецификации.
>>959474Не совсем дебил, просто удивительно.Давай-ка пиздуй с этой параши, делать тебе здесь нечего - среди школодегенератов и просто дегенератов.Удачи.
китаёза уходит на пенсиюhttps://medium.com/@andrewng/opening-a-new-chapter-of-my-work-in-ai-c6a4d1595d7b#.ptzjlqd7r
>>959592>40 лет>на пенсиюСлабак ваш бурят. Заде вон 96 лет, он до сих пор книги пишет.
>>959625видать на пенсию не заработал, бедняшакину старичку копеечку в переходе
>>959625У его жены стартап занимается машинами-самоездами, туда скорее всего.
>>959474Это звучит словно открытия древних шаманов, но хотелось бы какой-то совсем простенький пример с логическими операциями, например.мимо
Пишите, есть фриланс проект по машобу. Телега @vojjj
Может кто-то подсказать с чего вкатываться в Natural Language Processing? Немного умею в матан + поизучал какие-то базовые вещи из ML (Регрессии, нейроночки). Интересуют именно фундаментальные знания.
>>959832на курсере было два хороших курса Natural language processing, но сейчас их убрали, можно поискать где-то видео, один от Columbia university, там были марковские цепи и тд, другой от стэнфорда, что там - не помню. Можно попробовать поискать, на ютубе - один из них точно есть. Из книжек часто советуют Foundations of Statistical Natural Language Processing от Manning, не читал, но содержание выглядит прилично, и Speech and Language Processing от Jurafsky - мне не очень понравилось. Из нейроночек советуют курс http://cs224d.stanford.edu/ . Недавно хайпали этот курс https://github.com/oxford-cs-deepnlp-2017/lectures, но не смотрел.
>>959850ну и nltk-book, там по верхам проходятся многие популярные подходы
>>958611Отписал.
>>959832https://www.quora.com/As-a-beginner-in-Natural-Language-processing-from-where-should-I-start
>>959710В диссере по ссылке полно примеров,как и в доках к соответствующему пакету для R - rgp, регрессия например. Зависимые типы отдельная тема, ес-но.
>>959850>>959904Спасибо, сохранил ссылки.Ещё вопрос, кстати. Как получить доступ к видео лекциям стенфорда? Я почитал у них на сайте какую-то информацию и сделал вывод, что доступ есть только у студентов стенфорда. Я не прав?
>>959973https://www.youtube.com/watch?v=Qy0oEkCZkBI&list=PLlJy-eBtNFt4CSVWYqscHDdP58M3zFHIG
>>960001Благодарю.
Анон, помоги. Хочу сгенерировать фильтры для СНН в виде двумерных массивов.Мозгов не хватает как это закодить, чтоб красиво было.Их же 15 должно быть в случае с разрешением из 4 элементов? (см. пикрелейтед)
Палю годноту быдлуhttps://www.youtube.com/watch?v=aW-b4eaWtMYhttps://youtu.be/kuRQRoVlo3M
>>956903 (OP)Ананасы, а есть какая-нибудь конфа у машоберов?
>>960360Мальчик, возвращайся со своим петухом обратно к одноклассникам.
>>960771>>960360я пощелкал мельком, на самом деле нормальный мужик, без особой философии, неплохой экскурс в историю
Хочу написать распознавалку различных частей автомобиля(колёса, фары и т.д.).Умею в программирование и матан, опыта работы с OpenCV нет. Подскажи, дорогой анон, что изучать(будет особенно хорошо, если ты назовёшь конкретные источники) и насколько сложна такая задача?
>>961027В 2017 эта задача выглядит как "скорми нейроночке 1000 образцов твоей хуйни, а она сама разберется".Используй Nvidia SLESARS чтобы собрать все нужное и запуститьhttps://github.com/NVIDIA/DIGITS/tree/master/docsТолько вместо lenet из gettingstarted используй alexnet.
>>961207Спасибо, но это неинтересно.Сделать саму задачу - не самоцель.Хочу разобраться во всём этом дерьме.
>>956903 (OP)что там за три кружочка?
>>961701http://julialang.org/
В чем суть зеркальных нейронов? Почему еще нет математической модели оных?
>>959210Привет от No Free Lunch Theorem.
В чем суть астральных нейронов? Почему еще нет математической модели оных?
А как называется первоначальная обработка сенсорных данных?
>>962050>>962050Препроцессинг не то??
Аноны, у меня большая проблема в понимании lse части алгоритма обучения классической ANFIS. Backpropagation часть я легко реализовал, а на этой сломался. Реквестирую детально разжеванное описание ANFIS, из которого легко понять, зачем это происходит, желательно с геометрическими аналогиями. И еще, поскольку это batch алгоритм, то как его применять, если на вход нейронечеткой системы управления подается временной ряд в реальном времени, и нет возможности вывести систему в оффлайн надолго и прокрутить такие затратные вычисления?
>>961958> No Free Lunch TheoremНечто уровня "теоремы Тарана / Пидорана" из /по. Эта твоя теорема касается алгоритмов с асимптотически близким к оптимальному решению. То, о чем говорю я, теория статистического обучения Вапника, как раз о том, как это обойти. Именно с ее помощью были построены алгоритмы, рвущие все остальные - градиентный бустинг, в т.ч. deepboost. И есть все основания считать, что это далеко не предел, сейчас уже делаются попытки построения глубоких SVM, опять же на основе вапниковской теории, в перспективе они обойдут глубокие нейросети. Там очень большой потенциал на самом деле, потому что подход к задаче МЛ правильный и обоснованный, а не как обычно "нахуярить побольше слоев)))". Фишка в том, что теория статистического обучения она не о каком-то одном подходе, а о решении задачи машинного обучения вообще, в принципе. О построении алгоритмов, эффективнее чем просто асимптотически приближающихся к оптимальному решению. И как раз это можно автоматизировать.>>962114То, что у тебя на 2ом пике - это нахождение наименьших квадратов фильтром Калмана. Сама идея взята из оригинальной работы Такаги и Сугено, и т.к. ANFIS это по-сути, TS с адаптивной настройкой свободных параметров, видимо и была использована Чангом без изменения. Вообще, фильтрация в т.ч. всякими хитрыми алгоритмами типа Н-2/Н-инфинити для настройки параметров нечетких моделей - тема отдельная и крайне мутная, лучше туда вообще не лезть без особой нужды, вот пример книшки в тему не для слабонервных http://gen.lib.rus.ec/book/index.php?md5=4710323AE0A71E05902C358A4EAEDF45 настроить свободные параметры нечеткой модели можно и без всей этой мути, вариантов полно вплоть до генетических алгоритмов. Я ж говорил, что ANFIS не самая удачная модель и точно не то, с чего стоит вкатываться в нейрофаззи-моделирование.
>>962332>теория статистического обучения Ватника>обучения ВатникаА еще толще можешь?
>>962332>ANFIS не самая удачная модельТы можешь предложить, с чего стоит вкатываться в нейрофаззи?
>>962332>Эта твоя теорема касается алгоритмов с асимптотически близким к оптимальному решению. Вообще-то она утверждает, что для любого алгоритма бинарной классификации существует такое распределение на сэмплах и раскраска, что со строго положительной вероятностью эмпирический риск больше 1/10 или что-то около того (это если не ограничивать класс гипотез). Теория же статистического обучения (PAC Learnability) есть суть поиск условий на класс гипотез, для которого эмпирический риск с большой вероятностью близко оценивает реальный риск. Отсюда - в т.ч. ключевая теорема о PAC-лёрнабилити класса с конечным VC дименшион. А про класс гипотез я как раз у тебя ничего не заметил. И именно поиск хорошего класса гипотез с конечной размерностью (или который суть объединение таковых если добавляем регуляризацию) есть основная проблема обучения.Алсо, на практике в нейронках на теорию Ватника всем как раз похуй. Потому что VC дименшн нейронок очень хуёво оценивается, классическое правило большого пальца о 10 сэмплах на признак тоже не очень работает и т.п.
>>962337>можешь предложить, с чего стоит вкатываться в нейрофаззи? Коско тута не любят вплоть до смищных картиночек в каждом оп-посте, но его стандартная аддитивная модель (SAM) - общий случай нечеткой модели, к которой сводятся все конкретные. То же самое по методам настройки свободных параметров, у него разобраны случаи бэкпропагейшена как пример обучения с учителем и кластеризация как настройка свободных параметров без учителя. 2ая глава вот этой книги http://gen.lib.rus.ec/book/index.php?md5=BC1EC0F44F2E619AB46D6FD0B7088514 Очевидно, что абсолютна любая нейрофаззи-модель - это частный случай SAM с настраиваемыми параметрами. Но опять же, с кондачка в эту теорию не въедешь, нужно немало медитировать. Простые примеры нейрофаззи-моделей, как и суть происходящего, рассмотрены у Пегата, причем с картинками и на русском.>>962348>А про класс гипотез я как раз у тебя ничего не заметил.Класс гипотез - это конкретная форма функционала минимизации эмпирического риска? Или что? Конкретные формулы у Вапника покажи.
>>962382Ну например: H = {полиномы степени < n}, H = {гиперплоскости в R^n} и т.п.В терминологии Вапника (которая довольно корявая) - это множество функций Q, по которым минимизируется функционал эмпирического риска.Алсо, я тут потолщу немного на тему генетической генерации алгоритма. ПРОБЛЕМА ОСТАНОВА
>>962414>потолщу немного на тему генетической генерации алгоритма. ПРОБЛЕМА ОСТАНОВАНе, не потолстишь. В MLTT/CiC все функции вычислимы, это не тьюринг-полная система. Поэтому корректность программы в любом нормальном языке с зависимыми типами означает полную корректность, там иначе оно просто чекаться не будет.
Если раньше занимался дрессировкой животных, то на сколько сложно будет вкатиться в машинное обучение? Эти знания помогут?
>>962548Ну, если устроишься тимлидом, то помогут.
Вопросец к тем кто делает что-то из машоба, нейронок и вот этого всего профессионально, то есть за деньги, то есть в какой-нибудь норм конторе, а не только посмотрел видео 10 минутное на ютубе что такое НС.Вот я сейчас занимаюсь изучением, пока не так далеко продвинулся - изучил линейные модели, деревья, разные регуляризации и т.д. немного в нейронки смотрю. Но есть такой момент, что мои знания математики хоть и не на нулевом уровне, вроде более менее знаю тервер, алгебру, матан и прочее, читать книжки вроде The elements of statistical learning или похожие такого уровня мне бывает достаточно тяжело и иногда просто упираюсь в то, что не знаю целого важного раздела математики достаточно хорошо.Собственно вопрос такой - как лучше всего подходить к этому и настолько ли важно знать хорошо прям все? То есть вам нормальные книжки из шапки давались легко или тоже вызывали жопную боль достатоно часто?
>>962674Что тебя мотивирует этим заниматься? Почему-то стало интересно, что вообще может мотивировать в дрочке матриц людей, особенно сидящих на дваче, лол
>>962927Я не он, но отвечу. Вышмат не знаю. Дрочкой матриц занимаюсь, потому что интересно. Такое странное ощущение возникает, что ты создаешь что-то полуживое, полуразумное. Я, конечно, в глубине понимаю, что это просто тупой перебор, аппроксимация и минимизация ошибки, но результат вдохновляет. Как много-много лет назад, когда написал первую программу на Бейсике.
>>962953А-аа... сублимация... готовься к
>>962953Ботов охуенно будет так делать для игр и не только, интересно играть с такими наверно.
>>962959В контре можно например сделать бота что все время стреляет в голову, но тяжело с ним играть, а так чтобы с экспертов доучивались дальше, поможет плавно прокачать скилл.
>>962959>интересно играть с такими наверноКогда знаешь, что это бот - нет.Ведь ты будешь понимать, что он может стрелять тебе точно в голову, и реагирует гораздо быстрее тебя, но его скилл искусственно занижен, чтобы ты, убогое протеиновое существо с ограниченными возможностями, не так остро ощущал свою ущербность.
>>962674>читать книжки вроде The elements of statistical learning или похожие такого уровня мне бывает достаточно тяжело и иногда просто упираюсь в то, что не знаю целого важного раздела математики достаточно хорошо. Собственно вопрос такой - как лучше всего подходить к этомуМедитируй до просветления. Нету там никаких важных разделов математики кроме матана, теорвера, линейной алгебры (на уровня всяких хуевертий с матрицами и векторами). Просто тема для тебя новая, только и всего. Такие книшки нужно не просто на сон грядущий почитывать, а перечитывать непонятные моменты, гуглить непонятное, местами даже конспектировать, выписывать формулы и прорешивать. Так и победишь.
>>963056>The elements of statistical learningНа самом деле довольно хуёвая книга. Многовато статистики, на которую всем вообще-то насрать на практике. Из-за этого часто возникает ситуация, что за деревьями не видно леса.
>>963060> The elements of statistical learning> хуёвая книга> Многовато статистики> statistical learning> Многовато статистики
>>963080Для machine learning все это не нужно.
>>963105Теория статистического обучения - основа МЛ, болезный.
>>963080>>963106Не нужно повторять заученные мантры. ESL часто фокусируется на совершенно неважных вопросах. Например, в первой же главе дохуя болтовни про конфиденс интервалз для коэффициентов линейной регрессии. Что, много людей этим заморачиваются в практических задачах? Кажется, сам Вассерман - который "Всё о непараметрической статистике" - сказал, что Дэйта Сайнс есть суть смерть практической статистики. Потому что эта примордиальная ёботня с РАСПРЕДЕЛЕНИЕМ СТЬЮДЕНТА С 1488 СТЕПЕНЯМ СВОБОД и прочими ХИ КОКОКОКВОДРАТ ТЕСТОМ НА НЕЗАВИСИМОСТЬ реально никого не ебёт.Те же лекции Нга, или книга Бишопа, или ещё дохуя материалов гораздо лучше написаны. А по стэйт-оф-зе-арт все равно нужно читать статьи и специализированные монографии.
>>963153>дохуя болтовни про конфиденс интервалз для коэффициентов линейной регрессии. Что, много людей этим заморачиваются в практических задачах? Так тебе же суть объясняют происходящего. А ты ноешь, что "много буков, плохо сделали, тупо, вон у Ына лучше".
>>963157>Так тебе же суть объясняют происходящего. А ты ноешь, что "много буков, плохо сделали, тупо, вон у Ына лучше".Ноуп. К теории обучения в смысле Вапника дрочево с конфиденс интервалз имеет очень слабое отношение. И, например, в доказательстве ключевых теорем ML всё это замшелое статистическое барахло не используется. А используется, например, неравенство Хёффдинга.Такие дела. Читать эту муть (ESL) совершенно не рекомендую, уж если интересует теории Вапника - то и читать лучше оригинальную монографию Вапника. Чурка в видеолекциях тоже приемлемо объясняет.
Роджер Шэнк, один из основоположников идеи мыслящих компьютеров, о том почему нас ждёт застой в области ИИ. Я прямо согласен почти с каждым словом. Вообще меня прямо раздражает как последнее время люди все чаще применяют термин Искусственный Интеллект к штукам, не обладающими интеллектом. И да, виноваты в этом гугл и IBM, которые постоянно муссируют AI в смысле коммуникациях, остальным приходится принять правила игры.За последние 15 лет мы ни на шаг не приблизились к настоящему интеллекту. Но сильно рванули вперёд в машинлернинге и имитации интеллекта. http://www.rogerschank.com/fraudulent-claims-made-by-IBM-about-Watson-and-AI
>>963171Шенк очень хорош тем, что изучает не только обучение компьютеров, но и обучение людей. Он же и психолог ещё.
>>963171а без роджера тебе нихуя не понятно?
>>963106Неправда. Вот тут много слов сказано http://stats.stackexchange.com/questions/6/the-two-cultures-statistics-vs-machine-learningThe biggest difference I see between the communities is that statistics emphasizes inference, whereas machine learning emphasized prediction. When you do statistics, you want to infer the process by which data you have was generated. When you do machine learning, you want to know how you can predict what future data will look like w.r.t. some variable.Of course the two overlap. Knowing how the data was generated will give you some hints about what a good predictor would be, for example. However, one example of the difference is that machine learning has dealt with the p >> n problem (more features/variables than training samples) since its infancy, whereas statistics is just starting to get serious about this problem. Why? Because you can still make good predictions when p >> n, but you can't make very good inferences about what variables are actually important and why.ML подход в конечном счете оказался более успешным, потому что unsupervized learning (и сильный ИИ в конечном счете) возможен только в формате простых предсказаний.
>>963157Подкорректировал немного твою картинку в соответствие с современными реалиями. Ты же не против?
>>963368Не совсем так. Уже сейчас шломо шекельберг начал подозревать, что на одних нейроночках далеко не уедешь. Поэтому соавторша вапника уже возглавляет исследовательский отдел гугла и именно там интересуются последними достижкниями ваппниковской теории, гугли deepboost. Нейроночки уже приблизились к пределу своих возможностей, дальше просто никаких кластеров не хватит для тысяч слоев этого хлебушка. Поэтому будущее за глубоким бустингом и стыкованными svm.
Анон, помоги дополнить список непонятных по тематике простому человеку слов.Я вот начал: Когнитрон, Перцептрон, Нейросеть, Нейрон, Матрица, Синапс, Дендрит, Пулинг, Свертка, Керас, Теано, Тензор, LeNet
>>963564Крокодил, Залупа, Сыр.Все твои слова элементарно гуглятся же.
>>963564синус косинус экспонента производная
https://blog.openai.com/evolution-strategies/ Поясните за это. Это смесь вероятностного программирования и генетического программирования?
>>963690Вроде просто распределенные генетические алгоритмы, пейпер с телефона не открывается, завтра посмотрю.
>>963564Матрица это фильм такой, ты из деревни штоле?
>>963998но там нескоько частей
>>961732муахахаха, дада матджава против питона, которая без библиотек, без возможностей, без сообщества, без единого адекватного проекта; какой дегенерат картинку нарисовал?Мне вот вообще интересно, как можно заработать в данной сфере простому человеку и как можно конкурировать с компаниями одному простому почти нищему человеку? Найс идиотизм, что за школьнек-мечтатель фуфлогон?Тебе сколько там лет? Ещё 20 нет, тогда ты ещё неадекватный человек, не создавай темы до 25, не отнимай время.
>>963564Всё это элементарная хуйня, которая обозначена незнакомыми словами только и всего.Так всегда и везде, в любой науке.Поверь мне, в этом мире всё просто. Единственная сложность - запомнить большой объём инфомрации.
>>963596Производная - это там где секущая никогда не станет касательной и неопределённость 0/0 может не раскрыться?И ещё которая даёт неправильную мгновенную скорость в половине случаев?
>>962956К чему?не >>962674
>>964012Ты как будто на двачах впервые. Алсо, Джулия - до сих пор известный в академических средах язык. Не надо гнать.
>>964012Очевидно, что создав ИИ и задать ему целевую функцию нужную.
>>957720Что именно не получается? Напиши, может я что подскажу.
Поясните за использование голографии в этом деле.
>>963690Короче, там очередное подтверждения моего тезиса, что сверточный нейроночки - далеко не единственный метод МЛ и в них все не уперлось. Суть там в том, что для настройки оптимального поведения в марковском процессе принятия решений (MDP) используют CMA-ES, это не совсем генетические алгоритмы. Авторы ссылаются на эту работу http://kyb.mpg.de/fileadmin/user_upload/files/publications/attachments/Neural-Networks-2010-Sehnke_%5b0%5d.pdf Такими темпами скоро распиаренные на ровном месте авторы типа Ilya Sutskever откроют для себя меметические алгоритмы, которые поинтереснее реализаций CMA-ES десятилетней давности. Эти алгоритмы интересны тем, что неплохо аппроксимируют даже тысячемерные функции и не требуют для своей работы многотысячепроцессорных гугловских кластеров.
>>964414У тебя очень интересное мнение. Можешь еще что-то сказать? Что считаешь перспективным в этой области?
>>964486Считаю, что все. что вышло после ЛеНета (алекснет, гугленет и тд) - говен, который по сути клон нейросети Яна Ле Куна.И помимо сверточных сетей, существует другое множество различных архитектур.Да и вообще, что можно со свертчной сетью делать - только матрицы препроцессить. Это ведь не единственная проблема человечества.
>>964486Из-за хайпа вокруг сверточных сетей все как-то забыли, что МЛ гораздо более широкая тема. Многие области которой не развиваются из-за того, что не в моде. В частности, хуй капитально забит на fuzzy, intuitionistic fuzzy, rough, soft, neutrosophic - множества и их гибриды. Настолько капитально, что по большинству из них не существует ни одного алгоритма вывода в условиях неточности. Вообще, почему-то принято игнорировать, что вероятность - не единственная неточность из всех возможных. Дажк вапниковская теория статистического обучения касается только вероятности.
>>964572Ленет - неюзабельное говнецо, автор которого за двадцать с хуем лет не догадался использовать нелинейности, не вырождающие градиенты. Я молчу об отказе от pooling слоев и residual сетях - это для этого пердуна вообще рокетсаенс, хотя казалось бы, за 20-то лет можно было хотя бы попытаться. Основная проблема как раз в том, что сообщество никогда не верило в нейронки (потому что бумаги по поводу них много не изведешь) и всегда страдало хуйней типа перечисленной тобой. И огромной ошибкой будет опять начинать это бумагомарание. Фуззи-хуюззи, 30 лет не могли решить задачу отличить кошку от собаки, но зато грантов попилено я ебал."неплохо аппроксимируют даже тысячемерные функции" - ебанутый, тысяча измерений - это хуйня, у AlexNet 2562563-мерная функция и она не просто аппроксимирует training set - с этим вообще нет проблем, она предсказывает выход имея сраные 1000 образцов.
>>965024Кошку от собаки еще ART сети в 80х отличали, только ты про них даже не слышал, свидетель алекснета. Я даже не буду гоыорить, чтоо распознавание котов не единственная задача мл, для школоты это слишком сложное заявление.
>>965237>Кошку от собаки еще ART сети в 80х отличалиты пиздишь хуиту.>>965024а ты прав. следующий хайп будет по вероятностным программам, уже виден кончик гигантского хуя это викинга. Но нужен датасет, который был бы непосилен обычным нейронкам.
Аноны, подскажите что делать - решается задача бинарной классификации, имеется выборка ~ 2к объектов и ~100 признаков, а классы очень сильно различаются по объему (примерно 10:1). Сначала пробовал логистическую модель c балансировкой классов, но там или выдавало константный классификатор, который тупо занулял (тогда была метрика accuracy), или ~0.25 на f1-score.В общем вопрос такой у меня - какой моделью лучше пользоваться для такой бинарной классификации и какую метрику юзать?
>>965661SVM с ренормализацией коеффициентов Chttp://www.cs.ox.ac.uk/people/vasile.palade/papers/Class-Imbalance-SVM.pdf
>>956903 (OP)Хочу читать бумагу. Где заказать бишопа подешевле?
>>965834Спасибо, попробую
А правда, что backpropagation по-русски будет ВЗАДПРОДВИГАНИЕ?ВЗАДПРОДВИГАНИЕВЗАДПРОДВИГАНИЕВЗАДПРОДВИГАНИЕ
>>965938Нигде, наверное. Слишком хайпнутая книженция. На ебеях от 2,5к рублей самые дешевые. А вот Вапника я у индусов покупал, вместе с доставкой вышло 900р. с чем-то.>>966049Если русский не думает о хуях, значит думает о жопе.
>>966050двачуюсам купил вапника у пенсионера в проходе метро за 145 р.в сортире поставил, ни о чём не жалею
>>966050С амазона на 4к выйдет. Слишком дорогое удобство.
>>956903 (OP)Что за три кружка? Язык какой-то?
>>966092>>961701
>>966092да, охуенный оченьлучший яп для мл/статистикиhttps://julialang.org/
>>966107>лучший яп для мл/статистикиТы с R путаешь.
>>966107залупа которая тичот и работает медленее чем гау>>966150просто говно с пакетами. что-то уровня офиса - говно говняное, а все юзаают
>>966150р-макака>>966155дерзкий-школьник-макака
>>966155>говно говняное, а все юзаают Ага, все идут не в ногу, один школьник с мейлру в ногу. Все пидорасы, школьник с мейлру Дартаньян. Я тебя понял. Открою секрет - если лично тебе какая-то хуитка без задач понравилась, это не повод считать ее лучше нормальных инструментов.
>>966157дерзкий пиздолиз-фанат юленьки. а юленька течёт как шлюшка>>966158>ко-ко-пакетыкак же макаку порвало, все на мейлаче сидим, а эту пакетную шмаль порвало. как раз таки р - говнище без задач, которое тормозит как твоя мать, которая 9 месяцев думала делать ли ей аборт
>>956903 (OP)Имеет ли смысл учить алгоритмы МО и имплементировать их самостоятельно?
>>966189Их не учить надо, а понимать. Толку от вызубренной линейной регрессии не будет, а вот если сам сделаешь, сложные места найдёшь, то толку будет в разы больше.
>>966189Бамп вопросуВот появилась недавно мысль, написал пару простых алгоритмов, ничего не получил нового в плане понимания. Что-то новое, чтоб работало лучше других не напишу - там толпы математиков-погромистов писали годами против меня - студента.
>>965276А как там диффернцируемое программирование?
>>956903 (OP)поясните за idris. Где он вообще будет использоваться, будет ли вообще? Есть какой-нибудь реальный плюс использования такого, или это просто средство для становления псевдоинтеллектуалом 2 уровня?
>>966458Если ты не знаешь, что такое dependent types, то тебе он не нужен.
>>966234дифференцируемое программирование это имхо и есть НН. Посмотри на модели, там уже машины тьюринга, всякие модели с памятью и все такое. Но фишка в том, что чем сложнее модель, тем фиговее ее тренировать градиентом. А у вероятностных моделей в рукаве еще и монте-карло есть, когда градиент не работает.
>>966458Все, что можно пояснить за идрис - это ЯП с зависимыми типами, причем не сказать чтобы лучший. Пояснять надо за зависимые типы, а точнее за MLTT - конструктивную теорию типов за авторством пикрелейтед.
>>965024> у AlexNet 2562563-мерная функция и она не просто аппроксимирует training set - с этим вообще нет проблем, она предсказывает выход имея сраные 1000 образцов. Пруфы?..
>>966643он алсо топит за примитивизм и национализмhttps://www.youtube.com/watch?v=LxAK3fyONsI
>>966466А что вообще можешь сказать об этом списке: https://www.quora.com/What-are-the-likely-AI-advancements-in-the-next-5-to-10-years/answer/Yann-LeCun ?>>966643>>966801Я думал Мартин-Лёф это два человека. А тут один.Ну, поясни, пожалуйста, тогда за зависимые типы (на простеньком примере типа палиндрома или чего-то такого) и mltt.мимо
>>966801Долбаёб варга закинул
>>966801Варг причем вообще?>>966804>поясни, пожалуйста, тогда за зависимые типы (на простеньком примере типа палиндрома или чего-то такого) и mltt.Это сложная тема, в 3х словах не пояснишь. Так-то зависимые типы даже на джаве делают http://beust.com/weblog/2011/08/18/a-gentle-introduction-to-dependent-types/ да и MLTT на одном листе можно уместить https://en.wikipedia.org/wiki/Intuitionistic_type_theory, но чтобы понять что вообще происходит, как минимум первые глав 7 этого http://www.cse.chalmers.se/research/group/logic/book/book.pdf нужно осилить.
>>966466Сложность вычисления градиента растет примерно как o(n), а сложность монте-карло примерно как o(exp(n)). Поэтому не взлетит. Ровно как не взлетит идея с генетическим программированием - там точно такой же комбинаторный взрыв.
>>966804>А что вообще можешь сказать об этом спискепочти полный список, но стоит учитывать что через 10 лет будут доступны большие квантовые компьютера с 100-200 кубитами и методы обучения скорее всего поменяются на статистические. В других списках ко всему прочему есть еще объединение нс с баесовскими методами, чтобы вычислять интервал конфиденциальности и оценивать распределение предсказаний. + в других списках есть еще построение теорий нейронных сетей.
>>967112>интервал конфиденциальностиЭто называется доверительный интервал, чурка. И нет, не взлетит, потому что нахуй не нужно, как все то, на что дрочат статистики.
>>967115это тебе лично не нужно. но ты явно не в курсе про европейские регуляции на алгоритмы которые используются в области здравохранения.
>>958353Так ты в любом случае не будешь двигать, азаза
Благородные господа!Был отправлен из треда про Big Data к вам. Поясните, пожалуйста, за термины:1) Big Data2) Data Analysis3) Data MiningУчусь, хочу вкатится туда, где будет много математики. Плачу негритянками.
>>967247>1) Big DataБольшие объемы информации.Манипуляция ими.>2) Data AnalysisАнализ данных. Тебе гугл транслейта не хватает?>3) Data MiningТакой анализ данных, при котором в данных ищут что-то интересное.
>>967247> где будет много математикив математике довольно много математики, попробуй вкатиться в математику. нахуй остальное там маловато математики
>>967253Я дружу с английским и не только. Поясни, что такое 2?
>>967255Я образно - ''Типанебыдла''
>>967263https://www.quora.com/What-is-the-difference-between-Data-Analytics-Data-Analysis-Data-Mining-Data-Science-Machine-Learning-and-Big-Data-1
>>967247>>967253По поводу бигдаты. Обычно школьники кукарекают что-то уровня "меньше экзабайта не бигдата" и т.д. На самом деле бигдата - это все, что нельзя просто загрузить в оперативу из-за размера. Именно на этом месте начинаются изъебства, причем если у тебя скажем 8 гиг оперативы, методы бигдаты для тебя начнутся гигабайт с 5 в лучшем случае. И они ничем не будут отличаться от работы с терабайтным датасетом.
>>967266>>967253>>967264Где в Москве\России работают дата майнеры? Какую, к примеру, работу выполняют?
>>967268Яндекс, мейл, сбертех, крупные опсосы, всякие компании с биоинформатикой связанные шапку читать надо. Что делают можно в интернете найти
>>967264Спасибо
>>967279Извиняюсь, шапку прочитал невнимательно. Спасиб.
>>967253>Такой анализ данных, при котором в данных ищут что-то интересное.Не "что-то интересное", а знания, сиречь скрытые закономерности в этих данных.Дата майнинг и датаанализ не так-то просто различить, тут нужен не гуглтранслейт, а просто гугл.
Ананасы, посоветуйте статей про выделение и отслеживание объектов (трекинг) на видео и распознавание эмоций с помощью нейронок. Алсо, хотелось бы почитать сравнение работы нейронок и обычных методов компьютерного зрения.
>>967350Поздно ты курсач начинаешь
>>967356Мимо, курсач через год ещё
Может ли компилятор какого-то там Haskell'а или еще чего-то такого обычного генерировать код сразу в виде нейросети?
>>967266Если пять гигабайт то лучше накатать bash-скрипт с нужными инструментами (типа grep, awk и прочая) и чуток подождать, а не поднимать hadoop.
>>967675Theano и tensorflow именно этим и занимаются, ты описываешь сетку в виде некоего графа средствами языка, далее этот граф оптимизируется и генерится уже быстрый код. Не хаскель, потому что хаскель нахуй никому не нужен, кроме распильных контор типа британских банков.>>967676Можно просто делать свопфайл на своем ссд.
>>956903 (OP)Кто-нибудь знаком с pegasos? Там формула через кернел заставляет меня хранить весь датасет. Потому что весы посчитать можно только через ФИ. А вот при умножении весов на входящий вектор - получается кернел. А для высчитывания (x,w) приходится поднимать весь обучающий датасет.Какие есть способы не таскать его за собой? Есть же там какой-то online learning.
>>967279Уважаемый, поясни, будь добр.Я уже знаю, что анализ даты это только часть работы с датой. Хотел бы вкатить хоть куда на работу, но не знаю где с ней работают и что нужно знать для такой работы. На самую простую, для начала, работу с датой. Конечная цель - майнить.
>>967786ПЕГАСОС)))
>>967346>Не "что-то интересное", а знания, сиречь скрытые закономерности в этих данных.Нет, не знания ниразу. Наркоман.Ищут ткнз скрытые переменные.>Поясни, что такое 2?Да все что угодно может там быть.Это общие слова.>>967268>Где в Москве\России работают дата майнеры?Финансы медицина крупный бизнес.>Какую, к примеру, работу выполняют?Пишут мартышкодерьмокод для анализа биржевых\медицинских\корпоративных данных.
>>968129Ответь, будь добр, на это >>968121Чем больше деталей добавишь, тем лучше для меня
>>968129>мартышкодерьмокодВсегда думал, что там нельзя быть мартышкой. С чем ты сравниваешь?
>>968172>Всегда думал, что там нельзя быть мартышкой. С чем ты сравниваешь?Все IT Это на 99% ctrl+c ctrl+v.Есть небольшая прослойка высококлассных специалистов, которые занимаются, скажем так, наукой, и работают в ткнз R&D центрах.Обычно чтобы получить подобную работу требуется ученая степень.И раз ты задаешь подобные вопросы на харкаче, это скорее всего не для тебя.В датамайнинг и прочий датааналлизис, тебя без профильного ВО то-же не возьмут.Так что иди в университет для начала, на соответствующую специальность.
>>968121Статистика, на основе кучи всякого говна выбранного типа с гугл аналитикс или еще откуда, и делать из них таблички в икселе, находить зависимости, закономерности. Находишь зависимость, типа школота смотрит чаще на сайте айфоны, а нешколота смотрит самсунги, рисуешь красивый график показываешь начальству, и говоришь как на основе этих данных можно на сайте товары разместить и кому какую рекламу показывать. Хуета короче. Распознавание картинок это тоже статистика только в виде входящих данных - массив пикселей.
>>967786Primal Estimated sub-GrAdient SOlver for SVM есть жи
>>968220>>>968123
>>968220Ну и разные численные методы для статистических параметрических моделей: вектор-машины, перцептроны, PCA для распознавания еблищ и прочая хуета.
>>968226Мы о чем, бро?
>>968129>скрытые переменныеНу не только же их.>>968207>И раз ты задаешь подобные вопросы на харкаче, это скорее всего не для тебя.Стереотипы-стереотипчики.
>>968278>Ну не только же их.Ну там еще выбросы можно детектить.Но лучше детектить выбросы когда у тебя есть скрытые переменные.Короче извлекать любую информацию которая может быть ценной.
>>968278>Стереотипы-стереотипчики. Стереотипы потому и существуют, что имеют объективную основу в объективной реальности.
>>968207>И раз ты задаешь подобные вопросы на харкаче, это скорее всего не для тебя.>В датамайнинг и прочий датааналлизис, тебя без профильного ВО то-же не возьмут.Пиздец. Но я же у мамы молодец, лол. Расскажи, будь добр, подробнее. Профильное это ШАД?
>>968296Это курсы повышения квалификации
>>968302Вышка - это бакалавриат, как минимум по математике/computer science
>>968296>ШАД? What?>Но я же у мамы молодец, лол. Расскажи, будь добр, подробнее. Профильное этоЭто любой университет со сколь нибудь вменяемым уровнем аккредитации.This - >>>968303>бакалавриат, как минимум по математике/computer science Но вообще, все хотят магистров.А если R&D то докторов, или хоть аспирантов.Идешь в МГУ например, и берешь полных список всех направление по computer science, выбираешь то, что ближе всего к интересующей тебя теме.Но вообще, если уже выкладываешься в подобное, то имеет смысл сделать академическую карьеру, и уехать в германии или швеции на этом поприще.
>>968369>>968303>>968302Теперь я окончательно охуел.То есть или я заканчивю ВМК МГУ \ ВШЭ по компьютерным наукам, или шансов нет?>>ШАД? >What?Школа Анализа Данных при Яндексе. Даже это не избавит от академических мук?
>>968369>Но вообще, все хотят магистров.Даже дерьмокодером нынче неберут без магистра.Даже уборщицей.Но есть лазейка в принципе, если у тебя есть опыт, и реальные прожэкты.
>>968382>Школа Анализа Данных при Яндексе.Если она дает трудоустройство в яндексе, то на здоровье, если это то, что тебе нужно.>Даже это не избавит от академических мук?Если обучение для тебя мука, то это все не твое в принципе.Я вообще сколько тебе там лет, но я вот мечтаю в универе всю жизнь учится.Интересно, друзья гулянки любовь, молоденькие студентки.Нет лучшей в жизни поры.Еслиб еще молодость вернуть.А там еще есть всякие кружки философские, а еще путевки всякие от государства. Кружки хорового пения.Эх, Боже, какие же ламповые воспоминания.Дружество и кипящее вино разлито по бокалам.А после,У всех уже своя дорога,И некоторых людей так никогда до самого ты гробаУже не встретишь.Будут только, воспоминания томить.Короче пиздуй в универ и наслаждайся юностью.
>>968389> друзья гулянкиЕсли ты в шараге им. Сутра Опохмелидзе, то да. Если ты не в шараге, то тоже да, только ничего полезного для себя из такой "учёбы" не извлечешь. Т.е. либо ты ебашишь, сократив "друзьягулянки" до охуенного минимума, либо ты очередной хуесос, который не по специальности пойдёт УНИВЕР НИЧЕГО НЕ ДАЛ, виня в этом всех, кроме себя
>>968405Глупое необоснованное мнение.Всего должно быть в меру.Что там в универе "ебашить" нужно, вообще непонятно.Учись в свое удовольствие.А друзья в универе, это основа всех твоих связей по жизни, которые дают социальные лифты.
>>968575Глупое необоснованное мнение.Хочешь нормальных результатов в чём-то - никакого "всё в меру" не должно быть."Ебашить" в смысле постоянно заниматься, по возможности изучая что-то интересное лично тебе сверх программы.Учился в своё удовольствие, ловил ни с чем не сравнимый кайф от учёбы.А друзья и знакомые из универа не для каждого основа связей по жизни, мне больше помогли связи с друзьями друзей, которых я ещё со школы знал. знакомая с параллельной группы, кстати, вообще на заправке, НА ЗАПРАВКЕ, блджад, с мат. образованием вуза дс2, работает, и таких примеров просто дохуя, зато в общажке весело бухала чуть ли не каждую неделю, сдавая экзамены тупой зубрёжкой, благо ещё преподы не очень жётские были
>>968581>Глупое необоснованное мнение.Оукей...>Хочешь нормальных результатов в чём-то - никакого "всё в меру" не должно быть.Ох, ну как скажешь.>знакомая с параллельной группы, кстати, вообще на заправке, НА ЗАПРАВКЕ, блджад, с мат. образованием вуза дс2Такое повсюду в РФ, ценность ВО почти нулевая. И че?Все зависит от тебя.Кто-то уехал в Германию и стал там руководить лабораторией, а кто-то стал уборщицей, хотя окончил вуз с красным дипломом.Все дело в том, что ты для себя извлекаешь из вуза.>зато в общажке весело бухала чуть ли не каждую неделю, сдавая экзамены тупой зубрёжкой, благо ещё преподы не очень жётские былиИ че?
>>968582Да ничё, забей, какой-то хуйнёй занимаемся в треде про машоб
>>968405задрачивал в университете, но он все равно ничего не дал
Школяры, уходите со своими шарагопроблемами, тут тред про МЛ.
>>968581>Хочешь нормальных результатов в чём-то - никакого "всё в меру" не должно быть.Должно. В вузе примерно 70% знаний не нужно, можно на них забить, и распределить время как 35% на дроч в свое удовольствие, 35% на пьянки-гулянки, чтобы не выгореть нахуй.
>>967350бамп реквесту
>>968282Реальность на таком уровне переменчива.>>968281>Ну там еще Да читани ты сам, что такое датамайнинг в целом. Ты рассказываешь про то, в чём шаришь сам - это хорошо, но это не исчерпывающий ответ, неточный.
>>969030>Да читани ты сам, что такое датамайнинг в целом. Ты рассказываешь про то, в чём шаришь сам - это хорошо, но это не исчерпывающий ответ, неточный.Ну так точных исчерпывающих ответов и не бывает (кроме школьных уроков математики).Потому всякий статистический анализ, и дата майнинг, и существуют.
>>969030>Реальность на таком уровне переменчива.Помню замечательную картинку-комикс, к статье о, по моему "достаточность доказательств".В старом журнале химия и жизнь, вроде.Там были две крысы.Когда горит красная лампа их бьет током у кормушки, когда зеленая - можно есть.Первый раз ударило током.крыса 1 - "ебана когда горит красный бьет током!"крыса 2 - "недостаточно фактов чтобы утверждать это, быть может сие было случайным"Второй раз загорается красная лампа.крыса 1 отпрыгивает в ужасе.крысу 2 ебошит током. Крыса номер 2 говорит полуживая - "все еще мы не можем делать достаточно обоснованных выводов, быть может люди хотят обмануть нас, а быть может что-то совсем другое влияет на удар током"Третий раз загорается красная лампа.краса 1 отпрыгивает.крыса 2 жарится. Дымится и бьется в конвульсиях, с трудом выдавливает из себя - "это не может считаться достаточным доказательством так как..." и в таком духе.Надо бы ее найти...А так да, реальность переменчива.
Поясните за модель AIXI и ее аппроксимацию.
>>969047Хотел начать дообъяснять и спорить, потом понял, что всё равно по жизни крыса 2, чего уж там.
https://github.com/mikeizbicki/HLearnЧто скажите об этой библиотеке машинного обучения? И если взять концептуально, то зачем там гомоморфизмы?
Ну вот, а я же говорил, что нейроночка это зависимый тип. К этому все и идет, вот >>969723 библиотека для МЛ на хачкиле, все этапы работы нейросети представлены функторами да мандадками. Скоро до кого-нибудь дойдет, что в нейросети вообще нет ничего кроме стрелок и котягорий. Или лямбда-термов, кому как нравится. И не только все нейросети ,но и все алгоритмы в МЛ проще, лучше и удобнее рассматривать с позиции типизированной лямбды, как я и предлагал >>959210 помимо прочего, такой взгляд на проблему предполагает и автоматизированное решение задачи построения алгоритмов МЛ генетическим программированием на типизированной лямбде.
>>969775>Скоро до кого-нибудь дойдет, что в нейросети вообще нет ничего кроме стрелок и котягорий. Или лямбда-термов, кому как нравитсяВ нейросети нет ничего кроме матриц.Наркоманы злоебучие.
Меня тут агитируют перекатываться из веба в машоб, даже курсы дали бесплатные от яндекса.Я конечно трезво понимаю, что из веба нужно выкатываться и как можно скорее, потому что это въёбывание, тупое въёбывание, где конкуренция растёт с каждым годом, а вкатывальщиков всё больше и больше.Вокруг машоба я не вижу хайпа, хайп надуман, курсы потребляет очень мало человек, реально учиться и вкатывается 3.5 человека.Перспективно, но для тех, кто сейчас поступает в универ и будет искать работу через 4-6 лет.А вот мне щас, что делать? Отслушаю я месяц курсов, эт ос учётом того ,чт оу меня есть хорошая математическая база, а дальше куда?Живу в Воронеже, вакансий по машобу нет, какие-то свои проекты в одичноку я не потяну, только переезд в мск.В мск требуются специ за 300к, без опыта или с малым опытом есть, но всё очень мутно.Что думатете по этому поводу, что мне делать? Жалко потраченного времени на веб, но уходить рано или поздно придётся, ибо отрасль умирает, к тому же я работаю на фрилансе у меня не будет пенсии и других соц гарантий и по своему здоровью я вижу, что в 40 лет уже не смогу работать программистом ,а в машобчеке можно и карьеру по административной лестнице сделать.
>>969988300 к? без опыта? дурачок что ли? Я видел вакансии около 80-100 к на дата саентистов, но там я бы не сказал что без опыта.
>>969990Я хоть писать не умею, но ты вообще, по всей видимости не умеешь даже читать и видеть элементарную логику.Внимательнее перечитай пост.
>>969993а ты тяночка?
>>969995В душе да.
>>969996тогда только фронтенд
>>969997Не путай пидорство с девочкой внутри.лучше расскажите истории трудоустройства для мотивации, поделитесь опытом.Или тут одна студентота?
Чтобы где-то работать по этой специализации надо иметь небось доктора наук (или там Ph.D или что там)?
>>969998В смысле блять? Ты просто идешь в контору на собеседование. Тебя не берут. Ты говоришь ну и хуй с вами дебилы набирайте дальше макак из ПОХАПЭ треда. Пиздуешь в следующую контору.
>>969988Нет пути, если нет серьезной подготовки по математике и статистике. Короче хуй вкатишься если ты собачий хуй.
>>970004Несёшь хуиту, в вакансиях нет ничего про образование, хватит бакалвриата/магистратурыЧтобы работать нужно иметь опыт работы в машоб, где его взять, если его нет?Самый реальный вариант на мой взгляд - вакансии с опытом 1-3, где требуется какой-то смежный опыт, например бигдата, в бигдате можно получить опыт без опыта, просто выучить основы java/python и чуть чуть математики с первого курса любого технического факультета.Т.е. те, кто имеет опыт в смежных областях - могут вкатиться в машоб и т.п., а просто с улицы или из веба, как в моей ситуации, - хуй.Пройдёт несколько лет, будут требоваться джуны, но сейчас нет.Я хочу вкатываться сейчас, а не через несколько лет.
>>970015Ну так вкатывайся, кто мешает? Проблема в том, что сайт нужен каждой заборостроительной конторе, а сеточки - чуть более чем никому.
>>970014>чт оу меня есть хорошая математическая база>нет серьезной подготовки по математике и статистикеЕщё раз, прошу тебя, научись читать.И математика, по-моему опыту, это гораздо более понятная, приятная и простая сфера, нежели, чем веб.Потому что математика - это в первую очередь инструмент, который придумал человек для работы, для удобной работы под конкретные задачи.А веб - это организм, выросший на деструктивной деятельности человека, при этом часто лишённый логики.
>>970018>Ну так вкатывайся, кто мешает?Страх проиграть.Жалость по тому, что было потрачено время на вкат в веб.Отсутствие вакансий без опыта.Я не могу бросить работу и полностью погрузиться в учёбу, параллельно с работой учиться тяжело.>каждой заборостроительной контореМиф, опять же по-моему опыту, большая часть мелкого и среднего бизнеса не хочет иметь сайты, потому что их устраивает объём заказов, который получают через сарафанное радио и объявления.Во-вторых, типо решения вроде сайта-визитки, объявления, лендинга и даже магазина клепаются конструктором.Есть куча шаблонов, куча cms, куча решений дизайнерских и технических, многое из которого можно получить бесплатно.А работа веб-мастера сейчас - это сродни сборщику мебели икея. Всё уже готово к тому, чтобы это собрали, инструкция есть в картинках для самых маленьких.Серьёзной веб-разработки для конкретных индивидуальны, не типичных проектов, относительно всего рынка не так много.Когда сайтостроение для крестьян станет доступным и автоматизированным, ну или хотя бы прост очень дешёвым, тысячи веб-разработчиклв побегут в более серьезную разработку, а там нет столько работы. 90% останется за бортом, и это случится при моей жизни.Этим меня привлекает машоб, и вообще любые сложные вещи, которые на самом деле не сложные, просто считаются в народе сложными. Тут нет вкатывальщиков, есть перспективы.
>>970027>типо решениятиповые
>>970027Поверь, в этот ваш машоб на уровне слесаря-наладчика вкатиться проще, чем в веб, скоро любая бабулька будет сеточки с котиками обучать.
>>970033А с подкреплением? А без учителя?
>>970035Ты академические работы читал? Цифры видел? Они же смешные, обучение без учителя это технология завтрашнего дня и бизнес за нее платить не будет.
>>970019Ну пробуй, я вот дропнул, осилил 1,5 курса специализации от яндекса и мфти, дальше я просто не смог.
>>970049На том и порешил, буду уделять по часу каждый день, глядишь к тому времни, когда веб всё, и перекачусь.
>>956903 (OP)Был спор с аноном о том, как нужно общаться, чтобы нейросеть не могла идентифицировать твои тексты. Анон писал, что нужно изобретать свой язык с кодовыми фразами, короче, чтобы со стороны это выглядело как бред. А я думаю, что нужно наоборот писать без грамматических ошибок в общем стиле, тогда не будет понятно, где твой текст, а где не твой. Как вы думаете, кто из нас прав?
>>970472Просто берешь сетку и учишь ее подделывать тексты известных политических деятелей.
>>970525Эээ, а как это поможет?
>>970550Ну тогда сетка товарища майора будет думать что это пост Владимира Жириновского а не Антона Безымянного.
>>970553Но писать то будет не сетка, а ты, лол. Или типа перед отправкой сообщения пропускать его через сетку Жириновского? НЕГОДЯИ! ПИДАРАСЫ!
>>970555А как это делать ты узнаешь, прочитав полугодовой курс по нейросеткам от ведущего российского ВУЗа - /pr/-университи.
>>970587https://2ch.hk/b/res/150641886.htmlhttps://2ch.hk/b/res/150638186.htmlЯ уже сорцы и тензорфлоу качаю, кек. Не хотите поучаствовать?
>>970590Бля, ещё сципи нужон.
>>970015короче, вкатываться просто. Ботаешь xgboost, python или R и идешь решать задачи на Кеглю. Переезжаешь в ДС, ходишь на всякие тусовки и хакатроны, обрастаешь знакомствами. Параллельно участвуешь в разных российских хакатронах и соревнованиях от банков. Это все займет макс месяцев 12. Потом работа сама тебя найдет.
>>970620А я на днях вкатился в ML проект, чтоб разнообразить свои скиллы, вообще не зная ничего про ML =) Чисто за счет опыта работы с java, на которой написана система. Вообще, это частая связка, ML и java? Постоянно слышу про питон, R, скалу.
>>970472исходя из теории вероятности, информации и прочей шелухи, тебе нужно писать, как все, чтобы энтропию повысить, а по уникальному языку тебя сразу различат, так как тексты на уникальном языке все равно содержат информацию, повторения и тд. Но на самом деле нет, тебе просто нужно зашифровать свой текст хорошим алгоритмом и одноразовым шифром, короче, это уже криптография.
>>970663зависит. в сэйлсфос вроде как все юзают яву. но для машинного обучения это зашкварный язык, ибо приходится писать много с нуля.
>>970699>тебе нужно писать, как все, чтобы энтропию повысить> а по уникальному языку тебя сразу различат, так как тексты на уникальном языке все равно содержат информацию, повторения и тд.Вот! Мерси, вот это была моя точка зрения, только таких умных слов не знаю, так и думал, короче. Ну не, про криптографию это уже не язык, получается, а шифровка, постоянно так общаться не выйдет.
О, а вы не думали сделать свой курс машинного обучения? Или там для начала курс по математике?
>>970849> сделать свой курс машинного обученияс матюгами, мемесами и ёблёй мамаши читателя?
>>970860Именно так!
>>956903 (OP)сагаю отсталых даунов
>>970849Нинужно столько тупых машинных учителей. А если ты не тупой, то и сам разберешься. Вон на Кегле индусы с китайцами атакуют
Каким набором паттернов обучать нейроночку, чтобы она отличала круги от любых остальных фигур?
>>971041{ Factory, Singleton, Proxy, Bean, Facade }
>>971043)
>>969843Так разные Tensorflow, Theano вообще пихают вычислительные графы
>>971121>Так разные Tensorflow, Theano вообще пихают вычислительные графы Я хз что это за звери, но нейросети это чистые матричные вычисления.От чего их так приятно гонять на GPU, и от чего они вызывают боль у CPU.Причем там кроме умножения сложения и вычитания матриц ничего нет в мат аппарате.Ну разве что функция активации может быть кокой интересной очень. Но обычно это квадратичное что-то.
>>971202кул стори бропиши есчё
>>971202>их так приятно гонять на GPUЕсть у меня 680 жифорсина, для того, чтобы как следует обучить сеть нужно говнять её ~ 30 часов. Сам я её давно не юзал, примерно полгода после покупки забил хуй на игры, хуигры и прочее говно, потому что-то очково её на 30 часов запускать. Она не сгорит, анон? Может ну его нахуй? У тебя у самого сколько обучение идёт? В общем вопрос такой, не страшно ли видюхе будет столько времени без перерыва работать?
>>971418ну его нахуй, анон. ещё загоритсялучше не лезь ты в этот мл, нахуй тебе эти нейроночкивсёравно видюха старая, ещё хату спалишь, жена отпиздит, ненадо тебе это
>>971430Вот и я к этому склоняюсь.
>>971418Так облучай сеансами по пару часиков, за неделю управишься.
>>971418юзай гугл клауд
>>971456На паузу ставить типа? Или там есть опция сохранения состояния.Не за неделю, почему, по 5 часов можно вполне, да и 30 это я по максимуму взял, а так 20 где-то. >>971445Погуглю, спс. А сами вы что юзаете? Или у всех теслы в сли стоят?
>>971456>гугл клаудТо есть я могу поставить туда своё окружение и запускать в облаке? Бесплатно?
>>971456Там номер карты и телефон нужен.
>>971210>кул стори бро>пиши есчё Я серьезно.Нейросети суть параллельные вычисления. Там магии то никакой нет.Входной сигнал есть вектор.Он вумножается на матрицу весов. Полученный вектор поэлементно ебошим через функцию активации, вуаля.>>971418>потому что-то очково её на 30 часов запускать. Она не сгорит, анон? Может ну его нахуй? Зависит от охлаждения и настроек.Если очкуешь, запусти оверклакерскую утилиту и понизь частоту GPU.Производительность просядет немного, зато гораздо экономичнее и холоднее.Производительность с частотой растет линейно, а энергопотребление экспоненциально.>У тебя у самого сколько обучение идёт?Зависит от. Можно и неделями считать. Если больше пары дней, то нужно искать железо помощнее.
>>971457Я хер знает на чем ты учишь. Если на кофе - то это называется snapshot: 1000Если на чем-то другом то поищи как в твоей параше это делается
>>971465>Если больше пары дней, то нужно искать железо помощнее.Чисто практическое ограничение.Елси тебе что-то неделю обучать нужно, то нужно уж быть уверенным, что оно того стоит.
>>971465Ну да все так + идет настройка параметров, через обратное распространение ошибки все тем же векторным умножением, а нейронки маркетологи преподносят чуть ли не как искусственный мозг, который может все.
>>971467А гугл клауд использовал? Он карту с телефоном просит. >>971466tensorflow, это ты про сохранение прогресса?В общем, я понял, я скорее всего задачу выбрал тяжёлую, потому не стоит удивляться таким срокам. Главное, что мозгов хватило посоветоваться, так бы поставил сейчас на 30 часов крутиться и без видюхи остался бы. Спасибо.
>>971472Ну там тоже можно как-то. Вообще за один присест мало кто обучает, ваш капитан.
>>971472>А гугл клауд использовал? Он карту с телефоном просит. Ноуп.Я не любитель облаков.Мне проще свой сервер сделоть. Или комп апгрейднуть.Кстати говоря, у APUшек амудушных есть неплохой задел для нейрончиков, в виду общей для GPU и CPU памяти. Ну да есть ли там кокие фреймворки я не в курсе.
>>971474Да вот, нашёл уже скорее всего. w1 = tf.Variable(tf.truncated_normal(shape=[10]), name='w1')w2 = tf.Variable(tf.truncated_normal(shape=[20]), name='w2')tf.add_to_collection('vars', w1)tf.add_to_collection('vars', w2)saver = tf.train.Saver()sess = tf.Session()sess.run(tf.global_variables_initializer())saver.save(sess, 'my-model')# `save` method will call `export_meta_graph` implicitly.# you will get saved graph files:my-model.metarestore model:sess = tf.Session()new_saver = tf.train.import_meta_graph('my-model.meta')new_saver.restore(sess, tf.train.latest_checkpoint('./'))all_vars = tf.get_collection('vars')for v in all_vars: v_ = sess.run(v) print(v_)>капитанНет, мне было неочевидно. Спасибо ещё раз.
>>971475Да есть уже нвидиа, специально покупать железо ради любопытства не хочется. Насчёт облаков хз, почитал, вроде годнота, но ни телефона ни карты нет, если даже в телеграмм хуй зарегаешься с фейковыми, то там и подавно, думаю. А жаль, позать гугложелезо было бы прикольно.
>>971477>но ни телефонаУ тебя нет телефона?
>>971483Нет.
>>971484>Нет. Ты анонимус очень, или какие причины?Сейчас без телефона же тяжело, ни родным позвонить, ни друзьям, ни скорую вызвать.А если там учится пойдешь, то унрил просто. Хелл мод.Купи телефончик то, и будет все хорошо.
>>971486>ни родным> ни друзьямНу ты понял. Учиться да, вот как отучился, так три года на полке и пылится. Если бы нужен был, то не пылился бы. А так какой смысл покупать, если всё равно не будешь пользоваться? Не, не анонимус, просто хз, так вышло, короче.
>>971487>Ну ты понял. Учиться да, вот как отучился, так три года на полке и пылится. Если бы нужен был, то не пылился бы. А так какой смысл покупать, если всё равно не будешь пользоваться? Не, не анонимус, просто хз, так вышло, короче.А ты не из Украины?Ну, карточка стоит копейки, а тел утебя есть.
>>971489В Беларуси сижу, сам из РФ, за обслуживание с граждан РФ тут бешеные бабки, абонплата типа, короче не стоит того, ща вот разберусь, как модельки сохранять загружать и перед сном буду запускать, пусть себе обучается потихоньку.
>>971489Да и тел есть, а карты нет. есть, но я ещё номер карты в интернет не отправлял. не горю желанием как-то.
>>971460да, загоняешь свое окружение, гоняешь его. Но, конечно, не бесплатно, если много гонять, то своя тесла выйдет дешевле.
Я считаю, что это было бы очень трудно убедить умного человека, что ток [Частотная] статистическая практика была разумной, но это было бы гораздо меньше трудностей с подходом через вероятности и теорему Байеса. - Джордж Коробка, 1962.
Пацаны, поясните за книжки:http://www.deeplearningbook.org/http://www.cs.ucl.ac.uk/staff/d.barber/brml/Годно или в шапке лучше?
Поясните что именно читать, если требуется сначала грамотно промоделированная работа простейших нейронных сетей максимально диссоциировавшись от математики, и только после пояснений этой работы идут уже примеры конкретных реализаций моделей нейронных сетей, импульсных других пока не знаю и так далее. Имея ввиду тот факт, что сначала идут исследования по работе мозга, съём показаний, от этого строятся определённые выводы, и только отталкиваясь от этих исследований уже строятся простейшие математические модели.
>>971465>Входной сигнал есть вектор.>Он вумножается на матрицу весов.Как там, вышло чего после пикрила? http://dkws.narod.ru/linux/etc/optical/cpu.html
>>972458> промоделированная работа простейших нейронных сетей максимально диссоциировавшись от математикиТы поехавший. Пиздец.>Имея ввиду тот факт, что сначала идут исследования по работе мозга, съём показаний, от этого строятся определённые выводы, и только отталкиваясь от этих исследований уже строятся простейшие математические модели. Я не понимаю тебя.Совсем.Нейронные сети, в инф технологиях, имею такое же отношение к работе мозга, как реактивные двигатели в самолетах, к крыльям птицы.
>>972462Вроде что-то где-то пилят, но не особо афишируют.
>>972463>как реактивные двигатели в самолетах, к крыльям птицыПрекрасно. Итак. Ты привёл в пример птицу и самолёт.В данном случае выполняющие одну и ту же задачу. Полёт из пункта а, в пункт б. Верно? Верно.Отталкиваясь от этой информации, если учитывать тот факт, что исследования по работе мозга уже проводились и были выявлены основные закономерности по его работе, под какую именно задачу он лучше всего подходит? Выявлена ли эта задача? Не хуярят же программистишки с учёными чего-то там наобум, правильно?
>>972470Выводы которые сделаны на основе снятия показаний о работе мозга, сравнимы с выводами о том, что хуйня светится, сделанными бабушкой, увидевшей айфон.
>>972476Значит ли это, что все созданные модели нейронных сетей - никак не связаны с реальным положением дел в реальном мире?
>>972477с моей точки зрения любые современные нейронные сети лишь занимаются, ничем иным как, брутфорсом в подмножестве.
>>972479плюс у них есть кэш. вот и весь дизайн.
>>972479> любый современный и модные алгоритмы, все основаны на брутфорсе, в них нет логики, они нюхают все зачуханные углы и находят что-то, что удовлетворяет искомому условию.
>>972481очевидно, мозг так не работает.
>>972470>Прекрасно. Итак.>Ты привёл в пример птицу и самолёт.>В данном случае выполняющие одну и ту же задачу. Полёт из пункта а, в пункт б. Верно? Верно.Ты в военкомате был?Там психиатр, задает вопросы "абитуриентам", чтобы выявить их годность.Популярный вопрос - "Чем птица отличается от самолета?".Если чел будет отвечать что-то вроде того, что ты написал, его пошлют скорее всего на обследование в психушку.>Отталкиваясь от этой информации, если учитывать тот факт, что исследования по работе мозга уже проводились и были выявлены основные закономерности по его работеДа не особо.Вначале думали что оно вот так.Потом оказалось что оно вот сяк.Потом стали думать что оно вот этак.А с новыми инструментами и теориями посмотрели, и охуели совсем.Ты русским языком объясни, чего тебе надобно?Ты лабу пишешь, или чего?>под какую именно задачу он лучше всего подходит? Выявлена ли эта задача?Лучше всего он подходит для управления человеческими тушками.Но с математической точки зрения, если обобщить, то нелинейная оптимизация.>Не хуярят же программистишки с учёными чего-то там наобум, правильно?Wrong.>>972458>Поясните что именно читатьИз твоего сумбурного бреда, я так понимаю, тебя интересует КИБЕРНЕТИКА.Вот по ней книжки и читай.
>>972458Блять, лол. Наслушаются баззвордов в ютабе своем, а потом на двощи лезут. Умора.
>>972479>>с моей точки зрения любые современные нейронные сети лишь занимаются, ничем иным как, брутфорсом в подмножестве. в удобном для соискателя подмножестве.fixed.
> Чем птица отличается от самолета?птица живая, самолёт бесдушная груда металлаптица кушает насекомых, самолёт заправляют бензойптица-самец + птица-самка = много птиц и птенцов, самолёт + самолёт = катастрофа и расчлёнёнкаптицы эволюционировали из птеродактилей, самолёты из велосипедов
>>972494птица умнее чем самолет. нужно начать с этого. Она сама может найти горючку и найти удобное, для прибывания, место.
>>972497а отправляются в летное путешествие они, абсолютно, по разным причинам.
>>972497ты заблуждаешьсясамолёт обладает куда большими вычислительными мощностями чем птица
>>972505Ноуп.Птица мощнее на несколько порядков.
>>972506бортовые компьютеры самолёта порвут любую птицу
Теперь это тред ответов на каверзные вопросы психиатра в военкомате, можете отвечать, а я почитаю ваши ответы
>>972494>самолёт заправляют бензойА я вот тут недавно подумал, что эрудиция для человека - это не пустая бесполезная хуйня, как заявляют некоторые. Ну я и раньше это знал, но без доказательств. А тут прослеживается полная аналогия с нейросетью (что неудивительно, человек и есть нейросеть). На ограниченном наборе данных сеть может научиться выдавать правильное решение, но на незнакомых данных зафейлит. Чем больше датасет, тем лучше генерализация сети. "Узкая специализация" в образовании - это путь к деградации.
помогите с продакшн-солюшн-архитектуройптица наследует от самолёта или самолёт наследует от птицы?
>>972513Наследование требуется только для повторного использования кода. Что может использовать самолет от птицы, или птица от самолета?
>>972512>что неудивительно, человек и есть нейросетьНет.
>>972523Да
>>972525Нет
>>972526>>972525>>972523Научная дискуссия уровня мейлач.
>>972519полётзаправка/кушаниеоператор +
>>972507>бортовые компьютеры самолёта порвут любую птицу Нет.Они во первых, даже твой смартфон не порвут.Во вторых ученый даже мозг червя пидора не могут победить.Вычислительная мощность птицы, это что-то около пары небоскребов плотно забитых видеокартами.
>>972529>нихуяНу вот ты и сам ответил. Наследование ради наследования нинужно. Наследуй обоих от MovingObject и не еби моск
>>972507Прежде всего птица, по сравнению с самолетом это идеал воздухоплавания, она может распознать сотни ситуаций которые помешают ей продолжить путешествие, у нее есть зрение, слух, обоняние. Самолет же это большая груда метала и говна, которое может рухнуть в любой момент из-за того, что переменная переполнилась и стала нулем или отрицательным значением, так в добавок там еще кто-то должен сидеть, с более продвинутым мозгом, чем птица, чтобы это хотя бы начло двигаться.
>>972539> наследуй птицу от самолётаНу вот ты и сам ответилтак бы сразу и сказал
>>972530> Вычислительная мощность птицы, это что-то около пары небоскребов плотно забитых видеокартамиптица даже 2 и 2 не сложитсамолёт 2 и 2 может сложить триллиарды раз в секунду
>>972541как будто у птиц не бывает переполненийhttps://www.youtube.com/watch?v=90KG5WumqBA
>>972545>птица даже 2 и 2 не сложитСложит.>самолёт 2 и 2 может сложить триллиарды раз в секундуЭто не интегральный показатель вычислительных мощностей.Мозг птицы оптимизирован не для символьной арифметики.Видеокарта даже операцию условного перехода сделать не может, а CPU миллион раз в секунду такое провернуть может, и что?Тебе лет сколько, технократ мамин?
>>972548лучше уж в окно чем на ровном месте,https://www.youtube.com/watch?v=oXXGIlmdnsk
>>972551> Сложит.нет, она даже само понятие int не осилила> Это не интегральный показатель вычислительных мощностей.> Мозг птицы оптимизирован не для символьной арифметики.птицы используют символьную тригонометрию для вычисления траектории полёта> Видеокарта даже операцию условного перехода сделать не можетможет, я видел if в CUDA коде кернелов> Тебе лет сколько, технократ мамин?https://www.youtube.com/watch?v=AfIOBLr1NDU
>>972437первую читаю сейчас, у меня с математикой плохо, математику было сложно оттуда понимать, а так ее хвалят, вторую не знаю
>>972555
>>972552а так твоя птица может?https://www.youtube.com/watch?v=We4j0NHn7i4
>>972557?
>>9725081. КПД.2. Неопределенно.3. Рассказал. Я использую при работе ленивые вычисления. Когда спросите конкретней тогда и попытаюсь ответить. 4. Вообще бывают.5. Есть.6. По массе одинаковы, но по плотности и тяжести на усредненной среднестатистической планете Земля по выборке зоны златоволоски кирпич тяжелее. 7. Ощущение пустоты бытия, бесконечности Вселенной, постоянные крутящиеся боли, плохое зрение и возникающие из-за этого зрительные иллюзии (видел улыбающегося еврея сделанного из куртки) и приятные запахи несоответствующие реальности.8. Апеннинский полуостров, на сколько я понял.9. Ракетных.10. Пытался лечь ночью в сугроб и замерзнуть говоря с Богом.
>>972556Я, если что, вот тут их нашёл:https://github.com/open-source-society/computer-scienceТам ещё и курсы по математике есть.
>>972570Ты здоров, можешь идти.
>>972570годен к службе родине
Скажите, а курсы от Яндекса на курсере бесплатные?https://www.coursera.org/learn/vvedenie-mashinnoe-obuchenie
Есть линейная алгебра с нескучными картинками?
>>9726913blue1brown
>>972662Да только задания будут закрыты, а вот у Ng все бесплатно.
>>972717>Ng Где?
>>972730курс китаёзыз на курсере (не стоит того)
>>972570>постоянные крутящиеся боли, плохое зрение и возникающие из-за этого зрительные иллюзииРак мозга?
Ыыыы, а есть какие-то работы по тому, чтобы нейросеть просто кушала данные, но сама выбирала алгоритм обучения? Типа не специальным алгоритмом обучать, а он внутри кароч
>>973215ничегонейронки это говнона машине тьюринга принципиально невозможно сделать ИИтеперь дальше соси форс гуглопидаров как остальные школьники из этого даунотреда
есть какой-нибудь легкий вводный курс для школьников, чтобы вкатиться в нейронки и машоб без дроча матана?
>>973237https://www.youtube.com/watch?v=utP5kqDEjao
>>973237Нет.
>>968389У старпера подгорело, лол. Чето блять заканчиваю 6 курс и ничего о чем ты говоришь у меня особо не было. А пивасик с друзьями попить всегда можно
>>973269>У старпера подгорело>и ничего о чем ты говоришь у меня особо не былоНу, конечно сожалею тебе, но, не горит от сего факта нисколько.
>>968389Ага блять, я в 25 лет брошу работу и пойду обратно на шею к родакам садиться, чтобы еще джва года в вузе просрать.
>>973350Кем работаешь?
Собираюсь к вам вкатиться.Какую видеокарту и проц брать для домашних опытов?Радеон, как я понял, не катит — нужна нвидиа. 1070 хватит? Или 1080 ощутимо лучше?
Почему из шапки убрали http://neuralnetworksanddeeplearning.com?
>>973240Пичаль. Что же мне корменом давиться только чтобы уметь переводить дискретную алгебру в матан?
>>973217Это почему же на машине Тьюринга нельзя сделать ИИ? Считаешь, что в мозгу есть много всяких квантовых эффектов и непонятных штук?
>>973425>Это почему же на машине Тьюринга нельзя сделать ИИ? Потому что школьник на мейлру так сказал, очевидно же. Ты что, школьникам не веришь?>Считаешь, что в мозгу есть много всяких квантовых эффектов и непонятных штук? АТО! Вот взять счеты пикрелейтед. Они состоят из молекул, атомов, в конечном счете из квантов. Значит, это квантовый вычислитель. Шах и мат.
http://rb.ru/opinion/12-let-it-specialist/Вы тут все скоро станете нинужны
>>973307Ты просто по хуйне сокрушаешься
Алло блять пидарасы, нахуй мне ваша линух? Почему я это все не смогу запилить на винде?
>>973487> Сейчас мой сервис работает в Калининградском кризисном центре помощи женщинам, жертвам домашнего насилия.А я уж было почти поверил что статья правдива.
>>973491>Ты просто по хуйне сокрушаешься Не сокрушаюсь ни по какому поводу вообще.
>>973557>Почему я это все не смогу запилить на винде? Удивительно, но факт - большинство новомодных пистонопараш для МЛ в разы проще ставить и использовать на глинуксе. На винде даже ставить заебешься, как оно там будет работать, вообще одному Аллаху известно, не исключено что и никак. Это еще с теано пошло, если не раньше, там создатели прямо пишут, что основная версия - глинукс х64, остальные существуют просто чтобы было, жалобы на глюки есть смысл писать только на основную версию, т.к. работают только над ней. Пистон, в нем все дело. На глинуксе эту парашу с миллионом зависимостей гонять проще.
>>973619При чем тут питон, просто очевидно, что работает лучше всего то, на чем работают все. А все работают понятно на чем - я бы посмотрел на человека, который использует винду на AWS.
Вот чтобы вкатиться в хадуп, спарк и компанию и писать на жабе/скале, для этого математика же не нужна? Мне интересны все эти штуки связанные с большими данными, машобом, нейронками, но с точки зрения разработки промышлненных систем, я так понимаю, в компании есть отдел дата сайнтистов, которые фигачат и оптимизируют алгоритмы и есть прогеры, которые их уже запускают в прод?
>>974056Не нужна, это даже 12летний может осилить >>973487
>>974076>Также я провел исследовательскую работу «Прогнозирование валентности эмоционального отклика на графический контент с использованием нейроинтерфейсов и алгоритмов анализа данных».Штоблядь? Одноклассникам вставил провода в мозг и показывал мемасы?
>>974101В лучшем случае КГР записал с помощью ардуины и резистора, потом кластерный анализ. Но в целом для 12 лет это очень даже, ИТТ в такое 95% местных шитпостеров не сможет.
>>974121>ИТТ в такое 95% местных шитпостеров не сможет.Ну им, может быть, просто не интересно ебаться с проводами. Не умеют != не смогут.
Нужно ли учить уже сейчас квантовое машинное обучение?
>>974170Да
>>974200Ты учишь? Что-то посоветуешь?
>>974101Зачем в мозг, там как кардиограмма делается, на голову лепишь присоски с проводами - и все, и можно мерить хоть отклик хоть на аллаха
>>972483>Популярный вопрос - "Чем птица отличается от самолета?".Тем, что самолёт железный? Я завис.
>>972483>птица>самолетаBIRD OF PREY BIRD OF PREY FLYING HIGH FLYING HIGH
>>974760https://www.youtube.com/watch?v=-9kw0H6B4kM
>>974635>на голову лепишь присоски с проводами>нейроинтерфейс
>>974804Да, в ЭЭГ еще много всяких шумов, так что даже read-only нейроинтерфейс не будет.
>>973425>Это почему же на машине Тьюринга нельзя сделать ИИ?Скорее всего можно.>Считаешь, что в мозгу есть много всяких непонятных штук?Как работает мозг - науке непонятно.Известны только какие-то отдельные факты и некоторые закономерности.>Считаешь, что в мозгу есть много всяких квантовых эффектовНедавно, обнаружили, что в нейронах есть особые белки, которые работают как кьюбиты. Тысячи их, в одном нейрончике.И даже до этого открытия, считалось, что один нейрон, по "мощности" скорее как мощный компьютер, а вовсе не простой нелинейный преобразователь.>>973350>Ага блять, я в 25 лет брошу работу и пойду обратно на шею к родакам садиться, чтобы еще джва года в вузе просрать. Накопить денег не вариант, ты же работаешь?И бросать необязательно, можно взять академический отпуск.Или договорится о неполной занятости.
Посоветуйте хороший учебник по линейной алгебре. Для начинающих.Проходя первый уровень курса от яндекса с мфти, обнаружил, что эта тема освещается лишь обзорно, чтобы уже имевшие дело с ней могли по-быстрому вспомнить.А мне половина материала не ясна. Что ещё за размерность векторного пространства?
>>974759
>>974967Годный курс https://www.edx.org/course/linear-algebra-foundations-frontiers-utaustinx-ut-5-05x
>>975021А там есть про норму векторного пространства?
>>975056>норму векторного пространстваНу да, а что там сложного? И евклидова и манхеттенская и еще куча разных
>>974967> ещё за размерность векторного пространства?Размерность пространства – это максимальное число содержащихся в нем линейно независимых векторов. (тех, которые нельзя выразить через друг друга посредством сложения и умножения)
>>975077Я на самом деле норму имел в виду.Отвлекался, когда писал пост.А про размерность мне понятно.
>>975077А ещё это число осей пространства. Или количество координат, которыми задается вектор.
>>974967>Что ещё за размерность векторного пространства? Количество компонент вектора.
Поясните за генеративные нейросети.
>>975679генеративная нейросеть - массив
>>975709Как монада?
>>975709Чуть выше уровнем, пожалуйста.
Как-то случайно открыл статью о нейролингвистическом программировании и долго втыкал что же это за модель нейросетей такая и где математические модели. Восхитительная история, правда?
>>975931Братишка!
Поясните как в той научной работе нейроночка от гугла сохраняет предыдущий опыт.
>>956903 (OP)Вот вкатился, а тут всякие градиентные спуски. А я в мухосрансковузе решал типовые задачки и не понимал, зачем нужен градиент. Часто ли я буду встречаться с такими пробелами? Всегда ли их можно устранить прямо находу или лучше почитать калькулус?
>>977288И калкулюс и линал и теорвер
>>977288>Часто ли я буду встречаться с такими пробелами?Не очень, там в основном все крутится вокруг одних и тех же понятий.>Всегда ли их можно устранить прямо находу или лучше почитать калькулус?Всегда. Если ты уже матеше учился, тем более проще разбирать конкретно только то, что непонятно, а не перечитывать целиком учебники.
Вообще, если ты ебаный школьник или просто тупой, и не знаешь програмы по матану за первые 2 курса, вам лучше не травмировать свой мозг машинкой, а заняться чем то более подходящим: подготовкой к егэ например или изучением html
>>977376А если я уже не школьник, но вуз закончить не смог?
>>977543Значит мама будет расстроена
>>977376>Вообще, если ты ебаный школьник или просто тупой, и не знаешь програмы по матану за первые 2 курса, вам лучше не травмировать свой мозг машинкойИронично конечно, но>програмы по матану за первые 2 курсаЛежат параллельно компьютерным наукам и машинному обучению.
>>977557Она и расстроилась.Но я её уже успокоил.
Анон, помоги советом.В общем надо решить что делать в дипломной. Суть вот в чём, есть 2 картинки, фото и разметка (пикрилы).Собственно задача в том, чтобы как-то такие картинки обрабатывать. К примеру, подсчитать количество машин/пешеходов, найти машину определённого цвета и т.п.Так вот вопрос, что можно сделать такого, а главное что проще всего? Какое ПО и технологии использовать?
Тред оккупирован матаноблядями, такие ИИ не построят. Тут нужны нейрохимики и философы, матаноблядей надо гнать
>>977634Я школьник с метафизической интоксикацией. Подхожу?
>>977635нет
>>977634Угу, а самолет построят зоологи с философами
>>977701намомни, какое отношение физики и матанопиткхи имеют к первому самолету? и да, ии это больше философия чем что либо еще.
>>977634Машмоб к ИИ отношение имеет весьма далёкое.
>>977720Самолет построили инженеры, которые с физикой и матаном лучшие друзья>ии это больше философияПоследняя надежда философов хоть в чем-то показать свою значимость
>>977828ты к инженерам матанопитухов не примазывай.
У ОПа очень негативное отношение к ШАДу. А почему так? Он там обучался или контачился с кем-то? Хотя я тоже не особо верю в ШАД, но хотелось бы конкретики.
>>977668Почему?
такое ощущение, что нейронки и машоб - последняя надежда матанопетухов хоть в чем-то показать свою значимость, но и тут они фейлят
>>977944нет, они еще в компьтервижен кукарекают, но с таким же успехом
>>977944Это тоже отчасти верно. Матанопетухи понимают в матане, но совершенно не разбираются в человеке, а ведь нужно делать его функциональную имитацию
>>977983>нужно делатьКому нужно?
>>977984Человечеству нужно. Его только антропоморфный ИИ устроит - с эмоциями, интонациями, мимикой, жестикуляцией сиськами и жопой. Чемодан с микросхемами людям нинужен, какой бы он умный ни был, его будут считать просто компуктером.
>>977992делай раз нужно
>>977874там паста, опу похуй на шадавтор пасты обучался вроде
сап двач анон нужен датасет показания датчиков для электромобилей где поискать
>>977622бамп
>>977831Инженеры, кстати, - главная причина того, что Рашка в такой жопе, инженеры в науку не могут, а могут только чужие наработки применять, да и инженеры вообще тупые, даже самая современная физика отстала от настоящего матаппарата лет на 60
>>978308теперь назвал изобретения придуманные математиками или открыл рот для приема мочи.
>>978308быдло обнаруженопоясняю: математический аппарат зачастую приходится разрабатывать "на ходу" при развитии теоретической физики. В первую очередь, математика отстает от физики
>>978308Кекнул с дауна. Физика не обязана подстраиваться под маьематику. Физика должна подстраиваться под эксперимент, а математики должны развивать нужный мат аппарат по запросу физиков. Математики это как шлюхи по вызову. Как бухгалтерия. Их задача придумать адекватный и компактный способ записи тех знаний о мире, которые добыли физики
>>978423К тому времени как появляются новые знания о мире, обычно уже существует несколько способов выразить эти самые знания математическим языком.
>>978423и тут ты такой с пруфами?уравнения Навье — Стокса для турбулентных потоков — старая добрая классическая гидродинамика, двести лет отроду. За доказательство существования и гладкости решения (даже не за само решение!) дают миллион долларовно ты то не знал...
Двачу вообще плевать где и о чем сраться.
>>978432При чем тут навье стокс, я прекрасно знаю про них.
>>978429И? Реальность не обязана подстраиваться под теоремы. А то что есть определенное сходство в описании некоторых процессов, ну и что?
>>978440Я к тому, что математики в своих исследованиях не ограничены реальным миром и вольны формализовать любые, даже самые наркоманские закономерности. Так что к моменту открытия физиками чего-то, в матеше уже есть все средства выражения этого чего-то.
>>978437>При чем тутПри том, что ты дебил.>знаюНет, не знаешь.
>>978455Школьник, съеби, выебываться тем что прочитал 2 дня назад в википедии будешь в другом месте
Вот в курсе от мфти с яндексом даются некоторые знания по линейной алгебре?Этого объёма достаточно для работы?Или ещё надо будет что-то специально изучать?
>>957720>Не могу сделать задания по программированию на 2-ом курсе. На второй неделе первого уровня? Или на втором уровне?
>>978423Вся современная физика описывается матаппаратом 9 класса нормальной школы, инженеродебилы (а в ДС нигде, кроме МГУ и ВШЭ других и нет) в институтах как раз заканчивают изучение математики на 2.5 курсе, так что нечего там открывать. А то, что физики не могут найти уравнение ни для чего - неудивительно, они умеют только определитель гауссианы в столбик считать
>>978652Линейные операторы и тензоры в 9 классе проходят? Кекнул с дауна
Пришло время напомнить матанопитухамЛев Давидович резко критиковал преподавание математики на физфаках. Сохранилось его письмо ректору одного из московских вузов, в котором подробно излагаются взгляды на преподавание математики физикам:"При всей важности математики для физиков, физики, как известно, нуждаются в считающей аналитической математике, математики же, по непонятной мне причине, подсовывают нам в качестве принудительнного ассортимента логические упражнения. В данной программе это прямо подчеркнуто в виде особого примечания в начале программы. Мне кажется, что давно пора обучать физиков тому, что они сами считают нужным для себя, а не спасать их души вопреки их собственному желанию. Мне не хочется дискутировать достойной средневековой схоластики мыслью, что путем изучения ненужных им вещей люди будто бы учаются логически мыслить.Я категорически считаю, что из математики, изучаемой физиками, должны быть полностью изгнаны всякие теоремы существования, слишком строгие доказательства и т. д. и т. п. Поэтому я не буду отдельно останавливаться на многочисленных пунктах Вашей программы, резко противоречащих этой точке зрения. Сделаю только некоторые дополнительные замечания.Странное впечатление производит историческое ввдение. Само собой разумеется, что сообщение интересных исторических фактов может только сделать лекции более интересными. Но непонятно, зачем это рассматривать как пункт программы. Я надеюсь, что, по крайней мере, не имеется в виду спрашивать это на экзаменах. Векторный анализ располагается между кратными интегралами. Я не имею чего-либо против такого сочетания, однако, надеюсь, что оно не идет в ущерб крайне необходимому формальному знанию формул векторного анализа.Программа по рядам особенно перегружена ненужными вещами, в которых тонут те немногие полезные сведения, которые совершенно необходимо знать о ряде и интеграле Фурье. Курс так называемой математической физики я считал бы правильным сделать факультативным. Нельзя требовать от физиков-экспериментаторов умения владеть этими вещами. Надо также отметить, что эта программа тоже сильно перегружена. Необходимость в курсе теории вероятностей довольно сомнительна. Физики и без того излагают то, что им нужно, в курсах квантовой механики и статистической физики. Во всяком случае, представленная программа переполнена бесполезностями. Таким образом, я считаю, что преподавание математики нуждается в серьезнейшей реформе".
>>978652А разве инженеры и физики это одно и то же?
Как же физикобоги разъебали математикодаунов
Где можно почитать подробно о сверточных нейронных сетях?
>>978608На втором уровне. Сейчас думаю может пытаться снова, лол.Блять как хуево быть тупым.КТО ТО СДЕСЬ ВКАТИЛСЯ В ИНДУСТРИЮ МАШОБА?Кто-то деньги начал получать с этого? Или тут все для "души" курят тему годами.
>>978664В рашке теорфизики почти нет
>>978829Теорфиз то есть. Математика и теорфиз это области в которых мы более менее. А вот с экспериментальщиной ситуация хуже
>>978655Ошибся, десятый http://www.mccme.ru/free-books/57/davidovich.pdf
>>978845Ты дебил? Тут интегрирование в 11 классе, а без него физики нет
>>978859короче, ты согласен, что современная физика - это что-то типа задачи с6 на егэ?
>>978887Маня, я тебя еще раз спрашиваю, линейные операторы и тензоры в школе проходят? Диффуры?
А вообще толсто. В современной физике применяется почти ВСЯ современная математика, более того, она и имеет смысл по большому счету только тогда, когда находит свое применение в физических теориях.
Как же матанопитухи соснули в очередной раз
https://2ch.hk/pr/res/979045.htmlhttps://2ch.hk/pr/res/979045.htmlhttps://2ch.hk/pr/res/979045.htmlhttps://2ch.hk/pr/res/979045.htmlhttps://2ch.hk/pr/res/979045.htmlhttps://2ch.hk/pr/res/979045.htmlhttps://2ch.hk/pr/res/979045.htmlhttps://2ch.hk/pr/res/979045.htmlhttps://2ch.hk/pr/res/979045.htmlhttps://2ch.hk/pr/res/979045.htmlhttps://2ch.hk/pr/res/979045.htmlhttps://2ch.hk/pr/res/979045.htmlhttps://2ch.hk/pr/res/979045.htmlhttps://2ch.hk/pr/res/979045.htmlhttps://2ch.hk/pr/res/979045.htmlhttps://2ch.hk/pr/res/979045.htmlhttps://2ch.hk/pr/res/979045.htmlhttps://2ch.hk/pr/res/979045.htmlhttps://2ch.hk/pr/res/979045.htmlhttps://2ch.hk/pr/res/979045.htmlhttps://2ch.hk/pr/res/979045.htmlhttps://2ch.hk/pr/res/979045.htmlhttps://2ch.hk/pr/res/979045.htmlhttps://2ch.hk/pr/res/979045.html
>>956903 (OP)Скопирую из старого треда, ибо я даунАнон. Тупой вопрос. Как заставить нейронку рисовать? Тупой ньюфаг в этой сфере, да. Запилил лишь самую базовую (банальный массив х на у с пересчетом нейронов и обучением).Как нейронке потенциально скармливать что-то и как получать на выхоод что-то? Что юзать и что прикручивать? Куда копать?