[Ответить в тред] Ответить в тред



[Назад][Обновить тред][Вниз][Каталог] [ Автообновление ] 526 | 57 | 132
Назад Вниз Каталог Обновить

НЕЙРОНОЧКИ & МАШОБЧИК #13 Аноним # OP  19/03/17 Вск 14:44:02  956903  
dadfs.png (1819Кб, 1853x853)
evol.png (749Кб, 1212x388)
книги
Pattern Recognition and Machine Learning, Bishop.
Information theory, inference & learning algorithms, MacKay http://www.inference.phy.cam.ac.uk/itila/
Machine Learning: A Probabilistic Perspective, Murphy

Introduction to Statistical Learning ( http://www-bcf.usc.edu/~gareth/ISL/ISLR%20Sixth%20Printing.pdf )
Elements of Statistical Learning ( http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Foundations of Machine Learning, أشهد أن لا إله إلا الله وأشهد أن محمد رسول الله. http://www.cs.nyu.edu/~mohri/mlbook/

Fundamentals of Neural Networks: Architectures, Algorithms, and Applications, Fausett L.

А. Пегат, "Нечёткое моделирование и управление"

другое
http://libgen.io / http://bookzz.org/ - здесь можно одолжить ^ книги и не только
http://arxiv.org/find/all/1/all:+nejronochki/0/1/0/all/0/1
https://www.reddit.com/r/MachineLearning/wiki/index

https://vk.com/deeplearning и http://deeplearning.net/reading-list/
https://www.kadenze.com/courses/creative-applications-of-deep-learning-with-tensorflow/info тюториал по slesarflow
http://rgho.st/8g68fTCSx две брошюры по deep learning для слесарей.

http://kaggle.com - весёлые контесты. денежные призы
https://www.hackerrank.com/domains/ai/machine-learning/difficulty/all/page/1 - олимпиадки

курс от китаёзы
http://videolectures.net/mlss09uk_cambridge/

яп
1. http://julialang.org/
2. https://www.microsoft.com/en-us/research/project/infernet/
3. https://www.r-project.org/
4. питухон и так все знают
5. idris/coq - модные яп для формально верифицированных нейроночек с тренировкой на этапе компиляции

ПЛАТИНА
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.

Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2017 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru

Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.

Что такое TensorFlow?
TensorFlow - опенсорсный гугловый инструмент для перемножения тензоров и оптимизации функционалов. Опенсорсный - потому что даже важные куски типа параллелизации уже выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.

будет ли ML нужен в ближайшие 10 лет, или это просто хайп?
будет. хайп.

смогу найти работу?
Яндекс, мейлру, касперский, несколько биоинформатических компаний (iBinom, можно еще blastim.ru поскролить на тему работы), билайн (они с НГ целое подразделение открыли под ML и биг дату), связной. Ну и западные аутсорсы, если готов рачить за валюту.

нужна математика?
для начинающего ничего особого знать не нужно
https://www.amazon.co.uk/Calculus-Michael-Spivak-x/dp/0521867444
https://www.amazon.co.uk/dp/0534422004/ref=pd_lpo_sbs_dp_ss_2?pf_rd_p=569136327&pf_rd_s=lpo-top-stripe&pf_rd_t=201&pf_rd_i=0980232716&pf_rd_m=A3P5ROKL5A1OLE&pf_rd_r=3TZ38AZ2BY28R19H4SA5
https://www.amazon.co.uk/Calculus-Several-Variables-Undergraduate-Mathematics/dp/0387964053
https://www.amazon.co.uk/Introduction-Probability-Dimitri-P-Bertsekas/dp/188652923X
"основы теории вероятностей" Вентцель

поясните за нейроночки
нейроночка - массив

шад)))
Нет там ничего ML-специфичного, знание матана и теорвера на уровне заборостроительного вуза. Теорвер проходится на третьем курсе, как раз 20 лет.
Рандомный хрен туда не сможет поступить, потому что планка намеренно задрана, а не потому что там такая охуенно сложная программа. Это традиционная наебка "элитных учебных заведений", в которой учат так же хуево, как и везде, но за счет отбора поступающих якобы формируются неебовые успехи, которые объясняются именно качеством преподавания.
Иными словами, у тех, кто способен поступить, и так в жизни проблем с трудоустройством не будет.

Тред #1: https://arhivach.org/thread/147800/
Тред #2: https://arhivach.org/thread/170611/
Тред #3: https://arhivach.org/thread/179539/
Тред #4: https://arhivach.org/thread/185385/
Тред #5: https://arhivach.org/thread/186283/
Тред #6: https://arhivach.org/thread/187794/
Тред #7: https://arhivach.org/thread/196781/
Тред #8: https://arhivach.org/thread/209934/
Тред #9: https://arhivach.org/thread/223216/
Тред #10: https://arhivach.org/thread/234497/
Тред #11: https://arhivach.org/thread/240332/
Тред #12: https://arhivach.org/thread/246273/
Аноним 19/03/17 Вск 15:11:17  956920
Очень толстые оп-пики, тоньше надо. По первому имею сказать, что в анализе рыночков важен не инструмент, а понимание проблемы.
Аноним 19/03/17 Вск 15:57:54  956947
>>956920
важно и то и то имхо
а ты занимался рыночками?
Аноним 19/03/17 Вск 21:05:46  957075
>>956903 (OP)
Сколько этот пост не обновлялся уже?

>яп
>1. http://julialang.org/
>2. https://www.microsoft.com/en-us/research/project/infernet/
>3. https://www.r-project.org/
>4. питухон и так все знают
>5. idris/coq - модные яп для формально верифицированных нейроночек с тренировкой на этапе компиляции

Что за пиздец? Кроме питона, R и С++ в МЛ почти ничего не юзают. Потом будут в тред вкатываться Васи, которые идрис выучили, но работу найти не могут.

>Что такое TensorFlow?
>TensorFlow - опенсорсный гугловый инструмент для перемножения тензоров и оптимизации функционалов. Опенсорсный - потому что даже важные куски типа параллелизации уже выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.

Слесарьфлоу уже месяца 2 как релизнут, но и до этого он был стабильным и работал намного лучше Теано.








Аноним 19/03/17 Вск 21:34:47  957104
Рейтаните книжку Барсегяна "Анализ данных и процессов"
Что-то лучше на русском языке найти можно?
Аноним 19/03/17 Вск 22:31:49  957131
blob (549Кб, 1024x640)
>>957075
добро пожаловать в тредик! всегда рады новым постерам
Аноним 19/03/17 Вск 23:41:13  957171
>>956903 (OP)

Двач, тебе не кажется, что существующие названия вакансий (и позиций), вроде Data Analyst, Data Scientist, ML engineer и пр. какие-то очень широкие, примерно как просто Developer, без привязки к языку, платформе etc, при этом каждая вторая контора считает своим долгом вставить свои 5 копеек в трактовку понятия? Появятся ли более мелкие, но точные названия в будущем?
Аноним 20/03/17 Пнд 04:35:07  957286
>>957075
В оп посте толстоты хватает. Учись отличать хуйню от полезной инфы. Причем Идрис к машобу вообще не ясно.
Аноним 20/03/17 Пнд 05:33:16  957289
>>957171
Да, мл сейчас это как веб 15 лет назад.
Аноним 20/03/17 Пнд 08:16:14  957312
Собственно говоря, в программе поступления в ШАД алгебра наиболее объемная: подстановки, комплексные числа, СЛАУ (отсюда матрицы & определители), векторы, линейные отображения/операторы, билилейные и квадратичные функции
Это все имеет прикладной характер в МЛ? Или что-то можно скипнуть при самовкате?
Аноним 20/03/17 Пнд 11:22:41  957361
>>957312
Это азы математики, которые должен знать любой образованный человек, проходится на первом курсе любого универа. Учи, не торопись. На ютубе 3blue1brown шикарные интуитивные анимации есть линейной алгебры.
Аноним 20/03/17 Пнд 11:49:29  957379
>>957361
маняматика ненужна
Аноним 20/03/17 Пнд 12:01:46  957403
>>957312
Это все нужно чтобы понять svm.
Аноним 20/03/17 Пнд 13:27:37  957469
А какую математику используют лучшие люди с идеями, дела машинного обучения?
Аноним 20/03/17 Пнд 13:33:27  957471
>>957469
маняматика нинужна
Аноним 20/03/17 Пнд 13:35:46  957472
>>957469
E(w) = 0
Аноним 20/03/17 Пнд 13:36:33  957474
>>957472
Аноним 20/03/17 Пнд 14:53:04  957516
>>957289
Каким был веб 15 лет назад? По моему, в МЛ все гораздо понятней и популярней, чем тогда.

Посмотрел в архиваче, пара анонов предлагали запилить чатик в телеграмчике. Я б с вами там тоже посидел, но я рачье и буду пиздеть в основном не по тематике
Аноним 20/03/17 Пнд 14:58:56  957519
>>957516
Примерно так же, вместо того, чтобы делать дела, люди в основном борятся с несовершенными инструментами. Не, классический МЛ-то еще более-менее, но нейроночки пиздец вообще.
Аноним 20/03/17 Пнд 15:03:16  957523
>>957519
15 лет назад гугл не сделали ангуляр, МЛ захайпали не так давно, гугл сделал тензорфлоу. Не, чет не похожи ситуации
Аноним 20/03/17 Пнд 15:48:37  957552
>>957523
Так тензорфлоу говно. Что-то более-менее для людей - это nvidia digits. В веб-интерфейсе сделал датасет, выбрал нейроночку, она обучилась и работает.
Нет, чувак, ситуция как сейчас будет, когда основную долю рынка будут занимать CMS на PHP, а не гуглы для аутистов.
siraj 20/03/17 Пнд 16:06:52  957563
photo2017-03-20[...].jpg (17Кб, 427x320)
>>957552
поясни за гугл для аутистов бля
Аноним 20/03/17 Пнд 16:10:27  957566
loss.jpg (54Кб, 714x374)
>>957552
>Что-то более-менее для людей - это nvidia digits
Для обучения (человека, а не нейронки) - очень годная штука. Кнопочки тыц-тыц, мышей гуй потыкал, графики посмотрел, красота.
Но, чуть что сложнее простой классификации (локализация объекта, например, или кастомный слой caffe) - и начинается глубокий пердолинг копания в сорцах.
ML еще в самом зародыше, даже не родилось толком, и инструменты для него тоже.
Аноним 20/03/17 Пнд 16:33:43  957580
>>957566
Теория статистического обучения как раз общая теория мл. Нейроночки туда тоже вписываются.
Аноним 20/03/17 Пнд 18:37:59  957664
>>955390
В чате годно. Есть куча каналов на разные темы (в т.ч. NLP), народ собирается на сходки, на вопросы отвечают. Алсо в каком вузе учишься, если не секрет?
Аноним 20/03/17 Пнд 19:11:41  957681
>>957664
Что за чат?
слоупок.жпг
Аноним 20/03/17 Пнд 19:14:15  957685
>>957664
>NLP
Ну и при чем тут это говно?
Аноним 20/03/17 Пнд 19:18:06  957688
>>957681
Чат в слаке для датасаентистов и сочувствующих opendatascience.
Аноним 20/03/17 Пнд 19:30:54  957699
>>957685
Natural Language Processing мудло
Аноним 20/03/17 Пнд 19:32:01  957701
>>957688
Так надо, чтоб в телеграмчике еще был двачевский. Похаживал я по популярным каналам по тематике нашей, так там не лампово вообще
Аноним 20/03/17 Пнд 19:35:07  957703
>>957701
В телеграме можно только за котики пиздеть, код вставлять и прочее в слаке намного удобнее.
Единственное, что бесит в слаке это инвайты, но это можно пережить, если грамотно автобота сделать.
Аноним 20/03/17 Пнд 19:36:10  957707
>>957703
```так делаешь и нормально все обсуждается```
Аноним 20/03/17 Пнд 19:38:34  957710
>>956903 (OP)
>dadfs.png
Рокфелер рип
Аноним 20/03/17 Пнд 19:39:18  957711
>>957707
А отдельные каналы general, хуе-моё? А большие тексты? Неудобно всё равно в ентом телеграме.
Аноним 20/03/17 Пнд 19:42:18  957716
>>957710
На пикче Сорос вроде.
Аноним 20/03/17 Пнд 19:42:47  957720
Короче я не затащил специализацию от МФТИ и Яндекса. Не могу сделать задания по программированию на 2-ом курсе.
Впизду дропаю. Хуита какая то.
И еще я уверен что мимохуя со средней вышкой не по математике или прогерской. Без должного знания статистики и математики хуй возьмут на работу по мл.
Я думаю мне не вкатиться, это просто трата времени.
Всем спасибо, идите нахуй!
Аноним 20/03/17 Пнд 19:44:30  957722
>>957720
А мог бы пхп задрочить и кушать хлебушек. Эх ты.
Аноним 20/03/17 Пнд 19:50:50  957728
Интересно мне можно вернуть деньги? Я только 2 курса поюзал из 6.
Аноним 20/03/17 Пнд 19:51:33  957729
А есть уже теория нейросетей или это и дальше кибернетический эксперимент?
Аноним 20/03/17 Пнд 19:52:01  957731
Что скажите за машинное обучение на php?
Аноним 20/03/17 Пнд 19:52:27  957732
>>957731
Ни разу не встречал.
Аноним 20/03/17 Пнд 19:55:21  957737
>>957732
https://tproger.ru/articles/php-ml/
Аноним 20/03/17 Пнд 19:55:34  957738
>>957716
сорос следующий
Аноним 20/03/17 Пнд 19:57:10  957739
>>957720
мфти хуйня! техникум лучше!
Аноним 20/03/17 Пнд 20:01:09  957746
>>957739
кукарек кок! хуёк кокок!
Аноним 20/03/17 Пнд 20:03:43  957747
Функциональный анализ надо знать для этого?
Аноним 20/03/17 Пнд 20:09:05  957751
>>957747
да
комплан и топологию тоже
Аноним 20/03/17 Пнд 21:24:29  957817
>>957746
Типичная речь шаражника. Ну шо, готов в НИИ за 8к сидеть всю жизнь?
Аноним 20/03/17 Пнд 22:06:00  957848
>>957817
Да. Не берут без ВО.
Аноним 21/03/17 Втр 02:08:34  957991
>>957664
секрет, а то деанон
Аноним 21/03/17 Втр 02:09:09  957992
>>957664
за чат спасибо, на неделю попрошусь туда
Аноним 21/03/17 Втр 02:46:30  957996
>>957731
На похапе полтора алгоритма. А так похуй на чем,всеравно Тьюринг полный язык.
Аноним 21/03/17 Втр 05:47:07  958015
>>957991
Может, фейкомыльце оставишь? Расскажешь про свой вуз, про ваше нлп комьюнити. Могу там же про своё рассказать.
Аноним 21/03/17 Втр 08:12:13  958042
>>957992
сделайте в телеграмчике. У всех нормальных тредов программача есть чатики в телеге, у нас нет.
Аноним 21/03/17 Втр 08:13:26  958044
>>958042
>телеграмчике
говноед
Аноним 21/03/17 Втр 10:16:09  958081
Я, в общем, решил серьезно подойти. Так что надо знать? Правильно ли я понимаю, что нужен следующий список:
- Системный подход, теория систем и т.п
- Дискретная математика
- Теория типов
- Теория распознавания образов
- Анализ: математический анализ, функциональный анализ и прочая; статистика; теория хаоса; теория вероятностей, нечёткай логика, теория возможностей, теория очевидностей Демпстера-Шафера и прочая
- Нейронные сети
- Байесовская сеть, вероятностное программирование, дифференцируемое программирование

Что скажете? Может что-то добавить или убавить?
Аноним 21/03/17 Втр 10:17:15  958082
Поясните за преимущества машинного обучения на Idris. Какие именно преимущества для машинного обучения дадут те же зависимые типы?
Аноним 21/03/17 Втр 10:40:43  958090
>>958081
>Системный подход, теория систем и т.п
Гуманитарная чушь
>Дискретная математика
Лишнее
>Теория типов
Строго нахуй
>Теория распознавания образов
Прошлый век
>Анализ: математический анализ, функциональный анализ и прочая
Матан и линал нужен. Функан - на уровне определений. Matrix calculus нужен. Статистика и теорвер нужны. Теория хаоса нет. Нечеткие петухи не нужны.

Зная это (первые 3 курса математики в универе), можно приступать к переднему краю и доучивать пробелы в процессе.
Аноним 21/03/17 Втр 11:52:24  958125
>>958081
Все, что нужно - желание, видение проекта и, собственно, сам проект и пилить.
Все остальное, если будешь не мочь, наберешь по ходу разработки твоей хуйты. Только так люди и набирают скилы и вкатываются во что угодно, кмк
Аноним 21/03/17 Втр 12:24:21  958146
>>958082
Видимо,можно писать спецификацию алгоритма, а идрис тебе выдаст скомпилированный алгоритм,соответствующий этой спецификации. Насколько мне известно, для мл никто ничего похожего не делал.
Аноним 21/03/17 Втр 15:25:19  958224
>>958090
картафанский разбушевался)))
Аноним 21/03/17 Втр 15:40:45  958233
>>958224
Съебы в обосцай, здесь эмелебояре будущее творят.
Аноним 21/03/17 Втр 16:26:24  958265
>>958233
>отсталая инженегропараша из 70х
>будущее творят
в голос
Аноним 21/03/17 Втр 17:31:58  958317
14843687305250.jpg (25Кб, 500x500)
Раз уж заговорили о зависимых типах. Вот смотрите, у того же Вапника имеются общие требования для алгоритмов, эффективных более, чем просто асимптотически приближающиеся к оптимальному решению проблемы распознавания образов, бла-бла-бла. По-сути, это готовые спецификации, которые можно выразить в виде типов, зависимых в т.ч. Остается только найти программы, наиболее оптимально представляющие такие типы, методами program derivation в этих ваших Куках и прочих Идрисах, как вариано - генетическим программированием в типизированной лямбде с последующей проверкой в ЯП с зависимыми типами - program verification. В итоге получим нечто эффективнее SVM и всяких бустингов, в т.ч. глубоких. Если что-то подобное запилить и вылодить на гитхаб и отрастить бороду, есть вариант что в гугл РАБотать возьмут?..
Аноним 21/03/17 Втр 17:44:14  958323
Котаны, помогите запилить простецкий классификатор. Задача примерно как в типичном спам-классификаторе. Есть вероятность попадания элементов в классы 1 и 2. Есть уникальные элементы, которые встречаются только в 1 или только в 2. Т.е. допустим есть элемент А, который в классе 1 встречается с вероятностью 0.6 (в 60% случаев в обучающей выборке), а в классе 2 вероятность 0. А есть элемент Б, который в 1 с вероятностью 0, а в 2 с вероятностью 0.7.

И надо классифицировать образец, в котором есть и А, и Б.

Если запилить байесовский классификатор, то для обоих классов будет умножение на ноль.

Что делать?
Аноним 21/03/17 Втр 17:52:01  958331
>>958323
Это троллинг такой?
Аноним 21/03/17 Втр 17:52:30  958332
>>958331
Промахнулся. Я про " генетическим программированием в типизированной лямбде ". Я думал тут так стебутся, а, судя по посту, не похоже.
Аноним 21/03/17 Втр 18:05:55  958343
>>958323
Сперва создать канал в телеграме, а там посмотрим.
Аноним 21/03/17 Втр 18:20:02  958349
>>956903 (OP)
>нужна математика?
>для начинающего ничего особого знать не нужно
>список математической лит-ры
Этот список и есть "ничего особого знать не нужно" или же все-таки действительно из метематики ничего особого знать не нужно в начале? А в середине, чтобы устоиться на работу, например?
Аноним 21/03/17 Втр 18:20:21  958350
>>958349
*математики
Аноним 21/03/17 Втр 18:25:13  958353
>>958349
Ты можешь взять готовую библиотеку даже на том же пхп и что-то делать, но ты не будешь существенно двигать к созданию ИИ и сингулярности таким образом.
Аноним 21/03/17 Втр 18:25:53  958354
>>958317
Чем оно будет эффективней?
Аноним 21/03/17 Втр 18:48:57  958368
>>958353
сингулярно-петушок

>>958317
завтипы-петушок

>>958323
лаба-петушок

>>958349
мaтeматика-петушок
Аноним 21/03/17 Втр 18:53:23  958373
>>958354
Тем, что может гораздо лучше соответствовать спецификации, чем человеческие поделия.
Аноним 21/03/17 Втр 18:54:32  958374
>>958368
петушок-петушок
Аноним 21/03/17 Втр 19:05:53  958387
>>958374
петушок-петушок-петушок
Аноним 21/03/17 Втр 19:23:41  958400
>>958373
А спецификацию кто напишет?
Аноним 21/03/17 Втр 19:24:47  958402
>>958400
сам
Аноним 21/03/17 Втр 19:26:19  958404
>>958400
Вапник. Причем еще в 90-е.
Аноним 21/03/17 Втр 19:32:22  958415
Снимок.PNG (3Кб, 418x108)
>>958387
>>958374
Уебывайте, школьники.
Аноним 21/03/17 Втр 19:36:58  958419
>>958368
Это не лаба. Помогите, плес. Я просто другим занимаюсь по жизни, а тут такая задача возникла. Я вот думаю, может, из прикладной статистики что-то поможет? Но даже не знаю, с какого конца взяться.
Аноним 21/03/17 Втр 19:46:23  958426
>>958323
>>958419
покажи где умножение на 0

P(A|1) = 0.6
P(A|2) = 0

P(B|1) = 0
P(B|2) = 0.7
Аноним 21/03/17 Втр 19:49:42  958430
>>958426
Не, в образце для классификации будет и А, и Б встречаться, и ещё какие-то элементы (допустим: n1, n2, n3, которые с разной вероятностью есть в обоих классах). То есть там надо считать:
P(1|A,Б,n1,n2,n3);
P(2|A,Б,n1,n2,n3).
Не?
Аноним 21/03/17 Втр 19:50:13  958432
лол https://medium.com/towards-data-science/linear-algebra-cheat-sheet-for-deep-learning-cd67aba4526c#.5migl6ymj
Аноним 21/03/17 Втр 19:52:00  958435
>>958432
ну да, чем тебя умножение на ноль неустраивает?
там суммируется много значений и конечная вероятность не будет нулём
Аноним 21/03/17 Втр 19:54:09  958442
>>958353
Понятно, что могу. Но вот, если идти работать в этом направлении, что из математики полюбому нужно знать?
Аноним 21/03/17 Втр 19:57:03  958449
blob (3Кб, 212x128)
blob (5Кб, 392x128)
blob (4Кб, 372x87)
blob (15Кб, 370x178)
>>958442
Аноним 21/03/17 Втр 19:57:08  958450
>>958442
И да, на вопрос, что нужно из перечисленных математической направленности книг, так ответа и нет.
Аноним 21/03/17 Втр 19:59:02  958455
>>958373
Ну, так, давайте запилим. Авось, прорыв будет.
Аноним 21/03/17 Втр 19:59:34  958456
>>958449
Линейную алгебру? Была в универе, но напрочь забыл за отсутствием практики. Не порекомендуешь литературу/курс?
Аноним 21/03/17 Втр 20:00:45  958458
>>958450
эти книги только чтобы осилить мл литературу в шапке
если будешь работать по другим направлениям то надо будет учить что-0то другое

>>958456
https://medium.com/towards-data-science/linear-algebra-cheat-sheet-for-deep-learning-cd67aba4526c#.5migl6ymj
Аноним 21/03/17 Втр 20:05:05  958460
>>958458
Круто, спасибо.
Аноним 21/03/17 Втр 20:43:55  958504
>>958495
Какой курс? Просто в гугл вбей "матрицы учебник". Из всей математики, что была у нас в вузе, это самое элементарное, думаю. Проще только арифметика, даже школьная геометрия сложнее.
Аноним 21/03/17 Втр 20:52:35  958509
>>958504
двачую, школьная геометрия - мощь
Аноним 21/03/17 Втр 21:08:46  958519
blob (7Кб, 338x54)
>>958435
Там в числителе произведение, а не суммирование значений. Сумма в знаменателе лишь.
Аноним 21/03/17 Втр 23:42:38  958611
>>958015
zharenyipes@mail.ru
Аноним 22/03/17 Срд 00:36:53  958653
>>958519
но если P(B|1) = 0 то и P(1|B) = 0
ты распиши конкретно что ты делаешь
Аноним 22/03/17 Срд 00:42:20  958657
>>958653
>но если P(B|1) = 0 то и P(1|B) = 0

P(B|1) участвует в числителе и весь его перемножает на 0. Таким образом, классификатор игнорит все остальные признаки классифицируемого объекта. Меня это не устраивает.

Напоминаю, что считаю P(1|A,Б,n1,n2,n3).
Аноним 22/03/17 Срд 00:46:31  958659
>>958657
если Б входит в объект и Б не может входить в класс 1, то и этот объект не может входить в 1?
Аноним 22/03/17 Срд 00:56:06  958665
>>958659
Может. Потому что невхождение Б в 1 - не значит, что наличие Б в образце автоматом этот образец делает чужеродным для 1. Считай, что это часть формулировки задачи классификации.

То есть мне надо посчитать, насколько образец похож на 1 и на 2, несмотря на все такие вот противоречивые вхождения А и Б.
Аноним 22/03/17 Срд 01:02:31  958671
>>958665
возможно наивный байес не самая лучшая модель
попробуй логистическую регрессию?
Аноним 22/03/17 Срд 01:04:41  958675
>>958671
Вот да, я пришёл спросить, что пробовать-то теперь. Наивный байес явно не подошёл. Я пробовал вообще выкидывать элементы с нулевыми для вычисляемого класса вероятностями - получались значения вероятности >1.
Может, ты ещё бы что-то назвал, что пробовать? Чтоб два раза не бегать.
Аноним 22/03/17 Срд 01:09:56  958681
А, ещё. В регрессии ж вектора значений. У меня, чтоб уточнить, каждый образец будет иметь разное количество фич (где-то есть только А и n2, например). Ну и классам принадлежит разное количество возможных фич.
Например, 1 = А, n1; 2 = Б, n1, n2, n3.
Аноним 22/03/17 Срд 01:12:45  958684
>>958675
гауссов процесс попробуй, лол
ещё рандом форест есть и SVM - только у этих двух не будет вероятность на выходе, сразу класс выплёвывают. незнаю насколько для тебя это критично
эти 3 оче попсовые классификаторы, что-нибудь да подойдёт
Аноним 22/03/17 Срд 01:15:39  958687
А я смогу своё барахло адаптировать под вектора каким-то образом? (см.>>958681) Всю дорогу отказываюсь от векторного по этой причине.
Аноним 22/03/17 Срд 01:23:30  958693
>>958687
фичи неизвестны или совсем отсутствуют? можешь попытаться вывести неизвестные фичи чтоб всё было одной длины
если фичи вещественны то нормализуй на [0; 1]. если дискретные то можешь использовать 1-of-К кодировку. будет длинный вектор нулей и единиц и по одному весу на каждое число
Аноним 22/03/17 Срд 01:27:11  958696
blob (612Кб, 561x561)
>>958693
Совсем отсутствуют. Вместо них можно нулей напихать? Веса это вероятности же будут, я полагаю.
Пик в качестве благодарности, сотен нефти не нашлось.
Аноним 22/03/17 Срд 02:07:21  958724
Буду писать диплом на тему, связанную с распознаванием образов.Анон, посоветуй чего интересного можно пораспознавать и чтобы при этом не ахуеть, ибо времени не очень много остается.
Аноним 22/03/17 Срд 09:43:57  958823
>>958724
Распознай капчу мейлача.
Аноним 22/03/17 Срд 11:39:01  958887
>>958823
что еще распознать? суканахуй
Аноним 22/03/17 Срд 12:12:28  958902
Можно ли рационально применить вейвлет-преобразование для искусственных нейронных сетей? И если можно, то как?
Аноним 22/03/17 Срд 12:28:21  958907
>>958902
Можно на вход подавать не сырые данные, а обработанные. В том числе и вейвлетами. Можно это преобразование вкорячить в саму нейроночку, гугли wavelet neural network.
Аноним 22/03/17 Срд 20:25:28  959210
Снимок.PNG (86Кб, 874x415)
Снимок2.PNG (152Кб, 860x616)
14875748021980.jpg (230Кб, 1280x1280)
По поводу зависимых типов и Вапника. Поясню конкретнее, что я имел в виду чуть выше >>958317 в этом ИТТ тренде.
1) По Вапнику, задача обучения сводится к минимизации т.н. функционала риска, пик 1.
2) Конкретные примеры реализации этого принципа на пике 2, на место общей формулировки Q(zi, a) подставлены соответственно SSE и логарифм значения плотности распределения вероятности штоле, не суть.
3) Фишка предлагаемого метода в том, что все возможные варианты Q(zi, a) это функции, в общем случае - функционалы различной сложности. Само собой, все они сводятся к типизированной лямбде, т.к. имеют свой тип и представимы в виде конечного дерева из аппликаций, абстракций и чего там еще есть.
4) Задача, таким образом, сводится к нахождению оптимального функционала минимизации риска, что и возможно при представлении формулы 1.8 в виде спецификации для ЯП с зав.типами. Конкретно, нас интересует непустой тип с минимальными значениями R emp (a), зависимый от типа суммирования Q(zi, a) по всему датасету zi, точнее по самым разным таким датасетам.
5) Как было сказано выше, один из методов - генетическое программирование в типизированной лямбде, которое и подберет некоторое количество оптимальных вариантов функционала Q(zi, a), лучше других минимизирующего зависимый от него R emp (a).
Что скажете?
Аноним 22/03/17 Срд 22:55:35  959314
>>959210
Где ты начитался этих типизированных лямбд?
Аноним 22/03/17 Срд 23:03:46  959322
>>959210
код?
Аноним 23/03/17 Чтв 11:07:27  959474
14896813492370.jpg (122Кб, 1200x1013)
Да, небольшое добавление к >>959210 все несколько сложнее, чем я описал. Там надо отдельно подбирать генетическим программированием собственно структуру функционала минимизации риска, и отдельно - параметры функционала, минимизирующего его для конкретного датасета. Что усложняет задачу, но технически это все равно реализуемо.
>>959314
Дело не в типизированных лямбдах, а в генетическом программировании с использованием их. Обычные ЯП для такой задачи не подходят, т.к. там сложный синтаксис и практически получить осмысленный код уже при небольшом объеме программы за разумное время вычисления нереально, автор генетического программирования именно на этом и обосрался. А лямбда - то, что нужно, т.к. там полтора элемента для выражения любой сложности - аппликация с абстракцией и глубина дерева общего выражения, что элементарно и без всяких костылей кодируется в виде "хромосом" для генетического алгоритма. Тута https://eldorado.tu-dortmund.de/bitstream/2003/34162/1/Dissertation.pdf все по-хардкору изложено. Совершенно понятно, что общий смысл происходящего - "экстракция" программы из некоего большого типа, содержащего все используемые для данной задачи в типизированной лямбде типы, что-то уровня описанного Максимкой http://maxim.livejournal.com/479716.html
Аноним 23/03/17 Чтв 11:26:25  959476
>>959322
До кода далеко, пока только гениальная идея - представить вапниковскую общую постановку проблемы МЛ в виде спецификации в MLTT с последующим автоматизированным нахождением лучших вариантов, удовлетворяющих условиям такой спецификации.
Аноним 23/03/17 Чтв 12:15:21  959496
>>959474
Не совсем дебил, просто удивительно.
Давай-ка пиздуй с этой параши, делать тебе здесь нечего - среди школодегенератов и просто дегенератов.
Удачи.
Аноним 23/03/17 Чтв 16:03:05  959592
blob (463Кб, 900x527)
китаёза уходит на пенсию
https://medium.com/@andrewng/opening-a-new-chapter-of-my-work-in-ai-c6a4d1595d7b#.ptzjlqd7r
Аноним 23/03/17 Чтв 17:07:35  959625
ZadehBBVAc.jpg (337Кб, 1793x2700)
>>959592
>40 лет
>на пенсию
Слабак ваш бурят. Заде вон 96 лет, он до сих пор книги пишет.
Аноним 23/03/17 Чтв 17:13:05  959629
>>959625
видать на пенсию не заработал, бедняша
кину старичку копеечку в переходе
Аноним 23/03/17 Чтв 17:48:48  959652
>>959625
У его жены стартап занимается машинами-самоездами, туда скорее всего.
Аноним 23/03/17 Чтв 20:00:23  959710
>>959474
Это звучит словно открытия древних шаманов, но хотелось бы какой-то совсем простенький пример с логическими операциями, например.

мимо
Аноним 23/03/17 Чтв 23:22:59  959821
Пишите, есть фриланс проект по машобу. Телега @vojjj
Аноним 23/03/17 Чтв 23:43:10  959832
Может кто-то подсказать с чего вкатываться в Natural Language Processing? Немного умею в матан + поизучал какие-то базовые вещи из ML (Регрессии, нейроночки). Интересуют именно фундаментальные знания.
Аноним 24/03/17 Птн 01:02:23  959850
>>959832
на курсере было два хороших курса Natural language processing, но сейчас их убрали, можно поискать где-то видео, один от Columbia university, там были марковские цепи и тд, другой от стэнфорда, что там - не помню. Можно попробовать поискать, на ютубе - один из них точно есть. Из книжек часто советуют Foundations of Statistical Natural Language Processing от Manning, не читал, но содержание выглядит прилично, и Speech and Language Processing от Jurafsky - мне не очень понравилось. Из нейроночек советуют курс http://cs224d.stanford.edu/ . Недавно хайпали этот курс https://github.com/oxford-cs-deepnlp-2017/lectures, но не смотрел.
Аноним 24/03/17 Птн 01:08:02  959855
>>959850
ну и nltk-book, там по верхам проходятся многие популярные подходы
Аноним 24/03/17 Птн 05:58:00  959902
>>958611
Отписал.
Аноним 24/03/17 Птн 05:58:49  959904
>>959832
https://www.quora.com/As-a-beginner-in-Natural-Language-processing-from-where-should-I-start
Аноним 24/03/17 Птн 06:40:42  959916
>>959710
В диссере по ссылке полно примеров,как и в доках к соответствующему пакету для R - rgp, регрессия например. Зависимые типы отдельная тема, ес-но.
Аноним 24/03/17 Птн 10:20:10  959973
>>959850
>>959904
Спасибо, сохранил ссылки.
Ещё вопрос, кстати. Как получить доступ к видео лекциям стенфорда? Я почитал у них на сайте какую-то информацию и сделал вывод, что доступ есть только у студентов стенфорда. Я не прав?
Аноним 24/03/17 Птн 11:48:18  960001
>>959973
https://www.youtube.com/watch?v=Qy0oEkCZkBI&list=PLlJy-eBtNFt4CSVWYqscHDdP58M3zFHIG
Аноним 24/03/17 Птн 12:39:24  960022
>>960001
Благодарю.
Аноним 24/03/17 Птн 18:05:10  960185
photo2017-03-24[...].jpg (75Кб, 600x526)
Анон, помоги. Хочу сгенерировать фильтры для СНН в виде двумерных массивов.
Мозгов не хватает как это закодить, чтоб красиво было.
Их же 15 должно быть в случае с разрешением из 4 элементов? (см. пикрелейтед)
Аноним 24/03/17 Птн 22:11:08  960360
14399986290492.jpg (330Кб, 700x949)
Палю годноту быдлу


https://www.youtube.com/watch?v=aW-b4eaWtMY
https://youtu.be/kuRQRoVlo3M
Аноним 25/03/17 Суб 17:05:53  960769
>>956903 (OP)
Ананасы, а есть какая-нибудь конфа у машоберов?
Аноним 25/03/17 Суб 17:06:58  960771
>>960360
Мальчик, возвращайся со своим петухом обратно к одноклассникам.
Аноним 25/03/17 Суб 18:54:23  960896
>>960771
>>960360
я пощелкал мельком, на самом деле нормальный мужик, без особой философии, неплохой экскурс в историю
Аноним 25/03/17 Суб 23:46:53  961027
Хочу написать распознавалку различных частей автомобиля(колёса, фары и т.д.).Умею в программирование и матан, опыта работы с OpenCV нет. Подскажи, дорогой анон, что изучать(будет особенно хорошо, если ты назовёшь конкретные источники) и насколько сложна такая задача?
Аноним 26/03/17 Вск 12:43:40  961207
>>961027
В 2017 эта задача выглядит как "скорми нейроночке 1000 образцов твоей хуйни, а она сама разберется".
Используй Nvidia SLESARS чтобы собрать все нужное и запустить
https://github.com/NVIDIA/DIGITS/tree/master/docs
Только вместо lenet из gettingstarted используй alexnet.
Аноним 27/03/17 Пнд 00:25:12  961594
>>961207
Спасибо, но это неинтересно.Сделать саму задачу - не самоцель.Хочу разобраться во всём этом дерьме.
Аноним 27/03/17 Пнд 10:48:03  961701
>>956903 (OP)
что там за три кружочка?
Аноним 27/03/17 Пнд 12:12:30  961732
>>961701
http://julialang.org/
Аноним 27/03/17 Пнд 17:22:11  961925
В чем суть зеркальных нейронов? Почему еще нет математической модели оных?
Аноним 27/03/17 Пнд 18:08:32  961958
14837289454670.jpg (30Кб, 604x321)
>>959210
Привет от No Free Lunch Theorem.
Аноним 27/03/17 Пнд 18:35:00  961972
В чем суть астральных нейронов? Почему еще нет математической модели оных?
Аноним 27/03/17 Пнд 21:14:24  962050
А как называется первоначальная обработка сенсорных данных?
Аноним 27/03/17 Пнд 21:47:28  962063
>>962050
>>962050
Препроцессинг не то??
Аноним 27/03/17 Пнд 23:00:07  962114
urfinindistress.jpg (8Кб, 184x274)
Screenshot2017-[...].png (186Кб, 1920x1080)
Аноны, у меня большая проблема в понимании lse части алгоритма обучения классической ANFIS. Backpropagation часть я легко реализовал, а на этой сломался. Реквестирую детально разжеванное описание ANFIS, из которого легко понять, зачем это происходит, желательно с геометрическими аналогиями. И еще, поскольку это batch алгоритм, то как его применять, если на вход нейронечеткой системы управления подается временной ряд в реальном времени, и нет возможности вывести систему в оффлайн надолго и прокрутить такие затратные вычисления?
Аноним 28/03/17 Втр 13:03:57  962332
14816457415990.png (1265Кб, 800x1121)
>>961958
> No Free Lunch Theorem
Нечто уровня "теоремы Тарана / Пидорана" из /по. Эта твоя теорема касается алгоритмов с асимптотически близким к оптимальному решению. То, о чем говорю я, теория статистического обучения Вапника, как раз о том, как это обойти. Именно с ее помощью были построены алгоритмы, рвущие все остальные - градиентный бустинг, в т.ч. deepboost. И есть все основания считать, что это далеко не предел, сейчас уже делаются попытки построения глубоких SVM, опять же на основе вапниковской теории, в перспективе они обойдут глубокие нейросети. Там очень большой потенциал на самом деле, потому что подход к задаче МЛ правильный и обоснованный, а не как обычно "нахуярить побольше слоев)))". Фишка в том, что теория статистического обучения она не о каком-то одном подходе, а о решении задачи машинного обучения вообще, в принципе. О построении алгоритмов, эффективнее чем просто асимптотически приближающихся к оптимальному решению. И как раз это можно автоматизировать.
>>962114
То, что у тебя на 2ом пике - это нахождение наименьших квадратов фильтром Калмана. Сама идея взята из оригинальной работы Такаги и Сугено, и т.к. ANFIS это по-сути, TS с адаптивной настройкой свободных параметров, видимо и была использована Чангом без изменения. Вообще, фильтрация в т.ч. всякими хитрыми алгоритмами типа Н-2/Н-инфинити для настройки параметров нечетких моделей - тема отдельная и крайне мутная, лучше туда вообще не лезть без особой нужды, вот пример книшки в тему не для слабонервных http://gen.lib.rus.ec/book/index.php?md5=4710323AE0A71E05902C358A4EAEDF45 настроить свободные параметры нечеткой модели можно и без всей этой мути, вариантов полно вплоть до генетических алгоритмов. Я ж говорил, что ANFIS не самая удачная модель и точно не то, с чего стоит вкатываться в нейрофаззи-моделирование.
Аноним 28/03/17 Втр 13:05:10  962334
>>962332
>теория статистического обучения Ватника
>обучения Ватника
А еще толще можешь?
Аноним 28/03/17 Втр 13:38:18  962337
>>962332
>ANFIS не самая удачная модель
Ты можешь предложить, с чего стоит вкатываться в нейрофаззи?
Аноним 28/03/17 Втр 14:13:46  962348
1316254009453.gif (95Кб, 540x1129)
>>962332
>Эта твоя теорема касается алгоритмов с асимптотически близким к оптимальному решению.

Вообще-то она утверждает, что для любого алгоритма бинарной классификации существует такое распределение на сэмплах и раскраска, что со строго положительной вероятностью эмпирический риск больше 1/10 или что-то около того (это если не ограничивать класс гипотез). Теория же статистического обучения (PAC Learnability) есть суть поиск условий на класс гипотез, для которого эмпирический риск с большой вероятностью близко оценивает реальный риск. Отсюда - в т.ч. ключевая теорема о PAC-лёрнабилити класса с конечным VC дименшион.

А про класс гипотез я как раз у тебя ничего не заметил. И именно поиск хорошего класса гипотез с конечной размерностью (или который суть объединение таковых если добавляем регуляризацию) есть основная проблема обучения.

Алсо, на практике в нейронках на теорию Ватника всем как раз похуй. Потому что VC дименшн нейронок очень хуёво оценивается, классическое правило большого пальца о 10 сэмплах на признак тоже не очень работает и т.п.

Аноним 28/03/17 Втр 16:01:08  962382
p0438.png (312Кб, 2164x1531)
>>962337
>можешь предложить, с чего стоит вкатываться в нейрофаззи?
Коско тута не любят вплоть до смищных картиночек в каждом оп-посте, но его стандартная аддитивная модель (SAM) - общий случай нечеткой модели, к которой сводятся все конкретные. То же самое по методам настройки свободных параметров, у него разобраны случаи бэкпропагейшена как пример обучения с учителем и кластеризация как настройка свободных параметров без учителя. 2ая глава вот этой книги http://gen.lib.rus.ec/book/index.php?md5=BC1EC0F44F2E619AB46D6FD0B7088514 Очевидно, что абсолютна любая нейрофаззи-модель - это частный случай SAM с настраиваемыми параметрами. Но опять же, с кондачка в эту теорию не въедешь, нужно немало медитировать. Простые примеры нейрофаззи-моделей, как и суть происходящего, рассмотрены у Пегата, причем с картинками и на русском.
>>962348
>А про класс гипотез я как раз у тебя ничего не заметил.
Класс гипотез - это конкретная форма функционала минимизации эмпирического риска? Или что? Конкретные формулы у Вапника покажи.
Аноним 28/03/17 Втр 17:10:10  962414
shannon2.jpg (15Кб, 294x392)
>>962382
Ну например: H = {полиномы степени < n}, H = {гиперплоскости в R^n} и т.п.

В терминологии Вапника (которая довольно корявая) - это множество функций Q, по которым минимизируется функционал эмпирического риска.

Алсо, я тут потолщу немного на тему генетической генерации алгоритма. ПРОБЛЕМА ОСТАНОВА
Аноним 28/03/17 Втр 17:51:23  962445
>>962414
>потолщу немного на тему генетической генерации алгоритма. ПРОБЛЕМА ОСТАНОВА
Не, не потолстишь. В MLTT/CiC все функции вычислимы, это не тьюринг-полная система. Поэтому корректность программы в любом нормальном языке с зависимыми типами означает полную корректность, там иначе оно просто чекаться не будет.
Аноним 28/03/17 Втр 20:13:22  962548
Если раньше занимался дрессировкой животных, то на сколько сложно будет вкатиться в машинное обучение? Эти знания помогут?
Аноним 28/03/17 Втр 20:15:46  962551
>>962548
Ну, если устроишься тимлидом, то помогут.
Аноним 28/03/17 Втр 22:09:02  962674
Вопросец к тем кто делает что-то из машоба, нейронок и вот этого всего профессионально, то есть за деньги, то есть в какой-нибудь норм конторе, а не только посмотрел видео 10 минутное на ютубе что такое НС.
Вот я сейчас занимаюсь изучением, пока не так далеко продвинулся - изучил линейные модели, деревья, разные регуляризации и т.д. немного в нейронки смотрю. Но есть такой момент, что мои знания математики хоть и не на нулевом уровне, вроде более менее знаю тервер, алгебру, матан и прочее, читать книжки вроде The elements of statistical learning или похожие такого уровня мне бывает достаточно тяжело и иногда просто упираюсь в то, что не знаю целого важного раздела математики достаточно хорошо.
Собственно вопрос такой - как лучше всего подходить к этому и настолько ли важно знать хорошо прям все? То есть вам нормальные книжки из шапки давались легко или тоже вызывали жопную боль достатоно часто?
Аноним 29/03/17 Срд 12:30:49  962927
>>962674
Что тебя мотивирует этим заниматься? Почему-то стало интересно, что вообще может мотивировать в дрочке матриц людей, особенно сидящих на дваче, лол
Аноним 29/03/17 Срд 13:01:20  962953
>>962927
Я не он, но отвечу.
Вышмат не знаю. Дрочкой матриц занимаюсь, потому что интересно. Такое странное ощущение возникает, что ты создаешь что-то полуживое, полуразумное. Я, конечно, в глубине понимаю, что это просто тупой перебор, аппроксимация и минимизация ошибки, но результат вдохновляет. Как много-много лет назад, когда написал первую программу на Бейсике.
Аноним 29/03/17 Срд 13:03:56  962956
>>962953
А-аа... сублимация... готовься к
Аноним 29/03/17 Срд 13:06:51  962959
>>962953
Ботов охуенно будет так делать для игр и не только, интересно играть с такими наверно.
Аноним 29/03/17 Срд 13:11:29  962960
>>962959
В контре можно например сделать бота что все время стреляет в голову, но тяжело с ним играть, а так чтобы с экспертов доучивались дальше, поможет плавно прокачать скилл.
Аноним 29/03/17 Срд 13:19:53  962964
>>962959
>интересно играть с такими наверно
Когда знаешь, что это бот - нет.
Ведь ты будешь понимать, что он может стрелять тебе точно в голову, и реагирует гораздо быстрее тебя, но его скилл искусственно занижен, чтобы ты, убогое протеиновое существо с ограниченными возможностями, не так остро ощущал свою ущербность.
Аноним 29/03/17 Срд 15:42:45  963056
>>962674
>читать книжки вроде The elements of statistical learning или похожие такого уровня мне бывает достаточно тяжело и иногда просто упираюсь в то, что не знаю целого важного раздела математики достаточно хорошо. Собственно вопрос такой - как лучше всего подходить к этому
Медитируй до просветления. Нету там никаких важных разделов математики кроме матана, теорвера, линейной алгебры (на уровня всяких хуевертий с матрицами и векторами). Просто тема для тебя новая, только и всего. Такие книшки нужно не просто на сон грядущий почитывать, а перечитывать непонятные моменты, гуглить непонятное, местами даже конспектировать, выписывать формулы и прорешивать. Так и победишь.
Аноним 29/03/17 Срд 15:49:01  963060
>>963056
>The elements of statistical learning
На самом деле довольно хуёвая книга. Многовато статистики, на которую всем вообще-то насрать на практике. Из-за этого часто возникает ситуация, что за деревьями не видно леса.
Аноним 29/03/17 Срд 16:19:31  963080
>>963060
> The elements of statistical learning
> хуёвая книга
> Многовато статистики
> statistical learning
> Многовато статистики
Аноним 29/03/17 Срд 16:50:06  963105
>>963080
Для machine learning все это не нужно.
Аноним 29/03/17 Срд 16:51:42  963106
vapnik.jpg (57Кб, 1248x480)
>>963105
Теория статистического обучения - основа МЛ, болезный.
Аноним 29/03/17 Срд 17:38:24  963153
Edvac.jpg (1065Кб, 2925x3795)
>>963080
>>963106
Не нужно повторять заученные мантры. ESL часто фокусируется на совершенно неважных вопросах. Например, в первой же главе дохуя болтовни про конфиденс интервалз для коэффициентов линейной регрессии. Что, много людей этим заморачиваются в практических задачах? Кажется, сам Вассерман - который "Всё о непараметрической статистике" - сказал, что Дэйта Сайнс есть суть смерть практической статистики. Потому что эта примордиальная ёботня с РАСПРЕДЕЛЕНИЕМ СТЬЮДЕНТА С 1488 СТЕПЕНЯМ СВОБОД и прочими ХИ КОКОКОКВОДРАТ ТЕСТОМ НА НЕЗАВИСИМОСТЬ реально никого не ебёт.

Те же лекции Нга, или книга Бишопа, или ещё дохуя материалов гораздо лучше написаны. А по стэйт-оф-зе-арт все равно нужно читать статьи и специализированные монографии.
Аноним 29/03/17 Срд 17:46:50  963157
стл.png (248Кб, 778x960)
>>963153
>дохуя болтовни про конфиденс интервалз для коэффициентов линейной регрессии. Что, много людей этим заморачиваются в практических задачах?
Так тебе же суть объясняют происходящего. А ты ноешь, что "много буков, плохо сделали, тупо, вон у Ына лучше".
Аноним 29/03/17 Срд 17:59:09  963166
BundesarchivBil[...].jpg (60Кб, 800x568)
>>963157
>Так тебе же суть объясняют происходящего. А ты ноешь, что "много буков, плохо сделали, тупо, вон у Ына лучше".
Ноуп. К теории обучения в смысле Вапника дрочево с конфиденс интервалз имеет очень слабое отношение. И, например, в доказательстве ключевых теорем ML всё это замшелое статистическое барахло не используется. А используется, например, неравенство Хёффдинга.

Такие дела. Читать эту муть (ESL) совершенно не рекомендую, уж если интересует теории Вапника - то и читать лучше оригинальную монографию Вапника. Чурка в видеолекциях тоже приемлемо объясняет.
Аноним 29/03/17 Срд 18:18:04  963171
apple-food-love[...].jpg (161Кб, 500x331)
Роджер Шэнк, один из основоположников идеи мыслящих компьютеров, о том почему нас ждёт застой в области ИИ. Я прямо согласен почти с каждым словом. Вообще меня прямо раздражает как последнее время люди все чаще применяют термин Искусственный Интеллект к штукам, не обладающими интеллектом. И да, виноваты в этом гугл и IBM, которые постоянно муссируют AI в смысле коммуникациях, остальным приходится принять правила игры.

За последние 15 лет мы ни на шаг не приблизились к настоящему интеллекту. Но сильно рванули вперёд в машинлернинге и имитации интеллекта. http://www.rogerschank.com/fraudulent-claims-made-by-IBM-about-Watson-and-AI
Аноним 29/03/17 Срд 18:19:18  963172
>>963171
Шенк очень хорош тем, что изучает не только обучение компьютеров, но и обучение людей. Он же и психолог ещё.
Аноним 29/03/17 Срд 18:22:10  963174
>>963171
а без роджера тебе нихуя не понятно?
Аноним 29/03/17 Срд 18:24:06  963175
>>963106
Неправда. Вот тут много слов сказано http://stats.stackexchange.com/questions/6/the-two-cultures-statistics-vs-machine-learning

The biggest difference I see between the communities is that statistics emphasizes inference, whereas machine learning emphasized prediction. When you do statistics, you want to infer the process by which data you have was generated. When you do machine learning, you want to know how you can predict what future data will look like w.r.t. some variable.

Of course the two overlap. Knowing how the data was generated will give you some hints about what a good predictor would be, for example. However, one example of the difference is that machine learning has dealt with the p >> n problem (more features/variables than training samples) since its infancy, whereas statistics is just starting to get serious about this problem. Why? Because you can still make good predictions when p >> n, but you can't make very good inferences about what variables are actually important and why.

ML подход в конечном счете оказался более успешным, потому что unsupervized learning (и сильный ИИ в конечном счете) возможен только в формате простых предсказаний.
Аноним 30/03/17 Чтв 00:50:43  963368
lehappymerchant.jpg (171Кб, 900x960)
>>963157
Подкорректировал немного твою картинку в соответствие с современными реалиями. Ты же не против?
Аноним 30/03/17 Чтв 07:10:09  963432
>>963368
Не совсем так. Уже сейчас шломо шекельберг начал подозревать, что на одних нейроночках далеко не уедешь. Поэтому соавторша вапника уже возглавляет исследовательский отдел гугла и именно там интересуются последними достижкниями ваппниковской теории, гугли deepboost. Нейроночки уже приблизились к пределу своих возможностей, дальше просто никаких кластеров не хватит для тысяч слоев этого хлебушка. Поэтому будущее за глубоким бустингом и стыкованными svm.
Аноним 30/03/17 Чтв 13:16:36  963564
sfdg.gif (955Кб, 500x281)
Анон, помоги дополнить список непонятных по тематике простому человеку слов.
Я вот начал: Когнитрон, Перцептрон, Нейросеть, Нейрон, Матрица, Синапс, Дендрит, Пулинг, Свертка, Керас, Теано, Тензор, LeNet
Аноним 30/03/17 Чтв 13:59:09  963594
>>963564
Крокодил, Залупа, Сыр.
Все твои слова элементарно гуглятся же.
Аноним 30/03/17 Чтв 14:02:12  963596
>>963564
синус косинус экспонента производная
Аноним 30/03/17 Чтв 16:42:59  963690
https://blog.openai.com/evolution-strategies/ Поясните за это. Это смесь вероятностного программирования и генетического программирования?
Аноним 30/03/17 Чтв 20:56:12  963838
>>963690
Вроде просто распределенные генетические алгоритмы, пейпер с телефона не открывается, завтра посмотрю.
Аноним 31/03/17 Птн 01:48:34  963998
>>963564
Матрица это фильм такой, ты из деревни штоле?
Аноним 31/03/17 Птн 02:32:36  964011
>>963998
но там нескоько частей
Аноним 31/03/17 Птн 02:42:28  964012
>>961732
муахахаха, дада матджава против питона, которая без библиотек, без возможностей, без сообщества, без единого адекватного проекта; какой дегенерат картинку нарисовал?

Мне вот вообще интересно, как можно заработать в данной сфере простому человеку и как можно конкурировать с компаниями одному простому почти нищему человеку? Найс идиотизм, что за школьнек-мечтатель фуфлогон?

Тебе сколько там лет? Ещё 20 нет, тогда ты ещё неадекватный человек, не создавай темы до 25, не отнимай время.
Аноним 31/03/17 Птн 02:45:58  964014
>>963564
Всё это элементарная хуйня, которая обозначена незнакомыми словами только и всего.

Так всегда и везде, в любой науке.
Поверь мне, в этом мире всё просто. Единственная сложность - запомнить большой объём инфомрации.
Аноним 31/03/17 Птн 02:51:33  964015
>>963596
Производная - это там где секущая никогда не станет касательной и неопределённость 0/0 может не раскрыться?
И ещё которая даёт неправильную мгновенную скорость в половине случаев?
Аноним 31/03/17 Птн 07:23:18  964030
>>962956
К чему?
не >>962674
Аноним 31/03/17 Птн 11:20:57  964094
>>964012
Ты как будто на двачах впервые. Алсо, Джулия - до сих пор известный в академических средах язык. Не надо гнать.
Аноним 31/03/17 Птн 12:21:10  964123
>>964012
Очевидно, что создав ИИ и задать ему целевую функцию нужную.
Аноним 31/03/17 Птн 13:06:08  964150
>>957720
Что именно не получается? Напиши, может я что подскажу.
Аноним 31/03/17 Птн 14:23:08  964209
Поясните за использование голографии в этом деле.
Аноним 31/03/17 Птн 18:55:02  964414
>>963690
Короче, там очередное подтверждения моего тезиса, что сверточный нейроночки - далеко не единственный метод МЛ и в них все не уперлось. Суть там в том, что для настройки оптимального поведения в марковском процессе принятия решений (MDP) используют CMA-ES, это не совсем генетические алгоритмы. Авторы ссылаются на эту работу http://kyb.mpg.de/fileadmin/user_upload/files/publications/attachments/Neural-Networks-2010-Sehnke_%5b0%5d.pdf Такими темпами скоро распиаренные на ровном месте авторы типа Ilya Sutskever откроют для себя меметические алгоритмы, которые поинтереснее реализаций CMA-ES десятилетней давности. Эти алгоритмы интересны тем, что неплохо аппроксимируют даже тысячемерные функции и не требуют для своей работы многотысячепроцессорных гугловских кластеров.
Аноним 31/03/17 Птн 21:11:47  964486
>>964414
У тебя очень интересное мнение. Можешь еще что-то сказать? Что считаешь перспективным в этой области?
Аноним 31/03/17 Птн 23:38:38  964572
>>964486

Считаю, что все. что вышло после ЛеНета (алекснет, гугленет и тд) - говен, который по сути клон нейросети Яна Ле Куна.
И помимо сверточных сетей, существует другое множество различных архитектур.
Да и вообще, что можно со свертчной сетью делать - только матрицы препроцессить. Это ведь не единственная проблема человечества.
Аноним 01/04/17 Суб 12:25:42  964719
>>964486
Из-за хайпа вокруг сверточных сетей все как-то забыли, что МЛ гораздо более широкая тема. Многие области которой не развиваются из-за того, что не в моде. В частности, хуй капитально забит на fuzzy, intuitionistic fuzzy, rough, soft, neutrosophic - множества и их гибриды. Настолько капитально, что по большинству из них не существует ни одного алгоритма вывода в условиях неточности. Вообще, почему-то принято игнорировать, что вероятность - не единственная неточность из всех возможных. Дажк вапниковская теория статистического обучения касается только вероятности.
Аноним 01/04/17 Суб 20:35:27  965024
>>964572
Ленет - неюзабельное говнецо, автор которого за двадцать с хуем лет не догадался использовать нелинейности, не вырождающие градиенты. Я молчу об отказе от pooling слоев и residual сетях - это для этого пердуна вообще рокетсаенс, хотя казалось бы, за 20-то лет можно было хотя бы попытаться. Основная проблема как раз в том, что сообщество никогда не верило в нейронки (потому что бумаги по поводу них много не изведешь) и всегда страдало хуйней типа перечисленной тобой. И огромной ошибкой будет опять начинать это бумагомарание. Фуззи-хуюззи, 30 лет не могли решить задачу отличить кошку от собаки, но зато грантов попилено я ебал.
"неплохо аппроксимируют даже тысячемерные функции" - ебанутый, тысяча измерений - это хуйня, у AlexNet 2562563-мерная функция и она не просто аппроксимирует training set - с этим вообще нет проблем, она предсказывает выход имея сраные 1000 образцов.
Аноним 02/04/17 Вск 05:51:02  965237
>>965024
Кошку от собаки еще ART сети в 80х отличали, только ты про них даже не слышал, свидетель алекснета. Я даже не буду гоыорить, чтоо распознавание котов не единственная задача мл, для школоты это слишком сложное заявление.
Аноним 02/04/17 Вск 10:58:28  965276
>>965237
>Кошку от собаки еще ART сети в 80х отличали
ты пиздишь хуиту.
>>965024
а ты прав. следующий хайп будет по вероятностным программам, уже виден кончик гигантского хуя это викинга. Но нужен датасет, который был бы непосилен обычным нейронкам.
Аноним 02/04/17 Вск 21:53:42  965661
Аноны, подскажите что делать - решается задача бинарной классификации, имеется выборка ~ 2к объектов и ~100 признаков, а классы очень сильно различаются по объему (примерно 10:1). Сначала пробовал логистическую модель c балансировкой классов, но там или выдавало константный классификатор, который тупо занулял (тогда была метрика accuracy), или ~0.25 на f1-score.
В общем вопрос такой у меня - какой моделью лучше пользоваться для такой бинарной классификации и какую метрику юзать?
Аноним 03/04/17 Пнд 03:31:03  965834
>>965661
SVM с ренормализацией коеффициентов C
http://www.cs.ox.ac.uk/people/vasile.palade/papers/Class-Imbalance-SVM.pdf
Аноним 03/04/17 Пнд 12:33:48  965938
>>956903 (OP)
Хочу читать бумагу. Где заказать бишопа подешевле?
Аноним 03/04/17 Пнд 13:06:32  965978
>>965834
Спасибо, попробую
Аноним 03/04/17 Пнд 15:50:34  966049
1313429215058.jpg (90Кб, 720x567)
А правда, что backpropagation по-русски будет ВЗАДПРОДВИГАНИЕ?

ВЗАДПРОДВИГАНИЕ
ВЗАДПРОДВИГАНИЕ
ВЗАДПРОДВИГАНИЕ

Аноним 03/04/17 Пнд 15:51:30  966050
SDC116191.jpg (1143Кб, 2592x1944)
>>965938
Нигде, наверное. Слишком хайпнутая книженция. На ебеях от 2,5к рублей самые дешевые. А вот Вапника я у индусов покупал, вместе с доставкой вышло 900р. с чем-то.
>>966049
Если русский не думает о хуях, значит думает о жопе.
Аноним 03/04/17 Пнд 16:18:31  966067
>>966050
двачую
сам купил вапника у пенсионера в проходе метро за 145 р.
в сортире поставил, ни о чём не жалею
Аноним 03/04/17 Пнд 17:16:14  966090
>>966050
С амазона на 4к выйдет. Слишком дорогое удобство.
Аноним 03/04/17 Пнд 17:16:53  966092
>>956903 (OP)
Что за три кружка? Язык какой-то?
Аноним 03/04/17 Пнд 17:21:15  966096
>>966092
>>961701
Аноним 03/04/17 Пнд 18:05:54  966107
blob (7Кб, 88x88)
>>966092
да, охуенный очень
лучший яп для мл/статистики
https://julialang.org/
Аноним 03/04/17 Пнд 19:33:01  966150
>>966107
>лучший яп для мл/статистики
Ты с R путаешь.
Аноним 03/04/17 Пнд 19:38:27  966155
>>966107
залупа которая тичот и работает медленее чем гау
>>966150
просто говно с пакетами. что-то уровня офиса - говно говняное, а все юзаают
Аноним 03/04/17 Пнд 19:41:52  966157
>>966150
р-макака
>>966155
дерзкий-школьник-макака
Аноним 03/04/17 Пнд 19:42:13  966158
>>966155
>говно говняное, а все юзаают
Ага, все идут не в ногу, один школьник с мейлру в ногу. Все пидорасы, школьник с мейлру Дартаньян. Я тебя понял. Открою секрет - если лично тебе какая-то хуитка без задач понравилась, это не повод считать ее лучше нормальных инструментов.
Аноним 03/04/17 Пнд 20:07:16  966171
>>966157
дерзкий пиздолиз-фанат юленьки. а юленька течёт как шлюшка
>>966158
>ко-ко-пакеты
как же макаку порвало, все на мейлаче сидим, а эту пакетную шмаль порвало. как раз таки р - говнище без задач, которое тормозит как твоя мать, которая 9 месяцев думала делать ли ей аборт
Аноним 03/04/17 Пнд 20:43:42  966189
>>956903 (OP)
Имеет ли смысл учить алгоритмы МО и имплементировать их самостоятельно?
Аноним 03/04/17 Пнд 21:06:31  966204
>>966189
Их не учить надо, а понимать. Толку от вызубренной линейной регрессии не будет, а вот если сам сделаешь, сложные места найдёшь, то толку будет в разы больше.
Аноним 03/04/17 Пнд 21:20:58  966219
>>966189
Бамп вопросу
Вот появилась недавно мысль, написал пару простых алгоритмов, ничего не получил нового в плане понимания. Что-то новое, чтоб работало лучше других не напишу - там толпы математиков-погромистов писали годами против меня - студента.
Аноним 03/04/17 Пнд 21:35:55  966234
>>965276
А как там диффернцируемое программирование?
Аноним 04/04/17 Втр 02:13:54  966458
>>956903 (OP)
поясните за idris. Где он вообще будет использоваться, будет ли вообще? Есть какой-нибудь реальный плюс использования такого, или это просто средство для становления псевдоинтеллектуалом 2 уровня?
Аноним 04/04/17 Втр 02:39:45  966463
>>966458
Если ты не знаешь, что такое dependent types, то тебе он не нужен.
Аноним 04/04/17 Втр 03:19:18  966466
>>966234
дифференцируемое программирование это имхо и есть НН. Посмотри на модели, там уже машины тьюринга, всякие модели с памятью и все такое. Но фишка в том, что чем сложнее модель, тем фиговее ее тренировать градиентом. А у вероятностных моделей в рукаве еще и монте-карло есть, когда градиент не работает.
Аноним 04/04/17 Втр 15:07:20  966643
PerMartin-Lofbig.jpg (24Кб, 329x400)
>>966458
Все, что можно пояснить за идрис - это ЯП с зависимыми типами, причем не сказать чтобы лучший. Пояснять надо за зависимые типы, а точнее за MLTT - конструктивную теорию типов за авторством пикрелейтед.
Аноним 04/04/17 Втр 19:06:58  966771
>>965024
> у AlexNet 2562563-мерная функция и она не просто аппроксимирует training set - с этим вообще нет проблем, она предсказывает выход имея сраные 1000 образцов.
Пруфы?..
Аноним 04/04/17 Втр 19:36:46  966801
>>966643
он алсо топит за примитивизм и национализм
https://www.youtube.com/watch?v=LxAK3fyONsI
Аноним 04/04/17 Втр 19:42:33  966804
>>966466
А что вообще можешь сказать об этом списке: https://www.quora.com/What-are-the-likely-AI-advancements-in-the-next-5-to-10-years/answer/Yann-LeCun ?
>>966643
>>966801
Я думал Мартин-Лёф это два человека. А тут один.

Ну, поясни, пожалуйста, тогда за зависимые типы (на простеньком примере типа палиндрома или чего-то такого) и mltt.

мимо
Аноним 04/04/17 Втр 19:49:21  966812
>>966801
Долбаёб варга закинул
Аноним 04/04/17 Втр 20:08:44  966832
каринасложно.webm (2433Кб, 1280x720, 00:00:11)
>>966801
Варг причем вообще?
>>966804
>поясни, пожалуйста, тогда за зависимые типы (на простеньком примере типа палиндрома или чего-то такого) и mltt.
Это сложная тема, в 3х словах не пояснишь. Так-то зависимые типы даже на джаве делают http://beust.com/weblog/2011/08/18/a-gentle-introduction-to-dependent-types/ да и MLTT на одном листе можно уместить https://en.wikipedia.org/wiki/Intuitionistic_type_theory, но чтобы понять что вообще происходит, как минимум первые глав 7 этого http://www.cse.chalmers.se/research/group/logic/book/book.pdf нужно осилить.
Аноним 05/04/17 Срд 01:08:31  967072
>>966466
Сложность вычисления градиента растет примерно как o(n), а сложность монте-карло примерно как o(exp(n)). Поэтому не взлетит. Ровно как не взлетит идея с генетическим программированием - там точно такой же комбинаторный взрыв.
Аноним 05/04/17 Срд 04:05:28  967112
>>966804
>А что вообще можешь сказать об этом списке
почти полный список, но стоит учитывать что через 10 лет будут доступны большие квантовые компьютера с 100-200 кубитами и методы обучения скорее всего поменяются на статистические. В других списках ко всему прочему есть еще объединение нс с баесовскими методами, чтобы вычислять интервал конфиденциальности и оценивать распределение предсказаний. + в других списках есть еще построение теорий нейронных сетей.
Аноним 05/04/17 Срд 05:25:32  967115
>>967112
>интервал конфиденциальности
Это называется доверительный интервал, чурка. И нет, не взлетит, потому что нахуй не нужно, как все то, на что дрочат статистики.
Аноним 05/04/17 Срд 06:00:59  967116
>>967115
это тебе лично не нужно. но ты явно не в курсе про европейские регуляции на алгоритмы которые используются в области здравохранения.
Аноним 05/04/17 Срд 10:30:38  967154
>>958353
Так ты в любом случае не будешь двигать, азаза
Аноним 05/04/17 Срд 13:32:58  967247
131.jpg (74Кб, 640x640)
Благородные господа!

Был отправлен из треда про Big Data к вам. Поясните, пожалуйста, за термины:
1) Big Data
2) Data Analysis
3) Data Mining

Учусь, хочу вкатится туда, где будет много математики. Плачу негритянками.
Аноним 05/04/17 Срд 13:39:57  967253
>>967247
>1) Big Data
Большие объемы информации.
Манипуляция ими.

>2) Data Analysis
Анализ данных. Тебе гугл транслейта не хватает?

>3) Data Mining
Такой анализ данных, при котором в данных ищут что-то интересное.
Аноним 05/04/17 Срд 13:41:30  967255
>>967247
> где будет много математики
в математике довольно много математики, попробуй вкатиться в математику. нахуй остальное там маловато математики
Аноним 05/04/17 Срд 13:42:49  967258
14901057587810.jpg (28Кб, 467x700)
>>967253
Я дружу с английским и не только. Поясни, что такое 2?
Аноним 05/04/17 Срд 13:46:18  967263
>>967255
Я образно - ''Типанебыдла''
Аноним 05/04/17 Срд 13:47:28  967264
>>967263
https://www.quora.com/What-is-the-difference-between-Data-Analytics-Data-Analysis-Data-Mining-Data-Science-Machine-Learning-and-Big-Data-1
Аноним 05/04/17 Срд 13:49:19  967266
>>967247
>>967253
По поводу бигдаты. Обычно школьники кукарекают что-то уровня "меньше экзабайта не бигдата" и т.д. На самом деле бигдата - это все, что нельзя просто загрузить в оперативу из-за размера. Именно на этом месте начинаются изъебства, причем если у тебя скажем 8 гиг оперативы, методы бигдаты для тебя начнутся гигабайт с 5 в лучшем случае. И они ничем не будут отличаться от работы с терабайтным датасетом.
Аноним 05/04/17 Срд 13:51:53  967268
>>967266
>>967253
>>967264
Где в Москве\России работают дата майнеры? Какую, к примеру, работу выполняют?
Аноним 05/04/17 Срд 14:01:22  967279
>>967268
Яндекс, мейл, сбертех, крупные опсосы, всякие компании с биоинформатикой связанные шапку читать надо. Что делают можно в интернете найти
Аноним 05/04/17 Срд 14:14:18  967300
blac-chyna.jpg (344Кб, 2000x2483)
>>967264
Спасибо
Аноним 05/04/17 Срд 14:14:57  967301
>>967279
Извиняюсь, шапку прочитал невнимательно. Спасиб.
Аноним 05/04/17 Срд 15:08:49  967346
>>967253
>Такой анализ данных, при котором в данных ищут что-то интересное.
Не "что-то интересное", а знания, сиречь скрытые закономерности в этих данных.

Дата майнинг и датаанализ не так-то просто различить, тут нужен не гуглтранслейт, а просто гугл.
Аноним 05/04/17 Срд 15:16:36  967350
Ананасы, посоветуйте статей про выделение и отслеживание объектов (трекинг) на видео и распознавание эмоций с помощью нейронок. Алсо, хотелось бы почитать сравнение работы нейронок и обычных методов компьютерного зрения.
Аноним 05/04/17 Срд 15:29:17  967356
>>967350
Поздно ты курсач начинаешь
Аноним 05/04/17 Срд 15:33:38  967362
>>967356
Мимо, курсач через год ещё
Аноним 05/04/17 Срд 22:32:29  967675
Может ли компилятор какого-то там Haskell'а или еще чего-то такого обычного генерировать код сразу в виде нейросети?
Аноним 05/04/17 Срд 22:34:16  967676
>>967266
Если пять гигабайт то лучше накатать bash-скрипт с нужными инструментами (типа grep, awk и прочая) и чуток подождать, а не поднимать hadoop.
Аноним 05/04/17 Срд 22:36:08  967678
>>967675
Theano и tensorflow именно этим и занимаются, ты описываешь сетку в виде некоего графа средствами языка, далее этот граф оптимизируется и генерится уже быстрый код. Не хаскель, потому что хаскель нахуй никому не нужен, кроме распильных контор типа британских банков.

>>967676
Можно просто делать свопфайл на своем ссд.
Аноним 06/04/17 Чтв 01:20:24  967786
>>956903 (OP)
Кто-нибудь знаком с pegasos? Там формула через кернел заставляет меня хранить весь датасет.

Потому что весы посчитать можно только через ФИ. А вот при умножении весов на входящий вектор - получается кернел. А для высчитывания (x,w) приходится поднимать весь обучающий датасет.
Какие есть способы не таскать его за собой? Есть же там какой-то online learning.
Аноним 06/04/17 Чтв 15:33:22  968121
7ec7cb9fbb7be82[...].jpg (17Кб, 760x430)
>>967279
Уважаемый, поясни, будь добр.

Я уже знаю, что анализ даты это только часть работы с датой. Хотел бы вкатить хоть куда на работу, но не знаю где с ней работают и что нужно знать для такой работы. На самую простую, для начала, работу с датой. Конечная цель - майнить.
Аноним 06/04/17 Чтв 15:41:32  968123
>>967786
ПЕГАСОС)))
Аноним 06/04/17 Чтв 15:50:04  968129
14900360919372.jpg (74Кб, 600x411)
>>967346
>Не "что-то интересное", а знания, сиречь скрытые закономерности в этих данных.
Нет, не знания ниразу. Наркоман.
Ищут ткнз скрытые переменные.

>Поясни, что такое 2?
Да все что угодно может там быть.
Это общие слова.

>>967268
>Где в Москве\России работают дата майнеры?
Финансы медицина крупный бизнес.

>Какую, к примеру, работу выполняют?
Пишут мартышкодерьмокод для анализа биржевых\медицинских\корпоративных данных.
Аноним 06/04/17 Чтв 16:32:43  968167
>>968129
Ответь, будь добр, на это >>968121
Чем больше деталей добавишь, тем лучше для меня
Аноним 06/04/17 Чтв 16:39:34  968172
>>968129
>мартышкодерьмокод
Всегда думал, что там нельзя быть мартышкой. С чем ты сравниваешь?
Аноним 06/04/17 Чтв 17:12:01  968207
>>968172
>Всегда думал, что там нельзя быть мартышкой. С чем ты сравниваешь?
Все IT Это на 99% ctrl+c ctrl+v.

Есть небольшая прослойка высококлассных специалистов, которые занимаются, скажем так, наукой, и работают в ткнз R&D центрах.

Обычно чтобы получить подобную работу требуется ученая степень.

И раз ты задаешь подобные вопросы на харкаче, это скорее всего не для тебя.

В датамайнинг и прочий датааналлизис, тебя без профильного ВО то-же не возьмут.

Так что иди в университет для начала, на соответствующую специальность.
Аноним 06/04/17 Чтв 17:22:37  968216
>>968121
Статистика, на основе кучи всякого говна выбранного типа с гугл аналитикс или еще откуда, и делать из них таблички в икселе, находить зависимости, закономерности. Находишь зависимость, типа школота смотрит чаще на сайте айфоны, а нешколота смотрит самсунги, рисуешь красивый график показываешь начальству, и говоришь как на основе этих данных можно на сайте товары разместить и кому какую рекламу показывать. Хуета короче. Распознавание картинок это тоже статистика только в виде входящих данных - массив пикселей.
Аноним 06/04/17 Чтв 17:25:33  968220
>>967786
Primal Estimated sub-GrAdient SOlver for SVM есть жи
Аноним 06/04/17 Чтв 17:25:49  968221
>>968220
>
>>968123
Аноним 06/04/17 Чтв 17:31:37  968226
>>968220
Ну и разные численные методы для статистических параметрических моделей: вектор-машины, перцептроны, PCA для распознавания еблищ и прочая хуета.
Аноним 06/04/17 Чтв 18:49:03  968262
>>968226
Мы о чем, бро?
Аноним 06/04/17 Чтв 19:23:31  968278
>>968129
>скрытые переменные
Ну не только же их.

>>968207
>И раз ты задаешь подобные вопросы на харкаче, это скорее всего не для тебя.
Стереотипы-стереотипчики.
Аноним 06/04/17 Чтв 19:28:11  968281
>>968278
>Ну не только же их.
Ну там еще выбросы можно детектить.
Но лучше детектить выбросы когда у тебя есть скрытые переменные.
Короче извлекать любую информацию которая может быть ценной.
Аноним 06/04/17 Чтв 19:29:05  968282
>>968278
>Стереотипы-стереотипчики.
Стереотипы потому и существуют, что имеют объективную основу в объективной реальности.
Аноним 06/04/17 Чтв 19:53:18  968296
>>968207
>И раз ты задаешь подобные вопросы на харкаче, это скорее всего не для тебя.

>В датамайнинг и прочий датааналлизис, тебя без профильного ВО то-же не возьмут.

Пиздец. Но я же у мамы молодец, лол. Расскажи, будь добр, подробнее. Профильное это ШАД?
Аноним 06/04/17 Чтв 20:03:11  968302
>>968296
Это курсы повышения квалификации
Аноним 06/04/17 Чтв 20:03:55  968303
>>968302
Вышка - это бакалавриат, как минимум по математике/computer science
Аноним 06/04/17 Чтв 20:57:29  968369
>>968296
>ШАД?
What?

>Но я же у мамы молодец, лол. Расскажи, будь добр, подробнее. Профильное это
Это любой университет со сколь нибудь вменяемым уровнем аккредитации.
This - >
>>968303
>бакалавриат, как минимум по математике/computer science
Но вообще, все хотят магистров.
А если R&D то докторов, или хоть аспирантов.

Идешь в МГУ например, и берешь полных список всех направление по computer science, выбираешь то, что ближе всего к интересующей тебя теме.

Но вообще, если уже выкладываешься в подобное, то имеет смысл сделать академическую карьеру, и уехать в германии или швеции на этом поприще.
Аноним 06/04/17 Чтв 21:02:48  968382
>>968369
>>968303
>>968302
Теперь я окончательно охуел.
То есть или я заканчивю ВМК МГУ \ ВШЭ по компьютерным наукам, или шансов нет?
>>ШАД?
>What?
Школа Анализа Данных при Яндексе. Даже это не избавит от академических мук?
Аноним 06/04/17 Чтв 21:03:43  968383
>>968369
>Но вообще, все хотят магистров.
Даже дерьмокодером нынче неберут без магистра.
Даже уборщицей.

Но есть лазейка в принципе, если у тебя есть опыт, и реальные прожэкты.
Аноним 06/04/17 Чтв 21:10:33  968389
>>968382
>Школа Анализа Данных при Яндексе.
Если она дает трудоустройство в яндексе, то на здоровье, если это то, что тебе нужно.


>Даже это не избавит от академических мук?
Если обучение для тебя мука, то это все не твое в принципе.

Я вообще сколько тебе там лет, но я вот мечтаю в универе всю жизнь учится.
Интересно, друзья гулянки любовь, молоденькие студентки.

Нет лучшей в жизни поры.

Еслиб еще молодость вернуть.

А там еще есть всякие кружки философские, а еще путевки всякие от государства. Кружки хорового пения.
Эх, Боже, какие же ламповые воспоминания.

Дружество и кипящее вино разлито по бокалам.

А после,
У всех уже своя дорога,
И некоторых людей так никогда до самого ты гроба
Уже не встретишь.
Будут только, воспоминания томить.


Короче пиздуй в универ и наслаждайся юностью.
Аноним 06/04/17 Чтв 21:28:21  968405
>>968389
> друзья гулянки
Если ты в шараге им. Сутра Опохмелидзе, то да. Если ты не в шараге, то тоже да, только ничего полезного для себя из такой "учёбы" не извлечешь. Т.е. либо ты ебашишь, сократив "друзьягулянки" до охуенного минимума, либо ты очередной хуесос, который не по специальности пойдёт УНИВЕР НИЧЕГО НЕ ДАЛ, виня в этом всех, кроме себя
Аноним 07/04/17 Птн 01:50:02  968575
>>968405
Глупое необоснованное мнение.
Всего должно быть в меру.
Что там в универе "ебашить" нужно, вообще непонятно.
Учись в свое удовольствие.
А друзья в универе, это основа всех твоих связей по жизни, которые дают социальные лифты.
Аноним 07/04/17 Птн 02:06:15  968581
>>968575
Глупое необоснованное мнение.
Хочешь нормальных результатов в чём-то - никакого "всё в меру" не должно быть.
"Ебашить" в смысле постоянно заниматься, по возможности изучая что-то интересное лично тебе сверх программы.
Учился в своё удовольствие, ловил ни с чем не сравнимый кайф от учёбы.
А друзья и знакомые из универа не для каждого основа связей по жизни, мне больше помогли связи с друзьями друзей, которых я ещё со школы знал.
знакомая с параллельной группы, кстати, вообще на заправке, НА ЗАПРАВКЕ, блджад, с мат. образованием вуза дс2, работает, и таких примеров просто дохуя, зато в общажке весело бухала чуть ли не каждую неделю, сдавая экзамены тупой зубрёжкой, благо ещё преподы не очень жётские были
Аноним 07/04/17 Птн 02:34:48  968582
0da897475c5884XL.jpg (73Кб, 800x461)
>>968581
>Глупое необоснованное мнение.
Оукей...
>Хочешь нормальных результатов в чём-то - никакого "всё в меру" не должно быть.
Ох, ну как скажешь.

>знакомая с параллельной группы, кстати, вообще на заправке, НА ЗАПРАВКЕ, блджад, с мат. образованием вуза дс2
Такое повсюду в РФ, ценность ВО почти нулевая. И че?
Все зависит от тебя.
Кто-то уехал в Германию и стал там руководить лабораторией, а кто-то стал уборщицей, хотя окончил вуз с красным дипломом.
Все дело в том, что ты для себя извлекаешь из вуза.

>зато в общажке весело бухала чуть ли не каждую неделю, сдавая экзамены тупой зубрёжкой, благо ещё преподы не очень жётские были
И че?
Аноним 07/04/17 Птн 02:52:15  968587
>>968582
Да ничё, забей, какой-то хуйнёй занимаемся в треде про машоб
Аноним 07/04/17 Птн 02:57:06  968589
>>968405
задрачивал в университете, но он все равно ничего не дал
Аноним 07/04/17 Птн 13:55:21  968729
Школяры, уходите со своими шарагопроблемами, тут тред про МЛ.
Аноним 07/04/17 Птн 16:48:02  968804
>>968581
>Хочешь нормальных результатов в чём-то - никакого "всё в меру" не должно быть.
Должно. В вузе примерно 70% знаний не нужно, можно на них забить, и распределить время как 35% на дроч в свое удовольствие, 35% на пьянки-гулянки, чтобы не выгореть нахуй.
Аноним 08/04/17 Суб 00:02:17  969024
>>967350
бамп реквесту
Аноним 08/04/17 Суб 00:35:10  969030
>>968282
Реальность на таком уровне переменчива.
>>968281
>Ну там еще
Да читани ты сам, что такое датамайнинг в целом. Ты рассказываешь про то, в чём шаришь сам - это хорошо, но это не исчерпывающий ответ, неточный.
Аноним 08/04/17 Суб 01:28:11  969037
>>969030
>Да читани ты сам, что такое датамайнинг в целом. Ты рассказываешь про то, в чём шаришь сам - это хорошо, но это не исчерпывающий ответ, неточный.
Ну так точных исчерпывающих ответов и не бывает (кроме школьных уроков математики).
Потому всякий статистический анализ, и дата майнинг, и существуют.
Аноним 08/04/17 Суб 01:52:45  969047
>>969030
>Реальность на таком уровне переменчива.

Помню замечательную картинку-комикс, к статье о, по моему "достаточность доказательств".
В старом журнале химия и жизнь, вроде.

Там были две крысы.
Когда горит красная лампа их бьет током у кормушки, когда зеленая - можно есть.

Первый раз ударило током.
крыса 1 - "ебана когда горит красный бьет током!"
крыса 2 - "недостаточно фактов чтобы утверждать это, быть может сие было случайным"

Второй раз загорается красная лампа.
крыса 1 отпрыгивает в ужасе.
крысу 2 ебошит током. Крыса номер 2 говорит полуживая - "все еще мы не можем делать достаточно обоснованных выводов, быть может люди хотят обмануть нас, а быть может что-то совсем другое влияет на удар током"

Третий раз загорается красная лампа.
краса 1 отпрыгивает.
крыса 2 жарится. Дымится и бьется в конвульсиях, с трудом выдавливает из себя - "это не может считаться достаточным доказательством так как..." и в таком духе.

Надо бы ее найти...

А так да, реальность переменчива.
Аноним 08/04/17 Суб 09:49:12  969116
Поясните за модель AIXI и ее аппроксимацию.
Аноним 08/04/17 Суб 12:03:17  969197
>>969047
Хотел начать дообъяснять и спорить, потом понял, что всё равно по жизни крыса 2, чего уж там.
Аноним 09/04/17 Вск 11:44:53  969723
https://github.com/mikeizbicki/HLearn

Что скажите об этой библиотеке машинного обучения? И если взять концептуально, то зачем там гомоморфизмы?
Аноним 09/04/17 Вск 12:40:15  969775
Снимок.PNG (17Кб, 410x387)
Ну вот, а я же говорил, что нейроночка это зависимый тип. К этому все и идет, вот >>969723 библиотека для МЛ на хачкиле, все этапы работы нейросети представлены функторами да мандадками. Скоро до кого-нибудь дойдет, что в нейросети вообще нет ничего кроме стрелок и котягорий. Или лямбда-термов, кому как нравится. И не только все нейросети ,но и все алгоритмы в МЛ проще, лучше и удобнее рассматривать с позиции типизированной лямбды, как я и предлагал >>959210 помимо прочего, такой взгляд на проблему предполагает и автоматизированное решение задачи построения алгоритмов МЛ генетическим программированием на типизированной лямбде.
Аноним 09/04/17 Вск 13:21:19  969843
Facepalm.jpg (117Кб, 487x487)
>>969775
>Скоро до кого-нибудь дойдет, что в нейросети вообще нет ничего кроме стрелок и котягорий. Или лямбда-термов, кому как нравится

В нейросети нет ничего кроме матриц.
Наркоманы злоебучие.
Аноним 09/04/17 Вск 14:57:50  969988
14833904885380.jpg (91Кб, 1280x720)
Меня тут агитируют перекатываться из веба в машоб, даже курсы дали бесплатные от яндекса.

Я конечно трезво понимаю, что из веба нужно выкатываться и как можно скорее, потому что это въёбывание, тупое въёбывание, где конкуренция растёт с каждым годом, а вкатывальщиков всё больше и больше.

Вокруг машоба я не вижу хайпа, хайп надуман, курсы потребляет очень мало человек, реально учиться и вкатывается 3.5 человека.

Перспективно, но для тех, кто сейчас поступает в универ и будет искать работу через 4-6 лет.
А вот мне щас, что делать? Отслушаю я месяц курсов, эт ос учётом того ,чт оу меня есть хорошая математическая база, а дальше куда?
Живу в Воронеже, вакансий по машобу нет, какие-то свои проекты в одичноку я не потяну, только переезд в мск.
В мск требуются специ за 300к, без опыта или с малым опытом есть, но всё очень мутно.

Что думатете по этому поводу, что мне делать?
Жалко потраченного времени на веб, но уходить рано или поздно придётся, ибо отрасль умирает, к тому же я работаю на фрилансе у меня не будет пенсии и других соц гарантий и по своему здоровью я вижу, что в 40 лет уже не смогу работать программистом ,а в машобчеке можно и карьеру по административной лестнице сделать.
Аноним 09/04/17 Вск 15:02:46  969990
>>969988
300 к? без опыта? дурачок что ли? Я видел вакансии около 80-100 к на дата саентистов, но там я бы не сказал что без опыта.
Аноним 09/04/17 Вск 15:07:47  969993
>>969990
Я хоть писать не умею, но ты вообще, по всей видимости не умеешь даже читать и видеть элементарную логику.
Внимательнее перечитай пост.
Аноним 09/04/17 Вск 15:08:58  969995
>>969993
а ты тяночка?
Аноним 09/04/17 Вск 15:09:39  969996
>>969995
В душе да.
Аноним 09/04/17 Вск 15:10:14  969997
>>969996
тогда только фронтенд
Аноним 09/04/17 Вск 15:14:53  969998
>>969997
Не путай пидорство с девочкой внутри.
лучше расскажите истории трудоустройства для мотивации, поделитесь опытом.
Или тут одна студентота?
Аноним 09/04/17 Вск 15:17:21  970004
Чтобы где-то работать по этой специализации надо иметь небось доктора наук (или там Ph.D или что там)?
Аноним 09/04/17 Вск 15:19:42  970006
>>969998
В смысле блять? Ты просто идешь в контору на собеседование. Тебя не берут. Ты говоришь ну и хуй с вами дебилы набирайте дальше макак из ПОХАПЭ треда. Пиздуешь в следующую контору.
Аноним 09/04/17 Вск 15:26:20  970014
>>969988
Нет пути, если нет серьезной подготовки по математике и статистике. Короче хуй вкатишься если ты собачий хуй.
Аноним 09/04/17 Вск 15:26:46  970015
>>970004
Несёшь хуиту, в вакансиях нет ничего про образование, хватит бакалвриата/магистратуры
Чтобы работать нужно иметь опыт работы в машоб, где его взять, если его нет?

Самый реальный вариант на мой взгляд - вакансии с опытом 1-3, где требуется какой-то смежный опыт, например бигдата, в бигдате можно получить опыт без опыта, просто выучить основы java/python и чуть чуть математики с первого курса любого технического факультета.
Т.е. те, кто имеет опыт в смежных областях - могут вкатиться в машоб и т.п., а просто с улицы или из веба, как в моей ситуации, - хуй.

Пройдёт несколько лет, будут требоваться джуны, но сейчас нет.
Я хочу вкатываться сейчас, а не через несколько лет.
Аноним 09/04/17 Вск 15:29:09  970018
>>970015
Ну так вкатывайся, кто мешает? Проблема в том, что сайт нужен каждой заборостроительной конторе, а сеточки - чуть более чем никому.
Аноним 09/04/17 Вск 15:29:34  970019
>>970014
>чт оу меня есть хорошая математическая база
>нет серьезной подготовки по математике и статистике
Ещё раз, прошу тебя, научись читать.

И математика, по-моему опыту, это гораздо более понятная, приятная и простая сфера, нежели, чем веб.
Потому что математика - это в первую очередь инструмент, который придумал человек для работы, для удобной работы под конкретные задачи.
А веб - это организм, выросший на деструктивной деятельности человека, при этом часто лишённый логики.
Аноним 09/04/17 Вск 15:38:06  970027
>>970018
>Ну так вкатывайся, кто мешает?
Страх проиграть.
Жалость по тому, что было потрачено время на вкат в веб.
Отсутствие вакансий без опыта.
Я не могу бросить работу и полностью погрузиться в учёбу, параллельно с работой учиться тяжело.

>каждой заборостроительной конторе
Миф, опять же по-моему опыту, большая часть мелкого и среднего бизнеса не хочет иметь сайты, потому что их устраивает объём заказов, который получают через сарафанное радио и объявления.

Во-вторых, типо решения вроде сайта-визитки, объявления, лендинга и даже магазина клепаются конструктором.
Есть куча шаблонов, куча cms, куча решений дизайнерских и технических, многое из которого можно получить бесплатно.
А работа веб-мастера сейчас - это сродни сборщику мебели икея. Всё уже готово к тому, чтобы это собрали, инструкция есть в картинках для самых маленьких.

Серьёзной веб-разработки для конкретных индивидуальны, не типичных проектов, относительно всего рынка не так много.
Когда сайтостроение для крестьян станет доступным и автоматизированным, ну или хотя бы прост очень дешёвым, тысячи веб-разработчиклв побегут в более серьезную разработку, а там нет столько работы. 90% останется за бортом, и это случится при моей жизни.

Этим меня привлекает машоб, и вообще любые сложные вещи, которые на самом деле не сложные, просто считаются в народе сложными. Тут нет вкатывальщиков, есть перспективы.
Аноним 09/04/17 Вск 15:38:45  970028
>>970027
>типо решения
типовые
Аноним 09/04/17 Вск 15:45:27  970033
>>970027
Поверь, в этот ваш машоб на уровне слесаря-наладчика вкатиться проще, чем в веб, скоро любая бабулька будет сеточки с котиками обучать.
Аноним 09/04/17 Вск 15:47:46  970035
>>970033
А с подкреплением? А без учителя?
Аноним 09/04/17 Вск 15:50:41  970037
>>970035
Ты академические работы читал? Цифры видел? Они же смешные, обучение без учителя это технология завтрашнего дня и бизнес за нее платить не будет.
Аноним 09/04/17 Вск 16:03:50  970049
>>970019
Ну пробуй, я вот дропнул, осилил 1,5 курса специализации от яндекса и мфти, дальше я просто не смог.
Аноним 09/04/17 Вск 16:11:52  970063
>>970049
На том и порешил, буду уделять по часу каждый день, глядишь к тому времни, когда веб всё, и перекачусь.
Аноним 09/04/17 Вск 21:00:17  970472
>>956903 (OP)
Был спор с аноном о том, как нужно общаться, чтобы нейросеть не могла идентифицировать твои тексты. Анон писал, что нужно изобретать свой язык с кодовыми фразами, короче, чтобы со стороны это выглядело как бред. А я думаю, что нужно наоборот писать без грамматических ошибок в общем стиле, тогда не будет понятно, где твой текст, а где не твой. Как вы думаете, кто из нас прав?
Аноним 09/04/17 Вск 21:54:29  970525
>>970472
Просто берешь сетку и учишь ее подделывать тексты известных политических деятелей.
Аноним 09/04/17 Вск 22:25:22  970550
>>970525
Эээ, а как это поможет?
Аноним 09/04/17 Вск 22:27:42  970553
>>970550
Ну тогда сетка товарища майора будет думать что это пост Владимира Жириновского а не Антона Безымянного.
Аноним 09/04/17 Вск 22:29:18  970555
>>970553
Но писать то будет не сетка, а ты, лол. Или типа перед отправкой сообщения пропускать его через сетку Жириновского? НЕГОДЯИ! ПИДАРАСЫ!
Аноним 09/04/17 Вск 23:01:54  970587
>>970555
А как это делать ты узнаешь, прочитав полугодовой курс по нейросеткам от ведущего российского ВУЗа - /pr/-университи.
Аноним 09/04/17 Вск 23:04:25  970590
>>970587
https://2ch.hk/b/res/150641886.html
https://2ch.hk/b/res/150638186.html
Я уже сорцы и тензорфлоу качаю, кек. Не хотите поучаствовать?
Аноним 09/04/17 Вск 23:06:45  970594
>>970590
Бля, ещё сципи нужон.
Аноним 09/04/17 Вск 23:39:56  970620
>>970015
короче, вкатываться просто. Ботаешь xgboost, python или R и идешь решать задачи на Кеглю. Переезжаешь в ДС, ходишь на всякие тусовки и хакатроны, обрастаешь знакомствами. Параллельно участвуешь в разных российских хакатронах и соревнованиях от банков. Это все займет макс месяцев 12. Потом работа сама тебя найдет.
Аноним 10/04/17 Пнд 00:30:29  970663
>>970620
А я на днях вкатился в ML проект, чтоб разнообразить свои скиллы, вообще не зная ничего про ML =) Чисто за счет опыта работы с java, на которой написана система. Вообще, это частая связка, ML и java? Постоянно слышу про питон, R, скалу.
Аноним 10/04/17 Пнд 03:27:41  970699
>>970472
исходя из теории вероятности, информации и прочей шелухи, тебе нужно писать, как все, чтобы энтропию повысить, а по уникальному языку тебя сразу различат, так как тексты на уникальном языке все равно содержат информацию, повторения и тд. Но на самом деле нет, тебе просто нужно зашифровать свой текст хорошим алгоритмом и одноразовым шифром, короче, это уже криптография.
Аноним 10/04/17 Пнд 05:12:23  970706
>>970663
зависит. в сэйлсфос вроде как все юзают яву. но для машинного обучения это зашкварный язык, ибо приходится писать много с нуля.
Аноним 10/04/17 Пнд 05:39:35  970709
>>970699
>тебе нужно писать, как все, чтобы энтропию повысить
> а по уникальному языку тебя сразу различат, так как тексты на уникальном языке все равно содержат информацию, повторения и тд.
Вот! Мерси, вот это была моя точка зрения, только таких умных слов не знаю, так и думал, короче.
Ну не, про криптографию это уже не язык, получается, а шифровка, постоянно так общаться не выйдет.
Аноним 10/04/17 Пнд 14:05:22  970849
О, а вы не думали сделать свой курс машинного обучения? Или там для начала курс по математике?
Аноним 10/04/17 Пнд 14:16:47  970860
blob (67Кб, 203x248)
>>970849
> сделать свой курс машинного обучения
с матюгами, мемесами и ёблёй мамаши читателя?
Аноним 10/04/17 Пнд 14:33:23  970876
>>970860
Именно так!
Аноним 10/04/17 Пнд 16:36:38  970948
>>956903 (OP)
сагаю отсталых даунов
Аноним 10/04/17 Пнд 17:08:58  970966
>>970849
Нинужно столько тупых машинных учителей. А если ты не тупой, то и сам разберешься. Вон на Кегле индусы с китайцами атакуют
Аноним 10/04/17 Пнд 18:45:17  971041
Каким набором паттернов обучать нейроночку, чтобы она отличала круги от любых остальных фигур?
Аноним 10/04/17 Пнд 18:46:31  971043
>>971041
{ Factory, Singleton, Proxy, Bean, Facade }
Аноним 10/04/17 Пнд 18:50:44  971047
>>971043
)
Аноним 10/04/17 Пнд 20:11:07  971121
>>969843
Так разные Tensorflow, Theano вообще пихают вычислительные графы
Аноним 10/04/17 Пнд 21:20:32  971202
>>971121
>Так разные Tensorflow, Theano вообще пихают вычислительные графы
Я хз что это за звери, но нейросети это чистые матричные вычисления.
От чего их так приятно гонять на GPU, и от чего они вызывают боль у CPU.

Причем там кроме умножения сложения и вычитания матриц ничего нет в мат аппарате.

Ну разве что функция активации может быть кокой интересной очень. Но обычно это квадратичное что-то.
Аноним 10/04/17 Пнд 21:33:43  971210
>>971202
кул стори бро
пиши есчё
Аноним 11/04/17 Втр 00:28:43  971418
>>971202
>их так приятно гонять на GPU
Есть у меня 680 жифорсина, для того, чтобы как следует обучить сеть нужно говнять её ~ 30 часов. Сам я её давно не юзал, примерно полгода после покупки забил хуй на игры, хуигры и прочее говно, потому что-то очково её на 30 часов запускать. Она не сгорит, анон? Может ну его нахуй? У тебя у самого сколько обучение идёт? В общем вопрос такой, не страшно ли видюхе будет столько времени без перерыва работать?
Аноним 11/04/17 Втр 00:58:18  971430
>>971418
ну его нахуй, анон. ещё загорится
лучше не лезь ты в этот мл, нахуй тебе эти нейроночки
всёравно видюха старая, ещё хату спалишь, жена отпиздит, ненадо тебе это
Аноним 11/04/17 Втр 01:12:42  971436
>>971430
Вот и я к этому склоняюсь.
Аноним 11/04/17 Втр 01:23:21  971445
>>971418
Так облучай сеансами по пару часиков, за неделю управишься.
Аноним 11/04/17 Втр 01:41:54  971456
>>971418
юзай гугл клауд
Аноним 11/04/17 Втр 01:45:07  971457
>>971456
На паузу ставить типа? Или там есть опция сохранения состояния.Не за неделю, почему, по 5 часов можно вполне, да и 30 это я по максимуму взял, а так 20 где-то.
>>971445
Погуглю, спс. А сами вы что юзаете? Или у всех теслы в сли стоят?
Аноним 11/04/17 Втр 01:47:16  971460
>>971456
>гугл клауд
То есть я могу поставить туда своё окружение и запускать в облаке? Бесплатно?
Аноним 11/04/17 Втр 01:53:41  971463
>>971456
Там номер карты и телефон нужен.
Аноним 11/04/17 Втр 01:55:17  971465
>>971210
>кул стори бро
>пиши есчё
Я серьезно.
Нейросети суть параллельные вычисления. Там магии то никакой нет.
Входной сигнал есть вектор.
Он вумножается на матрицу весов. Полученный вектор поэлементно ебошим через функцию активации, вуаля.

>>971418
>потому что-то очково её на 30 часов запускать. Она не сгорит, анон? Может ну его нахуй?
Зависит от охлаждения и настроек.
Если очкуешь, запусти оверклакерскую утилиту и понизь частоту GPU.
Производительность просядет немного, зато гораздо экономичнее и холоднее.
Производительность с частотой растет линейно, а энергопотребление экспоненциально.

>У тебя у самого сколько обучение идёт?
Зависит от. Можно и неделями считать. Если больше пары дней, то нужно искать железо помощнее.
Аноним 11/04/17 Втр 01:55:42  971466
>>971457
Я хер знает на чем ты учишь. Если на кофе - то это называется snapshot: 1000
Если на чем-то другом то поищи как в твоей параше это делается
Аноним 11/04/17 Втр 01:56:22  971467
>>971465
>Если больше пары дней, то нужно искать железо помощнее.
Чисто практическое ограничение.

Елси тебе что-то неделю обучать нужно, то нужно уж быть уверенным, что оно того стоит.
Аноним 11/04/17 Втр 01:58:31  971469
>>971465
Ну да все так + идет настройка параметров, через обратное распространение ошибки все тем же векторным умножением, а нейронки маркетологи преподносят чуть ли не как искусственный мозг, который может все.
Аноним 11/04/17 Втр 02:01:01  971472
>>971467
А гугл клауд использовал? Он карту с телефоном просит.
>>971466
tensorflow, это ты про сохранение прогресса?
В общем, я понял, я скорее всего задачу выбрал тяжёлую, потому не стоит удивляться таким срокам. Главное, что мозгов хватило посоветоваться, так бы поставил сейчас на 30 часов крутиться и без видюхи остался бы. Спасибо.
Аноним 11/04/17 Втр 02:03:46  971474
>>971472
Ну там тоже можно как-то. Вообще за один присест мало кто обучает, ваш капитан.
Аноним 11/04/17 Втр 02:04:58  971475
>>971472
>А гугл клауд использовал? Он карту с телефоном просит.
Ноуп.

Я не любитель облаков.
Мне проще свой сервер сделоть. Или комп апгрейднуть.

Кстати говоря, у APUшек амудушных есть неплохой задел для нейрончиков, в виду общей для GPU и CPU памяти. Ну да есть ли там кокие фреймворки я не в курсе.
Аноним 11/04/17 Втр 02:05:17  971476
>>971474
Да вот, нашёл уже скорее всего.

w1 = tf.Variable(tf.truncated_normal(shape=[10]), name='w1')
w2 = tf.Variable(tf.truncated_normal(shape=[20]), name='w2')
tf.add_to_collection('vars', w1)
tf.add_to_collection('vars', w2)
saver = tf.train.Saver()
sess = tf.Session()
sess.run(tf.global_variables_initializer())
saver.save(sess, 'my-model')
# `save` method will call `export_meta_graph` implicitly.
# you will get saved graph files:my-model.meta
restore model:

sess = tf.Session()
new_saver = tf.train.import_meta_graph('my-model.meta')
new_saver.restore(sess, tf.train.latest_checkpoint('./'))
all_vars = tf.get_collection('vars')
for v in all_vars:
v_ = sess.run(v)
print(v_)
>капитан
Нет, мне было неочевидно. Спасибо ещё раз.
Аноним 11/04/17 Втр 02:07:39  971477
>>971475
Да есть уже нвидиа, специально покупать железо ради любопытства не хочется. Насчёт облаков хз, почитал, вроде годнота, но ни телефона ни карты нет, если даже в телеграмм хуй зарегаешься с фейковыми, то там и подавно, думаю. А жаль, позать гугложелезо было бы прикольно.
Аноним 11/04/17 Втр 02:12:28  971483
>>971477
>но ни телефона
У тебя нет телефона?
Аноним 11/04/17 Втр 02:13:21  971484
>>971483
Нет.
Аноним 11/04/17 Втр 02:17:21  971486
>>971484
>Нет.
Ты анонимус очень, или какие причины?
Сейчас без телефона же тяжело, ни родным позвонить, ни друзьям, ни скорую вызвать.
А если там учится пойдешь, то унрил просто. Хелл мод.
Купи телефончик то, и будет все хорошо.
Аноним 11/04/17 Втр 02:21:57  971487
>>971486
>ни родным
> ни друзьям
Ну ты понял. Учиться да, вот как отучился, так три года на полке и пылится. Если бы нужен был, то не пылился бы. А так какой смысл покупать, если всё равно не будешь пользоваться? Не, не анонимус, просто хз, так вышло, короче.
Аноним 11/04/17 Втр 02:23:29  971489
>>971487
>Ну ты понял. Учиться да, вот как отучился, так три года на полке и пылится. Если бы нужен был, то не пылился бы. А так какой смысл покупать, если всё равно не будешь пользоваться? Не, не анонимус, просто хз, так вышло, короче.
А ты не из Украины?

Ну, карточка стоит копейки, а тел утебя есть.
Аноним 11/04/17 Втр 02:25:12  971492
>>971489
В Беларуси сижу, сам из РФ, за обслуживание с граждан РФ тут бешеные бабки, абонплата типа, короче не стоит того, ща вот разберусь, как модельки сохранять загружать и перед сном буду запускать, пусть себе обучается потихоньку.
Аноним 11/04/17 Втр 02:27:11  971493
>>971489
Да и тел есть, а карты нет. есть, но я ещё номер карты в интернет не отправлял. не горю желанием как-то.
Аноним 11/04/17 Втр 14:50:54  971768
>>971460
да, загоняешь свое окружение, гоняешь его. Но, конечно, не бесплатно, если много гонять, то своя тесла выйдет дешевле.
Аноним 12/04/17 Срд 00:53:08  972195
Я считаю, что это было бы очень трудно убедить умного человека, что ток [Частотная] статистическая практика была разумной, но это было бы гораздо меньше трудностей с подходом через вероятности и теорему Байеса. - Джордж Коробка, 1962.
Аноним 12/04/17 Срд 16:23:15  972437
Пацаны, поясните за книжки:
http://www.deeplearningbook.org/
http://www.cs.ucl.ac.uk/staff/d.barber/brml/

Годно или в шапке лучше?
Аноним 12/04/17 Срд 16:45:29  972458
Поясните что именно читать, если требуется сначала грамотно промоделированная работа простейших нейронных сетей максимально диссоциировавшись от математики, и только после пояснений этой работы идут уже примеры конкретных реализаций моделей нейронных сетей, импульсных других пока не знаю и так далее.
Имея ввиду тот факт, что сначала идут исследования по работе мозга, съём показаний, от этого строятся определённые выводы, и только отталкиваясь от этих исследований уже строятся простейшие математические модели.
Аноним 12/04/17 Срд 16:52:32  972462
pic4.jpg (13Кб, 283x185)
>>971465
>Входной сигнал есть вектор.
>Он вумножается на матрицу весов.
Как там, вышло чего после пикрила? http://dkws.narod.ru/linux/etc/optical/cpu.html
Аноним 12/04/17 Срд 16:56:23  972463
>>972458
> промоделированная работа простейших нейронных сетей максимально диссоциировавшись от математики
Ты поехавший. Пиздец.

>Имея ввиду тот факт, что сначала идут исследования по работе мозга, съём показаний, от этого строятся определённые выводы, и только отталкиваясь от этих исследований уже строятся простейшие математические модели.
Я не понимаю тебя.
Совсем.

Нейронные сети, в инф технологиях, имею такое же отношение к работе мозга, как реактивные двигатели в самолетах, к крыльям птицы.
Аноним 12/04/17 Срд 16:57:32  972466
>>972462
Вроде что-то где-то пилят, но не особо афишируют.
Аноним 12/04/17 Срд 17:07:57  972470
>>972463
>как реактивные двигатели в самолетах, к крыльям птицы
Прекрасно. Итак.
Ты привёл в пример птицу и самолёт.
В данном случае выполняющие одну и ту же задачу. Полёт из пункта а, в пункт б. Верно? Верно.

Отталкиваясь от этой информации, если учитывать тот факт, что исследования по работе мозга уже проводились и были выявлены основные закономерности по его работе, под какую именно задачу он лучше всего подходит? Выявлена ли эта задача? Не хуярят же программистишки с учёными чего-то там наобум, правильно?
Аноним 12/04/17 Срд 17:21:39  972476
>>972470
Выводы которые сделаны на основе снятия показаний о работе мозга, сравнимы с выводами о том, что хуйня светится, сделанными бабушкой, увидевшей айфон.
Аноним 12/04/17 Срд 17:24:29  972477
>>972476
Значит ли это, что все созданные модели нейронных сетей - никак не связаны с реальным положением дел в реальном мире?
Аноним 12/04/17 Срд 17:30:44  972479
>>972477
с моей точки зрения любые современные нейронные сети лишь занимаются, ничем иным как, брутфорсом в подмножестве.
Аноним 12/04/17 Срд 17:31:53  972480
>>972479
плюс у них есть кэш. вот и весь дизайн.
Аноним 12/04/17 Срд 17:37:11  972481
>>972479
>
любый современный и модные алгоритмы, все основаны на брутфорсе, в них нет логики, они нюхают все зачуханные углы и находят что-то, что удовлетворяет искомому условию.
Аноним 12/04/17 Срд 17:38:17  972482
>>972481
очевидно, мозг так не работает.
Аноним 12/04/17 Срд 17:40:23  972483
14901341093800.jpg (14Кб, 296x299)
>>972470
>Прекрасно. Итак.
>Ты привёл в пример птицу и самолёт.
>В данном случае выполняющие одну и ту же задачу. Полёт из пункта а, в пункт б. Верно? Верно.

Ты в военкомате был?
Там психиатр, задает вопросы "абитуриентам", чтобы выявить их годность.
Популярный вопрос - "Чем птица отличается от самолета?".
Если чел будет отвечать что-то вроде того, что ты написал, его пошлют скорее всего на обследование в психушку.


>Отталкиваясь от этой информации, если учитывать тот факт, что исследования по работе мозга уже проводились и были выявлены основные закономерности по его работе
Да не особо.
Вначале думали что оно вот так.
Потом оказалось что оно вот сяк.
Потом стали думать что оно вот этак.
А с новыми инструментами и теориями посмотрели, и охуели совсем.

Ты русским языком объясни, чего тебе надобно?
Ты лабу пишешь, или чего?

>под какую именно задачу он лучше всего подходит? Выявлена ли эта задача?
Лучше всего он подходит для управления человеческими тушками.
Но с математической точки зрения, если обобщить, то нелинейная оптимизация.

>Не хуярят же программистишки с учёными чего-то там наобум, правильно?
Wrong.

>>972458
>Поясните что именно читать
Из твоего сумбурного бреда, я так понимаю, тебя интересует КИБЕРНЕТИКА.
Вот по ней книжки и читай.
Аноним 12/04/17 Срд 18:05:15  972491
>>972458
Блять, лол. Наслушаются баззвордов в ютабе своем, а потом на двощи лезут. Умора.
Аноним 12/04/17 Срд 18:08:16  972493
>>972479
>>с моей точки зрения любые современные нейронные сети лишь занимаются, ничем иным как, брутфорсом в подмножестве.

в удобном для соискателя подмножестве.
fixed.
Аноним 12/04/17 Срд 18:10:38  972494
> Чем птица отличается от самолета?
птица живая, самолёт бесдушная груда металла
птица кушает насекомых, самолёт заправляют бензой
птица-самец + птица-самка = много птиц и птенцов, самолёт + самолёт = катастрофа и расчлёнёнка
птицы эволюционировали из птеродактилей, самолёты из велосипедов
Аноним 12/04/17 Срд 18:14:32  972497
>>972494
птица умнее чем самолет. нужно начать с этого. Она сама может найти горючку и найти удобное, для прибывания, место.
Аноним 12/04/17 Срд 18:16:01  972500
>>972497
а отправляются в летное путешествие они, абсолютно, по разным причинам.
Аноним 12/04/17 Срд 18:19:03  972505
>>972497
ты заблуждаешься
самолёт обладает куда большими вычислительными мощностями чем птица
Аноним 12/04/17 Срд 18:19:49  972506
>>972505
Ноуп.
Птица мощнее на несколько порядков.
Аноним 12/04/17 Срд 18:20:32  972507
>>972506
бортовые компьютеры самолёта порвут любую птицу
Аноним 12/04/17 Срд 18:20:40  972508
1259139688214.jpg (80Кб, 501x602)
Теперь это тред ответов на каверзные вопросы психиатра в военкомате, можете отвечать, а я почитаю ваши ответы
Аноним 12/04/17 Срд 18:22:44  972512
>>972494
>самолёт заправляют бензой
А я вот тут недавно подумал, что эрудиция для человека - это не пустая бесполезная хуйня, как заявляют некоторые. Ну я и раньше это знал, но без доказательств. А тут прослеживается полная аналогия с нейросетью (что неудивительно, человек и есть нейросеть).
На ограниченном наборе данных сеть может научиться выдавать правильное решение, но на незнакомых данных зафейлит. Чем больше датасет, тем лучше генерализация сети. "Узкая специализация" в образовании - это путь к деградации.
Аноним 12/04/17 Срд 18:24:43  972513
помогите с продакшн-солюшн-архитектурой
птица наследует от самолёта или самолёт наследует от птицы?
Аноним 12/04/17 Срд 18:31:20  972519
>>972513
Наследование требуется только для повторного использования кода. Что может использовать самолет от птицы, или птица от самолета?
Аноним 12/04/17 Срд 18:33:41  972523
>>972512
>что неудивительно, человек и есть нейросеть
Нет.
Аноним 12/04/17 Срд 18:34:33  972525
>>972523
Да
Аноним 12/04/17 Срд 18:34:54  972526
>>972525
Нет
Аноним 12/04/17 Срд 18:35:11  972527
>>972526
>>972525
>>972523
Научная дискуссия уровня мейлач.
Аноним 12/04/17 Срд 18:35:16  972529
>>972519
полёт
заправка/кушание
оператор +
Аноним 12/04/17 Срд 18:36:35  972530
>>972507
>бортовые компьютеры самолёта порвут любую птицу
Нет.
Они во первых, даже твой смартфон не порвут.
Во вторых ученый даже мозг червя пидора не могут победить.
Вычислительная мощность птицы, это что-то около пары небоскребов плотно забитых видеокартами.
Аноним 12/04/17 Срд 18:44:17  972539
>>972529
>нихуя
Ну вот ты и сам ответил. Наследование ради наследования нинужно. Наследуй обоих от MovingObject и не еби моск
Аноним 12/04/17 Срд 18:47:36  972541
>>972507
Прежде всего птица, по сравнению с самолетом это идеал воздухоплавания, она может распознать сотни ситуаций которые помешают ей продолжить путешествие, у нее есть зрение, слух, обоняние. Самолет же это большая груда метала и говна, которое может рухнуть в любой момент из-за того, что переменная переполнилась и стала нулем или отрицательным значением, так в добавок там еще кто-то должен сидеть, с более продвинутым мозгом, чем птица, чтобы это хотя бы начло двигаться.
Аноним 12/04/17 Срд 18:49:02  972542
>>972539
> наследуй птицу от самолёта
Ну вот ты и сам ответил
так бы сразу и сказал
Аноним 12/04/17 Срд 18:50:28  972545
>>972530
> Вычислительная мощность птицы, это что-то около пары небоскребов плотно забитых видеокартами
птица даже 2 и 2 не сложит
самолёт 2 и 2 может сложить триллиарды раз в секунду
Аноним 12/04/17 Срд 18:53:52  972548
>>972541
как будто у птиц не бывает переполнений
https://www.youtube.com/watch?v=90KG5WumqBA
Аноним 12/04/17 Срд 18:54:56  972551
>>972545
>птица даже 2 и 2 не сложит
Сложит.

>самолёт 2 и 2 может сложить триллиарды раз в секунду
Это не интегральный показатель вычислительных мощностей.
Мозг птицы оптимизирован не для символьной арифметики.
Видеокарта даже операцию условного перехода сделать не может, а CPU миллион раз в секунду такое провернуть может, и что?

Тебе лет сколько, технократ мамин?
Аноним 12/04/17 Срд 18:58:56  972552
>>972548
лучше уж в окно чем на ровном месте,
https://www.youtube.com/watch?v=oXXGIlmdnsk
Аноним 12/04/17 Срд 19:08:08  972555
>>972551
> Сложит.
нет, она даже само понятие int не осилила

> Это не интегральный показатель вычислительных мощностей.
> Мозг птицы оптимизирован не для символьной арифметики.
птицы используют символьную тригонометрию для вычисления траектории полёта

> Видеокарта даже операцию условного перехода сделать не может
может, я видел if в CUDA коде кернелов

> Тебе лет сколько, технократ мамин?
https://www.youtube.com/watch?v=AfIOBLr1NDU
Аноним 12/04/17 Срд 19:11:27  972556
>>972437
первую читаю сейчас, у меня с математикой плохо, математику было сложно оттуда понимать, а так ее хвалят, вторую не знаю
Аноним 12/04/17 Срд 19:11:47  972557
600px-Fattrollv[...].jpg (33Кб, 600x600)
>>972555
Аноним 12/04/17 Срд 19:19:02  972561
>>972552
а так твоя птица может?
https://www.youtube.com/watch?v=We4j0NHn7i4
Аноним 12/04/17 Срд 19:20:53  972562
>>972557
?
Аноним 12/04/17 Срд 19:38:46  972570
>>972508
1. КПД.
2. Неопределенно.
3. Рассказал. Я использую при работе ленивые вычисления. Когда спросите конкретней тогда и попытаюсь ответить.
4. Вообще бывают.
5. Есть.
6. По массе одинаковы, но по плотности и тяжести на усредненной среднестатистической планете Земля по выборке зоны златоволоски кирпич тяжелее.
7. Ощущение пустоты бытия, бесконечности Вселенной, постоянные крутящиеся боли, плохое зрение и возникающие из-за этого зрительные иллюзии (видел улыбающегося еврея сделанного из куртки) и приятные запахи несоответствующие реальности.
8. Апеннинский полуостров, на сколько я понял.
9. Ракетных.
10. Пытался лечь ночью в сугроб и замерзнуть говоря с Богом.
Аноним 12/04/17 Срд 19:39:40  972573
>>972556
Я, если что, вот тут их нашёл:
https://github.com/open-source-society/computer-science

Там ещё и курсы по математике есть.
Аноним 12/04/17 Срд 19:43:12  972574
>>972570
Ты здоров, можешь идти.
Аноним 12/04/17 Срд 19:45:24  972576
>>972570
годен к службе родине
Аноним 12/04/17 Срд 21:50:04  972662
Скажите, а курсы от Яндекса на курсере бесплатные?
https://www.coursera.org/learn/vvedenie-mashinnoe-obuchenie
Аноним 12/04/17 Срд 22:36:42  972691
Есть линейная алгебра с нескучными картинками?
Аноним 12/04/17 Срд 23:29:38  972713
>>972691
3blue1brown
Аноним 12/04/17 Срд 23:42:36  972717
>>972662
Да только задания будут закрыты, а вот у Ng все бесплатно.
Аноним 13/04/17 Чтв 00:09:04  972730
>>972717
>Ng
Где?
Аноним 13/04/17 Чтв 01:40:42  972763
image.png (517Кб, 759x422)
>>972730
курс китаёзыз на курсере (не стоит того)
Аноним 13/04/17 Чтв 16:29:05  973000
>>972570
>постоянные крутящиеся боли, плохое зрение и возникающие из-за этого зрительные иллюзии
Рак мозга?
Аноним 13/04/17 Чтв 21:42:49  973215
Ыыыы, а есть какие-то работы по тому, чтобы нейросеть просто кушала данные, но сама выбирала алгоритм обучения? Типа не специальным алгоритмом обучать, а он внутри кароч
Аноним 13/04/17 Чтв 21:46:53  973217
>>973215
ничего
нейронки это говно
на машине тьюринга принципиально невозможно сделать ИИ
теперь дальше соси форс гуглопидаров
как остальные школьники из этого даунотреда
Аноним 13/04/17 Чтв 22:21:29  973237
есть какой-нибудь легкий вводный курс для школьников, чтобы вкатиться в нейронки и машоб без дроча матана?
Аноним 13/04/17 Чтв 22:23:23  973238
>>973237
https://www.youtube.com/watch?v=utP5kqDEjao

Аноним 13/04/17 Чтв 22:28:30  973240
>>973237
Нет.
Аноним 13/04/17 Чтв 23:33:22  973269
>>968389
У старпера подгорело, лол. Чето блять заканчиваю 6 курс и ничего о чем ты говоришь у меня особо не было. А пивасик с друзьями попить всегда можно
Аноним 14/04/17 Птн 01:20:01  973307
>>973269
>У старпера подгорело
>и ничего о чем ты говоришь у меня особо не было
Ну, конечно сожалею тебе, но, не горит от сего факта нисколько.
Аноним 14/04/17 Птн 08:26:33  973350
>>968389
Ага блять, я в 25 лет брошу работу и пойду обратно на шею к родакам садиться, чтобы еще джва года в вузе просрать.
Аноним 14/04/17 Птн 08:47:37  973357
>>973350
Кем работаешь?
Аноним 14/04/17 Птн 09:32:42  973370
Собираюсь к вам вкатиться.
Какую видеокарту и проц брать для домашних опытов?
Радеон, как я понял, не катит — нужна нвидиа. 1070 хватит? Или 1080 ощутимо лучше?
Аноним 14/04/17 Птн 09:55:08  973375
Почему из шапки убрали http://neuralnetworksanddeeplearning.com
?
Аноним 14/04/17 Птн 10:45:01  973390
>>973240
Пичаль. Что же мне корменом давиться только чтобы уметь переводить дискретную алгебру в матан?
Аноним 14/04/17 Птн 12:01:14  973425
>>973217
Это почему же на машине Тьюринга нельзя сделать ИИ? Считаешь, что в мозгу есть много всяких квантовых эффектов и непонятных штук?
Аноним 14/04/17 Птн 12:34:53  973430
bigpic092402494[...].jpg (646Кб, 1000x1000)
>>973425
>Это почему же на машине Тьюринга нельзя сделать ИИ?
Потому что школьник на мейлру так сказал, очевидно же. Ты что, школьникам не веришь?
>Считаешь, что в мозгу есть много всяких квантовых эффектов и непонятных штук?
АТО! Вот взять счеты пикрелейтед. Они состоят из молекул, атомов, в конечном счете из квантов. Значит, это квантовый вычислитель. Шах и мат.
Аноним 14/04/17 Птн 14:33:33  973487
http://rb.ru/opinion/12-let-it-specialist/
Вы тут все скоро станете нинужны
Аноним 14/04/17 Птн 14:39:20  973491
>>973307
Ты просто по хуйне сокрушаешься
Аноним 14/04/17 Птн 16:00:38  973557
Алло блять пидарасы, нахуй мне ваша линух? Почему я это все не смогу запилить на винде?
Аноним 14/04/17 Птн 16:06:38  973563
>>973487
> Сейчас мой сервис работает в Калининградском кризисном центре помощи женщинам, жертвам домашнего насилия.
А я уж было почти поверил что статья правдива.
Аноним 14/04/17 Птн 16:18:09  973568
>>973491
>Ты просто по хуйне сокрушаешься
Не сокрушаюсь ни по какому поводу вообще.
Аноним 14/04/17 Птн 17:23:09  973619
ебинпитон.png (19Кб, 1104x470)
>>973557
>Почему я это все не смогу запилить на винде?
Удивительно, но факт - большинство новомодных пистонопараш для МЛ в разы проще ставить и использовать на глинуксе. На винде даже ставить заебешься, как оно там будет работать, вообще одному Аллаху известно, не исключено что и никак. Это еще с теано пошло, если не раньше, там создатели прямо пишут, что основная версия - глинукс х64, остальные существуют просто чтобы было, жалобы на глюки есть смысл писать только на основную версию, т.к. работают только над ней. Пистон, в нем все дело. На глинуксе эту парашу с миллионом зависимостей гонять проще.
Аноним 14/04/17 Птн 19:35:03  973735
>>973619
При чем тут питон, просто очевидно, что работает лучше всего то, на чем работают все. А все работают понятно на чем - я бы посмотрел на человека, который использует винду на AWS.
Аноним 15/04/17 Суб 16:23:05  974056
Вот чтобы вкатиться в хадуп, спарк и компанию и писать на жабе/скале, для этого математика же не нужна? Мне интересны все эти штуки связанные с большими данными, машобом, нейронками, но с точки зрения разработки промышлненных систем, я так понимаю, в компании есть отдел дата сайнтистов, которые фигачат и оптимизируют алгоритмы и есть прогеры, которые их уже запускают в прод?
Аноним 15/04/17 Суб 17:01:33  974076
>>974056
Не нужна, это даже 12летний может осилить >>973487
Аноним 15/04/17 Суб 18:10:03  974101
>>974076
>Также я провел исследовательскую работу «Прогнозирование валентности эмоционального отклика на графический контент с использованием нейроинтерфейсов и алгоритмов анализа данных».
Штоблядь? Одноклассникам вставил провода в мозг и показывал мемасы?
Аноним 15/04/17 Суб 18:44:28  974121
gsr-circuit.png (114Кб, 375x520)
>>974101
В лучшем случае КГР записал с помощью ардуины и резистора, потом кластерный анализ. Но в целом для 12 лет это очень даже, ИТТ в такое 95% местных шитпостеров не сможет.
Аноним 15/04/17 Суб 19:47:06  974144
>>974121
>ИТТ в такое 95% местных шитпостеров не сможет.
Ну им, может быть, просто не интересно ебаться с проводами. Не умеют != не смогут.
Аноним 15/04/17 Суб 20:11:38  974170
Нужно ли учить уже сейчас квантовое машинное обучение?
Аноним 15/04/17 Суб 21:22:44  974200
>>974170
Да
Аноним 15/04/17 Суб 21:46:39  974210
>>974200
Ты учишь? Что-то посоветуешь?
Аноним 16/04/17 Вск 23:30:05  974635
>>974101
Зачем в мозг, там как кардиограмма делается, на голову лепишь присоски с проводами - и все, и можно мерить хоть отклик хоть на аллаха
Аноним 17/04/17 Пнд 09:18:25  974759
maxresdefault.jpg (125Кб, 1280x720)
>>972483
>Популярный вопрос - "Чем птица отличается от самолета?".
Тем, что самолёт железный? Я завис.
Аноним 17/04/17 Пнд 09:21:10  974760
>>972483
>птица
>самолета
BIRD OF PREY BIRD OF PREY FLYING HIGH FLYING HIGH
Аноним 17/04/17 Пнд 09:21:50  974761
>>974760
https://www.youtube.com/watch?v=-9kw0H6B4kM
Аноним 17/04/17 Пнд 11:58:28  974804
neuro.jpg (5Кб, 240x159)
>>974635
>на голову лепишь присоски с проводами
>нейроинтерфейс
Аноним 17/04/17 Пнд 12:44:37  974826
>>974804
Да, в ЭЭГ еще много всяких шумов, так что даже read-only нейроинтерфейс не будет.
Аноним 17/04/17 Пнд 13:34:23  974875
>>973425
>Это почему же на машине Тьюринга нельзя сделать ИИ?
Скорее всего можно.

>Считаешь, что в мозгу есть много всяких непонятных штук?
Как работает мозг - науке непонятно.
Известны только какие-то отдельные факты и некоторые закономерности.

>Считаешь, что в мозгу есть много всяких квантовых эффектов
Недавно, обнаружили, что в нейронах есть особые белки, которые работают как кьюбиты. Тысячи их, в одном нейрончике.
И даже до этого открытия, считалось, что один нейрон, по "мощности" скорее как мощный компьютер, а вовсе не простой нелинейный преобразователь.

>>973350
>Ага блять, я в 25 лет брошу работу и пойду обратно на шею к родакам садиться, чтобы еще джва года в вузе просрать.
Накопить денег не вариант, ты же работаешь?
И бросать необязательно, можно взять академический отпуск.
Или договорится о неполной занятости.
Аноним 17/04/17 Пнд 14:46:35  974967
Посоветуйте хороший учебник по линейной алгебре. Для начинающих.
Проходя первый уровень курса от яндекса с мфти, обнаружил, что эта тема освещается лишь обзорно, чтобы уже имевшие дело с ней могли по-быстрому вспомнить.
А мне половина материала не ясна. Что ещё за размерность векторного пространства?
Аноним 17/04/17 Пнд 15:47:23  975018
identificationc[...].png (18Кб, 740x375)
>>974759
Аноним 17/04/17 Пнд 15:49:24  975021
>>974967
Годный курс https://www.edx.org/course/linear-algebra-foundations-frontiers-utaustinx-ut-5-05x
Аноним 17/04/17 Пнд 16:34:01  975056
>>975021
А там есть про норму векторного пространства?
Аноним 17/04/17 Пнд 17:01:14  975073
>>975056
>норму векторного пространства
Ну да, а что там сложного? И евклидова и манхеттенская и еще куча разных
Аноним 17/04/17 Пнд 17:04:57  975077
>>974967
> ещё за размерность векторного пространства?

Размерность пространства – это максимальное число содержащихся в нем линейно независимых векторов. (тех, которые нельзя выразить через друг друга посредством сложения и умножения)
Аноним 17/04/17 Пнд 18:33:26  975126
>>975077
Я на самом деле норму имел в виду.
Отвлекался, когда писал пост.
А про размерность мне понятно.
Аноним 18/04/17 Втр 15:17:49  975571
>>975077
А ещё это число осей пространства. Или количество координат, которыми задается вектор.
Аноним 18/04/17 Втр 15:53:19  975598
>>974967
>Что ещё за размерность векторного пространства?
Количество компонент вектора.
Аноним 18/04/17 Втр 17:51:48  975679
Поясните за генеративные нейросети.
Аноним 18/04/17 Втр 18:27:51  975709
>>975679
генеративная нейросеть - массив
Аноним 18/04/17 Втр 18:38:25  975715
>>975709
Как монада?
Аноним 18/04/17 Втр 21:20:55  975930
>>975709
Чуть выше уровнем, пожалуйста.
Аноним 18/04/17 Втр 21:21:48  975931
Как-то случайно открыл статью о нейролингвистическом программировании и долго втыкал что же это за модель нейросетей такая и где математические модели. Восхитительная история, правда?
Аноним 18/04/17 Втр 21:53:49  975964
>>975931
Братишка!
Аноним 21/04/17 Птн 13:09:43  977227
Поясните как в той научной работе нейроночка от гугла сохраняет предыдущий опыт.
Аноним 21/04/17 Птн 15:15:24  977288
>>956903 (OP)
Вот вкатился, а тут всякие градиентные спуски. А я в мухосрансковузе решал типовые задачки и не понимал, зачем нужен градиент. Часто ли я буду встречаться с такими пробелами? Всегда ли их можно устранить прямо находу или лучше почитать калькулус?
Аноним 21/04/17 Птн 15:24:58  977293
>>977288
И калкулюс и линал и теорвер
Аноним 21/04/17 Птн 15:38:49  977306
>>977288
>Часто ли я буду встречаться с такими пробелами?
Не очень, там в основном все крутится вокруг одних и тех же понятий.
>Всегда ли их можно устранить прямо находу или лучше почитать калькулус?
Всегда. Если ты уже матеше учился, тем более проще разбирать конкретно только то, что непонятно, а не перечитывать целиком учебники.
Аноним 21/04/17 Птн 17:38:41  977376
Вообще, если ты ебаный школьник или просто тупой, и не знаешь програмы по матану за первые 2 курса, вам лучше не травмировать свой мозг машинкой, а заняться чем то более подходящим: подготовкой к егэ например или изучением html
Аноним 22/04/17 Суб 00:04:55  977543
>>977376
А если я уже не школьник, но вуз закончить не смог?
Аноним 22/04/17 Суб 01:02:53  977557
>>977543
Значит мама будет расстроена
Аноним 22/04/17 Суб 06:34:51  977605
>>977376
>Вообще, если ты ебаный школьник или просто тупой, и не знаешь програмы по матану за первые 2 курса, вам лучше не травмировать свой мозг машинкой

Иронично конечно, но
>програмы по матану за первые 2 курса
Лежат параллельно компьютерным наукам и машинному обучению.
Аноним 22/04/17 Суб 09:21:17  977618
>>977557
Она и расстроилась.
Но я её уже успокоил.
Аноним 22/04/17 Суб 10:20:03  977622
0006R0f02040.png (959Кб, 960x720)
0006R0f02040L.png (36Кб, 960x720)
Анон, помоги советом.
В общем надо решить что делать в дипломной. Суть вот в чём, есть 2 картинки, фото и разметка (пикрилы).
Собственно задача в том, чтобы как-то такие картинки обрабатывать. К примеру, подсчитать количество машин/пешеходов, найти машину определённого цвета и т.п.

Так вот вопрос, что можно сделать такого, а главное что проще всего? Какое ПО и технологии использовать?
Аноним 22/04/17 Суб 11:23:51  977634
Тред оккупирован матаноблядями, такие ИИ не построят. Тут нужны нейрохимики и философы, матаноблядей надо гнать
Аноним 22/04/17 Суб 11:28:17  977635
>>977634
Я школьник с метафизической интоксикацией. Подхожу?
Аноним 22/04/17 Суб 12:37:15  977668
>>977635
нет
Аноним 22/04/17 Суб 13:15:22  977701
>>977634
Угу, а самолет построят зоологи с философами
Аноним 22/04/17 Суб 13:37:56  977720
>>977701
намомни, какое отношение физики и матанопиткхи имеют к первому самолету? и да, ии это больше философия чем что либо еще.
Аноним 22/04/17 Суб 15:50:19  977805
>>977634
Машмоб к ИИ отношение имеет весьма далёкое.
Аноним 22/04/17 Суб 16:26:39  977828
>>977720
Самолет построили инженеры, которые с физикой и матаном лучшие друзья

>ии это больше философия
Последняя надежда философов хоть в чем-то показать свою значимость
Аноним 22/04/17 Суб 16:35:16  977831
>>977828
ты к инженерам матанопитухов не примазывай.
Аноним 22/04/17 Суб 18:23:11  977874
У ОПа очень негативное отношение к ШАДу. А почему так? Он там обучался или контачился с кем-то? Хотя я тоже не особо верю в ШАД, но хотелось бы конкретики.
Аноним 22/04/17 Суб 19:05:29  977916
>>977668
Почему?
Аноним 22/04/17 Суб 19:31:02  977944
такое ощущение, что нейронки и машоб - последняя надежда матанопетухов хоть в чем-то показать свою значимость, но и тут они фейлят
Аноним 22/04/17 Суб 19:33:14  977951
>>977944
нет, они еще в компьтервижен кукарекают, но с таким же успехом
Аноним 22/04/17 Суб 20:52:57  977983
>>977944
Это тоже отчасти верно. Матанопетухи понимают в матане, но совершенно не разбираются в человеке, а ведь нужно делать его функциональную имитацию
Аноним 22/04/17 Суб 20:56:22  977984
>>977983
>нужно делать
Кому нужно?
Аноним 22/04/17 Суб 21:13:34  977992
>>977984
Человечеству нужно. Его только антропоморфный ИИ устроит - с эмоциями, интонациями, мимикой, жестикуляцией сиськами и жопой. Чемодан с микросхемами людям нинужен, какой бы он умный ни был, его будут считать просто компуктером.
Аноним 22/04/17 Суб 21:16:50  977993
>>977992
делай раз нужно
Аноним 22/04/17 Суб 21:18:47  977995
>>977874
там паста, опу похуй на шад
автор пасты обучался вроде
анон 22/04/17 Суб 22:35:45  978049
сап двач анон
нужен датасет показания датчиков для электромобилей где поискать
Аноним 23/04/17 Вск 04:35:33  978211
>>977622
бамп
Аноним 23/04/17 Вск 13:09:25  978308
>>977831
Инженеры, кстати, - главная причина того, что Рашка в такой жопе, инженеры в науку не могут, а могут только чужие наработки применять, да и инженеры вообще тупые, даже самая современная физика отстала от настоящего матаппарата лет на 60
Аноним 23/04/17 Вск 14:04:17  978378
>>978308
теперь назвал изобретения придуманные математиками или открыл рот для приема мочи.
Аноним 23/04/17 Вск 14:10:52  978387
IEUGn37Yumg.jpg (45Кб, 570x459)
>>978308
быдло обнаружено
поясняю: математический аппарат зачастую приходится разрабатывать "на ходу" при развитии теоретической физики. В первую очередь, математика отстает от физики
Аноним 23/04/17 Вск 14:54:42  978423
>>978308
Кекнул с дауна. Физика не обязана подстраиваться под маьематику. Физика должна подстраиваться под эксперимент, а математики должны развивать нужный мат аппарат по запросу физиков. Математики это как шлюхи по вызову. Как бухгалтерия. Их задача придумать адекватный и компактный способ записи тех знаний о мире, которые добыли физики
Аноним 23/04/17 Вск 15:03:21  978429
>>978423
К тому времени как появляются новые знания о мире, обычно уже существует несколько способов выразить эти самые знания математическим языком.
Аноним 23/04/17 Вск 15:11:59  978432
14825244203420.jpg (84Кб, 800x600)
>>978423
и тут ты такой с пруфами?

уравнения Навье — Стокса для турбулентных потоков — старая добрая классическая гидродинамика, двести лет отроду. За доказательство существования и гладкости решения (даже не за само решение!) дают миллион долларов

но ты то не знал...
Аноним 23/04/17 Вск 15:13:53  978434
Двачу вообще плевать где и о чем сраться.
Аноним 23/04/17 Вск 15:16:48  978437
>>978432
При чем тут навье стокс, я прекрасно знаю про них.
Аноним 23/04/17 Вск 15:18:21  978440
>>978429
И? Реальность не обязана подстраиваться под теоремы. А то что есть определенное сходство в описании некоторых процессов, ну и что?
Аноним 23/04/17 Вск 15:49:39  978451
>>978440
Я к тому, что математики в своих исследованиях не ограничены реальным миром и вольны формализовать любые, даже самые наркоманские закономерности. Так что к моменту открытия физиками чего-то, в матеше уже есть все средства выражения этого чего-то.
Аноним 23/04/17 Вск 15:54:22  978455
>>978437
>При чем тут
При том, что ты дебил.
>знаю
Нет, не знаешь.
Аноним 23/04/17 Вск 16:42:12  978500
>>978455
Школьник, съеби, выебываться тем что прочитал 2 дня назад в википедии будешь в другом месте
Аноним 23/04/17 Вск 18:47:23  978606
Вот в курсе от мфти с яндексом даются некоторые знания по линейной алгебре?
Этого объёма достаточно для работы?
Или ещё надо будет что-то специально изучать?
Аноним 23/04/17 Вск 18:50:02  978608
>>957720
>Не могу сделать задания по программированию на 2-ом курсе.
На второй неделе первого уровня? Или на втором уровне?
Аноним 23/04/17 Вск 19:51:54  978652
>>978423
Вся современная физика описывается матаппаратом 9 класса нормальной школы, инженеродебилы (а в ДС нигде, кроме МГУ и ВШЭ других и нет) в институтах как раз заканчивают изучение математики на 2.5 курсе, так что нечего там открывать. А то, что физики не могут найти уравнение ни для чего - неудивительно, они умеют только определитель гауссианы в столбик считать
Аноним 23/04/17 Вск 19:57:53  978655
>>978652
Линейные операторы и тензоры в 9 классе проходят? Кекнул с дауна
Аноним 23/04/17 Вск 20:00:56  978662
Пришло время напомнить матанопитухам

Лев Давидович резко критиковал преподавание математики на физфаках. Сохранилось его письмо ректору одного из московских вузов, в котором подробно излагаются взгляды на преподавание математики физикам:

"При всей важности математики для физиков, физики, как известно, нуждаются в считающей аналитической математике, математики же, по непонятной мне причине, подсовывают нам в качестве принудительнного ассортимента логические упражнения. В данной программе это прямо подчеркнуто в виде особого примечания в начале программы. Мне кажется, что давно пора обучать физиков тому, что они сами считают нужным для себя, а не спасать их души вопреки их собственному желанию. Мне не хочется дискутировать достойной средневековой схоластики мыслью, что путем изучения ненужных им вещей люди будто бы учаются логически мыслить.

Я категорически считаю, что из математики, изучаемой физиками, должны быть полностью изгнаны всякие теоремы существования, слишком строгие доказательства и т. д. и т. п. Поэтому я не буду отдельно останавливаться на многочисленных пунктах Вашей программы, резко противоречащих этой точке зрения. Сделаю только некоторые дополнительные замечания.

Странное впечатление производит историческое ввдение. Само собой разумеется, что сообщение интересных исторических фактов может только сделать лекции более интересными. Но непонятно, зачем это рассматривать как пункт программы. Я надеюсь, что, по крайней мере, не имеется в виду спрашивать это на экзаменах. Векторный анализ располагается между кратными интегралами. Я не имею чего-либо против такого сочетания, однако, надеюсь, что оно не идет в ущерб крайне необходимому формальному знанию формул векторного анализа.

Программа по рядам особенно перегружена ненужными вещами, в которых тонут те немногие полезные сведения, которые совершенно необходимо знать о ряде и интеграле Фурье. Курс так называемой математической физики я считал бы правильным сделать факультативным. Нельзя требовать от физиков-экспериментаторов умения владеть этими вещами. Надо также отметить, что эта программа тоже сильно перегружена. Необходимость в курсе теории вероятностей довольно сомнительна. Физики и без того излагают то, что им нужно, в курсах квантовой механики и статистической физики. Во всяком случае, представленная программа переполнена бесполезностями. Таким образом, я считаю, что преподавание математики нуждается в серьезнейшей реформе".
Аноним 23/04/17 Вск 20:02:08  978664
>>978652
А разве инженеры и физики это одно и то же?
Аноним 23/04/17 Вск 20:22:07  978676
Как же физикобоги разъебали математикодаунов
Аноним 23/04/17 Вск 20:23:17  978677
Где можно почитать подробно о сверточных нейронных сетях?
Аноним 23/04/17 Вск 23:17:55  978780
>>978608
На втором уровне.

Сейчас думаю может пытаться снова, лол.
Блять как хуево быть тупым.

КТО ТО СДЕСЬ ВКАТИЛСЯ В ИНДУСТРИЮ МАШОБА?

Кто-то деньги начал получать с этого? Или тут все для "души" курят тему годами.
Аноним 24/04/17 Пнд 00:12:56  978829
>>978664
В рашке теорфизики почти нет
Аноним 24/04/17 Пнд 00:15:41  978835
>>978829
Теорфиз то есть. Математика и теорфиз это области в которых мы более менее. А вот с экспериментальщиной ситуация хуже
Аноним 24/04/17 Пнд 00:20:59  978845
>>978655
Ошибся, десятый http://www.mccme.ru/free-books/57/davidovich.pdf
Аноним 24/04/17 Пнд 00:44:33  978859
>>978845
Ты дебил? Тут интегрирование в 11 классе, а без него физики нет
Аноним 24/04/17 Пнд 01:43:09  978887
>>978859
короче, ты согласен, что современная физика - это что-то типа задачи с6 на егэ?
Аноним 24/04/17 Пнд 02:08:19  978895
>>978887
Маня, я тебя еще раз спрашиваю, линейные операторы и тензоры в школе проходят? Диффуры?
Аноним 24/04/17 Пнд 02:09:57  978897
А вообще толсто. В современной физике применяется почти ВСЯ современная математика, более того, она и имеет смысл по большому счету только тогда, когда находит свое применение в физических теориях.
Аноним 24/04/17 Пнд 02:14:51  978898
Как же матанопитухи соснули в очередной раз
Аноним 24/04/17 Пнд 12:47:29  979046
https://2ch.hk/pr/res/979045.html
https://2ch.hk/pr/res/979045.html
https://2ch.hk/pr/res/979045.html
https://2ch.hk/pr/res/979045.html
https://2ch.hk/pr/res/979045.html
https://2ch.hk/pr/res/979045.html
https://2ch.hk/pr/res/979045.html
https://2ch.hk/pr/res/979045.html
https://2ch.hk/pr/res/979045.html
https://2ch.hk/pr/res/979045.html
https://2ch.hk/pr/res/979045.html
https://2ch.hk/pr/res/979045.html
https://2ch.hk/pr/res/979045.html
https://2ch.hk/pr/res/979045.html
https://2ch.hk/pr/res/979045.html
https://2ch.hk/pr/res/979045.html
https://2ch.hk/pr/res/979045.html
https://2ch.hk/pr/res/979045.html
https://2ch.hk/pr/res/979045.html
https://2ch.hk/pr/res/979045.html
https://2ch.hk/pr/res/979045.html
https://2ch.hk/pr/res/979045.html
https://2ch.hk/pr/res/979045.html
https://2ch.hk/pr/res/979045.html
Аноним 20/05/17 Суб 00:36:46  993587
>>956903 (OP)
Скопирую из старого треда, ибо я даун
Анон. Тупой вопрос. Как заставить нейронку рисовать? Тупой ньюфаг в этой сфере, да. Запилил лишь самую базовую (банальный массив х на у с пересчетом нейронов и обучением).
Как нейронке потенциально скармливать что-то и как получать на выхоод что-то? Что юзать и что прикручивать? Куда копать?

[Назад][Обновить тред][Вверх][Каталог] [Реквест разбана] [Подписаться на тред] [ ] 526 | 57 | 132
Назад Вверх Каталог Обновить

Топ тредов
Избранное