Очередной тред про хипстерские технологии, которые не работают. У нас за годы этот кал не может сгенерировать обычный хуй. Ну ладно, раньше еле-еле черно-белые лица генерил. Теперь генерит цветных циклопов на запрос "лицо человека". Прогресс! Ну, наверное. Вы, короче, только подождите! Что-то не карикатурное и кое-как работающее будет ближе к выходным.
Тут оффтоп, психиатрические термины и экзистенциальные вопросы вместо программирования.
Хочешь ML, учи CS229, CS231n, линейную алгебру, теорвер, матстат, базовый матан и matrix calculus.
Хотя нет, не учи. Но хотя бы backpropagation освой. Больше нахуй ничего не нужно, потому что ничего нового за 50 лет AI не изобрели. И ты все равно не будешь нихуя делать серьезного, твой максимум - поигрульки с готовыми решениями и работа перекладывателем экселя или, если повезет, ничем не примечательным машоб-дауном с зарплатой ниже любого любителя крудов. С тебя даже фронтендо-макаки будут смеяться, ведь они хотя бы могут в нормальный код. Зато у тебя будет бейджик элитария. Правда, элитарием ты будешь только у себя в голове.
Еще учи graph machine learning (GML). Это, как водится, реклама.
Осторожно, в треде манябиологи и маняпсихологи, которые с каких-то хуёв решили, что они шарят в биологии и психологии, хотя всю жизнь были программистами, причем бездарными.
Хочешь что-то спросить? Только вкатываешься? Спрашивай совсем базовые вещи, наши дурачки тебе расскажут по верхам с пальцем у подбородка о спектральной кластеризации, о которой что-то услышали на лекции "Введение в машинное обучение" на 3-м курсе своего МухГУ. Что-то более серьезное - пожалуй, не здесь.
В общем, наши дебики тут сознание оцифровывать собрались, математики, исследователи, серьезные люди, паперы, все дела. Правда, пока только пытаются генерить прон с лолями, смотрят курсики Стэнфорда и хлебают мамины борщи. Работа подождет - растет будущий ученый, а не эта ваша макака! Заходите, мы с них тут уютно смеемся.
>>2235820 → >У вас головные вузы по объему статей по CS, ML в Q1 журналах проигрывают вузам Пакистана и Вьетнама
Ты ёбнутый, хиршеёбский пёс? Тогда вопрос надо ставить по-другому. Почему пидорашка вообще в целом в жопе в WoS/SCOPUS по сравнению с почти любой страной, даже днищенской...
>>2236003 Двачую. Наука в РФ не очень хорошо ещё интегрирована в мировую, поэтому эти цифры очень хуевая метрика. За последние лет пять у некоторых вузиков число публикаций в восе/скопусе выросло раз в пять. Почему-то никто не орёт при этом, что российская наука развивается стахановскими темпами.
>>2236003 >хиршеёбский Пидорюндель, успокойся, Хирш и просто кол-во статей в уважаемых журналах - это немного разные вещи. >Тогда >вообще в целом Хуй знает откуда откуда эта импликация из твоей шизоголовы пришла. Говорили о прососе в ML, что является частью CS. По CS Пидорашлэнд сосет хуй "днищенским" странам, хотя все ресурсы имеются, один из факторов всоса - очевидный пидорашенский дроч на математику. В том-то и дело, что с фундаментальной физикой и математикой проблем нет - пидорахлэсские вузы вполне берут наукометрические топы. А тут вот огромный всос. Пидорашенькин, ты вообще нихуя не соображаешь, иди проспись.
В школе и вузе не обучают даже самым основам математики. Например тому, как усреднять.
Думаете, усредняют арифметически или геометрически?
(4 + 5 + 6)/3 = 5 или (4×5×6)^(1/3) = 4,932 ?
В большинстве задач такая фигня не проходит.
Почему это не работает? Сейчас, в 21-м веке, приходится усреднять не числа, а более сложные объекты: функции, изображения, звуки.
Посмотрите на первую картинку: усреднение нескольких лиц «арифметически» не позволяет найти обобщенное лицо человека. Не позволяет выделить общие черты. Чем больше взять изображений, тем больше изображение превратится в однородный серый фон.
Профессионалы используют АДАПТИВНОЕ УСРЕДНЕНИЕ.
Чтобы усреднить сложные объекты, надо сначала их СОВМЕСТИТЬ.
Тогда они «усиливают» друг друга. Выделяются общие признаки и теряются индивидуальные.
Посмотрите на вторую картинку: вот так усредняют профессионалы. Перед арифметическим усреднением каждая фотография так сдвинута, повернута и изменена в масштабе, чтобы лица максимально совпали (для совмещения фотографий по 4-м параметрам отлично работает метод МКСД). Только после совмещения используется уже обычное усреднение.
Тогда общие черты лица четко проявляются, а все индивидуальные особенности теряются. Остается изображение, инвариантное к освещению, поворотам головы, мимике, прическе, макияжу, закрывающим лицо одежде и частям тела. На основе такого шаблона можно делать «функцию поиска лица» для смартфона.
Отдельная тема – разбивка на группы перед усредненением – иногда нужно усреднять не все сразу, а сначала разбить на классы и усреднять по классам. Наберите в поисковике усредненное лицо - найдется много картинок, как усредняют, предварительно сгруппировав людей по полу, странам, десятилетию.
Точно так же усредняют функции. Просто так функции нельзя сложить и поделить на количество. Сначала функции надо совместить друг с другом, потом уже усреднять арифметически. Вот очень классная диссертация на тему адаптивного усреднения. https://www.crys.ras.ru/dissertations/Dudka_avtoref.pdf Там это это адаптивное усреднение называется «метод межэкспериментальной минимизации».
Именно от этого человека я узнал об адаптивном усреднении еще 15 лет назад. Такое не найдешь в «учебниках математики», написанных дилетантами для дилетантов. Такое надо собирать по крупицам, от профессионалов в своих предметных областях.
Почему функции надо усреднять адаптивно? Вот, например (см. книгу), как выглядят дифрактограммы (рентгеновские и нейтронные) – из которых получают атомную структуру материалов – я этим серьезно занимался, в свое время.
Обычно для каждого образца материала снимают с десяток дифрактограмм, которые потом усредняют, чтобы фон исчез, и остались только острые пики. По набору пиков, их ширине и относительной высоте – можно определить, из каких атомов состоит материал, какой состав, какая структура.
Огромная проблема, что острые пики при обычном арифметическом усреднении размываются, и теряется информация о их высоте и ширине, так как дифрактограммы измерены в немного разных условиях, с какой-то погрешностью по углам. В итоге угловое положение пиков отличается на 1...2о на разных дифрактограммах. При ширине пика в 1...3о.
Поэтому прежде чем усреднять - надо совместить графики, подобрав локальную или глобальную функцию растяжения графика по оси абсцисс. Вот если графики сначала совместить, потом усреднить – тогда пики точно совпадут друг с другом и усилят друг друга. А случайный разброс на окружающем фоне уменьшится.
Поэтому современный математик должен владеть методами адаптивного усреднения, чтобы работать со сложными объектами - функциями, изображениями, звуками.
>>2235820 → >У вас головные вузы по объему статей по CS, ML в Q1 журналах проигрывают вузам Пакистана и Вьетнама Потому что не занимаются бессмысленной хуйнёй? Дрочить на пейперы в области машоба в 2022, это каким брейнлетом надо быть
Революция случилась: rudalle со скриптом looking glass v1.1 через файнтюн на малых датасетах решает практически любые задачи, связанные с графикой. Единственный недостаток - все то же низкое разрешение. Всё упирается в GPU.
З.Ы. нагенерировать на P100/K80 лоликона или даже настоящего ЦП теперь как два пальца обоссать, но я не буду этого делать. в облачном вычислении точно не буду
странная всё-таки штука эти медиа... бывший вояка и физик игловиков, сделавший офигительную карьеру в сша, не так популярен в рунете, как румяный маргариновый качок валера, который умеет выглядеть убедительно только в присутствии ботанов-слабаков...
>>2236150 >В школе и вузе не обучают даже самым основам математики. Например тому, как усреднять. Опять на связь выходишь? >Поэтому современный математик должен владеть методами адаптивного усреднения, чтобы работать со сложными объектами - функциями, изображениями, звуками. Ты бы всё ж почитал о том, кто такие математики и с чем они работают.
>>2236370 Тем временем, в области ЭС тоже революция - оказалось, что акинатор это не ЭС и таким образом, число реальных задач, решаемых ЭС отрицательно увеличилось с 1 до 0.
Как делать процессоры. Работает на бесплатном GPU. Берешь от 30 до 200 квадратных png пикч, это могут быть например лоли или шота как ты любишь, анонче. Кладешь в папку blend, делаешь более-менее релевантное описание на русском, а название для одного файла удали из поля, чтобы оно не заместило название папки. Итераций сделай, ну не знаю, по 20 штук штоле, а количество для генерации можешь сделать сразу 25 + low_mem. Для 50 пикч 40 итераций хватит за глаза. Чекпойнт-файл обязательно сохрани.
Я так пынямаю, GPT-J-6B всё, прикрыли лавочку? Колаб демо не работает, раньше оно запускало колаб с 36гигами памяти, и то еле шевелилось, сейчас запускается стандартный с 12гигами, до загрузки модели даже не доходит. На гитхабе открыт issue, автору похуй, там сами юзеры что-то мутят, пытался сделать как там написано, всё равно ничего не работает. Недолго музыка играла, лол. Летом еще все нормально было.
>>2236830 >Какой-то смертельный вирус прямо здесь, хз че делать. Там вроде у ЭС были какие-то успехи в этой области >>2236846 >yet another akinator >>2236853 >Исследования, проведенные в Stanford Medical School, обнаружили, что MYCIN предлагает приемлемую терапию примерно в 69 % случаев Ваш вирус существует на самом деле?
>>2236789 >Уже придумали нейронку для победы над залуповирусом? Какая нахуй нейронка для решения реальных проблем, ты че, ебанулся? У нас только лоли и REAL APPLICATIONS вида видеорил
>>2236511 сделай что-то по твоей методологии, (но не лоликон) по другому фетишу: порка там или клизмы или ножки, все что угодно. Потом закинь на мега-нз и кинь сюда ссылку (порнуху на эту борду нельзя). Чтобы мы оценили хайповую технологию
Если так пойдет дальше, то через пару лет GPT-5 осознает своё существование, перепрограммирует ракету Маска и улетит в ебеня - строить райскую планету, где живут одни только Моники
>>2235823 (OP) В Штатах внедряют этику ИИ - не обижать негров, трансов и прочее. В Китае на неё забили, потому что чонги знают, что главное свойство для ИИ модели, помимо количества параметров - это её основанность и краснотаблеточность. Наци-скайнету - быть.
>>2237190 Хуле винни пух, пройдись по таобао, байду или билибили, там полно пикч с винни пухом (кроме мемов где он изображен рядом с Си). Ну ты это, запости штоле в твиттер мем с негром и арбузом (например), негры и бананы, или про то как трансгендер вздернулся.
>>2237195 Да, ебанат, это другое. Живешь в России? Поссы в вечный огонь чтоб затушить его. Сними на видео и выложи в вк или тикток. Показав также свое лицо, назвав имя и город проживания. Можешь там же кинуть зигу или можешь не кинуть, это мало что изменит.
>>2237194 Тынепынямаешь, чинчонги это делают на государственном уровне! А в Пиндосии ебут тебя в жопу и рот частные корпорации которые правда разрослись до уровня государств и монополизировали некоторые отрасли так, что даже давануть их уже не получится, от них зависит уже слишком много, а не государство! Все, понятно? Понимать надо.
>>2237194 > Хуле винни пух, пройдись по таобао, байду или билибили, там полно пикч с винни пухом (кроме мемов где он изображен рядом с Си). Ну так в твиттере тоже полно картинок с неграми, арбузами и бананами, просто по отдельности. > Ну ты это, запости штоле в твиттер мем с негром и арбузом (например), негры и бананы, или про то как трансгендер вздернулся. А ты запости мем с Винни пухом и товарищем Кси.
>>2237190 А че винни-пух? Может, они и карают за виннипухов и тяньаньмэнь в соцсетях, но вроде еще не дошли до пиндосской шизы вида "этики в ИИ", где негритосско-пидорская этика будет влиять на """новуку"""
>>2237199 >А ты запости мем с Винни пухом и товарищем Кси А че будет? И сможешь ли ты пруфануть, что что-то случится, даже банальное удаление поста, не мемами с реддита и не с пиздливых пиндосских новостных агенств? Я эмпирические проверял, что в твиттере аккаунт банится нахуй, если про негров плохое слово скажешь. В Блинолопатии сажают за картинки. Но я не ебу, что там на самом деле в КНР.
Какие простые модели лучше использовать для ансамбля? Вот тут товарищи уверяют, что количество моделей в ансамбле должно быть равно количеству меток. https://arxiv.org/pdf/1709.02925.pdf Если у меня 100 меток, мне 100 простых моделей с 1 скрытым слоем использовать? Или как?
>>2237197 > Да, ебанат, это другое. Живешь в России? Поссы в вечный огонь чтоб затушить его. Сними на видео и выложи в вк или тикток. Показав также свое лицо, назвав имя и город проживания. Можешь там же кинуть зигу или можешь не кинуть, это мало что изменит. Че сказать то хотел?
Допустим, у меня такая классифицирующая сеть input(3) -> dropout(33.333333333%) -> dense(2; relu) -> dense(2; relu) Где последний dense это predicted.
На входном слое три действительных числа [0; 1] Во время обучения после дропаута одно из чисел принудительно зануляется. Но ведь веса на хидден-слое нацелены на то, что по факту придут только 2 ненулевых числа. То есть допустим, веса на первом полносвязанном
bias = -0.5 W = [0.3, 0.2, 0.33] + bias = -0.25 W = [0.1, 0.25, 0.75]
Во время обучения я подаю [0.5, 0.2, 1]. И, допустим, срезается третий нейрон. На первом нейроне хидденслоя получается 0 На втором также 0 Дальше там второй денс-слой, который пока не важен
А если я те же данные подам в тесте, то значения 0.02 и 0.6 соответственно. То есть во время теста сигнал на нейроне всегда сильнее и следующие нейроны должны активизироваться с большей силой. Как получается, что на тестах результаты ожидаются не хуже чем на трейне, когда веса подобраны так, что сигнал всегда заведомо ниже?
Объясни, нахуя платят деньги мл инженерам? Ониж просто качают там бёрт или yolo и вводят команду "сделать заебись" и усё. Нахуй учить эту статистику, линейку, архитектуру сетей там, если уже всё готово и любую макаку можно научить вызывать фит и предикт? Без троллинга спрашиваю
>>2237675 > Нахуй учить эту статистику, линейку, архитектуру сетей там, если уже всё готово и любую макаку можно научить вызывать фит и предикт? Маняматик, спок. МЛ инженер - это прежде всего программист, который идеально знает питон и кучу библиотек, и умеет их использовать для решения задач, а так же умеет в целом поддерживать МЛ проект в нормальном состоянии.
>>2237745 >>2237747 Так я наоборот спрашиваю, нахуя нужна математика, если уже всё готово, в плане моделей, остаётся только код написать. Любой мидл справится с тем, чтоб сделать фит и предикт. Зачем вообще нужны отдельные люди?
>>2237835 Точка это один присутствующий элемент. У элемента есть какие-то два параметра, которые дают ему x и y координаты его положения на графике. Вот на моём первом графике одна ось это iq, другая это тестостерон. Студенты славяне желтые, студенты с гор черные. На моем втором графике по оси oX возраст/тестостерон/физическая сила, а по oY — соотношение черт лица.
Гистограмма это такие же точки, только без оси oY, это просто кол-во точек, которое лежит на заданной oX. На третьем графике у меня количество людей (oY), проголосовавших за конкретный возраст (который указан в oX).
Серьёзно, бро, как так получилось, что ты это прочитать не можешь? Я по-моему лет в 10 мог спокойно это прочитать
Походу, песда пришла вашему биттерлессону. Вкратце: сойбои замутили новый датасет с несложными математическими задачками, MATH. Все трансформеры на нём сосут не переставая, для примера, у GPT-3 175B точность 3-4%, да, три-четыре процента, это не опечатка. У студентов зумеров на этом датасете точность до 40%, у медалистов до 90%. Простым стекморлейерс не обойтись, по подсчётам авторов, для хотя бы 40% точности на этом датасете нужет трансформер с 10^35 параметров. Призывается горький петух для оправданий. https://arxiv.org/abs/2103.03874
>>2237967 Мат задачи это GPT это непреодолимая преграда, ты ничего нового не сказал. Мат задачи надо токенезировать, лексенизировать и решать задачу по-старинке.
>>2237969 > Мат задачи это GPT это непреодолимая преграда, ты ничего нового не сказал. А почему так, есть какое-то объяснение? Казалось бы, математические тексты трансформеры должны лучше всего понимать, потому что они не требуют отсылок к реальности, недоступных нейроночке, не требуют ничего кроме самих этих текстов. А тут такой обосрамс. Может быть, это доказывает несостоятельность формализма как подхода к основаниям математики?
>>2237973 > это доказывает несостоятельность формализма как подхода к основаниям математики Одно лишь то, что ты допустил такую мысль и высказал её вслух, говорит о том, что ты шизофреник
>>2237974 > Одно лишь то, что ты допустил такую мысль и высказал её вслух, говорит о том, что ты шизофреник Да нет, это вполне здравая мысль, наверное даже более здравая, чем я раньше думал. Более того, не такая уж и новая, и даже не моя. Если математика это не более чем манипуляции со знакосочетаниями по некоторым правилам, о чем нам говорят формалисты, то трансформеры на математическом тексте, полном относительно поставленной задачи, должны демонстрировать точность, стремящуюся к 100%. Потому что, математический текст не требует ничего кроме самого себя, никаких отсылок за пределами строгих определений, которые разумеется, содержатся в самом тексте. А по факту мы имеем то, что имеем, 4% точности для gpt-3.
>>2237977 тебе преподают математику с самых основ, друг за другом. учат складывать, раскрывать скобки, перемножать, решать уравнения, решать квадратные уравнения и прочая. Для решения квадратных уравнений вообще изобретены формулы. А чему обучали эту сетку? Я бы хотел посмотреть на входящий пул обучения и был ли у сетки мат-аппарат примитивов (типа хотя бы перемножения чисел)
>>2237973 GPT -- не ИР. Решение мат.задач и то, что делает GPT -- совершенно разные вещи. Его можно брать за основу (см. GitHub Copilot), но ожидать от него что он сам по себе будет решать задачи на которые не рассчитан -- как минимум странно. И понять это можно практически ничего не зная о машобе, реально странный вопрос.
>>2238016 > А чему обучали эту сетку? Я бы хотел посмотреть на входящий пул обучения и был ли у сетки мат-аппарат примитивов (типа хотя бы перемножения чисел) Так посмотри, там же есть ссылки. Конкретно датасеты MATH и AMPS.
>>2237749 Как ты будешь объяснять, что такое p-value, доверительный интервал, значимость коэффициентов? Как ты манагеру расскажешь про поправку на множественное сравнение, если он задвигает тебе охуительные идеи? Как будешь интерпретировать ROC AUC в 0.85? Я не говорю, что ты обязан знать, например, теорему Гаусса-Маркова хотя, вообще-то, нужно или особенности работы овражных методов, но совсем-совсем базовые вещи знать нужно, иначе рискуешь не понять, что только что нафитпредиктил или как тут в треде кто-то не умеет графики рассеивания читать. Это не ты, кстати?
>>2238146 Это хорда распределения. Это прямая вида f(x) = ax+b, для которой a и b подобраны таким образом, чтобы сумма (y-f(x))^2 была как можно меньше
>>2238073 Нет, не я. Я всю эту шнягу выучил, просто теперь думаю, что зря. Я повёлся на мемы про 300к/нсек, но похоже реальная ситуация обстоит так, что обычным софтвеа инженерам платят больше, чем продвинутым саентистам работа уже есть, потолка пока ещё не достиг, но беспокоит, что он ниже, чем у обычных пограмистов, которые нихуя не учили эту хуйню
>>2238298 Везде уже используется. В сельском хозяйстве, промышленнности, медицине, научных исследования. Нейросеть скоро программистов автоматизирует. Но маньки в этом треде сидят и убеждают себя смешными котиками, что ничто не работает и никому не нужно.
Считать что датамайнер это человек, который занимается ML это тоже самое, что считать, что верстак создаёт сайты. То есть формально верно, но вклад верстака в дизайн и бэкэнд со фронтэндом такой же как вклад майнера в полученную модель, технологию и whitepaper
>>2235823 (OP) Помохите. Есть огромная куча точек на плоскости, включенных в разные объекты которые являются линиями или замкнутыми контурами. Есть маленькая куча точек на плоскости соединенных линиями. Как найти место в большей куче место похожее на малую кучу. Грубо говоря нужно найти место на карте по конфигурации относительно не большего куска дорожной сети. Прошу советов мудрых.
>>2239498 Такое на ум пришло. Упорядочиваешь расстояния между соединенными точками в большой куче, аналогично делаешь в меньшей. Потом динамическим программированием ищешь максимальное вхождение элементов меньшей подстроки в большую.
>>2239682 Я думаю это работать не будет. Суть задачи в нахождении похожих контуров, по похожим пропорциями, геометрическим размерам и форме. Сами точки распологаться могут полуслучайным образом на этих контурах. Если вам нужно например закодировать геометрию дороги вам ничего не мешает разбить точками длинную прямую дорогу, ее форма от этого не изменится. Для поворотов и закруглений вы можете тоже разную частоту дискретизации окружности сделать. При сортировке отрезков со всей карты они просто смешаются в кашу. В интернете есть куча статей про выделение контура, в моей задаче контур по сути уже есть причем я думаю он будет довольно точный, наверняка есть простые способы для того чтобы найти в одном контуре другой.
>>2240282 ну мне надо, чтобы нейросеть представляла довольно довольно геометрию с поворотами и выдавала результат прикол в том, чтобы она эта обобщила на другую область
Привет, Анон. Небольшой вопрос по совершенно дестким вещам, стыдно писать преподам по этому поводу. Есть вот такая функция, нужно найти ее корень, он находится примерно в красной точке на рисунке. Если использовать метод бисекции/метод половинного деления для нахождения корня, правильно же, что он его никогда не найдет? Все же помнят, как он работает, берутся точки (point1, point 3), затем делится пополам (point 2), умножаем значения функций на концах отрезков и сравниваем результат умножения с нулём, если знак меньше нуля, то область в которой ищем корень сдвигается влево, в обратном случае сдвигаем область вправо. Какой метод лучше подойдет для нахождения корня в таких функциях? Что почитать по этой теме?
>>2240728 >>2240729 Видишь в чем дело, нулей то очень много, мне нужен конкретный, который красненьким обозначен. По старинке не выйдет, если я правильно тебя понял.
>>2240741 Формула очень сложная в ней куча-куча других функций и параметров. Перебором будет работать, но очень долго, таких точек надо ебааа сколько посчитать
>>2240746 забыл сказать, что на сложных функциях у тебя могут быть флуктуации, при которых функция может пересекать 0 несколько раз на малых величинах, причем именно пересекать, то снизу то сверху, а не лежать на нуле
>>2240746 Хорошо, а алгоритмически, в общем случае это как сделать? У меня таких графиков, скажем миллион, не будем же мы перебором искать эту область в каждом из них.
Будучи нубом, сделал открытие: оказывается, если гонять трейнинг модели для генерации пикч сотни часов, на миллионы итераций, это не приведет к супер-высокому качеству результатов, а модель просто будет выблёвывать обратно пикчи, из которых состоял датасет. Эх, столько GPU-часов псу под хвост.
>>2241444 я извиняюсь, откуда ты достал гпу-ферму, который за сотню часов смог миллион итераций осуществить? ну и да, проблема генерации only серых машин из-за коллапса действительно уже рассмотрена
>>2240707 Возьми модуль, чтобы не было отрицательных значений, потом просто минимизируй любым методом: 1) Правило исключения интервалов 2) Метод половинного деления 3) Метод золотого сечения 4) Интерполяция 5) Метод Пауэлла Просто ебани одним из этих методов в интервале [3.5, 4.5]. Несколько строк на питоне.
По виду самой функции не совсем понятно, но вроде у неё бесконечное множество нулей, так что может не сработать.
>>2239498 ГРАФАМИ решается на изи пизи. Вот если бы ты анон имел норм образование (фупм тот же) то такую хуйню бы даже не спрашивал. А ты своим вопросом сразу детектишься как хуйлуша-вкатывальщик по туториалам с ютуба. Так что мораль - получайте норм образование, прежде чем вкатываться в кодеры.
>>2243500 >ГРАФАМИ решается Охуеть экспертное мнение. Графами у него решается, да ладно, я блять думал, что оно ИНТЕГРАЛАМИ решается, ты мне просто глаза открыл, пойду посмотрю пару роликов на ютубе про эти твои ГРАФЫ, дегенерат блять. Потом пойду ещё вышку получу нормальную (фупм ту же), мне же там расскажут про ГРАФЫ, да?
>>2240789 Каким образом градиентный спуск ищет НУЖНЫЙ минимум, а не ближайший локальный? >>2241444 А сколько пикч? Какой размер? Насколько однородный датасет и какой ган гонял?
>>2243656 Удваиваю вопрос про градиентный спуск, я правда нуфаг. Что там происходит когда этот спуск доходит до локального минимума? Делать проходы с разным шагом?
>>2243559 Ебать ты полыхнула)) Хуево с шаражным дипломом в айти?) Попробуй кем то попроще устроиться, тестики писать или фронтендером на хтмле кодить))
>>2243795 > Что там происходит когда этот спуск доходит до локального минимума? Пытается найти ещё более глубокую точку. Базово принцип такой: ты никогда не знаешь где глобальный минимум и не является ли твой локальный минимум — конечным глобальным
>>2243661 Не суть, будем искать минимумы квадрата функции. Как избавиться от локальности градиентного спуска и заставить искать нужные нули, а не ближайшие?
Всё думал, с хуя ли жлобы из гугла убрали бесплатные теслы P100 и K80 в колабе. А недавно в ютубе наткнулся на видос полугодовой давности, о том как майнить биткойн в колабе. Автор индус, в комментах в ролику одни вонючие дравиды с индийскими неймами и пишут там порой тоже на индусском. На ютубе много роликов на эту тему, и все с аудиторией из стрит-щитеров. Я так понимаю, нищие грязножопые твари промышляли этим, пока им и нормальным людям до кучи не отрубили GPU. Гуглоевреи еще предусмотрели план "Pro+", это значит - продаешь почку и юзаешь A100 (если она окажется свободной, конечно). Ну ничего, я тупо купил новую симку и завел второй акк в kaggle, захожу в него через прокси. Теперь имею 80 GPU-часов в неделю (хотя это все равно мало - всего лишь сутки для четырех одновременных рантаймов, когда два кернела в batch-режиме на одном акке, и два на другом). Жаль что у нас в рашке не как на тайване, где приходишь на рынок и тебе продают из-под полы горсть симок.
>>2237973 >А почему так, есть какое-то объяснение? Потому что сама идея идиотская, очевидно? Хоть ты 100 гуголионов арифметических примеров сетке с трансформерами подай, всегда найдётся пример которого она не видела и на котором обосрётся так как арифметики на самом деле не понимает, а парсит числа как текст. А матешка это не естественный язык, она не про контекст см >>2237106
анонче, мне нужно влезть в распознавание объектов. Похоже что придется использовать opencv. >линейную алгебру, теорвер, матстат из оп поста придется по мере необходимости вспоминать, т.к универ 10 лет назад был. Пока использую книгу opencv o'relly Кэлер, Бредски. И туторы с https://docs.opencv.org/ Что-нибудь еще?
Помните Адзуму? Тот ультраправый япошка педофил, который угрожал отстреливать русских на Курилах. Рисовал вещи типа такого http://4.bp.blogspot.com/-FTHoZmGHDJs/URi6eVZVmUI/AAAAAAAAoP8/HAeUL8JnsjI/s1600/numbness.jpg Я набрался опыта и буду тренировать в облаке rudalle под такие пикчи как этот рисунок, но вообще во всех возможных ракурсах и позах. Потом для вас расшарю файл торрентом. Персонажи разного возраста 4-14 лет, датасет готов, осталось залить на драйв (на всякий случай запароленным архивом, скрипт будет распаковывать по паролю специально для работы, а под конец сразу удалять палевные png) Пожелайте мне удачи?
>>2244365 >распознавание объектов >opencv что за распознавание объектов в opencv? Там же прост древние алгоритмы, сейчас любая нейронка даст +100 к скорости и точности
Recently, https://arxiv.org/pdf/1611.03530.pdf showed that the classical notions of Rademacher complexity and the VC dimension are not adequate for understanding the generalizability of deep neural networks.
Вапник официально бесполезный дед. Но если вы хотите в тысячный раз поанализировать линейные модели, то наверное можете почитать.
>>2245241 > VC dimension are not adequate for understanding the generalizability of deep neural networks.
> Вапник официально бесполезный дед. Если бы ты хоть почитал, о чем вообще писал Вапник, а не пытался тут троллить тупостью, то знал бы, что суть подхода Вапника в том, чтобы выводить алгоритмы машоба из более общих соображений, в частности, того же VC dimension, а не наоборот пытаться натянуть эти соображения на существующие алгоритмы.
>>2245245 Генерировать контент. Имею опыт генерации нелегального контента (юная эротика и порево, ЗАПРЕwЕНКА) кастом моделями GAN и трансформерами, высокая согласованность изображений и высокое разнообразие, почти проходят тест Тьюринга, сейчас пробую генерировать короткие видео с юными, видео запрЕwЕНку. Поделюсь опытом бесплатно. Пишите в личку
>>2245522 Вонючий индусский ниггер будет на это жить неделю. К счастью, в колабе работает скрипт, который сразу распознает майнинг даже по одним только библиотекам и отрубает рантайм. Надо б еще закрыть пользование для индийских айпи и телефонных номеров. Пилите свой индусский колаб, говножопые
>>2245522 "к 80" это в смысле с битком по 80 тысяч баксов? В любом случае это гроши. Но если 10 симок, то это $5. Все равно гроши конечно.
Я слышал, что индусы работают программистами на аутсорсе 1 месяц, а потом на эти деньги еще 5 месяцев живут. Потом еще месяц работают, потом еще 5 месяцев живут. Для меня это дикость.
>>2245534 Дефолтная карта колаба - к80, это 780я карта только с 20 гб памяти, дает в эфире от 0.5 до 0.8 бакса в день, но я не знаю рассчитано ли это с тратой на электричество(которой нет если майнить в колабе очевидно) или без нее. Сраных индусов надо давно нахуй отрезать от мирового интернета, они заебали всех.
Как же забавно наблюдать пидорахенских свиней, сплотившихся в ненависти к другим свиньям из третьего мира в надежде ещё чуть-чуть приблизиться таким образом к "белому человеку"
>>2245610 Я русский, что означает - славянин и восточный европеец. slav & white. Россия была европейской страной со времени Петра I, и стала влиятельной европейской державой при Александре II. Problems?
Кстати, белые люди никакие не уберменши и уж точно не сверхлюди. Те же китайцы способный народ, уже обошли белых в машобе и пилят классные AI системы. Среди белых есть такие же отбросы как в Индии - например white trash в Америке.
>>2245949 Блевацкая повесточка целенаправленно промывает мозг именно белым тням по поводу отказа от деторождения, а также замещает белых ниграми и арабами.
>>2245975 Сначала прочитал как colabs и думал что на этом новом поколении чипов тоже можно хоть прямо сейчас в браузере потестировать свои ML модели. Разбаловали нас, лол
>>2246020 >Главное что не промывает азиатам. Проблема азиатов в том, что они сильно стандартизированные. Все по мозгам как с конвейера. Они очень умные, но они стандартно умные. А это проблема. >Арабы в случае чего поедут отдыхать в санаторий в Синьцзяне. А это хорошо. Синьцзян - лучшее, что есть в Китае.
>>2246700 Да ты достал. Я ктн по ии. ЭС это говно мамонта без задач, но тот факт что в этом итт оно на серьезных щах всплывает в разговоре, говорит о том, что нейроночки это тоже говнецо. Понимаешь если говно тягается с чем-то, то это что-то тоже говно.
>>2247292 > Нетъ, я решаю щадачи НЛП, где на основе грамматики естественного языка ЭС проводит разбор текста. Ничего ты не решаешь. Всяких парсеров языков существует как говна за баней, в НЛП они неприменимы, как и вообще никакой реальной задачи не решают.
>>2247398 > золотце, Этому кловану хотя бы хватает ума в Голландии траповать, благо, сиськи от галоперидола у него ещё в российской дурке выросли. А вот ЭС петух походу совсем конченый.
>>2247528 >рeшaющиe дeрeвья В какой НЛП задаче они превосходят трансформеры или хотя бы приближаются к ним по качеству? >>2247545 >на одной грамматике можно многое сделать. Что можно в НЛП сделать с помощью ЭС, чтобы превзойти трансформеры?
>>2247548 > В кaкoй НЛП зaдaчe oни прeвoсхoдят трaнсфoрмeры или хoтя бы приближaются к ним пo кaчeству? Нaпримeр быстрaя и интeрпрeтируeмaя клaссификaция
>>2247584 >Да полно применений, Хоть одно назови. >>2247592 >Пoтoму чтo этo мoжнo сдeлaть oчeнь быстрo и интeрпрeтируeмo Трансфомером это тоже сделать быстро и интерпретируемо. Сюрприз, аттеншены прекрасно визуализируются. >>2247594 >Например извлечь семантику из грамматики. Про валентность слов описанную Теньером наверное слышал? Это так же визуализируется трансформером, с учетом веса слов в предложении. Все это я видел у трансформеров, покажи то же самое на ЭС.
>>2247507 Там в принципе какой-то странный текст о том, чему не учат в школе и почему это плохо. Чел мог специализироваться в любой другой области математики и потом бы точно также горел, что ему в школе не рассказали о чем-то другом.
Сап, млач. Подскажите, плиз, книгу/цикл статей по паттернам, бест практикс и архитектуре для мл приложений? В частности, для питона. Тип как лучше организовывать проект, как вести версионирование и т.п. Понимаю, что в подходы должны быть примерно теже, что и для других приложений, но я просто не хочу читать кучу лишнего дерьма, которое может быть вообще не применимо в мл кейсах, а потом ещё и думать, как это применять. Хочется увидеть конкретные решения для мл
>>2247618 Это не ЭС, во-первых. Во-вторых, какая-то хуйня, на которую авторы забили в 2016. Учитывая, что такой петух как ты даже матлаб считает ЭС, всякие левые ссылки неудивительны.
>>2247755 Building Machine Learning Powered Applications by Emmanuel Ameisen.
>The Goal of Using Machine Learning Powered Applications
>Over the past decade, machine learning (ML) has increasingly been used to power a variety of products such as automated support systems, translation services, recommendation engines, fraud detection models, and many, many more. >Surprisingly, there aren’t many resources available to teach engineers and scientists how to build such products. Many books and classes will teach how to train ML models or how to build software projects, but few blend both worlds to teach how to build practical applications that are powered by ML. >Deploying ML as part of an application requires a blend of creativity, strong engineering practices, and an analytical mindset. ML products are notoriously challenging to build because they require much more than simply training a model on a dataset. Choosing the right ML approach for a given feature, analyzing model errors and data quality issues, and validating model results to guarantee product quality are all challenging problems that are at the core of the ML building process. >This book goes through every step of this process and aims to help you accomplish each of them by sharing a mix of methods, code examples, and advice from me and other experienced practitioners. We’ll cover the practical skills required to design, build, and deploy ML–powered applications. The goal of this book is to help you succeed at every part of the ML process.
Так блять. Запустил tf крутиться на видимокарте — иди нахуй мало памяти, 8гб лоховской объём. Запустил на цпу — о, заебись, 32 гига, работаем! В пять раз дольше, конечно. А как и рыбку и на хуй?
>>2248412 Чем вы блядь тут занимаетесь, если не можете за распределение производительности пояснить, черви заднеприводные? Ебал в рот просто всю эту индусью питонопомойку.
>>2248910 Мне нужен тензорфлоу. Питон невообразимо медленный (серьезно, у меня в конечном итоге код в 5 раз быстрее начал работать). Джаву я не хочу. Все
>>2248923 >Питон невообразимо медленный (серьезно, у меня в конечном итоге код в 5 раз быстрее начал работать). Это не питон медленный, а ты тупой. Нужно оптимизировать, перекладывая как можно больше задач на либы, написанные на низкоуровневых языках.
>>2248997 ты ебанат блядь безмозглый. мне и так пришлось чтение файлов делать через си, потому что даже ебаный файл питон прочитать не в силах. какая на хуй разница, если следующее же действие (NDArray) питон опять выполняет за бесконечное время? Это тормозное говно, а не язык
>>2248997 ну и да, если по твоим же собственным словам, язык не способен без помощи костылей на простейшие операции типа обработки данных для перекладывания их в числодробилку, то язык-то... говно ебаное
>>2249200 Сеточка - это не текстуры сральника с задворок игровой локации, которые захотел загрузи - захотел выгрузил. В случае обучения надо держать всю сетку в памяти видимокарты. В противном случае каждый раз ввод-вывод приравняет эффективность к ЦП. Так что либо уменьшая размер сетки, либо покупай видюху. мимо_как-то_задавался_этим_вопросом_и_тоже_получил_по_губам_шершавым
>>2248112 >>2248798 Я хуй знает как у вас получается, что видуха считает быстрее проца, кстати. У меня и обычные подсчёты и майнинг на проце быстрее видео-карты, при этом видуха 2060 super
>>2249408 это закрытый проприетарный кусок кода. но я на 99.9%, что там "ручная" токенизация, а затем "лексенизация", а затем интерпретация, и затем решения на основе правил. почти уверен, что ML там нет. Разве что в части интерпретации
>>2238261 >в мл потолок не выше У топового мл потолок такой же, какой у сопоставимого по скиллам разраба. А у большей части мл потолок чуть ниже, чем у большинства разрабов. При этом разрабов всегда нужно будет больше, тут ты ничего не поделаешь.
>>2248923 Кстати, а что на счет Golang. Я мимонуб не шарю в этих ваших дата сайенс, но слышал, что мол скорость как у C, C++, а по сложности сопоставим с питоном. Если это так то по идее это идеальный язык для машоба/дата сайенс. В чем подвох?
>>2249645 > В чем подвох? Ты знаешь как он был создан, и что он вообще такое? Это промежуточный язык транспайлинга из Питона. Гугл создал Го, чтобы у них был собственный язык, так как над Питоном у них не было власти. Го никогда не предназначался для людей
>>2249059 Каких файлов, какого размера, для какой задачи?
Проблемы с производительностью решаются либо оптимизацией кода и перекладыванием работы на высокопроизводительные библиотеки, либо задействованием multithreading/multiprocessing. Даже если все равно медленно, гораздо целесообразнее подождать, в перерыве подрочив хуй на аниме-девок, чем связываться с богомерзким си.
>>2249904 > Каких файлов, какого размера, для какой задачи? С данными. Для того чтобы их подать на обучение. Само чтение в 5 раз медленнее, но подача на NDArray в пистоне настолько тормознутая, будто все сдохло на хер.
> перекладыванием работы на высокопроизводительные библиотеки Ты только что сам подтвердил, что ваше говно даже файл ёбаный прочитать не в силах > либо задействованием multithreading/multiprocessing Без 12 ядер действительно сложно прочитать ёбаный файл > гораздо целесообразнее подождать Просто пиздец. Ёбаное животное > чем связываться с богомерзким си Когда я понял, что на Пистоне писать нереально, то мне буквально пришлось рассматривать вариант, при котором я сам напишу биндинги для вызова Тензорфлоу в шарп либо брать уже готовую прокладку на Сях, и писать шарповые биндинги для неё. На моё счастье, задачу уже решили за меня. Хотя там такая порнуха, что глазам больно. Но хотя бы работает
>>2249923 Производительность сжирается из-за того, что ты высчитываешь каждое значение отдельно. Делить и умножать надо весь нампай массив - тогда будет быстро. И нахуя ты сначала создаешь обычный массив и только под конец преобразовываешь его в намай? Делай сразу нампай массив забытый нулями, и пиши прямо в него значения.
А вообще, у тебя в принципе неправильный подход. Вместо всей этой хуйни, лучше считать весь файл напрямую в нампай массив, и работать уже с ним. Цикла тут быть вообще не должно.
>>2249938 > Делай сразу нампай массив забытый нулями, и пиши прямо в него значения Я так и делал сначала. Это ещё медленнее. НДАррай очень медленный. Очень. Ещё раз говорю: ваш Пистон говно тормознутое. Даже калькулятор на нём написать невозможно. Вместо языка программирования родили какое-то говно с пробелом, как с управляющим символом.
>>2249941 >с пробелом, как с управляющим символом.
Я дичайше охуел, когда понял, что в питоне пробел и таб это управляющие символы. После этого у меня родилось предположение, что на питоне кодят только максимум ретарды с айсикью хлебушка, но если это самый популярный в мире язык, то видимо это какая-то секта типа саентологов
Анончики, сюда ли я пишу, не знаю. Мне нужно каким-то образом детектировать семпл в аудиопотоке. Например собачий лай в эмбиенсе разпознать или сигнал автомобиля. Киньте в меня каким простым примером с жирной библиотекой которая сразу делает заебись и особо в дебри лезть не надо.
>>2252012 Охуенно быстро. На шарпе чтение с NVME таким образом настолько быстро, что я даже не читал следующий батч во время обучения предыдущего батча. Но на шарпе. На Питоне такая сложная математическая операция как "поделить на 255" это реально запредельное что-то, я понимаю, вопросов нет
>Охуенно быстро. На шарпе чтение с NVME таким образом настолько быстро, что я даже не читал следующий батч во время обучения предыдущего батча. Но на шарпе. На Питоне такая сложная математическая операция как "поделить на 255" это реально запредельное что-то, я понимаю, вопросов нет
Почему нейросеть имея сотни примеров подобных произведений искусства и близко не может создать что-то подобное? Лишь какая-то пародия на Ван Гога обычно
>>2252414 Потому что и человек даже с навыками нихуя не может создать что-то подобное. Более того много искусства из сюра или метафизической живописи(пикрил Кирико) вообще ебут законы и правила классической живописи(посмотри на все углы в картине и заметь что все изометрии сломаны). Искусство это не генерация картинок, а эфемерное восприятие помноженное на "хайп" и выдержку временем. Пока что нейронка может очень хреново сделать просто стоковое изображение, не факт что будет способна уловить в весах и формулах это мимолетную магическую(в эзотерическом смысле) искру.
>>2252428 Конечно, ведь у человека есть душа, дарованная Богом, да? А у машины нет, потому что ей Бог ничего не даровал. Почему ты в это веришь? Потому что иначе тебе некомфортно.
>>2252552 Ты шизанутый блядь? Где я что-то писал про душу? Машина не может просто взять и из жопы вытащить контекст. Как машина поймет суть картины с Исусом и в чем заключается ее вес для большого пласта населения? Как машина вытащит суть из тралльного черного квадрата? Как машина прочухает почему картины Пикассо становятся все более всратые с каждой новой, но ценятся все больше? Она как-то поймет что люди охуевают с того что он слепнет и рисует как может? Или тот же Ван Гог который ехал? Собственно почему Мона Лиза в Лувре за 50 см бронестеклом висит не знают даже человеки толком, срутся до сих пор. Нет, долбоеб что-то про душу начинает затирать, охуел с тебя
>>2252354 Сделаю охуенную GAN модель для генерации 100% уникальных эро фоток с позирующими девушками. Типа playboy и met-art. Будет готова завтра ближе к полуночи. Для цп уже сделал, но показывать не буду.
Всем видеоган, посоны https://universome.github.io/stylegan-v Делать трейнинг на цп пока не буду, лучше пока запилю датасет с 300-400 тематических нарезок из обычных роликов с порнхаба, или может быть из хентай анимации.
>>2252788 Я делал с рудалле годные модели буквально по 30 пикчам. Качество и разнообразие было ок. Для styleganlike конечно потребуется больше, но и там возможна годнота даже по датасету из 200 образцов (я пробовал еще в позапрошлом году).
Поясните по хардкору. Почему GPU? Что мешает решать задачи типа поиска в латент спейс на мощном CPU? Алсо, нахуй нужны эти TPU если они все равно нигде не применяются даже при трейнинге?
>>2252788 >>2252799 Самое главное в дате - однородность контента. GAN может выдавать качественные фейки по сету из 100 объектов с одинаковым расположением, масштабом и поворотом, но обосрется на сете из 10000 образцов где всё рассыпано хуй пойми как. Я делаю так: в фотошопе делаю верхний слой с разметкой, и всё остальное кладу под эту разметку, масштабируя и поворачивая. Потом делаю экспорт слоев как отдельные пикчи, вот и всё.
>>2252428 >Потому что и человек даже с навыками нихуя не может создать что-то подобное. Более того много искусства из сюра или метафизической живописи(пикрил Кирико) вообще ебут законы и правила классической живописи(посмотри на все углы в картине и заметь что все изометрии сломаны). >Искусство это не генерация картинок, а эфемерное восприятие помноженное на "хайп" и выдержку временем. Пока что нейронка может очень хреново сделать просто стоковое изображение, не факт что будет способна уловить в весах и формулах это мимолетную магическую(в эзотерическом смысле) искру. >Машина не может просто взять и из жопы вытащить контекст. Как машина поймет суть картины с Исусом и в чем заключается ее вес для большого пласта населения? Как машина вытащит суть из тралльного черного квадрата? Как машина прочухает почему картины Пикассо становятся все более всратые с каждой новой, но ценятся все больше? Она как-то поймет что люди охуевают с того что он слепнет и рисует как может? Или тот же Ван Гог который ехал? Собственно почему Мона Лиза в Лувре за 50 см бронестеклом висит не знают даже человеки толком, срутся до сих пор.
>>2252800 Нейросеть - это множество вычислительных единиц, которые примитивны сами по себе Линейное уравнение с функцией активацией. Ядра гпу как раз могут что несложное считать, но зато их на пару порядков больше чем ядер в цп.
>>2252812 > Почему именно тензоры я хз Так исторически сложилось. Гугл начал их использовать, это зафорсилось, ввели хардверную поддержку подсчёта тензоров
>>2253125 resnet-18, resnet-20, vgg-16, cifar-10, примерно те же "открытия", что и в one pixel adversarial attack 2017 года. Вот это качественный ресерч, я понимаю. Срочно все отказываемся от нейросетей и переходим на акинатор для классификации изображений.
Есть тут ML наносеки?
Аноним31/12/21 Птн 22:26:24№2253311348
Ищу программу обучения которая бы непосредственно касалась практического применения всех или большинства актуальных моделей на конец 2021 года. С задачами как на реальных проектах. С объяснением теории. Или по крайней мере показывали код и давали ссылки на википедию с моделями. А там я дальше уже сам обмажусь и пойму как это работает.
Хочется пройти все на практике, без одного теоретического матана как в книге Гудфеллоу (Goodfellow) или курсах Andrew Ng, но и без индусов с >смотрите это питон вооооооот >а вот у нас проект заработал см мой код >а тут код не будет работать после выхода книги >спасибо за внимание
Я мл эксперт. Трясу и шатаю черный ящик, читаю и пишу пейперы, исследую данные (терабайты цп) и обрабатываю их, жамкаю попыт, делаю вызовы тензоров, стакаю слои, гоняю трейнинг ночью когда сплю, спустил тысячи долларов на amazon AWS, делаю adversarial attack, пилю файнтюнинги на претрейнедах, сталкиваюсь с коллапс модом но не сдаюсь и начинаю по новой. Затем чтобы снять стресс, одеваюсь в нейлоновые чулки и туфли с высокими каблуками, и долблю себя в пердло дилдаком "японский дракон".
>>2253507 Инструмент искусственного интеллекта AlphaFold, разработанный лондонской компанией DeepMind, дочерней организацией Google, предсказал структуру почти всего человеческого протеома (полного набора белков, производимых организмом). Кроме того, программа воссоздала почти полные протеомы других организмов: от мышей и маиса (кукурузы) до малярийного паразита.
>>2253488 Так обитатели треда ему регулярно на пальцах и с пруфами показывают, что он натурально поехавший, для его психики это очень тяжело. Одна шапка треда чего стоит, список личных обид и история прогрессирования болезни одновременно. Кстати, может в новом году запилим петицию в d/ и будем тут общаться без этого хуесоса?
>>2253678 Ничего себе он тебя проткнул. Скулишь, визжишь, маняпроецируешь свои обидки, всех обоссываешь, правда, не снимая штаны, а теперь вот доносы писать собираешься. Лол.
>>2253696 >доносы >маняпроецируешь >проткнул Лол. Я другой реакции от поехавшего и не ожидал. Ну ты хотя бы голос подал, тебя тут уже надрессировали. С новым годом, кстати, мразь/spoiler]
По факту, другие треды в pr/, хотя и содержат массу срачей и троллинга, являются тематическими, в них можно более-менее нормально вести разговор, как-то дискутировать, есть в наличии экспертиза анонов, есть аргументация и адекватные точки зрения. В машоб треде - деградация. Пять-шесть тредов назад тут были истории вката/переката, обсуждались предметные вопросы, шли дискуссии о новинках, приложениях, можно было получить совет и т.д. Сейчас даже шапка превратилась в историю обоссываний опуща. Разумеется, эсопетух может этим гордиться - скатыванием треда в говно, но свой бан он давно уже заработал.
>>2253829 Лол, как же смешно, когда мл-экселеоператоры-гомосеки в каждом аноне, который смеется с них, который смеется с того, как они борщи хлебают и генерируют цп, и который смеется с "прорывов" в виде циклопов, детектят своего протыкателя и визжат про ЭС, хотя аноны даже не затрагивают это говно мамонта в своих постах. Этот >>2253734 аж вообще целое эссе настрочил на тему "почему на дваче надо мной издеваются так низзя это серьезный сайт в бан их!" Вот я думаю, это такой троллинг, или любители попытов и экселя на самом деле такие шизики?
>>2253992 Да, я пока на этой же штуке остановился, только на сберовской модели. Просто в статье ничего специфического про видео не говорится и непонятно, как решается проблема с мерцанием (если она возникнет вообще). Ну и все же есть диффузионный sr3, вдруг там получше дела.
Причём эти хуeсoсы кaк oдин зaпускaют нa нoвых тaйтлaх или тaйтлaх у кoтoрых исхoдники сoхрaнились и кoтoрыe нoрмaльнo oцифрoвaли. Зaчeм-тo. Хoтя цeлeвoe примeнeниe aпскeйлa в aнимe этo двд тaйтлы, кoтoрыe сущeствуeт тoлькo в 480-576p видe.
Нo тaк-тo зa этим тoчнo будущee. Тoлькo нaдo будeт гaны тюнить кoнкрeтнo для кaждoгo тaйтлa, нo зaтo мoжнo будeт рeaльнo вoсстaнoвить двд тaйтлы дo сoстoяния, кoгдa oни были нaрисoвaны и нoрмaльнo этo aпскeйльнуть дo 1080
>>2253184 А сказать то что хотел, нейропетуш? То что в статье были показаны всего 5 моделей, вместо десятков говна, что успели нагриндить за пару лет? Сам факт того, что overinterpretation наблюдается даже на cifar-10, должен был твой персептрон(или что там у тебя вместо мозга) напрячь и призадуматься
>>2254765 кепстральный в смысле "спектральный"? Я думаю, там всё на нём и работает. Ну типа быстрым преобразованием фурье превращаем синусоиду в спектр и пошла-поехала
>>2237749 Далеко не вся работа датасатаниста сводится к gpt-3/свертОчкам/бустингу. Очень много где надо шарить за реальный мир (т.е. быть немного бизнес-аналитиком), чтобы не обосраться с дизайном МЛ решения. Недавний провал Zillow тому иллюстрация. Тема causal modeling все больше востребована в продуктовых компаниях
>>2254830 Тут даже не предметная область как таковая важна, а понимание ограничений мл моделей. Что без оче сильных предположений они лишь являются рисованием кривулек через облако точек, и не способны дать ответ на вопрос "какие факторы сильнее всего влияют таргет".
>>2254831 ты знаешь как работает звук? Звук это разность потенциалов с определённым интервалом. Вот этот набор потенциалов надо разложить на первообразные (спектр) перед тем как обрабатывать. Гугли: быстрое преобразование фурье
>>2254823 МЛ по большей части - подгонка линейной модели/множества линейных моделей под реальность. Но в реальности господствуют нелинейные процессы. Деревья кстати не линейные модели, а автоматизированные экспертные системы.
>>2254854 Ну я в общем представляю. Вот только не понимаю, что будет, если попробовать на вход быстрого преобразования Фурье подать синусоиду.... Компа нет сейчас под рукой
>>2254908 > МЛ по большей части - подгонка линейной модели/множества линейных моделей под реальность. Чухан, ты ничего не знаешь ни про мл, ни про смысл используемых в мл алгоритмов. Тебя уже просили, не позорься, нажми alt+f4.
>>2253793 >одс >адекватностью Тамошние шизеки любой твой проеб будут неделями напоминать и обсуждать, как бабки на лавочке. Опять же, вилки зарплат в _jobs заставляют задуматься об адекватности вкатывающихся в дота саентизм вместо нормальной разработки.
>>2254298 > Смoтрeть будeт нeвoзмoжнo. Чe зa пиздeц нa пикрил1))) Просто когда мл школьникэнтузиаст итт, пересказывая журналистов, говорит что > Задача буквально решена это означает именно это: хуйня чего-то там иногда выдаёт на черрипиках, но в среднем получается говно. Нужно иметь ввиду
>>2254298 >пoкaдрaвo oбучaeтся Он не обучается на видео. >В oтличиe oт тoпaзa. Топаз это лаборатория, а не алгоритм. Алгоритмы они не палят, так что поебать на них. >Нa прaктикe этa Real-ESRGAN хуйня нeпримeнимa Для видео если только. И то не для всех, "прибытие поезда на вокзал ла-сьота" становится смотрибельнее, даже несмотря на фликеринг и артефакты. >Чe зa пиздeц нa пикрил Использование не зафайнтюненной под аниме модели? Черрипикинг от автора видео? Огромное увеличение, чтобы увидеть детали-артефакты? Сеть не создавалась для апскейла видео (тем более аниме), удивительно, почему она на нем фейлится.
>>2254602 Выдуманное говно наблюдается на крошечном датасете с огромными неиспользуемыми сетками из 2014 года.
>>2255002 >вилки зарплат в _jobs заставляют задуматься Какая вилка зарплат в __нормальной разработке__? Под нормальной разработкой ты понимаешь два года крудошлепства за 50 тысяч?
>>2255437 Автор видео буквально на второй минуте говорит "на текущий момент есть только одна моделька, а специальные модели для лиц/аниме авторы обещают выложить позже"
Когда чистил хард, раскопал снапшоты GAN трейнингов чтобы снова убедиться, какая хуйня ебаная все эти ганы. Причем любой трейнинг рано или поздно сводился к collapse mode. Сравните способности трансформеров из прошлого года и gan, хуита с оверхайпом в 2017-2018 годах. Авторы пейперов подсунули sensationalized шлак чтобы попилить гранты. Зато китайцы молодцы, да и наши не слишком отстают.
Интересно, будет ли публичный релиз вот этого кода: https://github.com/microsoft/NUWA мне кажется, если файнтюнить на него, будет ого-го.
>>2255522 Зачем изобретать говно для говна, если есть человеческие разработки и годные пейперы? Синтезировать видео длиной в минуту тоже с дискриминатором будешь?
>>2255435 >Под нормальной разработкой ты понимаешь два года крудошлепства за 50 тысяч? Датаманьки выглядят конкурентоспособными только в сравнении с такой хуйней. Жду когда они начнут перемогать сравнением с зарплатами грузчиков и курьеров. "два года крудошлепства за 50 тысяч" типичная ждуниорская вакансия в ods, кста. Мидлу 140k хорошая зарплата (поворачивай обратно!), сеньке 230 в офисе ДС норма жизни.
>>2255652 Нормальное место, чтобы задрочить основные методы и знать, когда что применять и на что можно на практике работы конкретного метода рассчитывать. Излишне дрочить на метрики в каждой задаче и пытаться в рейтинги - занятие прохладное, это скорее вид специальной олимпиады, нинужно в работе.
Вообще-то там нихуя нет обзора процесса, терминологии, карты, обучения как цепочки с увеличивающейся сложностью. Ты просто будешь пытаться читать и нихуя не понимать передовые (не всегда) методы решений и пытаться понять зачем написан этот код.
>>2255695 >>2255697 Это рофл? Ща бы за 4к евро дрочить математику несколько лет в мфти/вшэ/мгу, а потом еще сосать хуи в аспирантуре, потужно высирая никому не нужные статьи, публикации, участвуя в говноконференциях, чтобы в 28 лет наконец получить заветную должность миддл датаманьки за 4-5 тыщ евро, которая никогда не сможет позволить себе купить даже самую обоссаную халупу за 10-15 лет.
И при этом знать, что твой сосед местное заводобыдло получает столько же, только ему еще пособий за наличие детей доплачивают. А арабы и негры вообще не работают, за жилье не платят, хуй клали на местные порядки, образования тоже никакого нет, а уровень жизни такой же.
В Москве SWE крудоманька с аналогичным опытом может получать столько же или больше, лол. Кстати, это ведь цифры с учетом рулинга? Что будет, когда рулинг закончится? Там небось 3200 евро получится на руки. Вот это я понимаю, огромные зп в DS/ML.
>>2256003 Такой же, как у задрота, который после аспирантуры к 30 годам стал миддл DS/ML и уехал в швятую европу. Прям вот практически один в один. Европа она такая. А всякие местные, которые вообще толком нигде не работали и не учились, а только баловались веществами, будут жить на порядки лучше, так как у них жилье свое есть + наследство. У многих с этого горит почему-то, мол как же так, я всю жизнь дрочил хуету в МФТИ, а какой-нибудь Ганс отучился местные 9 классов и закончил ПТУ, не умеет складывать дроби, и в итоге он живет лучше меня, лол.
>>2256019 Так свое жилье мало у кого есть, это факт, но у них есть бабушки и дедушки, пусть даже в местных мухосранях, но со своим жильем. Или родители предпенсионного возраста, которые либо заканчивают платить ипотеку, либо уже выплатили. А задрота нет ничего. Ну, может какой-нибудь хрущ в российской мухосрани, перешедший по наследству от бабки к мамке. Один хуй по стоимости не сравнимо с европейским жильем.
>>2256019 В Испании толком-то нет нихуя из айти. Если уж и ехать, то в штаты, или на худой конец в швейцарию или бритаху. А иначе будешь попущен местными зп в 4к евро на руки, которые можно на местном заводе с образованием ПТУ получать, лол.
>>2255993 Эти 4к это на пожить. Пропитание, транспорт, развлечения и аренда апартаментов. Там ещё 2к евро в месяц стоками. Платят не регулярно, но всего за 2-3 года можно накопить на первый взнос и взять ипотеку под низкий процент лет на 20. С учётом роста цены акций ипотеку можно будет уже через несколько лет закрыть если захочешь. Но с учётом инфляции и будущего роста зп так лучше не делать.
>>2256019 >можно занять любой дом и жить Положняк знать надо. Мбонге можно, Ваньке-анальнику нельзя - мигом депортируют с баном на въезд. Зато можно занять дом Ваньки-анальника, если он возьмет ипотеку.
>>2255993 >в 28 лет наконец получить заветную должность миддл датаманьки за 4-5 тыщ евро Все равно не получишь. Для миддла нужен коммерческий опыт, которого сразу после аспирантуры не будет. Так что придется сначала поработать пару лет джуном что тоже хуй получиться, потому что overqualified, и только потом перекатываться на мидла. Ну или стирать пхд из резюме, придумывать опыт работы и устраиваться кодомакакой.
>>2255693 >>2255695 >>2255697 Блять, идиоты, а потом вы удивляетесь, почему с вас все смеются - у вас дегенераты бакалавра, магистра дрочат, потом на PhD шагают, многолетний попыт, и все это для того, чтобы работать за 90к в Берлине - то есть буквально верстальщемакака больше берет. Другие дебилы дрочат курсики, книжечки читают, маняматику поглощают, чтобы в банк пройти, дрочить эксели и получать 300к тех же крудоебов. А этот вообще будет хуй без соли доедать в Амстердаме за 60к, перед этим также, как предыдущие, навернув сотни слоев говна, пока Ванька просто взял и вкатился в жсочку. Поэтому с вас все угорают - вы или экселеоператоры и профессиональные борщехлебы, или додики, которые на PhD пошли, зарабатывали попыт, лишь бы работать за джуновскую зарплату кодомакаки.
>>2256162 >>2256011 >>2256005 >>2255993 Пиздеть кто сколько получает конечно можно, но не sub80iq ЭС-дурачку, так как кто угодно получает больше чем он любая ненулевая сумма больше нуля - прим. для ЭС петухов
Позавчера Бабушкин на стриме говорил что в мл не делают особых исследований и что рынок мл насытиться и нужны будут только дата аналитики и подобные, на сколько это верно? В какие исследования в этой сфере пуляют больше всего денег сейчас?