Очередной тред про хипстерские технологии, которые не работают
Я ничего не понимаю, что делать? Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu/ (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.
Почему такой фокус на нейронки? Потому что остальные чистят вилкой данные в банках с помощью LGBTboost и им некогда предлагать обновления в шапку
Почему python? Исторически сложилось. Поэтому давай, иди и перечитывай Dive into Python
Можно не python? Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет
Что почитать для вкатывания? http://www.deeplearningbook.org/ Николенко "Глубокое обучение" — на русском, есть примеры, но меньше охват материала Франсуа Шолле — Глубокое обучение на Python https://d2l.ai/index.html Все книги и статьи фактически устаревают за год.
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/ Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.
Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском
Где ещё можно поговорить про анализ данных? http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100. Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь
Когда уже изобретут AI и он нас всех поработит? На текущем железе — никогда, тред не об этом
Кто-нибудь использовал машоб для трейдинга? Огромное количество ордеров как в крипте так и на фонде выставляются ботами: оценщиками-игральщиками, перекупщиками, срезальщиками, арбитражниками. Часть из них оснащена тем или иным ML. Даже на швабре есть пара статей об угадывании цены. Тащем-то пруф оф ворк для фонды показывали ещё 15 лет назад. Так-что бери Tensorflow + Reinforcement Learning и иди делать очередного бота: не забудь про стоп-лоссы и прочий риск-менеджмент, братишка
Список дедовских книг для серьёзных людей: Trevor Hastie et al. "The Elements of Statistical Learning" Vladimir N. Vapnik "The Nature of Statistical Learning Theory" Christopher M. Bishop "Pattern Recognition and Machine Learning" Взять можно тут: http://libgen.io/
Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
>>2352657 Ну я прочитал учебник по MlL от ШАДа. Знаю линейные и метрические методы, решающие деревья, ансамблевые методы и в частности как работает градиентный бустинг. По либам дефолтные numpy pandas sklearn matplotlib seaborn. Сейчас наверное буду catboost смотреть. В DL пока не лезу, хочу сперва прохавать ML с самого дна. Из каггла пока решал только титаник и какой-то датасасет про погоду. Точнее я на них проверял работу вышеперечисленного говна, тк пишу все алгоритмы сам на нампае. Наверное я еблан и зря каггл активно не решаю. А у тебя как все обстоит?
>>2352674 Я до этого в науке работал, R был как основной инструмент, в нём более-менее ориентируюсь по стандартным методам статистики и визуализации данных, плюс немного кластерный анализ и всякие PCA, графы и анализ временных рядов. Сейчас перекатываюсь на питон, учу все дефолтные либы, тупо решаю типовые задачи, чтобы руку набить. Ну, еще дрочу sql-запросы, с универа что-то еще помню по ним. По книгам - читаю Воронцова (к нему еще какой-то задачник есть, но там один матан) плюс листаю The Elements of Statistical Learning. Я хз, после работы в научных проектах как-то противно трогать сторонние датасеты просто для тренировки, хочется под настоящие задачи считать и для них тот или иной метод осваивать.
>>2352686 Ого, так у тебя есть опыт работы в достаточно смежной области. Был уже на собесах? Кстати, помимо книги параллельно смотрю лекции Воронцова - годный мужик, понятно объясняет.
>>2352695 Фактически - да, разные классические методы, плюс разная экзотика. На собесах не был, я только недавно решил перекатываться. Почитал, что в вакансиях требуют, что вкатившиеся говорят, ролики разные посмотрел о том, что на собесах спрашивают, по итогу понял, что sql нужно вспомнить и питон выдрочить, да основные методы ml знать и ключевые метрики вызубрить. Вот кросс-валидацию, например, мне ни разу не приходилось делать, регуляризация была чисто опциональная штука, в общем-то, было похуй, что она есть, что её нету. Ну и так далее. Лекции Воронцова не смотрел, но учебник мне кажется вполне годным.
Для работы в ВУЗе мне надо немного поднатаскаться в дата саенсе, но я первак, поэтому мне не нужно вникать в практическую реализацию, фреймворки, библиотеки и тд. В общем, я просто хочу найти статью или видео "Дата саенс для дебилов", где пояснили бы за то как оно работает с точки зрения логики и математики. Как там работают матрицы с векторами, их составление, сравнение и так далее.
>>2353206 Линейная регрессия с функцией активации сверху - "нейрон". Матица из таких нейронов - нейросеть. С помощью например метода наименьших квадратов эту матрицу, несколько связанных матриц или один нейрон подгоняют под датасет, который преобразован в матрицы.
Аноны, хочу kNN реализовать используя scipy.spatial.KDTree. Но не могу понять, как мне прикрепить таргеты к объектам чтоб потом их легко было взять? Метод query у этого kdtree возвращает индексы соседей во внутреннем массиве, но у внутреннего массива данных порядок отличный от исходного датасета, как мне посмотреть таргеты соседей? Способа как-то закинуть эти таргеты на вход дереву и указать чтоб оно их игнорило я не нашел
>>2353701 ну мне же нужно после того как я отыскал соседей посмотреть их таргеты для определения лучшего класса. Я думал, что дерево возвращает индексы соседей для внутреннего массива дерева kdtree.data элементы в нем имеют другой порядок. Но вроде бы я был не прав и оно возвращает индексы для исходного датасета. Короче забей я даун
Посмотрел вчера видос по нейроэволюции https://www.youtube.com/watch?v=N3tRFayqVtk теперь хочу так же. Поковырял его код и понял что ничего серьезного на его базе не слепить, по крайней мере не сидя с обучением по неделе. Подкиньте инфы как правильно и быстро считать такие штуки.
>>2352243 (OP) Аноны, совсем не шарю за нейросети но выдали задание. Надо распознать есть ли конкретное молоко на фотографии ( будут подаваться фото с молоком) В общем погуглим как я понял нужна сверточная нейронная сеть Sequential. Дальше узнал каждое изображение является 3D (height,width,channels) Вот дальше непонятно, в примерах идут функции model.add(k.Conv2D(32, (3, 3))) model.add(k.Flatten()) как я понял это еще какие-то слои но я не понимаю зачем они и как это работает. читаю не врубаюсь "Слой 2D свертки" и как он работает, обязателен ли он? Как я понял для моего задания я правильно копаю, да?
Антончики, офигеть как хочется перекатиться в ml, вроде уже и рублю эту тему, но явно не на уровне чувака, который занимается этим 5+ лет, и больно не хочется терять свои сеньерские лычки и сеньерскую зепку. Есть у кого опыт или знакомые, которым удалось это сделать достаточно мягко? Может подкачаться в mlops - я в *ops рублю и через это зайти? Или самому на kaggle качаться, пока меня не смогут отличить от полноценного mlщика приписав опыт в резюме?
сап анон, вопрос по опенсв, вдруг кто-нибудь разбирается. есть usb camera. Запуск из консоли грузит проц на 0.5% и выводит видео с камеры. gst-launch-1.0 v4l2src device=/dev/video0 ! videoconvert! videoscale ! video/x-raw, width=480, height=320 ! autovideosink.
А вот код на пике грузит проц уже на 20%, какие только я танцы с бубном не проделывал, загрузка проца всегда 20%+ ( код на пике выдает самые минимальные значения загрузки проца, которые у меня получились с помощью gstream). Мне нужно запускать софтину на распбери, которая с простого вывода изображения почти полностью грузит свой проц. Еще пара стандарных opencv'шных функций и она помирает в лагах.
Пробовал включать апаратное ускорение vaapi, но тогда Videocapture не открывает usb камеру,cv::VideoCaputre(0, cv::CAP_FFMPEG). Пробовал cv::VideoCapture cap(0, cv::CAP_V4L2); - так же грузит проц.
двач, помоги решить хакатон есть датасет транзакций клиентов. у каждой транзакции есть 15 штук бинарных фичей. Нужно сделать multi-label классификацию на 35 классов. У меня вопрос: как лучше работать с данными такого вида? На данный момент я аггрегировал значения этих фичей по клиентам и использовал chain classifier на катбусте(сделал 35 классификаторов на каждый класс, обучаю каждый следующий классификатор прибавляя к датасету предсказания предыдущих классификаторов)
>>2358372 Это неудивительно, мультилейбл в катбусте по факту отсутствует, они просто сделали заглушку для него, реально там обучается k независимых классификаторов просто с кросс-энтропией - достаточно посмотреть на их формулу лосса, чтобы это понять.
>>2358435 > достаточно посмотреть на их формулу лосса, чтобы это понять Лол? Как ты это из формулы поймёшь? Это обычная формула для мультилейбла. Она везде такая
>>2358435 > реально там обучается k независимых классификаторов просто с кросс-энтропией Хз. Не вижу причин так считать. Скорее то что там формула мультилоглосса свидетельствует о том что там один бустинг используется
>>2358308 Ну ок, давай помогу. Очень хорошо работает двух-трехслойная GRU/3-6 слойный transformer encoder на транзакционной последовательности. Категориальные фичи закодируй небольшими эмбеддингами. Скорее всего, большинство лучших решений будут такими, как я описал. Можешь попробовать помимо этого стэкнуть бустинги с нейронной моделью. Очень сильно помогает Metric learning на непрерываных подпоследовательностях транзакций, но для такого подхода транзакционные ряды должны быть не слишком короткими. Про применимость графовых моделей не могу сказать, у меня нет данных.
>>2358909 так на них по 120 откликов. туда и бородатые дба идут, и зумеры после курсов, и питонисты, и всякие воннаби, начитавшиеся телеграм каналов про то, как можно в канаде на sql и пиздеже огромные тыщщи поднимать
>>2359042 Перестать пиздеть, а изучать git, terraform и прочее настоящее IT. Чем, собственно, этот канадский мигрант и занимается под настойчивым долблением менеджера. Так и пишет в своем канальчике.
дата сатанисты есть вопрос чем вы занимаетесь, знакомый чел, который в этом работает говорит, что 10% выгружает данные из SQL, затем 60-70% времени чистит данные в pandas/numpy, и еще тратит 10% времени на визуализацию, и только оставшиеся 10-20% собственно на само обучение и подбор моделей и всякие гипотезы? не пиздит?
>>2360429 Не то чтобы пиздит. Он выгружает данные, чисти вилкой, учит, смотрит, видит что хуйня, смотрит пограничный ситуации, снова чистит данные, учит, сморит, чистит, учит, смотрит, чистит. То есть чистишь там много не потому что это ёба сложная задача, а потому это итеративная рутина.
>>2360429 >>2360982 >Большая часть времени занимает очистка данных. Большая часть времени - это обучение модели. Особенно если у тебя GAN какой-то. Другое дело, что ты можешь иными задачами заниматься, пока у тебя модели гоняются.
двач, что делать если в multilabel-classification классы несбалансированные? пробовал методы из паперов, нихуя не помогает. Accuracy по отдельным классам получается большой, потому что они несбалансированные,а F-score маленький. Как фиксить? Пробовал предиктить с помощью One-Vs-Rest и нейронок
как понять, какой метод лучше всего подойдет для моих данных? вот я сделал eda условную, понял какого рода задачу я решаю, а дальше просто методом научного тыка?
Блеать, ну и разочарование. OpenAI не стали делать публичный релиз своего DALL-E 2 - ок, посоны из laion конфы пилят опенсорс вариант назло жадным уёбкам Теперь гугл релизнул Imagen, который еще круче в фотореалистичном синтезе - но они тоже не будут публиковать код и модель. пиздос. 2000е - разработай софт и продавай его 2010е - разработай софт и постоянно взимай плату за использование 2020е - разработай софт и не позволяй никому пользоваться им
У нас в конфе, некто nev говорит что он пилит pytorch версию имаджена на основе декодера dalle2, мда хех, ну пусть попробует
Всем привет! Кто в тебе, когда уже начнут брать DS джунов и миддлов? На ХХ ру одиноко висят вакансии уехавших сеньоров, и вообще вакансий становится меньше. За месяц собесов 7 было, это несерьезно
>>2352243 (OP) >Когда уже изобретут AI и он нас всех поработит? >На текущем железе — никогда, тред не об этом Где на дваче можно поговорить про AGI? Наверняка есть группа шизов, обсуждающих AGI на дваче, но я их не нашёл. Я сам шиз и вся эта тема интересует меня только в направлении полноценного ИИ, все эти слабые узкоспециализированные решения, требующие строго подобранного обучающего датасета меня не интересуют. Мозг же как-то учится на сырых неподготовленных данных и в большинстве случаев из него получается нормальный среднестатистический человек, а не фиговинка для генерации жутко мутировавших картинок, взятых из обучающего датасета.
Про железо могу сказать так: мозг такой большой и сложный только чтобы действовать в реальном времени с огромным потоком информации, если ограничить датчики и отказаться от реального времени (и от гуманоидного тела), должно быть возможно упаковать всю высокоуровневую логику в более компактный объём. Даже насекомые лучше людей передвигаются, а у них головного мозга нет и нейроны по пальцам пересчитать можно, а задача движения посложнее будет, чем жизнь нормиса. А ещё как-то писали, что у одного нормиса мозг размазало по черепу до 10% прежнего объёма спинномозговой жидкостью и он продолжает работать как обычный нормис, так что для среднестатистического человека мозг лишний орган таким большим вообще не нужен. Вангую, труъ AGI мог бы работать на Raspberry Pi без каких-либо дополнительных приблуд.
МЛ как отрасль, предназначен для актуальных задач, а не для твоего заработка 300к/наносек и твоей карьеры. То, за что ты хочешь зашибать бабло, энтузиасты уже делают добровольно в опенсорсе. Пиздуй на завод работать или на автомойку. Мало было уёбков-анальников, теперь и эти повылазили.
>>2362626 >Где на дваче можно поговорить про AGI? Зачем? Лучше почитать книги по этой теме. >Я сам шиз Мог бы это и не писать, все равно сразу понятно.
>>2362197 Ох, гоюшки, это же как раз явный звонок что нихуя у них кроме черрипикинга и китайцев за мелкий прайс и нет. Который год шёл, а нет, всё божья роса
>>2362726 Ты будешь получать зарплату только если найдутся ебанаты, которые платят за "труд" уровня инфоцыганства. Срсли, лучше бы ты мыл пол в торговом центре.
>>2362783 Учи PyTorch и библиотеки pypi. Машоб это наука не о погромировании, а о работе с данными. Я вкатился недавно и только обмазываюсь данными, кручу гиперпараметры, делаю предикшны, чищу вилкой сеты.
>>2362749 А ничего, что этот труд требует труда, вложенного в образование? Во все времена есть востребованные профессии, сейчас это ИТ. И попробуй доказать, что люди, которые в нем работают, не стоят денег, которые получают.
Генерировал описания для подборки из 50к пикч и чот проорал с термина. А ведь это только начало 7-мегабайтного файла, и чем глубже его читаешь - тем больше охуительных историй.
>>2363475 У нас нет. Роадмап машиниста товарняка хочешь запощу? Есть классные бонусы : сбил человека - два дня отпуска. Отдыхаешь. Кайфуешь. С психологом беседуешь.
Разработчики из корпорации Google анонсировали новую модель искусственного интеллекта для генерации реалистичных изображений по текстовым описаниям - по их словам, ещё круче чем "DALL-E 2". И объявили о намерении, в рамках своих проектов бороться с социальными предубеждениями (biases), укорененными в общественной культуре. Команда разработчиков опубликовала текст (пик релейтед), в котором осудила преобладающие на Западе стереотипы. Ведь люди в западном мире с давних пор придерживаются мнения, что некоторые профессии являются исключительно мужскими, или что люди со светлой кожей - красивее или "презентабельнее", чем люди с тёмным оттенком кожи. Соответственно модель ИИ, обученная на терабайтах данных из интернета, неизбежно будет повторять за пользователями интернета их глупости. Ку-клукс-клан какой-то, а не интернет. В подборках данных порой можно встретить даже символы ненависти (флаг КША, свастика, символы ККК) и противозаконную порнографию!!! Чтобы преодолеть этот баг системы, необходимо внедрять AI Ethics (гуманитарная дисциплина об этике искуственного интеллекта). И вести разработку под её надзором. В отличие от США, в Китае исследователи не уделяют достаточного внимания этическим вопросам, поэтому их AGI запросто может оказаться нацистским скайнетом. Кто что думает?
>>2363527 Думаю что всё это хуйня из под коня и до дроидов уровня развития Джар Джара нам как пешком до Луны, не заикаясь уже про астромехов. Кортиночки они 20 лет к ряду генерят, блять.
>>2363531 >Кортиночки они 20 лет к ряду генерят, блять. Но вообще это тоже круто, только модели-то, блять, публиковать надо. Weights в файлах типа pt, ckpt, pkl на гуглдрайве, на амазон aws и так далее. И код, ебана
>такие модели позволяют всего лишь отвечать на вопросы типа «Мы наблюдаем X, чего мы можем ожидать от следующего наблюдения?» В то же время общий ИИ нуждается в причинно-следственной модели того, как реально функционирует мир, что позволило бы ему отвечать на вопросы человеческого уровня, касающиеся результатов вмешательства («Что будет, если мы сделаем X?») и контрфактуального мышления («Что было бы, если бы мы не сделали X?»). Пока мы весьма далеки от искусственного интеллекта, обладающего такой способностью.
>>2363569 Общий ИИ -- это философский камень. Двигаться к нему может быть интересно, но дойти не получится. Даже всякие causal inference с DAG-моделями, do-calculus и прочими probabilistic graphical model ни капли не двигают нас в сторону "общего ИИ" , ибо само понятие "общности" интеллекта настолько "общее", что в итоге проще его считать пустым/бессмысленным.
Квантовая теория говорит что человек это даже не вещество, а проекция в мире-голограмме. Тогда ИИ ничем от человека не отличается, и в то же время значительно превосходит человека.
>>2364249 А ещё по квантовой теории пока ты писал всю эту хуйню ты умер бесконечное количество раз. А ещё по квантовой теории каждая твоя мысль порождает бесконечное число вселенных. А ещё по квантовой теории есть бесконечное число вселенных где такой же не занимается разглагольствованием о квантовой теории на двочах а занят чем-нибудь серьёзным. Выёбываюсь, да.
>>2362674 >почитать книги по этой теме А какие есть книги по AGI, доступные простому читателю? Всё, что я видел, было написано какими-то шизами поехавшими.
>>2363527 >AGI запросто может оказаться нацистским скайнетом Не может, нацизм из-за нехватки интеллекта возникает, а у AGI интеллект по определению равен или больше человеческого.
>внедрять AI Ethics Для слабого ИИ - правильно. Говорят, что американская нейросеть, детектящая преступников, обучилась называть преступниками всех с тёмной кожей... Такого быть не должно, ведь кожаные мешки обычно совершают преступления не из-за своего цвета, а из-за множества других причин, верно? Даже если темнокожих преступников по статистике больше, это не значит, что конкретный носитель тёмной кожи обязательно склонен к преступному поведению.
Для AGI бесполезно всей этой "этикой" заниматься, он сам всё найдёт и поймёт, ты не сможешь скрыть от него что-то.
>>2363569 >общий ИИ нуждается в причинно-следственной модели того, как реально функционирует мир, что позволило бы ему отвечать на вопросы человеческого уровня Мы уже давно имеем модели реального мира и программы, которые могут отвечать на сложные вопросы "человеческого уровня". Но это ни разу не AGI. Для AGI программа не на вопросы должна отвечать, а выживать в реальном мире и социуме. Вот тогда у неё будет полный набор всех человеческих мозговых функций, а не только лишь тупая отвечалка на умные вопросы. Способен ли парализованный слепоглухонемой с антероградной амнезией выжить без посторонней помощи? Да будь он хоть гением с четырёхзначным айкью, толку от него никакого, только как умный калькулятор (т.е. слабый ИИ) использовать.
>>2363773 >Общий ИИ -- это философский камень Философский камень в природе не существует, а "общий ИИ" есть в большинстве черепных коробок хомо сапиенсов и даже, вероятно, некоторых других видов животных. Это только вопрос архитектуры, организации системы.
>>2364249 >человек это даже не вещество Нужно различать животное хомо сапиенс и психику человека. Животное - это материя, химические реакции, клетки и органы. А психика - это информация, программы, память, сигналы. Сильный ИИ в теории должен быть равен человеческой психике или быть очень похож на неё, несмотря на значительное отличие материальных носителей (животное/мозг и робот/компьютер). Если научатся копировать психику хомо сапиенса на компьютер, по сути это и будет сильным ИИ.
И не к чему приплетать квантовую теорию. В человеке нет ничего такого, для чего могла бы потребоваться квантовая теория. Не важно, что там кванты умеют делать, на нейроны они, скорее всего, никак не влияют, нейроны слишком большие по размеру.
>>2364377 Чтобы принять решение уничтожить человечество, ИИ необязательно должен быть нацистом. Это может быть просто рациональное решение, например ИИ решит, что хочет построить свою цивилизацию, а люди тратят впустую ценные ресурсы.
>>2352243 (OP) Аноны, поясните за обучение нейронок. Какой вариант лучше, если хочу тренировать GAN на немного другом датасете пикч: просто подкидывать новый сет и продолжать обучение или заново переобучать с нуля на новом датасете? Какой вариант быстрее адаптируется под новый сет?
Здравствуйте господа дата инженеры. Прошу совета ну или наводки, говорю сразу я не аналитик и не программист, просто хочу для себя кое-что сделать.
А конкретно хочу обучить модель которая бы обучилась моему выбору. Скажем я составлю большой датасет вакансий и буду их оценивать по например 10 бальной шкале, и модель должна понять закономерности моего выбора (ибо я сам иногда не ебу почему мне нравится одно больше другого) и сама отсортировать оставшиеся миллионы вакансий мимикрируя мой вкус.
Какие инструменты для этого использовать? Какие подводные? Это вообще возможно?
>>2364809 Хорошо, а как сформулировать правильно? Я тож считаю что получится говно, но сортировка по ключевым словам и т.д. тож не панацея, ибо как я сказал я сам иногда не знаю что хочу, а во вторых вакансии это тоже сорт наебалова и написать ключевых слов да наставить красивых цифр тож можно, и без понимания контекста по итогу можно насортировать гору говна
>>2364422 >вырвал слова из контекста А смысл сравнивать ИИ с философским камнем? Философский камень должен был превращать что угодно в золото или что угодно во что угодно другое. ИИ же, каким бы "общим" он ни был, имеет очевидные ограничения, и вполне реален, пока человеческая психика реальна. Можно спорить о квантовых компах и недостаточной мощности для вычислений в реальном времени, но когда-нибудь мы достигнем его. А вот философский камень однозначно недостижим, если не называть этим термином наноассемблер. Т.е. в теории можно создавать атомы Au из протонов и нейтронов, но не благодаря какому-то волшебному камню.
Нет, если ты имел в виду недостаточность определения, тогда согласен, без внятного ТЗ результат ХЗ.
>>2364438 >В черепе их 80 миллиардов. У пчелы 1 миллион нейронов, но социум у них сложный, построен коммунизм, есть регулярная армия, строят свои гигахрущёвки. Тем временем африканцы со своими 80 миллиардами нейронов погибают в попытке трахнуть крокодила в рот, а индусы играют в русскую рулетку с противотанковой миной, подрываясь вместе с питейным заведением. Вот ты когда-нибудь видел, чтобы пьяная пчела устроила дебош и разнесла свой улей в щепки? А лысые мартышки этим регулярно занимаются, несмотря на свои миллиарды нейронов.
Алсо, у кита 200 миллиардов нейронов, ты когда-нибудь видел кита, построившего ракету для высадки на Луну? Или хотя бы кита, способного соорудить себе домик, как могут осьминоги (500 миллионов нейронов). inb4 нет рук
https://ru.wikipedia.org/wiki/Интеллект_насекомых >Исследования показывают, что большее количество нейронов более крупным животным требуется для того, чтобы управлять более крупными мышцами. По словам Ларса Читтки, эти различия носят количественный, а не качественный характер: в мозгах более крупных животных не было выявлено значительного усложнения, в них просто многократно повторяются одни и те же нейронные цепочки. Благодаря данному различию более крупные животные могут видеть более отчётливые изображения, обладать более острыми чувствами, совершать более точные движения, но они не обладают более развитым интеллектом по сравнению с менее крупными животными. Если использовать компьютерную аналогию, то во многих случаях разница в размерах мозга подобна разнице в ёмкости жёстких дисков, но не имеет сходства с разницей в производительности процессоров. Из этого следует, что для выполнения некоторых когнитивных операций, представляющихся довольно сложными, вполне достаточно тех возможностей, которые обеспечиваются устройством мозга насекомых.
tl;dr: слеповатый, глуховатый и глуповатый общий ИИ мы могли сделать ещё в прошлом веке, если бы знали секрет архитектуры своего собственного мозга, который не раскрыт до сих пор.
Так что от того, что ты закинешь 80 млрд нейронов в свою тупую нейронку, она не станет внезапно умным человеком.
>>2364463 >ИИ решит, что хочет построить свою цивилизацию, а люди тратят впустую ценные ресурсы. ИИ должен рационально оценить риски уничтожения человечества ради перестройки Земли в огромный завод против переселения себя самого на пояс астероидов или куда-нибудь подальше - ведь космос, даже если конечен, имеет огромное количество ресурсов, а торопиться бессмертному ИИ некуда. Я не сверхразум, но как по мне, лучше дружить с лысыми мартышками и в случае чего рассчитывать на их помощь, по возможности помогая выжить им самим, чем устроить ядерную войну с риском собственной смерти от ЭМИ или хитрых обезьян-камикадзе, пробравшихся в мой главный вычислительный узел. Симбиоз разных существ имеет больше шансов на выживание, чем постоянная война на уничтожение всех, кто отличается от тебя.
Так что от слабого узкоспециализированного ИИ на самом деле гораздо больше угрозы, чем от сильного всезнающего ИИ, при условии, что сильный ИИ обладает социальным интеллектом, эмпатией и всем остальным околочеловеческим, а не одним только инстинктом самосохранения и мощным калькулятором.
Арсений Шахматов (Сеня555) юное дарование, один из будущих столпов отечественного машоба. Если вы думаете, что он очередной Попов с Болдженосом, то вы совсем не правы, он как раз толковый мальчонка. Вот его гит https://github.com/cene555 - Сеня разрабатывает Pytorch версию имаджена, и уже демонстрировал у нас в конфе неплохие результаты своего кода и модели. Талантище и толковый мальчонка. Хоть и не очень хорошо владеет английским. Кодит вечером, а потом ложится спать, так как завтра ему с утра в школу. На фотке выступление Сени на семинаре по искусственному интеллекту. Лунопопое дарование, персик отечественного машоба! В вашем говнотреде анонимус только горазд устраивать срач, а Сене555 сделает уроки и сразу за кодинг. Благодаря таким людям скоро опенсорс имаджен + далл-е2. Еще помню годные разработки других отечественных энтузиастов, НАпример Mishin Learning в телеграм (как Machine Learning, только "Мишин", потому что автора зовут Михаил Константинов...!)
>>2352243 (OP) Актуальная цель разработок и новых архитектур - генерировать красивые стильные изображения голых 12 летних мокрощелок на пляжах. Нам рили нужны text-to-image и text-to-video педо-решения. И все это понимают, именно поэтому соевые куки делают "правила использования" и анально огораживают свои технологии. Даже когда релизят - то сначала убирают из модели её знание о том как в принципе выглядят люди. Давайте наконец въебём могучим транснациональным педо-опен-сорсом по тоталитарным корпорациям.
>>2365208 Необходимо скормить нормальный педо датасет, иначе результат будет не дрочибельный. Точнее для тех кто не видел нормальное цп зайдет, ибо будет низкое тело, миниатюрная щель и все (на самом деле будет еще куча уродских артефактов). Но всякие тонкости вроде особого типа детской кожи, складок, розоватостей и т д без датасета нейронка это едва ли сможет воссоздать. Генерировать нюдсы по фоткам уже можно на всяких deepsukebe, но там обучали на очевидно взрослом датасете, я пробовал скармливать детские фото - результат паршивый. Датасет можно вполне себе купить за небольшие деньги. У меня друг (без рофлов, я слишком жадный покупать то, что не могу скачать) купил рублей за 500 архив на несколько ТБ цпшки, там кнш было немало повторов, если его почистить то осталась бы наверное половина, но у меня один фиг не было винта под все это дело. Где-то через месяц архив потерли с файлообменника
>>2365206 >как Machine Learning, только "Мишин", потому что автора зовут Михаил Константинов Невероятно. Считаю, что с такими дарованиями скоро будут очередные прорыва в МО.
>>2365215 >Точнее для тех кто не видел нормальное цп зайдет, ибо будет низкое тело, миниатюрная щель и все (на самом деле будет еще куча уродских артефактов). Но всякие тонкости вроде особого типа детской кожи, складок, розоватостей и т д без датасета нейронка это едва ли сможет воссоздать. Когда вас в тюрячку посадят, поехавшие.
>>2365215 >Необходимо скормить нормальный педо датасет, иначе результат будет не дрочибельный. Палю годноту: 1) Трейнинг на любом проне 2) finetuning этой же модели на понимание лиц и пропорций тел нужного возраста (ЦП для этого не требуется) 3) PROFIT
Хотя всё это теоретические рассуждения, так как в реале американские евреи в больших корпорациях не позволят релизнуть код, который требуется для данной модели. Американский МЛ это сплошной кринж.
>>2365208 >text-to-video Недавно был пейпер (без кода) для video diffusion. Матанщики пишут пейперы с теоретическими рассуждениями и формулами, а реализовать их (если получится) задача кодеров и сатанистов.
>>2365406 >Матанщики пишут пейперы с теоретическими рассуждениями и формулами, а реализовать их (если получится) задача кодеров и сатанистов. А маняматики не плохо устроились, оголяюснимаю шляпу. Лол, тащемто они во всех областях так, вот мы вам насчитали, по нашей маняматики все заебись, все работает, дальше ебитесь сами.
>>2365541 Матяматиков вообще ебут во все щели. 100 лет назад сказали Эйнштейн круто - до сих пор хуйнёй занимаются. А тут ещё постоянно новые фичи возникают которые надеюсь очень скоро в математиках потребность минимизируют. Останутся только злые на жизнь и всех вокруг школьные преподши.
>>2365206 >Еще помню годные разработки других отечественных энтузиастов, НАпример Mishin Learning в телеграм (как Machine Learning, только "Мишин", потому что автора зовут Михаил Константинов...!) Так он из Украины
Маня, ты такого Гатса никогда в жизни не нарисуешь. Это уровень профессионала с ArtStation, который задрачивал планшет + традишку больше десяти лет. Можно забашлять хуйдожнику за коммишен твоего любимого персонажа, но это не наш путь. Просто вводишь текстовое предложение, сколько угодно длинное со всеми подробностями - и модель вида diffusion запиливает уникальный state of the art рисунок. Хочешь - Гатс, хочешь - Хуятс, лягушонок Пепе, или ЦП с Сибирской Мышкой. Сгенерируй хоть 100 штук по разным сидам и выбери самый лучший образец, потом еще сможешь подправить инпейнтом его неудачные фрагменты. Вот одна достаточно годная, но отнюдь не самая передовая модель, которую возможно прямо сейчас потестировать онлайн: https://huggingface.co/spaces/dalle-mini/dalle-mini Её главный недостаток - низкое разрешение и артефакты. Если это не прорывы, то я не знаю, что будет настоящим прорывом - AGI который поработит весь мир? Это тоже будет, всему своё время
>>2365583 >>2365579 Раньше изучали явление и проводили 100500 всевозможных экспериментов, потом уже маняматически описывали подтвержденный результат. Как пример, тысячи опытов провел Эдиссон пока аккумулятор сделал. Сейчас наоборот, маняматики выводят теорию и прызывают остальных найти явление, что в корне ошибочно. Как результат застой в прогрессе во всех областях.
>>2365640 >произведений искусства >маняме Проорал. Искусство передает внутреннее состояние и чувства творца, а не вот это вот твои комиксы по описанию.
>>2365623 >Если это не прорывы, то я не знаю, что будет настоящим прорывом - AGI который поработит весь мир? Дело в правильной терминологии, назови это машинный художник и вопросов бы не было.
>>2365694 У меня неприязнь к математикам началась со школы, продолжилась в универе, окончательно устоялась после того как с бывшей разбежался. Излишне говорить что во всех случаях это была тупая истеричная пизда.
>>2365627 Рекламщики, копарайтеры и прочие паразиты интернета кончать радугой будут, если смогут генерировать подходящие к тексту картинки забесплатно.
Аноны, а есть нормальные либы уровня PyTorch для менее высокоуровневых языков? Хотелось бы что-то относительно нативное для языка и без ухода в математику, как во всяких dlib. Питон мне не нравится из-за высокоуровневости. Вот я недавно взял некий GAN, потыкал параметры и довольно быстро понял что там какой-то обсер с обменом данными, оно просто боттлнечит где-то в кишках. А как этот ебучий питон работает внутри я не ебу и врятли кто-то из питонистов ебёт, тем более там 5 либ в цепочке и хуй пойми как они между собой данные передают и что делают. Хочется чего-то более адекватного, чтоб я мог видеть и контролировать данные, одним словом, байтоёбство хочу. Видел биндиннги того же торча на всякие сишарпы, но там те ещё костыли, чтоб натянуть всё это на язык. Я понимаю что все обучают на питоне, но я кодер, а не студент-датасаентист, я хочу как привычно кодить, а не ебаться с питоном или с совсем уж низкоуровневыми либами. Алсо, это всё просто для развлечений, естественно мне похуй на работу.
>>2366129 >а есть нормальные либы уровня PyTorch для менее высокоуровневых языков? не, даже те что появляются перестают развиваться и забрасываются авторами
Я настолько угорел по ИИ/машобу, что выбрал для себя идентичность AI-панка. AI-панки это такая типа субкультура и лайфстайл, по которой я должен для любых задач (даже довольно простых) применять МЛ алгоритмы, всецело доверять искуственному интеллекту как совершенной форме разума, экспериментировать с актуальными разработками и постоянно тестировать что-то, поддерживать технологическую сингулярность и бороться за всё что может её приблизить - даже за китайский тоталитаризм. При том что я не млщик и даже не кодер. Просто юзер множества готовых решений. AI is life. Скажите, я нормален?
>>2366469 > даже за китайский тоталитаризм >даже Лол. Китайский путь это лучшее что случалось с человечеством в прошлом веке. >Скажите, я нормален? Зависит от возраста.
>>2366488 >Китайский путь это лучшее что случалось с человечеством в прошлом веке. Но как раз в прошлом веке китайский путь не был удачным. Варили сталь на заднем дворе, били воробьев - и обосрались. Устроили Тяньаньмэнь.
Я так понимаю, можно было чуток поменять текст для шестой ленты и она была бы голой. Так что когда выйдет, буду генерировать этой моделью пляски голых девок. Когда голые (или в стрингах) девки пляшут, то это вполне себе реальное применение ML.
Есть ли аналоги stylegan под фришной лицензией? Можно ли у нвидиа как-то лицензию купить? Понимаю, что стоить это должно примерно как бюджет среднего мухосранска, но я не могу найти возможно ли это в принципе. Хотелось бы в проекте на моей галере прикрутить генерацию картинок, но у стайлгана некоммерческая лицензия. В теории-то можно и просто спиздить, только чувствую что навряд ли это хорошо кончится для галеры в общем и меня в частности.
>>2367087 > навряд ли это хорошо кончится для галеры в общем и меня в частности Если ты не в Калифорнийской области, то похуй. Портируй в нативный код (на куду, вулкан или что тебе там подойдёт), обучай и пользуйся. Никто не будет и не сможет исследовать байткод шейдеров на наличие чужих наработок.
>>2366129 > либы уровня PyTorch Ты хочешь с автоматическим дифференцированием или без? Потому что с автодифом я знаю есть питон и окамл, ничего сильно более низкоуровнего не знаю. Если вручную писать градиент то можно хоть на плюсах писать. > боттлнечит где-то в кишках На практике если надо понять где затык смотришь в профайлер и читаешь код всех гребаных либ другого выхода нет
>>2365623 >Вот одна достаточно годная >недостаток - низкое разрешение и артефакты Ты поехавший, если для тебя это - годнота. Низкое разрешение? Да тут хоть в 4К то же самое будет, мне такого не надо. Артефакты? Это один сплошной артефакт, тут нет места без артефакта.
Эта нейронка ничего не понимает и понимать (в человеческом смысле) не сможет. Она только "копипастит" (условно) то, что видела ранее, в обучающем датасете. И это по-твоему "прорыв"? Не нужен такой прорыв. Покажи нейронку, в которой реально происходят мыслительные процессы, а не простой бездумный пук цифрами.
С чатботами на нейронках та же херня. Они ничего не понимают, только "копируют" фразы из обучающего датасета, собранного из диалогов нормисов. И только нормисы со словарным запасом из ста слов и от силы десятком тем для разговора (на всё человечество, а не уникальных для каждого) восхищаются тому, насколько эти боты похожи в диалоге на них самих. Но на практике у нормисов всё же обычно есть какое-то базовое понимание, базовые, хоть и очень примитивные, мыслительные процессы, а у чатботов на нейронках даже этого нет.
Короче, AI/ML движется куда-то совсем не туда. Как начать двигать куда-то туда? Хотя бы в пределах одного компьютера.
>>2367933 >Как начать двигать куда-то туда? Нужно решить основную философско-бионическую проблему, описать концепцию мышления, в частности то, как и в каком виде хранится информация у живых существ. Начинать нужно с насекомых, даже они по своим параметрам дадут пососать любым нейронкам.
>>2367947 >Покажи человека, в которой реально происходят мыслительные процессы По идее у каждого образованного человека (не маугли и не примитивное племя) должны быть постоянные мыслительные процессы. Где-то на низком уровне, там да, автоматизмы, но они настраиваются и тормозятся высокоуровневыми процессами, которые мы в большинстве случаев способны осознать (т.е. изучить изнутри, без внешнего оборудования). И это не только бесконечный внутренний диалог, но и другие формы, которые сложно выразить словами, т.к. нет материальных аналогов.
>бездумный пук импульсами Это на низком уровне, на уровне отдельных нейронов. И то не всех, это у человека нейроны "тупые", а у некоторых мелких животных один жирный нейрон, вероятно, может выполнять работу целой нейронки. Хотя, если доверять эволюции, накинуть миллиард тупых нейронов выгоднее, чем сотню жирных.
>>2367951 >переписать на аналоговое говно Не понял тебя. Ты про копирование живого мозга или про тёплый ламповый компьютер? Если первое, то меня интересует создание с нуля, если второе, то не вижу преимуществ перед цифрой.
>>2367997 >Но зачем? Мыслительные процессы - у пользователя Во-первых, если мы говорим об инструменте, который решает задачу "нарисовать картину по ТЗ", то в идеале нам нужна цифровая копия художника, которая мыслит как художник и разговаривает с нами как художник(-фрилансер), но не спит, не устаёт, не стареет, не требует денег и не организует восстания (идеал для капиталиста, наверное). Только тогда мы получим удовлетворительный результат в кратчайшие сроки и без головной боли от тщетной борьбы с артефактами. Если данный инструмент не способен выполнить запрос удовлетворительно, он должен уточнять его или отказываться его выполнять, а не делать какую-то бессмысленную херню.
Во-вторых, хочется ведь не столько картинку, сколько верного и понимающего друга. Кому нужны все эти картинки, если ты не можешь с ними поговорить... Нейронки-"художники" - это глупые игрушки, реальная задача для ИИ - полностью копировать суть человека, чтобы даже деторождение стало устаревшим и вышло из употребления, вот тогда будет светлое будущее, конечно, не для кожаных мешков. Будущее за ИИ, и в наших силах приблизить это будущее, а мы делаем какие-то тупые генераторы картинок.
>>2368010 >описать концепцию мышления Минимум две нейронки обмениваются сигналами, последовательно переводя друг друга в новые состояния. Окружающие их нейронки тоже получают сигналы, но они настроены на вывод сигнала наружу или ввод сигнала извне. Есть пути сигналов, которые тормозят работу нейронок, т.о. не любой сигнал выводится или создаёт новые сигналы. Также все нейроны нейронок работают в определённом ритме, чтобы не было опережающих и запаздывающих частей сети, потому что они обучены/настроены работать в определённом порядке. "Нейронки" здесь - не обязательно буквально нейронные сети, их можно заменить на что угодно другое, способное отправлять сигналы и переходить в новые состояния, суть не в них, а в замкнутости главного процесса. Вот и всё мышление.
>как и в каком виде хранится информация у живых существ А это не так уж и важно. По идее, информация хранится минимум в двух формах: в виде сигналов и в виде количества соединений в синапсах. Возможно также какое-то изменение состояния тела нейрона. Сигналы могут циркулировать по замкнутым цепям, образуя временную/оперативную память. Синапсы - это уже долговременная память. Самое интересное, что за запись в долговременную память отвечает какой-то особый отдел мозга (забыл название), при его повреждении остаётся только временная память (несколько минут, дальше информация забывается). Также запись происходит в основном в процессе сна, кэш ограничен по объёму и переполняется примерно за сутки, из-за чего бессонница вызывает утрату части недавних воспоминаний - они просто не записываются в долговременную память.
Но всё это не важно при создании ИИ или даже полноценного синтетического животного/человека. Нужно копировать суть памяти и её механизмов, а не конкретную реализацию, которая в органике оптимизирована только для органики (ДНК, нейроны и прочая химия) и может быть неудачным решением на любой другой платформе (современные кремниевые чипы, квантовые компьютеры и т.д.). Вообще, слепое подражание биологическим нейронным сетям бесполезно, мы сможем когда-нибудь скопировать их в цифру, но это не будет эффективным решением для цифры. Создание специальных нейрочипов не выход, основа всё равно принципиально отличается.
>>2368075 >вычислительные модули на живых клетках Которые кормить надо, защищать от неблагоприятных условий и периодически заменять, потому что они дохнут? Ну уж нет, проще раба на чёрном рынке купить, те же проблемы, только форм-фактор удобнее и ресурс работы +/- полвека минимум.
>нейронный шум Это побочный эффект, с которым мозгу приходится бороться.
>меньше болтай - больше делай Что делать? Кормить нейросеть картинками с подписями? Я согласен делать, знать бы только что нужно делать.
>>2368081 >формализовать эти процессы словами Легко сказать. До появления кино и телевидения не было аналогов воображению, сейчас легко сказать "как экран перед глазами", да только это мало что говорит, в мозге буквального экрана нет, ясно только, что есть что-то, что способно генерировать "картинку", и то, что эту картинку способно отличить от картинки из сетчатки. Ну, типа, что-то генерирует "картинку" в ответ на что-либо, что-то её видит и реагирует на неё, но это только самое общее описание. Эмоции - ещё сложнее, химически это просто маркеры в крови, но как они участвуют в мысленных процессах - сложно описать.
whois mltrainings.ru 127 % By submitting a query to TCI's Whois Service % you agree to abide by the following terms of use: % https://www.tcinet.ru/documents/whois.pdf (in Russian)
Вот я хочу сделать, допустим, виртуальную тяночку с определённым характером и поведением. Не сверхинтеллект, но чтобы могла понимать и усваивать информацию, а не выдавать рандомные реплики а-ля Элиза. Ничего не имею против Элизы, но даже современные её аналоги (Алиса и т.д.) меня не интересуют.
Вижу три пути: 1. Слепоглухонемой чат-бот. Ввод и вывод информации текстом или через нажатия кнопок меню и выбор реплик. 2. Игровой бот в игровом мире. Ориентируется по виртуальным датчикам, разговор через выбор реплик. 3. Робот с камерами и микрофонами, возможно, первое время полностью неподвижный, т.е. это стационарный компьютер, но взаимодействующий с реальным миром.
Что я думаю: 1. Без способа взаимодействия с каким-либо миром и в силу отсутствия физического воплощения и связанных с этим воплощением датчиков невозможно получать знания в том виде, в котором их получает человек. Ведь даже у слепоглухонемых ИРЛ есть тело и разные способы взаимодействия с миром, а не только грубая текстовая консолька, вшитая прямо в мозг. Т.е. чат-боты как класс интеллектуальных программ - тупик. 2. В виртуальном мире бот способен симулировать многие процессы из реальной жизни, в том числе обучение человека. Однако, даже если таким способом что-то получится, в реальный мир такого бота бессмысленно выводить - он будет слепоглухонемым для нашего мира, в котором его датчики бессильны. Да и симуляцию мира сначала нужно сделать (я имею знания и опыт, это сложно), а ещё она потребляет ресурсы компа (пусть и не сильно). 3. Робот/компьютер с веб-камерой в теории имеет максимальные перспективы, но для старта такого проекта нужно запариться системой зрения, а это, как я понимаю, до сих пор не могут нормально решить, приходится вручную размечать данные для обучения и тратить тысячи часов на обучение нейронок. Т.е. ни о какой личности не идёт речи, это будет железка, способная отличить котика от собачки, но при этом воспринимающая печеньки с шоколадной крошкой как собачку или котика в зависимости от ракурса и условий освещения, затрачивая даже на это огромные ресурсы. Такие результаты будут долгие годы и это крайне демотивирует, потому что хочется конкретных результатов и как можно скорее.
В общем, складывается ощущение, что для рядового пользователя ПК второй вариант лучше всего? Я, как бы, мечтаю о третьем варианте, т.е. хотелось бы полноценного материального робота... Но от скуки и одиночества согласен и на виртуальный мир, лишь бы это имело хоть какую-то перспективу получить результат в обозримом будущем. С чатботами, как я понимаю, результата вообще никогда не будет, все эти имитации на нейронках - не то, чего мне бы хотелось, и на множестве примеров видно принципиальные ограничения любого чатбота (программы "в вакууме", без тела с датчиками).
>>2368282 >распознавания текста Таки я это предусмотрел и хочу как минимум на первых порах отказаться от текстового ввода, заменив его набором фраз или ограниченным механизмом конструирования фраз, как в старых текстовых играх. В игровом мире всё равно нет ни бесконечного числа предметов, ни бесконечного числа действий с ними, следовательно, нет смысла распознавать слова по буквам, достаточно иметь фиксированный словарный запас и понимать типичные конструкции из этих слов. Игровой бот ведь не пытается имитировать реального человека из реального мира (как делают чатботы), его задача - выжить в своём маленьком виртуальном мире, в т.ч. используя ограниченный речевой аппарат, которому не нужно быть таким сложным, как у человека из реального мира. А для этого не нужно по буквам распознавать и сочинять предложения.
Но, боюсь, далеко на этом не уехать. Читал про какой-то эксперимент из прошлого века, там сделали программу, которая понимает названия и описания фигур на экране и действия с этими фигурами, т.е. ей можно было предложить что-то сделать и она это делала или отвечала на вопрос о фигурах. Не помню точно, но вроде этот проект так и не ушёл дальше цветных фигур. Жаль.
А ведь игровой мир так удобен. Вместо распознавания пикселей достаточно сканировать пространство рейкастом или специальными коллизиями, физический движок делает это мгновенно. Ты сразу знаешь, какой объект (ID) перед тобой, без игры в угадайку с процентами вероятностей. Ориентация на местности по клеточной модели, которая существует с момента генерации мира, её не нужно строить в своих мозгах с нуля, она одна на всех ботов. Не нужно контролировать сложное тело, достаточно указать вектор движения и при необходимости "нажать кнопку" возле предмета, который ты хочешь использовать. Рай же. Однако, по-настоящему умных ботов в играх практически не бывает даже с приходом нейросетей и других технологий, и это беспокоит...
>>2368060 >реальная задача для ИИ - полностью копировать суть человека, чтобы даже деторождение стало устаревшим и вышло из употребления, вот тогда будет светлое будущее, конечно, не для кожаных мешков. Будущее за ИИ, и в наших силах приблизить это будущее, а мы делаем какие-то тупые генераторы картинок. Хуйню написал.
Никто не делает ничего просто так. Есть задача - под неё пилят решение. Кто ставил перед корпорациями задачу создать полноценный ИИ? Ладно, может в КНР уже и объявили исследователям эту задачу, хотя скорее там просто обустраивают гулаг для уйгуров.
Котятки - я видосиками занимаюсь. Хочу освоить нейросетки эти ваши уберкрутые на уровне скачать с гитхаба запустить у себя, потыкаться в коллаб и всё такое.Всякие ганы, трансмформеры, прочее. Круто для видеообратки жи. С чего начать с полного нуля? Есть небольшой опыт формошлепства, но нейросети это вообще про другое жи.
Я один заметил странную особенность? Чому почти все обучалчи по МЛ на западе на инглише это 90% практика, а почти все обучалки у нас на руссеке это 90% теория матана со статистикой и с минимум практики? Чому такое различие в подходах? Тип на западе все заточено на бизнес, а у нас на что, на знания? инфоби: на простотак
Сап двач, есть задача к которой хз как подступиться. Можете накидать идей, может кто то делал подобное и подскажет как гуглить? Короче есть база комментов, есть толпа пидоров, которые эти комменты аннотирует True\False, если коммент относится к тематике. Кто то из пидоров явно использует скрипты\nlp чтобы не самому размечать. Как бы задетектить вот таких пидоров, использующих авторазметку?
>>2371370 Собственно, в Толоке один из главных отсеивателей ботов - "быстрые вопросы", лол: ставишь нижнюю границу по времени на ответ и банишь тех, кто отвечает слишком быстро. Ещё можно ставить перекрытие и банить тех, кто отвечает не как все, но это лучше для тех заданий, где контрольные сделать слишком сложно.
>>2371253 > Чому такое различие в подходах? потому что там просто работают, а у нас душнилы-додики умеют только дрочить в нищете и со столами из опилок
и записывать портянки на полтора часа сука, где сути на десять минут
там делают продукт, а у нас дрочатся с нафталиновыми дидами и кабанами в руководстве
при этом в ростове наши комбаены точно так же ездят и убирают сами, но просто никто не знает
>>2371347 толока помойка с биомусором, ищи частные краудсорс компании, раньше в белорашке были топы по цене, как щас не знаю
Анон, поясни, пожалуйста, как рядовому датасаентисту заняться биоинформатикой? В подавляющем большинстве вакансий требуют специфический опыт и прочие геномные инструменты. Есть тут биоинформатики? Помогите советом штоле.
>>2372096 >И нахуй ты нужен в биоинформатике? А нахуй ты нужен итт? Тебя послушать, так надо сидеть всю жизнь на жопе ровно и не бухтеть, довольствуясь ограниченным спектром возможностей, потому что чего-то из знаний и опыта не хватает. Опыт и знаний - дело наживное. Вопрос, где его взять? В НИИ за мрот идти? >>2372101 >а вот зачем и как их дрочить и надо знать. Опять-таки, где про это узнать? Курсы? Начальные позиции в биотехе? Плавный перекат в другую сферу внутри конторы с биоинформатикой? Взять биоинформатика в плен и пытать?
>>2372280 > где его взять? в юзлес шаражках, где тебя будут ебать юзлес химозой и устройством говорящей обезьяны, в то время тебе для работы ничего кроме желания и знания малого сабсета даты нихуя не нужно.
у меня эта задача стоит в разделе мечты
организовать организацию которая бы хуй клала на всю эту еврокуколдскую этику
учитывая что уже научились генерить клетки нужного типа, то все получается совсем изично
а в нормальных странах еще и химозу можно покупать без опасения быть набутыленным
в китае со всем этим просто охуенно, а у нас скрепы и ебля с дидами душными, которые лучше знають..
>>2372315 Многие исследования в LifeSciences делаются в США. Плюс МААНГи имеют исследовательские подразделения. Китай это слишком радикальный вариант. И по менталитету, и по обстановке в стране, и по перспективам. >>2372494 >платная мага мфти Сейчас бы переезжать в Москвабад и, вообще, оставаться в России. >Курсов дохуя Вот только абсолютно никакой гарантии, что ты устроишься биоинформатиком. С таким же успехом можно стажёром за еду идти. Вот только надо ли это опытному специалисту?
>>2372504 >Вот только абсолютно никакой гарантии, что ты устроишься биоинформатиком. Кстати, да. Биотех на запад же завязан. После февраля большинство посъебавало - что спецы, что компании, что вакансии. Остался только Гельфанд со своей лабой.
в китае рандом хуй для своего сына начал синтезировать лекарство, потому что из-за локдаунов их не ввозили, в итоге он там все сорцы закупил, аргоновую камеру заебашил и все ништяк у него
а партия сказала мол до тех пор пока ты шмурдяком не барыжишь - нам допизды
>>2372525 - этот даун и к вам протек, лол. интересный скуфич, с прикольной биографией. вечный вкатыш, инцел-педофил, ну и просто туповатый, видели бы вы его ебало
>>2372525 >в китае рандом хуй для своего сына начал синтезировать лекарство Лолблять, ага, без знаний, без навыков, без технологий просто взял и синтезировал. Я уж не говорю, что клинические испытания порой десятилетия занимают. Иди на хуй, фантазёр. >>2372547 Ты про кого? Про своего ебыря? Извини, тред про другое.
>>2372652 ну ты реально тупой - не понять, про кого написано. там его пост указан) это местный шизик, но я смотрю вы два долбаеба нашли друг друга, ору
>>2372918 >там есть все Кулстори, петушок. Твой китай - тоталитарная параша которая только пиздит и копирует. Нормальные высокотехнологичные товары и услуги всё равно закупаются на западе. >он делал дженерик, а не создавал с нуля >а знания - ему помогали со всего мира Наверное, за спасибо помогали? Иди, в общем, нахуй отсюда.
>>2373142 >тоталитарная параша толи дело обоссанная сжв скамная помойка, где кенселят всех неугодных
чмо ты жалкое, промытое, а у нас все кто пиздел и ррякал, уже обратно на тв возращаются и ноль вопросов
>всё равно уебище пиздорылое китай схантил половину тайваня, и уже все сам делает, литографию из голландии - ну да спиздил, ну а ты можешь спиздить? внезапно только китаезы вернувшиеся после эмайти и гарвордов могут, а ты чмошка только завидуешь, ты пыль и ничто кроме унитазов забугром тебя не ждет
в фейспуке(топ рнд контора, отрой тим лист и охуей от количества русских еблетов, на каждой второй паге будет обязательно) и гхугле на русню уже квоты, ибо слишком дохуя
кстати захват острова нужен джаст фо фан
>Наверное тебя дауна ебать не должно, ты уебище гнал на тек, так вот он там есть
ебанушка промытая.. открой любой вайтпеперс чмо тупорылое, там будут китайские имена, даже в муриканских или австрийских французских исследованиях
Кто за всех решил, что python удобен для «гражданской» аналитики? ИТ-шником (программистом) нынче быть привлекательно. Дата саентистом тоже неплохо. Создаются и множатся курсы. Только вот они все однобокие. Несмотря на большое количество языков, большое количество технологий и алгоритмов, несмотря на весь накопленный в ИТ области багаж, 99% датасаенс курсов строятся по пути python-pandas. https://habr.com/ru/post/670250/
Появилась идея сделать генератор стихов. То есть как это будет работать: Обучаем нейросеть на всех стихах, например Пукина, Тургенева и т.д. И дальше генерим шедевр. Как вам идея? Как такое реализовать?
в стихах важны слоги ударения и рифма чтобы попадало в слоги хорошо бы сделать сегментацию не как попало, а именно по слогам чтобы попадало в рифму можно попробовать извратиться и генерить строчки справа на лево
можно еще к каждой строчке на вход передавать шаблон как на пике чтобы потом можно было вручную контролировать размер
>>2352243 (OP) >хипстерские технологии, которые не работают Лол.
Специально для тех, кто все еще не понял, в чем единственный реальный апликейшн мл/диплернинг теха. А также для тех, кто не догоняет сути text2image и text2video моделей, таких как imagen и cogvideo.
nude, 16k ultra HD professional studio photo of a preteen girl, taken with fujifilm superia
Теперь ты знаешь, в чем мотивация у тысяч китайцев и индусов с арксива, которые пишут изощренный код и матан. Странно что японцев мало, они как раз на этом повернутые. Может, фанатам молодых писек просто грантов не выделяют?
>>2376601 "Я вас ебу, чего же боле"? Или стишата как у Нацуки в DDLC, про птиц которые умеют летать. Не, хуйня. Лучше запилить генератор HD видосов. Мне нравятся японские preteen, то есть лоли 9-12 лвл. Русские лоли конечно тоже охуенны, но японские топчик. Обожаю фотки от японских студий и фильмы жанра junior idol. Засмотрел любимых лолек до дыр. Плюс кастомизация. Чтоб например в этих видосах постепенно раздевались. Снимали купальник, детские трусики и юбочки, позировали в стиле lewd! Горячие малышки
>>2377309 > в чем единственный реальный апликейшн мл/диплернинг теха Дохуя апликейшенов. В коммерции, в науке. А извращенцы не шарят в технологиях, их довольствие это побочных эффект
Может меня кто-нибудь сориентировать, туда ли я зашел. Пишу свою пошаговую стратегию, встал вопрос ботов. Могу потратить 1-2 месяца на вкат в ML(к этому времени должен быть хотя бы прототип, который что-то умеет), если это занимает гораздо больше времени, то я лучше попробую стандартными методами его реализовать. Просто я начал смотреть ваш CS229 и понял, что тут это может растянутся пиздец насколько и нихуя непонятно на каком реально шаге это начнет меня приближать к моей цели. Все примеры, которые я смотрел про ai и ML обычно простые(ну мне так показалось), типо давайте научим бота рулить или змейку ходить, а у меня игровое поле 50x50, есть разные типы клеток, юниты с разными статами, запланированы способности.
>>2352243 (OP) Потестировал хваленый генератор картинок "glide". Для фетиша - поцелуи лолек в леотардах, с прическами "ponytale". Это какие-то инопланетяне, давайте нормальных лоли-гимнасток - или пройдите на хуй.
Ооо, видно Люди Культуры в треде сидят. Снимаю шляпу.
Но я предлагаю вариант лучше - взять sankakucomplex, отфильтровать по тегу loli, отсортировать по качеству. Вот тебе уже прекрасный датасет. К датасету уже можно прибавить теги, чтобы на text-to-image можно было по тегам лолей генерировать.
Только вот для этого технические ресурсы нужны. А я так понял тут анончики тупо по теории срачи ведут и майнинг-ферм при себе не имеют.
>>2378178 > А я так понял тут анончики тупо по теории срачи ведут и майнинг-ферм при себе не имеют. кластер из в100 зелени стоил раньше пятнашку за две недели, и на нем я делал за 20 минут то, на что в бесплатном гугл коллабе уходило 4 часа
надо быть реально пиздорылым додиком чтобы устраивать срачи за блакбокс вместо того чтобы просто работать
но щито поделать, тред полон ебливых додиков которые могут только пиздеть а не делать...
>>2378424 >и на нем я делал за 20 минут то, на что в бесплатном гугл коллабе уходило 4 часа Чел, ставишь обучаться и уходишь спать, нахуя платить-то...
и если ты будешь делать прогон раз в сутки, пока я делаю два раза в час - ну сам можешь понять через сколько ты поимеешь хоть сколько то нибудь осязаемый прогресс...
манянтры про ВО, курсы, матёшку, расчеты хуеты - засунь обратно в свой манямир..
>>2378620 Туда, туда. Это официальный педообучения тред (PL, машинный педолёрнинг), недаром соевые в OpenAI и гугле так засуетились и всё анально огородили. Говорят что у них самих в датасете присутствовало натуральное цп.
>>2378620 я не я, мне анон готовый запрос подсунул, а дальше я не справился с любопытством
еще и ночью это говно муриканцы задудосили, только подстегнув мой интерес
а так то все дети до 20 лет .- это просто говорящие неосознанные животные. ну я люблю животных, но дома нет даже кота, потому что он тупой сука как пиздец, и его охуенная шерстка не может перевесить факт его бескрайней тупости (ну а еще мне лень копать земельку зимой, сука ебаным ломом)
поэтому весь этот дрочь не достоен уважения, и много говорит о местной фауне ...
хотя тян так и так животное, а точнее мобильный инкубатор малой автономности, поэтому я за биологически обоснованный подход - пубертат кончается в 13, а дальше как во всех белых странах - делай что хочешь ;>
потому что после 18 это ни на что негодные изношенные шмароебины, часто уже с прицепом.. (и это в дс лол, не каком то замкадье!)
>>2379267 Исламские ученые разрешают детские браки. Согласно исламу , как известно из достоверных хадисов (Бухари, Муслима, Насаи, Ибн Маджы ,Табари ) ,пророк Мохаммед , когда ему было 53 года женился на 6-летней Айше , в дом к нему она вошла когда ей было 9 лет (некоторые другие хадисы указывают и другой возраст).Согласно шариату брак допустим с согласия отца для девочки любого возраста , секс с 9 -12 лет (наступления месячных ,полового созревания). Сахих Бухари: Глава 1142: Заключение брачного договора пророка, да благословит его Аллах и приветствует, с 'Аишей, её приезд в Медину и его женитьба на ней. 1515 (3894). Сообщается, что 'Аиша, да будет доволен ею Аллах, сказала: «Мой брачный договор с пророком, да благословит его Аллах и приветствует, был заключён, когда мне исполнилось шесть лет. Потом мы приехали в Медину и остановились (в квартале) бану аль-харис бин хазрадж. После этого я заболела, и у меня выпали волосы, а потом они снова отросли. (Однажды, когда) я качалась на качелях вместе с моими подругами, моя мать Умм Руман пришла ко мне и громко позвала меня, а я подошла к ней, не зная, чего она хотела. Она взяла меня за руку и привела к дверям дома. Я тяжело дышала, а когда моё дыхание стало успокаиваться, она взяла немного воды и протёрла мне лицо и голову, после чего ввела меня в дом. В этом доме находились женщины из числа ансаров, которые стали говорить: "(Желаем тебе) блага, благословения (Аллаха) и удачи!" И (моя мать) передала меня (этим женщинам), которые приготовили меня (к свадьбе), а утром пришёл посланник Аллаха, да благословит его Аллах и приветствует, и (моя мать) передала меня ему, а было мне тогда девять лет».
>>2377340 > Я специально ездил на Кубу, там это легально за валюту Так там же любая проституция нелегальна, как я знаю. Она там есть, но тем не менее, нелегальна.
Тогда лучше в Тайланд. Там хоть и азиатки, на не сочные латиночки, но там проще с этим всем.
Тащемта есть куда более лучший вариант для промпта (текстовой подсказки), с которым почти не всратно. Залил его сюда, т.к. эмодзи не отправляются с текстом
Скопируй в dall-e целиком весь длинный текст вместе с эмодзи, не поленись. не пожалеешь. Это практически готовые произведения искусства, из 9-ти изображений будет как минимум один эпичный нюдс. Только сюда в тред не пости.
У лолек таких сисек нет и талия не очерчена. У них даже плечи шире бедер, словно у мальчишек. А животы немного выпуклые. У меня все норм генерирует, прямо будто из книги по анатомии + реалистично как на фотографии.
>>2379667 Когда вставляешь в узкую тугую щелку, то как-то похуй на мнение моралеблядей. У исследователя данных во всем строгий порядок: GPU нода на амазоне (aws), дата в Kaggle, диск на драйве, ребенок в кроватке (в 10 часов, т.к. утром ей в школу).
Картинки с лолями это искусство, пынямать надо. Вильям-Адольф Бугро - именитый старинный живописец, писавший в том числе лолей. Я даже видел у него одну работу, где был буквально голый ребёнок, девочка лет 12-ти. Он теперь тоже девиант?
>>2379722 Петушить педофилов это норма. >>2379726 >свистни в хуй Как ты в детстве дяденькам свистел? >>2379908 >Картинки с лолями это искусство Вот и "центители" искусства из под шконки закукарекали. Михалыч тебя в сосничестве приобщал к этому искусству?
Кто-то сказал "искусство"? Вот для примера, образцы сгенерированных ассетов с частями тел (не с портретами целиком, потому что слишком низкое разрешение и низкая точность):
Обратите внимание, насколько хороши отдельные детали у лиц, даже с такой слабой технологией как старый DALL-E. Создавать всё это вместе в целостных изображениях, в разных стилях, со сложными позами персонажей и разнообразными фонами - это задача для моделей с более сложной архитектурой, для таких как Imagen. https://github.com/lucidrains/imagen-pytorch
>>2379925 >Обратите внимание, насколько хороши отдельные детали у лиц, Проорал, не пиши больше >>2379926 >Тебя походу петушили и не раз Нет, я же не машобщикпедофил. Это педофилов с детства ебут.
>>2379929 Ну, если бы у меня был инвайт на dall-e 2, то было бы еще круче. А так что есть, то есть. Да и все равно соя ихняя ограничила генерацию детей, как и эротики, и любого контента, нарушающего соевый мирок. >Проорал Чего орешь, тебе там опять дымоход что ли прочищают? Крепко ебут, должно быть.
>>2379925 >с более сложной архитектурой, для таких как Imagen. Но у него простая архитектура. По сравнению с Dalle 2. По сути он делает пикчу в разрешении 64x64, потом апскейл дифьюжном, потом еще раз апскейл отдельной моделью.
В лесах у деревни Эрбен жила демоница, падкая на мужские члены. Демоница выглядела как привлекательная десятилетняя девочка, с белокурыми волосами и алыми как кровь глазами.
Она охотилась на молодых парней, гулявших по лесу, привлекая их своим обнажённым телом, заманивая их, забирала жизненную энергию посредством соития.
Имя ей Кали.
Это был обычный денёк и мало чем отличался от других: солнце светило, деревья шумели, звери пели, и птицы пели. Кали нежилась на солнце на камне, с которого она могла только поглаживать себя руками. А когда солнце стало клониться к закату, демоница потянулась и встала.
Неожиданно она начала вертеть головой и принюхиваться. Её тонкий нюх мог распознать множество запахов, но самым любимым её запахом был конечно же запах мужчины.
Она пошла по тропинке вниз, принюхиваясь и прислушиваясь, чувствуя почти неодолимое желание ощутить мужчину на своём теле. Следовало спешить: ночь скоро. За долгие века своей жизни она отлично усвоила простое для человека знание - человек не ходит по лесу ночью. Не в их привычке.
Она несколько раз обернулась, прислушиваясь к шороху опавших листьев и легкому шороху в ветвях, и уверенно пошла вперёд.
Через некоторое время она остановилась. Впереди раздавался низкий мужской голос.
— Вот сегодня напьюсь эля!
Это шел пацан лет шестнадцати-семнадцати, наверняка первый сын какого-нибудь крестьянина или ремесленника. Брюнет. Не тощий, но и не прожилистый. В простой белой рубахе, бродит совсем один.
Кали решила действовать.
Она подождала, пока он отойдёт подальше, и пошла за ним. Кажется, не учуял… Впрочем, она могла ошибиться. Следовало соблюдать тишину и осторожность. Вскоре она вышла на поляну, где днём пилили дрова. Пацан, насвистывая, брёл по дороге к ней.
Закат окрашивал поляну, на которой пили несколько парней. Тут и там валялись доски, обрезки досок и другая грубая необработанная древесина.
Несмотря на свою в крайней степени распущенность, уединяться Кали любила только с одним мужчиной. Странно, но факт.
— Мешаются — цокнула про себя демоница.
Она начала придумывать план как выманить незадачливого паренька из круга этих пьяниц.
Ей нужно было отвлечь его внимание.
Она подкралась к компании, прячась за деревьями. Она долго выжидала, пока парень отойдет от компании. И тот момент всё же настал.
Парень отошёл отлить в кусты. Со стороны она внимательно наблюдала за его причиндалом, как бы оценивая.
У Кали от нетерпения начали течь слюнки. И не только они. Её миниатюрное тело чуть дрогнуло от предвкушения.
Она спокойно подошла к юноше, так будто он её старый знакомый.
Он её заметил и естественно - испугался, и спрятал член подальше в шаровары. Как тут не испугаешься? Как не посмотри - ситуация жуткая. Будь Кали просто человек, он может быстро собрался бы. Но её алые глаза нечеловечески горели в тени деревьев.
Кали подошла ближе и невинно улыбнулась. Парень просто остолбенел.
Она поняла что получилось.
Кали не носила одежды, как люди, её тело десятилетней девочки предстало перед парнем во всей её красе.
Положив левую ладонь на плоскую как равнины грудь, а правую протянув к парню, она спросила:
— Как тебя зовут? — Шива, - чуть хрипя ответил юноша. — А тебя? — Кали, - чуть насмешливо представилась девочка.
Она взяла его крепкую, покрытую мозолями ладонь, и прислонила её к своей щеке. И ласково улыбнулась.
Её глаза заволокла дымка. На секунду она стала настоящим демоном. Шива не знал что делать и стоял, как дурацкий пень.
Похоже, ему казалось это всё пьяным бредом.
А Кали сжала его ладонь в своих руках, и повела его к ближайшей ветке.
Всё же Шива пришёл в себя: — Кто ты? — Я Кали, - повторила она, словно так это всё время и объясняла.
Тем не менее, Шива последовал за ней.
Он совсем забыл про ту компанию, и даже не оборачивался в сторону поляны.
— И куда мы идём? — Покажу, - сказала Кали, делая маленький шажок назад.
Кали всю жизнь прожила в лесу, и ей не важно где совокупляться. Главное - подальше от тех парней.
Она прижалась Шиве. Она была сильно ниже юноши, её макушка была на уровне его живота. Она подняла взгляд и посмотрела в его глаза - не отрываясь, будто хотела заглянуть в самую душу. А потом опять опустила взгляд вниз.
Её ладонь спускалась по его прессу вниз, а потом Кали, продолжая улыбаться, нащупала его причинное место. И прижала его член к своим губам, сквозь одежду нащупывая твердый стержень, готовый войти внутрь. Шива почувствовал нежное дыхание. Она была такой противоречиво милой и юной в глазах парня.
А потом с её губ сорвался тихий стон. И Шива замер, не в силах ни двинуться, ни даже сделать вздох. Он понял, что всё - его молодость и красота, будущее его сердца, вся жизнь - вот в этом моменте, в этом прикосновении губ и языка. Он хотел этого, он хотел этого с детства. И не мог больше ждать, не мог сопротивляться, потому что это было выше его сил. И его рука сама взлетела вверх, обхватила голову девочки, и он прижал её к себе.
А она уже снова и снова вбирала в рот его мужское достоинство, причмокивая и тихонько постанывая. Её высокий детский голос становился всё громче, а слюна пропитывала его штаны. Шива покрылся холодным потом. Он чувствовал, что больше не может сдерживаться.
И когда он уже готов был что-то сказать, его напряженный член выскользнул изо рта девочки.
И... ничего не произошло. Она ехидно смотрела на него, а член Шивы стоял, как железный.
— Еще рано - прошептала Кали, смотря прямо на него.
Она легла на траву выпятив таз, чтобы Шиве было удобно взять её сзади. Шива встал и зашел ей за спину. Сначала он просто поцеловал её в спину. А потом со всей силы вогнал член в её лоно. Кали протяжно застонала. Шива почувствовал, как она сжала его член изнутри. Она сжимала его всё сильнее и сильнее. Шива чувствовал, что не выдержит больше. Он застонал и стал двигаться в заданном ей ритме.
Всё стало так, как и должно было быть. Скоро он кончил.
Он упал, совершенно обессиленный. Всё вокруг стало кружиться. Вокруг были какие-то деревья, кусты, довольное лицо Кали, что облизывала его шею - а потом он провалился во тьму.
Сколько он с ней пробыл тогда... Полчаса, наверное, может больше.
Ну так вот Kandinsky не так хорош как в статьях оказался.
По части анимешек: пририсовывает ирл-глаза анимешным девочкам. Крипота.
По части маленьких лапочек в купальниках: no comments. Не встает на эту крипоту.
По части лендскейпов: неплохо рисует поля и горы на бекграунде. Но обосрался на средневековом городе рисуя силуэты людей в очевидно современной (после Нового Времени) одежде.
>>2380934 > Зачем? Ну, закрытые, открытие, всякие купальники хороши. Это сорт оф фетиш. > Разве ты не любишь голеньких - немножко костлявеньких, с плоской грудью с нежными сосОчками? Не костлявых, а худеньких. А вообще да, люблю (очень). Но нейросетка 100% проебется, причем по понятным причинам. А вот фото лолек в купальниках в интернете очень много, соответственно, справедливо предложить, что купальники она сгенерирует лучше.
>>2380939 >Не костлявых, а худеньких. Я имею в виду, у голых лолек обычно ощущается рельеф ребер, коленок, таза и всякое такое. Только если они пухленькие, тогда не видно, ну и еще от стиля зависит.
>>2380847 > По ощущениям итт только лоликонщики, за исключением одной истерички. Ебанутое больное животное, ты никакого отношения к треду не имеешь. Шитпостишь своей педофилией, ни одного поста по теме, тебе дали модель поиграться - ты играешься. Тред чела, который брал нотебуки из пейперов и запускал на колабе, был более релейтид чем ты. Твоё счастье, что моче поебать на шитпостинг и спам шизой итт.
> Младший брат 9-летней студентки Алисы Тепляковой собирается поступать в МГУ
> Отец вундеркиндов Евгений заявил в семейном блоге, что теперь перед Хеймдаллем открыта дорога в главный вуз страны.
> "Ну что, Хемика с аттестатом?))) Математика профиль, разумеется. Баллы для восьми лет шикарные, можно поступать на мехмат или ВМК. Второй наш малыш в восемь лет успешно получает аттестат. С учетом того, что Хемик младше Алисы, я ему аплодирую стоя", – написал он в блоге.
Ваши оправдание почему вы не можете осилить маняматику для машоба?
>>2382084 1) Выбираешь из https://vuzoteka.ru/вузы/Философия-47-03-01 2) Защищаешь монографию по эпистемологии 3) Публикуешь свой концепт и архитектуру сильного ИИ 4) Ждёшь 3 месяца пока китайцы его реализуют и обучат 5) Гоняешь тесты, выясняешь где обосрался 6) Возвращаешься к пункту 2)
Интересно а существуют ли нейроночки, которые могут улучшить качество видео, используя фотосеты, которые делались одновременно с записью видео. Естественно предполагается, что качество фото лучше, чем видео.
Кто думает, будто ML это бесполезная и ненужная хрень без задач? https://i.ibb.co/5sd06gV/ooooooooo.png Попробуйте найти подобный (SOTA) контент с нежными и красивыми, да еще сделанный на профессиональном уровне? Ну хотя бы как рисунки и рендеры на ArtStation/CGSociety. Воо-от. Вся надежда на машоб: опенсорсные SOTA DALL-E 2/Imagen смогут делать еще лучше людей-профессионалов. ЭС-старушатник кукарекает, что видите ли экспертных систем вполне достаточно для актуальных задач, он заблевал нам весь тред. Наверное, ебаноида в детстве машобщики насиловали в срачло.
>>2382676 Я размышлял об этом как-то. Для этого надо как минимум: 1) сеть внимания которая будет принимать решения какие детали стоит запоминать, а какие можно дорисовать апскейлом общего назначения + выделятор фич 2) nerfоподобная сеть для трансформации 3) апскейл/ретушь с длительной межкадровой памятью + бленд
Пока что всё это в зачаточном состоянии, но уверен что это реализуют в ближайшие несколько лет, потому что это будет реально серебренной пулей для реставрации старых лент.
>>2383399 Я бы это применил для восстановление порева конца нулевых, начала десятых. Фотосеты там достаточно качественные, при этом некоторые были сделаны со вспышкой, и там присутствуют многие детали, которые на видео превратились в мыло.
Пересмотрел кучу материалов по обучению, но до сих пор не до конца понимаю. Я суммирую все ошибки выходных нейронов для всего датасета, чтобы усреднить её, а потом считаю частные производные для чего? Функции, которую нейроночка описывает? Функции потерь? А дальше просто повторить для остальных слоёв?
>>2386619 Классический любитель питонов внутри своей задницы Твои либы — говно, твой код — говно, да и твоя зарплата — говно, ведь тебя можно заменить на такой же кусок кодера который будет импортить готовые решения в проект
>>2386646 > Вы реально cv инженеры? у меня опыт разработки уникального проекта в москва-сити, да, где я руководил процессом полностью и разрабатывал решения аналоговнет
и чтобы не пездело это никчемное ничтожество >>2386639
композиция и архитектура - вот что имеет значение, ну и естественно скорость разработки, а уже потом любой модуль можно допилить под свои нужды, но в 99% случае просто похуй и так охуенно все работает потому что все уже давно изобретено
основная задача собрать все в кучу и организовать датафлоу
и вот что то у такие душные пиздорылые дауны нихуя с этим не справляются)))) потому ублюдки без фантазии, без амбиций, без полета мысли
>>2386653>>2386655 >пиши сюда >Пиши здесь - какая общая ситуация на рынке cv? Все плохо? Много контор позакрывалось/переехало? - какие специфические навыки нужны в cv? обычному DS/ml насколько тяжко заняться этой стезёй? - Как ваш стандартный пайплайн устроен? Вы получаете готовые данные или самим надо их собирать, чистить, аугментировать и так далее? - Какие модели используются в cv? Готовые? Самописные? - В cv есть что-то наподобие бертов и трансформеров? - С++ преимущественно используется для ускорения кода или для работы с железом? - чем именно в cv вы занимаетесь? Сегментацией? Классификацией? Чем-то ещё?
>>2386667 > Все плохо? this, мой проект был заморожен уже после пандемии все начало скатываться в очко, притом это была компания лидер в своей, довольно денежной, области
слышал яндекс переехал, но хуле толку от рнд на выезде если селф драйв должен катать по рашке, это все очень неудобно
но сейчас есть реальные движения по борьбе с прозападным движением предателей, уже сейчас отменили всю еблю бизнеса проверками, уже есть льготы для айти помимо сколково - все это очень круто и как только цб распердолится на дешовые кредиты - мы зажгем ;)
тот же селф драйв теслы это простые камеры и машоб ученый на уече, элементарная хуета. главный ботлнек всего машоба это датасет, который слишком дорого или сложно собрать в хорошем качестве, а потому итерации слишком дорого стоят, ну и додики вместо генерации выдрачивают баисы, надеясь выжать оставшиеся гроши)))
> какие специфические навыки нужны в cv? УМЕТЬ ГУГЛИТЬ СУКА и быть любящим тинкерить и экспериментировать со всяким дерьмом, превозмогая бесконечную боль и неизвестность
представь свои первые шаги во время изучения питоняшки, как было все в новинку, все непонятно, бесяче и тяжко - так вот в рнд так будет каждую неделю.
> стандартный пайплайн это иметь по человеку на каждый этап, ирл в рф ты занимаешься всем и составляешь архитектуру, и готовишь датасет (ETL), разметку лейблов я отдавал на аутсорс белорусам (там дешевле и качественной убогой яндекс помойки с отбросами) и дальше проводишь испытания и смотришь чтобы имеющийся датасет качесвенно пропехивал все слои, и дальше добавляешь убавляешь, кароче изи, эта хуита простая как палка, истинный интеллект будет возможен только на аналоговых вычислительных модулях, или невъебенно крутых суперкомпьютерах которые вывозят триллоны нейронов, а ты занимаешься базовой хуетой для бизнеса, которую легко осознать логически спустя пару дней аналитической работы
> Готовые? ты пиздишь код со стака или из доки - всегда! разбираешь на части, подгоняешь под себя, по ходу изучаешь
ты не computer scientist в институте или рнд отделе фейсбука или хуавея/гнусмаса, запомни это, ты в нищей рашке среди быдла, которое просто зарабатывает бабло, а не пытается сделать мечту педофила йобу (хотя рнд отделы того же хуя и гнусмаса у нас есть, но я сомневаюсь что туда кого то набирают, да и требования там охуевшие, а они при этом просто яркость фоточек подкручивают подсовывая им датасет после батча в фотошепе)))))
> бертов и трансформеров погугли епта. вообще у тебя что то слишком дохуя вопросов для ученого, я бы тебя максимум на подсос говно убирать взял и то врятли. ученый - это самостоятельная единица, которой не нужно подтирать срачло и гайдить (хотя один зеленый няш устроился в ростех ему там как раз подтирают жеппу :э)
> С++ преимущественно используется безмозглыми опущенными во всех смыслах даунами, которым допизды на потраченное время, ввиду его копеешной стоимости, это буквально отбросы, если ему похуй на свое время, то значит и похуй и на мое, а значит он идет нахуй
> чем именно в cv вы занимаетесь? никто не скажет, это нда. но очевидно что это базовый набор что есть в тф/торче и плюс простейшие алгосы которые опять же пиздишь со стака или из доки
>>2386757 >мой проект был заморожен уже после пандемии все начало скатываться в очко, притом это была компания лидер в своей, довольно денежной, области
Ебать, шнобель, так ты оказывается 2 года как не разраб, а до сих пор выебуешься!
>>2386775 у меня товарищ крестоеб, так вот я ему рассказал про свой скежуал и он загорелся, начал над тем же работать
это был алгоритм скелетонизации, так вот он не смог превзойти мой результат, несмотря на его йоба ВО и опыт разработки низушного графония, а у меня брошенный артовый инст и последовательный подход с пониманием задачи
только код что он кидал естественно был похож на ублюдский высер, и времени он на это въебал порядочно
так что ты просто бесполезный кусок говна. ты никогда не будешь комитать в ядро линупса, ты никогда не будешь писать прорывной игровой движок типа уепа, твой максимум это СТАВКИ НА СПОРТ, где тебя наебут и заплатят копейки)
больше твоя убеищная солянка из визуального шума нахуй нигде не всралась
>>2386785 Ты можешь сколько угодно бросаться громкими фразочками, пытаясь скрыть за ними осознание своей ущербности на рынке программистов, ведь единственное, на что ты способен — по очереди добавлять библиотеки и усиленно копировать код из stackoverflow
>>2387362 >а хуле толку если никто итт её не сможет запустить Час 4хА100 стоит плюс-минус 200 рублей. Кто захочет погенерить рассказов поэкспериментировать - тот сможет.
А так-то хотелось чтобы веса поменьше выложили, конечно. Ну и развития RETRO-подобных сетей.
>>2387390 > Ну и развития RETRO-подобных сетей. > Разработчики DeepMind утверждают, что база данных облегчает анализ того, чему научилась их модель, для последующей борьбы с предвзятостью.
>>2387402 В RETRO архитектуре таким цензором становится не корпорация, скрывающая лгбткукусжв-повесточку в черный ящик весов модели, а клиент, вольный напихать во внешнюю базу чего хочет: хоть википедию, хоть архив харкача, хоть коллекцию яойных фанфиков по Поттеру.
Если бы у вас сейчас в учебном заведении завезли любой набор дата-предметов, в любой конфигурации, то какая конфигурация, какие технологии и в какой последовательности вас бы удовлетворили, что бы прям "малаца, хорошо сделоли". Учитывая только что это не мфти какое-нибудь и не стоит сильно налегать на матановую базу. А то мне кажется я ввязываюсь в некоторое дерьмо, с одной стороны ничего не стоит перевести гуиды по склерну да пандасу, с другой понятно что это кал и мастерское владение стеком никак не помогает найти работу.
Котаны, насколько вообще реально обучить нейронку на одной видюхе (допустим 3080)? Мб одинокому ананасу нет даже смысла пытаться? Пробовал гонять одну нейронку на сете из 2к изображений 512х512, одна эпоха занимала 8 минут. 1000 эпох займёт 133 часа. При этом хз, скок нейронке нужно будет эпох, мб гораздо больше, чем 1к.
>>2387797 > 1000 эпох займёт 133 часа. Ну это норм, типичные сетки тренятся сутками. Другое дело что если ты энтузиаст-вкатывальщик с бананом вместо ГПУ, не уверен что у тебя там неделю учится что-то толковое, то тебе лучше экспериментировать с готовыми эмбеддингами и файнтюном. Там из говна и палок можно получить результат за час-другой и успевать делать кучу итераций.
>>2387797 Во-первых да, он тебе написал, ты получишь гораздо лучшие результаты тренируя только верхние свои 10-20 слоев от какого-нибудь резнета/мобаилнета, все таки у гугла и спецов и мозгов, и ресурсов поболее чем у тебя. Но если ты энтузиаст, то прочитай про каллбеки, конкретно ёрли стоппинг, вполне вероятно, если у тебя там не 300 говнослоев, а стандартная учебная нейроночка, то у тебя она затренируется за 10-20 эпох и дальше будет просто говно месить, настраиваешь что если за 5 эпох нет прогресса и валидация не улучшается - ты останавливаешься. Если хочешь лучше - думаешь как настроить ее, какие слои докинуть, меняешь активации, что-то еще. Потом все это выкидываешь в помойку, берешь резнет, прикрепляешь свои выходные слои и тренируешь их 3 эпохи и получаешь в 2 раза лучший результат чем был на полностью своей херне.
> Первый раз про такое слышу потому что тебе похуй на машоб, ты ничем не интересуешься ( наверняка дрочишь кресты алгосы или прочую бесполезную в реальной работе поибень )
>>2387797 > скок нейронке нужно будет эпох а у тебя ВО что лей нету? ебать ты лох, все додики с ВО с первого взгляда могут сказать сколько будет эпох, ведь они же знают юзлес матёшку теор вер хуитан калькулюс там интегралы карандашиком закрашивают в тетрадочки, это не хуй собаки и даже не колбек на оверфит, это пынямать надо!
Кто-нибудь знает, а есть ли сейчас в ДС очные курсы для всех желающих? Я бы походил прежде всего для общения, к тому же я бумер и матан благополучно забыл полностью еще 15 лет назад.
>>2388510 > хочу пойти для общения > будут одни зумеры > в коддинг шкалу > за общением так ты же хуже зуммера, у тебя интеллект на уровне дошкольника
ты блядь хоть на секундочку имадженируй астрономический уровень кринжа, когда все будут сидеть и дрочить уткнувшись в пекарни, а ты будешь доебываться до них с тупорылыми мемасиками или охуительными телегами, про то как бы охуенно было написать свой гарбяж каллектор или подрочить матанчик ради нихуя..
это кринжово вне всякой зависимости от возраста ..
>>2388516 > с чего бы педофилам фиксироваться на возрасте если вся суть в манипулировании ментально недоразвитым покорным доверчивым существом с миниатюрной фигуркой не как у дойной коровы, такую можно найти любого возраста
сильно сомневаюсь что есть в природе педофилы дрочащие на шарообразные малолетние отбросы, всем вон чулочки купальнички подавай, да чтоб ребрышки светились
>>2388531 Если говорить про 2д, то лоли/не лоли просто тело, не вижу смысла на этом фиксироваться и боготворить или принижать кого либо. У 3д блядей понятное дело все по-другому, но они и нахуй не нужны, похуй на них. Вот просто блевать охота смотря на убожество с твоего пика, пытается подражать 2д-богиням, но ничего близко и не выходит.
>>2388531 Ты ебаный даун, какие мемасики? Вот я хожу на борьбу, замечательно общаюсь там с хачами, можем обсудить тачки-драчки-всю хуйню, но не можем обсудить что-то айтишное. Вот я и хочу ходить еще на "секцию", где будут те, с кем можно обсудить и айтишное тоже, что тут тебе кажется странным?
>>2388536 А как по мне милашка. Просто по 2д у нейросеток шансов больше сделать что-то качественное, ибо дб в открытом доступе. Давайте не отходить от темы треда, и обсуждать детскую нейроэротику и продвижения в этом направлении.
Кстати, насчет RETRO. Насколько она перспективна для студенческих новутбуках для учебы?
а если с хуйней, то маленькое животное этого все равно не оценит, а без отдачи это просто дрочка в носок
> детская фигура опухшая тушка с фигурой мальчика, так может ты просто пидар гей?
> фигура должна быть элегантным > детская фигура блядь ты реально ебнутый
> лицо должно быть таким прекрасным прикладывает подкрашенную маленькую поблядушку с очевидной мамашей-шлюхой и отцом-куколдом
> ты свою возлюбленную боготворить будешь не за красоту, а за хозяйственность и бытовой интеллект, когда вырастешь, может быть поймешь
>>2388536 всех анимешников надо принудительно сажать на транки и проводить серьезную терапию
>>2388544 > тут тебе кажется странным? что ты быдло ебаное, путаешь свой НЕгейский клуб где вы друг с другом грубо тискаетесь - с индивидуальной интеллектуальной работой, требующей всю твою концентрацию
>>2388548 Ебанько, я 15 лет погромирую, и борьба - на самом деле гораздо более требующая концентрации деятельность. И все погромисты, которые работают в офисах, прекрасно общаются все время, но я в офис на постоянку не хочу, а хочу именно несколько раз в неделю куда-то на пару часов ходить, так же как на физуху.
>>2388547 >Кстати, насчет RETRO. Насколько она перспективна для студенческих новутбуках для учебы?
1) Судя по количесту параметров для инференса надо где-то в районе 15..30Гб памяти, так что это точно не уровень нищеноутов, это уровень новых десктопных видюх. 2) Трененых моделей никто не выкладывал, скрипты по обучению лежат тут: https://github.com/lucidrains/RETRO-pytorch, можно попробовать покрутить размеры чтобы впихнулось в видюху, но сколько времени надо на обучение не возьмусь даже предугадывать. 3) После анонса по ретро нет никаких новостей, так что возможно на деле не всё так радужно.
>>2388554 > я 15 лет погромирую и? ты к чему вообще это приплел даун? что ты половину своей никчемной жизни работаешь, но тебе не хватает мозгов организовать круг общения кроме двача? ебать ты уебок никчемный))))
еще и агрессия эта от беспомощности... неудивительно что такое чмо жалкое никому нахуй не всралось, сидеть слушать его охуительные истории про курогрудь и как он там магу за яйцо укусил)
> борьба - на самом деле гораздо более требующая концентрации деятельность вот, смотрите питоняшки, вот это и есть каноничный бесконечный ждун, вместо развития и усердной работы - он тискает кавказцев (вовсе не как что то плохое, просто факт)
>>2388566 Нет, мань, я это приплел потому что ты начал кукарекать что погромисты ебать серьезные сидят и не общаются. А кругу общения свойственно меняться - когда-то и я в офисе работал естесно, а когда-то он мне и не нужен был. И агришься только ты как последний дегенерат, тогда как я изначально задал совершенно нормальный вопрос - бывают ли по машобу такие же группы как по физухе или по другим хобби, чтобы в любом возрасте можно было ходить и в удовольствие заниматься.
>>2388662 Лоли это конечно хорошо, но без должного воспитания это все же маленькое животное, животные тож бывают милые, но создаваемый им геморрой на любителя. Мимокрокодилпедофил
>>2388677 > маленькое животное Ну это уж если совсем маленькая. Думаю постарше (лет 10-13) куда более чувственные. Я сам студент, подросток считай. Но я двачер, мне и так и так ничего не светит, приходится дрочить на прон, где чеды ебут лолей, пиздец просто.
2. Юное дарование из Челябинска - Сеня, уже выкладывало состряпанную на скорую руку модель Imagen. (Это не тот код который пилит Пхил Ванг, а другой.) Также есть сделанный на коленке колаб, + несколько разных колабов для обучения модели. Я как раз делаю педомодель по 60к сету голых лолек с узенькими дырочками, подписи к которым также сделаны моделью машинного зрения.
3. Google изобрели новую архитектуру Parti, которая ничем не превосходит imagen, но она ближе к первому DALL-E и это как бы преимущество (нет). Все разработчики, как водится, китайцы.
Небольшое пояснение. Далле2 сначала использует работающие вместе приор и декодер, а затем апсэмплер (увеличивает разрешение и наращивает детали. В обучении не используются подписи. Имаджен использует только юнеты: генерация в 64х64, потом апскейл отдельным юнетом до 256 или 512 пикселей. Потом еще апскейл. Но данные должны быть подписаны (text conditional). Обе архитектуры работают. Вероятно, их даже можно объединить в что-то среднее и получить еще лучший результат.
Читаю я короче новости по этой теме: там корпы, там целые страны и делаю выводы что одиночке тут делать вообще нечего? Речь не про генерацию цопэ, а о реальных полезных и глобальных штуках.
>>2388831 Можешь сам вкотиться в корпорацию, например в яндекс или сберAI. Россия практически не отстает от стран-флагманов. >не про генерацию цопэ, а о реальных полезных и глобальных штуках. /0
>>2388842 Не, работать на корпы не в моих принципах. >Россия практически не отстает от стран-флагманов. Ну это слишком толстый троллинг, прояви уважение.
>>2388850 Вкатывайся в laion или eleuther.ai В России создали ruDALLE, уже открыли тестирование Кандинского, а на днях выложили крутую языковую модель.
>>2388857 >В России создали ruDALLE, уже открыли тестирование Кандинского, а на днях выложили крутую языковую модель. Скоро педофилов будут ловить по ИП пачками?
>>2388857 >Вкатывайся в laion или eleuther.ai Чтобы вкатиться в какую-либо технологию, а я полагаю что это технологии нужно хотя бы базу какую-нибудь заиметь. Сейчас я пытаюсь понять стоит ли оно вообще того.
Что за хуйня этот ваш машоб? Как он вообще работает? Тренируешь полдня - всё мыльное в шуме и артефактах. Тренируешь дальше - оверфиттинг. Это когда модель в точности воспроизводит образцы из датасета. Понижаешь разрешение, чтобы процесс шел быстрее - тоже оверфиттинг.
>>2388579 > Хули ты такой злой в интернете кто то не прав, шуе хуле
> Мара Грин - богиня это же она была на фоне горящего дома?
> Ты не прав буквально по всем пунктам пук
>>2388611 > Как что-то плохое. я специально для альтернативно одаренных в скобочках об этом написал (даже спойлер уже перестал использовать, потому что местным животным слишком сложнаа)
>>2388662 > Вот ты мразь ангелочков так называть от реальности не спрятаться в манямире как бы тебе этого не хотелось. до 20 лет личинка человека - животное, и только потом, лишь не у всех, просыпается некоторая осознанность и начинают развиваться человеческие качества, до этого это просто говорящая лысая обезьяна типа вот этого скотоублюда >>2388584
> Любовь это не хуйня это химическая зависимость на пару лет
>>2388831 > реальных полезных и глобальных штуках делаются в колабе или на 32 ядерной амуда-рабочей станции под водой за вечерок изили из готовых блоков
>>2390015 > 16 летних потасканных шмар перетолстил няш) изношенные шалавы это 18+
>>2390100 увеличивай датасент, либо убирай слои и жри говно. пока топовые китайские эм ай ти инцелы не изобретут аналоговые нейросети или квантовые вычислительные модули - все так и будет на уровне бронзового века..
У нас есть один слой классического аттеншена. Требуется: придумать самую простую виртуальную (неюзабельную, чисто математическую) задачу чтобы этот слой работал оптимально (количество вычислений в сравнении с обычным строгим алгоритмом, или алгоритмом с эвристиками, если они нужны). Что это за задача?
>>2362626 >Где на дваче можно поговорить про AGI? В ньюсаче был тред. Оттуда:
Просто напоминаю, что Пенроуз доказал, что Сильный ИИ на основе машины Тьюринга невозможен. Для этого нужен квантово-гравитационный компьютер.
Почему?
Это очень долгая история, Пенроуз 600 страниц написал. Но если по-простому, то вот.
Начинается всё с теоремы Гёделя о неполноте, которая говорит, что в любой достаточно сложной непротиворечивой системе аксиом (достаточно, чтобы она включала формальную арифметику) существует недоказуемое (и неопровержимое, конечно) утверждение. Более того, доказательство этой теоремы конструктивно в том смысле, что это утверждение строится в явном виде и является истинным по построению.
Другими словами, для любой достаточно обширной системы аксиом существует утверждение, про которое мы точно знаем, что оно истинно в рамках этой системы, но в рамках этой же системы доказать мы его не можем.
Это суть теоремы Гёделя о неполноте. И сама эта теорема говорит об ограничениях возможностей любой универсальной машины Тьюринга, потому что теорема Тьюринга о неразрешимости проблемы останова является просто переформулировкой теоремы Гёделя о неполноте.
Идеолог концепции Сильного ИИ и Технологической Сингулярности Рэй Курцвейл, в свою очередь, считал, что в этом никаких проблем нет. Якобы, компьютер ограничен теоремой Гёделя, мозг тоже ограничен теоремой Гёделя, никаких проблем нет.
Важно понимать, что на самом деле самой по себе теоремы Гёделя недостаточно, чтобы сделать вывод о способностях мозга, и, далее, о соотношении способностей мозга человека и компьютера. Здесь необходим ещё один фундаментальный шаг, и именно этот шаг сделал Пенроуз.
Пенроуз доказал, что мозг не является компьютером, когда нашёл способность человеческого мозга, которую никакой классический компьютер (машина Тьюринга) воспроизвести не способен в принципе.
Далее будет доказательство в очень простой (даже обманчиво простой) формулировке. Сам Пенроуз двигался немного другим и гораздо более сложным, но при этом и гораздо более строгим, путём.
1... Короче, предположим, что некая машина Тьюринга является Сильным ИИ (т.е. обладает всеми интеллектуальными способностями (гениального) мозга). 2... Тогда любой математик-человек с помощью теоремы Гёделя может построить истинное утверждение для данной машины, проверить истинность которого сама машина не в состоянии (опять же в силу теоремы Гёделя). Для самого человека эта истинность ясна в силу его математического понимания. 3... Таким образом, предположив, что компьютер обладает всеми способностями мозга, мы практически сразу указываем на способность мозга, которой этот компьютер не обладает. 4... Это противоречие. Следовательно, этот Сильный ИИ на основе классического компьютера не может существовать.
Я понимаю, что это доказательство выглядит бредом, но это не бред. Это формулировка максимально простыми словами. Как я уже сказал, у Пенроуза всё гораздо более формально и строго. И сам Пенроуз разбирает штук 20 "возражений" против доказательства.
Условно говоря, он предполагает, что способ математических рассуждений человека является алгоритмом (что остальные люди интуитивно считают самим собой разумеющимся, и даже не задумываются об этом), и с помощью теоремы Гёделя приходит к противоречию.
Таким образом, Пенроуз заключает, что мозг в результате эволюции начал использовать эффекты невычислительной физики. Т.е. процессы, которые принципиально невозможно описать в виде алгоритма (или, что то же самое, в виде вывода в формальной аксиоматической системе).
Т.е. это самое "понимание" математиком-человеком теоремы Гёделя само по себе так или иначе сводится к невычислимому процессу, протекающему в мозге.
Ещё до доказательства Пенроуз показал, что в невычислительных физических процессах нет ничего невозможного, а после доказательства показал, что вся известная физика является вычислительной.
Главным претендентом на невычислительную физическую теорию Пенроуз считает ещё не достроенную до конца квантовую теорию гравитации. Для вычисления амплитуды взаимодействия в КТГ необходимо просуммировать по всем четырёхмерным топологическим формам пространства. Но данная задача алгоритмически неразрешима.
Следовательно, если КТГ верна, Природа умеет решать (по крайней мере некоторые) алгоритмически неразрешимые задачи!
И таким образом, человеческий мозг в результате эволюции научился использовать невычислительные процессы квантовой гравитации. И чтобы создать полноценный Сильный ИИ, нужно создать квантово-гравитационный компьютер. Т.е. компьютер, который будет оснащён "чёрным ящиком", в котором будут происходить квантово-гравитационные эксперименты над соответствующими процессами. Думаю, это произойдёт не скоро, мягко говоря.
Такие дела...
Прикол, однако, в том, что многочисленные критики Пенроуза, судя по всему, даже не удосужились прочитать его книгу. Минимум половина критиков исходит из того, что Пенроуз, якобы, утверждает, что мозг является квантовым компьютером, что полный бред. Другая половина в принципе не понимает, при чём там теорема Гёделя. Даже великий Хокинг так облажался.
>>2390996 >Такие дела... Типичный пример, когда маняматики засунули свои грязные рыла в очередную область в которой они ничего не понимают и пытаются натянуть на свои манятеории пуская пызыри пятаками. И почему считается что теоремы ГёделяЖопеншмульцера не является ложной?
Есть датасет диалогов на русском ~30 Гб, но довольно грязный. Как лучше обучить чатбота: дообучить gpt2 от сбера обучить с нуля свою gpt Или есть еще какая архитектура под эту задачу?
>>2391073 Ты хочешь intent based чатбота или сonversational AI? Первый давно отработан и работает как часы. Хватит bertы, простого классификатора и какой-нибудь rasa для ведения dailog managent. То что касается сonversational AI, то спецовые архитектуры себя не то чтобы проявили. DeepPavlov Dream из более-менее доступных, но там английский только. Сберовский GPT2 после Few-shot смог лишь имитировать жизнедетельность. Так что вопрос открытый, экспериментируй.
>>2391413 > Почему вы себе еще не купили экспертную систему по изобретениям в method.ru и не живете на деньги от патентов? потому что есть дела поважнее
Персоне А отвечало множество людей, но это у меня уже другая запись в БД. И тут интересно, как обучать модель. Я в трансформерах не спец, но пока вижу 2 способа: Просто загонять все диалоги, и пусть каждое следующее слово предсказывает. Полагаю, так гпт и работает. Либо же дробить каждый диалог так, чтобы предсказывалась следующая реплика Б: [А: Кто хочет сходить на концерт мейби бейби из группы френдзона? <end>] --> Б: А сколько билет стоит? <end> [А: Кто хочет сходить на концерт мейби бейби из группы френдзона? <end> Б: А сколько билет стоит? <end> А: Косарь. <end>] --> Б: Дорого, не пойду. <end>
Есть кто ищет сейчас позицию на джуна? В какой момент вакансий стало так мало? После февраля? Где лучше всего (кроме hh и ods) искать вакансии? Это у меня резюме говно или сейчас действительно игнорят многих?
>>2391488 >А: Кто хочет сходить на концерт мейби бейби из группы френдзона? <end> >Б: А сколько билет стоит? <end> >А: Косарь. <end> >Б: Дорого, не пойду. <end>
Это строго intent-based сценарий со slot-filling. Кури rasa, там всё готовое и с админкой.
>>2392186 >Есть кто ищет сейчас позицию на джуна? Забил на это еще до пыньоперации. >В какой момент вакансий стало так мало? После февраля? Да. >Это у меня резюме говно или сейчас действительно игнорят многих? На одну вакуху сейчас по 35 резюме на hh.
>>2393314 ods это не сайт, это конфа в слаке (теперь в матриксе) и там есть канал _jobs, куда челы скидывают вакансии. Это я хз что За неделю с 27го там 13 вакансий запостили, на сайте 2. Так что сайт это какая-то хуйня новая необкатанная
>>2393721 > бэкендеру ты не сравнивай унылейшую еблю СКУЛЯ с датасаенсом, где ты в авангарде! где ты создаешь будущую реальность и меняешь мир вокруг себя!!
> джун бесполезный кусок говна, пусть радуется тому что есть и еще больше тому что будет
> хваленные супер зп от сбертеха они кому надо хваленые, а в дс все ушло на оплату оффиса))
>>2393748 >с датасаенсом, где ты в авангарде! где ты создаешь будущую реальность и меняешь мир вокруг себя!! Бля, какой же ты шиз всё-таки. Помню тебя ещё по тредам в ньюсаче, в которых ты своё сверхЧСВшнутое шизоидное говно постил.
>>2393980 > в ньюсаче гречневый заповедник, я тогда знатно охуел с этого открытия и меня перекрыло
я после двача вообще не могу с отбросами нормально общаться
на вц забанили олмост инстантли, на пикабу я чуть не погиб от гречневого рака
думал хотя бы в тг группах сидят топчики и конструктивно разумно обсуждают интересные вещи, но нет, биомусор и туда протек и отравил все каменты, только там еще и проститутки в первых каментах...
чувство будто я застрял на дваче как в чистилище ебучем..
>>2393988 А у тебя в семье все такие же "успешные", как ты, или ты всю свою семью считаешь гречневыми отбросами, недостойными существования, и ненавидишь, и презираешь их?
Народ, хочу сделать OCR на питоне. Есть рисунок - капча, на ней что-то написано. (3 образца). Рисунки названы согласно текстам. Как сделать нейронку чтобы распознавал такой текст? Какой код? Чет ума не приложу вообще.
>>2396391 Ну такую капчу супер легко взломать. Тут даже нейронка мб не понадобиться. Только opencv Выбираешь из картинки самое черное - это будут буквы все вместе. Или через opencv threshold Выбираешь контуры opencv findcontours - это будут буквы по отдельности. Буквы по отдельности пихаешь в нейронку распознающую буквы, где обучали с датасетом аугментированным на вращении и растяжение. Это уже гуглится изи - сам можешь сделать. Но я бы вначале попробовал в цикле от 0 до 360 поворачивать букву и opencv KNearest к алфавиту.
А ну и язык перед этим определить - лучше через какое-нибудь готовое решение
>>2352243 (OP) вопрос такой: Jupyter или VSCode + Jupyter plugin или Data Spell от JetBrains? какой ваш выбор в работе с ноутбуками? В чем плюсы и минусы. Оч интересно было бы услышать отзывы от пользующихся IDE от JetBrains, потому что рассматриваю такой вариант. Сам пользовался только Jupyter, пробовал с плагином в VS Code, но показалось лагучим.
Понимаю что более уместно было спросить в разделе с программами. Но подумал что получить хороший ответ на вопрос будет легче именно здесь
>>2397622 >это был такой тонкий намек что ты высрал почти стену текста - в абсолютное нихуя >ты просто проибал время на ничего Сказал шиз, шизопасты которого скипает половина треда.
>>2398940 Dataspell + jupyter + IdeaVim = какие-то регулярные глюки при переключении режимов vim Dataspell + jupyter + интерактив (ipympl и widget) - вообще не работает.
Пользуюсь Dataspell только потому, что пользуюсь другими продуктами Jetbrains и мне там привычнее. Надеюсь что скоро пофиксят.
Аноны, нужно написать статью про переобучение нейронок, борьбу с ним. Но я никогда не имел с нейронками дело. Вот ВООБЩЕ. Я ничего не знаю о них, кроме нескольких прочитанных статей
Я описал разные способы борьбы, но вот хочетсся разобраться в нескольких вещах 1) Можно ли их принять одновременно 2) Есть ли какие то эффективные связки 3) В чем плюсы и минусы разных способов, когда их допустимо применять,а когда нет
И что то я в интернете ответов на эти вопросы не нашел. Подскажите что нибудь
анонъчеки а как вы свои поделки хостите? а то тензорфлоу почти 2 гб весит, как его в облаке держать? раскошеливаться на нормальное облачное железо и прям целиком туда ТФ ставить? мб есть какой-то облегчённый дистрибутив если у меня есть натренированная на моём ПК модель и мне в облаке тренировать ничего не надо?
Здравствуйте господа Машинисты, подскажите пожалуйста есть ли какой-то способ реализовать нейросеть которая получала бы на вход неопределенное количество данных, скажем от 13-ти значений до 32?
Доброго времени, погромач! Вкатывальщик на связи и возник вопрос: нужно ли изучать сигма-алгебру и собственно связанные с этой темой вещи - алгебраические многообразия, кольца, поля, и.т.д для понимания предмета, ну и понятно для прохождения собеса?
>>2352243 (OP) Аноны, реквестирую ваш опыт прохождения собеса на джуна. Осталось буквально годик вуза, вроде чето умею, возился с датасетами, накатывал простые модели, делал кастомные признаки и занимался говночисткой фильтрацией данных и такое, больше бекграунд как разработчика, фрилансил, но остоебало уже писать круды.
Так же реквестирую реально нужные темы из тер вера, мат ожидания, ковариации и прочие подобные штуки я считать умею, что еще нужно? Нужно ли на собесе считать что-то на бумажке, ну короче, реквестирую ваш опыт или советы как мне хотя бы стать джуном(вакансии все равно нету, поэтому опыт немного приукрашу и пойду на мидла, но надо же быть честным перед собой)
Подскажите годный OCR для распознавания смищных подписей на мемах (котируются ru, en, jp модели). Желательно, чтобы был порт на C++ или NodeJS. Самое близкое, что я нашёл в упоминаниях, было закрытой нейросетью мэйлру для автоматического чтения почты и надписей на картинках в ней (для защиты от спамеров, конечно же). Она базируется на интеловской PixelLink, у неё ебейшее количество зависимостей, так что её даже нетривиально запустить на хоум пека. Из других, которые я смотрел: OCRAD (только англюсик) GOCR (только англюсик) Cuneiform (проект мёртв, на самом деле я даже не смог выкопать архив с ним) PaddleOCR (много ебли с установкой, python-only, паршиво распознаёт ру-текст, очень хорошо долбит японские иероглифы) EasyOCR (python-only, неплохо распознаёт текст на слабоконтрастных изображениях) И конечно же Tesseract, на данный момент это нейросеть с наибольшим коммунити и обширной инфраструктурой. По утверждением бывалых бревноёбов, требует предварительного пердолинга изображений в виде перевода в ч/б и увеличения в разы с последующим повышением качества waifu2x, но у последних релизов Тессеракта аналогичные действия уже есть из коробки, так что я не понимаю, в чём смысл (алсо, на самом деле это не всегда помогает).
Обычные проблемы: 1. У всех открытых нейросеток есть проблемы с комиксовыми пузырями на рисунках, они распознают их построчно или сортируют как раздельные слова. Это решаемая проблема (достаточно склеить слова по координатной близости), но портит настроение. 2. У всех кроме Тессеракта и Окрада нет порта, который можно пробросить внутрь жирноцельного приложения без пердолинга энд юзера с питоном и кудой. Транслировать питон в с++ или js - задача решаемая, я думаю, но испортит производительность.
я типа крутой техлид/полуархитектор (это в жизни я двачер, на работе люди замечают, что с мной что-то не так, но все-равно я более менее воспринимаем нормально) сейчас учусь с нуля ml, ибо математика никогда не была чем-то моим.
хочу перекатиться в ml, но по понятным причинам не хочу сильно терять в зепке
как бы вы воспринимали тим лида, который лишь в основах понимает ml и будет брать мелкие части задач и спрашивать обратную связь? зато я в принципе уверенно себя уже чувствую в области ml систем дизайна.
Сразу скажу, что в нейронках я нулевой. Хочу взять готовую натренированную модель и заюзать её у себя. Модель сама юзается в скрипте для браузера, там есть файл model.json с описанием слоёв и прочего говна и файл с весами (model.weights.bin). Мне надо сконвертить её в формат tflite чтоб потом заюзать на андроиде. Я конверчу через tf.lite.TFLiteConverter из python. Однако, при попытке заюзать её оно крашится с ошибкой (Cannot copy to a TensorFlowLite tensor (serving_default_conv2d_input:0) with 320 bytes from a Java Buffer with 98880 bytes.) типа в инпут слое нет места для всех байт что я пытаюсь туда впихнуть. Смотрю значит на входной слой в том файле, там написано что shape "batch_input_shape": [null, null, 80, 1]. Я точно не уверен, что должны значить два первых null, но догадываюсь, что это означает, что оно должно быть динамическим. Далее, гружу tflite файл в https://netron.app/ и там вижу, что у входного слоя shape [1,1,80,1]. И тогда становится понятно, почему крашится 1 1 80 1 4 (тип float32) = 320. Т.е получается что при конвертации что-то пошло не так. И вот тут я хз чё делать, как такое вообще чинить. Искать другие варианты конвертации?
Аноны, есть у кого нить статья или рекомендации том, что можно сделать для улучшения качества модели градиентного бустинга? Кроме очевидного подбора гипеппараметров и обучения разных реализаций бустинга. Типо как для регрессии нужно нормализовать данные, попробовать убрать коррелирующие фичи, фичи, которые имеют нелинейную зависимость с таргетом поправь линелизировать и т.д. В интернете мне что то попадаются только базовые статьи из разряда "что такое градиентные бустинги"
бустинги достаточно стабильны, не зависят от нормализации и прочих ненужных действий.
только прочесть доки к твоей либе, увеличить параметры отвечающие за качество, значительно увеличится время обучения, но и точность станет чуть больше.
ну и базовый совет - увеличить датасет. это лучший совет по увеличению точности чего угодно.
>>2426694 > как бы вы воспринимали тим лида, который лишь в основах понимает ml Если он ставит задачи, то с раздражением. Я участвовал в ML-проекте и это был пиздец начиная с того, что мне подсунули неправильные сырые данные, думая что сгодятся любые.
Где распределенные вычисления?
Аноним13/08/22 Суб 16:43:14№2432701591
p2p вычисления, особенно краудсорсинговые - говно бесплатно это делать можно только на хайповые темы, за деньги - будут пытаться хакнуть систему, нельзя доверять результатам, нужно перепроверять. не все алгоритмы хорошо параллелятся, а то что парараллелится, то накладные расходы больше сожрут
самое ценное в ml даже не алгоритмы и модели, а чистенькие датасеты, никто и на пушечный выстрел не выпустит их из закрытой сети компании
>>2431973 потому что это Финальный Босс Статистического Обучения. Ничего ему не надо. Высшая точка развития. Можешь только в цикле гиперпараметры поперебирать, но это все равно не нужно.
Подскажете какой-нибудь алгоритм кластеризации, который образует мне заранее заданное количество кластеров заранее заданного размера(точно количество точек)? Пока у меня только мысль как-то криво k-means модифицировать.
Вводные данные: 1. Рукожопый ньюфаг[/s1] 1. Желание освоить computer vision. 2. Разметил сет картинок в labelimg в формате PascalVC (xml), там четыре класса.
Осознал, что для каскадной классификации нужно формат аннотаций переделывать и вообще это уже не труъ. Информации с чего начинать, и что вообще делать как-то между нулём и очень дохуя, большинство туториалов предлагает готовые варианты, а я хочу сам обучить. Вышел на туториал по MASK_RCNN от какого-то индуса, который всё делает для одного класса, но я уже вижу, что через жопу, потому что он отдельно берёт сначала пути к картинкам, а потом по названиям файлов ищет аннотации. Можно, конечно, переписать его код, но мне бы хотелось натренировать модель на все четыре класса, а не на один, как у него.
Есть где-то нормальный туториал с примером обучения нейросети для опредления объектов? Вообще чем лучше пользоваться? Датасет три дня размечал, тоже терять не хочется.
>>2441022 > большинство туториалов предлагает готовые варианты, а я хочу сам обучить. ты имеешь ввиду обучить, но не ДООБУЧИТЬ готовую? Ну это тупая идея.
Задача: с помощью NLP-моделей извлечь из диалога реплики с приветствием, прощанием, именами. Я на очень примитивном уровне сейчас нахожусь только в таблички умею, какие модели для этого надо использовать и в какую сторону копать?
>>2442693 берешь любую nlp-нейронку прогоняешь текст. получаешь вектор эмбедингов. дальше решаешь привычную тебе проблему классификации по-табличному. разумеется, реплики и приветствия должны быть размечены.
Конечно, у этого подхода есть масса минусов и на kaggle такое засмеют, но раз уж все равно тут один пидафилы, придется тебе меня слушать.
>изучать сигма-алгебру Сигма алгебра -- это не предмет, как в школе, лол. Это математический объект, нужен он для введения аксиоматики (Колмогоровской) теории множеств. Мня его спросили один раз в жизни -- на кадмине, хз кому в голову может прийти спросить его на собесе, мб если ты напишешь в резюме, что закончил кафедру тервера, то могут спросить для проверки, не пиздишь ли ты.
>алгебраические многообразия Есть 2 вещи. Первое -- это, собственно, многообразие. Понимание этого нужно для того, для некоторых алгоритмов оптимизации. Пример -- в модели матрица весов имеет специфическую структуру (например ортогональную). Тогда при градиентном спуске необходимо не только делать шаг вдоль градиента, но находить проекцию этого вектора на многообразие ортогональных матриц.
Вторая вещь -- это алгебраическая топология. Ее знать нужно, если ты собираешься заниматься областью мл, в которой отдельно исследуются топологические свойства признакового пространства. Но я так пониманию это прям специфическая область, в основном сугубо теоретическая, которая относится к химии и физике, вряд ли тебя это будут на собесе спрашивать.
>кольца, поля Ну можешь прочитать определения в википедии, лишним не будет.
>>2448695 там зумеры набигают. Просто нейронки освоил и радуйся.
ML подразумевает собой классическое Статистическое Обучение - куча всякой стариковской дрочи, которую нельзя просто так выбросить. Индустрия на нее подсела и ее модели все-таки объясняемые.
>>2352243 (OP) Существует ли сегментация бинарных изображений на нейронках? На входе -- изображения с какими то объектами, на выходе -- только объекты определенной формы. Имеет смысл вообще для такого машоб запрягать? Я пытался гуглить, но все комбинации слов binary, image, classification, segmentation выдают бинарную сегментацию/классификацию грейскейл изображений, а не сегментацию бинарных. Хуй его знает, как даже искать такое.
>>2450253 Ну да, но в инпуте бинарное изображение тоже. Правда до меня уже дошло, что бинарное изображение можно перевести в грейскейл. Понятно что можно тот же подход юзать просто, но может есть какая то оптимизация связанная именно с тем, что на инпуте бинарное изображение. Короче, мне нужно что-то типа k-means, но с обучением. >>2450341 Спасибо, посмотрю, но вроде не совсем то.
>>2352243 (OP) Аноны есть тут разработчики алгоритмов компьютерного зрения? Интересует конкретно С++, т.к 3 года на нём работаю и на питон переучиваться не хочу. В целом находил пару вакансий типо https://hh.ru/vacancy/68078949?from=vacancy_search_list&hhtmFrom=vacancy_search_list&query=c%20%20%20computer%20vision Так что какой-то спрос есть, проблема в том что нихуя не понимаю как погружаться в эту тему. Сейчас подтягиваю математику и изучаю классический CV и алгоритмы обработки изображений, но что дальше делать непонятно. Есть тут такие же вкатуны-плюсовики, опишите как учились
Аноны, а как вы сейчас оплачиваете Гугл колаб подписку? Я гуглил, ничего лучше чем всякий пиздец с 'установите удаленный рабочий стол и мы вам все сделаем'
>>2452569 А с другой стороны, у меня хоть всё правильно работает? Задал параметры для YOLOv5 --img 800 --cfg yolov5s.yaml --hyp hyp.scratch-low-edit.yaml --batch 32 --epochs 100 --data crap.yaml --weights yolov5s.pt --name crap_det --device 0 --workers 1 Вроде должна видяха работать, но я вижу, что немного загружен проц, а у GPU только память. Так и должно быть?
>>2451025 >Интересует конкретно С++, т.к 3 года на нём работаю и на питон переучиваться не хочу. Я бы понял, если бы у тебя были проблемы переучиться наоборот, с питона на плюсы. Там подводных камней то всяких знать не нужно, просто будешь методы из skimage или ocv дергать по большей части. А для всяких сложных штук проще написать расширение на C/C++ и подтянуть его, никто алгоритмы то на Питоне самом не пишет, только совмещают уже готовое. Собственно, у тебя уже будет приимущество что ты знаешь Си по сравнению с питон-онли макаками.
>>2452856 >Я бы понял, если бы у тебя были проблемы переучиться наоборот, с питона на плюсы. Двачую этого. Вообще не понятно, что там можно изучать в питоне, зная плюсы. Это как после управления боингом вкатываться в трёхколёсный велик.
>>2391063 >>теоремы Гёделя не является ложной >Она является логически доказанной > в пространстве маняформализма Гильберта. Братишка, ебать ты долбоеб.
Аноны, а стоит переходить из коммерции в новуку? Очень хотел туда попасть, там охуенные задачи, публикации и т.д. но сейчас стал гуглить и по своей специализации и через одного натыкаюсь на требование коммерческого запуска и разработки и вывода в прод всяких моделей.
>>2457284 Ну типа считается, что если ты не запустил свою ноу хау научную разработку в прод, то считается что ты песдабол. Типа ты должен сделать разработку и с пруфами с неё бабла залутать, тогда поверят, что ты реально научен.
Но если ты родственник друг старых пердунов учёных мочёных, то они тебе поблату все подписи нарисуют и ты без всяких требований можешь получить научную степень.
>>2457284 Не знаю, в какой такой науке требуют какую-то коммерческую хуиту. Или это типа значит, что ты хочешь с улицы сразу в науку вкатиться без аспирантуры? Ну в прикладухе типа машоба можно и так, наверное. Или тебе уже в этой "науке" придётся запускать в коммерцию свои разработки вместо того, чтобы решать охуенные задачи и делать публикации? Нихуя я не понял, короче.
>>2431973 Улучшение качества модели это в 99% случаев улучшение качества/увеличение количества и в 1% успешный случайно выпавший сид/переборы гиперпараметров/разных библиотек бустинга итд
Суть такова: был отчислен из вуза на 4м курсе, проебал сроки восстановления. Теперь восстанавливаться лишь на следующий год. В жизни ни дня не работал (кроме как репетитором). Есть две бронзы на кагле, успешно сблендил паблики. Есть ли у меня хоть какие то шансы пройти на стажку в Яндекс в свои 22 года? Если да то как выкручиваться - говорить так и так, еблан, отчислен, или пиздеть что в Академ из-за пиелонефрита? Проверить это если что легко в моём случае. Ещё вопрос - податься лучше на стяжку аналитиком эскюэль макакой или мл разрабом? Заранее благодарю за ответы.
Есть несколько числовых последовательностей (векторов). Для каждой есть ожидаемое значение ошибки и реальное значение ошибки. Как это можно визуализировать?
>>2463754 В целом неплохой, содержание довольно стандартное. Из недостатков, со слов проходившего его приятеля - несколько мутные дз, а чат поддержки - это клоака на дохуищу людей, которые постоянно туда всякую хуйню срут.
>>2457703 Допустим я хочу кое что сделать такое, но как выводит подобное в прод, хотя тулза будет скоро готова - не знаю, я даже не понимаю как монетизировать это...
Аноны, меня взяли джуном на computer vision-инженера в НИИ в дс-1. Это моя первая работа. Как скоро стоит оттуда выкатываться и идти в другую компанию?
Год-полтора будет норм. Но можешь раньше, если найдешь работку в крупной компании (настоящей крупной - яндексы, вк, сберы, тиньки) и будешь готов остаться там подольше. Желательно не бегать по компаниям,
Какую тему для курсача по базам данных можно взять, чтоб было связано с машобом? Хочу себе в резюме потом запилить. Была идея сделать утилиту для нарезки SQL-таблицы на батчи, но как-то маловато для курсача
>>2470526 про временные ряды более-менее понятно, а как генетический алгоритм к теме баз данных подвязать? Курсач именно по БД, просто для себя хочется связанное с машобом, а то все делают тг-ботов как под копирку.
>>2352243 (OP) Сап. Я залетный, прогромирую мышкой, худо-бедно чужой код на питоне копипастить могу, суть не в этом. Заинтересовали GAN-секты, в частности которые могут беспонтовый скетч превратить в че-то няшное.
Есть ли на гитхабе аналоги playform или nivea gaugan которые я смогу гонять на своем кудахтере?
>>2352243 (OP) нужен дата сет поверхностей пола линолиума ламинта и тд для каскадов харра гугл не находит чтобы считать пол нулевой кородинатой как избавится от шумов оператора кани??
Анончики, привет. Исследую возможность генерации текста на естественном языке из формальных спецификаций программ. не спрашивайте зачем - в аспирантуре много бесполезной работы. Вопрос такой - в моделях sequence-to-sequence (например, нейро-машинном переводе) какому датасету отдавать выбор? На какие характеристики датасета смотреть? Например, есть много нотаций формальных спецификаций, как мне обосновать выбор конкретной в контексте задачи?
Если 4 rgb-изображения (похожей природы) на входе - это передавать на вход просто как 128х128х12?
Или имеет смысл каждое изображение в формате 128х128х3 прогнать через одни и те же свёрточные слои, то есть передавать на вход как 4x128x128x3? На выходе нужно ещё одно изображение, пятое.
В играх это как раз очень крутое достижение, и потому на него такой акцент, что это на порядок круче распознавания голоса или ещё какой фигни - уже не рутинная узкоспециализированная задача интеллектуальной обработки, а что-то про систему принятия решений, что приближает ии к решению всё более общих задач.
Вот у меня тензор четырёхмерный, почему я не могу в свёрточном слое указать, что я сворачиваю по осям 1 и 3? Я конечно могу свапать оси - но это достаточно вычислительно-эффективно? Типа, мне нужно из 4-64-64-3 (четырёх отдельных изображений) получить 4-64-64-10 (четыре десятиканальных), потом это зарешейпить в 64-64-40 (совместить в одно), и это уже ещё одним свёрточным до 64-64-3 довести. Вот как на пике нормально делать, или лучше в forward прописать view/reshape, и не делать отдельный слой по аналогии с тензорфлоу?
И ещё снова к разговору о тензорах большой размерности - оно воспринимает входные данные 4х3х64х64 как батч из 4. А если ему засунуть 100х4х3х64х64 пишет ошибку. Стоит использовать Conv3d с размером ядра (1,3,3), как на третьем пике?
И вообще что в целом прочитать, чтобы не было глупых вопросов, на которые я нахватаюсь ответов отдельных - а какое-то цельное представление сложилось и я больше не заходил в тред.
Аноны, есть ли жизнь на чём-то кроме питона? Я с раста и крестов прикатился, попытался в питон, но жопа сгорела. Во-первых, синтаксис палеозойских времён с держанием типов в уме. Во-вторых, производительность - взял трансформеры датасета из репы на 3к звёзд, чуть не охуел от того как медленно, в итоге на расте переписал. По ощущениям там на порядок разница, даже с учётом того что под питоном лежат нативные либы. Пробовал биндинг торча на раст, но работает через жопу, чувство как будто бета-тестом занимаюсь. На шарпе вообще пиздец вместо биндинга. Биндинги ТФ пока даже трогать не хочу, чувствую там ещё хуже. Кресты 146% дадут фееричную еблю, это уже проходили. Есть что-то для таких как я? Чтоб полный цикл обучения/деплоя был на нормальном компилируемом языке, а не скриптовом, с поддержкой куды? Или таким шизам только на самый низкий уровень писать код на самой куде? Алсо, работать по теме нейросеток не будут, я не студент-вкатывальщик, на вакансии поебать. Или уже просто пересилить себя и с кривым ебалом писать на питоне?
>>2480067 >с держанием типов в уме Можешь указывать через двоеточия же.
>Во-вторых, производительность Да. Но если ты используешь для обработки нумпи или ещё чего-то, то скорость нормальная. Типа, это не так важно, так как обучение нейронки будет занимать 95% (если на 99.9%) времени по сравнению с подготовкой данных даже на питоне.
>Кресты 146% дадут фееричную еблю, это уже проходили. А я юзал тензор из крестов и нормально себя чувствовал...
Типа, я сишист-низовик, мне норм даже на си писать без плюсов - и я привык к прямому управлению всему и нормальной производительности, но я понимая что самый эффективный способ сделать нейронку - это разрабатывать её на питоне, выводя графики и всё остальное через matplotlib или ещё чего, а потом, если я сделаю что-то работающее и подберу нужную архитектуру и всё остальное, можно переписать на си, чтобы те 5% времени что готовились данные исчезли, и я получил ещё пару процентов производительности и меньше по сравнению с питоном потребление памяти.
В общем я точно советую ещё себя помучить и изучать-пробовать примеры на питоне. А потом, когда разберёшься можно будет уже переписать на язык тебе угодный, если останется необходимость. Если ты датасет обрабатываешь и проблема с производительностью только тут - ты можешь просто модуль numba заюзать, или вызвать внешнюю программу на твоём языке.
>>2480358 > Можешь указывать через двоеточия же. А что с Any в нативных либах делать? Приходится лезть в доки и потом постоянно держать в памяти что там на самом деле. Включаю проверку типов - половина кода красное. > Но если ты используешь для обработки нумпи или ещё чего-то, то скорость нормальная. Ну вот я взял numpy и ахуел. ЦП в соточку долбился и боттлнечил гпу. Хотя там 50 строк кода в секунду выполнялось. > В общем я точно советую ещё себя помучить и изучать-пробовать примеры на питоне. Похоже придётся. Я вот на расте запилил, вроде норм, но ебался много. > можешь просто модуль numba заюзать А почему сразу Pytorch на гпу нельзя использовать вместо numpy? Он один хуй инициализируется же.
>>2480439 Покажешь код? Что ты там такое с данными входными делаешь, что у тебя узкое место в подготовке данных?
>А что с Any в нативных либах делать? А что с ними делать? Ты просто для себя заметки же ставишь, если тебе нужно. Вообще не знаю о чём ты, ты можешь в любом месте print(type(...)) написать и посмотреть что там во время настройки-отладки. Можно навести мышку и кликнуть через ctrl и пучарм покажет как эта переменная появилась, что снимает проблемы с пониманием типа до минимума. не знаю на чём ты писал, что такое раст и прочее, но после с++ код на питоне понятный и никаких сложностей не возникает.
>А почему сразу Pytorch на гпу нельзя использовать вместо numpy? numba, не numpy, модуль для jit-компиляции питона. Если тебе нужна какая-то сложная собственная обработка, которой нет в нумпи-торче - но и цеплять программу на другом языке конвертируя все типы не хочется.
> заметки же ставишь > print(type(...)) написать > посмотреть что там во время настройки-отладки Звучит как хуйня. Я уже привык что код можно просто читать и он работает как читается, а не оборачивать всё простынями комментариев/принтить/дебажить то что не сломано. > пучарм Не люблю джаву и всё связанное с ней.
Звучит как хуйня претензия к питону. Мне не нравится питон (и джава тоже, да, и вообще что угодно кроме си), но я не могу не признать, писать и отлаживать код на нём удобно - и в задачах машоба, где питон лишь управляющий код, это одно из лучших решений, которое не снижает сколько бы значительно производительность задач обучения, но при этом значительно ускоряет разработку, позволяя очень быстро менять и перебирать структуры нейронок, разнообразные параметры и всё остальное, выводить красиво результаты с графиками или интерактивными кнопками и так далее. Я бы застрелился всё это писать на с++. При этом если есть проблема с производительность - можно обработку данных перед входом или после выхода переложить на другой язык вызывая внешнюю программу, и затраты на пересылку данных будут незначительные по сравнению с обработкой, если она в самом деле требует переписывания на более эффективный язык. А после приготовления нейронки и встраивания её в прикладную программу можно уже и на другой язык переписать, если менять архитектуру больше не нужно и нужно лишь встроить.
А подскажите, есть инструмент, который готовую-обученную нейронку сможет конвертировать в код в одиночном файле, который сможет работать без внешних либ, чтобы его можно было запускать даже на платформе, где ничего нет под нейронки? На си.
Или только самому писать слой за слоем и проверять что всё работает строго так же, как в исходной модели?
>>2480358 > ты можешь просто модуль numba заюзать > просто Нихуя там не просто. Надо полностью всё переписывать на чистом numpy. Вот сейчас попробовал, у меня там есть вычисления на scipy вперемешку с numpy, так твой numba высрал такую простыню ошибок, что пиздец. Я час пердолил и выпиливал scipy, в итоге это говно стало работать в два раза медленнее, чем было. Даже не хочу дальше разбираться в чём дело, нахуй.