Такие дела. Выкатила первую машинку на базе финвет и НВМ2. http://4pda.ru/2016/04/06/288848/
>>1202029 (OP)Скайнет конфирмед, сара конор в треде, все в убежище!
>>1202029 (OP)http://4pda.ru/2016/04/06/288938/ - Один хуй в 4К на 60 фпс не поиграть.
>>1202029 (OP)На 5% мощнее от 980ти?
>Обучение глубокой нейронной сети AlexNet, к примеру, требует 250 двухсокетных серверных узлов для достижения производительности восьми GPU Tesla P100. Популярное же приложение прогнозирования погоды COSMO работает быстрее на восьми GPU Tesla P100, чем на 27 двухсокетных серверах.Как теперь вы думаете, может ли это стоить дешевле чем игровые карточки? Нет.
>>1205536А хули нет? Раньше компы стоили по несколько лямов, а сейчас они в миллион раз дешевле и быстрее во столько же.
>>1202029 (OP)> система DGX-1, оснащенная графическими процессорами Tesla P100, способна обучать сети в 12 раз быстрее в сравнении с решениями на базе четырёх процессоров NVIDIA Maxwell> > Технические характеристики системы NVIDIA DGX-1:> восемь GPU-ускорителей Tesla P100 с 16 ГБ памяти у каждого GPU;Ох уж эти журналистошлюхи, сравнивали небось с 4 970gtx/
>>1202029 (OP)Эх была бы у меня такая ёба в 2010 я нафармил себе битков на пару сотен лямов
>>1202029 (OP)На нем можно поиграть GTA V на йоба-ультра настройках?
>>1207008Можно, но картинки не будет. Тесла не умеет растеризовать картинку.
>>1202029 (OP)>NVIDIA DGX-1 станет первым в мире суперкомпьютером для глубокого обучения>для глубокого обученияВот интересно, до необучаемых хуангодетей этот аппарат способен будет достучатся?
>>1207262Лол
>>1207262Он сам будет необучаемый.Эдакий ИИ-имитация долбоёба.
>>1202029 (OP)Бобак говорил, что если бы они выпустили эту балалайку в прошлом году, она бы вошла в топ-500 суперкомпьютеров.
>>1202029 (OP)Сколько биткоинов эта хуйня майнит?
Теперь эта штука будет делать ГЛУБОКОЕ ОБУЧЕНИЕ нвдебилов вместо хуанга.
На ней что, пр0теинчики вычислять ? :^)
Игодебилы и тут
Эмм, обычный всратый сервак в который забили восемь(!) дорогущих видюх, не?
>>1207262На это все еще не хватает мощностей.
>>1213490Окупит себя за неделюмимо из отдела маркетинга Nvidia
>>1202029 (OP)в ближайшие 5-7 лет нейросети смогут делать абсолютно все, ура этот момент настал, можно будет роботов, которую будут выполнять любую прихоть, но пока думать самостоятельно они не смогут, просто тупо выполнять любую команду. Со временем напишут искусственную самообучаемую думалку, но она будет уровня человека до тех пока пока не будет улучшена на самообучаемость в этой сфере.
>>1213861Да нихуя.Вся соль в том, чтобы создать примеры для обучения(в которых предусмотрено всё).Алсо, на "замоделить мозг" мощностей еще долго не будет хватать.
Аве Хуанг!
>>1213861> просто тупо выполнять любую команду. Типа чего?
>>1213865> на "замоделить мозг"Уже давно хватает мощности, но никто не знает как его моделить, только реальный копировать, а этого при нашей жизни точно не произойдет.
>>1224471>хватает Нихуя.ТАКУЮ нейросень и суперкомпутеры не вывезут.Но вроде мозг МУХИ таки смогли замоделить.Понятно что дотера или ебанько из вконтакта нет проблем, но то не люди.
>>1224471>хватает мощности>замоделить>хватаетАИ в 2016 похож на говно, только только тени с освещением научились рисовать, фреймдроп на фреймдропе - ирл я такого не замечал.Так что нихуя подобного, мощностей замоделить мозг человека не хватит еще даже в необозримом будущем.
>>1205568была бы у меня такая хуйня в 2010 я бы ее продал, купил битков на все деньги и продал бы на пике цены.
>>1224792Мозг мухи можешь замоделить на своем пуктере если знаешь как.всего 300тысяч нейронов Крупные суперкомпы на энвидии давно могут моделить мозг человека, но обучить его не может никто.В нейроной сети гугла 12 миллиардов нейронов, есть рабочие сети на 15 миллиардов. В мозгу человека всего 80-90 миллиардов нейронов, только нейронная сеть таких масштабов сама в мозг не превратится, а для её обучения нет достаточного количества информации о нашем мозге.
>>1224471>никто не знает как>но знают, что мощности хватитТвой мозг нехуй делать замоделят, даун
>>1225836Открою тебе секрет, что мозг состоит из 86 миллиардов нейронов семи различных видов. Если могут сделать 1 нейрон, значит могут сделать и мозг.Сложность в обучении, в реальном мозгу овердохуя синапсисов которые образуют миллиарды сложных цепочек. Но вычислительные мощности есть уже сейчас и их достаточно более чем на 1 человеческий мозг.
Олсо гуглим microns project. О проблемах вычислительной мощности они даже не думают.
>>1225846А как связать эти виртуальные нейроны до сих пор не знают.Один нейрон еще в 60 сделать смогли на транзисторах, с тех пор вышло больше фантастических романов чем работающих ИИ.