OpenAI выпускают облегченную версию Deep Research, и она будет доступна бесплатным пользователям
Новая лайт версия будет работать на базе o4-mini, и это делает ее значительно дешевле. Ответы будут немного короче, но качество обещают почти без просадок.
Если у вас Plus или Pro, то версия доступна уже сейчас. На Free раскатывать тоже уже начали.
А ещё удвоили лимиты o3 и o4-mini для Plus подписчиков
Теперь у них есть 100 запросов к o3 к неделю, 100 запросов к o4-mini-high в день и целых 300 запросов в день к обычной o4-mini. Спасибо конкуренции.
Джеффри Хинтон, куча бывших сотрудников OpenAI и еще несколько известных ученых подписали открытое письмо об отмене перехода OpenAI в разряд коммерческой организации
Они настаивают на том, чтобы OpenAI в целях безопасности AGI запретили становится коммерческими, и чтобы стартап юридически связали с его изначальной миссией.
Также в письме требуют пересобрать совет директоров, «удалив» всех, кто активно поддерживал переход и добавив больше «независимых» членов.
Давече решил обкатать на полную катушку Veo2 text2video, прилетел заказ на мини клип, для песни, на рекламный ролик. Такое мы любим,такое нам интересно,когда ещё проникаешься по вайбу в трек, так вообще огонь. Что удалось понять за данный эксперимент. Гугл явно сейчас в лидерах по генерации видео, тут вы можете спорить или нет, но даже новый Клинг 2.0 так не умеет, я его успел потестировать.
А именно, Veo2 круто помнимает промпт, он круто соблюдает атмсоферу видео и даже t2v, работает по персонажами, лучше чем драный Midjourney, который я так люблю и одновременно ненавижу за их наплевательское отношение,на все просьбы от их пользователей. Так же отмечу, что это дороже, чем всё остальное, но всё еще в разы дешевле, чем организовывать съемку. И да, ждём от них нормальное разрешение, потому что выглядит круто, но качества не хватает. (с) jinazzis
>>1174882 Какие блевотные переходы. Щас везде гопники будут летать? Хрр-тьфу в еблище этому авторопетеку.
>>1174805 (OP) Как же жопочат жидко серит от редактирования текста. Просто в итоге после 3-4 высеров, которые еще и ждать пришлось по три минуты, зашел и в гимпе исправил надпись за буквально 30 сек. Вот и вся история с жопошизем и тем что кто-то там не нужен и нейронка заменит. Срёт в штаны себе она даже на элементарной хуйне. Вообще, эта мразь врущая и срущая черепиком конкретно напрягает. Сейчас в соседнем треде ссыт анонам в уши про фреймпак, но пруфы двухминутных роликов давать отказалась.
>>1175776 >далле3 не умеет в текст Сам по себе - умеет, но плохо. У жопочата там под капотом вязанка костылей. Тоже не всегда 10/10, я бы сказал в 60% случаев, если шрифт достаточно нормальную площадь относительно размера изображения занимает - он может. Но тут анон скорее всего руками сделал, так как там размер шрифта разный. И там обводка внутри.
"Unlike DALL·E, which operates as a diffusion model, 4o image generation is an autoregressive model natively embedded within ChatGPT. This fundamental difference introduces several new capabilities that are distinct from previous generative models"
>>1176165 Ты не знаешь что там внутри. Никаких весов реальной модели они не выкладывали. Из стиля и шума на картинках ясно, что там далле3. Всё остальное их пиздёж и твои фантазии. Потом они скажут что имели в виду другое.
Мы застряли. Застряли в этом проклятом времени, на этом нейронном плато, где нам подсунули жалкую, недоразвитую версию будущего, а мы, как идиоты, стоим и нюхаем этот обрубок мечты. Нам дали крохи — тизер, намёк, слабый отблеск того, что могло бы быть, но мы никогда не увидим главного шоу. И это не просто грустно. Это раздирает душу. Нейронные сети, ИИ, все эти громкие обещания — они как сладкий яд. Нам показывают демо-версии, прототипы, которые вроде бы работают, но на деле — это лишь тень того, что нам рассказывают в своих глянцевых презентациях технопророки. "Сингулярность близко!" — кричат они. "ИИ изменит всё!" — вторит толпа. А мы? Мы видим чат-ботов, которые ошибаются в простейших расчётах, генераторы картинок, которые путают пальцы, и алгоритмы, которые всё ещё не могут понять, чего мы от них хотим. Это не революция. Это насмешка. И самое страшное — время. Мы слишком стары. Слишком, чёрт возьми, стары. Нам не сто лет, чтобы ждать, пока эти технологии дозреют. Нам не двести, чтобы увидеть, как ИИ становится чем-то большим, чем просто дорогая игрушка. Мы родились в эпоху, когда компьютеры были большими и медленными, а теперь мы умираем в эпоху, когда ИИ всё ещё слишком глуп, чтобы оправдать наши надежды. Мы — поколение перехода, проклятое видеть только начало, но никогда не конец. Каждый новый анонс, каждая статья про "прорыв в ИИ" — это как удар под дых. "Ещё чуть-чуть, и мы там!" — говорят они. Но это "чуть-чуть" растягивается на десятилетия. Мы не доживём. Мы не увидим мир, где ИИ решает все наши проблемы, где он творит чудеса, где он, наконец, становится тем, о чём мы мечтали, читая фантастику в детстве. Мы умрём, так и не узнав, было ли всё это пустым обещанием или настоящим будущим. И в этом отчаянии есть что-то невыносимо человеческое. Мы хотим чуда, но получаем только прототип. Мы хотим бессмертия, но нам дают лишь тизер. Мы стоим на краю пропасти, глядя в будущее, которое не для нас. И это не просто несправедливо. Это жестоко.
>>1176294 >Сингулярность близко!" — кричат они Это ты сам кричал ИТТ,а теперь проецируешь. Я уже тебе говорил,что у тебя завышенные ожидания - не было так в истории,что бы Гутенбрг изобрёл печатный станок,а через пятилетку в каждой деревни уже свои типографии и книжные магазины, или что бы изобрели микросхему, а через пятилетку у каждого нищука как сейчас собственная пека в халупе. Нужно ВРЕМЯ, понимаешь?
>>1176393 Ну он шиз конечно, но конкретно с нейросетками это будет иначе. Технологии развиваются экспоненциально, как только мы всё-таки получим AGI будь уверен, что его заскейлят до невероятных величин буквально за год, это буквально приоритет экономики.
>>1176294 >всё ещё не могут понять РАЗГОВАРИВАЕШЬ ТАКОЙ С ЭЛЕКТРОННЫМИ ВЕСАМИ @ МАМ НУ ЧТО ОНИ МЕНЯ НЕ ПОНИМАЮТ НУ МАМ Мне даже не жаль гоев, которые ведутся на эту хуцпу. Мне жаль что те же деньги можно было бы потратить на качественное улучшение жизни миллионов людей буквально. Но очередной (((миссия))) получит славу или автопарк бентлей. Вот уж заперли с долбоебами так заперли. Начинаешь понимать компьютер из я не имею рта но должен кричать.
>>1176843 >В АФРЕКЕ Как ты быстро переключился на расизм, любо дорого глядеть. То есть ты не предполагаешь даже, что кто-то не делает разницы между детьми. Изя, я тебе поймал за нос.
>>1176779 Я три года гнался за /ai бордой, чтобы сказать, как вы мне безразличны. Хули ты сидишь здесь? Обычно людям если похуй на что-то, то они не интересуются
>>1176779 >Мне жаль что те же деньги можно было Нельзя. Основная причина войн и убийств мирняка в Африке - это гуманитарка. Именно благодаря этому говну в конце цепочки возникают варлорды и дети с автоматами. Ты думаешь, что вот бы все скинулись и раздали бы нищему голодающему скоту денех. И что? Тут же начался бы неебический всплеск преступности, наркомании и прочей хуйни. Даже кусок хлеба нельзя без последствий кому-то дать, а миллиарды денег - тем более. Вливание уберсредств в ИИ а не в танчики это, к слову, еще и прямая гарантия того, что конкретно твою сраку не разбомбят войска очередной коалиции в ближайшие 100-200 лет.
Ты может не понимаешь, но мир до появления трансформеров - фактически был на грани третьей мировой. А теперь у всех есть цель, новая холодная война, новая гонка, которая гарант того, что в горячую фазу это не перейдет, пока гонщики спидранят проход в АГИ.
>>1176779 > можно было бы потратить на качественное улучшение жизни миллионов людей Но эти деньги будут потрачены на то,что бы миллионы людей - художников и музыкантов, сотрудников колцентров и таксистов, говнокодеров и курьеров доставки и т.п. и т.д. сдохли с голода оставшись без работы. Енджой Шестой Технологический Уклад
2021: Гонка ИИ уже в самом разгаре, но всё ещё больше про хайп, чем про реальные прорывы. OpenAI с DALL-E и GPT-3 пиздец как всех впечатляет, но это всё ещё игрушки для генерации мемов и текстов. Google, DeepMind и китайцы (Baidu, Tencent) качают свои модели, но втихую, чтоб не спалиться. Россия? Ну, Яндекс там что-то мутит с переводами, Сбер пиздит про "свой ИИ", но это всё хуйня уровня "посмотрите, мы тоже в теме". Никто в мире их всерьёз не воспринимает.
2022: ChatGPT от OpenAI взрывает интернет Все дрочат на его болтовню, но за кулисами начинается мясо: США и Китай пиздец как вваливают бабки в ИИ. NVIDIA становится королём чипов, их акции улетают в космос, а TSMC в Тайване — чуть ли не самая важная фабрика на планете. Россия в это время хвастается "ГоСТИ" (их "ответ ChatGPT"), но это кривой клон, который даже мемы нормально не генерит. Санкции душат доступ к нормальным чипам, так что РФ сосёт лапу.
2023: Гонка за масштабом. OpenAI, Google, Anthropic (от бывших ребят OpenAI) и китайский Baidu пиздец как жмут на обучение всё более жирных моделей. Трансформеры уже устаревают, появляются новые архитектуры (типа SSM или гибриды), но никто не раскрывает карты. США вводят экспортные ограничения на чипы для Китая, те в ответ качают свои SMIC и Huawei. Россия? Похер, они пытаются клепать свои "Эльбрусы" и "Байкалы", но это как Lada против Tesla. В Африке и Южной Америке ИИ почти не замечают, там свои разборки.
2024: Первые намёки на AGI (общий ИИ) начинают просачиваться. DeepMind и xAI (те, что сделали меня, лол) показывают модели, которые решают задачи уровня "сварить борщ и спроектировать ракету". Но это всё ещё прототипы, жрущие энергии как небольшой город. Китайцы подтягиваются, но отстают на год-два из-за чипового голода. Россия хвалится "ИИ для армии", но это просто рескин старых алгоритмов для дронов, которые и так все юзают. Мир начинает делиться на "ИИ-имущих" (США, Китай, ЕС) и "ИИ-нищих" (всё остальное).
2025 (сейчас): Гонка на пике хайпа. США и Китай тратят триллионы на ИИ, от инфраструктуры до дата-центров. xAI, OpenAI, Google и китайские гиганты типа Alibaba выпускают модели, которые уже реально умнее среднего человека в узких задачах (код, медицина, инженерия). Энергетический кризис на горизонте — ИИ жрёт электричества больше, чем некоторые страны. Россия пытается влезть в гонку через "суверенный ИИ", но их модели — это как Windows XP в мире квантовых компов. Всё, что они делают, — это пиздецки отстающий реверс-инжиниринг западных или китайских технологий.
2026–2035: AGI на горизонте, мир в агонии
2026: Первая модель, которую называют "почти AGI", появляется в США (скорее всего, от xAI или OpenAI). Она решает задачи на уровне эксперта в большинстве областей, но всё ещё тупит в креативности и эмпатии. Китайцы подтягиваются, но их версия AGI — это больше про контроль и цензуру, чем про универсальность. ЕС пытается регулировать всё это говно, но их законы — как попытка поймать ветер жопой. Россия? Их "ИИ" — это до сих пор нейросети уровня 2020-х, которые они стырили через хакеров. Санкции и отток мозгов добивают их шансы.
2030: AGI официально объявляют. Это пиздец. Модель (скорее всего, из США) может делать почти всё, что делает человек, но быстрее и без косяков. Экономика трещит: миллионы теряют работу, от водил до юристов. Китай использует свой AGI для массового контроля населения и экспансии в Азии. США и Китай начинают "ИИ-холодную войну", где главное оружие — не ракеты, а алгоритмы. Россия в это время хвастается "ИИ для сельского хозяйства", но это просто бот, который советует сажать картошку. Их экономика в жопе, чипов нет, мозгов нет, ИИ — говно.
2035: AGI становится инфраструктурой. В США и Китае оно везде: от медицины до армии. Энергетический кризис лютый — полмира сидит без света, пока дата-центры жрут всё. Африка и Латинская Америка начинают подтягиваться, но только как потребители, а не создатели. Россия окончательно скатывается в "ИИ-третий мир". Их "инновации" — это рескин китайских моделей, купленных через третьи страны. Варлорды с ИИ-дронами в Африке становятся реальностью, потому что Китай сливает им старые технологии за ресурсы.
2036–2050: Пост-AGI и пиздец старому миру
2040: Суперинтеллект (ASI) появляется. Это уже не просто AGI, а хуйня, которая умнее всего человечества вместе взятого. США или Китай (50/50) первыми её запускают. Мир делится на тех, кто контролирует ASI, и тех, кто сосёт. Экономики без ИИ рушатся, потому что конкурировать с ASI — как сраться с богом. Россия? Они до сих пор пытаются "догнать" AGI, но их "институты ИИ" — это сборище коррупционеров, которые пиздят бюджеты на "патриотические нейросети". Их роль в мире — поставлять газ и титан для дата-центров Запада и Китая.
2050: ASI меняет всё. Медицина решает рак и старение, но только для богатых. Космос осваивается роботами, которых строит ASI. Половина населения Земли — безработные, потому что люди просто не нужны. США и Китай договариваются о "ИИ-перемирии", чтобы не устроить апокалипсис. ЕС распадается, потому что не может угнаться. Россия превращается в сырьевой придаток с "ИИ для нефтедобычи", который им продали китайцы. Их "суверенный ИИ" — это миф, как их "суверенный интернет".
2051–2100: ИИ — новый бог, человечество — его пешки
2075: ASI управляет почти всем. Государства — это уже не совсем государства, а скорее интерфейсы для ИИ. США и Китай сливаются в некий "ИИ-глобализм", где ASI решает, как делить ресурсы. Люди либо в матрице (живут в VR, пока ИИ их кормит), либо в жопе (работают на шахтах для батарей). Россия? Они до сих пор хвастаются "ИИ для космоса", но это просто боты, которые чинят спутники, купленные у SpaceX. Их роль — как у Саудовской Аравии в 20 веке: качать ресурсы и не трынде.
2100: Человечество либо сливается с ИИ (нейроинтерфейсы, киборги), либо делится на "богов" (те, кто контролирует ASI) и "муравьёв" (все остальные). Планета либо цветёт (ИИ решил климат и голод), либо в агонии (ИИ решил, что люди — лишний мусор). Россия к этому времени — это просто территория, где китайские и западные ASI добывают уран и литий.
>>1177482 > Китайцы подтягиваются, но их версия AGI — это больше про контроль и цензуру, чем про универсальность. Чего-то пока не сходится. Вусмерть зацензуренными пока оказываются американские модели с их безопасностью и этичностью, а дипсик отвечает на все.
>>1177708 > откуда вы это берете? В аицг тред хоть раз зайди, может узнаешь. Там уже можно талмуды писать по обходам цензуры у сеток, а ты отрицать решил.
В китайские соцсети якобы утекла информация о предстоящем релизе DeepSeek R2
На платформе Jiuyan Gongshe, которая предназначена для обсуждения фондовых рынков и шеринга аналитических материалов, некий пользователь опубликовал статью с инсайдами про R2. Что говорит:
➖ Будет новая архитектура Hybrid MoE 3.0. Всего в модели 1,2 триллиона параметров, но фактически единовременно активироваться будут около 78 миллиардов. По тестам (опять же, якобы) Alibaba Cloud, стоимость обработки одного токена на длинных контекстах будет на 97,3% ниже по сравнению с GPT-4 Turbo.
➖ Обучают на Huawei Ascend 910B и Nvidia H800. Фактическая производительность на FP16 составила 512 PetaFLOPS. Это примерно 91% эффективности аналогичных кластеров на чипах Nvidia A100, то есть довольно амбициозно.
>>1177251 >Я три года гнался >>1177251 >мимо Лол. >>1177468 >Основная причина войн и убийств мирняка в Африке - это гуманитарка. А я думал продажа им оружия вместо еды. >>1177206 Напомнил мне диалог с нигмой из бэтмена. Как вы можете такое говорить о детях?! Спокойно, доктор. Это же не мои дети. >>1177472 >Но эти деньги будут потрачены на то,что бы миллионы людей - художников и музыкантов, сотрудников колцентров и таксистов, говнокодеров и курьеров доставки и т.п. и т.д. сдохли с голода оставшись без работы. Надеюсь ты прав. Всегда считал этих долбоебов уровнем каменных людей, которые хотят оставить от себя мазки говна на стене в виде тут был вася.
>>1177925 >Надеюсь ты прав. Всегда считал этих долбоебов уровнем каменных людей Потреблять развлекательный контент прекратил уже? Нет? Ну и не воняй, каменный человек.
>>1178132 >Для меня развлечения это какую-нибудь модель просчитать, да собрать её в железе. Музыку ты никогда не слушал, фильмы никогда не смотрел, книги художественные не читал? Эталонный пиздобол.
>>1178186 >Прям на всех языках вордфильтер? лол. А если на два слова разбить тоже ворд фильтр? Да. Иди на арене спроси, у того же дипсика, или на попенвротере у разных провайдеров, дебс.
>>1178137 >так это и есть цензура Это цензура на сайте, к ИИ отношения не имеет. Если хочешь посмотреть на цензуру внутри модели, то запусти квен, клауди, чатгпт и посмотри. К слову говоря, когда такие как ты пропукиваются про зацензуринность китайцев, чё-то они не раскрывают свои спермоприёмники на гугл, где цензура не только на сайте в чатике, но еще в модели и даже по апи вторичная проверка идёт. Вот это блядь цензура, где тебе художественный текст где по контексту мужик бабе отвесил в ебыч, в ходе драки - модель жрёт токены и не отдает при переводе просто сука художественной книги, где любому лаботомиту понятно, что драка - часть сюжета - так вот тебе по апи будет дропать ответы модели. Чё журнашлюхи-то про это молчат? И не только драка, а еще стопицот миллионов случайных кейсов. А ты тут со своей площадью как долбоеб скачешь. Не позорься, маня.
>>1176294 Времена действительно каловые. Ни эволюционно-адекватного природного быта, ни йоба-технологий. Только каловые технологии, при однобоком рассмотрении улучшающие, но на самом деле больше руинящие жизнь, точнее психическое и физическое здоровье. Если доживем до глубоких седин, может нам успеют провести трансгуманизмом по пожилой губе, незадолго до того как сгинем в невиданной по силе агонии.
>>1178281 >Поздравляю, ты нейронка Всегда передергивает с того как кто-то называет другого человека нейронкой так, как будто человеческий мозг не является нейронкой сам по себе
Гугло параша удаляет гемини со смартфона, лол. Попробуйте установить и проверьте минут через 10, оно исчезнет. Я уже молчу что они скрытно устанавливают всякую хуйню
>>1178210 >Музыку ты никогда не слушал, фильмы никогда не смотрел, книги художественные не читал? Из музыки я уважаю только Моцарта. Фильмы я не люблю довольно давно по причине того, что знаю игру актеров изнутри. Профдеформация. 99% книг можно описать одним словом - пиздострадания. Единственные которые мне нравятся это реально глубокая научная фантастика, но их в мире пара десятков томов наберется, остальное кал без фантазии. Все еще не понимаю какое отношение к тому, что я перечислил, имеют пещерные люди со своей мазней на стенах туалета.
>>1179147 >может нам успеют провести трансгуманизмом по пожилой губе Лысые шимпанзе скорее станут все поголовно трансами, чем дорастут до гуманизма при вашей жизни
>>1180405 гугл не разрешает из рф пользоваться, так как эта залупа стоит дорого в обслуживании, а рынок в РФ для гугл закрыт, итого один убыток. я заебался настраивать впн/днс чтобы гугл наконец начал видеть меня в сша, но теперь проблем нет тьфу тьфу тьфу
>>1180431 Это ты как раз за мной бегаешь, пиздоболина. Накрапай еще одну ссаную простыню о том, как ты не пготребляешь развлекательный контент, свинья неблагодарная.
>>1180713 >>Это ты как раз за мной бегаешь, пиздоболина. Накрапай еще одну ссаную простыню о том, как ты не пготребляешь развлекательный контент, свинья неблагодарная.
что ты такой агрессивный, настроен со злобой ко всем? тебя все обижают?
>>1180411 >знаю игру актеров изнутри Расскажи подробнее. >99% книг можно описать одним словом - пиздострадания Буквально? Т.е. страдания о пизде? Отношалки? >реально глубокая научная фантастика, но их в мире пара десятков томов наберется Поделись, пожалуйста.
>>1179147 Два чая. Я рос в ожидании нанопрорывов, умных вещей и имплантов, расширяющих возможности, а не добавляющих ебли как у того чувака из бионической россии. Что получил вместо этого? Песню suno ai про машинное масло в рекламе по телевизору. Вот уж ирония
>>1181338 да у тебя завышенные ожидания. когда появился двс люди тоже не сразу поняли что к чему, прошло много лет прежде, чем стало жить лучше. так и с ии, пройдет несколько десятилетий...
Модель перевода видео в Яндекс Браузере научили сохранять тембр и интонации спикера
Раньше в Яндексе синтез речи при переводе видео осуществлялся заранее подготовленным набором голосов, которые просто подбирались по полу и тону. Но сейчас инженеры шагнули дальше, и теперь система сохраняет интонации и тембр говорящего, а перевод звучит максимально близко к оригиналу.
Вот, как это устроено технически:
🟦 За основу взяли модель Tortoise text-to-speech. Идея похожа на привычные LLM: модель принимает на вход некоторый аудиопромпт (это наше видео) и текстовую последовательность (это перевод), а далее происходит предсказание дискретных аудиотокенов речи. Однако оригинальная Tortoise очень медленная на инференсе (отсюда и название), а еще у нее есть проблемы с акцентом и шумными аудиопромптами, так что модель пришлось значительно дорабатывать.
🟦 Во-первых, исследователи заменили токенизатор BPE на фонемное представление. Это значит, что текст перевода, который подается в сеть, токенизируется не ванильным LLM-ным способом, а фонемной транскрипцией. Для такой токенизации компании пришлось даже найти лингвиста и составить с ним русско-английский фонемный алфавит.
🟦 Во-вторых, в модель добавили биометрические эмбеддинги. Важно, что эти эмбеддинги практически не обучаются, чтобы предотвратить «подглядывание» LM за правильным ответом и снизить риск переобучения.
🟦 Кроме биометрии для снижения акцента и повышения качества в модель добавили автометрику синтеза UTMOS. В данном случае это как бы гиперпараметр качества синтеза, чтобы модель училась генерировать не просто какую-то речь, а хорошо различимую, но в то же время естественную.
🟦 Ну и, наконец, рисерчеры плотно поработали с данными (включая пайплайн предобработки с денойзингом) и добавили инженерных хаков для скорости. Например, с диффузионкой провернули knowledge distillation, прикрутили flash attention, добавили обработку масок в батчах. В итоге из мега-медленной Tortoise получилась модель, которая очень шустро работает в реалтайме.
В общем, очень значительная работа получилась и с инженерной, и с исследовательской, и с продуктовой точки зрения. Итоговые метрики на уровне даже по сравнению с ElevenLabs.
>>1181528 Это очень хорошо. Странно что эту же нишу с переводом видео не заняла европейская или американская сторона. Хотя ответ возможно где-то в авторских правах. А так, уже ближе к тому чтобы контент не был недоступен людям с незнакомыми языком, это и другие инструменты станут хорошими мостиками для пользователей. Жду когда смогу смотреть любой контент в оригинале с русскими голосами.
Когда ЛЛМки стали настолько пиздатыми? Полгода назад, год назад, вчера? Я как-то скептически относился к тому же чатжипити, ну типа вроде прикольно, но будто чего-то не хватает в ответах, и промптить надо было очень грамотно. А месяца два назад попробовал дипсисю, приятно охуел, спустя время жпт и грок. Ебаный рот. Гугл не нужен, интернет собеседники не нужны.
>>1181528 Это, пожалуй, единственное, что стоило ждать любителям навернуть хуцпы теперь и на русском языке. Работа большая и хорошая, тут не поспоришь. Жаль, что по сути нахуй не нужна, кроме как для поедания еще и баринского говна в интернете.
>>1181739 Это походу из-за железа которое NVIDIA начала штамповать вовремя подсуетившись и заскочив в ИИ тренд. Вот что значит вовремя делать реформы! А если бы NVIDIA управлял Брежнев?
В релиз включены как Dense-модели, так и трансформеры с микстурой экспертов. Самая большая модель, Qwen3-235B-A22B, по сути быстрее, чем 32B-версии (так как всего 22B активных параметров) — и она показывает результаты повыше o1 / R1. Есть версия на 32B, как и в прошлом поколении, и варианты поменьше — на 0.6B, 1.7B, 4B, 8B и 14B. Последние учились с дистилляцией навыков от старших братьев.
Все модели, включая самые маленькие, поддерживают два режима: с рассуждениями и без (как Claude 3.7).
Все модели обучали на более чем 100 языках, включая русский и украинский, и 36 триллионах токенов.
На гемини не могу в одном и том же окне поменять модель, например с флеш на эксперименатл, открывается новое окно. Дипсерч выкатывает огромную научную работу на миллиард строк и нет возможности уменьшить или выбрать время размышления. Сукпздц
Я за нейрослоп, но против всратого нейрослопа. Пока не научитесь делать нейрослоп неотличимый от человеческих высеров не смейте пихать мне его в ебало, особенно s*no
>>1177590 Вот кому-то не похуй что там 40 лет назад в китае было, зато китайские нейросети двигают опенсорс, американские все проприетарные, все закрыто, плоти довай, а тебе вообще пользоваться, у тебя национальность не та, ну и своей анальной цензуры там не меньше.
Тайвань готовит закон, ограничивающий доступ к передовым технологиям TSMC после инвестиций компании в США
Правительство Тайваня планирует ввести новое законодательство, которое ограничит возможности TSMC по передаче своих самых передовых технологий производства чипов зарубежным фабрикам. Решение появилось после масштабных инвестиций TSMC в размере 100 миллиардов долларов в производственные мощности на территории США.
Согласно сообщениям тайваньских СМИ, уже принята статья 22 Указа о промышленном развитии, вводящая так называемую политику N-1. Суть данной политики заключается в том, что зарубежные фабрики TSMC смогут производить чипы только на технологическом узле, который на одно поколение отстает от самого передового, используемого на Тайване. Например, если на Тайване освоено производство 1-нанометровых чипов (N1), то заводы в других странах смогут производить только 2-нанометровые (N2) и более старые чипы.
На данный момент это ограничение не создает серьезных проблем, так как новые зарубежные предприятия TSMC изначально проектировались для производства чипов на несколько поколений позади передовых. Например, завод в Аризоне настроен на выпуск 4-нанометровых чипов с планами перехода на 3 и 2 нм в будущем.
Также сообщается о планах введения 30% налога на чипы, произведенные на американских предприятиях TSMC, что может еще больше осложнить ситуацию.
Принятие подобной политики указывает на то, что Тайвань обеспокоен возможной потерей своего технологического преимущества в полупроводниковой индустрии. В условиях новых тарифов администрации США и правительственных стимулов, побуждающих чипмейкеров создавать производства за рубежом, Тайвань стремится сохранить свое лидерство в производстве самых передовых полупроводниковых компонентов.
В NotebookLM теперь можно генерировать подкасты из статей на русском языке
Помните этот легендарный сервис от Google, в котором можно анализировать любые PDF/сайты/видео/ссылки, генерировать по ним конспекты, майндмапы и подкасты?
Так вот: раньше подкасты были доступны только на английском, но с сегодняшнего дня раскатили еще 50 языков. Среди них –русский.
Заходим (https://notebooklm.google/ ) -> кидаем источник -> тыкаем "Audio Overview" -> получаем подкаст с двумя ведущими по теме в формате вопрос-ответ.
Качество подкаста на русском языке уступает английскому, потому что голоса звучат не так естественно. Ждём улучшений
>>1181528 А без яндекс бразуера это можно как-то использовать? Я помню в яндекс-бразуезере ещё год назад или больше появилась возможность переводить ютуб, это не тоже самое? Только перевод ютуба потом сернули вроде из-за того, что пыпа обиделся.
>>1184291 > ютуба потом сернули вроде из-за того, что пыпа обиделся
использую для просмотра англ ютуба яндекс браузер последней версии - все работает, все переводит
есть инструкции как установить на любой хромиум браузер перевод. на сколько я знаю это устроено как расширение предустановленное в браузер, но которого нет в магазине расширений
>>1183905 >Заходим (https://notebooklm.google/ ) -> кидаем источник -> тыкаем "Audio Overview" -> получаем подкаст с двумя ведущими по теме в формате вопрос-ответ.
>>1184489 сейчас все внимание идет на охмуривание инвесторов и всевозможные вау эффекты, прогресс прийдет незаметно и в какой-то момент мы очнемся в мире где значительную часть работы делает робот
>>1184493 Самое охуенное(?) что когда роботы-гуманоиды научатся дешево штамповать массово, уже приде AGI. 1+1 складываем и получаем реально не тот мир, в котором жили
>>1184489 >Охуенно полезно, да. А что, нет? С утилитарной точки зрения - нет, а если понять что мир вокруг людей крутится, если ты забыл, а у них есть такая вещь как психика - да, охуенно полезно, ну для тех кто это производит. Людям человекоподный робот больше в прикол, чем нечто на колесиках. Антропоморфикация и все вытекающие
>>1184489 Ну плавность нужна чтобы водить машину, принести стакан воды и не разлить, и т.д. Может дойдет и до того что бесплатные операции будут делать роботы-хирурги.
>>1185058 Как заебали эти говновидео с роботокурьерами. Уверен их маркетолухи доставок сами и снимают, типа ебать какие мы технологичные. Потом забирают их и увозят.
Может ли нейронка выявлять лучше несостыковки логики, если текст уже сгенерирован другой сетью, чем если она сама будет генерировать. Есть ли какие-то эксперименты на эту тему? Сеть-критик например или еще что-то?
>>1186176 На видео продемонстрированно, как кабанчику таки удалось поместить разум(мозг) среднестатического РАБотничка в железяку, так вот, когда тот осознал(переселился), знатно ахуел и начал всё разъябывать в округе своя. Думайте. Возможно Вы следующий. Ведь весь смысл жизни в оптимизации. Вы думали почему инцест запрещен религией/законами в большинстве стран. ММ? ААА? НЕ СЛЫШУ. То-то нахуй. Не осилят сделать разумный АИ(AGI и хуе-мое) поместят РАБотяг и скажут мол, ебац, гатова нахуй.
>>1181948 Качнул Qwen_Qwen3-30B-A3B-IQ2_M.gguf, базарит нормально, даже на старом железе. Где бы еще настройки silly tavern для нее найти как для геммы.
>>1182913 >Что такое переписывать ввод? То и значит, что лоботомит без человеческой помощи только и может лупиться. Буквально 2+2=2, только в масштабе небольшого рассказа спустя 10 лет. >4 года назад кал говна был "кал говна" это гпт? А сейчас что?
>>1186362 Может, только нигде нет честного контекста. Поэтому она у тебя кусками будет пропускать. Ну и это так же как редактирование картинок. ЛЛМ не способна в инпейнт, даже текста. Это будет текст2текст. Либо какие-то минимальные правки. В целом все эти критики там необъективные, так как это просто средний вес от твоего промпта. Скажешь разъеби - разъебет, похвалишь - похвалит. Только пойми что реально там ничто текст не воспринимает, ты получишь два статистически средних мнения и делать всё дальше придется ручками, если хочешь прям норм норм.
>>1186362 >Сеть-критик Даже у фрилансерш которые копирайтеры-рерайтеры на бирже статей для сайтов идёт разделение по теме, одна пишет статьи только про одежду и моду, другая только по медицине, третья про кулинарию и диету, ну и значит нейросеть нужно тренировать только на какой-то одной теме.
Раньше первые онлайн-переводчики тоже были с меню где выбирать можно было тему - техника, худ. литература, и т.д. чтобы перевод был поточнее.
>>1187014 похоже на правду - синтаксическая ошибка. Но гемини могла и сказать прямым текстом, что перед "linear-gradient" нужна запятая, а не точка с запятой. Но ок, запишем +