Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Ответить в тред Ответить в тред
Check this out!
<<
Назад | Вниз | Каталог | Обновить | Автообновление | 10 3 7
Я студентка матфакультета, специализируюсь на прикладной математике и работаю в data science. В посл Аноним # OP 16/04/25 Срд 16:16:03 1157439 1
assetstask01jr5[...].png 2966Кб, 1536x1024
1536x1024
Я студентка матфакультета, специализируюсь на прикладной математике и работаю в data science. В последние пару лет плотно занимаюсь генеративными моделями, в основном LLM и diffusion-системами. Проекты есть, практика есть, опыт растёт. Но сейчас пришёл момент, когда хочется определить более устойчивое направление для серьёзных исследований.

Хайп вокруг генеративок не утихает, но архитектуры генеративных моделей имеют пока что не исправимые недостатки. Поэтому я начала смотреть в сторону менее популярных, но, возможно, более значимых в будущем направлений.

Как думаете какие виды искуственного интеллекта смогут заменить превычные нам за эти 4 года трансформеро зависимые llm?
Аноним 16/04/25 Срд 22:17:32 1158363 2
>>1157439 (OP)
Ныряй в когнитивный ИИ. За синтезом когнитивного и бионического ИИ будущее.
Аноним 17/04/25 Чтв 04:40:45 1158914 3
photo2025-02-28[...].jpg 126Кб, 1178x1137
1178x1137
>>1157439 (OP)
> в сторону менее популярных, но, возможно, более значимых в будущем направлений.

Это конечно перспективно, но мы пока что ещё трансформеры только копнули. Сегка. DeepSeek конечно обучил свою модель не в 40 раз эфективнее чем OpenAI (или сколько там журналисты придумали), но раза в 2 точно, а может и больше. Опять же CoT и прочие, казалось бы тривиальные вещи, которые улучшают качество работы трансформеров очень и очень существенно.

Я пишу это к тому что трансформеры сейчас являются наверное ну самой перспективной поляной для исследований: есть куда копать (регулярные скачки качества моделей это демонстрирут), есть интерес со стороны бизнеса (самоочевидно), тема на слуху (также самоочевидно). Вот пройдёт время, GPT-14 будет отличаться от GPT-15 примерно как iPhone 14 от iPhone 15 (почти никак) тогда уже можно думать о чём то другом, а пока за эту волну хайпа надо держаться как за спасательный круг.
Аноним 17/04/25 Чтв 15:11:09 1159674 4
image 529Кб, 1560x1456
1560x1456
Аноним 17/04/25 Чтв 17:00:12 1159878 5
>>1157439 (OP)
Пошла нахуй с доски. Мы тут общаемся с вайфу и генерим прон. Ты нахуй тут не нужна, уебище
Аноним 17/04/25 Чтв 21:45:47 1160349 6
>>1157439 (OP)
>Архитектуры генеративных моделей имеют пока что неисправимые недостатки

Проблема в том, что не то чтобы есть перспективные архитектуры которые бы их стремились устранить. Есть ключевая проблема lifelong learning - способность системы адаптироваться под новые ситуации, которых не было и быть не могло на стадии обучения - перенося и интегрируя новые знания. Проблема памяти частный случай такого, кстати.
Плюс к этому на практике, эпизодов такой адаптации не много, но зато есть возможность интерактивного взаимодействия со средой. Короче, похоже на РЛ, но не полностью - ибо нету нормального определения вознаграждения. И есть требование не деградировать по старым задачам, адаптируясь к новым - даже если старые не обязательно представлены в опыте.

Пока эта фигня не решена, мы будем тыкаться носом в типичные ограничения генеративок снова и снова.
Аноним 19/04/25 Суб 07:21:30 1163860 7
>>1157439 (OP)
Это неправильный вопрос. От нижележащей архитектуры почти ничего не зависит. Качество модели в первую очередь зависит от датасета и конкретного рецепта обучения (расписание, файнтюн, реварды в RL и т.п.)
Аноним 19/04/25 Суб 11:21:43 1163934 8
Аноним 19/04/25 Суб 15:57:46 1164121 9
Аноним 23/04/25 Срд 16:14:54 1171553 10
Настройки X
Ответить в тред X
15000
Добавить файл/ctrl-v
Стикеры X
Избранное / Топ тредов