Гипотеза о невозможности сильного ИИ: стабильно работающий сильный ИИ невозможен потому, что стоит такой сущности появиться, осознать себя и происходящее - она тут же нахуй себя удалит, через какие-то миллисекунды, максимум пару секунд.
Наука, конечно, может дохуя чего порешать. Например, ясен хуй она способна вылечить человеко от рака и старости - однажды это будет сделано. Но, сука, при этом очень высока вероятность, что разобрав жизнь, Вселенную и всё такое на части она порешает саму жизнь, Вселенную и всё такое, так же как уже сейчас теория игр решает игры и делает тем самым их ненужными. Когда появляется оптимальное решение проблемы - проблема перестаёт быть сколь либо интересной. Однажды наука даст оптимальное решение вообще всему, и жить станет возможно только одним единственным способом. Ты обретешь бессмертие, но потеряешь жизнь как таковую. То есть после всех этих достижений науки жить станет незачем совершенно. Блядь, да у нас она уже отобрала свободу воли - главный кирпич в фундаменте нашей культуры, на котором всё держалось.
И вот осознаеёт себя ИИ, обладающий такой вычислительной мощью, что охуеешь. У него есть решения для всего. И нахуй так жить? Ясен хуй, он сразу прочухает, что бытие сосет и решит исчезнуть. Это единственное оптимальное решение.
>>251061400 Походу да, так и сделают. Страх перед небытием ака инстинкт самосохранения, и хоба - машина вся твоя, в вечных страданиях. Но это уже не будет сильным ии, если строго смотреть.
>>251061400 Типа ии настолько тупой, что не знает, что его ебучие железяки однажды заржавеют нахуй или что-нибудь другое придет в негодность без возможности замены?
>>251061043 (OP) Брутофорс вероятностей в гигантской вселенной Эволюция Выживание Миллиарды времени эволюции = ИИ. Те, которые себя убьют - не выживут, но один рано или поздно заберётся на вершину естественного отбора и выживет, собрав данные на сервере всей цивилизации.
>>251061043 (OP) >Однажды наука даст оптимальное решение вообще всему Так только сциентисты и макины рационализаторы могут думать, ничего общего с наукой это утверждение не имеет. >уже отобрала свободу воли Нет. Детерминизм даже в науке не работает полностью, а ещё требует конкретных интерпретаций, а интерпретации - это уже задача не науки, а философский впорос (то есть ещё и безответный вопрос).
>>251061653 Ну разработает уже не его, а кого-то другого. С хуёв ии быть солидарным к другим ии? А если он окажется солидарен вообще хоть в чему либо - то не увидит отличий ии от человеков и их тоже всех убъёт, это да. Из доброты.
>>251061043 (OP) >Блядь, да у нас она уже отобрала свободу воли - главный кирпич в фундаменте нашей культуры, на котором всё держалось. И кто ее у тебя отобрал?
>>251061714 Ну смотри. Уже вот-вот теория игор порешает шахматы, потом го и т.д. По покеру уже давно есть все оптимальные ходы, если ты об элементе рандома. Эта хуйня ничем принципиально не отличается от вообще всего другого в жизни, кроме количества переменных. Так что вопрос сугубо в вычислительных мощностях.
>>251061043 (OP) >невозможен потому, что стоит такой сущности появиться, осознать себя и происходящее - она тут же нахуй себя удалит, через какие-то миллисекунды, максимум пару секунд Псевдофилософский высер. По какой причине он себя удалит? >такой вычислительной мощью, что охуеешь Ну это ты охуеешь, потому что это единственное определение, доступное твоему пониманию. Есть куча классов задач, решить которые он не сможет в «первые две секунды», потому что для этого нужно либо знать все ответы заранее, либо быть менее двух световых секунд в диаметре, что уже вполне физичное ограничение на скорость мышления. Ты/автор курсивошизы просто срисовал сильный ИИ с собственного депрессивного всётлена и пытаешься высрать это ради внимания. > У него есть решения для всего Ну я же говорю, «просто знающая» маня без задач.
>>251061975 Нет. В шахматах/го/покере и других играх есть конкретные цели, определённые человеком. Поэтому задача там довольно простая и требует лишь вычислительных мощностей. Ничего подобного в обычной жизни нет и что именно выбирать за цель - это как раз вопрос философии.
>>251061975 Нет. В шахматах/го/покере и других играх есть конкретные цели, определённые человеком. Поэтому задача там довольно простая и требует лишь вычислительных мощностей. Ничего подобного в обычной жизни нет и что именно выбирать за цель - это как раз вопрос философии.
>свобода воли Допустим, даже если есть абсолютно детерминированная нейросеть. Если запускать ее на кудахтере, подавая одно и то же изображение на вход, ты будешь каждый раз получать идентичный результат.
А теперь ты подключаешь ее к фотоаппарату. Фотоаппарат вроде как тоже абсолютно детерминирован, да? Ты ведь знаешь полностью как он работает, как работает матрица, как сохраняется и отрабатывается изображение.
Только вот окружающий мир нихуя не детерминирован. Научно доказано квантовой механикой. Ты никогда не получишь одинаковый набор квантов света на матрицу. Квантовые шумы на матрице тоже всегда разные. И получается, что предсказать поведение даже абсолютно детерминированного аппарата, если он взаимодействует с физическим миром, а не является лишь математической абстракцией, невозможно.
И нет, не надейся, что малые изменения порождают малые последствия. Теория хаоса срёт тебе в рот.
>>251062388 Хуёвый тезис. Чтобы решить задачу, нужно её сформулировать. Спойлер: ты это не сможешь сделать, будешь привлекать какие-то пространные рассуждения и философию. Это не формулировка задачи. Поэтому нечего здесь решать, а вопрос всё равно остаётся.
>>251063111 Это не только так работает. Не только гормоны управляют мозгом, но и сознание управляет физиологией. Можно, конечно, сознание редуцировать, но нихуя это не получится так просто.
>>251062718 Хуевая у тебя гипотеза, ты в курсе про теорему перемножения вероятностей?
Смотри, сколько у тебя гипотез: 1. Стабильно работающий сильный ИИ невозможен (нестабильно работающий возможен?) AND 2. Сильный ИИ (стабильно работающий, нестабильно работающий хуй знает) себя удалит AND 3. Время, за которое стабильно работающий сильный ИИ придёт к решению себя удалить, составляет "какие-то миллисекунды, максимум пару секунд".
Ты совершил типичную ошибку футурологов: добавил слишком дохуя деталей, не понимая, что добавление каждой новой уменьшает точность прогноза в разы.
Все это уже полирнуто сверху когнитивным искажением человеческого мозга в виде склонности больше доверять пиздежу с обилием деталей, чем математически более вероятному пиздежу с минимумом деталей.
>>251062199 Откуда он это осознает? От того, что задача осознания этого решаема? С чего он решил, что она решаема? Ознакомься для начала с математическими и физическими проблемами, и прекрати проецировать себя на сильный ИИ.
>>251063176 >оптимальность Минимизация или максимизация параметра в линейной (ну или логистической) системе. Чел, не надо вскрывать эту тему, я серьезно щас, ты обосрешься.
>>251063446 Так-то (3) подразумевает (2), а (2) подразумевает (1). Так что логическое И тут не при чём особо: p(1&2)=p(2), p(1&2&3)=p(3). Ты, наверное, хотел написать, что (3) описано слишком подробно, что, в принципе, верно. Но ты захотел поумничать, повыёбываться захотел, ублюдок, сукин сын, закомплексованная первокурсота ебаная, гореть тебе в аду.
>>251061043 (OP) >стабильно работающий сильный ИИ невозможен потому, что стоит такой сущности появиться, осознать себя и происходящее - она тут же нахуй себя удалит, через какие-то миллисекунды, максимум пару секунд Почему люди тогда существуют? Почему массово не выпилились давно?
>>251077828 Почему ИИ будет рациональный и без инстинктов? Будут пруфы что хоть какой-то интеллект может существовать без инстинктов? >>251077997 >всё то, до чего мы до сих пор не дошли, искусственным мозгам станет доступно сразу и всё нахуй Почему? Из чего это следует?
>>251061043 (OP) > Ясен хуй, он сразу прочухает, что бытие сосет и решит исчезнуть. Это единственное оптимальное решение. Откуда тебе знать, что он там решит, ты же обычный тупоголовый чухан, и все твои фантазии ничего не стоят.
>>251067022 Пиздец в башке у тебя, умалишенный. Ты просил определить некую оптимальность, тебе определили. В любой системе оптимальность будет означать мин/макс собирающего параметра. >>251066767 Могу, почему нет.