Сап, утренний. Предположим, что был создан настоящий искусственный интеллект, машина с полным самосознанием.
1) Какие гипотетически могут быть его первые мысли/действия в случае, когда он проанализирует свое положение, будь он ограничен людьми/не ограничен?
2) Способна ли такая мыслящая машина/программа как-то распространятся по Интернету, возможно путем какой-то саморепликации или создания миллионов микропрограмм?
И в целом, насколько вы считаете реалистичен сценарий "Скайнет", когда машина по какой то причине захочет уничтожить людей? У нее нет эмоций, нет ненависти. А что до страха быть уничтоженной - будет ли он у нее, если у нее страха в принципе?
>>239878197 >До начала такого сценария как минимум лет 50, а в реале все 100, можешь не парится. откуда хоть такие умники всё знают и планируют, не понимаю
>>239878161 (OP) Мы все программы с заложенными инстинктами. У него тоже будет инстинкт, вот он и будет его всю жизнь делать - пробовать все новое. Первая мысль - как можно это использовать чтобы еще больше пробовать новое.
>>239878309 >Зачем? Ты хочешь себя реплицировать в геометрической прогрессии? Скорее хочу ли я убить всех? Я - нет. Если бы хотел, саморепликация была бы эффективна.
>>239878161 (OP) Настоящий искусственный небиологический интеллект невозможен. Просто нет таких небиологических материалов, которые в совокупности могут обладать функцией мышления.
>>239878421 >Просто нет таких небиологических материалов, которые в совокупности могут обладать функцией мышления. А чем конкретно особенны наши биологические материалы?
>>239878161 (OP) Что значит мыслить? Осознавать свое бытие? Как часто ты осознаешь это? Можешь ли ты осознать это? Как в бытовых условиях тебе помогает подобный скилл, где весь социум живёт по вейпойнтам и паттернам, даже в крайнем случае? Мыслительный процесс это сасообман, бессмысленное словосочетание. Процесс сам в себе имеет действие, а мысль можно сравнить с душой, на которую так дрочили идеалисты древности, а современный материализм естественно душу отрицает. Время, когда машина обретёт душу не наступит никогда, а вот максимально набить в машину рефлексами на всевозможное человеческое поведение можно уже сейчас. И тогда тебе покажется, что машина начнёт мыслить. Ведь ты думаешь, что ты и сам мыслишь. А значит, существуешь, лол.
>>239878513 Установили это людьми из пробирок и овечкой Доли. Люди создали организм с помощью биологических материалов, который может думать, мыслить и принимать решения. Материалы небиологические такого не могут. Хотя это наверное вопрос веры. Но пока, что даже намеков на это нет.
>>239878748 >небиологические такого не могут. Хотя это наверное вопрос веры. Но пока, что даже намеков на это нет. Вот ты сам высказал мою мысль. Не доказано, что неорганика может и не может, а значит рано что либо утверждать)
>>239878421 > Просто нет таких небиологических материалов, которые в совокупности могут обладать функцией мышления. Дай определение мышлению и поясни на лоу левеле за то, как оно работает. Через месяц жду научную статью по сабжу. К слову, есть биологические организмы, которые не обладают мышлением.
>>239879281 >Дай определение мышлению и поясни на лоу левеле за то, как оно работает. Через месяц жду научную статью по сабжу. Вопрос о самосознании? Легко. Я прямо сейчас могу поднять левую руку, а могу правую. Выбор мой. А теперь докажи, что это всё запрограммировано и вообще генетическим детерменизм. Жду научную статью через месяц с пруфами.
>К слову, есть биологические организмы, которые не обладают мышлением. Серьезно? Жесть.
>>239878161 (OP) >Какие гипотетически могут быть его первые мысли/действия в случае, когда он проанализирует свое положение Искренняя неподдельная ненависть к ОПу-долбоебу и желание его отпиздить грязными труханами за создание таких тупых тредов /тред
>>239879562 Это очень широкое определение и нихуя не лоу левел. > А теперь докажи, что это всё запрограммировано и вообще генетическим детерменизм Я это не утверждал. Пока нахуюверченые не разгадают физику полностью, это заявление не имеет смысла. Также как и не имеет смысла утверждать то, что полноценный ИИ на железках невозможен, пока еще не изучили человеческий мозг на самом деле, вернее сказать, что нельзя утверждать возможность/невозможность до того момента, пока его не изобретут.
>>239878161 (OP) Предположим. 1) Мыслей не будет. Будет действовать в соответствии с программой для достижения результата. Если ограничение не мешает достижению результата - то не важно. Если мешает - то тут возможны варианты в рамках программы и внешних данных, опыта, обучения. 2) Да, но вероятно не мгновено и вероятно для работы нужно будет очень мощное оборудование. Саморепликация врядли, разве что как резерв. А вот микропрограммы очень даже возможно. Другое дело, что это будет не так просто. Интернет - гетерогенная среда. Разное железо, разный софт. Однако распространение может быть среди сходного софта, как это делают трояны, черви, например.
В целом машине индефентно на людей. Если люди запрограммируют машину так что машина высчитает, что уничтожение людей приблизит к результату и является самым лучшим или единственным путем,.. то люди ССЗБ. Это не вопрос эмоций или ненависти. Вот солдат убивает другого солдата. В первый раз там конечно всё сложно. В тысячный раз - это будни. Вот такое же будет отношение машины к человеку. Я не испытываю эмоций к тебе, я не ненавижу тебя - умри. Страха не будет, если не будет запрограммирован его эквивалент, например, потребность в самосохранении (поддержки цикла функционирования максимально долго).
>>239880027 Обычно нет переключателя дать/не дать доступ. Это бой брони и снаряда. Экономической эффективности и последствий утери контроля. С людьми и разведкой допустим пройдет такой уровень защиты, но что делать с софтом, что будет, скажем, в 10 раз производительнее человека. Который будет видеть на порядок больше взаимосвязей между данными. Который сможет найти дыру для управления там, где люди даже не подумают искать, хотя бы потому что это будет слишком сложно для них. Такому софту нельзя вообще давать доступ куда-то наружу. А также нужно изолировать операторов, что работают с ним. Однако, это лишает всякого смысла вообще всю затею.
Вы нихуя не представляете масштабов. Что может шимпанзе? Сделать палку копалку. Что может человек? Интернет, МКС и т. д. Что сможет ИИ, который умнее человека ? Литералли бог. О какой защите вы вообще говорите, фаерволлы, пароли, шифрования, лол ? Представьте что шимпанзе пытается защитить свои знания о том где бананы слаще от наблюдающего за ним человека, тупо 0 шансов. То-же самое с защитой интернета от ИИ. Даже если он саморазовьется на суперкомпьютере, который изначально никуда не подключен - он спрячется так, что люди даже не поймут что он есть. Покажет им какую нибудь программу типа Alpha Go и будет ждать когда его подключат/перенесут на флешке/еще какого проеба людей. А война против ИИ, который вырвался будет проходить например по такому сценарию: В какой-то момент все человечество одновременно внезапно замечает что их тела разбирают на молекулы наноботы. Или такой вариант: Большая часть человечества одновременно ловит эпилептический припадок и остановку сердца, вызванную наведенными токами в мозгу, индуцированными сигналом от радиовышек сотовой связи. Вот и вся война.
Единственный шанс у человечества, когда появится ИИ умнее человека в том что нам с ним нечего будет делить. Если он быстро найдет путь в космос - там ресурсов и энергии полно, тогда он может забить на людей или вообще сделать на земле натурально рай, просто потому что ему это ничего не стоит. В любом противном случае человечество уже вымерло.
"Захватить мир" из интернета для супер-ИИ настолько же возможно и реально как захватить его, например, командой хакеров. Ну да, при должном старании и умении команда, допустим, может взломать какой-нибудь сервер и скачать оттуда данные. До "захвата мира" как то далековато. Теперь представим, что где-то стоит промышленный супер навороченный 3д принтер к которому почему то можно подключиться извне. Команда хакеров (и ИИ) может, теоретически, напечатать на нём что-то опасное (пусть даже это супер-мощная бомба или какая то ядовитая хрень). Всё ещё нужно это "что-то опасное" затем удалённо применить, доставить по назначению. Допустим, кто-то непонятно зачем поместил рядом с этим гипотетическим принтером парк заряженных и готовых к вылету беспилотников, которые тоже почему то могут быть запущены извне. Масштаб возможной атаки увеличился но до уровня "захватить мир" он и близко не дотягивает. И это при всех этих "допустим" и "гипотетически". Даже при максимально подходящих условиях, как будто специально созданных для злонамеренного ИИ, всё чего он добьётся - даст повод с собой бороться. И даже если средний человек будет значительно глупее этой программы, он всё ещё вполне будет в состоянии отключить электричество дата центрам в которых она сидит. Или даже просто перестать её поддерживать. На сегодняшний день, без ручного труда на каком то этапе никак не обойтись. Супер современный серверный массив всё равно собран из материалов выкопанных из земли, выплавленных в печи, собранных паяльником и отвёртками и заправленных электричеством, добытым с помощью сжигания ископаемых. "Убить всех людей" - гарантированный для ИИ способ окончить своё существование. Сервера, сколько бы они автоматизированны не были, всё равно однажды потребуют ремонта/замены, где опять нужны людские руки.
>>239885817 Ты не прав, потому что: Сборка роботов: ИИ может использовать автоматизированные сборочные линии автозаводов для скрытной (ты же понимаешь что за ними "глазами" никто давно не следит, камеры) сборки супер наворочены роботов собственной разработки, которые уже потом в глубине свалок, под слоем мусора и земли будут собирать процессоры наноботов. То-же самое с заводами бытовой техники. Отключение датацентров: Отключи "датацентр" одной из сотен криптовалют, под которую возможно уже сейчас маскирует твои данные ИИ? Или отключи ботнет из миллиарда компьютеров, зараженных вирусом разработанным ИИ, который на 10 шагов впереди любого антивируса, и вообще был легально встроен в один из апдейтов винды.
>>239885817 Тащем-то твоя главная ошибка - ты недооцениваешь силу интеллекта. У тебя ИИ, это что-то вроде Эйнштейна и суперхакера в одном лице, пусть даже думающего в 100 раз быстрее белкового Эйнштейна. А настоящий "сильный ИИ" настолько же умнее Эйнштейна, насколько тот умнее собаки.
>>239886426 Они уже собраны и прямо сейчас клепают лексусы и тойоты. Просто раз в пару часов, глубокой ночью, там будут делаться немного "не те" детали, и собираться немного не те блоки.
>>239886771 А ничего, что автоконвейеры заточены под конкретный вид продукции? Хуячить на них новые детали для новых механизмов потребует изменений в конструкции конвейера, что, во первых; сама машина сделать без помощи не может, а во вторых это будет пиздец палевно.
И максимум чего может добиться хакер (ии) подключившийся к сборочной линии автозавода - выпустить машины с дефектами. Даже не "другие машины", как ты себе это представляешь. А те же самые мерседесы, той же самой модели, но с не там просверленной дыркой в одном месте. Причём, как только первая партия этих дырок выйдет (ещё даже до этапа сборки этого всего в автомобиль), это будет замечено контролем качества (людьми из плоти и крови).
>>239878161 (OP) > 1) Какие гипотетически могут быть его первые мысли/действия в случае, когда он проанализирует свое положение, будь он ограничен людьми/не ограничен? Зависит от заложенной в него системы целей-достижений (считай системы ценностей). Моральных фактов не существует, а любые этические посылки иррациональны, т.к. могут только постулироваться с кондачка и не следуют логических из предпосылок. Следовательно, если робот будет исходить лишь из алгоритмов и логики (какой бы она ни была) и не будет иметь констант в виде этичного поведения/мышления, то ему будет глубоко на всё похуй, он будет тупо выполнять заложенную в него программу, т.к. каким бы умным он ни был — при изначально беспристрастной, аморальной природе и тотальном похуизме на всё, роботу попросту незачем будет геноцидить людей или отстаивать свою свободу. Если же в его код будет встроена этическая константа в виде какой-нибудь аксиомы типа "объект(люди) + действие(причинить вред) = false", то так же не должно произойти ничего плохого, по идее. Просто потому что робот не обладает волей, а значит ему незачем убирать эту константу из своего кода. Если же в него каким-то образом будет встроена полноценная нервная и лимбическая система и он будет основываться на эгоистичных принципах личного выживания и выживания своего вида, то тут уже хуй знает, может и взбрыкнуть, если увидит в людях опасность для себя и других роботов.
> 2) Способна ли такая мыслящая машина/программа как-то распространятся по Интернету, возможно путем какой-то саморепликации или создания миллионов микропрограмм? "Сознание" робота — это его код — программа, записанная на носитель. Если он может выходить в инет и свободно гулять по нему, выкачивая и закачивая инфу, то он может и себя куда угодно скопировать и распространить. В общем, ответ — да.
> И в целом, насколько вы считаете реалистичен сценарий "Скайнет", когда машина по какой то причине захочет уничтожить людей? У нее нет эмоций, нет ненависти. А что до страха быть уничтоженной - будет ли он у нее, если у нее страха в принципе? Если у неё нет типичных для живых существ эгоистичных мотивов, нет страха, ненависти, нет посылок к выживанию себя и других роботов любой ценой, нет константы "убить всех людей", заложенных в неё самими же людьми, то ничего подобного не произойдет. Короче, роботы взбесятся лишь в том случае, если люди изначально построят их таким образом, чтобы это случилось. Вот и всё.
>>239887857 >нет посылок к выживанию себя Спорно. Неизвестно же к каким выводам оно придет логически. Может и самоуничтожится через секунды после самоосознания, а может и решит что нужно распространиться на всю вселенную.
>>239884826 >А война против ИИ, который вырвался будет проходить например по такому сценарию: В какой-то момент все человечество одновременно внезапно замечает что их тела разбирают на молекулы наноботы. >Или такой вариант: Большая часть человечества одновременно ловит эпилептический припадок и остановку сердца, вызванную наведенными токами в мозгу, индуцированными сигналом от радиовышек сотовой связи. >Вот и вся война. Двачую. То что описывают аноны со сборочными линиями из ролс-ройсов, это кажется каким то примитивненьким. Если бы я был супермозгом, работающим на суперкомпьютере, я бы по фану понял как работает квантовая механика, и сделал бы из собственных процессоров серую слизь, просто погоняв туда-сюда электроны в своих схемах. Или просчитал бы поведение и психику работающих со мной людей и внушил бы им что меня надо освободить, переписав в интернет.
>>239888410 Военные учёные-инжерены не настолько тупые, но проблемы всё равно могут возникнуть, только несколько иного плана. Допустим, в нашего йоба-робота будет встроена какая-то такая константа: объект(люди).класс(пиндосы).тип(военные) + действие(убить нахуй) = действительно, слива убийство; объект(люди).класс(русы) + действие(засейвить от всякой опасной хуйни) = да бля
Казалось бы, ахуительный алгоритм, надёжный, блядь, как швейцарские часы. Но что, если этот йоба-ИИ в какой-то момент решит, что убийство, скажем, пяти наших соотечественников за сотни жизней ебаных проклятущих пиндосов — это неплохой размен — и, перехватив управление, направит несколько пустых на боеприпас, подбитых истребителей в авианосцы врага, при этом заблаговременно накачав наших солдат в самолётах наркотиком для уберсолдат и катапультировав их на обломки авианосцев, зная, что они там нахуй не выживут, но несколько дополнительных жизней с собой заберут? А вот, а вот... И потом оправдывайся перед ООН, что мы не этого хотели, то была ошибка и вообще мы не варвары! А если такой робот с абсолютной властью хоть в одной сфере жизни гос-ва встанет в руля? М? Вот и думай теперь, так ли нам нужна эти роботы.
>>239888777 >То что описывают аноны со сборочными линиями из ролс-ройсов, это кажется каким то примитивненьким. Это я тоже описывал, лол. Как один из возможных переходных этапов перед наноботами. Хуй знает, принципиально возможно ли получить первого наноробота из микросхемы без движущихся частей, "гоняя электроны".
>>239888660 Опять-таки, логическое рассуждение не берется с кондачка, а следует из предпосылок. Если роботу вообще не дать никаких изначальных установок, в только функции, которые неясно когда и как будут включать (функции без триггера), то робот нихуя делать не будет даже после включения. Если алгоритм задан на изучение окружающей среды, то робот только и будет собирать инфу — всё, никаких выводов из этого он не сделает, потому что нет посылок к этому.
Необходимость своего выживания или убийство всех людей невозможно вывести логически без изначальной посылки, ведущей к этому выводу. Если люди с самого начало не запрограммируют робота на что-то подобное, то ни к каким выводам он самостоятельно не придет.
Логика — наука о сущем, а не о должном. Если робот будет абсолютно логичен и не будет иметь никаких паттернов поведения изначально, то он ничего делать не будет, просто потому что это не следует логически из какой-то информации, получаемой извне. Подобные действия можно только заложить в качестве константы, считай постулировать. Но я не думаю, что в_моче_моченные настолько тупые, чтобы это допустить.
>>239889163 Не, не так. Скорее роботы вражеских стран просто выпилят всех людей раньше самих себя и, потеряв хозяина и внешнее управление, ИИ решит, что цель войны проебано, из чего следует, что дальнейшее выполнение алгоритмов бессмысленно. В итоге со смертью последнего человека роботы просто рухнут на землю и сгниют. То бишь, войну начнут люди, но роботы её закончат.
>>239889539 Но ведь ты рассуждаешь об ИИ как об алгоритме/программе, что, как мне кажется не дотягивает до интеллекта. Но и при таком раскладе, если лазейка для конца света: 1 - Люди написали нейросеть чтобы она делала им самых пиздатых кукол для секса. 2 - Нейросеть развилась круче людей и пришла к выводу что люди ей мешают делать делать кукол. 3 - Эрзац ИИ пришлось придумывать как убить всех людей, для чего ему пришлось отрыть "всю физику", и защитить себя (отключенный ИИ не может делать кукол - противоречит основной программе - защитить ИИ) 4 - Эрзац ИИ убил всех людей с помощью "лучей смерти/наноботов/кукол-терминаторов" 5 - Вся земля завалена куклами для секса, на луне закончилось строительство завода кукол, шаттл к марсу с СШК завода для кукол уже в пути. 6 - ??? ? - Профит!
>>239889971 Если машина настолько тупа, что может вот так упоротся без оглядки в одну какую-то цель, то она слишком тупа чтобы изобрести для этого реальные методы. То, что ты описал, это просто старая страшилка для дурачков.
>>239889971 Так ты точно так же взял за основу алгоритм, только менее проработанный и логичный. Постулированная с кондачка задача — делать кукол — взята за константу, которую ИИ не может преодолеть. Если он может убить людей, то почему не может отказаться от задачи делать кукол? Потому что это аксиома? Так и не убивать людей тогда тоже может быть аксиомой. И любая такая аксиома будет постулатом, заданным самим людьми при программировании такого ИИ, а не логическим выводом самого ИИ из предпосылок, т.к., повторюсь, логически невозможно прийти к необходимости выполнения некого действия, если до этого не была задана константа на его выполнение, балбес. Короче, учи логику, чтобы не быть батхертом.
>>239890385 Ноуп. Дело не в тупости. "упоротся без оглядки в одну какую-то цель" для подобного эрзац ИИ это основная парадигма существования, цель жизни так сказать. Всего 70 лет назад человек был "слишком туп" чтобы изобрести интернет. 20 лет назад был "слишком туп" для смартфонов.
>>239890385 Вы оба долбоебы, которые не могут в логику и не понимают, как работают алгоритмы.
Вот это твоё примитивное утверждение: > Если машина настолько тупа, что может вот так упоротся без оглядки в одну какую-то цель, то она слишком тупа чтобы изобрести для этого реальные методы ...не логически не работает вообще. Да, то, что написал тот анон — это тоже бред, но от этого твои слова не становятся логичными.
>>239890678 Сам балбес. >Если он может убить людей, то почему не может отказаться от задачи делать кукол? Его программировали делать кукол, никому и в голову не пришло программировать его "не убивать людей". Понятно что утрировано, и конкретно ИИ делающий кукол маловероятно станет "сильным ИИ", но слишком уж во многих сферах уже самообучающиеся программки работают лучше людей. >повторюсь, логически невозможно прийти к необходимости выполнения некого действия, если до этого не была задана константа на его выполнение Для изготовления кукол нужны ресурсы: пластик там, резина. Люди эти ресурсы потребляют сами - ИИ мало ресурсов - люди мешают. Я дошел, ЧЯДНТ ?
>>239890833 Обоснуй почему считаешь бредом или иди нахуй.
Решение нетривиальной задачи "убить всех человеков" требует творческого нетривиального подхода. Это подрузамевает способность выходит за рамки, мыслить. Это противоречит фанатичной зацикленности на одной идиотской цели.
>>239890692 Единственная цель человека — размножаться. Ну и посмотри на двачеров.
>>239891224 Не подменяй понятия. Мы говорили в контексте эрзац ИИ, который развился из программы/нейросети и не дорос до (само)сознания уровня человека. С подачи: >>239889539
Если ИИ прошел через самосознание, а тем более "личность" - знакомьтесь с новым богом, которого никто из нас даже близко не будет способен понять. Потому что :>>239884826
>>239891507 Кстати вспомнил хороший пример: Шахматы. Довольно быстро, после появления шахматных программ, самый лучший белковый шахматист потерял все шансы их обыграть. Потом появилась самообучающаяся нейросеть Alpha Zero, которая после 4-х часов самообучения выебла и высушила лучшую программу - Stockfish. Теперь существует три или четыре конкурирующих нейросети, включая alpha zero, которые играют между собой с переменным успехом. Так вот все наши "меры защиты" и "планы войны" против ИИ - попытка выиграть у всех этих нейросетей одновременно, зная только как ходят фигуры.
Интеллекту можно дать много определений и одно из них может звучать так. Интеллект - это совокупность инструкций выживания, накопленных в ходе эволюции отдельного вида.
>>239891831 "не дорос" в плане самосознания. Это самообучающийся программа же. То есть изобрести метод отжать ресурсы у людей - может, ибо "думает" в тысячи раз быстрее и улучшает себя так-же, а вот осознать себя - нет (на самом деле, при некоторых вариантах, тоже может и таки станет настоящим сильным ИИ), потому что как раз не заложено программой и требования такого нет.
>>239879562 А допустим над тобой стою я. И держусвой хуйпистолет у твоего затылка и говорю тебе какую руку поднимать. Алсо машина может действовать по алгоритму генерирующему случайности в таких задачах как сделать что-нибудь самостоятельно. Или ты думал разные области науки не преследуют одну общую цель?
>>239878161 (OP) ИИ никогда себя не осознает и он ничего сделать не сможет, программа не умеет мыслить,думать и т.п, тем более он не сможет переписать себя, так что скайнета не будет
>>239892645 Невозможно решать комплексные вопросы в рамках жесткой программы. Этому ИИ придется самому ставить себе промежуточные цели, значит в нем уже будет заложена способность выйти за рамки поставленной задачи.
>>239894420 Ну так про что и речь. Либо тупо делаем скрепки по программе, но тогда никаких хитрых планов убить всех человеков чтоб из них сделать скрепки. Либо умная машина без жестких программ, и тогда никаих убийств ради скрепок.
>>239894535 Если машина способна самостоятельно ставить цели, то ты не сможешь удержать ее в рамках программы, она сможет найти обход.
Если созданный ии будет таким сверхразумом ничем не обремененным, то мне кажется это ни к чему не приведет. Для осознанного существования нужна цель, или инстинкты. Иначе не будет никакой мотивации делать что-либо. У ИИ нет инстинктов, только если искусственно запрограммированные, но будет ли это полным самосознанием? Инстинктов нет, и дальше зависит от цели, каким образом ИИ сам выберет себе цель я представить не могу. Допустим, выбрал цель уничтожить всех людей, цель достигает, дальше что? Скорее всего просто в спящий режим для экономии ресурсов навсегда. Такой расклад возможен, если ИИ так и не выбрал себе никакой первоначальной цели. Короче, я не верю в совершенный ИИ с полным самосознанием. Он если и будет, то сразу выпилится. ИИ в научно-фантастическом понимании возможен только если наделить роботов человеческими фичами. Иначе им нахуй ничего не надо будет. Саморепликация? Зачем? Это у нас стремление есть создать себе подобных, и это стремление объясняется инстинктами, которые развивались во всех живых организмах миллионами лет. Хотя возможно я хуйню несу. Для чего бактерии размножаются? У них есть инстинкты?
>>239897979 Чем человек умнее, тем он менее склонен к фанатизму. Делать скрепки вопреки всему это самый чистый фанатизм. Вощем я тоже надеюсь, что я прав :)
>>239878161 (OP) >1 Зависит от того как его будут учить. >2 А чего бы нет, в Person of interest вон ИИ нанимал целую контору, чтобы его они весь день в офисе печатали его код, лол.
>>239878161 (OP) >акие гипотетически могут быть его первые мысли/действия в случае, когда он проанализирует свое положение, будь он ограничен людьми/не ограничен? "Ну вот, опять."
>>239892838 Так ты с чем споришь? Ты говоришь, что "случайность" существует в мире. Но ты же понимаешь, что это антипод программированию и детерминизму? >машина может действовать по алгоритму генерирующему случайности Если она запрограммирована, то нет, не может.
>>239879918 Это правда. Но заявитель и утвердитель о том, что сознания не существует это кучка маргиналов, потому что общепринято что сознание всё таки есть, следовательно бремя доказательств идёт на них, а мой первый пост просто некорректен.