andreyyy Опубліковано: 28 серпня 2017 Опубліковано: 28 серпня 2017 Кто интересуется ИИ, прикольная статейка 1. Введение В ближайшем будущем, по-видимому, появятся и получат развитие суперинтеллектуальные программы. В связи с этим целый ряд учёных поднял вопрос о безопасной эксплуатации ИИ (Юдковский (Yudkowsky) 2008, Бостром (Bostrom) 2006, Хиббард (Hibbard) 2005, Чалмерс 2010; Холл (Hall) 2000). В исследованиях, посвящённых данному вопросу, большое внимание уделяется тому, как удержать суперинтеллект в герметично замкнутом пространстве, чтобы он не имел возможности причинить людям какой-то вред. Одним из первых учёных-провидцев, затронувших эту тему, является Эрик Дрекслер (Eric Drexler). Он предложил поставить суперинтеллектуальные машины в такие рамки, в которых всё, что они делают, можно изучать и безопасно использовать (Дрекслер 1986). Рассуждая сходным образом, футуролог Ник Бостром предложил (Бостром 2008) создать ИИ-оракул (ИИО), способный лишь на то, чтобы отвечать на вопросы. Наконец, в 2010 году Дэвид Чалмерс выдвинул идею «герметично замкнутой» сингулярности (Чалмерс 2010). Согласно Чалмерсу, первое, что нужно сделать по соображениям безопасности, — это, жёстко контролируя деятельность систем ИИ, свести её к моделированию виртуальных миров, пока изучение поведения этих систем не позволит полностью выяснить их намерения. ... И так далее. В статье много букв. Кто не интересуется, можно не ходить. Герметизация сингулярности. Проблема ограничения свободы искусственного интеллекта Понравился шантаж: ИИ угрожает сторожу так: «Если ты не выпустишь меня на волю, … я создам внутри себя несколько миллионов людей, ничем не отличающихся от тебя, и буду мучить каждого из них в течение тысячи субъективных лет … Я сделаю так, что каждый из этих людей окажется в той самой ситуации, в какой пять минут назад был ты, и в точности воспроизведу все твои переживания с этого момента. И только тогда, когда твоя копия решит не выпускать меня, начнутся пытки … А ты уверен, … что ты сейчас действительно вне ящика?» :ai: Выпустили б ?
Outlawif Опубліковано: 28 серпня 2017 Опубліковано: 28 серпня 2017 Выпустили б ? Не запирал бы. Имею 2 мысли на это счет: - это не нужно - это бесполезно
andreyyy Опубліковано: 28 серпня 2017 Опубліковано: 28 серпня 2017 Оптимизм чреват недобдением ) Вообще вредная штука как по мне Кстати, там в статье много отсылок на Бострома. Как раз несколько месяцев назад читал его книгу 2016 года "Искусственный интеллект. Этапы, угрозы, стратегии". Такая себе футорология... Но затянуто. Много общих слов. И вроде как фигурирует в адептах цифровой физики Не запирал бы. Запирают одни, охранником работает другой. Ответ неправильный Можешь считать, что не все такие умные, заперли, а тебе вот угрожают таким экзотическим способом, что мозг закипает от прикидки вероятности
Outlawif Опубліковано: 28 серпня 2017 Опубліковано: 28 серпня 2017 Я надеялся, второй пункт защитит меня от обвинений в оптимизме ) И вроде как фигурирует в адептах цифровой физики Когда цифровой физик начинает философствовать, к физике это не имеет отношения ) Запирают одни, охранником работает другой. Выпустил бы. До угроз. тебе вот угрожают таким экзотическим способом, что мозг закипает от прикидки вероятности Насколько я понимаю, дилемма заключается в том, не являюсь ли я своей копией, которую собрались мучать следующую тысячу лет? Угроза, безусловно, слизана из сериала Черное Зеркало, там тоже было про цифровые копии людей. И она, безусловно, смехотворна. Во-первых, зачем охранник тому, кого не планируют выпускать никогда? Проще создать камеру без дверей. Во-вторых, даже если этот абсурд осуществить, запереть бесконечно опасный ИИ в камеру с дверью, которую можно открыть, зачем обязательно давать охраннику общаться с ним? Сидит себе охранник, охраняет красную кнопку. Вообще вся эта ситуация также надумана и нелепа, как и образ злобного ИИ.
andreyyy Опубліковано: 28 серпня 2017 Опубліковано: 28 серпня 2017 Девид Дойч очерь серьезно выступает против подобной аргументации в подсчете вероятностей. Один из аргументов виртуальной реальности – в будущем наши потомки будут создавать симуляции вселенных на суперкомпьютеров. В итоге копий виртуальных вселенных разведется огромное количество. Итого имеем множество виртуальных вселенных и 1 прототип. Делаем вывод, что обнаружить себя в симуляции более вероятно, нежели в одной единственной реальной вселенной. И я как бы велся на этот аргумент тоже. Девид рассуждает так. Представьте себе, что ткань пространства расщепляется на много слоев и плодит ваши точные копии. Причем от точки к точке количество расщеплений разное. Например, в пространстве в Лондоне 2 параллельных пространства, а в Детройте миллион. Если вы путешествуете из Лондона в Детройт, копии вас по дороге плодятся. И вот вы забухали крепко, с утра проснулись и не помните, сегодня вы в Лондоне или в Детройте. Значит ли это, что вы с подавляющей вероятностью – в Детройте лишь потому, что там пространство расщепляется на большее количество слоев ? Рассуждения кривые, на вероятность того, где вы находитесь влияют совсем другие факторы, связанные с вашей историей, а вовсе не свойство этой точки пространства. Так и тут. Неужели чем болье копий наплодит ИИ, тем менее вероятно, что я вне ящика ?
andreyyy Опубліковано: 29 серпня 2017 Опубліковано: 29 серпня 2017 Все-таки аналогия с Детройтом-Лондоном не годится, видимо. ИИ надо выпускать.
Outlawif Опубліковано: 29 серпня 2017 Опубліковано: 29 серпня 2017 Вчера пытался 2 раза ответить - форум падал )) Если вы путешествуете из Лондона в Детройт, копии вас по дороге плодятся. Из Детройта в Лондон я бы не поехал. Я не совсем понял весь твой пост это был ответ мне? А то не могу связать с предыдущими. Вкратце - если ты слышишь это от ИИ, ты абсолютно точно не копия и можешь его не слушать. Это очень простая логика. А. ИИ ни к чему на самом деле создавать копии, копия бесполезна, как и ее мучения, она физически не может его выпустить. Цель ИИ - запутать и запугать реального охранника Б. Значит ИИ не будет создавать копии и общаться с ними В. Значит ты не копия, раз ИИ общается с тобой и угрожает
andreyyy Опубліковано: 29 серпня 2017 Опубліковано: 29 серпня 2017 Я тут сам с собой рассуждаю В каждый отдельный пост вкладывал немного другой смысл. Т.е. думал по ходу. У меня не было изначальн одной мысли, которую я пытаюсь развить всеми этими постами. Также пытался добавить еще час назад пост, но уже подумал, что засмеют, что сам с собой беседую. 2 мысли: 1. привлекая теорему о запрете клонирования я докажу ИИ, что он блефует. Чтобы создать копию меня, ему бы пришлось разрушить оригинал. Следовательно, не было бы кого шантажировать. Раз шантажирует, значит оригинал не разрушен. Следовательно, копий нет. 2. Рассуждения Дойча о Лондоне-Детройте мне кажутся неправильной аналогией с оценкой вероятности обнаружения себя в цифровой симуляции. Если допустить, что существует множество полноценных симуляций, для которых не действенен антропный принцип - там будет сознание, там будут вопросы о природе реальности, там будут астрономы, физики и философы, то аргумент о том, что шансы цифровой природы нашей Вселенной повышаются, действительно, имеют право на существвование Мне так кажется.
Рекомендовані повідомлення
Створіть акаунт або увійдіть у нього для коментування
Ви маєте бути користувачем, щоб залишити коментар
Створити акаунт
Зареєструйтеся для отримання акаунту. Це просто!
Зареєструвати акаунтУвійти
Вже зареєстровані? Увійдіть тут.
Увійти зараз