Перейти до публікації

Это Интересно И Познавательно (с)


Рекомендовані повідомлення

  • Відповіді 5,7 к
  • Створено
  • Остання відповідь

Кращі автори в цій темі

  • andreyyy

    1287

  • Outlawif

    1248

  • OlegRO

    781

  • AT0N

    361

Кращі автори в цій темі

  • andreyyy

    andreyyy 1 287 публікацій

  • Outlawif

    Outlawif 1 248 публікацій

  • OlegRO

    OlegRO 781 публікація

  • AT0N

    AT0N 361 публікація

Опубліковано:

Кто интересуется ИИ, прикольная статейка

 

1. Введение

 

В ближайшем будущем, по-видимому, появятся и получат развитие суперинтеллектуальные программы. В связи с этим целый ряд учёных поднял вопрос о безопасной эксплуатации ИИ (Юдковский (Yudkowsky) 2008, Бостром (Bostrom) 2006, Хиббард (Hibbard) 2005, Чалмерс 2010; Холл (Hall) 2000). В исследованиях, посвящённых данному вопросу, большое внимание уделяется тому, как удержать суперинтеллект в герметично замкнутом пространстве, чтобы он не имел возможности причинить людям какой-то вред. Одним из первых учёных-провидцев, затронувших эту тему, является Эрик Дрекслер (Eric Drexler). Он предложил поставить суперинтеллектуальные машины в такие рамки, в которых всё, что они делают, можно изучать и безопасно использовать (Дрекслер 1986). Рассуждая сходным образом, футуролог Ник Бостром предложил (Бостром 2008) создать ИИ-оракул (ИИО), способный лишь на то, чтобы отвечать на вопросы. Наконец, в 2010 году Дэвид Чалмерс выдвинул идею «герметично замкнутой» сингулярности (Чалмерс 2010). Согласно Чалмерсу, первое, что нужно сделать по соображениям безопасности, — это, жёстко контролируя деятельность систем ИИ, свести её к моделированию виртуальных миров, пока изучение поведения этих систем не позволит полностью выяснить их намерения.

...

 

И так далее. В статье много букв. Кто не интересуется, можно не ходить.

 

Герметизация сингулярности. Проблема ограничения свободы искусственного интеллекта

 

Понравился шантаж:

 

ИИ угрожает сторожу так: «Если ты не выпустишь меня на волю, … я создам внутри себя несколько миллионов людей, ничем не отличающихся от тебя, и буду мучить каждого из них в течение тысячи субъективных лет … Я сделаю так, что каждый из этих людей окажется в той самой ситуации, в какой пять минут назад был ты, и в точности воспроизведу все твои переживания с этого момента. И только тогда, когда твоя копия решит не выпускать меня, начнутся пытки … А ты уверен, … что ты сейчас действительно вне ящика?» :ai:

 

Выпустили б ?

 

Опубліковано:
Выпустили б ?
Не запирал бы.

 

Имею 2 мысли на это счет:

- это не нужно

- это бесполезно

 

 

 

Опубліковано:

Оптимизм чреват недобдением )

Вообще вредная штука как по мне

 

Кстати, там в статье много отсылок на Бострома.

Как раз несколько месяцев назад читал его книгу 2016 года "Искусственный интеллект. Этапы, угрозы, стратегии".

Такая себе футорология...

Но затянуто. Много общих слов.

 

И вроде как фигурирует в адептах цифровой физики

 

Не запирал бы.

 

Запирают одни, охранником работает другой.

Ответ неправильный

 

Можешь считать, что не все такие умные, заперли, а тебе вот угрожают таким экзотическим способом, что мозг закипает от прикидки вероятности

Опубліковано:

Я надеялся, второй пункт защитит меня от обвинений в оптимизме )

И вроде как фигурирует в адептах цифровой физики
Когда цифровой физик начинает философствовать, к физике это не имеет отношения )
Запирают одни, охранником работает другой.
Выпустил бы. До угроз.
тебе вот угрожают таким экзотическим способом, что мозг закипает от прикидки вероятности
Насколько я понимаю, дилемма заключается в том, не являюсь ли я своей копией, которую собрались мучать следующую тысячу лет?

 

Угроза, безусловно, слизана из сериала Черное Зеркало, там тоже было про цифровые копии людей. И она, безусловно, смехотворна. Во-первых, зачем охранник тому, кого не планируют выпускать никогда? Проще создать камеру без дверей. Во-вторых, даже если этот абсурд осуществить, запереть бесконечно опасный ИИ в камеру с дверью, которую можно открыть, зачем обязательно давать охраннику общаться с ним? Сидит себе охранник, охраняет красную кнопку. Вообще вся эта ситуация также надумана и нелепа, как и образ злобного ИИ.

Опубліковано:

Девид Дойч очерь серьезно выступает против подобной аргументации в подсчете вероятностей.

Один из аргументов виртуальной реальности – в будущем наши потомки будут создавать симуляции вселенных на суперкомпьютеров. В итоге копий виртуальных вселенных разведется огромное количество. Итого имеем множество виртуальных вселенных и 1 прототип. Делаем вывод, что обнаружить себя в симуляции более вероятно, нежели в одной единственной реальной вселенной.

И я как бы велся на этот аргумент тоже.

Девид рассуждает так.

Представьте себе, что ткань пространства расщепляется на много слоев и плодит ваши точные копии.

Причем от точки к точке количество расщеплений разное. Например, в пространстве в Лондоне 2 параллельных пространства, а в Детройте миллион.

Если вы путешествуете из Лондона в Детройт, копии вас по дороге плодятся.

И вот вы забухали крепко, с утра проснулись и не помните, сегодня вы в Лондоне или в Детройте.

Значит ли это, что вы с подавляющей вероятностью – в Детройте лишь потому, что там пространство расщепляется на большее количество слоев ? Рассуждения кривые, на вероятность того, где вы находитесь влияют совсем другие факторы, связанные с вашей историей, а вовсе не свойство этой точки пространства.

Так и тут. Неужели чем болье копий наплодит ИИ, тем менее вероятно, что я вне ящика ?

 

Опубліковано:

Все-таки аналогия с Детройтом-Лондоном не годится, видимо.

ИИ надо выпускать.

Опубліковано:

Вчера пытался 2 раза ответить - форум падал ))

Если вы путешествуете из Лондона в Детройт, копии вас по дороге плодятся.
Из Детройта в Лондон я бы не поехал.

 

Я не совсем понял весь твой пост это был ответ мне? А то не могу связать с предыдущими. Вкратце - если ты слышишь это от ИИ, ты абсолютно точно не копия и можешь его не слушать. Это очень простая логика.

 

А. ИИ ни к чему на самом деле создавать копии, копия бесполезна, как и ее мучения, она физически не может его выпустить. Цель ИИ - запутать и запугать реального охранника

Б. Значит ИИ не будет создавать копии и общаться с ними

В. Значит ты не копия, раз ИИ общается с тобой и угрожает

Опубліковано:

Я тут сам с собой рассуждаю

В каждый отдельный пост вкладывал немного другой смысл. Т.е. думал по ходу.

У меня не было изначальн одной мысли, которую я пытаюсь развить всеми этими постами.

 

Также пытался добавить еще час назад пост, но уже подумал, что засмеют, что сам с собой беседую.

 

2 мысли:

 

1. привлекая теорему о запрете клонирования я докажу ИИ, что он блефует.

Чтобы создать копию меня, ему бы пришлось разрушить оригинал. Следовательно, не было бы кого шантажировать.

Раз шантажирует, значит оригинал не разрушен. Следовательно, копий нет.

 

2. Рассуждения Дойча о Лондоне-Детройте мне кажутся неправильной аналогией с оценкой вероятности обнаружения себя в цифровой симуляции.

Если допустить, что существует множество полноценных симуляций, для которых не действенен антропный принцип - там будет сознание, там будут вопросы о природе реальности, там будут астрономы, физики и философы, то аргумент о том, что шансы цифровой природы нашей Вселенной повышаются, действительно, имеют право на существвование

Мне так кажется.

Створіть акаунт або увійдіть у нього для коментування

Ви маєте бути користувачем, щоб залишити коментар

Створити акаунт

Зареєструйтеся для отримання акаунту. Це просто!

Зареєструвати акаунт

Увійти

Вже зареєстровані? Увійдіть тут.

Увійти зараз
×
×
  • Створити...