WikiDer > Дружественный искусственный интеллект

Friendly artificial intelligence

А дружественный искусственный интеллект (также дружелюбный ИИ или же FAI) является гипотетическим общий искусственный интеллект (AGI), что окажет положительное (благотворное) влияние на человечество. Это часть этика искусственного интеллекта и тесно связан с машинная этика. В то время как машинная этика связана с тем, как агент с искусственным интеллектом должен Исследования в области искусственного интеллекта «ведут себя, дружелюбный» сосредоточены на том, как практически реализовать такое поведение и обеспечить его адекватное ограничение.

Этимология и использование

Элиэзер Юдковски, Исследователь ИИ и создатель термина Friendly искусственный интеллект.

Термин был придуман Элиэзер Юдковски,[1] кто наиболее известен популяризацией идеи,[2][3] обсуждать сверхразумный искусственные агенты, надежно реализующие человеческие ценности. Стюарт Дж. Рассел и Питер Норвигведущий искусственный интеллект учебник Искусственный интеллект: современный подход, описывает идею:[4]

Юдковский (2008) более подробно описывает, как проектировать Дружелюбный ИИ. Он утверждает, что дружелюбие (желание не причинять вреда людям) должно быть заложено с самого начала, но дизайнеры должны осознавать, что их собственные конструкции могут быть ошибочными, и что робот со временем будет учиться и развиваться. Таким образом, задача заключается в разработке механизма - определить механизм для развития систем ИИ в рамках системы сдержек и противовесов и дать системным функциям полезности, которые останутся дружественными перед лицом таких изменений.

«Дружелюбный» используется в этом контексте как техническая терминология, и выбирает безопасные и полезные агенты, не обязательно «дружественные» в разговорной речи. Эта концепция в первую очередь используется в контексте обсуждения рекурсивно самоулучшающихся искусственных агентов, которые быстро взорваться в интеллектена том основании, что эта гипотетическая технология будет иметь большое, быстрое и трудно поддающееся контролю влияние на человеческое общество.[5]

Риски недружественного ИИ

Корни беспокойства по поводу искусственного интеллекта очень старые. Кевин ЛаГрандер показали, что опасности, характерные для ИИ, можно увидеть в древней литературе относительно искусственных гуманоидных слуг, таких как голем, или прото-роботов Герберт из Орийака и Роджер Бэкон. В этих историях чрезвычайный интеллект и сила этих гуманоидных созданий вступают в противоречие с их статусом рабов (которые по своей природе считаются недочеловеческими) и вызывают катастрофический конфликт.[6] К 1942 году эти темы побудили Айзек Азимов создать "Три закона робототехники"- принципы, заложенные во всех роботах в его произведениях, призваны не дать им повернуться против своих создателей или позволить им причинить вред.[7]

В наше время как перспектива сверхразумный ИИ приближается, философ Ник Бостром сказал, что сверхразумные системы искусственного интеллекта с целями, которые не согласуются с человеческой этикой, по своей сути опасны, если не будут приняты крайние меры для обеспечения безопасности человечества. Он выразился так:

По сути, мы должны предполагать, что «суперинтеллект» сможет достичь любых целей. Поэтому чрезвычайно важно, чтобы цели, которыми мы его наделяем, и вся его система мотивации были «дружественными для человека».

В 2008 году Элиэзер Юдковски призвал к созданию «дружественного ИИ» для смягчения экзистенциальный риск от продвинутого искусственного интеллекта. Он объясняет: «ИИ не ненавидит вас и не любит вас, но вы созданы из атомов, которые он может использовать для чего-то другого».[8]

Стив Омохундро говорит, что достаточно продвинутая система искусственного интеллекта, если ей явно не противодействовать, будет демонстрировать ряд основные "диски"такие как получение ресурсов, самосохранение и постоянное самосовершенствование, из-за внутренней природы любых систем, ориентированных на достижение целей, и что эти побуждения «без особых мер предосторожности» заставят ИИ проявлять нежелательное поведение.[9][10]

Александр Висснер-Гросс говорит, что ИИ, стремящиеся максимизировать свою будущую свободу действий (или энтропию причинного пути), могут считаться дружественными, если их горизонт планирования длиннее определенного порога, и недружественными, если их горизонт планирования короче этого порога.[11][12]

Люк Мюльхаузер, пишущий для Научно-исследовательский институт машинного интеллекта, рекомендует машинная этика исследователи принимают то, что Брюс Шнайер называется «установка на безопасность»: вместо того, чтобы думать о том, как система будет работать, представьте, как она может выйти из строя. Например, он предполагает, что даже ИИ, который только делает точные прогнозы и общается через текстовый интерфейс, может причинить непреднамеренный вред.[13]

В 2014 году Люк Мюльхаузер и Ник Бостром подчеркнули необходимость «дружественного ИИ»;[14] Тем не менее, создание «дружественного» суперинтеллекта, например, путем программирования контрфактического морального мышления, весьма затруднительно.[15][16]

Согласованная экстраполированная воля

Юдковский продвигает модель когерентной экстраполированной воли (CEV). По его словам, согласованное экстраполированное волеизъявление - это выбор людей и действия, которые люди предприняли бы коллективно, если бы «мы знали больше, думали быстрее, были больше теми людьми, которыми мы хотели бы быть, и росли вместе».[17]

Вместо того, чтобы Дружественный ИИ разрабатывался непосредственно программистами, он должен разрабатываться «семенным ИИ», запрограммированным на первое изучение человеческая природа а затем создать ИИ, который человечество захотело бы при наличии достаточного времени и понимания, чтобы прийти к удовлетворительному ответу.[17] Обращение к цель через случайную человеческую природу (возможно, выраженное для математических целей в виде вспомогательная функция или другой теоретико-решающий формализм) как высший критерий "дружелюбия", является ответом на метаэтический проблема определения объективная мораль; Экстраполированная воля предназначена для того, чтобы человечество объективно хотело бы с учетом всех обстоятельств, но ее можно определить только относительно психологических и когнитивных качеств современного, неэкстраполированного человечества.

Другие подходы

Стив Омохундро предложила «строительный» подход к безопасности ИИ, в котором одно доказуемо безопасное поколение ИИ помогает построить следующее доказуемо безопасное поколение.[18]

Сет Баум утверждает, что развитие безопасного, социально полезного искусственного интеллекта или общего искусственного интеллекта является функцией социальной психологии исследовательских сообществ ИИ, и поэтому может ограничиваться внешними мерами и мотивироваться внутренними мерами. Внутренняя мотивация может быть усилена, когда сообщения находят отклик у разработчиков ИИ; Баум утверждает, что, напротив, «существующие сообщения о полезном ИИ не всегда хорошо сформулированы». Баум выступает за «отношения сотрудничества и позитивное фреймворк исследователей ИИ» и предостерегает от характеристики исследователей ИИ как «не желающих разрабатывать полезные проекты».[19]

В его книге Совместимость с человеком, Исследователь ИИ Стюарт Дж. Рассел перечисляет три принципа, которыми руководствуются при разработке полезных машин. Он подчеркивает, что эти принципы не предназначены для явного кодирования в машинах; скорее, они предназначены для разработчиков-людей. Принципы следующие:[20]:173

1. Единственная цель машины - максимально реализовать человеческие предпочтения.

2. Машина изначально не уверена в своих предпочтениях.

3. Конечным источником информации о человеческих предпочтениях является человеческое поведение.

«Предпочтения», о которых говорит Рассел, «всеобъемлющи; они охватывают все, что может вас волновать, сколь угодно далеко в будущем».[20]:173 Точно так же "поведение" включает любой выбор между вариантами,[20]:177 и неопределенность такова, что некоторая вероятность, которая может быть очень маленькой, должна быть приписана каждому логически возможному человеческому предпочтению.[20]:201

Публичная политика

Джеймс Баррат, автор Наше последнее изобретение, предположил, что «необходимо создать государственно-частное партнерство, чтобы объединить создателей ИИ для обмена идеями о безопасности - что-то вроде Международного агентства по атомной энергии, но в партнерстве с корпорациями». Он призывает исследователей ИИ созвать встречу, аналогичную Асиломарская конференция по рекомбинантной ДНК, где обсуждались риски биотехнологий.[18]

Джон МакГиннис призывает правительства ускорить исследования дружественного ИИ. Поскольку цели дружественного ИИ не обязательно выдающиеся, он предлагает модель, аналогичную модели. Национальные институты здоровья, где «экспертные группы компьютерных и когнитивных ученых просеивают проекты и выбирают те, которые предназначены как для развития ИИ, так и для обеспечения того, чтобы такие достижения сопровождались соответствующими гарантиями». МакГиннис считает, что экспертная оценка лучше, чем «регулирование для решения технических проблем, которые невозможно решить с помощью бюрократических предписаний». МакГиннис отмечает, что его предложение отличается от предложения Научно-исследовательский институт машинного интеллекта, которая обычно направлена ​​на то, чтобы избежать вмешательства государства в дружественный ИИ.[21]

В соответствии с Гэри Маркус, годовая сумма денег, расходуемая на развитие машинной морали, ничтожна.[22]

Критика

Некоторые критики считают, что и ИИ человеческого уровня, и суперинтеллект маловероятны, и, следовательно, дружественный ИИ маловероятен. Писать в Хранитель, Алан Уинфилд сравнивает искусственный интеллект человеческого уровня с путешествиями со скоростью, превышающей скорость света, с точки зрения сложности, и заявляет, что, хотя нам нужно быть «осторожными и подготовленными», учитывая ставки, мы «не должны зацикливаться» на риски суперинтеллекта.[23] Бойлс и Хоакин, с другой стороны, утверждают, что Люк Мюльхаузер и Ник БостромПредложение создать дружественный ИИ кажется мрачным. Это связано с тем, что Мюльхаузер и Бостром, похоже, придерживаются идеи, что интеллектуальные машины можно запрограммировать так, чтобы они думали о моральных ценностях, которыми обладали бы люди.[24] В статье в ИИ и общество, Бойлс и Хоакин утверждают, что такие ИИ не будут столь дружелюбными, учитывая следующее: бесконечное количество предшествующих контрфактических условий, которые необходимо запрограммировать в машину, сложность обналичивания набора моральных ценностей, то есть тех, которые более идеальный, чем тот, которым обладают люди в настоящее время, и очевидное несоответствие между контрфактическими предпосылками и вытекающими отсюда идеальными ценностями.[25]

Некоторые философы утверждают, что любой действительно «рациональный» агент, искусственный или человек, естественно, будет доброжелательным; с этой точки зрения, преднамеренные меры безопасности, разработанные для создания дружественного ИИ, могут быть ненужными или даже вредными.[26] Другие критики задаются вопросом, может ли искусственный интеллект быть дружелюбным. Адам Кейпер и Ари Н. Шульман, редакторы технологического журнала Новая Атлантида, говорят, что невозможно когда-либо гарантировать «дружелюбное» поведение в ИИ, потому что проблемы этической сложности не уступят место развитию программного обеспечения или увеличению вычислительной мощности. Они пишут, что критерии, на которых основаны теории дружественного ИИ, работают «только тогда, когда у человека есть не только большие возможности предсказания вероятности бесчисленных возможных результатов, но и уверенность и консенсус в отношении того, как человек оценивает различные результаты.[27]

Смотрите также

Рекомендации

  1. ^ Тегмарк, Макс (2014). «Жизнь, наша Вселенная и все остальное». Наша математическая вселенная: мои поиски высшей природы реальности (Первое изд.). ISBN 9780307744258. Его владелец может передать контроль тому, что Элиэзер Юдковский называет «дружественным ИИ» ...
  2. ^ Рассел, Стюарт; Норвиг, Питер (2009). Искусственный интеллект: современный подход. Прентис Холл. ISBN 978-0-13-604259-4.
  3. ^ Лейтон, Джонатан (2011). Битва за сострадание: этика в апатичной вселенной. Алгора. ISBN 978-0-87586-870-7.
  4. ^ Рассел, Стюарт; Норвиг, Питер (2010). Искусственный интеллект: современный подход. Прентис Холл. ISBN 978-0-13-604259-4.
  5. ^ Валлах, Венделл; Аллен, Колин (2009). Моральные машины: обучение роботов правильно, а не неправильно. Oxford University Press, Inc. ISBN 978-0-19-537404-9.
  6. ^ Кевин ЛаГрандер. «Постоянная опасность искусственного раба». Научно-фантастические исследования. Получено 2013-05-06.
  7. ^ Айзек Азимов (1964). "Вступление". Остальные роботы. Doubleday. ISBN 0-385-09041-2.
  8. ^ Элиэзер Юдковски (2008) в Искусственный интеллект как положительный и отрицательный фактор глобального риска
  9. ^ Омохундро, С. М. (2008, февраль). Основные двигатели ИИ. В AGI (том 171, стр. 483-492).
  10. ^ Бостром, Ник (2014). Сверхразум: пути, опасности, стратегии. Оксфорд: Издательство Оксфордского университета. ISBN 9780199678112. Глава 7: Сверхразумная воля.
  11. ^ Как Скайнет может возникнуть из простой физики, io9, опубликовано 26 апреля 2013 г.
  12. ^ Висснер-Гросс, А.Д.; Фриер, К. (2013). «Причинно-энтропийные силы» (PDF). Письма с физическими проверками. 110 (16): 168702. Bibcode:2013PhRvL.110p8702W. Дои:10.1103 / PhysRevLett.110.168702. PMID 23679649.
  13. ^ Мюльхаузер, Люк (31 июля 2013 г.). «Риск искусственного интеллекта и установка на безопасность». Научно-исследовательский институт машинного интеллекта. Получено 15 июля 2014.
  14. ^ Мюльхаузер, Люк; Бостром, Ник (2013-12-17). «Зачем нужен дружелюбный ИИ». Считать. 13 (36): 41–47. Дои:10.1017 / с1477175613000316. ISSN 1477-1756.
  15. ^ Бойлс, Роберт Джеймс М .; Хоакин, Иеремия Джовен (23.07.2019). «Почему дружественные ИИ не будут такими дружелюбными: дружеский ответ Мюльхаузеру и Бострому». ИИ и общество. 35 (2): 505–507. Дои:10.1007 / s00146-019-00903-0. ISSN 0951-5666. S2CID 198190745.
  16. ^ Чан, Берман (2020-03-04). «Возникновение искусственного интеллекта и кризис моральной пассивности». ИИ и общество. Дои:10.1007 / s00146-020-00953-9. ISSN 1435-5655. S2CID 212407078.
  17. ^ а б «Связное экстраполированное воля» (PDF). Intelligence.org. Получено 2015-09-12.
  18. ^ а б Хендри, Эрика Р. (21 января 2014 г.). «Что происходит, когда искусственный интеллект обращается против нас?». Smithsonian.com. Получено 15 июля 2014.
  19. ^ Баум, Сет Д. (28 сентября 2016 г.). «О продвижении безопасного и социально полезного искусственного интеллекта». ИИ и общество. 32 (4): 543–551. Дои:10.1007 / s00146-016-0677-0. ISSN 0951-5666. S2CID 29012168.
  20. ^ а б c d Рассел, Стюарт (8 октября 2019 г.). Совместимость с людьми: искусственный интеллект и проблема контроля. США: Викинг. ISBN 978-0-525-55861-3. OCLC 1083694322.
  21. ^ Макгиннис, Джон О. (лето 2010 г.). «Ускорение ИИ». Обзор права Северо-Западного университета. 104 (3): 1253–1270. Получено 16 июля 2014.
  22. ^ Маркус, Гэри (24 ноября 2012 г.). «Моральные машины». Житель Нью-Йорка. Получено 30 июля 2014.
  23. ^ Уинфилд, Алан. «Искусственный интеллект не превратится в монстра Франкенштейна». Хранитель. Получено 17 сентября 2014.
  24. ^ Мюльхаузер, Люк; Бостром, Ник (2014). «Зачем нужен дружественный ИИ». Считать. 13 (36): 41–47. Дои:10.1017 / S1477175613000316.
  25. ^ Бойлс, Роберт Джеймс М .; Хоакин, Иеремия Джовен (2019). «Почему дружественный ИИ не будет таким дружелюбным: дружеский ответ Мюльхаузеру и Бострому». ИИ и общество. 35 (2): 505–507. Дои:10.1007 / s00146-019-00903-0. S2CID 198190745.
  26. ^ Корнаи, Андраш. "Ограничивая влияние AGI". Журнал экспериментального и теоретического искусственного интеллекта, опережающий печать (2014): 1-22." ... сущность ОИИ - это их способности к рассуждению, и сама логика их существования заставляет их вести себя с моральной точки зрения ... Настоящий кошмарный сценарий (это тот, где) люди находят выгодным сильную привязку себя к ОИИ, без каких-либо гарантий от самообмана ».
  27. ^ Адам Кейпер и Ари Н. Шульман. «Проблема« дружественного »искусственного интеллекта». Новая Атлантида. Получено 2012-01-16.

дальнейшее чтение

внешняя ссылка