Машинная этика - Machine ethics

Машинная этика (или же машинная мораль, вычислительная мораль, или же вычислительная этика) является частью этика искусственного интеллекта связаны с добавлением морального поведения к машинам, которые используют искусственный интеллект, иначе известный как агенты искусственного интеллекта.[1] Машинная этика отличается от других этических областей, связанных с инженерное дело и технологии. Машинную этику не следует путать с компьютерная этика, в котором основное внимание уделяется использованию компьютеров людьми. Его также следует отличать от философия технологии, который касается более грандиозных социальных эффектов технологий.[2]

История

До 21 века этика машин в значительной степени была предметом научной фантастики, в основном из-за вычислений и искусственный интеллект (AI) ограничения. Хотя определение «машинной этики» с тех пор эволюционировало, этот термин был придуман Митчеллом Уолдропом в статье журнала AI Magazine 1987 года «Вопрос ответственности»:

«Однако одна вещь, которая очевидна из приведенного выше обсуждения, заключается в том, что интеллектуальные машины будут воплощать ценности, предположения и цели, независимо от того, намерены ли их программисты сознательно это делать или нет. Таким образом, по мере того, как компьютеры и роботы становятся все более и более умными, это становится императивом что мы тщательно и ясно думаем о том, что это за встроенные ценности. Возможно, нам действительно нужны теория и практика машинной этики в духе Азимова три закона робототехники."[3]

В 2004 г. К машинной этике [4] был представлен на семинаре AAAI по агентским организациям: теория и практика. [5] в котором были заложены теоретические основы машинной этики.

Именно на симпозиуме AAAI по этике машин осенью 2005 г. исследователи впервые встретились, чтобы обсудить внедрение этического аспекта в автономные системы.[6] Разнообразие точек зрения на эту зарождающуюся область можно найти в сборнике «Машинная этика».[7] это проистекает из симпозиума AAAI Fall 2005 по машинной этике.

В 2007 году журнал AI Magazine опубликовал Машинная этика: создание этического интеллектуального агента,[8] статья, в которой обсуждалась важность машинной этики, необходимость в машинах, которые в явном виде отражают этические принципы, и проблемы, с которыми сталкиваются те, кто занимается машинной этикой. Он также продемонстрировал, что машина может, по крайней мере в ограниченной области, абстрагировать этический принцип из примеров этических суждений и использовать этот принцип для управления своим собственным поведением.

В 2009, Oxford University Press опубликовано Моральные машины, обучение роботов прямо из неправильного,[9] которую он рекламировал как «первую книгу, в которой исследуется проблема создания искусственных моральных агентов, глубоко исследующих природу принятия человеческих решений и этики». Он процитировал около 450 источников, около 100 из которых касались крупных вопросов машинной этики.

В 2011, Издательство Кембриджского университета опубликовал сборник эссе по машинной этике под редакцией Майкла и Сьюзан Ли Андерсон,[7] который также редактировал специальный выпуск журнала Интеллектуальные системы IEEE по теме в 2006 году.[10] Коллекция состоит из проблем, связанных с добавлением этических принципов к машинам.[11]

В 2014 году США Управление военно-морских исследований объявил, что распределит гранты на 7,5 миллионов долларов в течение пяти лет среди университетских исследователей для изучения вопросов машинной этики применительно к автономным роботам,[12] и Ник Бостром с Сверхразум: пути, опасности, стратегии, в котором этика машин была названа «самой важной ... проблемой, с которой когда-либо сталкивалось человечество», заняла 17-е место в списке самых продаваемых научных книг New York Times.[13]

В 2016 году Европейский парламент опубликовал документ,[14] (22-страничный PDF-файл), чтобы побудить Комиссию рассмотреть вопрос о правовом статусе роботов, как это более кратко описано в прессе.[15] В этот документ включены разделы, касающиеся юридических обязательств роботов, в которых ответственность утверждается как пропорциональная уровню автономии роботов. В документе также ставится под сомнение количество рабочих мест, которые могут быть заменены роботами ИИ.[16]

Определения

Джеймс Х. Мур, один из первых теоретиков в области компьютерная этика, определяет четыре типа этических роботов. Как обширный исследователь в области изучения философия искусственного интеллекта, философия разума, философия науки, и логика Мур определяет машины как этические агенты воздействия, неявные этические агенты, явные этические агенты или полные этические агенты. На машине может быть более одного типа агентов.[17]

  • Агенты этического воздействия: Это машинные системы, которые имеют этическое значение, намеренно или нет. В то же время эти агенты могут действовать неэтично. Мур приводит гипотетический пример под названием «агент Гудмана», названный в честь философа. Нельсон Гудман. Агент Гудмана сравнивает даты, но имеет ошибка тысячелетия. Эта ошибка возникла из-за того, что программисты представляли даты только с двумя последними цифрами года. Таким образом, любые даты после 2000 года будут ошибочно рассматриваться как более ранние, чем даты конца двадцатого века. Таким образом, агент Гудмана был агентом этического воздействия до 2000 года, а затем - агентом неэтичного воздействия.
  • Неявные этические агенты: Для рассмотрения человека безопасность, эти агенты запрограммированы на безотказный, или встроенная добродетель. Они не совсем этичны по своей природе, а скорее запрограммированы так, чтобы избегать неэтичных результатов.
  • Явные этические агенты: Это машины, которые способны обрабатывать сценарии и действовать в соответствии с этическими решениями. Машины, у которых есть алгоритмы этичного поведения.
  • Полные этические агенты: Эти машины похожи на явных этических агентов в способности принимать этические решения. Однако они также содержат человеческие метафизический Особенности. (т.е. иметь свободная воля, сознание и преднамеренность )

(Видеть искусственные системы и моральная ответственность.)

Фокусы машинной этики

Проблема управления AI

Некоторые ученые, например, философ Ник Бостром и исследователь ИИ Стюарт Рассел, утверждают, что если ИИ превосходит человечество в целом по интеллекту и становится "сверхразумный ", тогда этот новый сверхразум может стать могущественным и трудноуправляемым: так же, как судьба горная горилла зависит от доброй воли человека, поэтому судьба человечества может зависеть от действий будущего машинного суперинтеллекта.[18] В своих книгах Суперинтеллект и Совместимость с человеком оба исследователя утверждают, что, несмотря на большую неопределенность в отношении будущего ИИ, риск для человечества достаточно велик, чтобы требовать серьезных действий в настоящем.

Это представляет Проблема управления AI: как создать интеллектуального агента, который будет помогать своим создателям, избегая при этом непреднамеренного создания суперинтеллекта, который нанесет вред своим создателям. Опасность неправильного проектирования контроля «с первого раза» состоит в том, что суперинтеллект может захватить власть над окружающей средой и предотвратить ее отключение людьми. Потенциальные стратегии управления ИИ включают «контроль возможностей» (ограничение способности ИИ влиять на мир) и «мотивационный контроль» (создание ИИ, цели которого соответствуют человеческим ценностям). Существует ряд организаций, изучающих проблему управления ИИ, в том числе Институт будущего человечества, то Научно-исследовательский институт машинного интеллекта, то Центр искусственного интеллекта, совместимого с человеком, а Институт будущего жизни.

Алгоритмы и обучение

Парадигмы ИИ обсуждались, особенно в отношении их эффективности и предвзятости. Ник Бостром и Элиэзер Юдковски спорили за деревья решений (Такие как ID3 ) над нейронные сети и генетические алгоритмы на том основании, что деревья решений подчиняются современным социальным нормам прозрачности и предсказуемости (например, пристально смотреть ).[19] В отличие от этого, Крис Сантос-Ланг выступал в пользу нейронных сетей и генетических алгоритмов на том основании, что нормы любого возраста должны быть изменены, и что естественная неспособность полностью удовлетворить эти конкретные нормы была важна для того, чтобы сделать людей менее уязвимыми, чем машины. преступить "хакеры ".[20][21]

В 2009 году в эксперименте в Лаборатории интеллектуальных систем в г. Федеральная политехническая школа из Лозанна в Швейцария, ИИ-роботы были запрограммированы на сотрудничество друг с другом и поставлены перед целью поиска полезного ресурса, избегая при этом ядовитого ресурса.[22] Во время эксперимента роботы были сгруппированы в кланы, и цифровой генетический код успешных членов был использован для следующего поколения, тип алгоритма, известный как генетический алгоритм. После 50 последовательных поколений в ИИ, члены одного клана обнаружили, как отличить полезный ресурс от ядовитого. Затем роботы научились лгать друг другу, пытаясь сохранить полезный ресурс у других роботов.[23] В том же эксперименте те же роботы с ИИ также научились вести себя самоотверженно и сигнализировали об опасности другим роботам, а также умерли за счет спасения других роботов.[24] Значение этого эксперимента оспаривается специалистами по машинной этике. В эксперименте Ecole Polytechnique Fédérale цели роботов были запрограммированы как «конечные». Напротив, человеческие мотивы обычно требуют бесконечного обучения.

Автономные системы вооружения

В 2009 году ученые и технические эксперты посетили конференцию, на которой обсудили потенциальное влияние роботов и компьютеров и влияние гипотетической возможности того, что они смогут стать самодостаточными и иметь возможность принимать собственные решения. Они обсудили возможность и степень, в которой компьютеры и роботы могут получить любой уровень автономии, и в какой степени они могут использовать такие способности, чтобы, возможно, представлять какую-либо угрозу или опасность. Они отметили, что некоторые машины приобрели различные формы полуавтономности, в том числе возможность самостоятельно находить источники энергии и возможность самостоятельно выбирать цели для атаки с помощью оружия. Они также отметили, что некоторые компьютерные вирусы могут уклоняться от уничтожения и достигли «тараканьего интеллекта». Они отметили, что самосознание, описанное в научной фантастике, вероятно, маловероятно, но есть и другие потенциальные опасности и подводные камни.[25]

Некоторые эксперты и ученые подвергают сомнению использование роботов в военных действиях, особенно когда таким роботам дается некоторая степень автономности.[26] ВМС США профинансировали отчет, в котором указывается, что по мере того, как военные роботы становятся все более сложными, следует уделять больше внимания последствиям их способности принимать автономные решения.[27][28] Президент Ассоциация развития искусственного интеллекта заказал исследование, чтобы рассмотреть этот вопрос.[29] Они указывают на такие программы, как Устройство для определения языка который может имитировать человеческое взаимодействие.

Интеграция общего искусственного интеллекта с обществом

Предварительная проработка методов интеграции искусственный интеллект (полные этические агенты, как определено выше) с существующими правовыми и социальными структурами. Подходы сосредоточены на учете их правового положения и прав.[30]

Предвзятость машинного обучения

Большое количество данных и машинное обучение алгоритмы стали популярными во многих отраслях, включая он-лайн реклама, кредитные рейтинги, и вынесение уголовных приговоров, с обещанием обеспечить более объективные, основанные на данных результаты, но были определены как потенциальный источник сохранения социального неравенства и дискриминация.[31][32] Исследование 2015 года показало, что женщинам реже показывались объявления о работе с высоким доходом. Google с AdSense. Другое исследование показало, что Amazon Служба доставки в тот же день была намеренно недоступна в районах проживания чернокожих. И Google, и Amazon не смогли выделить эти результаты в одну проблему, а вместо этого объяснили, что результаты были результатом черный ящик алгоритмы, которые они использовали.[31]

Судебная система США начала использовать программное обеспечение для количественной оценки рисков при принятии решений, связанных с освобождением людей под залог и вынесением приговора, чтобы быть более справедливым и снизить и без того высокий тюремное заключение ставка. Эти инструменты анализируют криминальное прошлое обвиняемого и другие атрибуты. В ходе исследования 7000 человек, арестованных в Округ Бровард, Флорида, только 20% лиц, совершивших преступление с использованием округа оценка рисков Система подсчета очков продолжила совершение преступления.[32] 2016 год ProPublica отчет проанализирован рецидив оценки риска, рассчитываемые одним из наиболее часто используемых инструментов, Northpointe КОМПАС системы и рассмотрели результаты за два года. В отчете было обнаружено, что только 61% из тех, кто считался повышенным риском, совершили дополнительные преступления во время. В отчете также отмечалось, что обвиняемые афроамериканцы с гораздо большей вероятностью получали высокий балл риска по сравнению с их белыми обвиняемыми коллегами.[32]

В 2016 г. Администрация Обамы Рабочая группа по большим данным, которая контролирует различные нормативно-правовые базы больших данных, опубликовала отчеты, в которых аргументируется «возможность кодирования дискриминации в автоматизированных решениях» и содержится призыв «предусмотреть равные возможности» для таких приложений, как кредитный скоринг.[33][34] Отчеты поощряют дискуссии среди политики, граждане и ученые, но признает, что у него нет потенциального решения для кодирования предвзятость и различение в алгоритмических системах

Этические основы и практики

Практики

В марте 2018 г., чтобы снять растущую обеспокоенность по поводу влияния машинного обучения на права человека, то Всемирный Экономический Форум и Совет глобального будущего по правам человека опубликовал белая бумага с подробными рекомендациями о том, как лучше всего предотвратить дискриминационные результаты в машинном обучении.[35] Всемирный экономический форум разработал четыре рекомендации на основе Руководящие принципы ООН в области прав человека чтобы помочь устранить и предотвратить дискриминационные результаты в машинном обучении.

Рекомендации Всемирного экономического форума заключаются в следующем:[35]

  1. Активное включение: разработка и проектирование приложений машинного обучения должны активно искать различные исходные данные, особенно нормы и ценности конкретных групп населения, на которые влияют результаты работы систем искусственного интеллекта.
  2. Справедливость: Людям, участвующим в концептуализации, разработке и внедрении систем машинного обучения, следует подумать о том, какое определение справедливости лучше всего применимо к их контексту и применению, и определить его приоритетность в архитектуре системы машинного обучения и ее оценочных показателях.
  3. Право на понимание: Об участии систем машинного обучения в принятии решений, затрагивающих права человека, необходимо раскрывать, и системы должны иметь возможность предоставлять объяснение своих решений, понятное конечным пользователям и доступное для проверки компетентным человеческим органом. Там, где это невозможно и права поставлены на карту, лидеры в разработке, развертывании и регулировании технологии машинного обучения должны задаться вопросом, следует ли ее использовать.
  4. Доступ к возмещению: Руководители, дизайнеры и разработчики систем машинного обучения несут ответственность за выявление потенциальных негативных воздействий своих систем на права человека. Они должны предоставить видимые возможности для возмещения ущерба для тех, кто пострадал от разнородных воздействий, и установить процессы для своевременного устранения любых дискриминационных результатов.

В январе 2020 г. Центр Беркмана Кляйна по Интернету и обществу опубликовал метаисследование 36 известных наборов принципов для ИИ, определив восемь ключевых тем: конфиденциальность, подотчетность, безопасность и защищенность, прозрачность и объяснимость, справедливость и недискриминация, человеческий контроль над технологиями, профессиональная ответственность и продвижение человеческих ценностей. .[36] Аналогичное мета-исследование было проведено учеными из Швейцарский федеральный технологический институт в Цюрихе в 2019 году.[37]

Подходы

Было сделано несколько попыток сделать этику вычислимой или, по крайней мере, формальный. В то время как Айзек Азимов с Три закона робототехники обычно не считаются подходящими для искусственного морального агента,[38] было изучено, были ли кантовские категорический императив может быть использован.[39] Однако было указано, что человеческие ценности в некоторых аспектах очень сложны.[40] Способ явно преодолеть эту трудность - получить человеческие ценности напрямую от людей через какой-то механизм, например, изучая их.[41][42][43]
Другой подход состоит в том, чтобы основывать текущие этические соображения на предыдущих аналогичных ситуациях. Это называется казуистика, и это может быть реализовано путем исследования в Интернете. Консенсус из миллиона прошлых решений приведет к новому решению, зависящему от демократии.[8] Однако это может привести к решениям, отражающим предубеждения и неэтичное поведение, проявляемое в обществе. Негативные эффекты такого подхода можно увидеть в Microsoft Тай (бот), где болтун научился повторять сообщения расистского и сексуального характера, отправленные пользователями Twitter.[44]

Один мысленный эксперимент сосредоточен на Джинн Голем с неограниченными возможностями, представляющимися читателю. Этот джин заявляет, что он вернется через 50 лет, и требует, чтобы ему был предоставлен определенный набор моральных принципов, в соответствии с которым он будет немедленно действовать. Цель этого эксперимента - начать обсуждение того, как лучше всего справиться с определением полного набора этических норм, которые компьютеры могут понять.[45]

В художественной литературе

В научная фантастика, фильмы и романы обыгрывают идею разумности роботов и машин.

Нила Бломкампа Чаппи (2015) разыграли сценарий возможности перенести сознание в компьютер. [46] Фильм, Ex Machina (2014) автор: Алекс Гарланд, последовал андроид с искусственным интеллектом, претерпевающим изменение Тест Тьюринга, тест, проводимый для машины, чтобы увидеть, можно ли ее поведение отличить от человеческого. Такие работы, как Терминатор (1984) и Матрица (1999) включают концепцию машин, включающих своих хозяев-людей (см. Искусственный интеллект ).

Айзек Азимов рассматривал этот вопрос в 1950-х гг. в Я робот. По настоянию своего редактора Джон В. Кэмпбелл мл., он предложил Три закона робототехники управлять системами с искусственным интеллектом. Затем большая часть его работы была потрачена на проверку границ трех его законов, чтобы увидеть, где они нарушатся, а где приведут к парадоксальному или непредвиденному поведению. Его работа предполагает, что никакой набор фиксированных законов не может в достаточной степени предвидеть все возможные обстоятельства.[47] В Филип К. Дик Роман, Мечтают ли андроиды об электрических овцах? (1968) он исследует, что значит быть человеком. В своем постапокалиптическом сценарии он сомневался, была ли эмпатия полностью человеческой характеристикой. Его история - основа фантастического фильма, Бегущий по лезвию (1982).

Связанные поля

Смотрите также

Примечания

  1. ^ Мур, Дж. (2006). «Природа, важность и сложность машинной этики». Интеллектуальные системы IEEE. 21 (4): 18–21. Дои:10.1109 / MIS.2006.80. S2CID  831873.
  2. ^ Бойлс, Роберт Джеймс. «Аргументы в пользу машинной этики при моделировании интеллектуальных агентов человеческого уровня» (PDF). Критике. Получено 1 ноября 2019.
  3. ^ Уолдроп, Митчелл (весна 1987 г.). «Вопрос ответственности». Журнал AI. 8 (1): 28–39. Дои:10.1609 / aimag.v8i1.572.
  4. ^ Андерсон, М., Андерсон, С. и Армен, К. (2004) «К машинной этике» в материалах семинара AAAI по агентской организации: теория и практика, AAAI Press. [1]
  5. ^ Семинар AAAI по агентской организации: теория и практика, AAAI Press [2]
  6. ^ "Материалы осеннего симпозиума AAAI 2005 г.". Архивировано из оригинал 2014-11-29.
  7. ^ а б Андерсон, Майкл; Андерсон, Сьюзан Ли, ред. (Июль 2011 г.). Машинная этика. Издательство Кембриджского университета. ISBN  978-0-521-11235-2.CS1 maint: ref = harv (связь)
  8. ^ а б Андерсон, М. и Андерсон, С. (2007). Создание этического интеллектуального агента. Журнал AI, Том 28 (4).
  9. ^ Валлах, Венделл; Аллен, Колин (2009). Моральные машины: учим роботов правильно и неправильно. Издательство Оксфордского университета. ISBN  9780195374049.
  10. ^ Андерсон, Майкл; Андерсон, Сьюзан Ли, ред. (Июль – август 2006 г.). «Специальный выпуск о машинной этике». Интеллектуальные системы IEEE. 21 (4): 10–63. Дои:10.1109 / mis.2006.70. ISSN  1541-1672. S2CID  9570832. Архивировано из оригинал на 2011-11-26.
  11. ^ Силер, Кори (2015). "Обзор машинной этики Андерсона и Андерсона". Искусственный интеллект. 229: 200–201. Дои:10.1016 / j.artint.2015.08.013. S2CID  5613776. Получено 7 ноября 2019.
  12. ^ Такер, Патрик (13 мая 2014 г.). «Теперь военные собираются создавать роботов, обладающих моральными принципами». Защита Один. Получено 9 июля 2014.
  13. ^ «Самые продаваемые научные книги». Нью-Йорк Таймс. Нью-Йорк Таймс. 8 сентября 2014 г.. Получено 9 ноября 2014.
  14. ^ «Европейский парламент, Комитет по правовым вопросам. Проект отчета с рекомендациями Комиссии по правилам гражданского права, касающимся робототехники». Европейская комиссия. Получено 12 января, 2017.
  15. ^ Уэйкфилд, Джейн (12 января 2017 г.). «Депутаты Европарламента голосуют за правовой статус роботов - и если требуется аварийный выключатель». Новости BBC. Получено 12 января 2017.
  16. ^ «Резолюция Европейского парламента от 16 февраля 2017 года с рекомендациями Комиссии по правилам гражданского права о робототехнике». Европейский парламент. Получено 8 ноября 2019.
  17. ^ Мур, Джеймс М. (2009). «Четыре вида этических роботов». Философия сейчас.
  18. ^ Бостром, Ник (2014). Сверхразум: пути, опасности, стратегии (Первое изд.). ISBN  978-0199678112.
  19. ^ Бостром, Ник; Юдковский, Элиэзер (2011). «Этика искусственного интеллекта» (PDF). Кембриджский справочник по искусственному интеллекту. Cambridge Press. Архивировано из оригинал (PDF) на 2016-03-04. Получено 2011-06-28.
  20. ^ Сантос-Ланг, Крис (2002). «Этика искусственного интеллекта». Архивировано из оригинал на 2011-12-03.
  21. ^ Сантос-Ланг, Кристофер (2014). «Моральные экологические подходы к машинной этике» (PDF). У ван Ризевика, Саймона; Понтье, Маттейс (ред.). Медицинская этика машин. Интеллектуальные системы, управление и автоматизация: наука и техника. 74. Швейцария: Спрингер. С. 111–127. Дои:10.1007/978-3-319-08108-3_8. ISBN  978-3-319-08107-6.
  22. ^ Развивающиеся роботы учатся лгать друг другу, Popular Science, 18 августа 2009 г.
  23. ^ Развивающиеся роботы учатся лгать друг другу, Popular Science, 18 августа 2009 г.
  24. ^ Сантос-Ланг, Крис (2002). «Этика искусственного интеллекта». Архивировано 03 декабря 2011 года.
  25. ^ Ученые опасаются, что машины могут перехитрить человека ДЖОН МАРКОФФ, NY Times, 26 июля 2009 г.
  26. ^ Призыв к дискуссии о роботах-убийцах, Джейсон Палмер, репортер по науке и технологиям, BBC News, 3 августа 2009 г.
  27. ^ Наука Новый отчет, финансируемый ВМФ, предупреждает о приближении боевых роботов к «Терминатору» Архивировано 2009-07-28 на Wayback Machine, Джейсон Мик (блог), dailytech.com, 17 февраля 2009 г.
  28. ^ Отчет ВМФ предупреждает о восстании роботов и предлагает сильный моральный компас, Джозеф Л. Флэтли engadget.com, 18 февраля 2009 г.
  29. ^ Президентская группа AAAI по исследованию долгосрочного будущего ИИ на 2008–2009 гг., Ассоциация развития искусственного интеллекта, дата обращения 26.07.09.
  30. ^ Сотала, Кадж; Ямпольский, Роман V (2014-12-19). «Ответы на катастрофический риск AGI: обзор». Physica Scripta. 90 (1): 8. Дои:10.1088/0031-8949/90/1/018001. ISSN  0031-8949.
  31. ^ а б Кроуфорд, Кейт (25 июня 2016 г.). "Проблема белого парня искусственного интеллекта". Нью-Йорк Таймс.
  32. ^ а б c Киршнер, Джулия Ангвин, Сурья Матту, Джефф Ларсон, Лорен (23 мая 2016 г.). «Машинный уклон: по всей стране используется программное обеспечение для прогнозирования будущих преступников. И оно ориентировано против чернокожих». ProPublica.
  33. ^ Администрация Президента (май 2016 г.). «Большие данные: отчет об алгоритмических системах, возможностях и гражданских правах» (PDF). Белый дом Обамы.
  34. ^ «Большие риски, большие возможности: пересечение больших данных и гражданских прав». Белый дом Обамы. 4 мая 2016.
  35. ^ а б «Как предотвратить дискриминационные результаты в машинном обучении». Всемирный Экономический Форум. Получено 2018-12-11.
  36. ^ Фьельд, Джессика; Ахтен, Неле; Хиллигосс, Ханна; Надь, Адам; Шрикумар, Мадхулика (2020). «Принцип искусственного интеллекта: отображение консенсуса в этических и основанных на правах подходах к принципам искусственного интеллекта». Серия рабочих документов SSRN. Дои:10.2139 / ssrn.3518482. ISSN  1556-5068.
  37. ^ Джобин, Анна; Йенка, Марчелло; Вайена, Эффи (2019). «Глобальный ландшафт руководящих принципов этики ИИ». Природа Машинный интеллект. 1 (9): 389–399. Дои:10.1038 / с42256-019-0088-2. ISSN  2522-5839. S2CID  201827642.
  38. ^ Андерсон, Сьюзан Ли (2011): неприемлемость трех законов робототехники Азимова как основы машинной этики. В кн .: Этика машин, под ред. Майкл Андерсон, Сьюзен Ли Андерсон. Нью-Йорк: Издательство Оксфордского университета. С. 285–296. ISBN  9780511978036
  39. ^ Пауэрс, Томас М. (2011): Перспективы кантовской машины. В кн .: Этика машин, под ред. Майкл Андерсон, Сьюзен Ли Андерсон. Нью-Йорк: Издательство Оксфордского университета. pp.464–475.
  40. ^ Мюльхаузер, Люк, Хельм, Луи (2012): Интеллектуальный взрыв и машинная этика.
  41. ^ Юдковский, Элиэзер (2004): Связное экстраполированное воля.
  42. ^ Гуарини, Марчелло (2011): Вычислительное нейронное моделирование и философия этики. Размышления о дискуссии о партикуляризме-генерализме. В кн .: Этика машин, под ред. Майкл Андерсон, Сьюзен Ли Андерсон. Нью-Йорк: Издательство Оксфордского университета. С. 316–334.
  43. ^ Хиббард, Билл (2014): Этический искусственный интеллект. https://arxiv.org/abs/1411.1373
  44. ^ «Чат-бота Microsoft учат ругаться в Твиттере - BBC News». Новости BBC. Получено 2016-04-17.
  45. ^ Назаретян, А. (2014). А. Х. Иден, Дж. Х. Мур, Дж. Х. Сёракер и Э. Стейнхарт (редакторы): Гипотезы сингулярности: научная и философская оценка. Minds & Machines, 24 (2), стр.245–248.
  46. ^ Брандейдж, Майлз; Винтертон, Джейми. «Чаппи и будущее моральных машин». Шифер. Получено 30 октября 2019.
  47. ^ Азимов, Исаак (2008). Я робот. Нью-Йорк: Бантам. ISBN  978-0-553-38256-3.CS1 maint: ref = harv (связь)
  48. ^ Ганация, Жан-Габриэль. "Формализация этической системы с использованием немонотонной логики. "Труды Ежегодного собрания Общества когнитивных наук. Том 29. № 29. 2007.

внешняя ссылка

Рекомендации

  • Валлах, Венделл; Аллен, Колин (ноябрь 2008 г.). Моральные машины: обучение роботов правильно, а не неправильно. СОЕДИНЕННЫЕ ШТАТЫ АМЕРИКИ: Oxford University Press.
  • Андерсон, Майкл; Андерсон, Сьюзан Ли, редакторы (июль 2011 г.). Машинная этика. Издательство Кембриджского университета.
  • Сторрс Холл, Дж. (30 мая 2007 г.). За пределами ИИ: создание сознания машины Книги Прометея.
  • Моор, Дж. (2006). Природа, важность и сложность машинной этики. Интеллектуальные системы IEEE, 21 (4), стр. 18–21.
  • Андерсон, М. и Андерсон, С. (2007). Создание этичного интеллектуального агента. Журнал AI, Том 28 (4).

дальнейшее чтение