Элиэзер Юдковски - Eliezer Yudkowsky - Wikipedia

Элиэзер Юдковски
Элиэзер Юдковски, Стэнфорд, 2006 (квадратный обрез) .jpg
Юдковского в Стэндфордский Университет в 2006 г.
Родившийся (1979-09-11) 11 сентября 1979 г. (41 год)
НациональностьАмериканец
ОрганизацияНаучно-исследовательский институт машинного интеллекта
ИзвестенСоздание термина дружественный искусственный интеллект
Исследования по Безопасность ИИ
Рациональное письмо
Основатель Меньше неверно
Интернет сайтЮдковский.сеть

Элиэзер Шломо Юдковский (родился 11 сентября 1979 г.) - американец искусственный интеллект (AI) исследователь и писатель, наиболее известный популяризацией идеи дружественный искусственный интеллект.[1][2] Он соучредитель[3] и научный сотрудник Научно-исследовательский институт машинного интеллекта (MIRI), частная исследовательская некоммерческая организация, базирующаяся в Беркли, Калифорния.[4] Его работа о перспективе побега интеллектуальный взрыв оказал влияние на Ник Бостром с Сверхразум: пути, опасности, стратегии.[5] An самоучка,[6] Юдковский не учился в средней школе или колледже.[7]

Работа в безопасности искусственного интеллекта

Целевое обучение и стимулы в программных системах

Взгляды Юдковски на проблемы безопасности, создаваемые будущими поколениями систем ИИ, обсуждаются в учебнике по ИИ для студентов. Стюарт Рассел и Питер Норвиг с Искусственный интеллект: современный подход. Отмечая сложность формального определения общих целей вручную, Рассел и Норвиг цитируют предложение Юдковски о разработке автономных и адаптивных систем для обучения правильному поведению с течением времени:

Юдковский (2008)[8] более подробно рассказывает о том, как создать Дружелюбный ИИ. Он утверждает, что дружелюбие (желание не причинять вреда людям) должно быть заложено с самого начала, но дизайнеры должны осознавать, что их собственные конструкции могут быть ошибочными, и что робот со временем будет учиться и развиваться. Таким образом, проблема заключается в разработке механизма - разработать механизм для развития ИИ в рамках системы сдержек и противовесов и предоставить системным функциям полезности, которые останутся дружественными перед лицом таких изменений.[1]

В ответ на инструментальная конвергенция Юдковски и другие исследователи MIRI рекомендовали, чтобы автономные системы принятия решений с плохо разработанными целями по умолчанию имели стимулы к жестокому обращению с людьми, чтобы определить программные агенты, которые сходятся на безопасном поведении по умолчанию, даже если их цели неверно указаны.[9][2]

Прогнозирование возможностей

в интеллектуальный взрыв сценарий, выдвинутый И. Дж. Хорошо, рекурсивно улучшающиеся системы ИИ быстро переходят от недочеловеческого общего интеллекта к сверхразумный. Ник Бостром книга 2014 года Сверхразум: пути, опасности, стратегии подробно описывает аргумент Гуда, цитируя работы Юдковски о риске того, что антропоморфизация передовых систем искусственного интеллекта заставит людей неправильно понять природу интеллектуального взрыва. "AI может сделать по-видимому резкий скачок интеллекта исключительно в результате антропоморфизма, человеческой тенденции думать о «деревенском идиоте» и «Эйнштейне» как о крайних точках шкалы интеллекта, а не о почти неразличимых точках на шкале умов в целом ».[1][3][8][10]

В их учебник по искусственному интеллекту, Стюарт Рассел и Питер Норвиг возразить, что существуют известные пределы интеллектуального решения проблем из теория сложности вычислений; Если существуют строгие ограничения на то, насколько эффективно алгоритмы могут решать различные задачи в области информатики, то взрыв интеллекта может оказаться невозможным.[1]

Рациональное письмо

С 2006 по 2009 год Юдковский и Робин Хэнсон были основными участниками Преодоление предвзятостиблог о когнитивных и социальных науках, спонсируемый Институт будущего человечества Оксфордского университета. В феврале 2009 года Юдковский основал Меньше неверно, «блог сообщества, посвященный совершенствованию искусства рационального мышления».[11][12] Преодоление предвзятости с тех пор функционирует как личный блог Хэнсона.

Более 300 сообщений в блоге Юдковского по философии и науке (первоначально написано на Меньше неверно и Преодоление предвзятости) были выпущены в виде электронной книги под названием Рациональность: от ИИ к зомби посредством Научно-исследовательский институт машинного интеллекта (МИРИ) в 2015 году.[13] МИРИ также опубликовал Неадекватное равновесие, Электронная книга Юдковского 2017 года на тему социальной неэффективности.[14]

Юдковский также написал несколько художественных произведений. Его фанфикшн Роман, Гарри Поттер и методы рациональности, использует элементы сюжета из J.K. Роулинг с Гарри Поттер серия для иллюстрации тем в науке.[11][15] Житель Нью-Йорка описанный Гарри Поттер и методы рациональности как пересказ оригинала Роулинг «в попытке объяснить волшебство Гарри научным методом».[16]

Академические публикации

  • Юдковский, Элиэзер (2007). «Уровни организации в общей разведке» (PDF). Общий искусственный интеллект. Берлин: Springer.
  • Юдковский, Элиэзер (2008). «Когнитивные искажения, потенциально влияющие на оценку глобальных рисков» (PDF). В Бостром, Ник; Жиркович, Милан (ред.). Глобальные катастрофические риски. Издательство Оксфордского университета. ISBN  978-0199606504.
  • Юдковский, Элиэзер (2008). «Искусственный интеллект как положительный и отрицательный фактор глобального риска» (PDF). В Бостром, Ник; Жиркович, Милан (ред.). Глобальные катастрофические риски. Издательство Оксфордского университета. ISBN  978-0199606504.
  • Юдковский, Элиэзер (2011). «Сложные системы ценностей в дружественном ИИ» (PDF). Общий искусственный интеллект: 4-я Международная конференция, AGI 2011, Маунтин-Вью, Калифорния, США, 3–6 августа 2011 г.. Берлин: Springer.
  • Юдковский, Элиэзер (2012). «Дружественный искусственный интеллект». В Эдеме, Амоне; Мур, Джеймс; Сёракер, Джон; и другие. (ред.). Гипотезы сингулярности: научная и философская оценка. Коллекция Frontiers. Берлин: Springer. стр.181 –195. Дои:10.1007/978-3-642-32560-1_10. ISBN  978-3-642-32559-5.
  • Бостром, Ник; Юдковский, Элиэзер (2014). «Этика искусственного интеллекта» (PDF). По-франкски - Кейт; Рэмси, Уильям (ред.). Кембриджский справочник по искусственному интеллекту. Нью-Йорк: Издательство Кембриджского университета. ISBN  978-0-521-87142-6.
  • Лавиктуар, Патрик; Фалленштейн, Беня; Юдковский, Элиэзер; Барас, Михай; Кристиано, Пол; Херрешофф, Марчелло (2014). «Программное равновесие в дилемме заключенного через теорему Лёба». Мультиагентное взаимодействие без предварительной координации: материалы семинара AAAI-14. Публикации AAAI.
  • Соарес, Нейт; Фалленштейн, Беня; Юдковский, Элиэзер (2015). «Корректность» (PDF). Семинары AAAI: семинары на Двадцать девятой конференции AAAI по искусственному интеллекту, Остин, Техас, 25–26 января 2015 г.. Публикации AAAI.

Смотрите также

Рекомендации

  1. ^ а б c d Рассел, Стюарт; Норвиг, Питер (2009). Искусственный интеллект: современный подход. Прентис Холл. ISBN  978-0-13-604259-4.
  2. ^ а б Лейтон, Джонатан (2011). Битва за сострадание: этика в апатичной вселенной. Алгора. ISBN  978-0-87586-870-7.
  3. ^ а б Дауд, Морин. "Крестовый поход Илона Маска на миллиард долларов, чтобы остановить Апокалипсис ИИ". Ярмарка Тщеславия. Получено 28 июля, 2018.
  4. ^ Курцвейл, Рэй (2005). Сингулярность близка. Нью-Йорк: Пингвин-викинг. ISBN  978-0-670-03384-3.
  5. ^ Форд, Пол (11 февраля 2015 г.). «Наш страх перед искусственным интеллектом». Обзор технологий MIT. Получено 9 апреля, 2019.
  6. ^ Мэтьюз, Дилан; Пинкертон, Берд (19 июня 2019 г.). «Он стал соучредителем Skype. Теперь он тратит свое состояние на то, чтобы остановить опасный ИИ». Vox.
  7. ^ Саперштейн, Грегори (9 августа 2012 г.). "5 минут с провидцем: Элиэзер Юдковский".
  8. ^ а б Юдковский, Элиэзер (2008). «Искусственный интеллект как положительный и отрицательный фактор глобального риска» (PDF). В Бостром, Ник; Жиркович, Милан (ред.). Глобальные катастрофические риски. Издательство Оксфордского университета. ISBN  978-0199606504.
  9. ^ Соарес, Нейт; Фалленштейн, Беня; Юдковский, Элиэзер (2015). «Корректность». Семинары AAAI: семинары на Двадцать девятой конференции AAAI по искусственному интеллекту, Остин, Техас, 25–26 января 2015 г.. Публикации AAAI.
  10. ^ Бостром, Ник (2014). Сверхразум: пути, опасности, стратегии. ISBN  978-0199678112.
  11. ^ а б Миллер, Джеймс (2012). Восход сингулярности. BenBella Books, Inc. ISBN  978-1936661657.
  12. ^ Миллер, Джеймс (28 июля 2011 г.). «Вы можете узнать, как стать более рациональным». Business Insider. Получено 25 марта, 2014.
  13. ^ Миллер, Джеймс Д. «Разрывы в рациональности - New Rambler Review». newramblerreview.com. Получено 28 июля, 2018.
  14. ^ Научно-исследовательский институт машинного интеллекта. «Неадекватное равновесие: где и как застревают цивилизации».
  15. ^ «Гарри Поттер и ключ к бессмертию», Дэниел Снайдер, Атлантический океан
  16. ^ Пакер, Джордж (2011). «Нет смерти, нет налогов: либертарианский футуризм миллиардера из Кремниевой долины». Житель Нью-Йорка: 54. Получено 12 октября, 2015.

внешняя ссылка