Институт будущего человечества - Future of Humanity Institute - Wikipedia
Логотип Института будущего человечества | |
Формирование | 2005 |
---|---|
Цель | Изучите общие вопросы о человечестве и его перспективах |
Штаб-квартира | Оксфорд, Англия |
Директор | Ник Бостром |
Головная организация | Факультет философии, Оксфордский университет |
Интернет сайт | fhi.ox.ac.uk |
В Институт будущего человечества (FHI) является междисциплинарный исследовательский центр при Оксфордский университет исследование общих вопросов о человечестве и его перспективах. Он был основан в 2005 году как часть Факультет философии и Оксфордская школа Мартина.[1][мертвая ссылка ] Его директор философ Ник Бостром, а его исследовательский персонал и сотрудники включают футуристов Андерс Сандберг, инженер К. Эрик Дрекслер, экономист Робин Хэнсон, и Отдавая то, что мы можем основатель Тоби Орд.[2]
Совместное использование офиса и тесное сотрудничество с Центр эффективного альтруизма, заявленная цель Института состоит в том, чтобы сфокусировать исследования там, где они могут принести наибольшую пользу человечеству в долгосрочной перспективе.[3][4] Он занимается сочетанием академической и просветительской деятельности, стремясь способствовать информированному обсуждению и вовлечению общественности в правительство, бизнес, университеты и другие организации.
История
Ник Бостром основал Институт в ноябре 2005 года как часть Оксфордской школы Мартина, а затем Школы Джеймса Мартина 21 века.[1] В период с 2008 по 2010 год FHI провел конференцию Global Catastrophic Risks, написал 22 статьи в научных журналах и опубликовал 34 главы в научных сборниках. Исследователи FHI упоминались в СМИ более 5000 раз[5] и дали рекомендации по вопросам политики в Всемирный Экономический Форум, частному и некоммерческому сектору (например, Фонд Макартура, а Всемирная организация здоровья ), а также правительственным органам Швеции, Сингапура, Бельгии, Великобритании и США. Бостром и биоэтик Юлиан Савулеску также издал книгу Улучшение человека в марте 2009 г.[6] Совсем недавно FHI сосредоточился на опасностях передовых искусственный интеллект (AI). В 2014 году его исследователи опубликовали несколько книг о рисках ИИ, в том числе книгу Стюарта Армстронга. Умнее нас и Бострома Сверхразум: пути, опасности, стратегии.[7][8]
В 2018 г. Открытый проект благотворительности рекомендовал предоставить FHI грант в размере примерно до 13,4 млн фунтов стерлингов в течение трех лет с большой долей при условии успешного найма.[9]
Экзистенциальный риск
Самая большая тема, на изучение которой FHI потратила время, - это глобальный катастрофический риск, и, в частности, экзистенциальный риск. В статье 2002 года Бостром определил «экзистенциальный риск» как тот, «когда неблагоприятный исход либо уничтожит зарождающуюся на Земле разумную жизнь, либо навсегда и резко сократит ее потенциал».[10] Это включает в себя сценарии, в которых человечество не пострадало напрямую, но не колонизировать космос и использовать доступные ресурсы наблюдаемой Вселенной в человечески ценных проектах, как обсуждалось в статье Бострома 2003 г. «Astronomical Waste: The Альтернативные стоимость запаздывающего технологического развития ».[11]
Бостром и Милан Жиркович книга 2008 года Глобальные катастрофические риски собирает очерки о различных рисках, как природных, так и антропогенных. Возможные катастрофические риски от природы включают: супервулканизм, ударные события, и энергичные астрономические события, такие как гамма-всплески, космические лучи, солнечные вспышки, и сверхновые. Эти опасности характеризуются как относительно небольшие и относительно хорошо изученные, хотя пандемии могут быть исключениями из-за того, что они более распространены и соответствуют технологическим тенденциям.[12][4]
Синтетические пандемии с использованием оружия биологические агенты уделяется больше внимания FHI. Технологические результаты, в которых институт особенно заинтересован, включают: антропогенное изменение климата, ядерная война и ядерный терроризм, молекулярная нанотехнология, и общий искусственный интеллект. Ожидая, что наибольшие риски будут связаны с технологиями будущего и, в частности, с передовым искусственным интеллектом, FHI соглашается с другими организациями по снижению рисков, такими как Центр изучения экзистенциального риска и Научно-исследовательский институт машинного интеллекта.[13][14] Исследователи FHI также изучили влияние технического прогресса на социальные и институциональные риски, такие как: тоталитаризм, безработица, вызванная автоматизацией, и информационные опасности.[15]
В 2020 году старший научный сотрудник FHI Тоби Орд опубликовал свою книгу Пропасть: экзистенциальный риск и будущее человечества, в котором он утверждает, что защита будущего человечества - одна из самых важных моральных проблем нашего времени.[16][17]
Антропное рассуждение
FHI уделяет много внимания экзотическим угрозам, которые мало исследовались другими организациями, а также методологическим соображениям, которые используются для снижения рисков и прогнозирования. Институт особо подчеркнул антропные рассуждения в своих исследованиях как малоизученная область с общими эпистемологическими последствиями.
Антропные аргументы, изученные FHI, включают довод о судном дне, который утверждает, что человечество, вероятно, скоро вымрет, потому что маловероятно, что кто-то наблюдает за моментом в истории человечества, который является чрезвычайно ранним. Напротив, современные люди, вероятно, будут примерно в середине распределения людей, которые когда-либо будут жить.[12] Бостром также популяризировал аргумент моделирования.
Постоянной темой в исследованиях FHI является Парадокс Ферми, удивительное отсутствие наблюдаемых инопланетных цивилизаций. Робин Хэнсон утверждал, что должен быть "Отличный фильтр «предотвращение колонизации космоса для объяснения парадокса. Этот фильтр может находиться в прошлом, если интеллект гораздо реже, чем предсказывает современная биология, или он может находиться в будущем, если экзистенциальные риски даже больше, чем признается в настоящее время.
Улучшение человека и рациональность
Тесно связана с работой FHI по оценке рисков, астрономическим отходам и опасностям будущих технологий его работа над перспективами и рисками улучшение человека. Рассматриваемые модификации могут быть биологическими, цифровыми или социологическими, и упор делается на наиболее радикальные предполагаемые изменения, а не на наиболее вероятные краткосрочные инновации. FHI биоэтика исследования сосредоточены на потенциальных последствиях генная терапия, продление жизни, имплантаты мозга и мозг-компьютерные интерфейсы, и загрузка разума.[18]
Основное внимание FHI уделяет методам оценки и улучшения человеческого интеллекта и рациональности как способу определения скорости и направления технологического и социального прогресса. Работа FHI над человеческой иррациональностью на примере когнитивная эвристика и предубеждения, включает постоянное сотрудничество с Амлин изучить системный риск возникающие из-за предубеждений при моделировании.[19][20]
Избранные публикации
- Тоби Орд: Пропасть: экзистенциальный риск и будущее человечества, 2020. ISBN 1526600218
- Ник Бостром: Сверхразум: пути, опасности, стратегии, 2014. ISBN 0-415-93858-9
- Ник Бостром и Милан Чиркович: Глобальные катастрофические риски, 2011. ISBN 978-0-19-857050-9
- Ник Бостром и Джулиан Савулеску: Улучшение человека, 2011. ISBN 0-19-929972-2
- Ник Бостром: Антропный уклон: эффекты наблюдательного отбора в науке и философии, 2010. ISBN 0-415-93858-9
- Ник Бостром и Андерс Сандберг: Дорожная карта эмуляции мозга, 2008.
Смотрите также
Рекомендации
- ^ а б "Будущее человечества: Будущее института человечества". Оксфордская школа Мартина. Получено 28 марта 2014.
- ^ "Сотрудники". Институт будущего человечества. Получено 28 марта 2014.
- ^ «О ФХИ». Институт будущего человечества. Архивировано из оригинал 1 декабря 2015 г.. Получено 28 марта 2014.
- ^ а б Росс Андерсен (25 февраля 2013 г.). "Приметы". Журнал Aeon. Получено 28 марта 2014.
- ^ "Новости Google". Новости Google. Получено 30 марта 2015.
- ^ Ник Бостром (18 июля 2007 г.). Отчет о достижениях: 2008-2010 гг. (PDF) (Отчет). Институт будущего человечества. Архивировано из оригинал (PDF) 21 декабря 2012 г.. Получено 31 марта 2014.
- ^ Марк Пизинг (17 мая 2012 г.). «Восстание искусственного интеллекта: люди будут отданы на аутсорсинг, а не уничтожены». Проводной. Получено 31 марта 2014.
- ^ Кофлан, Шон (24 апреля 2013 г.). "Как люди вымрут?". Новости BBC. Получено 29 марта 2014.
- ^ Открытый проект благотворительности (Июль 2018). «Институт будущего человечества - работа над глобальными катастрофическими рисками».
- ^ Ник Бостром (март 2002 г.). «Экзистенциальные риски: анализ сценариев исчезновения людей и связанных с ними опасностей». Журнал эволюции и технологий. 15 (3): 308–314. Получено 31 марта 2014.
- ^ Ник Бостром (ноябрь 2003 г.). «Астрономические отходы: альтернативная стоимость отложенного технологического развития». Utilitas. 15 (3): 308–314. CiteSeerX 10.1.1.429.2849. Дои:10.1017 / s0953820800004076. Получено 31 марта 2014.
- ^ а б Росс Андерсен (6 марта 2012 г.). «Мы недооцениваем риск вымирания человечества». Атлантический океан. Получено 29 марта 2014.
- ^ Кейт Уайтхед (16 марта 2014 г.). «Учебный центр Кембриджского университета фокусируется на рисках, которые могут уничтожить человечество». Южно-Китайская утренняя почта. Получено 29 марта 2014.
- ^ Дженни Холландер (сентябрь 2012 г.). «Оксфордский институт будущего человечества знает, что заставит нас исчезнуть». Суета. Получено 31 марта 2014.
- ^ Ник Бостром. «Информационные опасности: типология потенциального вреда от знаний» (PDF). Институт будущего человечества. Получено 31 марта 2014.
- ^ Орд, Тоби. «Пропасть: экзистенциальный риск и будущее человечества». Веб-сайт Precipice. Получено 2020-10-18.
- ^ Чиверс, Том. «Насколько близко человечество к самоубийству?». Зритель. Получено 2020-10-18.
- ^ Андерс Сандберг и Ник Бостром. «Эмуляция всего мозга: дорожная карта» (PDF). Институт будущего человечества. Получено 31 марта 2014.
- ^ «Амлин и Оксфордский университет запускают крупный исследовательский проект по системному риску моделирования» (Пресс-релиз). Амлин. 11 февраля 2014 г.. Получено 2014-03-31.
- ^ «Амлин и Оксфордский университет будут сотрудничать в области моделирования рисков». Журнал "Непрерывность, страхование и риски". 11 февраля 2014 г.. Получено 31 марта 2014.