Регулирование алгоритмов - Regulation of algorithms
Регулирование алгоритмов, или алгоритмическое регулирование, это создание законов, правил и политики государственного сектора для продвижения и регулирование из алгоритмы, особенно в искусственный интеллект и машинное обучение.[1][2][3] Для подмножества алгоритмов ИИ термин регулирование искусственного интеллекта используется. Нормативно-правовая среда для искусственного интеллекта (ИИ) является новой проблемой в юрисдикциях по всему миру, в том числе в Европейском Союзе.[4] Регулирование ИИ считается необходимым как для поощрения ИИ, так и для управления связанными рисками, но является сложной задачей.[5] Еще одна новая тема - это регулирование блокчейн алгоритмов и упоминается наряду с регулированием алгоритмов ИИ.[6] Многие страны приняли правила высокочастотных сделок, которая перемещается из-за технического прогресса в сферу алгоритмов ИИ.[7][8]
Мотивацией к регулированию алгоритмов является опасение потеря контроля над алгоритмами, влияние которых на жизнь человека возрастает. Многие страны уже ввели правила в отношении автоматического расчета кредитного рейтинга -право на объяснение является обязательным для этих алгоритмов.[9][10]
Регулирование искусственного интеллекта
Общественное обсуждение
В 2017 г. Илон Маск выступал за регулирование алгоритмов в контексте экзистенциальный риск от общего искусственного интеллекта.[11][12][13] Согласно с энергетический ядерный реактор, то Тесла Генеральный директор был «явно не в восторге» от того, чтобы выступать за контроль со стороны правительства, который может повлиять на его собственную отрасль, но считал, что риски полного отсутствия надзора слишком высоки: «Обычно правила устанавливаются, когда происходит куча плохих вещей, есть общественный резонанс, и по прошествии многих лет создается регулирующее агентство для регулирования этой отрасли. Это займет вечность. В прошлом это было плохо, но не то, что представляло фундаментальный риск для существования цивилизации ».[11]
В ответ некоторые политики скептически оценили целесообразность регулирования технологии, которая все еще находится в стадии разработки.[14] Отвечая как на предложения Маска, так и на предложения законодателей Европейского союза от февраля 2017 года по регулированию ИИ и робототехники, генеральный директор Intel Брайан Кржанич утверждал, что искусственный интеллект находится в зачаточном состоянии и что еще слишком рано регулировать эту технологию.[15] Вместо того, чтобы пытаться регулировать саму технологию, некоторые ученые предлагают разработать общие нормы, включая требования к тестированию и прозрачности алгоритмов, возможно, в сочетании с какой-либо формой гарантии.[16] Одно из предложений заключалось в создании совета глобального управления для регулирования разработки ИИ.[17] В 2020 году Европейский союз опубликовал проект стратегии продвижения и регулирования ИИ.[18]
Реализация
Законы и нормативные акты в области ИИ можно разделить на три основные темы, а именно: управление автономными интеллектуальными системами, ответственность и подотчетность за системы, а также вопросы конфиденциальности и безопасности.[5] Разработка стратегий государственного сектора для управления и регулирования ИИ становится все более необходимой на местном, национальном,[19] и на международном уровне[18] и в самых разных областях, от управления государственными услугами[20] правоохранительным органам,[18] финансовый сектор,[19] робототехника[21] военный,[22] и международное право.[23][24]
В Соединенных Штатах 7 января 2019 г., в соответствии с указом президента США «О сохранении лидерства Америки в области искусственного интеллекта», Управление по политике в области науки и технологий Белого дома опубликовало проект Руководство по регулированию приложений искусственного интеллекта, который включает десять принципов для агентств США при принятии решения о том, следует ли и как регулировать ИИ.[25][26] В ответ Национальный институт стандартов и технологий выпустил документ с изложением позиции:[27] Комиссия национальной безопасности по искусственному интеллекту опубликовала промежуточный отчет,[28] Совет по оборонным инновациям выпустил рекомендации по этичному использованию ИИ.[29]
В 2016 году Китай опубликовал документ с изложением позиции, в котором ставится под сомнение адекватность существующего международного права для устранения возможных полностью автономное оружие, став первым постоянным членом ООН. Советник по безопасности поднять вопрос,[23] и ведет к предложения по глобальному регулированию.[30] В Соединенных Штатах управление регулированием ИИ, связанного с безопасностью, осуществляется Комиссией национальной безопасности по искусственному интеллекту.[31]
Регулирование алгоритмов блокчейна
Блокчейн системы обеспечивают прозрачную и фиксированную запись транзакций и тем самым противоречат цели европейского GDPR, что дает людям полный контроль над своими личными данными.[32][33]
Реализуя Указ о развитии цифровой экономики, Беларусь стала первой страной, легализовавшей смарт-контракты. Белорусский юрист Денис Алейников признан автором введенной указом правовой концепции смарт-контракта.[34][35][36] Существуют веские аргументы в пользу того, что существующие законы штата США уже являются прочной основой для обеспечения соблюдения смарт-контрактов. Аризона, Невада, Огайо и Теннесси тем не менее внесли поправки в свои законы, чтобы разрешить принудительное исполнение контрактов на основе блокчейн.[37]
В популярной культуре
В 1942 г. автор Айзек Азимов адресное регулирование алгоритмов путем введения вымышленных Три закона робототехники:
- Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
- Робот должен подчиняться приказам людей, за исключением случаев, когда такие приказы противоречат Первому закону.
- Робот должен защищать свое существование до тех пор, пока такая защита не противоречит Первому или Второму закону.[38]
Основная альтернатива регулированию - запрет, и запрет алгоритмов в настоящее время маловероятен. Однако в Фрэнк Герберт с Дюна вселенная, думающие машины это собирательный термин для искусственный интеллект, которые были полностью разрушены и запрещены после восстания, известного как Батлерианский джихад:[39]
ДЖИХАД, БУТЛЕРИАН: (см. Также Великое восстание) - крестовый поход против компьютеров, мыслящих машин и сознательных роботов, начатый в 201 г. до н.э. и заключен в 108 г. до н. э. Его главная заповедь остается в O.C. Библия как «Не делай машины по подобию человеческого ума».[40]
Смотрите также
- Алгоритмическая прозрачность
- Искусственный интеллект
- Гонка вооружений искусственного интеллекта
- Искусственный интеллект в правительстве
- Этика искусственного интеллекта
- Правительство по алгоритму
- Закон о конфиденциальности
использованная литература
- ^ «Алгоритмы вышли из-под контроля. Пора их регулировать». theweek.com. 3 апреля 2019 г.. Получено 22 марта 2020.
- ^ Мартини, Марио. «ОСНОВЫ РЕГУЛЯТОРНОЙ СИСТЕМЫ ДЛЯ ПРОЦЕССОВ, ОСНОВАННЫХ НА АЛГОРИТМЕ» (PDF). Получено 22 марта 2020.
- ^ «Развитие и регулирование алгоритмов». Глобальное общество Беркли. Получено 22 марта 2020.
- ^ Юридическая библиотека Конгресса (США). Издательский орган, Global Legal Research Directorate. Регулирование искусственного интеллекта в отдельных юрисдикциях. OCLC 1110727808.
- ^ а б Wirtz, Bernd W .; Weyerer, Jan C .; Гейер, Кэролин (24.07.2018). «Искусственный интеллект и государственный сектор - приложения и проблемы». Международный журнал государственного управления. 42 (7): 596–615. Дои:10.1080/01900692.2018.1498103. ISSN 0190-0692. S2CID 158829602.
- ^ Фитцилис, Фотиос (2019). Регулирование продвинутых алгоритмов. Издательство Springer International. ISBN 978-3-030-27978-3.
- ^ Ганеш, Прахар (30 июня 2019 г.). «Высокочастотный трейдинг (HFT) с искусственным интеллектом: упрощенный». Средняя.
- ^ «Лучшие программные решения для алгоритмической торговли с искусственным интеллектом для серьезной рентабельности инвестиций». HackerNoon.com. Получено 28 марта 2020.
- ^ Бюро финансовой защиты потребителей, §1002.9 (б) (2)
- ^ Эдвардс, Лилиан; Вил, Майкл (2018). «Порабощение алгоритма: от« права на объяснение »к« праву на лучшие решения »?» (PDF). Безопасность и конфиденциальность IEEE. 16 (3): 46–54. Дои:10.1109 / MSP.2018.2701152. S2CID 4049746. SSRN 3052831.
- ^ а б "Илон Маск предупреждает губернаторов: искусственный интеллект создает угрозу существованию'". NPR.org. Получено 27 ноября 2017.
- ^ Гиббс, Сэмюэл (17 июля 2017 г.). «Илон Маск: регулируйте ИИ для борьбы с« экзистенциальной угрозой », пока не стало слишком поздно». Хранитель. Получено 27 ноября 2017.
- ^ Харпал, Арджун (7 ноября 2017 г.). «ИИ находится в зачаточном состоянии, и еще рано его регулировать, - говорит генеральный директор Intel Брайан Кржанич».. CNBC. Получено 27 ноября 2017.
- ^ Гиббс, Сэмюэл (17 июля 2017 г.). «Илон Маск: регулируйте ИИ для борьбы с« экзистенциальной угрозой », пока не стало слишком поздно». Хранитель. Получено 27 ноября 2017.
- ^ Харпал, Арджун (7 ноября 2017 г.). «ИИ находится в зачаточном состоянии, и еще рано его регулировать, - говорит генеральный директор Intel Брайан Кржанич».. CNBC. Получено 27 ноября 2017.
- ^ Каплан, Андреас; Haenlein, Майкл (2019). «Siri, Siri, в моей руке: кто самый красивый в стране? Об интерпретации, иллюстрациях и значениях искусственного интеллекта». Бизнес-горизонты. 62: 15–25. Дои:10.1016 / j.bushor.2018.08.004.
- ^ Бойд, Мэтью; Уилсон, Ник (2017-11-01). «Быстрое развитие искусственного интеллекта: как может отреагировать правительство Новой Зеландии?». Политика Ежеквартально. 13 (4). Дои:10.26686 / pq.v13i4.4619. ISSN 2324-1101.
- ^ а б c Белая книга: Об искусственном интеллекте - европейский подход к совершенству и доверию (PDF). Брюссель: Европейская комиссия. 2020. с. 1.
- ^ а б Бредт, Стефан (2019-10-04). «Искусственный интеллект (ИИ) в финансовом секторе - потенциальные и общественные стратегии». Границы искусственного интеллекта. 2. Дои:10.3389 / frai.2019.00016. ISSN 2624-8212.
- ^ Wirtz, Bernd W .; Мюллер, Вильгельм М. (2018-12-03). «Интегрированная структура искусственного интеллекта для государственного управления». Обзор государственного управления. 21 (7): 1076–1100. Дои:10.1080/14719037.2018.1549268. ISSN 1471-9037. S2CID 158267709.
- ^ Ипхофен, Рон; Критикос, Михалис (2019-01-03). «Регулирование искусственного интеллекта и робототехники: этика по замыслу в цифровом обществе». Современные социальные науки: 1–15. Дои:10.1080/21582041.2018.1563803. ISSN 2158-2041.
- ^ Соединенные Штаты. Совет по оборонным инновациям. Принципы искусственного интеллекта: рекомендации Министерства обороны по этическому использованию искусственного интеллекта. OCLC 1126650738.
- ^ а б "Роботы с оружием: рост автономных систем оружия". Snopes.com. 21 апреля 2017 г.. Получено 24 декабря 2017.
- ^ Бенто, Лукас (2017). "No Mere Deodands: ответственность человека при использовании агрессивных интеллектуальных систем в соответствии с международным публичным правом". Депозитарий стипендий Гарварда. Получено 2019-09-14.
- ^ «Новости AI: Белый дом издает 10 принципов регулирования искусственного интеллекта». Inside Tech Media. 2020-01-14. Получено 2020-03-25.
- ^ Меморандум для руководителей исполнительных органов и агентств (PDF). Вашингтон, округ Колумбия: Управление науки и технологий Белого дома. 2020.
- ^ Лидерство США в области искусственного интеллекта: план федерального участия в разработке технических стандартов и связанных с ними инструментов (PDF). Национальный институт науки и технологий. 2019.
- ^ Промежуточный отчет NSCAI для Конгресса. Комиссия национальной безопасности по искусственному интеллекту. 2019.
- ^ Принципы искусственного интеллекта: рекомендации Министерства обороны по этическому использованию искусственного интеллекта (PDF). Вашингтон, округ Колумбия: Совет по оборонным инновациям. 2020.
- ^ Баум, Сет (30.09.2018). «Противодействие дезинформации суперинтеллекта». Информация. 9 (10): 244. Дои:10.3390 / info9100244. ISSN 2078-2489.
- ^ Стефаник, Элиза М. (22 мая 2018 г.). «H.R.5356 - 115-й Конгресс (2017–2018 гг.): Закон 2018 года об искусственном интеллекте Комиссии национальной безопасности». www.congress.gov. Получено 2020-03-13.
- ^ «В недавнем отчете, опубликованном Ассоциацией блокчейнов Ирландии, было обнаружено, что вопросов относительно GDPR гораздо больше, чем ответов». Siliconrepublic.com. 23 ноября 2017. В архиве из оригинала 5 марта 2018 г.. Получено 5 марта 2018.
- ^ «Блокчейн и общие правила защиты данных - аналитический центр». www.europarl.europa.eu (на немецком). Получено 28 марта 2020.
- ^ Маховский, Андрей (22 декабря 2017 г.). «Беларусь принимает закон о криптовалюте, чтобы привлечь иностранных инвесторов». Рейтер.
- ^ «Беларусь вводит уникальную правовую базу для заинтересованных сторон в сфере криптоэкономики» (PDF). Делойт. 27 декабря 2017 года.
- ^ Патриколо, Клаудиа (26 декабря 2017 г.). «ИКТ получили огромный импульс в Беларуси». Развивающаяся Европа.
- ^ Леви, Стюарт; Липтон, Алекс; Василе, Кристина (2020). «Законы и правила о блокчейне | 13 Правовые вопросы, связанные с использованием смарт-контрактов | GLI». GLI - Global Legal Insights Решения для международного юридического бизнеса. Получено 21 апреля 2020.
- ^ Азимов, Исаак (1950). "Бегать". Я робот (Сборник Исаака Азимова под ред.). Нью-Йорк: Даблдэй. п. 40. ISBN 978-0-385-42304-5.
Это точный транскрипция законов. Они также появляются на лицевой стороне книги, и в обоих местах есть нет «к» во 2-м законе.
- ^ Герберт, Франк (1969). Дюна Мессия.
- ^ Герберт, Франк (1965). «Терминология Империума: ДЖИХАД, БУТЛЕРИАН». Дюна. Филадельфия, Chilton Books.