Алгоритмическая прозрачность - Algorithmic transparency
Алгоритмическая прозрачность принцип, согласно которому факторы, влияющие на решения, принимаемые алгоритмы должны быть видимыми или прозрачными для людей, которые используют, регулируют и затрагивают системы, использующие эти алгоритмы. Хотя эта фраза была придумана в 2016 году Николасом Дьякопулосом и Майклом Колиской о роли алгоритмов в определении содержания услуг цифровой журналистики,[1] лежащий в основе принцип восходит к 1970-м годам и появлению автоматизированных систем оценки потребительских кредитов.
Фразы «алгоритмическая прозрачность» и «алгоритмическая ответственность»[2] иногда используются как взаимозаменяемые - особенно потому, что они были придуманы одними и теми же людьми, - но имеют несколько разное значение. В частности, «алгоритмическая прозрачность» утверждает, что входные данные для алгоритма и само использование алгоритма должны быть известны, но они не должны быть справедливыми. «Алгоритмическая подотчетность» подразумевает, что организации, использующие алгоритмы, должны нести ответственность за решения, принятые этими алгоритмами, даже если решения принимаются машиной, а не человеком.[3]
Текущие исследования алгоритмической прозрачности заинтересованы в обоих социальных эффектах доступа к удаленным сервисам, выполняющим алгоритмы.[4], а также математические и компьютерные подходы, которые могут быть использованы для достижения алгоритмической прозрачности[5] В Соединенных Штатах Федеральная торговая комиссия Бюро защиты прав потребителей изучает, как алгоритмы используются потребителями, проводя собственное исследование алгоритмической прозрачности и финансируя внешние исследования.[6] в Евросоюз, законы о защите данных, вступившие в силу в мае 2018 года, включают «право на объяснение» решений, принимаемых алгоритмами, хотя неясно, что это означает.[7]
Смотрите также
- Черный ящик
- Объяснимый ИИ
- Регулирование алгоритмов
- Разобрать механизм с целью понять, как это работает
- Право на объяснение
Рекомендации
- ^ Николас Дьякопулос и Майкл Колиска (2016): Алгоритмическая прозрачность в средствах массовой информации, цифровая журналистика, Дои:10.1080/21670811.2016.1208053
- ^ Диакопулос, Николай (2015). "Алгоритмическая ответственность: журналистское исследование вычислительных структур власти". Цифровая журналистика. 3 (3): 398-415.
- ^ Дики, Меган Роуз (30 апреля 2017 г.). «Алгоритмическая ответственность». TechCrunch. Получено 4 сентября 2017.
- ^ «Семинар по данным и алгоритмической прозрачности». 2015. Получено 4 января 2017.
- ^ «Справедливость, подотчетность и прозрачность в машинном обучении». 2015. Получено 29 мая 2017.
- ^ Нойес, Кэтрин (9 апреля 2015 г.). «FTC беспокоится об алгоритмической прозрачности, и вы должны тоже». PCWorld. Получено 4 сентября 2017.
- ^ «Ложные показания». Природа. 557 (7707): 612.31 мая 2018 г.