Deepfake - Deepfake

Пример технологии deepfake: в сцене из Еловек из стали, актриса Эми Адамс в оригинале (слева) изменено, чтобы иметь лицо актера Николас Кейдж (правильно)

Дипфейкичемодан из "глубокое обучение "и" подделка "[1]) находятся синтетическая среда[2] в котором человек в существующем изображении или видео заменяется на чье-то изображение. Хотя подделка контента не нова, дипфейки используют мощные методы машинное обучение и искусственный интеллект манипулировать или создавать визуальный и аудиоконтент с высокой вероятностью обмана.[3] Основные методы машинного обучения, используемые для создания дипфейков, основаны на глубоком обучении и включают обучение генеративным архитектурам нейронных сетей, таким как автокодеры[3] или генеративные состязательные сети (GAN).[4][5]

Дипфейки привлекли всеобщее внимание из-за их использования в знаменитости порнографического видео, порноместь, фальшивые новости, мистификации, и финансовое мошенничество.[6][7][8][9] Это вызвало отклик как в промышленности, так и в правительстве с целью выявления и ограничения их использования.[10][11]

История

Фото манипуляции был разработан в 19 веке и вскоре стал применяться в кинофильмы. Технологии неуклонно совершенствовались в течение 20-го века, а с появлением цифровое видео.

Технология Deepfake была разработана исследователями в академических учреждениях с 1990-х годов, а позже - любителями в онлайн-сообществах.[12][13] Совсем недавно эти методы были приняты промышленностью.[14]

Академическое исследование

Академические исследования, связанные с дипфейками, лежат преимущественно в области компьютерное зрение, подраздел компьютерных наук.[12] Ранним знаковым проектом была программа Video Rewrite, опубликованная в 1997 году, которая модифицировала существующие видеозаписи говорящего человека, чтобы изобразить, как этот человек произносит слова, содержащиеся в другой звуковой дорожке.[15] Это была первая система, полностью автоматизирующая этот вид реанимации лица, и в ней использовались методы машинного обучения, позволяющие установить связь между звуками, издаваемыми объектом видео, и формой лица объекта.[15]

Современные академические проекты сосредоточены на создании более реалистичных видеороликов и улучшении техники.[16][17] Программа «Синтезирующий Обама», опубликованная в 2017 году, модифицирует видеозаписи бывшего президента. Барак Обама изобразить его произносящим слова, содержащиеся в отдельной звуковой дорожке.[16] В качестве основного исследовательского вклада в проекте фотореалистичный техника для синтеза формы рта из аудио.[16] Программа Face2Face, опубликованная в 2016 году, модифицирует видеозаписи лица человека, чтобы они отображали его в реальном времени, имитируя выражение лица другого человека.[17] Проект перечисляет в качестве основного исследовательского вклада первый метод воспроизведения мимики в реальном времени с помощью камеры, которая не фиксирует глубину, что позволяет использовать эту технику с использованием обычных потребительских камер.[17]

В августе 2018 года исследователи из Калифорнийский университет в Беркли опубликовал статью, в которой представил приложение для искусственного танца, которое может создать впечатление мастерского танцевального мастерства.[18][19] Этот проект расширяет применение дипфейков на все тело; предыдущие работы были посвящены голове или частям лица.[18]

Исследователи также показали, что дипфейки распространяются и на другие области, такие как подделка медицинских изображений.[20] В этой работе было показано, как злоумышленник может автоматически ввести или удалить рак легкого на 3D-компьютерной томографии пациента. Результат был настолько убедительным, что обманул троих радиологов и ультрасовременный искусственный интеллект для обнаружения рака легких. Чтобы продемонстрировать угрозу, авторы успешно совершил нападение на больницу в тесте на проникновение в белой шляпе.

Обзор дипфейков, опубликованный в мае 2020 года, показывает, как продвинулись создание и обнаружение дипфейков за последние несколько лет.[21] Опрос показывает, что исследователи сосредоточили свое внимание на решении следующих проблем создания дипфейков:

  • Обобщение. Качественные дипфейки часто достигаются тренировками на многочасовых съемках цели. Эта задача состоит в том, чтобы минимизировать количество обучающих данных, необходимых для создания качественных изображений, и обеспечить выполнение обученных моделей на новый личности (невидимые во время тренировки).
  • Парное обучение. Обучение контролируемой модели может дать высококачественные результаты, но требует объединения данных. Это процесс поиска примеров входных данных и желаемых выходных данных, на которых модель может учиться. Сопряжение данных трудоемко и непрактично при обучении нескольким личностям и поведению лиц. Некоторые решения включают обучение с самоконтролем (с использованием кадров из одного и того же видео), использование непарных сетей, таких как Cycle-GAN, или манипулирование встраиваемыми сетями.
  • Утечка личности. Здесь личность водителя (т. Е. Актера, управляющего лицом во время реконструкции) частично переносится на созданное лицо. Некоторые предлагаемые решения включают механизмы внимания, обучение за несколько шагов, распутывание связей, преобразования границ и пропуск соединений.
  • Окклюзии. Если закрыть часть лица рукой, волосами, очками или любым другим предметом, могут возникнуть артефакты. Распространенный прикус - это закрытый рот, который скрывает внутреннюю часть рта и зубы. Некоторые решения включают сегментацию изображения во время обучения и рисования.
  • Временная согласованность. В видеороликах, содержащих дипфейки, могут возникать такие артефакты, как мерцание и дрожание, поскольку в сети нет контекста предыдущих кадров. Некоторые исследователи предоставляют этот контекст или используют новые потери временной когерентности, чтобы улучшить реализм. По мере совершенствования технологии помехи уменьшаются.

В целом ожидается, что Deepfakes повлияет на СМИ и общество, производство средств массовой информации, репрезентации средств массовой информации, аудиторию средств массовой информации, гендерную проблематику, законодательство, регулирование и политику.[22]

Любительское развитие

Термин «дипфейки» возник примерно в конце 2017 г. Reddit пользователь по имени "deepfakes".[23] Он, как и другие участники сообщества r / deepfakes Reddit, поделился созданными ими дипфейками; много видео участвуют лица знаменитостей поменялись на телах актрис в порнофильмах,[23] в то время как не-порнографическое содержание включено много видео с актером Николас Кейдж Лицо менялось в разных фильмах.[24]

Другие онлайновые сообщества остаются, в том числе Reddit общин, которые не разделяют порнографии, например, г / SFWdeepfakes (сокращенно «безопасно для работы deepfakes»), в котором члены сообщества разделяют deepfakes, изображающие знаменитостей, политиков и других, не связанных с порнографическими сценариев.[25] Другие онлайновые сообщества продолжают делиться порнографии на платформах, не запрещенных deepfake порнографии.[26]

Коммерческое развитие

В январе 2018 года было запущено проприетарное настольное приложение FakeApp.[27] Это приложение позволяет пользователям легко создавать и обмениваться видео, поменяв лица местами.[28] С 2019 года FakeApp был заменен альтернативами с открытым исходным кодом, такими как Faceswap и DeepFaceLab на основе командной строки.[29][30]

Более крупные компании также начинают использовать дипфейки.[14] Гигант мобильных приложений Момо создал приложение Zao, которое позволяет пользователям накладывать свое лицо на теле- и видеоклипы с помощью одного изображения.[14] Японская AI-компания DataGrid создала дипфейк всего тела, который может создать человека с нуля.[31] Они намерены использовать их в моде и одежде.

Аудио дипфейки и программное обеспечение искусственного интеллекта, способное обнаруживать дипфейки и клонирование человеческих голосов через 5 секунд прослушивания тоже есть.[32][33][34][35][36][37]Мобильное приложение Deepfake, Впечатления, был запущен в марте 2020 года. Это было первое приложение для создания deepfake-видео знаменитостей с мобильных телефонов.[38][39]

Воскрешение

Технология Deepfakes может использоваться не только для фабрикации сообщений и действий других, но также может использоваться для оживления людей, которые скончались. 29 октября 2020 года Ким Кардашьян опубликовала видео со своим покойным отцом. Роберт Кардашьян; Лицо на видео Роберта Кардашьяна было создано с помощью технологии deepfake.[40] Эта голограмма была создана компанией Kaleida, где они используют сочетание технологий производительности, отслеживания движения, SFX, VFX и DeepFake в своих голограмма творчество.[41]


Был также случай, когда Хоакин Оливер, жертва Съемка парковой зоны был возрожден с помощью технологии дипфейка. Родители Оливера объединились от имени своей организации Nonprofit Change the Ref, с McCann Health для создания этого дипфейк-видео, пропагандирующего кампанию по голосованию за безопасность оружия.[42] В этом дипфейк-сообщении Хоакин призывает зрителей голосовать.

Методы

Технология Deepfake, используемая для создания морфинга лица
Дипфейк Дуга Робла, "DigiDoug" дебютировал на TED2019

Deepfakes полагаются на тип нейронная сеть называется автоэнкодер.[5][43] Они состоят из кодера, который сокращает изображение до скрытого пространства меньшей размерности, и декодера, который восстанавливает изображение из скрытого представления. Deepfakes использует эту архитектуру, имея универсальный кодировщик, который кодирует человека в скрытом пространстве.[44] Скрытое представление содержит ключевые особенности их черт лица и осанки. Затем это можно декодировать с помощью модели, обученной специально для цели.[5] Это означает, что подробная информация о цели будет наложена на основные черты лица и тела исходного видео, представленные в скрытом пространстве.[5]

Популярное обновление этой архитектуры добавляет порождающая состязательная сеть к декодеру.[44] А GAN обучает генератор, в данном случае декодер, и дискриминатор враждебным отношениям.[44] Генератор создает новые изображения из скрытого представления исходного материала, в то время как дискриминатор пытается определить, создано ли изображение.[44] Это заставляет генератор создавать изображения, которые очень хорошо имитируют реальность, так как любые дефекты будут обнаружены дискриминатором.[45] Оба алгоритма постоянно улучшаются в игра с нулевой суммой.[44] Это затрудняет борьбу с дипфейками, поскольку они постоянно развиваются; Каждый раз, когда обнаруживается дефект, его можно исправить.[45]

Приложения

порнография

Многие deepfakes на особенности интернет-порнографии людей, часто женщины-знаменитость, чье подобие, как правило, используются без их согласия.[46] Deepfake порнографии заметно всплыли в Интернете в 2017 году, в частности, на Reddit.[47] В докладе, опубликованном в октябре 2019 года по голландской CyberSecurity загрузочном Deeptrace подсчитано, что 96% всех deepfakes онлайн были порнографическими.[48] Первым, что привлекло внимание, был Дейзи Ридли deepfake, о котором говорилось в нескольких статьях.[47] Другие известные порнографические deepfakes были различные другие знаменитости.[47][49][50][51] По состоянию на октябрь 2019 года в Интернете чаще всего фигурировали британские и американские актрисы.[46] Однако около четверти участников - южнокорейцы, большинство из которых - звезды K-pop.[46][52]

В июне 2019 г. Windows и Linux было выпущено приложение DeepNude, в котором использовались нейронные сети, в частности генеративные состязательные сети, чтобы убрать одежду с изображений женщин. У приложения была как платная, так и неоплачиваемая версия, платная версия стоила 50 долларов.[53][54] 27 июня создатели удалили заявку и вернули потребителям деньги.[55]

Политика

Дипфейки использовались для искажения известных политиков в видеороликах.

  • В отдельных видеороликах лицо президента Аргентины. Маурисио Макри был заменен лицом Адольф Гитлер, и Ангела Меркель лицо было заменено на Дональд Трамп с.[56][57]
  • В апреле 2018 г. Джордан Пил сотрудничал с Buzzfeed создать дипфейк Барак Обама голосом Пила; он служил объявление общественной службы для повышения осведомленности о дипфейках.[58]
  • В январе 2019 г. Лиса филиал KCPQ транслировал дипфейк Трампа во время его адрес в Овальном кабинете, издеваясь над его внешностью и цветом кожи (и впоследствии уволил сотрудника, ответственного за видео).[59]
  • В течение Выборы в Законодательное собрание Дели 2020 В ходе кампании партия Дели Бхаратия Джаната использовала аналогичную технологию для распространения версии англоязычной рекламной кампании своего лидера, Манодж Тивари, переведено на Харьянви к цели Харьяна избиратели. Закадровый голос был предоставлен актером, а искусственный интеллект, обученный с использованием видео выступлений Тивари, был использован для синхронизации видео по губам с новым закадровым текстом. Сотрудник партии охарактеризовал это как «позитивное» использование технологии дипфейка, которая позволила им «убедительно приблизиться к целевой аудитории, даже если кандидат не говорил на языке избирателя».[60]
  • В апреле 2020 года бельгийский филиал Extinction Rebellion опубликовал в Facebook дипфейк-видео премьер-министра Бельгии Софи Вильмес.[61] Видео продвигало возможную связь между вырубка леса и COVID-19. Он набрал более 100 000 просмотров за 24 часа и получил много комментариев. На странице Facebook, где появилось видео, многие пользователи интерпретировали дипфейк как подлинное.[62]

В июне 2019 года США Комитет по разведке палаты представителей провели слушания о потенциальном злонамеренном использовании дипфейков для влияния на выборы.[63]

Искусство

В марте 2018 года мультидисциплинарный художник Джозеф Айерле опубликовал видеоискусство Un'emozione per semper 2.0 (Английское название: Итальянская игра). Художник работал с технологией Deepfake, чтобы создать AI актриса, синтетическая версия звезды кино 80-х Орнелла Мути, путешествуя во времени с 1978 по 2018 год. Массачусетский Институт Технологий передала это произведение в исследование «Творческая мудрость».[64] Художник использовал произведение Орнеллы Мути. путешествие во времени исследовать размышления поколений, а также исследовать вопросы о роли провокации в мире искусства.[65] Для технической реализации Айерле использовала сцены фотомодели. Кендалл Дженнер. Искусственный интеллект заменил лицо Дженнер рассчитанным ИИ лицом Орнеллы Мути. В результате у ИИ-актрисы лицо итальянской актрисы Орнеллы Мути и тело Кендалл Дженнер.

Играет роль

Были предположения о том, что дипфейки будут использоваться для создания цифровых актеров для будущих фильмов. Сконструированные / измененные цифровыми методами люди уже использовались в фильмы раньше, а дипфейки могут внести новые разработки в ближайшем будущем.[66] Технология Deepfake уже использовалась для вставки лиц в существующие фильмы, например для вставки Харрисон Форд молодое лицо на лице Хана Соло в Соло: История Звездных войн,[67] и техники, подобные тем, которые используются в дипфейках, были использованы для игры принцессы Леи в Изгой-один.[68]

Фильмы

Поскольку технология deepfake все больше развивается, Дисней улучшили свои визуальные эффекты, используя технологию замены лиц deepfake с высоким разрешением.[69] Disney улучшила свою технологию с помощью прогрессивного обучения, запрограммированного для определения выражений лица, реализации функции смены лица и повторения, чтобы стабилизировать и улучшить результат.[69] Эта технология deepfake с высоким разрешением будет внедрена в производство фильмов и телепрограмм, что значительно сократит операционные и производственные затраты.[70] Модель генерации deepfake от Disney может создавать медиафайлы, созданные искусственным интеллектом, с разрешением 1024 x 1024, что намного больше и дает более реалистичные результаты, чем обычные модели, которые создают медиафайлы с разрешением 256 x 256.[70] Кроме того, с помощью этой технологии у Disney есть возможность воскрешать мертвых актеров и персонажей с помощью быстрой и простой смены лица; Теперь Дисней может воскрешать и воскрешать персонажей для удовольствия фанатов.[71]

Интернет-мем

В 2020 году интернет-мем появился с использованием дипфейков для создания видео людей, поющих хор "Baka Mitai". (ば か み た い), песня из серии видеоигр Якудза. В сериале меланхоличная песня исполняется игроком в караоке Мини-игра. В большинстве версий этого мема используется видео 2017 года, загруженное пользователем Dobbsyrules, который синхронизация губ песня, как шаблон.[72][73]

Социальные сети

Дипфейки начали использовать в популярных социальных сетях, в частности, через Zao, китайское приложение для дипфейков, которое позволяет пользователям заменять свои лица на лица персонажей в сценах из фильмов и телешоу, таких как Ромео + Джульетта и Игра престолов.[74] Изначально приложение подверглось тщательной проверке из-за агрессивных пользовательских данных и политики конфиденциальности, после чего компания выступила с заявлением, в котором утверждала, что пересмотрит политику.[75] В январе 2020 года Facebook объявил, что вводит новые меры для борьбы с этим на своих платформах.[76]

Sockpuppets

Фотографии Deepfake можно использовать для создания носок, несуществующие лица, которые активны как в Интернете, так и в традиционных СМИ. Дипфейк-фотография, похоже, была создана вместе с легендой о явно несуществующем человеке по имени Оливер Тейлор, личность которого была описана как студент университета в Соединенном Королевстве. Персона Оливера Тейлора представила свои мнения в нескольких газетах и ​​была активна в интернет-СМИ, нападая на британского юридического академика Мазена Масри и его жену, палестинку. правозащитник Рывка Барнард, как «сочувствующих террористам». Масри привлек международное внимание в 2018 году, когда он начал судебный процесс в Израиле против NSO, компании по наблюдению, от имени людей в Мексике, которые утверждали, что они стали жертвами NSO. взлом телефона технологии. Рейтер смог найти лишь скудные записи об Оливере Тейлоре, а в «его» университете не было записей на него. Многие эксперты сошлись во мнении, что «его» фото - дипфейк. Некоторые газеты не отозвали «его» статьи и не удалили их со своих сайтов. Есть опасения, что такие методы станут новым полем битвы в дезинформация.[77]

Коллекции дипфейков с фотографиями несуществующих людей на социальные сети также были развернуты в составе израильских партизан пропаганда. В Facebook На странице «Сионистская весна» были представлены фотографии несуществующих людей вместе с их «свидетельствами», призванными объяснить, почему они отказались от своей левой политики, чтобы принять правое крыло, и на странице также было большое количество сообщений от Премьер-министр Израиля Биньямин Нетаньяху и его сын, а также из других израильских источников правого крыла. Фотографии, похоже, были созданы "синтез человеческого образа «технология, компьютерное программное обеспечение, которое берет данные с фотографий реальных людей для создания реалистичного составного изображения несуществующего человека. Во многих« свидетельских показаниях »причиной для принятия политических прав был шок от изучения предполагаемых подстрекательство насилию против премьер-министра. Правые израильские телеканалы затем передали «свидетельские показания» этого несуществующего человека, основанные на том факте, что о них «поделились» в Интернете. Вещатели передали сюжет в эфир, хотя вещатели не смогли найти таких людей, объяснив: «Почему происхождение имеет значение?» Другие фальшивые профили в Facebook - профили вымышленных лиц - содержали материалы, которые якобы содержали такое подстрекательство против правого премьер-министра, в ответ премьер-министр пожаловался, что существует заговор с целью его убийства.[78][79]

Проблемы

Мошенничество

Аудио дипфейки использовались как часть социальная инженерия мошенничество, заставляя людей думать, что они получают инструкции от доверенного лица.[80] В 2019 году генеральный директор британской энергетической компании был обманут по телефону, когда ему было приказано перевести 220 000 евро на счет в венгерском банке человеком, который использовал технологию звукового дипфейка, чтобы выдать себя за голос генерального директора материнской компании.[81]

Достоверность и достоверность

Хотя фальшивых фотографий уже много, имитировать движущиеся картинки сложнее, а наличие дипфейков увеличивает сложность классификации видео как подлинных или нет.[56] Исследователь искусственного интеллекта Алекс Шампандард сказал, что люди должны знать, как быстро что-то может быть испорчено с помощью технологии deepfake, и что проблема не является технической, а решается с помощью доверия к информации и журналистике.[56] Дипфейки могут использоваться для клеветы, выдачи себя за другое лицо и распространения дезинформации.[82] Основная ошибка заключается в том, что человечество может попасть в эпоху, когда уже невозможно будет определить, соответствует ли содержание медиума истине.[56]

Точно так же доцент информатики Хао Ли из Университет Южной Калифорнии заявляет, что дипфейки, созданные для злонамеренного использования, например фейковых новостей, будут еще более вредными, если ничего не будет сделано для распространения информации о технологии дипфейков.[83] Ли предсказывает, что подлинные видео и дипфейки станут неотличимы уже через полгода, начиная с октября 2019 года, из-за быстрого развития искусственный интеллект и компьютерная графика.[83]

Последствия дипфейка недостаточно значительны, чтобы дестабилизировать всю государственную систему; однако дипфейки обладают способностью наносить огромный ущерб отдельным объектам.[84] Это связано с тем, что дипфейки часто нацелены на одного человека и / или его отношения с другими в надежде создать повествование, достаточно мощное, чтобы повлиять на общественное мнение или убеждения. Это можно сделать с помощью дипфейк-голосового фишинга, который манипулирует звуком для создания поддельных телефонных звонков или разговоров.[84] Еще один метод использования дипфейка - сфабрикованные частные высказывания, в ходе которых СМИ манипулируют с целью донести до людей оскорбительные комментарии.[84]

Примеры событий

Дипфейки северокорейского лидера Ким Чен Ына и президента России Владимира Путина также были созданы внепартийной правозащитной группой «Представители».[85] Эти дипфейки предназначались для публичного показа в качестве рекламы, чтобы передать идею о том, что вмешательство этих лидеров в выборы в США нанесет ущерб демократии в Соединенных Штатах; Ролик также был направлен на то, чтобы шокировать американцев, чтобы они осознали, насколько хрупка демократия и как средства массовой информации и новости могут существенно повлиять на путь страны, независимо от доверия.[85] Тем не менее, в этих рекламных роликах был заключительный комментарий, в котором подробно говорилось, что кадры не были настоящими, и в конечном итоге ролики не транслировались из-за опасений и чувствительности относительно того, как могут отреагировать американцы.[85] Несколько дипфейков политиков уже созданы и стали вирусными.

Отрывок из выступления Нэнси Пелоси в Центре американского прогресса от 22 мая 2019 года был замедлен, в дополнение к измененной подаче, чтобы казалось, что она была пьяна; однако критики утверждают, что это не дипфейк.[86]

Дональд Трамп Deepfake

Дипфейк Дональда Трампа был легко создан на основе пародии Джимми Фэллона, исполненного на канале NBC «Вечернее шоу». В этой пародии (вышедшей в эфир 4 мая 2016 года) Джимми Фэллон переоделся Дональдом Трампом и сделал вид, что участвует в телефонном звонке с Бараком Обамой, разговаривая таким образом, что он хвастался своей основной победой в Индиане.[87] 5 мая 2019 года был создан дипфейк Дональда Трампа (взят из скетча).[87] В этом дипфейке лицо Джимми Фэллона трансформировалось в лицо Дональда Трампа (звук остался прежним). Это дипфейк-видео было загружено на YouTube основателем Derpfakes с комедийным намерением.

Барак Обама Дипфейк

Американский актер Джордан Пил, BuzzFeed, и Monkeypaw Productions создали и спродюсировали дипфейк Барака Обамы (загруженный на YouTube 17 апреля 2018 г.), на котором Барак Обама ругал и обзывал Дональда Трампа.[88] В этой дипфейке голос и рот Пила были преобразованы и преобразованы в голос и лицо Обамы. Цель этого видео - показать опасные последствия и силу дипфейков, а также то, как дипфейки могут заставить кого угодно говорить что угодно.

Положительные последствия

Потенциальные положительные инновации также появились вместе с растущей популярностью и созданием дипфейков. Например, корпоративные обучающие видеоролики могут быть созданы с использованием подделанных аватаров и их голосов. Примером этого является Synthesia, которая использует технологию deepfake с аватарами для создания персонализированных видео.[89]

Microsoft разработала приложение под названием «Seeing AI», которое использует искусственный интеллект и технологию deepfake, чтобы рассказывать о мире вокруг вас, чтобы помочь слепым и / или слабовидящим людям.[90] Благодаря технологии deepfake это приложение может озвучивать текст в документах, сканировать продукты и штрих-коды, распознавать людей и их эмоции, описывать местоположение и обстановку вокруг вас, определять валюту и счета и сообщать об этих функциях на разных языках с громкостью и тоном. адаптированы к вашему окружению.[91]

Ответы

Платформы социальных сетей

Twitter

Twitter принимает активные меры по работе с синтетическими и манипулируемыми медиа на своей платформе. Чтобы предотвратить распространение дезинформации, Твиттер размещает уведомление о твитах, содержащих манипулируемые медиа и / или дипфейки, которые сигнализируют зрителям о манипулировании СМИ.[92] Также будет предупреждение, которое появится для пользователей, которые планируют ретвитнуть, лайкать или взаимодействовать с твитом.[92] Twitter также будет работать, чтобы предоставить пользователям ссылку рядом с твитом, содержащим манипулируемые или синтетические медиа, которые ссылаются на Twitter Moment или заслуживающую доверия новостную статью по соответствующей теме - в качестве опровержения.[92] Twitter также имеет возможность удалять любые твиты, содержащие дипфейки или манипулируемые медиа, которые могут нанести вред безопасности пользователей.[92] Чтобы лучше выявлять дипфейки и манипулируемые медиа в Twitter, Twitter попросил пользователей, заинтересованных в сотрудничестве с ними, поработать над решениями по обнаружению дипфейков, чтобы заполнить форму (срок подачи - 27 ноября 2020 г.).[93]

Facebook

Facebook предпринял усилия для поощрения создания дипфейков с целью разработки современного программного обеспечения для обнаружения дипфейков. Facebook был важным партнером в размещении Проблема обнаружения Deepfake (DFDC)в декабре 2019 года для 2114 участников, которые сгенерировали более 35000 моделей. [94] Лучшие модели с наивысшей точностью обнаружения были проанализированы на предмет сходства и различий; Эти результаты представляют интерес для дальнейших исследований по совершенствованию и уточнению моделей обнаружения глубоких подделок.[94] Facebook также сообщил, что платформа будет удалять медиа, созданные с помощью искусственного интеллекта, используемого для изменения речи человека. [95] Однако средства массовой информации, которые были отредактированы для изменения порядка или контекста слов в сообщении, останутся на сайте, но будут отмечены как ложные, поскольку они не были созданы искусственным интеллектом.[95]

Обнаружение

Большая часть академических исследований Deepfake направлена ​​на обнаружение видео.[96] Самый популярный метод - использовать алгоритмы, подобные тем, которые использовались при создании дипфейка для их обнаружения.[96] Распознавая закономерности в том, как создаются дипфейки, алгоритм может улавливать тонкие несоответствия.[96] Исследователи разработали автоматические системы, которые проверяют видео на наличие ошибок, таких как неправильное мигание света.[12] Этот метод также подвергался критике за создание "Перемещение цели "где в любое время алгоритмы обнаружения становятся лучше, как и Deepfakes.[96] Конкурс Deepfake Detection Challenge, организованный коалицией ведущих технологических компаний, надеется ускорить развитие технологии выявления подделанного контента.[97]

Использование других техник Блокчейн для проверки источника СМИ.[98] Прежде чем показывать видео в социальных сетях, необходимо будет проверить их в бухгалтерской книге.[98] С помощью этой технологии будут одобряться только видео из надежных источников, что уменьшит распространение потенциально вредоносных медиа Deepfake.[98]

Интернет-реакция

С 2017 года Саманта Коул из Вице опубликовал серию статей, охватывающих новости, окружающие deepfake порнографии.[99][100][101][53][51][102][103][23] 31 января 2018 г. Gfycat начал удалять со своего сайта все дипфейки.[101][10] На Reddit, То subreddit г / deepfakes было запрещено на 7 февраля 2018 года, в связи с нарушением политики «непроизвольной порнографией».[104][105][106][107][108] В том же месяце представители Twitter заявили, что они приостановят действие аккаунтов, подозреваемых в размещении дипфейк-контента без согласия пользователя.[102] Сайт чата Раздор принимал меры против дипфейков в прошлом,[109] и занял общую позицию против дипфейков.[10][110] В сентябре 2018 г. Google добавил: «непроизвольные синтетические порнографические образа» в список запрета, позволяя любому запросить блок результатов, показывая их поддельные обнаженные.[111][проверить синтаксис цитаты ]В феврале 2018 г. Pornhub заявил, что запретит на своем веб-сайте дипфейк-видео, поскольку это считается «несогласованным контентом», нарушающим их условия обслуживания.[100] Они также ранее заявили Mashable, что будут удалять контент, помеченный как дипфейки.[112] Писатели с Материнской платы от Buzzfeed Новости сообщил, что поиск "дипфейков" на Pornhub все еще вернул несколько недавних дипфейков.[100]

Facebook ранее заявлял, что не будет удалять дипфейки со своих платформ.[113] Вместо этого видео будут помечены третьими сторонами как поддельные, а затем будут иметь меньший приоритет в каналах пользователя.[99] Этот ответ был предложен в июне 2019 года после дипфейка с видео 2016 года Марк Цукерберг распространены в Facebook и Instagram.[113]

Правовой ответ

В США были некоторые ответы на проблемы, связанные с дипфейками. В 2018 году Закон о запрещении вредоносных подделок был внесен в Сенат США,[114] а в 2019 году Закон об ответственности DEEPFAKES был введен в палата представителей.[11] Несколько штатов также приняли законы о дипфейках, в том числе Вирджиния,[115] Техас, Калифорния и Нью-Йорк.[116] 3 октября 2019 года губернатор Калифорнии Гэвин Ньюсом подписал Закон о собраниях № 602 и № 730.[117][118] Законопроект № 602 о собрании предоставляет лицам, ставшим жертвами откровенного дипфейка сексуального характера, сделанного без их согласия, повод для иска против создателя контента.[117] Законопроект о собрании № 730 запрещает распространение злонамеренных фальшивых аудиовизуальных материалов, нацеленных на кандидата, баллотирующегося на государственные должности, в течение 60 дней после его избрания.[118]

В ноябре 2019 года Китай объявил, что дипфейки и другие синтетически фальшивые кадры должны содержать четкое уведомление об их фальшивке, начиная с 2020 года. Несоблюдение требований может рассматриваться как преступление то Управление киберпространства Китая заявлено на его сайте.[119] Китайское правительство, похоже, оставляет за собой право преследовать как пользователей, так и онлайн видео платформы несоблюдение правил.[120]

В Соединенном Королевстве производители дипфейков могут быть привлечены к ответственности за домогательства, но есть призывы сделать дипфейк конкретным преступлением;[121] в Соединенных Штатах, где сборы столь же разные, как кража личных данных, киберпреследование, и порноместь , обсуждалась также концепция более всеобъемлющего закона.[111]

В Канаде Организация безопасности связи выпустил отчет, в котором говорилось, что дипфейки могут использоваться для вмешательства в политику Канады, в частности, для дискредитации политиков и влияния на избирателей.[122][123] В результате у граждан Канады есть несколько способов борьбы с дипфейками, если они стали их целью.[124]

Ответ DARPA

В Агентство перспективных оборонных исследовательских проектов (DARPA) профинансировало проект, в котором люди будут соревноваться за создание видео, аудио и изображений, сгенерированных искусственным интеллектом, а также автоматизированных инструментов для обнаружения этих дипфейков.[125] DARPA даже предприняло усилия по организации «дня предложений» для проекта, связанного с программой семантической криминалистики, в рамках которого исследователи стремятся предотвратить вирусное распространение СМИ, управляемых ИИ. [126] DARPA и Программа семантической криминалистики также работают вместе над обнаружением этих управляемых ИИ носителей посредством усилий, сосредоточенных на обучении компьютеров использованию здравого смысла и логических рассуждений. [126] DARPA также создало программу Media Forensics (MediFor), чтобы уменьшить растущий вред, который наносят дипфейки и средства массовой информации, созданные искусственным интеллектом. [127] Эта программа направлена ​​не только на обнаружение дипфейков, но и на предоставление информации о том, как были созданы носители.[127] Одновременно цель DARPA - обратить внимание и подчеркнуть значительную роль дипфейков и их влияние на принятие решений.[127]

В популярной культуре

  • «Пикапер» Джека Уодхамса. В середине декабря 1986 г. Аналоговый журнал опубликовал повесть Джека Водхамса «Пикапер». Его сюжет вращается вокруг улучшенных или созданных в цифровом виде видео, созданных опытными хакерами, обслуживающими недобросовестных юристов и политических деятелей.[128]
  • "Бегущий человек" Фильм 1987 года Бегущий человек Арнольд Шварценеггер в главной роли изображает автократическое правительство, использующее компьютеры для цифровой замены лиц актеров лицами разыскиваемых беглецов, чтобы создать впечатление, что беглецы были нейтрализованы.
  • Философское исследование. В техно-триллере 1992 года Философское исследование от Филип Керр Витгенштейн, главный герой и серийный убийца, использует как программное обеспечение, похожее на Deepfake, так и костюм виртуальной реальности для секса с аватаркой лейтенанта полиции Айседоры «Джейк» Якович, назначенной для его поимки.[129]
  • Восходящее солнце. Фильм 1993 года Восходящее солнце В главных ролях Шон Коннери и Уэсли Снайпс изображает другого персонажа, Джинго Асакума, который показывает, что компьютерный диск изменил личные данные в цифровом виде, чтобы вовлечь конкурента.
  • Захват. Технология Deepfake - часть сюжета 2019 года BBC One драма Захват. Сериал рассказывает о бывшем британском солдате Шоне Эмери, который обвиняется в нападении и похищении своего адвоката. Искусно обработанный Кабельное телевидение отснятый материал используется для того, чтобы подставить его и ввести в заблуждение полицейских, ведущих его расследование.[130][131]

Смотрите также

использованная литература

  1. ^ Брэндон, Джон (16 февраля 2018 г.). «Страшная высокотехнологичная порно: Жуткий„deepfake“видео находится на подъеме». Fox News. Получено 20 февраля 2018.
  2. ^ «Готовься, не паникуй: синтетические медиа и дипфейки». witness.org. Получено 25 ноября 2020.
  3. ^ а б Kietzmann, J .; Lee, L.W .; McCarthy, I.P .; Кицманн, Т. К. (2020). «Deepfakes: Уловка или угощение?». Бизнес-горизонты. 63 (2): 135–146. Дои:10.1016 / j.bushor.2019.11.006.
  4. ^ Шварц, Оскар (12 ноября 2018 г.). «Вы думали, что фейковые новости - это плохо? В глубоких фейках правда умирает». Хранитель. Получено 14 ноября 2018.
  5. ^ а б c d Доктор философии, Свен Чарлир (17 мая 2019 г.). «Семейное развлечение с дипфейками. Или как я пригласил свою жену на вечернее шоу». Средняя. Получено 8 ноября 2019.
  6. ^ «Что такое Deepfakes и почему будущее порно Ужасающий». Высокое благородство. 20 февраля 2018 г.. Получено 20 февраля 2018.
  7. ^ «Эксперты опасаются, что технология смены лица может привести к международному противостоянию». Схема. Получено 28 февраля 2018.
  8. ^ Руз, Кевин (4 марта 2018 г.). "Вот и поддельные видео, тоже". Нью-Йорк Таймс. ISSN  0362-4331. Получено 24 марта 2018.
  9. ^ Шрейер, Марко; Саттаров, Тимур; Реймер, Бернд; Борт, Дамиан (2019). «Состязательное изучение дипфейков в бухгалтерском учете». arXiv:1910.03810. Bibcode:2019arXiv191003810S. Цитировать журнал требует | журнал = (Помогите)
  10. ^ а б c Гошал, Абхиманью (7 февраля 2018 г.). «Twitter, PornHub и других платформ бан AI сгенерированных знаменитости порно». Следующая Сеть. Получено 9 ноября 2019.
  11. ^ а б Кларк, Иветт Д. (28 июня 2019 г.). «H.R.3230 - 116-й Конгресс (2019-2020): Защита каждого человека от ложных показаний путем сохранения эксплуатации в соответствии с Законом об ответственности от 2019 года». www.congress.gov. Получено 16 октября 2019.
  12. ^ а б c Харвелл, Дрю (12 июня 2019 г.). "Ведущие исследователи искусственного интеллекта гонятся за обнаружением" дипфейков "видео:" Мы проиграли'". Вашингтон Пост. Получено 8 ноября 2019.
  13. ^ Санчес, Джулиан (8 февраля 2018 г.). «Благодаря ИИ, будущие„поддельным новостей“в настоящее время впервые в домашнем порно». Новости NBC. Получено 8 ноября 2019.
  14. ^ а б c Портер, Джон (2 сентября 2019 г.). «Еще одно убедительное приложение Deepfake стало вирусным, что сразу же вызвало негативную реакцию в отношении конфиденциальности». Грани. Получено 8 ноября 2019.
  15. ^ а б Бреглер, Кристоф; Ковелл, Мишель; Слейни, Малкольм (1997). «Перезапись видео: управление визуальной речью с помощью звука». Материалы 24-й ежегодной конференции по компьютерной графике и интерактивным технологиям. 24: 353–360. Дои:10.1145/258734.258880. S2CID  2341707.
  16. ^ а б c Суваджанакорн, Супасорн; Зейтц, Стивен М .; Кемельмахер-Шлизерман, Ира (июль 2017 г.). «Синтезирование Обамы: обучение синхронизации губ по аудио». ACM Trans. График. 36 (4): 95:1–95:13. Дои:10.1145/3072959.3073640. S2CID  207586187.
  17. ^ а б c Тиз, Юстус; Цольхёфер, Михаэль; Стаммингер, Марк; Теобальт, Кристиан; Нисснер, Маттиас (июнь 2016 г.). «Face2Face: захват лица в реальном времени и воспроизведение видео в формате RGB». Конференция IEEE по компьютерному зрению и распознаванию образов (CVPR) 2016 г.. IEEE: 2387–2395. arXiv:2007.14808. Дои:10.1109 / CVPR.2016.262. ISBN  9781467388511. S2CID  206593693.
  18. ^ а б Фаркуар, Питер (27 августа 2018 г.). «Программа искусственного интеллекта скоро будет здесь, чтобы помочь вам танцевать deepface - только не называйте это deepfake». Business Insider Австралия. Получено 27 августа 2018.
  19. ^ «Дипфейки для танцев: теперь вы можете использовать ИИ, чтобы имитировать те танцевальные движения, которые вы всегда хотели». Грани. Получено 27 августа 2018.
  20. ^ Мирский, Исроэль; Малер, Том; Шелеф, Илан; Еловичи, Юваль (2019). CT-GAN: злонамеренное вмешательство в трехмерные медицинские изображения с использованием глубокого обучения. С. 461–478. ISBN  978-1-939133-06-9.
  21. ^ Мирский, Исроэль; Ли, Венке (12 мая 2020 г.). «Создание и обнаружение дипфейков: обзор». arXiv:2004.11138 [cs.CV ].
  22. ^ Карновскос, Стаматис (2020). «Искусственный интеллект в цифровых медиа: эпоха дипфейков» (PDF). IEEE Transactions по технологиям и обществу: 1. Дои:10.1109 / TTS.2020.3001312. Получено 9 июля 2020.
  23. ^ а б c Коул, Саманта (24 января 2018 г.). «Мы действительно Fucked: все делают AI-сгенерированные Поддельные порно сейчас». Вице. Получено 4 мая 2019.
  24. ^ Хейсом, Сэм (31 января 2018 г.). «Люди используют технологию смены лиц, чтобы добавить Николаса Кейджа в случайные фильмы и« Что такое 2018 »». Mashable. Получено 4 апреля 2019.
  25. ^ "r / SFWdeepfakes". Reddit. Получено 12 декабря 2018.
  26. ^ Хэтэуэй, Джей (8 февраля 2018 г.). «Вот где„deepfakes,“новая фальшивка знаменитости порно, пошли после запрета Reddit». Daily Dot. Получено 22 декабря 2018.
  27. ^ "Что такое дипфейки и как они делаются?". Онлайн-технические советы. 23 мая 2019. Получено 8 ноября 2019.
  28. ^ Робертсон, Ади (11 февраля 2018 г.). «Я использую ИИ, чтобы поменять местами Илона Маска и Джеффа Безоса, и у меня это действительно плохо получается». Грани. Получено 8 ноября 2019.
  29. ^ «Faceswap - это ведущее бесплатное многоплатформенное программное обеспечение Deepfakes с открытым исходным кодом». 15 октября 2019 г. - через WordPress.
  30. ^ «DeepFaceLab - это инструмент, который использует машинное обучение для замены лиц в видео. Включает готовый к работе автономный двоичный файл Windows 7,8,10 (см. Readme.md) .: iperov / DeepFaceLab». 19 июня 2019 г. - через GitHub.
  31. ^ Пэнгберн, Д. Дж. (21 сентября 2019 г.). «Вас предупредили: дипфейки всего тела - следующий шаг в мимикрии человека на основе ИИ». Быстрая Компания. Получено 8 ноября 2019.
  32. ^ Лион, Ким (29 января 2020 г.). «FTC заявляет, что технология звуковых дипфейков становится лучше». Грани.
  33. ^ "Аудиосэмплы из" Перенести обучение от проверки динамика на синтез речи с несколькими динамиками"". google.github.io.
  34. ^ Цзя, Е; Чжан, Ю; Вайс, Рон Дж .; Ван, Цюань; Шен, Джонатан; Рен, Фэй; Чен, Чжифэн; Нгуен, Патрик; Панг, Руоминг; Морено, Игнасио Лопес; У Юнхуэй (2 января 2019 г.). «Перенос обучения от проверки говорящего на синтез речи с множеством говорящих». arXiv:1806.04558. Bibcode:2018arXiv180604558J. Цитировать журнал требует | журнал = (Помогите)
  35. ^ "Визуальные вычисления TUM: проф. Маттиас Нисснер". www.niessnerlab.org.
  36. ^ «Полная перезагрузка страницы». IEEE Spectrum: Новости технологий, инженерии и науки.
  37. ^ «Внесение данных в исследования по обнаружению дипфейков».
  38. ^ Тален, Микаэль. "Теперь вы можете дипфейдировать в знаменитость всего за несколько кликов". дневная точка. Получено 3 апреля 2020.
  39. ^ Мэтьюз, Зейн. «Веселье или страх: приложение Deepfake помещает лица знаменитостей на ваших селфи». Kool1079. Получено 6 марта 2020.
  40. ^ «Канье Уэст, Ким Кардашьян и ее отец: стоит ли делать голограммы мертвых?». Новости BBC. 31 Октябрь 2020. Получено 11 ноября 2020.
  41. ^ Модемы, The (30 октября 2020 г.). «КАНЬЕ ВЕСТ Подарил КИМ КАРДАШЯН ГОЛОГРАММУ ЕЕ ОТЦА НА ДЕНЬ РОЖДЕНИЯ». модемы. Получено 11 ноября 2020.
  42. ^ «Жертва Паркленда Хоакин Оливер возвращается к жизни в душераздирающем призыве к избирателям». adage.com. 2 октября 2020 г.. Получено 11 ноября 2020.
  43. ^ Цуккони, Алан (14 марта 2018 г.). «Понимание технологии DeepFakes». Алан Цуккони. Получено 8 ноября 2019.
  44. ^ а б c d е Кан, К. Э. (10 декабря 2018 г.). "Что такое VAE-GAN?". Средняя. Получено 8 ноября 2019.
  45. ^ а б «Эти новые уловки могут перехитрить видео Deepfake - пока». Проводной. ISSN  1059-1028. Получено 9 ноября 2019.
  46. ^ а б c Диксон, Э. Дж .; Диксон, Э. Дж. (7 октября 2019 г.). «Deepfake Porn по-прежнему представляет угрозу, особенно для звезд K-Pop». Катящийся камень. Получено 9 ноября 2019.
  47. ^ а б c Рёттгерс, Янко (21 февраля 2018 г.). «Porn производители предлагают помочь Голливуду Take Down Deepfake Видео». Разнообразие. Получено 28 февраля 2018.
  48. ^ «Состояние дипфейка - ландшафт, угрозы и влияние» (PDF). Deeptrace. 1 октября 2019 г.. Получено 7 июля 2020.
  49. ^ Гоггин, Бенджамин. «От порно к„Игре престолов“: Как deepfakes и реалистично выглядящее поддельное видео ударили его большим». Business Insider. Получено 9 ноября 2019.
  50. ^ Ли, Дэйв (3 февраля 2018 г.). "'Поддельные порно»имеет серьезные последствия». Получено 9 ноября 2019.
  51. ^ а б Коул, Саманта (19 июня 2018 г.). "AI-решение Gfycat для борьбы с дипфейками не работает". Вице. Получено 9 ноября 2019.
  52. ^ Зои, Френи (24 ноября 2019 г.). "Deepfake Porn здесь, чтобы остаться". Средняя.
  53. ^ а б Коул, Саманта; Майберг, Эмануэль; Коблер, Джейсон (26 июня 2019 г.). "Это ужасающее приложение раздевает фотографию любой женщины одним щелчком мыши". Вице. Получено 2 июля 2019.
  54. ^ Кокс, Джозеф (9 июля 2019 г.). «GitHub удалил версии DeepNude с открытым исходным кодом». Vice Media.
  55. ^ "pic.twitter.com/8uJKBQTZ0o". 27 июня 2019.
  56. ^ а б c d "Венн Меркель Плётцлих Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos". az Aargauer Zeitung. 3 февраля 2018.
  57. ^ Патрик Генсинг. "Deepfakes: Auf dem Weg in eine alternate Realität?".
  58. ^ Романо, Аджа (18 апреля 2018 г.). «Имитация рекламы Обамы, представленная Джорданом Пилом, является обоюдоострым предупреждением против фейковых новостей». Vox. Получено 10 сентября 2018.
  59. ^ Свенсон, Кайл (11 января 2019 г.). «Телеканал Сиэтла показал обработанные кадры выступления Трампа в Овальном кабинете. Сотрудник был уволен». Вашингтон Пост. Получено 11 января 2019.
  60. ^ Кристофер, Нилеш (18 февраля 2020 г.). «Мы только что увидели первое использование дипфейков в предвыборной кампании в Индии». Вице. Получено 19 февраля 2020.
  61. ^ "#TellTheTruthBelgium". Extinction Rebellion Бельгия. Получено 21 апреля 2020.
  62. ^ Голубович, Джеральд (15 апреля 2020 г.). "Extinction Rebellion s'empare des deepfakes". Журналистика. Дизайн (На французском). Получено 21 апреля 2020.
  63. ^ О'Салливан, Дони. «Конгресс расследует дипфейки, так как подделанное видео Пелоси вызывает ажиотаж». CNN. Получено 9 ноября 2019.
  64. ^ Катерина Чизек, Уильям Уриккио и Сара Волозин: коллективная мудрость | Массачусетский Институт Технологий [1]
  65. ^ ANSA | Орнелла Мути в кортометраджо во Флоренции
  66. ^ Кемп, Люк (8 июля 2019 г.). «Могут ли виртуальные актеры в эпоху дипфейков вытеснить людей из бизнеса?». Хранитель. ISSN  0261-3077. Получено 20 октября 2019.
  67. ^ Радулович, Петрана (17 октября 2018 г.). «Харрисон Форд - звезда Solo: A Star Wars Story благодаря технологии deepfake». Многоугольник. Получено 20 октября 2019.
  68. ^ Виник, Эрин. «Как марионетка Кэрри Фишер сделала карьеру для принцессы Леи из Rogue One». Обзор технологий MIT. Получено 20 октября 2019.
  69. ^ а б «Нейронная замена лица с высоким разрешением для визуальных эффектов | Disney Research Studios». Получено 7 октября 2020.
  70. ^ а б «Дипфейк-технология Disney может быть использована в кино и на телевидении». Blooloop. Получено 7 октября 2020.
  71. ^ A, Джон Линдли (2 июля 2020 г.). «Disney Ventures возвращает« мертвых актеров »с помощью распознавания лиц». Tech Times. Получено 7 октября 2020.
  72. ^ C, Ким (22 августа 2020 г.). "Танец с гробами и многое другое: музыкальные мемы 2020 года". Music Times. Получено 26 августа 2020.
  73. ^ Шолихин, Ильяс (7 августа 2020 г.). "Кто-то глубоко подделал политиков Сингапура, чтобы они синхронизировали губы с той японской мем-песней". AsiaOne. Получено 26 августа 2020.
  74. ^ Дамиани, Джесси. «Китайское приложение Deepfake Zao становится вирусным, сталкивается с немедленной критикой пользовательских данных и политики безопасности». Forbes. Получено 18 ноября 2019.
  75. ^ Портер, Джон (2 сентября 2019 г.). «Еще одно убедительное приложение Deepfake стало вирусным, что сразу же вызвало негативную реакцию в отношении конфиденциальности». Грани. Получено 18 ноября 2019.
  76. ^ «В преддверии выборов в Ирландии и США Facebook объявляет о новых мерах против 'deepfake' видео». Independent.ie. Получено 7 января 2020.
  77. ^ Рейтер, 15 июля 2020 г., Deepfake, использованный для атаки на пару активистов, показывает новый рубеж дезинформации
  78. ^ 972 Magazine, 12 августа 2020 г., «« Левые за Биби »? Разоблачена дипфейковая пропаганда в поддержку Нетаньяху: согласно серии сообщений в Facebook, премьер-министр Израиля побеждает левых последователей - за исключением того, что никого из тех, о ком идет речь»
  79. ^ Седьмой глаз, 9 июня 2020 г., הפורנוגרפיה של ההסתהתומכי נתניהו ממשיכים להפיץ פוסטים מזויפים בקבוצות במדיה החברתית • לצד הטרלות מעלות גיחוך מופצות תמונות שקריות על מנת להגביר את השנאה והפילוג בחברה הישראלית
  80. ^ Статт, Ник (5 сентября 2019 г.). «Воры теперь используют дипфейки искусственного интеллекта, чтобы обманом заставить компании отправлять им деньги». Получено 13 сентября 2019.
  81. ^ Дамиани, Джесси. «Голосовой дипфейк был использован для обмана генерального директора на сумму 243 000 долларов». Forbes. Получено 9 ноября 2019.
  82. ^ «Глубокие фейки с оружием: национальная безопасность и демократия на JSTOR». www.jstor.org. Получено 21 октября 2020.
  83. ^ а б «Идеальная технология Deepfake может появиться раньше, чем ожидалось». www.wbur.org. Получено 9 ноября 2019.
  84. ^ а б c Бейтман, Джон (2020). "Резюме": 1–2. Цитировать журнал требует | журнал = (Помогите)
  85. ^ а б c «Дипфейк Путин здесь, чтобы предупредить американцев об их собственной гибели». Обзор технологий MIT. Получено 7 октября 2020.
  86. ^ Тауэрс-Кларк, Чарльз. "Мона Лиза и Нэнси Пелоси: последствия дипфейков". Forbes. Получено 7 октября 2020.
  87. ^ а б «Рост дипфейков и угроза демократии». хранитель. Получено 3 ноября 2020.
  88. ^ Фэган, Кейли. "Вирусное видео, которое показало, что Обама называет Трампа" провалом --- ", демонстрирует новую тревожную тенденцию под названием" дипфейки ".'". Business Insider. Получено 3 ноября 2020.
  89. ^ Чендлер, Саймон. «Почему дипфейки - это чистый позитив для человечества». Forbes. Получено 3 ноября 2020.
  90. ^ «Просмотр приложения AI от Microsoft». www.microsoft.com. Получено 3 ноября 2020.
  91. ^ «Просмотр приложения AI от Microsoft». www.microsoft.com. Получено 3 ноября 2020.
  92. ^ а б c d «Помогите нам сформировать наш подход к синтетическим и управляемым медиа». blog.twitter.com. Получено 7 октября 2020.
  93. ^ "TechCrunch". TechCrunch. Получено 7 октября 2020.
  94. ^ а б «Результаты конкурса Deepfake Detection: открытая инициатива по развитию ИИ». ai.facebook.com. Получено 7 октября 2020.
  95. ^ а б Пол, Кэти (4 февраля 2020 г.). «Twitter для обозначения дипфейков и других вводящих в заблуждение средств массовой информации». Рейтер. Получено 7 октября 2020.
  96. ^ а б c d 18 июня, Кара Манке |; 201920 июня; 2019 г. (18 июня 2019 г.). "Исследователи используют причуды на лице, чтобы разоблачить дипфейки.'". Новости Беркли. Получено 9 ноября 2019.CS1 maint: числовые имена: список авторов (ссылка на сайт)
  97. ^ «Присоединяйтесь к конкурсу Deepfake Detection Challenge (DFDC)». deepfakedetectionchallenge.ai. Получено 8 ноября 2019.
  98. ^ а б c «Блокчейн-решение наших проблем с Deepfake». Проводной. ISSN  1059-1028. Получено 9 ноября 2019.
  99. ^ а б Коул, Саманта (11 июня 2019 г.). «Этот дипфейк Марка Цукерберга проверяет политику Facebook в отношении фальшивых видео». Вице. Получено 9 ноября 2019.
  100. ^ а б c Коул, Саманта (6 февраля 2018 г.). «PornHub ли Беннинг AI-сгенерированные Поддельные порно видео, говорят, что они Nonconsensual». Вице. Получено 9 ноября 2019.
  101. ^ а б Коул, Саманта (31 января 2018 г.). «АИ-Сформировано Поддельные порно Makers Have Been стартовало свой любимый хост». Вице. Получено 18 ноября 2019.
  102. ^ а б Коул, Саманта (6 февраля 2018 г.). «Twitter является последней платформой для Ban AI-сгенерированного порно». Вице. Получено 8 ноября 2019.
  103. ^ Коул, Саманта (11 декабря 2017 г.). «АИ-Assisted Поддельные порно здесь и мы все Fucked». Вице. Получено 19 декабря 2018.
  104. ^ Бём, Маркус (7 февраля 2018 г.). ""Deepfakes ": Firmen gehen gegen gefälschte Promi-Pornos vor". Spiegel Online. Получено 9 ноября 2019.
  105. ^ barbara.wimmer. "Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos". futurezone.at (на немецком). Получено 9 ноября 2019.
  106. ^ онлайн, heise. "Deepfakes: Auch Reddit verbannt Fake-Porn". Heise онлайн (на немецком). Получено 9 ноября 2019.
  107. ^ "Reddit verbannt Deepfake-Pornos - derStandard.de". ДЕР СТАНДАРТ (на немецком). Получено 9 ноября 2019.
  108. ^ Робертсон, Ади (7 февраля 2018 г.). «Reddit Запреты„deepfakes“AI порно сообщества». Грани. Получено 9 ноября 2019.
  109. ^ Прайс, Роб (27 января 2018). «Раздор просто закрыл чат-группу, посвященный обмену порно видео отредактированного с ИИ включить знаменитости». Business Insider Австралия. Получено 28 ноября 2019.
  110. ^ "Твиттер запрещает использование искусственного интеллекта" deepfake ". Engadget. Получено 28 ноября 2019.
  111. ^ а б Харрелл, Дрю. «Поддельные порно видео будут боеприпас запугивать и оскорблять женщин:«Каждый является потенциальной мишенью'". Вашингтон Пост. Получено 1 января 2019.
  112. ^ Гилмер, Дэймон Берес и Маркус. «Путеводитель по« дипфейкам », последнему моральному кризису Интернета». Mashable. Получено 9 ноября 2019.
  113. ^ а б «Facebook пообещал оставить дипфейк-видео Марка Цукерберга». Обзор технологий MIT. Получено 9 ноября 2019.
  114. ^ Сассе, Бен (21 декабря 2018 г.). «S.3805 - 115-й Конгресс (2017-2018 гг.): Закон о запрещении вредоносных глубоких подделок 2018 г.». www.congress.gov. Получено 16 октября 2019.
  115. ^ "'Deepfake»порноместь теперь незаконно в Вирджинии». TechCrunch. Получено 16 октября 2019.
  116. ^ Браун, Нина Яконо (15 июля 2019 г.). «Конгресс хочет разрешить дипфейки к 2020 году. Это должно нас беспокоить». Slate Magazine. Получено 16 октября 2019.
  117. ^ а б «Текст законопроекта - AB-602 Изображение человека, использующего цифровые или электронные технологии: материалы откровенного сексуального характера: причина иска». leginfo.legislature.ca.gov. Получено 9 ноября 2019.
  118. ^ а б «Текст законопроекта - AB-730 Выборы: вводящие в заблуждение аудио- или визуальные средства массовой информации». leginfo.legislature.ca.gov. Получено 9 ноября 2019.
  119. ^ «Китай стремится искоренить фейковые новости и дипфейки с помощью новых правил онлайн-контента». Reuters.com. Рейтер. 29 ноября 2019 г.. Получено 17 декабря 2019.
  120. ^ Статт, Ник (29 ноября 2019 г.). «Китай считает уголовным преступлением публикацию дипфейков или фейковых новостей без разглашения». Грани. Получено 17 декабря 2019.
  121. ^ Позвоните, фото телок законопроект включить «deepfake» порнография запрет Хранитель
  122. ^ https://cyber.gc.ca/sites/default/files/publications/tdp-2019-report_e.pdf см. страницу 18
  123. ^ Богарт, Николь (10 сентября 2019 г.). «Как дипфейки могут повлиять на выборы в Канаде в 2019 году». Федеральные выборы 2019. Получено 28 января 2020.
  124. ^ "Что может сделать закон с Deepfake". mcmillan.ca. Получено 28 января 2020.
  125. ^ «Военные США финансируют попытку поймать дипфейки и другие уловки ИИ». Обзор технологий MIT. Получено 7 октября 2020.
  126. ^ а б «DARPA решает проблему дипфейков». Nextgov.com. Получено 7 октября 2020.
  127. ^ а б c «Медиа-криминалистика». www.darpa.mil. Получено 7 октября 2020.
  128. ^ "Пикапер". База данных спекулятивной литературы в Интернете. Получено 9 июля 2019.
  129. ^ Филип Керр, Философское исследование, ISBN  978-0143117537
  130. ^ Бернал, Наташа (8 октября 2019 г.). "Тревожная правда о The Capture и реальных дипфейках". Телеграф. Получено 24 октября 2019.
  131. ^ Кроули, Питер (5 сентября 2019 г.). «Захват: триллер BBC о слежке, искажении и двуличности». The Irish Times. Получено 24 октября 2019.

внешние ссылки