Синтетические медиа - Synthetic media

Синтетические медиа (также известен как СМИ, созданные искусственным интеллектом[1][2], генеративные СМИ[3], персонализированные медиа[4], и в просторечии как дипфейки[5]) - это универсальный термин для искусственного производства, манипулирования и модификации данных и носителей посредством автоматизированный средства, особенно за счет использования искусственный интеллект алгоритмы, например, с целью ввести людей в заблуждение или изменить первоначальное значение.[6][7][8][9] Синтетические медиа как область быстро выросли с момента создания генеративные состязательные сети, в первую очередь за счет роста дипфейки а также синтез музыки, генерация текста, синтез человеческих образов, синтез речи и многое другое.[9] Хотя эксперты используют термин «синтетические носители», отдельные методы, такие как дипфейки и синтез текста, иногда не упоминаются как таковые в СМИ, а вместо этого используются соответствующей терминологией (и часто используют «дипфейки» в качестве эвфемизма, например, «дипфейки» для текста "для генерации естественного языка;" дипфейки для голосов "для нейронных клонирование голоса, так далее.)[10][11]Значительное внимание возникло к области синтетических сред, начиная с 2017 годом, когда заместитель сообщил о появлении порнофильмов измененных с использованием алгоритмов искусственного интеллекта для вставки лица известных актрис.[12] Опасения по поводу синтетических СМИ включают в себя возможность раздуть фальшивые новости, распространение дезинформации, недоверие к реальности и т. Д.[12] массовая автоматизация творческой и журналистской работы и, возможно, полное отступление в фантастические миры, созданные искусственным интеллектом.[13] Синтетические медиа - это прикладная форма искусственное воображение.[12]

История

До 1950-х годов

Синтетические медиа как процесс автоматизированного искусства восходят к автоматы из древнегреческая цивилизация, где изобретатели, такие как Дедал и Герой Александрии разработали машины, способные писать текст, генерировать звуки и воспроизводить музыку.[14][15] Традиция развлечений на основе автоматов процветала на протяжении всей истории, поскольку кажущаяся магическая способность механических существ имитировать человеческое творчество часто собирала толпы по всей Европе.[16] Китай,[17] Индия,[18] и так далее. Другие автоматизированные новинки, такие как Иоганн Филипп Кирнбергер "s"Musikalisches Würfelspiel «(Музыкальная игра в кости) 1757 года тоже позабавила публику.[19]

Однако, несмотря на технические возможности этих машин, ни одна из них не могла генерировать исходный контент и полностью зависела от их механической конструкции.

Развитие искусственного интеллекта

Область исследований ИИ зародилась в мастерская в Дартмутский колледж в 1956 г.,[20] порождая рост цифровые вычисления, используемые как средство искусства а также рост генеративное искусство. Первоначальные эксперименты с искусственным интеллектом включали Люкс Illiac, композиция 1957 года для струнный квартет который обычно считается первой партитурой, составленной электронный компьютер.[21] Леджарен Хиллер, в сотрудничестве с Леонард Иссаксон, запрограммировал ИЛЛИАК I компьютер в Университет штата Иллинойс в Урбане-Шампейн (где оба композитора были профессорами) для создания композиционного материала для своего струнного квартета № 4.

В 1960 году российский исследователь Р.Х. Зарипов опубликовал первую в мире статью об алгоритмическом сочинении музыки с использованием "Урал-1 "компьютер.[22]

В 1965 году изобретатель Рэй Курцвейл представил пьесу для фортепиано, созданную компьютером, которая могла распознавать образы в различных композициях. Затем компьютер смог проанализировать и использовать эти шаблоны для создания новых мелодий. Компьютер дебютировал в программе Стива Аллена «У меня есть секрет» и ставил ведущих в тупик, пока кинозвезда Генри Морган не разгадал секрет Рэя.[23]

До 1989 г. искусственные нейронные сети были использованы для моделирования определенных аспектов творчества. Питер Тодд (1989) впервые обучил нейронную сеть воспроизводить музыкальные мелодии из обучающего набора музыкальных произведений. Затем он использовал алгоритм изменения, чтобы изменить входные параметры сети. Сеть могла произвольно генерировать новую музыку крайне неконтролируемым образом.[24][25]

В 2014, Ян Гудфеллоу и его коллеги разработали новый класс машинное обучение системы: генеративные состязательные сети (GAN).[26] Два нейронные сети соревноваться друг с другом в игре (в смысле теория игры, часто, но не всегда в виде игра с нулевой суммой ). Учитывая обучающий набор, этот метод учится генерировать новые данные с той же статистикой, что и обучающий набор. Например, GAN, обученный фотографиям, может создавать новые фотографии, которые выглядят, по крайней мере, внешне аутентичными для человека-наблюдателя, имея множество реалистичных характеристик. Хотя изначально предлагалось как форма генеративная модель для обучение без учителя, GAN также оказались полезными для полу-контролируемое обучение,[27] в полной мере контролируемое обучение,[28] и обучение с подкреплением.[29] На семинаре 2016 г. Янн ЛеКун назвал GAN «самой крутой идеей в области машинного обучения за последние двадцать лет».[30]

В 2017 г. Google представленный трансформаторы[31], новый тип архитектуры нейронной сети, специализированный для языкового моделирования, который позволил быстро продвинуться в обработка естественного языка. Трансформаторы оказались способными к высоким уровням обобщения, что позволило использовать такие сети, как GPT-3 и Jukebox от OpenAI для синтеза текста и музыки соответственно на уровне, приближающемся к человеческим способностям.[32][33]

Филиалы синтетических медиа

Дипфейки

Дипфейки (а чемодан из "глубокое обучение "и" подделка "[34]) являются наиболее распространенной формой синтетических носителей.[35][36] Это средства массовой информации, которые берут человека в существующем изображении или видео и заменяют его чьим-то подобием, используя искусственные нейронные сети.[37] Они часто комбинируют и накладывают существующие медиа на исходные, используя машинное обучение методы, известные как автокодеры и генеративные состязательные сети (GAN).[38][39] Дипфейки привлекли всеобщее внимание из-за их использования в знаменитости порнографического видео, порноместь, фальшивые новости, мистификации, и финансовое мошенничество.[40][41][42][43] Это вызвало отклик как в промышленности, так и в правительстве с целью выявления и ограничения их использования.[44][45]

Термин «дипфейки» возник примерно в конце 2017 г. Reddit пользователь по имени "deepfakes".[37] Он, как и другие участники сообщества r / deepfakes Reddit, поделился созданными ими дипфейками; много видео участвуют лица знаменитостей поменялись на телах актрис в порнофильмах,[37] в то время как не-порнографическое содержание включено много видео с актером Николас Кейдж Лицо менялось в разных фильмах.[46] В декабре 2017 года Саманта Коул опубликовала статью о дипфейках в Вице это привлекло внимание общественности к дипфейкам, распространяемым в онлайн-сообществах.[47] Шесть недель спустя, Коул написал в следующей статье о большом увеличении AI-помощи поддельной порнографии.[37] В феврале 2018 года, г / deepfakes было запрещено Reddit для обмена непроизвольной порнографии.[48] Другие сайты также запретили использование deepfakes для непроизвольной порнографии, в том числе платформы социального медиа Twitter и сайт порнографии Pornhub.[49] Однако некоторые веб-сайты еще не запретили контент Deepfake, в том числе 4chan и 8chan.[50]

Non-порнографическое содержание deepfake продолжает расти в популярности с видео из YouTube создатели, такие как Ctrl Shift Face и Shamook[51][52][53][54], достигнув миллионов просмотров. Сообщество Reddit / SFWdeepfakes было создано специально для обмена видео, созданными для развлечения, пародий и сатиры.[55] Мобильное приложение, Впечатления, был запущен для iOS в марте 2020 года. Приложение предоставляет пользователям платформу для дип-фейка лиц знаменитостей в видео за считанные минуты.[56]

Синтез изображения

Синтез изображений - это искусственное создание визуальных медиа, особенно с помощью алгоритмических средств. В развивающемся мире синтетических медиа работа по созданию цифровых изображений - когда-то была сферой деятельности высококвалифицированных программистов и голливудских художников по спецэффектам - может быть автоматизирована с помощью экспертных систем, способных создавать реализм в огромных масштабах.[57] Одно из подполей включает синтез человеческого образа, то есть использование нейронных сетей для создания правдоподобных и даже фотореалистичный исполнения[58][59] человеческих образов, движущихся или неподвижных. Фактически он существует с самого начала 2000-е. Многие фильмы с использованием компьютерные изображения были представлены синтетические изображения человекоподобных персонажей в цифровом виде на настоящий или другой смоделированный пленочный материал. Ближе к концу 2010-е глубокое обучение искусственный интеллект был применен для синтеза изображений и видео, которые выглядят как люди, без потребности в помощи человека, после завершения фазы обучения, тогда как старый метод 7D требовал огромного количества человеческой работы. Веб-сайт This Person Does Not Exist полностью автоматизирован. синтез человеческого образа путем бесконечной генерации изображений, похожих на портреты человеческих лиц.[60] Сайт был опубликован в феврале 2019 года Филипом Вангом.

Аудио синтез

Помимо дипфейков и синтеза изображений, аудио - еще одна область, в которой ИИ используется для создания синтетических медиа.[61] Синтезированный звук будет способен генерировать любой мыслимый звук, который может быть достигнут посредством манипуляции звуковой формой волны, который, возможно, может быть использован для генерации стандартного звука звуковых эффектов или имитации звука в настоящее время воображаемых вещей.[62]

Музыкальное поколение

Возможность генерировать музыку с помощью автономных, непрограммируемых средств давно востребована со времен античности, и с развитием искусственного интеллекта возникли две конкретные области:

  1. Роботизированное создание музыки, будь то с помощью машин, играющих на инструментах, или сортировки нот виртуальных инструментов (например, через MIDI файлы)[63][64]
  2. Непосредственно генерируя формы волны которые идеально воссоздают инструменты и человеческий голос без необходимости использования инструментов, MIDI или организации готовых нот.[65]

В 2016 г. Google DeepMind представила WaveNet, глубокую генеративную модель необработанных звуковых сигналов, которая может научиться понимать, какие формы сигналов больше всего напоминают человеческую речь, а также музыкальные инструменты.[66] Другие сети, способные генерировать музыку с помощью манипулирования формой волны, включают TacoTron (от Google) и DeepVoice (от Baidu).

Синтез речи

Синтез речи был определен как популярная ветвь синтетических медиа.[67] и определяется как искусственное производство человека речь. Компьютерная система, используемая для этой цели, называется речевой компьютер или синтезатор речи, и может быть реализована в программного обеспечения или оборудование продукты. А текст в речь (TTS) система переводит текст на обычном языке в речь; другие системы отображают символические лингвистические представления любить фонетические транскрипции в речь.[68]

Синтезированная речь может быть создана путем объединения частей записанной речи, которые хранятся в база данных. Системы различаются размером хранимых речевых единиц; система, которая хранит телефоны или дифоны обеспечивает самый большой выходной диапазон, но может быть недостаточно четким. Для определенных областей использования хранение целых слов или предложений обеспечивает высококачественный вывод. В качестве альтернативы синтезатор может включать в себя модель голосовой тракт и другие характеристики человеческого голоса для создания полностью «синтетического» речевого вывода.[69]

Виртуальные помощники, такие как Siri и Alexa, могут преобразовывать текст в звук и синтезировать речь.[70] WaveNet, DeepMind - это глубокая генеративная модель необработанных звуковых сигналов, специализирующаяся на человеческой речи.[66] TacoTron и LyreBird - это другие сети, способные воспроизводить правдоподобную человеческую речь.[71]

Генерация естественного языка

Генерация естественного языка (NLG, иногда синоним синтез текста) - это программный процесс, преобразующий структурированные данные в естественный язык. Его можно использовать для создания подробного содержимого для организаций, чтобы автоматизировать настраиваемые отчеты, а также для создания настраиваемого содержимого для веб-приложений или мобильных приложений. Его также можно использовать для создания коротких фрагментов текста в интерактивных беседах ( чат-бот ), который может быть прочитан даже текст в речь система. Интерес к генерации естественного языка увеличился в 2019 году после OpenAI представила GPT2, систему искусственного интеллекта, которая генерирует текст в соответствии с его вводом по теме и тону.[72] GPT2 - это трансформатор, а глубокий машинное обучение модель, представленная в 2017 году, используется в основном в области обработка естественного языка (НЛП).[73]

Синтез интерактивных медиа

Созданные искусственным интеллектом носители могут использоваться для разработки гибридной графической системы, которая может использоваться в видеоиграх, фильмах и виртуальной реальности.[74] а также текстовые игры, такие как AI Dungeon 2, в которых используется либо GPT-2 или GPT-3 чтобы учесть почти бесконечные возможности, которые иначе невозможно создать с помощью традиционных методов разработки игр.[75][76] Компания компьютерного оборудования Nvidia также работал над созданными с помощью ИИ демонстрациями видеоигр, такими как модель, которая может создавать интерактивную игру на основе неинтерактивных видеороликов.[77] Через процедурная генерация методы синтетических медиа могут в конечном итоге использоваться, чтобы «помочь дизайнерам и разработчикам создавать художественные ресурсы, уровни дизайна и даже создавать целые игры с нуля».[77]

Проблемы и разногласия

Дипфейки использовались для искажения известных политиков в видеороликах. В отдельных видеороликах лицо президента Аргентины. Маурисио Макри был заменен лицом Адольф Гитлер, и Ангела Меркель лицо было заменено на Дональд Трамп с.[78][79]

В июне 2019 г. Windows и Linux было выпущено приложение DeepNude, в котором использовались нейронные сети, в частности генеративные состязательные сети, чтобы убрать одежду с изображений женщин. У приложения была как платная, так и неоплачиваемая версия, платная версия стоила 50 долларов.[80][81] 27 июня создатели удалили приложение и вернули потребителям деньги.[82]

Конгресс США провел заседание сената, на котором обсуждалось широко распространенное влияние синтетических медиа, в том числе дипфейков, описывая их как «потенциал, который можно использовать для подрыва национальной безопасности, подрыва общественного доверия к нашей демократии и других гнусных причин».[83]

В 2019 году технология клонирования голоса была использована для успешного имитации голоса исполнительного директора и требования мошеннического перевода 220 000 евро.[84] Этот случай вызвал обеспокоенность по поводу отсутствия методов шифрования в телефонных разговорах, а также безоговорочного доверия, которое часто оказывают голосовой связи и средствам массовой информации в целом.[85]

Начиная с ноября 2019 года, несколько социальных сетей начали запрещать синтетические медиа, используемые для манипуляций в преддверии президентских выборов в США 2020 года.[86]

Возможное использование и воздействие

Методы синтетических медиа включают создание, манипулирование и изменение данные имитировать творческие процессы в более быстром и точном масштабе.[87] В результате потенциальные возможности использования столь же широки, как и само человеческое творчество, начиная от революционных изменений индустрия развлечений для ускорения научных исследований и производства. Первоначальное применение заключалось в том, чтобы синхронизировать движения губ, чтобы повысить вовлеченность обычного дубляжа.[88] который быстро растет с ростом ОТТ[89]. В граничной картине синтетические медиа демократизируют стоимость производства медиа и ограничивают потребность в дорогих камерах, записывающем оборудовании и визуальных эффектах.[90]. Крупные новостные организации уже изучают, как они могут использовать видеосинтез и другие технологии синтетических медиа, чтобы стать более эффективными и привлекательными.[91][92]. Потенциальные опасности в будущем включают использование комбинации различных подполей для создания фальшивые новости,[93] рои ботов на естественном языке, генерирующие тенденции и мемы, создание ложных доказательств и потенциальная зависимость от персонализированного контента и отступление в созданные искусственным интеллектом фантастические миры в виртуальной реальности.[13]

В 2019 году Илон Маск предупреждал о потенциальном использовании расширенной генерации текста боты манипулировать людьми в социальных сетях.[94] В будущем могут быть использованы еще более продвинутые боты для астротурфинг или демонизировать приложения, веб-сайты и политические движения, а также мемы и культурные тенденции, включая те, которые созданы с единственной целью - продвигаться ботами до тех пор, пока люди не увековечивают их без дальнейшей помощи.

Глубокое обучение с подкреплением генераторы естественного языка на основе потенциально могут стать первыми системами ИИ, прошедшими Тест Тьюринга и потенциально могут использоваться как продвинутые чат-боты,[95] которые затем могут быть использованы для создания искусственных отношений аналогично фильму 2013 года Ее и спам правдоподобные комментарии к новостным статьям.

Одним из вариантов использования генерации естественного языка является создание или помощь в написании романов и рассказов,[96] в то время как другие потенциальные разработки - это стилистические редакторы, которые подражают профессиональным писателям.[97] Затем ту же технику можно использовать для написания песен, стихов и технических текстов, а также для переписывания старых книг в стилях других авторов и создания выводов для неполных серий.[98]

Инструменты синтеза изображений могут упростить или даже полностью автоматизировать создание определенных аспектов визуальных иллюстраций, таких как мультики, комиксы, и политические карикатуры.[99][100] Поскольку процесс автоматизации устраняет необходимость в командах дизайнеров, художников и других лиц, участвующих в создании развлечений, затраты могут снизиться практически до нуля и позволить создавать «мультимедийные франшизы для спальни», где отдельные люди могут генерировать результаты, неотличимые от обычных. самые бюджетные производства за немного больше, чем стоимость работы их компьютера.[101] Инструменты создания персонажей и сцен больше не будут основываться на заранее созданных ресурсах, тематических ограничениях или личных навыках, а будут основываться на настройке определенных параметров и предоставлении достаточного количества входных данных.[102]

Комбинация синтеза речи и дипфейков использовалась для автоматического преобразования речи актера на несколько языков без необходимости повторных съемок или языковых занятий.[101]

Также опасались увеличения числа кибератак из-за методов фишинг, ловля сома, и социальный взлом автоматизируется новыми технологическими методами.[85]

Боты генерации естественного языка, смешанные с сетями синтеза изображений, теоретически могут использоваться для засорения результатов поиска, заполнения поисковые системы с триллионами бесполезных, но выглядящих вполне законно блогов, веб-сайтов и маркетингового спама.[103]

Были предположения о том, что дипфейки будут использоваться для создания цифровых актеров для будущих фильмов. Сконструированные / измененные цифровыми методами люди уже использовались в фильмы раньше, а дипфейки могут внести новые разработки в ближайшем будущем.[104] Любительская технология deepfake уже использовалась для вставки лиц в существующие фильмы, например вставка Харрисон Форд молодое лицо на лице Хана Соло в Соло: История Звездных войн,[105] и техники, подобные тем, которые используются в дипфейках, были использованы для игры принцессы Леи в Изгой-один.[106]

GAN можно использовать для создания фотографий воображаемых фотомоделей без необходимости нанимать модель, фотографа, визажиста или платить за студию и транспорт.[107] Сети GAN могут использоваться для создания рекламных кампаний в сфере моды, включая более разнообразные группы моделей, что может повысить желание покупать среди людей, похожих на моделей.[108] или члены семьи.[109] GAN также можно использовать для создания портреты, пейзажи и обложки альбомов. Способность GAN генерировать фотореалистичные человеческие тела представляет собой проблему для таких отраслей, как модельное моделирование, который может подвергнуться повышенному риску автоматизации.[110][111]

В 2019 году Dadabots представили поток дэт-метала, созданный искусственным интеллектом, который продолжается без пауз.[112]

Музыкальные исполнители и их соответствующие бренды также могут быть созданы с нуля, включая музыку, видео, интервью и рекламные материалы, созданные искусственным интеллектом. И наоборот, существующая музыка может быть полностью изменена по желанию, например, смена текста, певцов, инструментовки и композиции.[113] В 2018 году, используя процесс WaveNet для передачи тембров музыки, исследователи смогли перенести целые жанры из одного в другой.[114] С помощью искусственного интеллекта старые группы и исполнители могут быть «возрождены» для выпуска нового материала без пауз, который может даже включать «живые» концерты и рекламные изображения.

На основе нейронной сети фотоманипуляция имеет потенциал способствовать поведению тоталитарный и абсолютист режимы.[115] Достаточно параноидальное тоталитарное правительство или сообщество может участвовать в полном стирании истории, используя всевозможные синтетические технологии, выдумывая историю и личности, а также любые доказательства их существования во все времена. Даже в остальном рациональном и демократичный общества, определенные социальные и политические группы могут использовать синтетические материалы для создания культурных, политических и научных коконов, которые значительно снижают или даже полностью разрушают способность общественности соглашаться по основным объективным фактам. И наоборот, существование синтетических СМИ будет использоваться для дискредитации фактических источников новостей и научных фактов как «потенциально сфабрикованных».[57]

Смотрите также

использованная литература

  1. ^ Гудштейн, Анастасия. «Заменит ли искусственный интеллект человеческое творчество?». Adlibbing.org. Получено 30 января 2020.
  2. ^ Уодделл, Кавех. «Добро пожаловать в наши новые синтетические реальности». Axios.com. Получено 30 января 2020.
  3. ^ «Почему сейчас самое время стать создателем генеративных медиа». Product Hunt. Получено 2020-02-15.
  4. ^ Игнатиду, София. «Персонализация с использованием искусственного интеллекта в цифровых медиа. Политические и социальные последствия» (PDF). Chatham House. Департамент международной безопасности. Получено 30 января 2020.
  5. ^ Дирик, Искендер. «Почему пора изменить разговор о синтетических медиа». Венчурный бит. Получено 4 октября 2020.
  6. ^ Валес, Алдана. «Введение в синтетические СМИ и журналистику». Средняя. Wall Street Journal. Получено 30 января 2020.
  7. ^ Харви, Дел. «Помогите нам сформировать наш подход к синтетическим и управляемым медиа». Блог Twitter. Получено 30 января 2020.
  8. ^ Розенбаум, Стивен. "Что такое синтетические медиа?". MediaPost. Получено 30 января 2020.
  9. ^ а б «Путеводитель по синтетическим медиа на 2020 год». Блог Paperspace. 2020-01-17. Получено 30 января 2020.
  10. ^ Овадья, Авив. «Мифы Deepfake: распространенные заблуждения о синтетических медиа». Обеспечение демократии. Получено 30 января 2020.
  11. ^ Пэнгберн, диджей. «Вас предупредили: дипфейки всего тела - следующий шаг в мимикрии человека на основе ИИ». Быстрая Компания. Получено 30 января 2020.
  12. ^ а б c Валес, Алдана (14 октября 2019 г.). «Введение в синтетические медиа и журналистику». Средняя.
  13. ^ а б Паскарелли, Вальтер. «К синтетической реальности: когда DeepFakes встречает AR / VR». Oxford Insights. Получено 30 января 2020.
  14. ^ Ноэль Шарки (4 июля 2007 г.), Программируемый робот из 60 г. н.э., 2611, Новый ученый
  15. ^ Бретт, Джерард (июль 1954 г.), «Автоматы в Византии» Трон Соломона"", Зеркало, 29 (3): 477–487, Дои:10.2307/2846790, ISSN  0038-7134, JSTOR  2846790.
  16. ^ Waddesdon Manor (22 июля 2015 г.). "Чудесный слон - поместье Уоддесдон" - через YouTube.
  17. ^ Колесников-Джессоп, Соня (25 ноября 2011 г.). "Китайцы, охваченные механической манией". Нью-Йорк Таймс. Получено 25 ноября, 2011. Механические диковинки были в моде в Китае в XVIII и XIX веках, поскольку императоры Цин увлеклись автоматными часами и карманными часами, и «торговцы поющих песен», как называли европейских часовых мастеров, были более чем счастливы поощрять это интерес.
  18. ^ Koetsier, Teun (2001). «О предыстории программируемых машин: музыкальные автоматы, ткацкие станки, калькуляторы». Механизм и теория машин. Эльзевир. 36 (5): 589–603. Дои:10.1016 / S0094-114X (01) 00005-2.
  19. ^ Нирхаус, Герхард (2009). Алгоритмическая композиция: парадигмы автоматизированной генерации музыки, стр. 36 и 38n7. ISBN  9783211755396.
  20. ^ Дартмутская конференция:
    • МакКордак 2004, стр. 111–136
    • Crevier 1993, стр. 47–49, который пишет: «Конференция общепризнана официальной датой рождения новой науки».
    • Рассел и Норвиг, 2003 г., п. 17, которые называют конференцию «рождением искусственного интеллекта».
    • NRC 1999, стр. 200–201
  21. ^ Денис Л. Багги, "Роль компьютерных технологий в музыке и музыковедении ", lim.dico.unimi.it (9 декабря 1998 г.).
  22. ^ Зарипов, Р.Х. (1960). «Об алгоритмическом описании процесса сочинения музыки (Об алгоритмическом описании процесса сочинения музыки)». Известия АН СССР.. 132 (6).
  23. ^ "О Рэе Курцвейле".
  24. ^ Bharucha, J.J .; Тодд, П. (1989). «Моделирование восприятия тональной структуры с помощью нейронных сетей». Компьютерный музыкальный журнал. 13 (4): 44–53. Дои:10.2307/3679552. JSTOR  3679552.
  25. ^ Тодд П.М., Лой Д.Г. (Ред.) (1991). Музыка и коннекционизм. Кембридж, Массачусетс: MIT Press.
  26. ^ Гудфеллоу, Ян; Пуже-Абади, Жан; Мирза, Мехди; Сюй, Бинг; Вард-Фарли, Дэвид; Озаир, Шерджил; Курвиль, Аарон; Бенжио, Йошуа (2014). Генеративные состязательные сети (PDF). Труды Международной конференции по системам обработки нейронной информации (NIPS 2014). С. 2672–2680.
  27. ^ Салиманс, Тим; Гудфеллоу, Ян; Заремба, Войцех; Чунг, Вики; Рэдфорд, Алек; Чен, Си (2016). «Улучшенные методы обучения GAN». arXiv:1606.03498 [cs.LG ].
  28. ^ Изола, Филипп; Чжу, Цзюнь-Янь; Чжоу, Тинхуэй; Эфрос, Алексей (2017). «Преобразование изображения в изображение с использованием условных состязательных сетей». Компьютерное зрение и распознавание образов.
  29. ^ Хо, Джонатон; Эрмон, Стефано (2016). "Генеративное состязательное имитационное обучение". Достижения в системах обработки нейронной информации: 4565–4573. arXiv:1606.03476. Bibcode:2016arXiv160603476H.
  30. ^ ЛеКун, Янн. "Семинар RL: новые рубежи в искусственном интеллекте: обучение без учителя".
  31. ^ Uszkoreit, Якоб. «Трансформер: новая архитектура нейронной сети для понимания языков». Блог Google AI. Получено 21 июн 2020.
  32. ^ Браун, Том Б .; Манн, Бенджамин; Райдер, Ник; Суббия, Мелания; Каплан, Джаред; Дхаривал, Прафулла; Нилакантан, Арвинд; Шьям, Пранав; Састры, Гириш; Аскелл, Аманда; Агарвал, Сандхини; Герберт-Восс, Ариэль; Крюгер, Гретхен; Хениган, Том; Чайлд, Ревон; Рамеш, Адитья; Ziegler, Daniel M .; Ву, Джеффри; Зима, Клеменс; Гессен, Кристофер; Чен, Марк; Сиглер, Эрик; Литвин, Матеуш; Грей, Скотт; Шахматы, Бенджамин; Кларк, Джек; Бернер, Кристофер; Маккэндлиш, Сэм; Рэдфорд, Алек; и другие. (2020). «Языковые модели - малоизученные». arXiv:2005.14165 [cs.CL ].
  33. ^ Дхаривал, Прафулла; Джун, Хиу; Пэйн, Кристина; Чон Ук Ким; Рэдфорд, Алек; Суцкевер, Илья (2020).«Музыкальный автомат: Генеративная модель для музыки». arXiv:2005.00341 [eess.AS ].
  34. ^ Брэндон, Джон (16.02.2018). «Страшная высокотехнологичная порно: Жуткий„deepfake“видео находится на подъеме». Fox News. Получено 2018-02-20.
  35. ^ Грегори, Сэмюэл. «Слышали о дипфейках? Не паникуйте. Готовьтесь». МЫ Форум. Всемирный Экономический Форум. Получено 30 января 2020.
  36. ^ Барраби, Томас. «Твиттер разрабатывает политику« синтетических медиа »для борьбы с дипфейками и другими вредоносными публикациями». Фокс Бизнес. Fox News. Получено 30 января 2020.
  37. ^ а б c d Коул, Саманта (24 января 2018 г.). «Мы действительно Fucked: все делают AI-сгенерированные Поддельные порно сейчас». Вице. Получено 4 мая 2019.
  38. ^ Шварц, Оскар (12 ноября 2018 г.). «Вы думали, что фейковые новости - это плохо? В глубоких фейках правда умирает». Хранитель. Получено 14 ноября 2018.
  39. ^ Доктор философии, Свен Чарлир (17 мая 2019 г.). «Семейное развлечение с дипфейками. Или как я пригласил свою жену на вечернее шоу». Средняя. Получено 2019-11-08.
  40. ^ «Что такое Deepfakes и почему будущее порно Ужасающий». Высокое благородство. 2018-02-20. Получено 2018-02-20.
  41. ^ «Эксперты опасаются, что технология смены лица может привести к международному противостоянию». Схема. Получено 2018-02-28.
  42. ^ Руз, Кевин (2018-03-04). "Вот и поддельные видео, тоже". Нью-Йорк Таймс. ISSN  0362-4331. Получено 2018-03-24.
  43. ^ Шрейер, Марко; Саттаров, Тимур; Реймер, Бернд; Борт, Дамиан (2019). «Состязательное изучение дипфейков в бухгалтерском учете». arXiv:1910.03810. Bibcode:2019arXiv191003810S. Цитировать журнал требует | журнал = (Помогите)
  44. ^ «Присоединяйтесь к конкурсу Deepfake Detection Challenge (DFDC)». deepfakedetectionchallenge.ai. Получено 2019-11-08.
  45. ^ Кларк, Иветт Д. (28.06.2019). «H.R.3230 - 116-й Конгресс (2019-2020): Защита каждого человека от ложных показаний путем сохранения эксплуатации в соответствии с Законом об ответственности от 2019 года». www.congress.gov. Получено 2019-10-16.
  46. ^ Хейсом, Сэм (31 января 2018 г.). «Люди используют технологию смены лиц, чтобы добавить Николаса Кейджа в случайные фильмы и« Что такое 2018 »». Mashable. Получено 4 апреля 2019.
  47. ^ Коул, Саманта (11 декабря 2017 г.). «АИ-Assisted Поддельные порно здесь и мы все Fucked». Вице. Получено 19 декабря 2018.
  48. ^ Харпал, Арджун (8 февраля 2018 г.). «Reddit и Pornhub запрещают видео, в которых используется ИИ для наложения лица человека на лицо актера с рейтингом X». CNBC. Получено 2018-02-20.
  49. ^ Коул, Саманта (2018-02-06). «Twitter является последней платформой для Ban AI-сгенерированного порно». Вице. Получено 2019-11-08.
  50. ^ Хэтэуэй, Джей (8 февраля 2018 г.). «Вот где„deepfakes,“новая фальшивка знаменитости порно, пошли после запрета Reddit». Daily Dot. Получено 22 декабря 2018.
  51. ^ Уолш, Майкл (19 августа 2019 г.). «Технология Deepfake превращает Билла Хадера в Тома Круза». Ботаник.
  52. ^ Ctrl Shift Face (6 августа 2019 г.). "Билл Хейдер направляет Тома Круза [DeepFake]".
  53. ^ Мозер, Энди (5 сентября 2019 г.). «Уилл Смит займет место Киану в« Матрице »в новом дипфейке». Mashable.
  54. ^ Шамук (3 сентября 2019 г.). "Уилл Смит в роли Нео в" Матрице [DeepFake] ".
  55. ^ «Дипфейки, безопасные для работы». www.reddit.com.
  56. ^ Тален, Микаэль. "Теперь вы можете дипфейдировать в знаменитость всего за несколько кликов". дневная точка. Получено 2020-04-03.
  57. ^ а б Ротман, Джошуа. «В эпоху искусственного интеллекта, видя все еще верить?». Житель Нью-Йорка. Получено 30 января 2020.
  58. ^ Физическая модель мышц для контроля формы рта на IEEE Исследовать (требуется членство)
  59. ^ Реалистичная 3D-анимация лица в виртуальном пространстве телеконференций на IEEE Исследовать (требуется членство)
  60. ^ Хорев, Рани (26.12.2018). «GAN на основе стилей - создание и настройка реалистичных искусственных лиц». Lyrn.AI. Получено 2019-02-16.
  61. ^ Овадья, Авив; Уиттлстоун, Джесс. «Снижение злонамеренного использования синтетических медиа-исследований: рекомендации и потенциальные практики выпуска для машинного обучения». researchgate.net. Получено 30 января 2020.
  62. ^ «Сверхбыстрый синтез звука с помощью MelGAN». Descript.com. Получено 30 января 2020.
  63. ^ «Сочетание глубоких символических и необработанных музыкальных музыкальных моделей». people.bu.edu.
  64. ^ Линде, Гельмут; Швейцер, Иммануил (5 июля 2019 г.). «Белая книга о будущем искусственного интеллекта» - через ResearchGate.
  65. ^ Энгель, Джесси; Агравал, Кумар Кришна; Чен, Шуо; Гульраджани, Ишаан; Донахью, Крис; Робертс, Адам (27 сентября 2018 г.). "GANSynth: состязательный нейронный аудиосинтез" - через openreview.net.
  66. ^ а б "WaveNet: Генеративная модель для Raw Audio".
  67. ^ Камбхампати, Суббарао. «Восприятие перестанет быть реальностью, если ИИ сможет манипулировать тем, что мы видим». Холм. Получено 30 января 2020.
  68. ^ Аллен, Джонатан; Ханникатт, М. Шарон; Клатт, Деннис (1987). От текста к речи: система MITalk. Издательство Кембриджского университета. ISBN  978-0-521-30641-6.
  69. ^ Рубин, П .; Baer, ​​T .; Мермельштейн, П. (1981). «Артикуляционный синтезатор для исследования восприятия». Журнал Акустического общества Америки. 70 (2): 321–328. Bibcode:1981ASAJ ... 70..321R. Дои:10.1121/1.386780.
  70. ^ Oyedeji, Чудо. «Руководство для новичков по синтетическим медиа и их влиянию на журналистику». Состояние цифровых публикаций. Получено 1 февраля 2020.
  71. ^ «Дипфейки и синтетические медиа: чего нам бояться? Что мы можем сделать?». Блог WITNESS. 2018-07-30. Получено 2020-02-12.
  72. ^ Кларк, Джек; Брандейдж, Майлз; Солайман, Ирэн. «GPT-2: наблюдение через 6 месяцев». OpenAI. OpenAI. Получено 1 февраля 2020.
  73. ^ Полосухин Илья; Кайзер, Лукаш; Gomez, Aidan N .; Джонс, Ллион; Uszkoreit, Jakob; Пармар, Ники; Шазир, Ноам; Васвани, Ашиш (12.06.2017). «Внимание - все, что вам нужно». arXiv:1706.03762 [cs.CL ].
  74. ^ Винсент, Джеймс (3 декабря 2018 г.). «Nvidia создала первую демонстрацию видеоигры с использованием графики, созданной искусственным интеллектом». Грани.
  75. ^ Буг, Джейсон (14 декабря 2019 г.). «Создатель AI Dungeon 2 поделился советом по настройке GPT-2». Средняя.
  76. ^ Уолтон, Ник (14 июля 2020 г.). "AI Dungeon: Dragon Model Upgrade". Средняя.
  77. ^ а б Оберхаус, Даниэль (3 декабря 2018 г.). «AI может создавать интерактивные виртуальные миры на основе простых видео».
  78. ^ "Венн Меркель Плётцлих Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos". az Aargauer Zeitung. 2018-02-03.
  79. ^ Патрик Генсинг. "Deepfakes: Auf dem Weg in eine alternate Realität?".
  80. ^ Коул, Саманта; Майберг, Эмануэль; Коблер, Джейсон (26 июня 2019 г.). "Это ужасающее приложение раздевает фотографию любой женщины одним щелчком мыши". Вице. Получено 2 июля 2019.
  81. ^ Кокс, Джозеф (9 июля 2019 г.). «GitHub удалил версии DeepNude с открытым исходным кодом». Vice Media.
  82. ^ "pic.twitter.com/8uJKBQTZ0o". 27 июня 2019.
  83. ^ «Закон о Deepfake Report 2019 года». Congress.gov. Получено 30 января 2020.
  84. ^ «Мошенники использовали ИИ для имитации голоса генерального директора в необычном деле о киберпреступности».
  85. ^ а б Янофски, Адам (13.11.2018). «AI может сделать кибератаки более опасными и трудными для обнаружения». Wall Street Journal.
  86. ^ Ньютон, Кейси. «У запрета дипфейков от Facebook есть очевидные обходные пути». Грани. Получено 30 января 2020.
  87. ^ «Путеводитель по синтетическим медиа на 2020 год». Блог Paperspace. 17 января 2020.
  88. ^ «Копирование идет на маленький экран рядом с вами». Экономист. ISSN  0013-0613. Получено 2020-02-13.
  89. ^ "Глобальный охват Netflix вызывает революцию дубляжа:" Общественность требует этого"". Голливудский репортер. Получено 2020-02-13.
  90. ^ Рипарбелли, Виктор (23.07.2019). «Наше видение будущего синтетических медиа». Средняя. Получено 2020-02-13.
  91. ^ «Reuters и Synthesia представляют прототип искусственного интеллекта для автоматизированных видеоотчетов». Рейтер. 2020-02-07. Получено 2020-02-13.
  92. ^ «Могут ли синтетические медиа стимулировать новый контент?». BBC. 2020-01-29. Получено 2020-02-13.
  93. ^ Шао, Грейс (15 октября 2019 г.). «Поддельные видео могут стать следующей большой проблемой на выборах 2020 года». CNBC.
  94. ^ Гамильтон, Изобель (26.09.2019). «Илон Маск предупредил, что« продвинутый ИИ »может отравить социальные сети».
  95. ^ «Чат-бот, использующий модель-трансформер OpenAI GPT-2». dwjbosman.github.io.
  96. ^ Торговец, Брайан (1 октября 2018 г.). "Когда ИИ становится полным, Джек Керуак". Атлантический океан.
  97. ^ Мерчант, Брайан (1 октября 2018 г.). "Когда ИИ становится полным, Джек Керуак". Атлантический океан.
  98. ^ Триведи, Чинтан (26 мая 2019 г.). «OpenAI GPT-2 пишет альтернативные концовки для Игры престолов». Средняя.
  99. ^ «Ветеран Pixar создает инструмент AI для автоматизации 2D-анимации». 2 июня 2017 г.
  100. ^ Макбрайд, Сара (9 апреля 2019 г.). «Синтетический лагерь настоящий». Средняя.
  101. ^ а б «Синтезия». www.synthesia.io. Получено 2020-02-12.
  102. ^ Бан, Юлий (3 января 2020 г.). «Эпоха воображаемых машин: грядущая демократизация искусства, анимации и воображения». Средняя.
  103. ^ Винсент, Джеймс (2 июля 2019 г.). «Бесконечный спам, созданный искусственным интеллектом, рискует засорить результаты поиска Google». Грани.
  104. ^ Кемп, Люк (2019-07-08). «Могут ли виртуальные актеры в эпоху дипфейков вытеснить людей из бизнеса?». Хранитель. ISSN  0261-3077. Получено 2019-10-20.
  105. ^ Радулович, Петрана (17.10.2018). «Харрисон Форд - звезда Solo: A Star Wars Story благодаря технологии deepfake». Многоугольник. Получено 2019-10-20.
  106. ^ Виник, Эрин. «Как марионетка Кэрри Фишер сделала карьеру для принцессы Леи из Rogue One». Обзор технологий MIT. Получено 2019-10-20.
  107. ^ Вонг, Сиси. «Восстание супермоделей искусственного интеллекта». CDO Trends.
  108. ^ Дитмар, Юлия. «GAN и Deepfakes могут произвести революцию в индустрии моды». Forbes.
  109. ^ Хамосова, Ленка. «Персонализированная синтетическая реклама - будущее прикладных синтетических медиа». Средняя.
  110. ^ «Генеративный дизайн одежды».
  111. ^ «ИИ создает моделей с индивидуальными нарядами и позами». Синхронизировано. 29 августа 2019.
  112. ^ "Познакомьтесь с Dadabots, дэт-металлической группой AI, которая постоянно играет на Youtube". Новый Атлас. 23 апреля 2019.
  113. ^ Портер, Джон (26 апреля 2019 г.). «MuseNet от OpenAI генерирует музыку с искусственным интеллектом одним нажатием кнопки». Грани.
  114. ^ https://www.youtube.com/watch?v=YQAupr7JxNY
  115. ^ Уоттс, Крис. «Вызовы национальной безопасности, связанные с искусственным интеллектом, манипулируемыми СМИ и« дипфейками »- Институт исследований внешней политики». Получено 2020-02-12.