Как сделать

Что такое Deepfake, и я должен быть обеспокоен?

Набор данных мужских лиц.
meyer_solutions / Shutterstock

Мы склонны доверять содержанию видео и аудио записей. Но с ИИ лицо или голос любого человека могут быть воссозданы с высокой точностью. Продукт представляет собой deepfake, олицетворение, которые могут быть использованы для мемов, дезинформации или порно.

Один взгляд на глубокие подделки Николаса Кейджа или глубокий поддельный PSA Джордана Пила дает понять, что мы имеем дело со странной новой технологией. Эти примеры, хотя и относительно безвредны, вызывают вопросы о будущем. Можем ли мы доверять видео и аудио? Можем ли мы привлечь людей к ответственности за свои действия на экране? Мы готовы к подделкам?

Deepfakes — новые, легкие в изготовлении и быстро растущие

Технологии Deepfake всего несколько лет, но она уже превратилась во что-то захватывающее и тревожное. Термин «глубокий обман», который был придуман на нити Reddit в 2017 году, используется для описания воссоздания внешнего вида или голоса человека с помощью искусственного интеллекта. Удивительно, но почти каждый может создать глубокую подделку с дерьмовым ПК, некоторым программным обеспечением и несколькими часами работы.

Сцена из «Звездного пути» с капитаном Кирком в исполнении Вика Миньогны. Поклонники создали глубокую подделку этой сцены, где лицо Уильяма Шатнера накладывается на лицо Вика. По иронии судьбы, лицо Вика это то, что выглядит фальшивым.
Хотите верьте, хотите нет, изображение слева — фальшивый. Глубокое уважение / Боб Торнтон

Как и в случае с любой новой технологией, существует некоторая путаница вокруг фальшивок. Видео «Пьяная Пелоси» является отличным примером этой путаницы. Глубокие подделки создаются ИИ, и они созданы, чтобы выдавать себя за людей. Видео «dunk Pelosi», которое называют «глубоким подделкой», на самом деле является просто видео Нэнси Пелоси, которое было замедлено и исправлено по высоте, чтобы добавить эффект нечеткой речи.

Это также то, что отличает Deepfakery от, скажем, CGI Кэрри Фишер в Star Wars: Rogue One. В то время как Дисней потратил кучу денег, изучая лицо Кэрри Фишер и воссоздавая его от руки, ботаник с каким-то глубоким программным обеспечением может сделать ту же работу бесплатно в течение одного дня. ИИ делает работу невероятно простой, дешевой и убедительной.

Как сделать Deepfake

Как ученик в классе, ИИ должен «научиться» выполнять поставленные перед ним задачи. Это происходит посредством процесса проб и ошибок методом грубой силы, обычно называемого машинным обучением или глубоким обучением . Например, ИИ, предназначенный для прохождения первого уровня Super Mario Bros., будет играть в игру снова и снова, пока не выяснит лучший способ выиграть. Человек, проектирующий ИИ, должен предоставить некоторые данные для начала работы, а также несколько «правил», когда что-то пойдет не так по пути. Кроме того, AI делает всю работу.

То же самое относится и к глубокому уходу за лицом. Но, конечно, воссоздание лиц — это не то же самое, что победа в видеоигре. Если бы нам нужно было создать глубокую подделку Николаса Кейджа, где будет проходить шоу Венди Уильямс, вот что нам нужно:

  • Видео назначения : на данный момент глубокие подделки лучше всего работают с чистыми, чистыми видео назначения. Вот почему некоторые из самых убедительных подделок — это политики; они имеют тенденцию стоять на подиуме при постоянном освещении. Итак, нам просто нужно видео, где Венди сидит и разговаривает.
  • Два набора данных : чтобы движения рта и головы выглядели точными, нам нужен набор данных лица Венди Уильямс и набор данных лица Николаса Кейджа. Если Венди смотрит направо, нам нужна фотография Николаса Кейджа, смотрящего справа. Если Венди открывает рот, нам нужна фотография Кейджа, открывающего рот.

После этого мы позволяем ИИ делать свою работу. Он снова и снова пытается создать глубокую подделку, учась на своих ошибках на своем пути. Просто, правда? Ну, видео с изображением лица Кейджа на теле Венди Уильям никого не обманет, так как мы можем пойти немного дальше?

Журнал Люди / Журнал Time

Самыми убедительными (и потенциально вредными) подделками являются тотальные подражания. Популярный Обама Deepfake Джордан Пил является хорошим примером. Итак, давайте сделаем одно из этих подражаний. Давайте создадим глубокую подделку Марка Цукерберга, объявляющего его ненависть к муравьям — это звучит убедительно, верно? Вот что нам нужно:

  • Видео назначения : это может быть видео самого Цукерберга или актера, который похож на Цукерберга. Если наше видео предназначено для актера, мы просто приклеим лицо Цукерберга к актеру.
  • Фото : нам нужны фотографии, на которых Цукерберг говорит, моргает и двигает головой. Если мы накладываем его лицо на актера, нам также понадобится набор данных о движениях лица актера.
  • The Zuck’s Voice : наш глубокий подделка должен звучать как The Zuck. Мы можем сделать это, записав подражателя или воссоздав голос Цукерберга с ИИ. Чтобы воссоздать его голос, мы просто запускаем аудиосэмплы Цукерберга через искусственного интеллекта, такого как Лирохвост , и затем печатаем то, что хотим, чтобы он сказал.
  • ИИ с синхронизацией по губам: поскольку мы добавляем в наше видео голос фальшивого Цукерберга, ИИ по синхронизации с губами должен убедиться, что глубокие фейковые движения лица соответствуют тому, что говорится.

Мы не пытаемся приуменьшить работу и опыт, которые вкладываются в глубокую подделку. Но по сравнению с работой CGI за миллион долларов, которая вернула Одри Хепберн из мертвых , глубокие подделки — это прогулка в парке. И хотя мы еще не влюбились в глубоких подделок политических или знаменитостей, даже самые грубые, самые очевидные глубокие подделки нанесли реальный вред.

СВЯЗАННЫЙ: Проблема с ИИ: машины учат вещи, но не могут их понять

Deepfakes уже причинили вред реальному миру

По состоянию на данный момент, большинство deepfakes только Николас Кейдж мема, объявление государственных служб и жуткая знаменитость порно. Эти торговые точки относительно безвредны и их легко идентифицировать, но в некоторых случаях подделки успешно используются для распространения дезинформации и нанесения вреда жизни других людей.

В Индии индуистские националисты используют подделок для дискредитации и подстрекательства к насилию в отношении женщин-журналистов. В 2018 году журналист по имени Рана Айюб стал жертвой к такой кампании дезинформации, которая включала deepfake видео ее лицо накладывается на порнографическое видео. Это привело к другим формам преследования в Интернете и угрозе физического насилия .

Stateside, deepfake технология часто используется для создания nonconsensual мести порно. Как сообщил вице многие пользователи ныне запрещенный deepfakes Reddit форум спросил , как создать deepfakes бывших подружек, влюбленностей, друзей и одноклассников (да, детское порно). Проблема настолько велика , что Вирджиния в настоящее время запрещает все формы неконсенсуальной порнографии, в том числе deepfakes .

Поскольку глубокие подделки становятся все более убедительными, технология, несомненно, будет использоваться для более сомнительных целей. Но есть шанс, что мы слишком остро реагируем, верно? Разве это не самый естественный шаг после фотошопа?

Глубокие подделки — естественное продолжение изображений с докторами

Даже на самом базовом уровне глубокие подделки вызывают тревогу. Мы доверяем видео и аудио записям, чтобы запечатлеть слова и действия людей без какой-либо предвзятости или дезинформации. Но, в некотором смысле, угроза глубоких подделок вовсе не нова. Он существует с тех пор, как мы впервые начали использовать фотографию.

Взять, к примеру, несколько фотографий Авраама Линкольна, которые существуют. Большинство этих фотографий (включая портреты на пенни и пятидолларовую купюру) были сфокусированы фотографом по имени Мэтью Брэди, чтобы улучшить внешность Линкольна (особенно его тонкую шею). Некоторые из этих портретов были отредактированы способом, напоминающим глубокие подделки, с головой Линкольна, наложенной на тела «сильных» людей, таких как Калхун (пример ниже — это гравюра, а не фотография).

Офорт Калхуна рядом с офортом Линкольна. Очевидно, лицо Линкольна было наложено на тело Кэлхуна. В остальном офорты идентичны.
Атлас Обскура / Библиотека Конгресса

Это звучит как странная реклама, но в 1860-х годах фотография несла определенное количество «правды», которую мы теперь оставляем за видео и аудио записями. Это считалось полярной противоположностью искусства — науки . Эти фотографии были сфабрикованы, чтобы преднамеренно дискредитировать газеты, которые критиковали Линкольна за его слабое тело. В конце концов, это сработало. Американцы были впечатлены фигурой Линкольна, и сам Линкольн утверждал, что фотографии Брэди « сделали меня президентом ».

Связь между Deepfakes и редактированием фотографий 19-го века странно утешительна. Он предлагает нам повествование о том, что, хотя эта технология имеет серьезные последствия, она не находится вне нашего контроля. Но, к сожалению, этот рассказ не может длиться очень долго.

Мы не сможем обнаружить Deepfakes навсегда

Мы привыкли видеть поддельные изображения и видео нашими глазами. Легко взглянуть на семейный портрет Джозефа Геббельса и сказать : «Что-то странное в этом парне сзади». Взгляд на пропагандистские фотографии Северной Кореи показывает, что без учебников на YouTube люди сосут в Photoshop. И сколь бы впечатляющими ни были глубокие подделки, все еще можно разглядеть глубокую подделку в одиночку.

Но мы не сможем обнаружить глубоких подделок намного дольше. С каждым годом глубокие подделки становятся все более убедительными и их легче создавать. Вы можете сделать глубокую подделку с одной фотографией , и вы можете использовать AI, как Lyrebird, чтобы клонировать голоса менее чем за минуту. Высокотехнологичные глубокие подделки, которые объединяют поддельное видео и аудио, невероятно убедительны, даже если они созданы для того, чтобы подражать узнаваемым персонажам, таким как Марк Цукерберг .

В будущем мы можем использовать ИИ, алгоритмы и технологии блокчейна для борьбы с фальшивками. Теоретически, AI может сканировать видео, чтобы найти «поддельные отпечатки пальцев », а технология блокчейна, установленная в операционных системах, может помечать пользователей или файлы, которые касались DeepFake.

Если эти анти-фальшивые методы звучат для вас глупо, вступайте в клуб. Даже исследователи ИИ сомневаются в том, что есть верное решение для подделок. По мере того, как программное обеспечение для обнаружения становится лучше, будут и фальшивые. В конце концов, мы достигнем точки, где deepfakes будет невозможно обнаружить, и мы будем иметь гораздо больше беспокоиться о чем поддельные знаменитости порно и Николас Кейдж видео.

Похожие посты
Как сделать

Как получить возмещение за покупки в iTunes или App Store

Как сделать

Поверхностное перо не работает? Вот как это исправить

Как сделать

Как настроить и использовать Fire TV Recast

Как сделать

Как изменить рингтон по умолчанию на вашем iPhone