Разное

Видео подделки: Технологии подделки видео и голоса стали общедоступными

Содержание

Технологии подделки видео и голоса стали общедоступными

Добавить в избранное
Мнение, Технологии

Станислав Петровский

Юрист компании «Объединенная Энергия», кандидат юридических наук

Опубликован видеоролик, который показывает, что американцы не были на Луне, а разбились при посадке. В ролике президент США официально скорбит о гибели астронавтов космического корабля Аполлон-11 на Луне. Теперь ролик с речью президента США Никсона о лунной катастрофе In Event of Moon Disaster можно увидеть в YouTube (фильм с видео речи президента США Никсона, которой никогда не было в действительности). Его записали специалисты Центра передовой виртуальности (Center for Advanced Virtuality) Массачусетского технологического института. Ролик создан с помощью технологии DeepFake, которая позволяет на основе нескольких образцов голоса и видео с человеком создать искусную подделку, на глаз неотличимую от оригинала.

Другая разработка под названием DeepVoice позволяет синтезировать речь со всеми нюансами, характерными для конкретного человека, включая произношение. Системе достаточно 10 образцов голоса человека по 5 секунд, чтобы создать звукозапись, которую не отличит система распознавания по голосу. Существует также аналогичный канадский проект Lyrebird. Специалисты университетов Принстона, Макса Планка и Стэнфорда также создали приложение Neural Rendering, которое имитирует произнесение текста человеком на видео. Язык говорящего не имеет значения.

Конечно, в противовес началось развитие технологий, позволяющих выявлять подделку изображений, видео или звуковых роликов, но они выявляют далеко не все подделки и нуждаются в существенной доработке.

Компании Facebook и Microsoft провели в 2020 году DeepFake Detection Challenge — конкурс лучшего решения для выявления подмены лиц на видео. Приз составлял $1 млн, но лучшее решение только в 68% случаев выявляет подделку. Причем речь идет о видео DeepFake, в которые не вносились специальные шумы, затрудняющие распознавание подделок. По непроверенным данным, уже разработано специальное программное обеспечение на основе искусственного интеллекта, противодействующее распознаванию подделок.

Самым известным примером незаконного использования DeepFake является случай с энергетической компанией, которая потеряла около 220 тысяч евро. Злоумышленники позвонили по телефону бухгалтеру и голосом руководителя передали распоряжение на оплату. Была правдоподобно сымитирована манера разговора и немецкий акцент.

Сегодня технология DeepFake стала доступна для всех желающих. Помимо инструментов для фото и видео DeepFaceLab, FaceSwap, Faceswapweb.com и других, сразу несколько русскоязычных Telegram-каналов предложили сервис подмены номера телефона и голоса. Сервис позволяет подменить ваш номер на любой другой, а также поменять ваш голос на один из нескольких вариантов. Это предоставляет всем желающим возможности как для невинных розыгрышей, так и для крупного мошенничества. Становятся бесполезными приложения, которые с помощью определителя номера выявляют навязчивую рекламу или мошенников. Теперь имеет смысл просить собеседника сообщать наиболее важную информацию через мессенджеры, поскольку там пока, по крайней мере в широком доступе, нет средств для подмены номера.

Технологии синтеза реалистичной речи и видео вызывают обоснованное беспокойство специалистов, поскольку позволяют мошенникам записывать голосовые сообщения голосом знакомых вам людей или подделывать видео, в том числе обманывать системы банковской идентификации, а также подделывать доказательства для суда. Развитие технологии может привести к тому, что видеозаписи и аудиозаписи будет невозможно использовать в суде. DeepFake отрывает широкие возможности для краж с банковских счетов, политической дискредитации, а также запугивания, шантажа и мошенничества, целью которых может стать любой, включая детей. Уже сейчас в интернете распространены поддельные порноролики, где внешность порноактера заменена на внешность знаменитости.

С октября 2019 года в Калифорнии запрещено выкладывать в сеть ролики с политическими кандидатами за 60 дней до выборов. С января 2020 года в Китае запрещено публиковать фото и видео, созданные с помощью технологии DeepFake без специальной пометки.

Учитывая, что отличить подделку даже с помощью специализированного программного обеспечения не всегда возможно, впору повторить слова известного персонажа: «Не верь глазам своим!»

Тут есть о чем задуматься: как всем нам, так и законодателям, судьям, а также специалистам по криминалистической экспертизе.

Загрузка…

Новости СМИ2

Как распознать онлайн поддельные фото и видео — Lava Media на vc.ru

{«id»:13689,»url»:»\/distributions\/13689\/click?bit=1&hash=3060cc4a2b360b28a6803934b435df63bd29b9d33051c244d1875b60ba896c93″,»title»:»\u0421\u0442\u0440\u0430\u0445 \u043f\u0440\u0435\u0434\u043f\u0440\u0438\u043d\u0438\u043c\u0430\u0442\u0435\u043b\u044f \u2116186: \u043d\u0435 \u0443\u0441\u043f\u0435\u0442\u044c \u043f\u043e\u0434\u0433\u043e\u0442\u043e\u0432\u0438\u0442\u044c\u0441\u044f \u043a \u041d\u043e\u0432\u043e\u043c\u0443 \u0433\u043e\u0434\u0443″,»buttonText»:»\u0420\u0430\u0437\u0432\u0435\u044f\u0442\u044c»,»imageUuid»:»c1eb51ab-d272-595f-99da-b1e635720912″,»isPaidAndBannersEnabled»:false}

Всегда ли можно доверять информации в социальных сетях? Какие ролики и фото являются подлинными, а какие – фейки? Используйте советы и инструменты из этой статьи для быстрого обнаружения подделок.

50 просмотров

Почему важно учиться видеть фальшь

Распространители дезинформации действуют все более искусно, создавая достоверные подделки с помощью передовых технологий. Критически подходите к подобной визуальной информации и проверяйте ее подлинность перед публикацией. Публикация ложных материалов может привести к потере читателей, репутации и даже работы.

Всегда задавайте себе 4 вопроса

Что говорит интуиция? Если вам с первого взгляда показалось, что это не может быть правдой – возможно, перед вами подделка. Наше подсознание оценивает изображение и предупреждает о его неестественности.

Есть ли источник? Надежные издания соблюдают авторские права и демонстрируют подлинность, указывая источники. Если эти сведения отсутствуют, то дальше можете не проверять.

Насколько достоверен свет? Если объект и фон различаются по контрастности, типу освещения и пр., то перед вами результат фотошопа.

Фото кажется знакомым? Это вполне может быть старая фотография с обработкой. Или оригинальная – только уже в другом контексте.

5 методов распознавания подделок

Обратный поиск. Перейдите в Яндекс – поиск по фото или Google Images и загрузите файл (перетащите в поле поиска, укажите url и пр.). Найдите совпадающие или похожие изображения, изучите историю фотографии. Если картинка уже находится в сети – используйте поиск Google Lens по правой кнопке мыши. Функция Google Lens доступна на Android / iOS смартфонах, есть и сторонние приложения для обратного поиска.

Изучение метаданных. Используйте EXIFdata или другие бесплатные инструменты для проверки по метаданным (Metapicz, Exif Viewer). С их помощью вы можете узнать дату, время и GPS координаты создания снимка, каким устройством он был сделан, а также выдержку, разрешение и другие параметры. Только учтите, что некоторые соцсети автоматически удаляют метаданные для соблюдения конфиденциальности.

Визуально-криминалистическая экспертиза. Проверьте фото на специализированных ресурсах. Сервис TinEye дает возможность сортировать и фильтровать фото по степени изменения, а также выделять различия с помощью функции сравнения.

Анализ подручными средствами. Сайт Snopes – один из лучших для проверки фактов читателями и журналистами. Он позволяет распознать дезинформацию, отличить правду от мифов и слухов. На нем также можно узнать, является ли популярная фотография подлинной или фальшивой.

На Твиттере имеются дескрипторы, которые помогут вам в работе. К примеру, @PicPedant отслеживает украденные, поддельные и незарегистрированные фотографии.

Проверка видео. Анализируйте метаданные роликов на YouTube с помощью YouTube Dataviewer. Сервис находит копии видео и связанные с ним миниатюры, что позволяет отследить оригинальный экземпляр ролика.

Плагин проверки InVID ведет обратный поиск, анализирует ключевые кадры, проверяет авторские права на видео и делает многое другое. Универсальный инструмент для профессионалов!

Хотите погрузиться в тему фейков глубже? Рекомендуем Справочник по верификации от Европейского центра журналистики.

Сможете назвать сколько стоят рекламные ролики? Пройдите тест и узнайте насколько точно вы можете оценить бюджет видео роликов. В качестве бонуса вы получите каталог на мировые видео с их посчитанными бюджетами.

19 примеров дипфейков, которые напугали и позабавили интернет

(Изображение предоставлено Шамуком)

Лучшие примеры дипфейков за последние несколько лет показывают, насколько сильно продвинулась эта иногда пугающая технология. Многие ранние примеры имели явное ощущение зловещей долины, которое делало очевидным, что что-то не так. Однако технология развивалась, и некоторые более поздние творения выглядят гораздо более убедительно.

В обоих случаях лучшие дипфейки могут развлечь, удивить, а иногда и напугать. Большинство примеров дипфейков безвредны: они используются для пародийного обучения и даже в основных средствах массовой информации, таких как фильмы. Однако были примеры дипфейков, используемых в злонамеренных целях. Ниже мы поделимся некоторыми из наиболее заметных примеров того и другого за последние несколько лет.

Лучшие примеры дипфейков

В этой статье мы рассмотрим самые лучшие примеры дипфейков, которые в последние годы вызывали у нас удивление, удивление и ужас. Если вы хотите узнать больше о самих дипфейках и о том, как они создаются, у нас есть удобный раздел вопросов внизу, который углубляется в технологию, стоящую за ними. Если вас интересует более широкое явление искусства, созданного ИИ, ознакомьтесь с нашим руководством о том, как использовать DALL-E 2 и сравнить лучшие генераторы искусства ИИ.

01. Человек-паук: Домой нет пути, но это Тоби Магуайр

У каждого есть любимый актер Человека-паука, и если вам больше всего нравится Тоби Магуайр, вам понравится именно этот монтаж. Популярный создатель дипфейков Шамук (открывается в новой вкладке) взял трейлер «Человека-паука: Дому нет» и заменил лицо Тома Холланда оригинальным пауком, Тоби Магуайром. Это едва уловимый эффект, но выполненный блестяще, так что едва ли можно сказать, что произошли какие-то изменения.

Такое редактирование заставляет задуматься о том, как может выглядеть будущее кино с использованием этой технологии. Представьте, что вы можете выбрать любимого актера на главную роль в фильме, который вы смотрите. Дикий.

02. «Сияние» с Джимом Керри в главной роли

Причудливые кроссоверы фильмов и актеров популярны среди создателей дипфейков; вы можете найти множество из них на YouTube (включая вышеупомянутый мэшап Jerry Seinfield и Pulp Fiction). В этом ужасно хорошем монтаже Джим Керри берет на себя роль Джека Торренса в серии видеороликов, демонстрирующих самые важные моменты из фильма 1980 года «Сияние». Это пугающе убедительно и заставляет нас хотеть увидеть Джима Керри в фильме ужасов. Его преувеличенное выражение лица было бы идеальным.

Если вы хотите увидеть лучшее сравнение редактирования Deepfake с оригиналом, создатели Ctrl Shift Face загрузили до и после преобразования Джека в Джимми. (открывается в новой вкладке)

03. Джерри Сайнфелд в «Криминальном чтиве»

Это веселое и прекрасно выполненное творение видит DesiFakes (открывается в новой вкладке) помещает Джерри Сайнфелда в одну из самых известных сцен «Криминального чтива», и это работает фантастически. Редактирование звука здесь так же важно, как и визуальные эффекты, с идеальной синхронизацией вплоть до неуместного консервированного смеха, звона и титров. Выражение лица могло прийти прямо из эпизода Seinfeld. Именно для таких вещей и были созданы дипфейки.

04. Дипфейк Тома Круза на TikTok

@deeptomcruise (откроется в новой вкладке)

Держите руки в чистоте.

♬ оригинальный звук — Том (открывается в новой вкладке)

За последние годы дипфейки зашли так далеко, что теперь есть учетная запись TikTok, полностью посвященная дипфейкам Тома Круза. В видео @deeptomcruise (открывается в новой вкладке) все еще есть намек на сверхъестественную долину, но его мастерство актерского голоса и манеры наряду с использованием быстро развивающихся технологий привело к одним из самых убедительных примеров дипфейков.

На видео видно, как Круз делает все, от игры в гольф до демонстрации фокуса, даже в повседневных ситуациях, например, моет руки. Описание учетной записи TikTok просто гласит: «Пародия. Тоже моложе».

05. Дипфейк Киану Ривза в TikTok

@unreal_keanu (откроется в новой вкладке) ♬ оригинальный звук — Unreal Keanu Reeves

Круз — не единственная фальшивая знаменитость, у которой есть свои поклонники в TikTok. С тех пор к нему присоединились на платформе дипфейк Киану Ривз и многие другие. У Unreal_Keanu (открывается в новой вкладке) невероятные 7,4 миллиона подписчиков, которым, кажется, нравятся отсылки к его фильмам, его танцам (это TikTok) и шутки о жизни с партнером.

Как и в случае с Крузом выше, этот конкретный дипфейк-знаменитость используется для смеха, а не выдается за настоящего. Но, несмотря на юмор, это показывает риски, которые дипфейки представляют для знаменитостей. С одной стороны, технология может позволить знаменитостям продавать свой имидж брендам, не утруждая себя съемкой ролика или фотосессией.

Но, с другой стороны, уже были сообщения о недобросовестных брендах, использующих дипфейки для продвижения своей продукции без разрешения знаменитостей.

06. Ведущий новостей из Кореи Ким Чжу-Ха

Многие примеры дипфейков представляют собой забавные пародии или эксперименты, предназначенные для проверки пределов возможностей технологии глубокого обучения. Тем не менее, пожалуй, самый главный признак того, что дипфейки могут стать частью повседневных средств массовой информации, появился в конце прошлого года, когда корейский телеканал MBN представил зрителям дипфейк собственного ведущего новостей Ким Чжу-Ха.

Канал заранее предупредил зрителей, что читатель новостей будет поддельным, а у Ким Чжу-Ха все еще есть работа. Тем не менее, MBN заявил, что планирует продолжать использовать дипфейк для некоторых экстренных новостных сообщений, а компания, стоящая за дипфейком, южнокорейская DeepBrain AI (открывается в новой вкладке) (ранее известная как Moneybrain), заявила, что ищет покупателей медиа в Китая и США, что заставляет некоторых опасаться, что программы для чтения новостей могут устареть.

07. Чудо-женщина

Ремейки и перезагрузки продолжают оставаться важной частью современного кинематографа. Всякий раз, когда новых актеров берут на классические роли, неизбежно делаются сравнения между разными образами. Технология дипфейков позволила людям сделать еще один шаг в этих сравнениях, поставив одного актера на место другого в последовательности, выделив сходства и различия, за которыми невероятно интересно наблюдать.

Этот пример от DeepFaker помещает актрису Линду Картер из классического телесериала 70-х «Чудо-женщина» в переосмысленный мир и костюм «Чудо-женщины» Галь Гадот на большом экране — с захватывающими дух результатами.

08. Дипфейк Snoop Dogg Doggy Dog чтения Таро

Предсказания по телефону раньше доминировали в ночном телевидении во многих местах, когда зрители звонили по телефону, чтобы узнать свое будущее от очень сомнительных экстрасенсов. Это был теневой бизнес, поэтому он кажется скорее приложением для лечения дипфейков, и кто может лучше сыграть в нем главную роль, чем гангста-рэпер с Западного побережья Снуп Догг. Этот веселый дипфейк — работа Брайана Монарха.

09. Круглый стол Deepfake

В сфере развлечений прямо сейчас происходит сейсмический сдвиг, поскольку потоковые сервисы, такие как Netflix, борются за внимание с большим экраном. Имея это в виду, Collider собрал этот веселый дипфейк с супер узнаваемыми лицами Тома Круза, Роберта Дауни-младшего, Джорджа Лукаса, Юэна МакГрегора и Джеффа Голдблюма, обсуждающих потоковое вещание и будущее кино. Это наш любимый ролик не только потому, что он невероятно убедителен, но и потому, что это очень забавное видео. Как выразился один комментатор, это «ужасно хорошо».

10. Мандалорец Люк Скайуокер, дипфейк

Фэндом «Звездных войн» взорвался при виде Люка Скайуокера в финале второго сезона «Мандалорца». Однако, как только космическая пыль наконец улеглась, зрители поспешили указать на то, что они считали недостатками в цифровом воссоздании молодого Марка Хэмилла. В очередной раз ютубер Shamook (открывается в новой вкладке) попытался создать дипфейк Люка Скайуокера эпохи Возвращения джедая с очень впечатляющими результатами.

На самом деле, позже было подтверждено, что Шамук был нанят не кем иным, как Industrial Light and Magic, легендарной компанией визуальных эффектов, которая помогает оживить галактику Звездных войн. Технология дипфейков сейчас используется для формирования далекой-далекой галактики.

11. Дональд Трамп присоединяется к сериалу «Во все тяжкие»

В этом видео взята сцена из мегапопулярного сериала «Во все тяжкие», и Дональд Трамп представлен в роли мошенника-адвоката Сола Гудмана. В этой сцене Гудман объясняет основы отмывания денег Джесси Пинкману, которого в сериале играет Аарон Пол. Чтобы добавить немного реализма, зять Дональда Трампа, Джаред Кушнер, сфальсифицированный с помощью дипфейка, берет на себя роль Пола, делая пародию почти личной по душам.

Создатели YouTube Ctrl Shift Face , создатели пародии, использовали DeepFaceLab для покадрового создания лиц Трампа и Кушнера. Голоса, завершающие сцену, были предоставлены Stable Voices (открывается в новой вкладке), пользовательской модели искусственного интеллекта, которая обучается на образцах реальной речи.

Дональд Трамп, должно быть, один из тех, кто чаще всего подвергался дипфейкам, часто с очень забавными результатами. На самом деле создатели «Южного парка» изначально планировали сделать из своего «Дерзкого правосудия» целый фильм (см. ниже). Deep Fake: The Movie, похоже, в настоящее время приостановлен, но это пример того, как он может выглядеть.

12. Объявление государственной службы Обамы

Многие из наиболее убедительных примеров дипфейков были созданы с помощью имитаторов, которые имитируют голос и жесты источника, как это видео, созданное BuzzFeed и комиком Джорданом Пилом с использованием After Effects CC и FakeApp. . Рот Пила был наклеен на рот Обамы, заменив линию подбородка бывшего президента той, которая следовала за движениями рта Пила. Затем FakeApp использовался для уточнения отснятого материала в течение более чем 50 часов автоматической обработки.

Политики и знаменитости часто становятся объектами дипфейков. Менее чем за год до этого видео компьютерщики из Вашингтонского университета использовали искусственный интеллект нейронной сети, чтобы смоделировать форму рта Обамы и синхронизировать его губы с аудиовходом (откроется в новой вкладке).

Высокопоставленные личности являются идеальными источниками для дипфейкинга, потому что их публичные профили содержат множество исходных материалов для обучения ИИ, но с учетом того количества селфи, которое средний человек делает за всю жизнь, и быстрого технического прогресса, возможно, скоро кто-нибудь можно использовать как источник.

13. Цукерберг говорит откровенно

[НОВЫЙ ВЫПУСК] «Хотел бы я…» (2019) Марк Цукерберг, основатель @facebook, раскрывает «правду» о конфиденциальности на #facebook . Это произведение является частью серии созданных искусственным интеллектом видеоработ, созданных для «Спектра» — захватывающего исследования индустрии цифрового влияния, технологий и демократии. [ссылка в био]. Искусство Билла Постера и @danielhau для @sheffdocfest @sitegallery #artnotmisinformation #thefutureisntprivate #deepfakes #deepfake #spectreknows #surveillancecapitalism #privacy #democracy #dataism #contemporaryartwork #digitalart #generativeart #newmediaart #codeart #markzuckerberg #artivism #contemporaryart Bill Posters (opens в новой вкладке)

Фотография, опубликованная @bill_posters_uk 13 июня 2019 года в 5:18 утра по тихоокеанскому времени

В ответ на отказ Facebook удалить поддельное видео с Нэнси Пелоси, художник Билл Постерс опубликовал этот дипфейк в принадлежащем Facebook Instagram, на котором изображен Марк Цукерберг. хвастаться тем, как платформа «владеет» своими пользователями. Будет ли Facebook реагировать по-другому, когда его основателем манипулируют?

Изначально этот фильм был частью фильма «Спектр» от студии Posters и Дэниела Хоу, который был заказан для Sheffield Doc Fest, чтобы привлечь внимание к тому, как люди могут манипулировать людьми с помощью социальных сетей. Он был сделан с использованием программного обеспечения VDR (замена видеодиалога) израильского стартапа Canny AI, которое продвигается с помощью дипфейкового пения с участием различных мировых лидеров.

Instagram не удалил видео Цукерберга, но сказал, что будет «относиться к этому контенту так же, как мы относимся ко всей дезинформации в Instagram. Если сторонние средства проверки фактов отметят это как ложное, мы его отфильтруем». Плакаты отметили это хэштегом #deepfake. В то время как видео достаточно убедительно без звука, голос выдает это, показывая, что хороший актер все еще нужен для создания правдоподобных примеров дипфейков (хотя синтез голоса ИИ продвигается семимильными шагами, так что, возможно, ненадолго).

14. Дональд Трамп читает лекции Бельгии

Снова Трамп! Это старое видео, но оно примечательно тем, что стало первым примером того, как политическая партия использовала дипфейк. Бельгийская Socialistische Partij Anders (sp.a) опубликовала это видео на Facebook еще в мае 2018 года, на котором Трамп насмехается над Бельгией за то, что она осталась в Париже. климатическое соглашение. С прической Трампа, выглядящей еще более странно, чем обычно, и грубым движением рта, это явно фальшивка, и голос за кадром говорит об этом, хотя последняя фраза «Мы все знаем, что изменение климата фальшиво, как и это видео», не соответствует действительности. t с субтитрами на фламандском языке, но этого все же было достаточно, чтобы спровоцировать одного пользователя на комментарий «Трампи нужно взглянуть на свою страну с ее сумасшедшими детоубийцами», и для sp.a, чтобы уточнить, что это фальшивка.

Более убедительный образ Трампа (ниже) позже был создан ютубером Derpfakes, который обучил DeepFaceLab сопоставить изображение лица Трампа с изображением Алека Болдуина в субботу вечером в прямом эфире, чтобы показать, как далеко продвинулась технология за год. Видео было заблокировано в США и Канаде.

15. Deepfake Dove’s Toxic Advice

Вот пример дипфейков, используемых крупным брендом в маркетинговой кампании с позитивной миссией. Dove использовала технологию дипфейка, чтобы вкладывать в уста матерей девочек-подростков очень маловероятные советы, цель которых заключалась в том, чтобы повысить осведомленность о негативном влиянии многих опасных советов о «красоте», которыми делятся влиятельные лица в приложениях для социальных сетей. В видео кампании участники сидят с открытыми ртами, явно напуганные искаженными советами, которые дают их мамы. Объявление под названием «Токсичное влияние» было создано Огилви.

16. Ян Ми путешествует во времени

Еще в 2019 году видео с изображением лица Ян Ми, одного из самых известных современных актеров Китая, в гонконгской телевизионной драме 1983 года «Легенда о героях-кондорах» стало вирусным и набрало популярность. a сообщил о 240 миллионах просмотров, прежде чем он был удален китайскими властями.

Его создатель, фанат Ян Ми, принес извинения на сайте микроблогов Weibo и сказал, что снял видео в качестве предупреждения, чтобы повысить осведомленность об этой технологии. На самом деле мы видим множество возможных применений дипфейков в кино- и телеиндустрии. Также можно увидеть, как индустрия может в конечном итоге принять эту технологию и превратить ее в прибыль, позволяя зрителям играть режиссера в домашних релизах, манипулируя диалогами, включая альтернативные сцены или даже вставляя себя в качестве персонажей. Мы не удивимся, если увидим много видеоигр с участием знаменитостей.

17. Сальвадор Дали возвращается к жизни

Агентство GS&P провернуло захватывающий трюк, который оценил бы любитель рекламы Дали, когда они воскресили каталонского художника в качестве харизматичного хозяина в Музее Дали (открывается в новом вкладка) во Флориде. Объявленный как «искусство встречается с искусственным интеллектом», Dalí Lives был создан путем извлечения более 6000 кадров из старых видеоинтервью и обработки их через 1000 часов машинного обучения, прежде чем наложить исходный код на лицо актера. Текст состоял из цитат из интервью и писем с новыми комментариями, призванными помочь посетителям сопереживать художнику и относиться к его творчеству.

Новизна этого примера дипфейка заключается в его интерактивности. В общей сложности 45 минут отснятого материала, разделенного на 125 видеороликов, позволяют использовать более 190 000 возможных комбинаций в зависимости от ответов посетителей и даже включают комментарии о погоде. Он заканчивается тем, что Дали оборачивается и делает селфи со своей аудиторией. Дали утверждал, что маловероятно, что он когда-либо умрет, и, возможно, он был прав, потому что недавно (открывается в новой вкладке) лаборатория искусственного интеллекта Samsung в Москве оживила его во второй раз, на этот раз путем обучения искусственного интеллекта на важных чертах лица всего лишь горстка изображений, а не обычные тысячи.

18. Глубокий фейк Владимира Зеленского

Глубокий фейк президента Украины Владимира Зеленского, призывающего своих солдат сложить оружие, был загружен сегодня на взломанный украинский новостной сайт, согласно @Shayan86 pic. twitter.com/tXLrYECGY4, 16 марта. 2022

Подробнее

К счастью, большинство известных примеров дипфейков в Интернете четко помечены как фальшивые и не предназначены для того, чтобы кого-то обмануть. Их обычно разыгрывают для смеха, например, Николас Кейдж появляется в каждом когда-либо снятом фильме, или, в худшем случае, для грязных фантазий (дипфейковое порно со знаменитостями, благодаря которому технология впервые прижилась, было запрещено). Но были случаи, когда люди использовали дипфейки в гнусных целях и пытались выдать их за настоящие.

Этот пугающий пример был показан на взломанном украинском телеканале всего через месяц после вторжения России в страну. На нем изображен президент Украины Владимир Зеленский, отдающий приказ войскам страны сдаться России. Хотя качество низкое и выглядит не очень убедительно, это пример того, почему люди так обеспокоены тем, что дипфейки могут быть использованы для распространения фейковых новостей.

19.

Билл Хейдер превращается в Пачино и Шварценеггера

Если в основе убедительного дипфейка лежит отличное подражание, то это видео актера и комика Билла Хейдера, превращающегося в голливудских легенд Аль Пачино и Арнольда Шварценеггера, не может не пройти. Хотя команда Ctrl Shift Face не пытается никого обмануть этим видео, они демонстрируют, насколько важно иметь актера, который может уловить манеры вашего источника. Тонкое превращение лица Хадера в лицо Пачино, а затем Шварценеггера немного пугает и совершенно уморительно.

Что такое дипфейки?

Дипфейки получили свое название от того факта, что они используют технологию глубокого обучения для создания поддельных видео. Технология глубокого обучения — это разновидность машинного обучения, которая применяет моделирование нейронной сети к массивным наборам данных. Искусственный интеллект (ИИ) эффективно изучает, как выглядит конкретное лицо под разными углами, чтобы перенести лицо на цель, как если бы это была маска.

Огромные успехи были достигнуты благодаря использованию генеративно-состязательных сетей (GANS) для противопоставления двух алгоритмов ИИ друг другу, один из которых создает подделку, а другой оценивает его усилия, обучая механизм синтеза создавать более качественные подделки.

В последние годы Голливуд успешно переносил настоящие или вымышленные лица на других актеров, например, вернув к жизни Питера Кушинга в 2016 году в фильме «Изгой-один: Звездные войны. Доступные программные инструменты, такие как FakeApp (открывается в новой вкладке) и DeepFaceLab (открывается в новой вкладке), с тех пор сделали технологию дипфейка доступной для всех.

Технология, лежащая в основе дипфейков, предлагает множество интересных возможностей для различных творческих сфер: от дублирования и восстановления видео до решения эффекта «зловещей долины» персонажей компьютерной графики в фильмах и видеоиграх, избавления актеров от необходимости повторять небрежную реплику и создания приложений, которые позволяют нам попробовать новую одежду и прически.

Эта технология даже используется для создания корпоративных обучающих видеороликов и обучения врачей. Однако по-прежнему преобладает опасение, что технология может быть использована в зловещих целях. Если вы хотите глубже разобраться в этих проблемах, ознакомьтесь с нашей статьей об этике цифровых людей.

Как отличить дипфейк?

С ростом опасений, что убедительные дипфейки могут быть использованы в преступных целях или для обмана целых групп населения, многие люди неизбежно задаются вопросом, как можно обнаружить дипфейки. Существуют организации, которые работают над подтверждением подлинности видео и изображений, размещенных в Интернете, с использованием различных методов, но если вы когда-нибудь обнаружите, что разговариваете по видеосвязи с кем-то, кто, как вы подозреваете, может быть ненастоящим, хорошей идеей будет попросить человека обратиться к сторона.

Это работает, потому что программное обеспечение, используемое для оценки поз лица для дипфейковых видео, не слишком хорошо справляется с острыми углами и назначает больше ориентиров передней части лица, чем сбоку.

В большинстве случаев в профиле также меньше изображений людей, а это означает, что у них меньше примеров изображений для обучения.

Читать далее:

  • Лучшие мониторы для редактирования фотографий
  • Лучшие ноутбуки для редактирования видео: вам нужен правильный комплект, чтобы поднять отснятый материал на новый уровень
  • Первое изображение искусственного интеллекта, защищенное авторским правом, невероятно похоже на Zendaya

Спасибо, что прочитали 5 статей в этом месяце* Присоединяйтесь сейчас, чтобы получить неограниченный доступ

Наслаждайтесь первым месяцем всего за 1 фунт стерлингов / 1 доллар США / 1 евро

У вас уже есть аккаунт? Войдите здесь

*Читайте 5 бесплатных статей в месяц без подписки

Присоединяйтесь и получите неограниченный доступ

Попробуйте первый месяц всего за £1 / $1 / €1

У вас уже есть аккаунт? Войдите здесь

Джо — постоянный журналист-фрилансер и редактор Creative Bloq. Он пишет новости и статьи, обновляет руководства по покупке и отслеживает лучшее оборудование для творчества, от мониторов до аксессуаров и канцелярских товаров. Писатель и переводчик, он также работает менеджером проектов в расположенном в Лондоне и Буэнос-Айресе агентстве дизайна и брендинга Hermana Creatives, где он руководит командой дизайнеров, фотографов и видеоредакторов, которые специализируются на производстве фотографий, видеоконтента, графического дизайна и обеспечение для гостиничного сектора. Он увлекается фотографией, особенно фотографией природы, велнесом и танцует аргентинское танго.

Это настоящее видео?

Подделанное видео повсюду. В конце концов, наши любимые фильмы и телепередачи постоянно используют монтаж и компьютерные изображения для создания фантастических сцен. Ситуация усложняется, когда поддельные видео представляются как точные изображения реальных событий. Существует два основных вида обмана:

  • Дешевые подделки: это видео, измененные с помощью классических инструментов редактирования видео, таких как редактирование дубляжа, ускорение или замедление или объединение разных сцен для изменения контекста.
  • Deepfakes: это видео, которые изменены или сгенерированы с использованием искусственного интеллекта, нейронных сетей и машинного обучения.

В прошлом году в Интернете было распространено видео со спикером Палаты представителей Нэнси Пелоси, которое было замедлено, из-за чего казалось, что она находится в состоянии алкогольного опьянения.

Эдвард Дж. Дельп, профессор Школы электротехники и вычислительной техники Университета Пердью, 25 лет изучает судебную экспертизу средств массовой информации. Он говорит, что более широкий доступ к программному обеспечению искусственного интеллекта и расширенным инструментам редактирования означает, что почти каждый может создавать поддельный контент. И не нужно быть изощренным, чтобы быть эффективным.

Эдвард. Дж. Дельп, профессор электротехники и вычислительной техники, Университет Пердью

«Люди будут покупать вещи, которые укрепляют их нынешние убеждения», — говорит он. «Поэтому они поверят даже плохо обработанному видео, если оно о ком-то, кто им не нравится или о ком они думают определенным образом».

Команда Delp разрабатывает способы обнаружения поддельных видео. Вот несколько его советов по обнаружению дешевых и дипфейков, скрывающихся в ваших лентах социальных сетей:

Сосредоточьтесь на естественных деталях

«Посмотрите на человека на видео и посмотрите, не моргают ли его глаза как-то странно», — говорит Дельп. Технология, используемая для создания дипфейковых видео, с трудом воспроизводит естественные модели моргания и движения из-за того, как системы обучены.

«Кроме того, наблюдая за движением их головы, вы сможете увидеть, есть ли неестественные движения». Это может свидетельствовать о том, что видео и звук не синхронизированы или что в части видео были внесены временные исправления.

Убедитесь, что все соответствует

«Если это выстрел в голову и плечи, посмотрите на их голову и тело и на то, что позади них», — говорит он. «Это совпадает или между ними есть странные отношения?» Дополнительно: кажется, что освещение выключено? Кажется ли человек или какой-то аспект сцены «наклеенным»? Им можно было манипулировать.

Прислушайтесь к подсказкам

Видео Пелоси «воспроизводилось с немного более низкой частотой кадров», объясняет Дельп. «Проблема в том, что звуковая дорожка также замедлялась». Так что не только ее речь была медленной, но и другие звуки в видео тоже. Это намек на то, что что-то не так.

Проверка метаданных

Это более сложная стратегия, которую использует команда Delp, и она может быть включена в программное обеспечение для обнаружения, которое в будущем будет использоваться, скажем, в средствах массовой информации. «Эти встроенные данные сообщают вам больше об изображении или видео, например, когда оно было снято и в каком формате», — говорит Делп. Эти данные, своего рода черный ящик, могут дать ключ к любым манипуляциям.

Проверьте свои знания

Нажмите на видео, которое, по вашему мнению, было изменено. (Примечание: в этом отрывке нет звука.)

или

Авторы и права: Стэнфордский университет/Майкл Золлхёфер

Исследователи из Вашингтонского университета взяли аудиозапись речи бывшего президента Барака Обамы, а затем использовали видео из отдельной речи Обамы, чтобы создать реалистичное, синхронизированное с движением губ видео, на котором Обама произносит первая речь. Другими словами, они изменили то, как двигался его рот. Посмотрите, как его челюсть, подбородок и нижняя половина рта неестественно двигаются в измененной версии.

Если у вас есть смартфон или вы когда-либо разговаривали с виртуальным помощником по телефону, вы, вероятно, уже взаимодействовали с управляемыми аудиоголосами. Но, как и поддельное видео, поддельный звук стал очень сложным благодаря искусственному интеллекту — и он может быть столь же разрушительным.

Виджай Баласубраманьян — генеральный директор и соучредитель Pindrop, компании, которая создает решения для защиты от вреда, который может нанести поддельный звук. Он говорит, что манипулирование звуком является основой для многих мошеннических действий, которые могут разрушить жизнь людей и даже скомпрометировать крупные компании. «Каждый год мы видим около 470 миллионов долларов убытков от мошенничества, в том числе от банковских переводов и телефонного мошенничества. Это огромные масштабы», — говорит он.

Виджай Баласубраманьян, генеральный директор и соучредитель Pindrop Security

В то время как некоторые из них основаны на основных приемах, подобных дешевым поддельным видео — манипулированию высотой звука, чтобы звучать как другой пол, или вставке наводящих на размышления фоновых шумов — Баласубраманьян говорит, что прогон чьего-то голоса через несколько часов с помощью программного обеспечения ИИ может дать вам достаточно данных для манипулирования голосом. чтобы сказать все, что вы хотите. А звук может быть настолько реалистичным, что человеческому уху трудно уловить разницу.

Однако это не невозможно. Когда вы прослушиваете обработанный звук, обратите внимание на следующее:

Прислушайтесь к нытью

«Если у вас недостаточно звука, чтобы заполнить все различные звуки чьего-либо голоса, результат будет звучать более плаксивы, чем люди», — говорит Баласубраманьян. Причина, объясняет он, в том, что программам искусственного интеллекта трудно отличить общий шум от речи в записи. «Машина не знает ничего другого, поэтому весь этот шум упакован как часть голоса».

Обратите внимание на синхронизацию

«Когда вы записываете звук, каждая секунда анализируемого звука дает от 8000 до 40 000 точек данных для вашего голоса», — говорит Баласубраманьян. «Но то, что собираются сделать некоторые алгоритмы, — это просто заставить созданный голос звучать похоже, не обязательно следовать человеческой модели воспроизведения речи. Поэтому, если голос говорит «Привет, Пол», вы можете заметить, что скорость перехода от «Привет» к «Пол» была слишком быстрой».

Обратите внимание на глухие согласные

Произнесите звук «т» ртом, как будто вы начинаете произносить слово «скажи». Теперь произнесите звук «м», как будто вы собираетесь сказать «мама». Вы замечаете разницу? Некоторые согласные звуки, такие как т, ф и с, можно произносить без помощи голоса. Они называются глухими согласными или, в мире аудиокриминалистики, фрикативами. «Когда вы произносите эти фрикативные звуки, такой звук очень похож на шум», — говорит Баласубраманьян. «У них другие характеристики, чем у других частей вокальной речи, и машины не очень хорошо их воспроизводят».

Как это звучит

Послушайте этот измененный звук. Обратите внимание на скорость слов и расположение согласных, а также на то, как они звучат в отличие от естественной речи.

Слушать

Авторы и права: Pindrop Security

Искусственный интеллект может создавать целых людей из воздуха, используя технологии глубокого обучения, подобные тем, которые используются в сложных аудио- и видеоподделках. По сути, программа получает тысячи и тысячи версий чего-либо — в данном случае человеческих лиц — и «учится», как это воспроизводить. StyleGAN — одна из таких программ, и это искусственный мозг, стоящий за ThisPersonDoesNotExist, веб-сайтом, запущенным инженером-программистом Филиппом Вангом, который случайным образом генерирует поддельные лица.

Эта технология может быть легко использована в качестве основы для фальшивых онлайн-профилей и персонажей, которые могут быть встроены в целые фальшивые сети и компании для целей крупномасштабного обмана.

«Я думаю, что те, кто не знает об этой технологии, наиболее уязвимы, — сказал Ван CNN в 2019 году. — Это похоже на фишинг — если вы не знаете об этом, вы можете попасться на эту удочку».

Поддельные лица на самом деле легче обнаружить, чем поддельные видео или аудио, если вы знаете, что ищете. Вирусный твит от Бена Ниммо, лингвиста и эксперта по безопасности, подробно описывает некоторые из наиболее очевидных подсказок с использованием поддельных лиц ниже.

Изучите аксессуары, такие как очки и украшения

«Человеческие лица склонны [к] асимметрии», — пишет Ниммо. — Очки, не так уж и много. Такие вещи, как очки и серьги, могут не совпадать с одной стороны лица на другой или могут странно деформироваться на лице. Такие вещи, как шляпы, могут сливаться с волосами и фоном. Предоставлено: thispersondoesnotexist.com/Nvidia

Взгляд за лицо

«Фоны еще сложнее, потому что в пейзажах больше вариаций, чем в лицах», — пишет Ниммо. Деревья, здания и даже края других «лиц» (если снимок представляет собой обрезанное групповое фото) могут искажаться или повторяться совершенно неестественным образом. То же самое касается волос — может быть неясно, где заканчиваются волосы и начинается фон, или общая структура волос может выглядеть неправильно. Фото: thispersondoesnotexist.com/Nvidia

Сосредоточьтесь на ушах и зубах

Зубы и уши кажутся простыми на расстоянии, но вблизи они представляют собой совершенно неправильные структуры. Подобно проблеме симметрии с очками и украшениями, у программы ИИ могут возникнуть проблемы с предсказанием количества и формы зубов или неправильных завитков уха. Зубы могут дублироваться, перекрываться или исчезать по бокам рта. Внутренняя часть уха может выглядеть размытой, или уши могут выглядеть крайне несоответствующими друг другу. Кредит: thispersondoesnotexist.com/Nvidia

Конечно, советы по обнаружению манипулируемых СМИ работают только в том случае, если что-то в СМИ — или реакция на них — вызывает у вас подозрения. Развитие здорового скептицизма и аналитических способностей, позволяющих обнаружить эти манипуляции, — это работа не для ваших глаз или ушей, а для вашего чувства суждения. Повышение уровня вашей медийной грамотности может помочь вам понять, когда какая-то новость кажется подозрительной, и помочь вам предпринять шаги, чтобы подтвердить или опровергнуть ее.

Тереза ​​Джарруссо обучает медийной грамотности учителей, студентов и пожилых людей по всей стране. Она говорит, что для развития медиаграмотности необходимы разные сильные стороны.

Тереза ​​Джарруссо, педагог по медиаграмотности и эксперт

«Я обнаружил, что у взрослых есть навыки критического мышления и история, чтобы обнаруживать дезинформацию, но они не являются цифровыми аборигенами. У них нет цифровых навыков», — говорит она. «Подростки обладают цифровыми и техническими навыками, но не скептицизмом и критическим мышлением».

Джарруссо выделяет пять различных типов дезинформации:

  • Манипулятивные медиа: Photoshop, отредактированные «дешевые фейки» и некоторые дипфейки.
  • Сфабрикованные носители: сгенерированные носители, такие как поддельные лица и некоторые дипфейки.
  • Ложный контекст: когда фотография, фрагмент видео или даже целое событие вырваны из контента и присоединены к другому повествованию.
  • СМИ-самозванцы: когда кто-то выдает себя за авторитетного источника новостей или выдает себя за источник новостей.
  • Сатира: Дезинформация, сознательно созданная с целью развлечения или комментирования.

Когда вы сталкиваетесь с сомнительной информацией, будь то опубликованная в Facebook возмущенным родственником или разжигающая разногласия среди политиков в Twitter, у Джарруссо есть несколько советов, как проверить или опровергнуть ее:

Проверить несколько источников

Это известен как метод бокового чтения. «Вот как люди должны исследовать, и как исследуют фактчекеры», — говорит Гиарруссо. «Открывайте вкладки и сравнивайте и сопоставляйте. Загляните в источник, а потом в автора. Если это публикация, о которой вы не знаете, узнайте, надежен ли сайт. Сообщается ли информация где-либо еще, и если да, то как?» она сказала. «Это не поможет вам получить информацию о плохом актере от плохого актера. Вы должны узнать, что говорят другие люди».

Практикуйте метод SIFT

Этот метод, по словам Джарруссо, разработан Майком Колфилдом из Университета Торонто. Шаги следующие:

СТОП: «Не ставьте лайки, не комментируйте и не делитесь, пока не проверите», — говорит Джарруссо. «Часть хорошей дезинформации заключается в том, что она вызывает эмоциональный отклик. Он пытается спровоцировать эмоциональную реакцию, чтобы вы в нее ввязались».

ИССЛЕДОВАНИЕ: Здесь вступает в действие навык бокового чтения.

НАЙТИ другое освещение: «Сообщают ли об этом другие люди, представлено ли оно таким же образом? У них другая точка зрения?» Джарруссо также предостерегает от циркулярных репортажей, когда все СМИ, сообщающие об истории, ведут к одному и тому же первоисточнику.

TRACE утверждает, цитирует и цитирует первоисточник: «Это самый большой шаг для дипфейков и дешевых фейков», — говорит она. «Мы не видеоредакторы и не фоторедакторы. Но если вы сможете найти оригинальную версию, вы сможете увидеть, есть ли изменения». Например, в случае с прошлогодним видео Пелоси, которое было замедлено, «если вы вернетесь к другим видео с этого события, это будет совершенно очевидно», — говорит она.

Что делает жизнь в мире поддельных и манипулируемых СМИ еще более запутанной, так это то, что такие творения не всегда используются во зло. Глубокие фейковые видео могут создавать уникальные впечатления для потребителей и, в случае с недавней рекламой телевизионного сервиса Hulu, позволяют знаменитостям представить свое лицо и голос в проекте, фактически не присутствуя там вообще. Звук, созданный искусственным интеллектом, может изменить жизнь людей, которые не могут говорить.

Эти технологии быстро развиваются во всех направлениях, поэтому наши методы их обнаружения и самозащиты тоже должны развиваться.

«Это гонка вооружений, — говорит Баласубраманьян. Он беспокоится о том, что может случиться, если кто-то с этой сложной технологией пойдет за крупным мировым лидером или в конечном итоге изобретет целое событие из воздуха.

«Мы должны продолжать развивать технологии и машины, чтобы оставаться впереди».

Так что на данный момент средний человек может не иметь сложных алгоритмов или многолетнего опыта в обнаружении поддельных медиа.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *