Как защититься от дипфейков

Как создают дипфейки
Для начала разберемся, как делают подобные видео. Чаще всего для создания дипфейков используют так называемые генеративно-состязательные сети (generative adversarial network, или GAN). Алгоритм GAN состоит из двух нейронных сетей, соревнующихся друг с другом. На этапе подготовки обе сети обучаются на реальных изображениях. После этого начинается состязательная часть: одна сеть генерирует картинки (она называется  генеративной ), а другая пытается определить, подлинные они или нет (эта сеть называется  дискриминативной ).
После этого обе сети учатся на полученных результатах и с каждым циклом все лучше справляются со своими задачами.
Спустя, скажем, миллион повторов генеративная сеть сможет создавать такие фейковые изображения, которые другая нейронная сеть с тем же уровнем развития будет не способна отличить от подлинных.
Вообще говоря, у этого метода много по-настоящему полезных применений. В зависимости от того, какие данные используются на этапе подготовки, генеративная сеть учится создавать определенные виды изображений.
В случае дипфейков алгоритм обучается на фотографиях настоящих людей. В результате создается сеть, способная генерировать неограниченное количество поддельных, но очень убедительно выглядящих изображений того или иного человека. Остается лишь склеить эти отдельные кадры в видео — и дипфейк готов. Аналогичные методы позволяют создавать фейковое аудио — судя по всему, этот способ обмана  уже используют онлайн-мошенники .
Насколько убедительными стали дипфейки
Поначалу большинство видеороликов с дипфейками выглядели просто смехотворно. Но за несколько лет технология развилась настолько, что они стали пугающе убедительными. Один из ярких примеров из 2018 года —  поддельное видео с Бараком Обамой , в котором он рассказал собственно о дипфейках и заодно бросил пару оскорблений в адрес действующего президента США. В середине 2019 года появилось  короткое видео с лже-Марком Цукербергом , который на удивление откровенно обрисовал текущее состояние дел с личными данными людей.
Ролик ниже демонстрирует, насколько совершенной стала технология. Его создали пародист Джим Мескимен (Jim Meskimen) и автор дипфейков под ником Sham00k. Первый занимался озвучкой, а второй использовал GAN, чтобы  встроить в видео лица 20 знаменитостей , которые постоянно сменяют друг друга по ходу видео. Результат поражает.

Как сам Sham00k упомянул в описании к другому ролику, где рассказал о создании упомянутого выше дипфейк-видео, «на его производство ушло более 250 часов, при этом было использовано 1200 часов отснятого материала и 300 тысяч изображений, а также создано около терабайта данных». Иными словами, такой контент — результат долгой и кропотливой работы. Однако если представить эффект, который столь убедительная дезинформация может оказать на рынки или на выборы, — оно того стоит.
По этой причине практически одновременно с публикацией приведенного выше видео на YouTube-канале Sham00k  в Калифорнии законодательно запретили распространение дипфейк-видео во время предвыборной кампании . Но с этим запретом связана пара проблем. Во-первых, дипфейк-видео — это форма самовыражения (наряду с политической сатирой, например), поэтому калифорнийское вето можно рассматривать как посягательство на свободу слова.
Во-вторых, даже если отвлечься от юридической стороны вопроса, есть еще одна проблема технического характера: как отличить дипфейк-видео от подлинного?
Как можно выявлять дипфейки
Ученые по всему миру сейчас увлечены технологиями машинного обучения, а проблема дипфейков выглядит достаточно сложной и интересной, чтобы заинтересовать многих из них. Поэтому выявлению дипфейков с помощью анализа изображений посвящено изрядное количество исследовательских проектов.
Например, в статье, опубликованной в июне 2018 года, рассказывается, как  анализ частоты морганий  может помочь выявлять поддельные видео. Идея в том, что в большинстве случаев в открытом доступе есть не так уж много фотографий человека в момент моргания, так что нейронной сети просто не на чем учиться генерировать подобные кадры. Отметим, что люди в дипфейк-видео, доступных на момент публикации статьи, действительно моргали неправдоподобно редко. И даже если это не слишком бросалось в глаза при обычном просмотре, компьютерный анализ выявлял подделку.
Авторы двух других работ, опубликованных в ноябре 2018 года, порекомендовали искать  артефакты искажения лица и несоответствия положений головы . В другой статье, за 2019-й, описана довольно сложная техника  анализа выражений лица и мимики , характерных для конкретного человека.
Однако, как заметила Миллер в своем выступлении, эти методы вряд ли окажутся успешными в долгосрочной перспективе. В конечном счете упомянутые исследования подсказывают создателям дипфейков, как улучшать дискриминативные сети, что, в свою очередь, приводит к более тщательному обучению генеративных сетей — и как следствие, повышает качество подделок.
Защита от дипфейков с помощью корпоративных коммуникаций
Пока представляется маловероятным, что проблему дипфейков решат чисто технологическими методами. Скорее всего, все сведется к гонке вооружений: интернет-компании будут создавать более совершенные алгоритмы для выявлений поддельных видео, а авторы дипфейков, в свою очередь, будут улучшать свои творения, чтобы обманывать эти алгоритмы. И так по кругу.
Однако можно использовать другой подход — в частности, снижать ущерб от информационной атаки на компании с помощью эффективных корпоративных коммуникаций. Для этого потребуется тщательно отслеживать публикуемые в Сети сведения, касающиеся вашей компании, и быть готовым контролировать ситуацию в случае дезинформации.
Ниже приведены предложения Алиссы Миллер, как подготовить компанию к тому, чтобы противостоять атаке с помощью дипфейков. Кстати, многие из этих предложений будут полезны и в случае других PR-катастроф:

минимизируйте число каналов коммуникаций компании;
организуйте согласованное распространение информации;
разработайте план реагирования на дезинформацию (по аналогии с  инцидентами безопасности );
организуйте централизованный мониторинг каналов и отчетность;
следите за новыми способами обнаружения дипфейков и методами борьбы с ними.

Источник

Top News