Microsoft представила инструмент для обнаружения дипфейков. Deepfake – это результат редактирования видео или фото с помощью искуственного интеллекта (AI). AI используется, чтобы:
- наложить на исходные фото и видео чужую голову, измененную аудиодорожку;
- синхронизировать мимику и липовую речь;
- приписать человеку совсем не то, что он говорил и т.д.
Делается это для того, чтобы выставить неугодного человека в неприглядном свете. Есть даже приложения для смартфона, которые позволяют с помощью селфи заменить лицо кинозвезды на лицо пользователя.
Microsoft для борьбы с дипфейками представила систему Video Authenticator, которая дополняет медиафайл скрытым уникальным кодом. Последующие изменения файла можно проследить благодаря этой метке. Человек не сможет без специального ПО заметить этот код.
Меткой может служить затухающие в особом порядке пиксели, пиксели в оттенках серого на границах лица человека и т.д.
В создании технологии использовались методы машинного обучения и набор данных из 1 тыс. поддельных видеоматериалов. Модель Microsoft протестировали на базе данных для замены лиц, созданной Facebook.
В компании выразили надежду, что существующий программный продукт поможет выявлять дипфейки перед ноябрьскими выборами президента в США.
Microsoft Video Authenticator не делится разработкой с профильными организациями, чтобы не было утечек данных. Злоумышленники могут получить код и обучить свои генераторы дипфейков обходу такой защиты. Но технологию поставили в стороннюю организацию, сотрудничающую с редакциями газет и телеканалов.
В Microsoft заявили, что пользователи смогут использовать программу чтения сертификатов и скрытых кодов в виде расширения браузера. Это позволит пользователям проверить, реальное ли видео или отредактированное со злым умыслом.