Технология дипфейков улучшается постоянно, и ее предсказуемо начали использовать преступники. С ее помощью людей помещают в порно и могут подставить, а также манипулируют общественным мнением.
С помощью дипфейков получается заменить лицо другого человека на видео. Искусственный интеллект анализирует фотографии лиц и учится тому, как правильно двигается и выглядит тот или иной человек. Технология также позволяет изменять скорость голоса человека и даже его речь.
По словам генерального директора компании AnyClip, дипфейки представляют даже большую угрозу, чем фейковые новости: любой может убедительно вставить слова в чью-то речь.
Часто технологией пользуются вовсе не для безобидных развлечений. Так, китайским аферистам удалось два года подряд обманывать систему распознавания лиц и заработать на этом 76 миллионов долларов.
Жительница Америки отомстила обидчицам своей дочери, разместив порно видео с их участием, полиция выяснила, что женщина создавала видео на основе фотографий из аккаунтов девушек в соцсетях и смонтировала их при помощи технологии дипфейков.
У МВД России уже к 2022 году появится программа — разоблачитель дипфейков. Она будет называться "Зеркало (Верблюд)" и будет искать признаки внутрикадрового монтажа, которые сделали нейронные сети. Работы по исследованию завершатся 30 ноября следующего года, а контракт стоимостью 3,5 миллиона рублей заключили 4 марта, рассказывает 360tv.
Евгения Маркина
В МВД сообщили, о чем нельзя говорить с мошенниками