Лучше прячьте лицо - с помощью технологии дипфейк им могут воспользоваться кибермошенники

Например, поставить чужое лицо в запрещенное видео
Новая опасность в интернете
Фото: Автор: Александр Ратников, ИА PrimaMedia

6 мая 2021. Технология дипфейков улучшается постоянно, и ее предсказуемо начали использовать преступники. С ее помощью людей помещают в порно и могут подставить, а также манипулируют общественным мнением.

С помощью дипфейков получается заменить лицо другого человека на видео. Искусственный интеллект анализирует фотографии лиц и учится тому, как правильно двигается и выглядит тот или иной человек. Технология также позволяет изменять скорость голоса человека и даже его речь.

По словам генерального директора компании AnyClip, дипфейки представляют даже большую угрозу, чем фейковые новости: любой может убедительно вставить слова в чью-то речь.

Часто технологией пользуются вовсе не для безобидных развлечений. Так, китайским аферистам удалось два года подряд обманывать систему распознавания лиц и заработать на этом 76 миллионов долларов. 

Жительница Америки отомстила обидчицам своей дочери, разместив порно видео с их участием, полиция выяснила, что женщина создавала видео на основе фотографий из аккаунтов девушек в соцсетях и смонтировала их при помощи технологии дипфейков. 

У МВД России уже к 2022 году появится программа — разоблачитель дипфейков. Она будет называться "Зеркало (Верблюд)" и будет искать признаки внутрикадрового монтажа, которые сделали нейронные сети. Работы по исследованию завершатся 30 ноября следующего года, а контракт стоимостью 3,5 миллиона рублей заключили 4 марта, рассказывает 360tv.

Евгения Маркина

Смотрите полную версию на сайте >>>


Следующая новость