Мошенники обманывают россиян "дипфейками" со знаменитостями

Эксперты компании "Инфосистемы Джет" предупредили о новом способе обмана в интернете, когда мошенники выманивают деньги у жертв, создавая убедительные видеоподделки с наложением лиц и голосов известных людей. По словам специалистов, это первые случаи, когда злоумышленники вооружились технологиями искусственного интеллекта для обмана пользователей.

Эксперты компании "Инфосистемы Джет" предупредили о новом способе обмана в интернете, когда мошенники выманивают деньги у жертв, создавая убедительные видеоподделки с наложением лиц и голосов известных людей. По словам специалистов, это первые случаи, когда злоумышленники вооружились технологиями искусственного интеллекта для обмана пользователей.

Создать фейковое видео с участием знаменитости довольно просто — нейросетевой алгоритм deepfakes для подмены лиц можно найти в свободном доступе. "Дипфейк" широко используется для создания реалистичных порнографических роликов с участием знаменитостей, в которых те никогда не снимались, или фальшивых выступлений крупных политических деятелей. Изображения лиц для наложения алгоритм берет в поиске по картинкам Google, а также в YouTube.

В одной из "разводок" россиян использовался образ шоумена Дмитрия Нагиева: на видео актер якобы обещает зрителям ценный приз или денежное вознаграждение за переход по ссылке, передает "Прайм". Однако вместо этого доверчивый пользователь попадает на сайт-обманку, где его просят перечислить средства.

"Спектр зловредного применения deep fake и подобных технологий очень широк: шантаж, дискредитация медийных персон и политических деятелей, нечестная конкуренция в бизнесе и политике", — сказала специалист по нейронным сетям "Инфосистемы Джет" Анна Олейкникова. По её словам, распознать подделку можно по ряду признаков: на фейк могут указывать неморгающие глаза, неестественное освещение, резкая смена качества картинки, появление странных шлейфов вокруг контура головы при резких движениях и так далее.