Мошенники с помощью ИИ начали создавать дипфейки родственников жертв

Читать Вести в MAX
Видео с дипфейками реальных людей – родственников или друзей жертвы – начали создавать злоумышленники с помощью искусственного интеллекта, следует из материалов МВД.

Так, аферисты с помощью нейросетей "оживляют" фотографии: создают видео, где воссоздана мимика, голос, жесты человека. Такой "аватар" обычно просит одолжить ему денег. Такое видео рассылается по контактам человека, изображенного на фото.

"Если однажды ваш родственник или товарищ пришлет видео и попросит занять деньги, то позвоните и поинтересуйтесь о целях платежа. Вероятно, его взломали преступники", – цитирует материалы министерства РИА Новости.

С 1 июня в России вступил в силу закон о защите граждан от мошенников. Он включает порядка 30 мер, которые вводятся поэтапно. Так, введен запрет на использование мессенджеров сотрудниками госорганов, банков и операторов связи при общении с клиентами. С 1 августа у россиян появилась возможность отказаться от смс-рассылок, а с 1 сентября они смогут отказаться от спам-звонков. С сентября россияне также смогут устанавливать через "Госуслуги" самозапрет на оформление сим-карт.