Профессор Воронцов призвал активнее просвещать граждан об угрозе дипфейков

Читать Вести в MAX
В России необходимо активнее проводить просветительскую деятельность о мошеннических возможностях ИИ, как например, дипфейки или подделка голоса, так как технологического противостояния пока не изобретено. Об этом в эфире телеканала "Россия 24" рассказал профессор РАН, профессор МФТИ и МГУ имени М.В. Ломоносова Константин Воронцов.

По словам ученого, распознать сгенерированный нейросетью голос человека поможет только "здравый смысл".

"Скорее всего, мы столкнемся с тем, что мы не сможем с хорошим качеством, надежностью распознавать поддельный голос. Соревнование щита и меча будет приводить к тому, что меч здесь все время будет опережать. <…> Нам нужно проводить разъяснительную работу, популяризировать, что ни видео, ни голос теперь не являются надежным свидетельством, что это личность человека", – заявил профессор Воронцов.

Ученый привел в пример актрису, голос которой мошенники украли из-за утечки данных. По его словам, карьера артистки была загублена, так как ее утверждением об "украденном голосе" никто не верил. Воронцов уверен, что только активная просветительская деятельность о возможностях ИИ поможет в противодействии мошенникам.

Также Воронцов уверен, что в России пора вводить кодекс этики для искусственного интеллекта, чтобы защитить граждан от мошенников.

Ранее в беседе с РИА Новости исполнительный директор компании MTS AI Дмитрий Марков заявил, что количество кибератак с использованием дипфейков в РФ может увеличиться в десятки тысяч раз за три года.