Facebook и Microsoft проведут конкурс на лучшую технологию выявления дипфейков

Компания Facebook (запрещена в РФ) выделит $10 миллионов на конкурс по выявлению дипфейков — поддельных видео, на которых алгоритмы искусственного интеллекта заменили лица из исходной записи на другие. В инициативе также участвуют Microsoft, Массачусетский технологический институт (MIT), Оксфордский университет и другие научно-исследовательские организации. Об этом сообщил в блоге техдиректор Facebook Майк Шрепфер.

Компания Facebook (запрещена в РФ) выделит $10 миллионов на конкурс по выявлению дипфейков — поддельных видео, на которых алгоритмы искусственного интеллекта заменили лица из исходной записи на другие. В инициативе также участвуют Microsoft, Массачусетский технологический институт (MIT), Оксфордский университет и другие научно-исследовательские организации. Об этом сообщил в блоге техдиректор Facebook Майк Шрепфер.

Шрепфер выразил обеспокоенность, что эксперты по ИИ тратят слишком много усилий на совершенствование дипфейк-алгоритмов, не уделяя почти никакого внимания их обнаружению. Facebook применяет собственную систему антифейка, но представитель компании надеется, что по итогам конкурса Deepfake Detection Challenge будет найден более совершенный способ обнаружения видеофальшивок.

Соревнование продлится с конца 2019-го до весны 2020 года. Поучаствовать в нем смогут все желающие. После отсева Facebook предложит конкурсантам набор видео, в которых задействованы профессиональные актеры, согласившиеся на использование их лиц в дипфейках. Задача участников — создать алгоритм, выявляющий модифицированные ролики с наибольшей эффективностью.

По словам Шрепфера, специально снятые для Deepfake Detection Challenge видео будут максимально похожи на те, что публикуются на Facebook. Однако данные пользователей соцсети привлекаться не будут.

Технология дипфейка широко используется для создания реалистичных порнографических роликов с участием знаменитостей, в которых те никогда не снимались, или фальшивых выступлений крупных политических деятелей. Летом были зафиксированы первые случаи, когда злоумышленники вооружились технологиями искусственного интеллекта для обмана пользователей, создавая убедительные видеоподделки с наложением лиц и голосов известных людей.