Twitter признал свой алгоритм расистским


EPA

Twitter отказался от собственного алгоритма обрезки фотографий, признав его виновным в расовой и гендерной "предвзятости"

Руководство Twitter решило отказаться от алгоритма обрезки фотографий из-за его расовой и гендерной "предвзятости". В компании признали, что система машинного обучения, обрабатывающая картинки для превью, в самом деле отдавала предпочтение светлокожим, а не темнокожим людям, а к женщинам склонялась чаще, чем к мужчинам.

Алгоритм, который анализирует и обрезает загружаемые пользователями вертикальные снимки, соцсеть применяла с 2018 года. Функция была задумана так, чтобы выбрать наиболее важный и релевантный фрагмент в кадре, не умещающийся целиком в стандартную рамку, который хорошо бы смотрелся на превью к твиту.

Осенью прошлого года пользователи заподозрили, что ИИ Twitter при прочих равных отдает предпочтение лицам людей европеоидной расы, а темнокожих "дискриминирует". Для эксперимента был создан коллаж, в разные концы которого поместили вытянутые по высоте портреты бывшего президента США Барака Обамы и сенатора-республиканца Митча Макконнела, а середину оставили пустой. Во всех случаях, даже когда политиков меняли местами и перекрашивали цвета галстуков, система всегда выбирала белокожего человека.

По результатам исследования, проводившегося в течение последних месяцев, в Twitter признали свой ИИ "расистским". Случайная выборка показала, что алгоритм предпочитает белокожих женщин темнокожим в 7% случаев, а белых мужчин выбирает чаще темнокожих в 2% случаев.

Также выяснилось, что система Twitter в 8% случаев отдает предпочтение женщинам, а не мужчинам. Однако случаев объективации (пользователи жаловались, что при кадрировании ИИ мог посчитать "интересным" не лицо, а грудь или ноги женщины) зафиксировано не было.

В Android- и iOS-приложениях Twitter фото теперь отображаются в полном виде, без обработки алгоритмами. Пользователи могут увидеть, как в точности будет выглядеть их твит, до публикации, добавили в компании.