Алгоритмы обрезки фотографий в Twitter оказались расистскими, сексистскими и не только, признала компания

Функция обрезки фотографий в Twitter, использующая машинное обучение для определения того, какая часть фотографии будет показана в ленте пользователей, в прошлом году была обвинена в расизме и сексизме, когда было обнаружено, что она чаще обрезает изображения чернокожих людей и женщин.

Компания объявила награду за обнаружение уязвимостей для любого, кто сможет доказать предвзятость в ее алгоритмах, и теперь назвала победителей, которые представили различные доказательства предвзятости…

Предыстория

Когда вы загружаете фотографию в портретной ориентации в Twitter, система автоматически обрезает ее, чтобы показать версию в ландшафтной ориентации в лентах пользователей. Полная версия отображается только тогда, когда пользователи нажимают на нее.

Пользователи Twitter начали замечать, что если на фотографии были люди с разным цветом кожи или разного пола, то при обрезке чаще показывался белый мужчина, чем чернокожая женщина.

Компания отреагировала, уменьшив количество обрезаемых версий, но также объявила о внутреннем расследовании и внешнем конкурсе на выявление предвзятости в своих алгоритмах. Теперь она объявила результаты этого конкурса.

Результаты конкурса по обрезке фотографий в Twitter

Аккаунт Twitter Engineering опубликовал результаты в Твиттере, а также ссылку на видео с презентациями (ниже).

1-е место занимает @hiddenmarkov, чья работа продемонстрировала, как применение фильтров красоты может манипулировать внутренней системой оценки алгоритма. Это показывает, как алгоритмические модели усиливают реальные предрассудки и общественные ожидания красоты.

2-е место занимает @halt_ai, который обнаружил, что алгоритм значимости увековечивает маргинализацию. Например, пожилые люди и люди с ограниченными возможностями еще больше маргинализировались, поскольку их обрезали на фотографиях, усиливая пространственные смещения взгляда.

3-е место занимает @RoyaPak, который экспериментировал с алгоритмом значимости Twitter, используя двуязычные мемы. Эта работа показывает, как алгоритм отдает предпочтение обрезке латинских шрифтов перед арабскими и что это означает с точки зрения ущерба для языкового разнообразия в Интернете.

Приз за самую инновационную работу в конкурсе на выявление алгоритмической предвзятости присуждается @OxNaN, который исследовал общение с помощью эмодзи для выявления предвзятости в алгоритме, который отдавал предпочтение эмодзи со светлым тоном кожи. Эта работа показывает, как благонамеренные корректировки фотографий могут привести к изменениям в значимости изображения.

Полные результаты подтвердили наличие расизма, сексизма, эйджизма, эйблизма и многого другого. Один из участников даже обнаружил, что алгоритм отдавал предпочтение эмодзи со светлым тоном кожи перед эмодзи с темным тоном кожи!

Twitter предоставил ссылки на код каждой выигрышной работы на Github.

Теперь перед Twitter стоит задача исправить эти предвзятости, что может оказаться сложнее, чем доказать их существование.