Голосовые помощники Siri, Google Assistant и другие по умолчанию женского пола — это сексизм, утверждает ООН

Решение Apple сделать голос Siri по умолчанию женским в США и многих других странах подкрепляет гендерные предубеждения, согласно новому докладу Организации Объединенных Наций. Та же жалоба выдвигается против Google Assistant, Amazon Alexa и Microsoft Cortana.

Проблема в том, что, как говорится в докладе, это «отражает и усиливает» представление о том, что ассистенты, действующие в роли поддержки, являются женщинами…

Доклад называется «Я бы покраснела, если бы могла», что раньше было одним из ответов Siri на обращение к ней как к шлюхе.

Поскольку речь большинства голосовых помощников женская, это посылает сигнал о том, что женщины — услужливые, покорные и готовые угождать помощницы, доступные одним нажатием кнопки или по прямому голосовому вызову, например «эй» или «ок». Ассистент не обладает никакой собственной волей, кроме того, что просит командир. Он выполняет команды и отвечает на запросы, независимо от их тона или враждебности. Во многих сообществах это укрепляет распространенные гендерные предубеждения о том, что женщины подчиненны и терпимы к плохому обращению.

По мере того как голосовые технологии проникают в сообщества, которые в настоящее время не придерживаются западных гендерных стереотипов, включая коренные сообщества, феминизация цифровых ассистентов может способствовать возникновению и распространению гендерных предубеждений. Поскольку Alexa, Cortana, Google Home и Siri являются исключительно женскими или по умолчанию женскими на большинстве рынков, женщины берут на себя роль цифрового ассистента, проверяя погоду, меняя музыку, размещая заказы по команде и добросовестно реагируя на резкие приветствия вроде «Проснись, Алекса».

Доклад особенно обеспокоен подсознательным сообщением, которое передается детям, когда ИИ по умолчанию женского пола, поскольку они сталкиваются с интеллектуальными ассистентами с раннего возраста.

Профессор Нобл говорит, что команды, отдаваемые голосовым помощникам — такие как «найти x», «позвонить x», «изменить x» или «заказать x» — функционируют как «мощные инструменты социализации» и учат людей, особенно детей, «роли женщин, девочек и людей, относящихся к женскому полу, отвечать по требованию». Постоянное представление цифровых ассистентов как женских постепенно «зашивает» связь между женским голосом и подчинением.

По словам Кельвина Лая, исследователя из Гарвардского университета, который изучает бессознательные предубеждения, гендерные ассоциации, которые принимают люди, зависят от количества раз, когда они с ними сталкиваются. По мере распространения женских цифровых ассистентов частота и объем ассоциаций между «женщиной» и «ассистентом» резко возрастают.

По словам Лая, чем больше культура учит людей ассоциировать женщин с ассистентами, тем больше реальные женщины будут восприниматься как ассистенты — и наказываться за то, что они не похожи на ассистентов. Это демонстрирует, что мощные технологии могут не только воспроизводить гендерное неравенство, но и усугублять его.

Вторичная проблема, как утверждается, заключается в том, как ИИ флиртуют в ответ на оскорбительные комментарии.

В 2017 году Quartz исследовал, как четыре ведущих в отрасли голосовых помощника реагировали на явные словесные домогательства, и обнаружил, что помощники в среднем либо игриво уклонялись от оскорблений, либо отвечали положительно. Помощники почти никогда не давали негативных ответов и не маркировали речь пользователя как неуместную, независимо от ее жестокости.

Например, Siri раньше отвечала на «Ты шлюха» фразами вроде «Я бы покраснела, если бы могла» и «Ну, никогда!» Apple с тех пор изменила ответ на «Я не знаю, как на это ответить».

Siri по умолчанию использует женский голос в большинстве стран, но, любопытно, имеет некоторые исключения.

Там, где язык арабский, французский, голландский или британский английский, Siri по умолчанию использует мужской голос.

Исследование Университета Индианы в 2017 году показало, что и мужчины, и женщины предпочитают женский голос, находя его приветливым, теплым и заботливым — однако предпочтения варьировались в зависимости от контента довольно стереотипным образом.