
Ряд крупных американских компаний используют системы ИИ для анализа коммуникаций сотрудников в популярных бизнес приложениях, таких как Slack, Teams и Zoom…
Одна из моделей ИИ утверждает, что может анализировать контент и настроения как текстовых, так и графических сообщений, публикуемых сотрудниками, сообщает CNBC.
Некоторые из этих инструментов используются относительно невинным образом — например, для оценки общих реакций сотрудников на новые корпоративные политики.
«Чтобы защитить конфиденциальность, имен людей там не будет», — сказал генеральный директор Aware Джефф Шуманн. Вместо этого, по его словам, клиенты увидят, что «возможно, работники старше 40 лет в этой части Соединенных Штатов очень негативно воспринимают изменения [в] политике из-за стоимости, но все остальные за пределами этой возрастной группы и местоположения воспринимают ее положительно, потому что это влияет на них по-другому».
Но другие инструменты — в том числе еще один, предлагаемый той же компанией — могут помечать сообщения конкретных лиц.
Десятки моделей ИИ Aware, разработанные для чтения текста и обработки изображений, также могут выявлять случаи буллинга, домогательств, дискриминации, несоблюдения правил, порнографии, наготы и других видов поведения.
Chevron, Delta, Starbucks, T-Mobile и Walmart — лишь некоторые из компаний, которые, как сообщается, используют эти системы. Aware утверждает, что проанализировала более 20 миллиардов взаимодействий от более чем трех миллионов сотрудников.
Хотя эти услуги основаны на не-ИИ инструментах мониторинга, используемых годами, некоторые обеспокоены тем, что они перешли в оруэлловскую плоскость.
Джутта Уильямс, соучредитель некоммерческой организации Humane Intelligence, занимающейся вопросами подотчетности ИИ, заявила, что ИИ добавляет новую и потенциально проблематичную сложность к так называемым программам управления внутренними рисками, которые существуют уже много лет для оценки таких вещей, как корпоративный шпионаж, особенно в электронной переписке.
Говоря в целом об ИИ для слежки за сотрудниками, а не конкретно о технологии Aware, Уильямс сказала CNBC: «Все это становится мыслепреступлением». Она добавила: «Это отношение к людям как к инвентарю, которого я раньше не видела» […]
Амба Как, исполнительный директор Института AI Now при Нью-Йоркском университете, обеспокоена использованием ИИ для определения того, что считается рискованным поведением.
«Это приводит к подавлению того, что люди говорят на рабочем месте», — сказала Как, добавив, что Федеральная торговая комиссия, Министерство юстиции и Комиссия по обеспечению равных возможностей в области занятости выразили обеспокоенность по этому поводу, хотя она и не говорила конкретно о технологии Aware. «Это вопросы прав работников, а также вопросы конфиденциальности».
Дополнительную обеспокоенность вызывает тот факт, что даже агрегированные данные могут быть легко деанонимизированы при предоставлении на детальном уровне, «например, по возрасту сотрудника, местоположению, отделу, стажу работы или должностным функциям».
Фото: Андрес Симон на Unsplash