
Группа студентов из Беркли продемонстрировала, как вредоносные команды для Siri, Google Assistant и Alexa могут быть скрыты в записанной музыке или безобидной на слух речи.
Простое воспроизведение записей по радио, потоковой музыки или подкастов может позволить злоумышленникам взять под контроль умный дом…
Издание NY Times сообщает, что это развивает исследования, начавшиеся в 2016 году.
За последние два года исследователи из Китая и США начали демонстрировать, что они могут отправлять скрытые команды, которые неразличимы для человеческого уха, для Apple Siri, Amazon Alexa и Google Assistant. В университетских лабораториях исследователи смогли тайно активировать системы искусственного интеллекта на смартфонах и умных колонках, заставляя их набирать телефонные номера или открывать веб-сайты. В чужих руках эта технология может быть использована для открытия дверей, перевода денег или покупки товаров онлайн — просто с музыкой, играющей по радио.
Исследование 2016 года демонстрировало команды, скрытые в белом шуме, но в этом месяце студентам удалось сделать то же самое в музыке и разговорном тексте.
Внося незначительные изменения в аудиофайлы, исследователи смогли заглушить звук, который система распознавания речи должна была слышать, и заменить его звуком, который машины транскрибировали бы иначе, будучи почти неразличимым для человеческого уха […]
Им удалось спрятать команду «Окей, Google, открой evil.com» в записи произнесенной фразы «Без набора данных статья бесполезна». Люди не могут различить команду.
Группа из Беркли также внедрила команду в музыкальные файлы, включая четырехсекундный отрывок из «Реквиема» Верди.
Аналогичные методы были продемонстрированы с использованием ультразвуковых частот.
Исследователи из Принстонского университета и Китайского Чжэцзянского университета продемонстрировали, что системы распознавания голоса могут быть активированы с использованием частот, неслышимых человеческому уху. Атака также глушила телефон, чтобы владелец не слышал ответов системы.
Исследователи из Беркли говорят, что нет никаких указаний на то, что этот метод атаки используется в реальной жизни, но это может легко измениться.
Николас Карлини, студент пятого курса аспирантуры по компьютерной безопасности в Калифорнийском университете в Беркли и один из авторов статьи, [сказал, что] хотя нет никаких доказательств того, что эти методы покинули лабораторию, возможно, лишь вопрос времени, когда кто-то начнет ими пользоваться. «Я предполагаю, что злоумышленники уже нанимают людей, чтобы делать то, что делаю я», — сказал он.
Apple заявила, что Siri имеет встроенные защиты, которые ограничивают возможности для выполнения таких атак.
Apple заявила, что ее умная колонка HomePod разработана так, чтобы предотвратить выполнение команд, например, открывающих двери, и отметила, что iPhone и iPad должны быть разблокированы, прежде чем Siri будет действовать по командам, получающим доступ к конфиденциальным данным или открывающим приложения и веб-сайты, среди прочих мер.
Проверьте 9to5Mac на YouTube для получения дополнительных новостей об Apple: