Более «умная» Siri может быть отложена из-за серьезных проблем с безопасностью, предполагает разработчик

Долгое ожидание «умной» Siri затянется еще больше: есть признаки того, что новые функции, которые мы изначально ожидали в iOS 18.4, могут быть перенесены на iOS 19.

Apple не давала никаких реальных объяснений, но до сих пор выдвигались две теории, и теперь разработчик и аналитик данных предположил, что проблемы безопасности могут быть третьей причиной – и, безусловно, самой серьезной …

Задержка «умной» Siri

Apple впервые пообещала значительно улучшить Siri на WWDC в июне прошлого года. Хотя компания выпустила некоторые функции Apple Intelligence, и Siri теперь может справляться с оговорками и составными командами, мы пока не увидели никаких признаков трех ключевых улучшений, обещанных Apple:

  • Контекстная осведомленность, позволяющая получать доступ к вашей личной информации
  • Возможность видеть, что отображается на экране, и реагировать на это
  • Действия в приложениях, когда вы говорите Siri, что хотите сделать, и она использует ваши приложения для достижения этой цели

Изначально мы ожидали, что эти функции будут включены в iOS 18.4, а более разговорчивая Siri появится в следующем году, но теперь Apple заявила, что столкнулась с проблемами в этом графике.

Мы также работали над более персонализированной Siri, повышая ее осведомленность о вашем личном контексте, а также предоставляя ей возможность действовать от вашего имени внутри и между вашими приложениями. Доставка этих функций займет у нас больше времени, чем мы думали, и мы планируем выпустить их в ближайший год.

Не совсем ясно, что компания подразумевает под «ближайшим годом» – имеется ли в виду конец этого года или какой-то момент в следующем году, но это вполне может означать, что «умная» Siri появится не раньше iOS 19.

На данный момент было предложено две причины

Bloomberg постоянно сообщал, что Apple испытывает трудности с подготовкой этих функций к запуску, указывая на то, что на данный момент слишком много ошибок.

Внутри Apple многие сотрудники, тестирующие новую Siri, обнаружили, что эти функции пока работают нестабильно.

Однако в то время Марк Гурман ожидал, что запуск будет отложен с iOS 18.4 до 18.5.

Также предполагается, что основной причиной этих ошибок является то, что Apple в настоящее время имеет две полностью отдельные версии Siri, одна из которых наложена на другую. Оригинальная версия по-прежнему обрабатывает задачи, которые Siri всегда могла выполнять, в то время как второй слой перехватывает более сложные команды. Сообщается, что Apple испытывает трудности с интеграцией всего в одну версию Siri.

Но безопасность может быть самой большой проблемой

Разработчик Саймон Уиллсон, создатель инструмента для анализа данных с открытым исходным кодом Datasette, предполагает, что Apple также может испытывать трудности с обеспечением безопасности «умной» Siri. В частности, он считает, что она может быть уязвима к атакам с использованием инъекций команд (prompt injection).

Это известная проблема для всех систем генеративного ИИ. По сути, злоумышленник пытается обойти встроенные меры безопасности в большой языковой модели (LLM), обманом заставляя ее заменить средства защиты новыми инструкциями. Уиллсон говорит, что это представляет собой потенциально огромный риск для новой Siri.

Эти новые функции Apple Intelligence включают в себя ответы Siri на запросы доступа к информации в приложениях и последующее выполнение действий от имени пользователя.

Это наихудшее сочетание для атак с использованием инъекций команд! Всякий раз, когда система на базе LLM имеет доступ к частным данным, инструментам, которые она может вызывать, и подвергается потенциально вредоносным инструкциям (например, письмам и текстовым сообщениям от ненадежных незнакомцев), существует значительный риск того, что злоумышленник может использовать эти инструменты и применять их для повреждения или извлечения пользовательских данных.

Другими словами, заставить ChatGPT дать вам инструкции по сборке бомбы — это один уровень риска, но обмануть Siri, чтобы она передала ваши личные данные, — это совсем другое.

Обозреватель Apple Джон Грубер считает эту теорию правдоподобной, отмечая, что никто пока не смог остановить атаки с использованием инъекций команд.

Пессимистический взгляд на эту затянутую историю с персонализированной Siri заключается в том, что Apple не может позволить себе ошибиться, но природа восприимчивости LLM к инъекциям команд может означать, что исправить это никогда не удастся. И если это возможно, то потребуются прорывные достижения. Apple недостаточно просто «догнать». Им нужно решить сложную проблему — еще не решенную OpenAI, Google или любой другой ведущей лабораторией ИИ — чтобы выполнить обещанное.

Он задается вопросом, как Apple позволила себе обещать – и даже рекламировать – функции, которые могут оказаться слишком опасными для того, чтобы их когда-либо запускать.

Мнение 9to5Mac

Хотя я уверен, что предыдущие отчеты точны, кажется вполне правдоподобным, что безопасность также является ключевым фактором.

Apple сделала конфиденциальность ключевым отличительным признаком и торговым аргументом своих продуктов, поэтому любая уязвимость, позволяющая вредоносному приложению получать доступ и экспортировать ваши личные данные, стала бы полным бедствием для производителя iPhone.

Хотя я не ожидаю, что проект «умной» Siri превратится в еще один AirPower, становится все более очевидным, что Apple следовало просто промолчать о сроках, пока они не будут ближе к решению всех проблем.

Рекомендуемые аксессуары

Изображение: Apple и Michael Bower/9to5Mac