
Долгое ожидание «умной» Siri затянется еще больше: есть признаки того, что новые функции, которые мы изначально ожидали в iOS 18.4, могут быть перенесены на iOS 19.
Apple не давала никаких реальных объяснений, но до сих пор выдвигались две теории, и теперь разработчик и аналитик данных предположил, что проблемы безопасности могут быть третьей причиной – и, безусловно, самой серьезной …
Задержка «умной» Siri
Apple впервые пообещала значительно улучшить Siri на WWDC в июне прошлого года. Хотя компания выпустила некоторые функции Apple Intelligence, и Siri теперь может справляться с оговорками и составными командами, мы пока не увидели никаких признаков трех ключевых улучшений, обещанных Apple:
- Контекстная осведомленность, позволяющая получать доступ к вашей личной информации
- Возможность видеть, что отображается на экране, и реагировать на это
- Действия в приложениях, когда вы говорите Siri, что хотите сделать, и она использует ваши приложения для достижения этой цели
Изначально мы ожидали, что эти функции будут включены в iOS 18.4, а более разговорчивая Siri появится в следующем году, но теперь Apple заявила, что столкнулась с проблемами в этом графике.
Мы также работали над более персонализированной Siri, повышая ее осведомленность о вашем личном контексте, а также предоставляя ей возможность действовать от вашего имени внутри и между вашими приложениями. Доставка этих функций займет у нас больше времени, чем мы думали, и мы планируем выпустить их в ближайший год.
Не совсем ясно, что компания подразумевает под «ближайшим годом» – имеется ли в виду конец этого года или какой-то момент в следующем году, но это вполне может означать, что «умная» Siri появится не раньше iOS 19.
На данный момент было предложено две причины
Bloomberg постоянно сообщал, что Apple испытывает трудности с подготовкой этих функций к запуску, указывая на то, что на данный момент слишком много ошибок.
Внутри Apple многие сотрудники, тестирующие новую Siri, обнаружили, что эти функции пока работают нестабильно.
Однако в то время Марк Гурман ожидал, что запуск будет отложен с iOS 18.4 до 18.5.
Также предполагается, что основной причиной этих ошибок является то, что Apple в настоящее время имеет две полностью отдельные версии Siri, одна из которых наложена на другую. Оригинальная версия по-прежнему обрабатывает задачи, которые Siri всегда могла выполнять, в то время как второй слой перехватывает более сложные команды. Сообщается, что Apple испытывает трудности с интеграцией всего в одну версию Siri.
Но безопасность может быть самой большой проблемой
Разработчик Саймон Уиллсон, создатель инструмента для анализа данных с открытым исходным кодом Datasette, предполагает, что Apple также может испытывать трудности с обеспечением безопасности «умной» Siri. В частности, он считает, что она может быть уязвима к атакам с использованием инъекций команд (prompt injection).
Это известная проблема для всех систем генеративного ИИ. По сути, злоумышленник пытается обойти встроенные меры безопасности в большой языковой модели (LLM), обманом заставляя ее заменить средства защиты новыми инструкциями. Уиллсон говорит, что это представляет собой потенциально огромный риск для новой Siri.
Эти новые функции Apple Intelligence включают в себя ответы Siri на запросы доступа к информации в приложениях и последующее выполнение действий от имени пользователя.
Это наихудшее сочетание для атак с использованием инъекций команд! Всякий раз, когда система на базе LLM имеет доступ к частным данным, инструментам, которые она может вызывать, и подвергается потенциально вредоносным инструкциям (например, письмам и текстовым сообщениям от ненадежных незнакомцев), существует значительный риск того, что злоумышленник может использовать эти инструменты и применять их для повреждения или извлечения пользовательских данных.
Другими словами, заставить ChatGPT дать вам инструкции по сборке бомбы — это один уровень риска, но обмануть Siri, чтобы она передала ваши личные данные, — это совсем другое.
Обозреватель Apple Джон Грубер считает эту теорию правдоподобной, отмечая, что никто пока не смог остановить атаки с использованием инъекций команд.
Пессимистический взгляд на эту затянутую историю с персонализированной Siri заключается в том, что Apple не может позволить себе ошибиться, но природа восприимчивости LLM к инъекциям команд может означать, что исправить это никогда не удастся. И если это возможно, то потребуются прорывные достижения. Apple недостаточно просто «догнать». Им нужно решить сложную проблему — еще не решенную OpenAI, Google или любой другой ведущей лабораторией ИИ — чтобы выполнить обещанное.
Он задается вопросом, как Apple позволила себе обещать – и даже рекламировать – функции, которые могут оказаться слишком опасными для того, чтобы их когда-либо запускать.
Мнение 9to5Mac
Хотя я уверен, что предыдущие отчеты точны, кажется вполне правдоподобным, что безопасность также является ключевым фактором.
Apple сделала конфиденциальность ключевым отличительным признаком и торговым аргументом своих продуктов, поэтому любая уязвимость, позволяющая вредоносному приложению получать доступ и экспортировать ваши личные данные, стала бы полным бедствием для производителя iPhone.
Хотя я не ожидаю, что проект «умной» Siri превратится в еще один AirPower, становится все более очевидным, что Apple следовало просто промолчать о сроках, пока они не будут ближе к решению всех проблем.
Рекомендуемые аксессуары
- Ультракомпактное зарядное устройство Anker 511 Nano Pro для iPhone
- Чехол Spigen MagFit для iPhone 16e – добавляет поддержку MagSafe
- Зарядное устройство Apple MagSafe мощностью 25 Вт для моделей iPhone 16
- Зарядное устройство Apple мощностью 30 Вт для вышеуказанных
- Плетеная кабель Anker USB-C – USB-C мощностью 240 Вт
Изображение: Apple и Michael Bower/9to5Mac