Умные камеры AirPods могут стать «killer feature» — если они будут работать

Прошло более двух лет с тех пор, как мы впервые услышали о AirPods с камерами, и последние сообщения предполагают, что до их выпуска осталось относительно немного времени.

До сих пор поступали противоречивые сведения о назначении камер, но Bloomberg теперь очень четко указывает, что они будут поддерживать функции Apple Intelligence

Умные камеры AirPods

Первые сообщения об AirPods с камерами появились в 2024 году. Тогда это преподносилось как нечто, что Apple исследовала, хотя последующие сообщения указывали на то, что это определенный план.

До сих пор не было единого мнения о назначении этих камер; были выдвинуты три возможности:

  • Датчики здоровья (например, инфракрасная камера для измерения сердцебиения)
  • Распознавание жестов рук
  • Поддержка функций Apple Intelligence, подобных визуальному интеллекту на iPhone

Однако последний отчет Bloomberg напрямую указывает на третью из них.

Идея заключается в том, чтобы позволить пользователям задавать вопросы об объекте, на который они смотрят. Например, они могут посмотреть на ингредиенты для еды и спросить, что приготовить на ужин. Это похоже на то, что люди получают, загружая фотографии в ИИ-сервисы, такие как ChatGPT от OpenAI, или в функцию Visual Intelligence самого iPhone.

Это может стать «killer feature»

Apple последовательно пыталась дать своим внутриканальным наушникам уникальные преимущества перед сторонними, в частности, включив гораздо более удобный процесс сопряжения с устройствами Apple.

Компания также значительно улучшила качество звука AirPods Pro, в частности, чтобы привлечь тех из нас, кто покупал конкурирующие продукты из-за лучшего качества звука. Я до сих пор не был убежден, но если эта функция будет работать действительно хорошо, это может стать моментом, когда я перейду на них.

Упомянутые в статье функции навигации — хороший пример. Исторически существовал большой разрыв между тем, как картографические приложения предлагают пошаговую навигацию, и тем, как люди ожидают получать указания. «Через 100 метров поверните налево» гораздо менее понятно, чем что-то вроде «Поверните налево сразу после заправки». Если бы камеры позволили Apple Maps предоставлять более человечные указания, это уже было бы значительным преимуществом.

Но меня гораздо больше заинтриговала вторая возможность.

Устройство могло бы напомнить пользователю о чем-то на основе того, что увидела камера.

Например, если бы я составил список покупок в приложении «Заметки», было бы удивительно, если бы камеры AirPods смогли распознать, что я вошел в продуктовый магазин, и использовали эту информацию, чтобы проактивно открыть список на моем iPhone.

Возможно, у меня есть запланированная покупка книги в стороннем книжном приложении, и iOS могла бы показать это напоминание, когда увидит, что я приближаюсь к книжному магазину.

Может быть, у меня есть запись о замене масла в моих напоминаниях, и AirPods могли бы напомнить мне, когда они увидят, что я стою у сервисного центра на обочине дороги во время вождения. В качестве бонуса, напомнить только в том случае, если календарь покажет, что у меня есть время для остановки.

Если это будет работать…

Я уверен, что мы все могли бы придумать множество других примеров того, насколько полезной может быть такая функция напоминаний, и, говоря лично, это определенно может стать функцией, ради которой я готов пожертвовать некоторым уровнем качества звука.

Однако, учитывая текущий процесс внедрения функций Apple Intelligence, я бы также был крайне скептичен относительно реалистичности этих идей. Я могу представить несколько поверхностных функций для запуска этой идеи, но, честно говоря, я был бы поражен, увидев полный набор функций напоминаний, основанных на визуальном интеллекте, в ближайшие год-два.

Каково ваше мнение? Вы в восторге от возможностей или разделяете мой скептицизм? Пожалуйста, дайте нам знать ваши мысли в комментариях.

Фото: Aniket Narula на Unsplash