Приложения macOS теперь могут отображать 3D-сцены непосредственно на Apple Vision Pro, намекая на проводную гарнитуру

Сессии для разработчиков на WWDC25 от Apple полны интересных подробностей, которые не попали на сцену во время основного доклада или презентации «State of the Union». Одна из таких подробностей, кратко упомянутая во время сессии «Что нового в SwiftUI», может дать первый реальный намек на то, куда движется visionOS.

Пару месяцев назад Марк Гурман из Bloomberg сообщил, что Apple готовит две новые гарнитуры Vision Pro. Одна из них будет легче и доступнее, чем текущая версия, в то время как другая, как утверждается, будет проводным устройством:

Другая разрабатываемая гарнитура может быть еще более интригующей. В январе я сообщал, что Apple отказалась от работы над очками дополненной реальности, которые подключались бы к Mac. Вместо этого сейчас ведется работа над Vision Pro, который подключается к Mac. Разница между двумя идеями заключается в уровне погружения. Отмененное устройство имело прозрачные линзы; продукт, который все еще находится в разработке, будет использовать тот же подход, что и Vision Pro.

Хотя официальной информации о том, когда и будут ли выпущены эти продукты, нет, Apple, возможно, уже готовит почву для этой проводной версии.

Это потому, что впервые приложения macOS Tahoe 26 смогут отображать иммерсивный 3D-контент непосредственно на Apple Vision Pro, используя совершенно новый тип сцены под названием RemoteImmersiveSpace.

Напрямую из macOS в visionOS

Эта новая возможность была упомянута как часть развивающейся поддержки пространственных вычислений в SwiftUI, и она использует тот факт, что Apple переносит фреймворк CompositorServices в macOS Tahoe 26.

Этот фреймворк позволяет приложениям Mac, работающим на macOS Tahoe 26, проецировать стереоскопический 3D-контент непосредственно в окружения Vision Pro, без необходимости отдельной сборки visionOS.

Используя RemoteImmersiveSpace, разработчики теперь могут создавать иммерсивные визуальные эффекты, поддерживающие события ввода, такие как касания и жесты, а также эффекты наведения для пространственного взаимодействия, эффективно позволяя своим настольным приложениям расширяться в полностью иммерсивную среду. Все это можно сделать в SwiftUI, с более глубокой интеграцией с Metal для тех, кто хочет получить полный контроль над рендерингом.

Более того, команда SwiftUI также представила мощные API для пространственного макета и взаимодействия, позволяя разработчикам создавать объемные пользовательские интерфейсы, включать манипуляции с объектами, например, поднимать виртуальную бутылку с водой, и использовать поведение привязки сцен для более динамичных интерфейсов.

На практике это означает, что приложение macOS может симулировать целые 3D-опыты, от архитектурных обходов до научных визуализаций, и запускать их в реальном времени на Vision Pro, работающем от Mac.

Результат? Значительно сниженный порог входа для разработчиков macOS, которые хотят экспериментировать с Vision Pro или начать создавать решения для будущего, где пространственные вычисления могут стать мейнстримом.

Чтобы углубиться в технические детали, ознакомьтесь с сессией Apple «Что нового в SwiftUI» и документацией на веб-сайте Apple Developer.