
Вчера мы сообщили об одной интересной новой функции в iOS 13 beta 3: коррекции взгляда в FaceTime.
В настоящее время, когда вы смотрите на экран, чтобы увидеть лицо собеседника, он видит, что ваши глаза смотрят вниз, так как камера расположена над экраном. Но последняя бета-версия iOS 13 предлагает функцию под названием FaceTime Attention Correction…
Эта функция выполняет корректировку изображения ваших глаз в реальном времени, чтобы вы казались смотрящими в камеру, а не на экран. Это означает, что вы будете казаться поддерживающими зрительный контакт.
Люди публикуют примеры в Твиттере, например, приведенный выше от Уилла Сигмона, и это действительно, похоже, значительно улучшает качество общения.
Майк Рэндл, который был на другом конце звонка, был впечатлен.
https://twitter.com/flyosity/status/1146145234801307650
Прогнозируемая функция отдаленного будущего
Рэндл говорит, что еще в 2017 году предсказал, что такая функция появится «в ближайшие годы», но удивлен, что она уже реализована. Кстати, его другие предсказания того времени были следующими:
- Осознание iPhone своего окружения с помощью постоянно включенных камер, непрерывно сканирующих, картографирующих и отслеживающих объекты в 3D-пространстве рядом с iPhone
- Отслеживание взгляда, которое обеспечивает предвосхищение программным обеспечением, позволяя аспектам программного интерфейса полностью направляться взглядом (Apple приобрела SensoMotoric Instruments в начале 2017 года, мирового лидера в области технологий отслеживания взгляда.)
- Биометрические и медицинские данные, полученные из данных камеры лица пользователя (каков мой пульс и т. д.)
- Продвинутые алгоритмы обработки изображений, которые гарантируют, что звонки FaceTime всегда будут показывать, что ваши глаза смотрят на другого человека
- Усовершенствования машинного обучения, позволяющие мгновенно подсчитывать объекты рядом с iPhone (сколько людей в этой аудитории, сколько машин между мной и светофором, сколько карандашей на столе, сколько рубашек сложено в моем шкафу и т. д.)
- Мгновенное измерение размеров объектов и пространства без необходимости использования причудливых AR-линеек (какова длина этой стены, какова ширина этого проема, какова высота этой лампы и т. д.)
FaceTime коррекция взгляда использует ARKit
Дэйв Шукин утверждает, что коррекция взгляда в FaceTime использует ARKit, и опубликовал видеодемонстрацию.
How iOS 13 FaceTime Attention Correction works: it simply uses ARKit to grab a depth map/position of your face, and adjusts the eyes accordingly.
Notice the warping of the line across both the eyes and nose. pic.twitter.com/U7PMa4oNGN
— Dave Schukin (@schukin) July 3, 2019
Искажение можно увидеть в действии, когда он проводит дужкой очков по лицу. Прямая дужка очков искажается функцией, корректирующей его глаза.
Я могу лишь повторить слова разработчика iOS Гуалтиеро Фриджерио:
Современные технологии настолько круты и продвинуты, что мы можем описать реализацию такой функции, начиная со слова «просто».
Разработчик Аарон Брейджер отмечает, что функция, по-видимому, полагается на один из API ARKit 3, поэтому она ограничена iPhone XS/Max и XR и не работает на iPhone X.