Стивен Леви в деталях обсуждает с руководителями Apple машинное обучение и улучшения Siri в iOS 10

Более интеллектуальная и связанная Siri стала одной из флагманских функций последних обновлений iOS, и Стивен Леви из Backchannel взял новое интервью у руководителей Apple, представив взгляд изнутри на то, что стоит за искусственным интеллектом помощника Apple. Статья начинается с описания обновления распознавания голоса Siri в 2014 году, когда система перешла «на систему на основе нейронных сетей» для пользователей из США, и упоминает еще одно грядущее обновление с iOS 10…

Первые отзывы были восторженными, но в течение следующих нескольких месяцев и лет пользователи стали проявлять нетерпение из-за ее недостатков. Слишком часто она ошибочно интерпретировала команды. Мелкие доработки не могли это исправить.

Поэтому Apple перевела распознавание голоса Siri на систему на основе нейронных сетей для пользователей из США в тот поздний июльский день (по всему миру это произошло 15 августа 2014 года). Некоторые из предыдущих методов остались в работе — если вы следите за процессом, сюда входят «скрытые марковские модели» — но теперь система использует методы машинного обучения, включая глубокие нейронные сети (DNN), сверточные нейронные сети, блоки долговременной краткосрочной памяти, вентильные рекуррентные блоки и n-граммы. (Рады, что вы спросили.) Когда пользователи обновились, Siri выглядела по-прежнему, но теперь она была подкреплена глубоким обучением.

Леви говорит, что Apple не афишировала обновление серверной части (до сих пор), но улучшения на тот момент были драматическими (это примерно время iPhone 6, если вы помните).

«Это была одна из тех вещей, где скачок был настолько значительным, что приходилось проверять снова, чтобы убедиться, что кто-то не пропустил десятичную точку», — говорит Эдди Кью, старший вице-президент Apple по интернету и услугам.

Основное внимание в статье и суть интервью, кажется, заключается в том, чтобы донести, что Siri от Apple является настоящим конкурентом аналогичным разработкам Google и Microsoft.

Когда мы сели, мне передали плотную двухстраничную повестку дня со списком продуктов и услуг Apple, основанных на машинном обучении — уже выпускаемых или готовящихся к выпуску — которые они хотели обсудить.

Послание: Мы уже здесь. Игроки. Лучшие.

Но мы делаем это по-своему.

Вот Шиллер излагает свою позицию:

«За последние пять лет мы наблюдаем рост этого внутри Apple», — говорит Фил Шиллер. «Наши устройства становятся намного умнее с более быстрой скоростью, особенно с нашими чипами серии Apple A. Серверные части становятся намного умнее, быстрее, и все, что мы делаем, находит причину быть связанным. Это позволяет использовать все больше и больше методов машинного обучения, потому что есть так много данных для обучения, и они доступны нам.»

А в статье Федериги описывает подход Apple к машинному обучению как применение к проекту каждой команды, а не наличие единой команды по машинному обучению.

«У нас нет единой централизованной организации, которая была бы Храмом МО в Apple», — говорит Крейг Федериги. «Мы стараемся держать его близко к командам, которым нужно применять его для обеспечения правильного пользовательского опыта.»

Сколько людей в Apple работает над машинным обучением? «Много», — говорит Федериги после небольшого нажима.

Леви использует Apple Pencil на iPad Pro с функцией отклонения ладони в качестве примера:

Одним из примеров этого является Apple Pencil, который работает с iPad Pro. Чтобы Apple могла включить свою версию высокотехнологичного стилуса, ей пришлось решить проблему того, что при письме на устройстве нижняя часть руки неизбежно касалась сенсорного экрана, вызывая всевозможные цифровые проблемы. Использование модели машинного обучения для «отклонения ладони» позволило сенсору экрана с очень высокой степенью точности различать свайп, касание и ввод с помощью карандаша. «Если это не работает безупречно, то это уже не хорошая бумага для меня, на которой можно писать — и Pencil — это не хороший продукт», — говорит Федериги. Если вы любите свой Pencil, благодарите машинное обучение.

Статья, вероятно, является самым подробным взглядом на Siri, который мы видели сегодня, и если из нее и можно извлечь какие-либо новости, то это вот что касается Siri и iOS 10:

С выпуском iOS 10, запланированным на осень, голос Siri станет последним из четырех компонентов, преобразованных машинным обучением. Опять же, глубокая нейронная сеть заменила ранее лицензированную реализацию. По сути, реплики Siri поступают из базы данных записей, собранных в голосовом центре; каждое предложение представляет собой сшитый патч из этих фрагментов. Машинное обучение, по словам Грубера, сглаживает их и делает Siri более похожей на настоящего человека.

Это может объяснить комментарий Барбры Стрейзанд от 30 сентября, сделанный ранее на этой неделе, если обновление Siri запланировано отдельно от iOS 10, которая ожидается раньше в этом месяце. (Я не думаю, что было обновление iOS, например, 15 августа 2014 года, когда упомянутое вверху обновление стало глобальным.)

Вся статья наполнена интересными историями о Siri, начиная с момента приобретения команды Apple Стивом Джобсом, консервативным подходом Apple к конфиденциальности и тем, что Apple делает с дифференциальной конфиденциальностью в iOS 10. Прочитайте ее здесь.

Изображение: Michelle Le