
После того как Apple решила разрешить своим исследователям публиковать свои результаты, ее первая научная статья была опубликована в конце прошлого года. Теперь это исследование получило награду «Лучший доклад» на престижной конференции по машинному обучению и компьютерному зрению.
Первой научной статьей, опубликованной в связи с Apple, была «Learning from Simulated and Unsupervised Images through Adversarial Training» (Обучение на основе синтетических и неразмеченных изображений с помощью состязательного обучения) от Эшиша Шриваставы, Томаса Пфистера, Онсела Тузела, Джоша Сасскинда, Венды Ванг, Расса Уэбба (Apple Inc.). Полный документ можно найти здесь.
Это исследование в области ИИ было представлено на CVPR (Conference on Computer Vision & Pattern Recognition), которая считается одной из самых авторитетных и влиятельных конференций в этой области.
Имейте в виду, что это была первая публикация исследований Apple, и она была одной из более чем 2600 представленных на CVPR 2017, и получила награду «Лучший доклад» (наряду с еще одной работой), что является весьма впечатляющим достижением!
В прошлом месяце Apple продолжила публиковать свои исследования, запустив Apple Machine Learning Journal. На этой неделе мы также увидели три новых записи в журнале, которые будут представлены на Interspeech 2017 в Стокгольме на этой неделе. Особенно интересна часть, представляющая собой сравнение аудио выборки Siri из iOS 9, 10 и 11 (находится в самом низу Тома 4).
Если вы хотите узнать больше об исследовательской работе Apple, получившей награду, но не хотите читать ее целиком, вот аннотация:
Благодаря недавнему прогрессу в области графики стало более реально обучать модели на синтетических изображениях, потенциально избегая необходимости дорогостоящей аннотации. Однако обучение на синтетических изображениях может не достичь желаемой производительности из-за разрыва между распределениями синтетических и реальных изображений. Чтобы сократить этот разрыв, мы предлагаем обучение «Синтетическое + Неразмеченное» (S+U), где задача состоит в обучении модели для улучшения реалистичности выходных данных симулятора с использованием неразмеченных реальных данных, сохраняя при этом информацию об аннотациях из симулятора. Мы разрабатываем метод для обучения S+U, который использует состязательную сеть, аналогичную Generative Adversarial Networks (GAN), но с синтетическими изображениями в качестве входных данных вместо случайных векторов. Мы вносим несколько ключевых модификаций в стандартный алгоритм GAN для сохранения аннотаций, предотвращения артефактов и стабилизации обучения: (i) термин «саморегуляризации», (ii) локальная состязательная потеря и (iii) обновление дискриминатора с использованием истории улучшенных изображений. Мы показываем, что это позволяет генерировать высокореалистичные изображения, что мы демонстрируем как качественно, так и с помощью пользовательского исследования. Мы количественно оцениваем сгенерированные изображения, обучая модели для оценки взгляда и оценки позы руки. Мы демонстрируем значительное улучшение по сравнению с использованием синтетических изображений и достигаем передовых результатов на наборе данных MPIIGaze без каких-либо размеченных реальных данных.
Спасибо, Том!
Проверьте 9to5Mac на YouTube для получения дополнительных новостей об Apple: