Apple предоставила разработчикам доступ к своим новым локальным моделям ИИ, вот как они работают

Одно из первых объявлений на WWDC этого года заключалось в том, что впервые сторонние разработчики смогут получить прямой доступ к локальному ИИ Apple с помощью нового фреймворка Foundation Models. Но как эти модели на самом деле сравниваются с тем, что уже существует?

С новым фреймворком Foundation Models сторонние разработчики теперь могут опираться на тот же локальный стек ИИ, который используется собственными приложениями Apple.

Другими словами, это означает, что разработчики теперь смогут интегрировать функции ИИ, такие как суммирование документов, извлечение ключевой информации из текста пользователя или даже создание структурированного контента, полностью офлайн, без каких-либо затрат на API.

Но насколько хороши модели Apple на самом деле?

Конкурентоспособность там, где это важно

Согласно собственным оценкам Apple, ответ таков: довольно солидно, особенно если учитывать баланс (который некоторые могут назвать «компромиссом») между размером, скоростью и эффективностью.

По результатам тестирования Apple, ее локальная модель с ~3 миллиардами параметров превзошла аналогичные легкие визуально-языковые модели, такие как InternVL-2.5 и Qwen-2.5-VL-3B, в задачах с изображениями, выиграв более 46% и 50% запросов соответственно.

А в текстовых задачах она держалась наравне с более крупными моделями, такими как Gemma-3-4B, даже опережая их в некоторых международных англоязычных и многоязычных оценках (португальский, французский, японский и т. д.).

Другими словами, новые локальные модели Apple, по-видимому, готовы обеспечить стабильные результаты для многих реальных применений, не прибегая к облачным вычислениям и не требуя передачи данных с устройства.

Что касается серверной модели Apple (которая не будет доступна сторонним разработчикам, в отличие от локальных моделей), то она выгодно отличалась от LLaMA-4-Scout и даже превзошла Qwen-2.5-VL-32B в понимании изображений. Тем не менее, GPT-4o по-прежнему уверенно лидирует в общем зачете.

Часть «бесплатно и офлайн» действительно важна

Настоящая история здесь не только в том, что новые модели Apple стали лучше. Дело в том, что они встроены. С фреймворком Foundation Models разработчикам больше не нужно включать тяжелые языковые модели в свои приложения для офлайн-обработки. Это означает меньший размер приложений и отсутствие необходимости переключаться на облако для большинства задач.

Результат? Более приватный опыт для пользователей и отсутствие затрат на API для разработчиков — экономия, которая в конечном итоге может принести пользу всем.

Apple утверждает, что модели оптимизированы для структурированных выходных данных с использованием «управляемой генерации» на основе Swift, что позволяет разработчикам напрямую ограничивать ответы моделей в логике приложения. Для приложений в сфере образования, продуктивности и коммуникации это может стать настоящим прорывом, предлагая преимущества LLM без задержек, затрат или компромиссов в конфиденциальности.

В конечном счете, модели Apple не самые мощные в мире, но им и не нужно ими быть. Они хороши, они быстры, а теперь они доступны каждому разработчику бесплатно, локально и офлайн.

Это, возможно, не вызовет таких же заголовков, как более мощные модели, но на практике это может привести к появлению волны действительно полезных функций ИИ в сторонних приложениях для iOS, которые не требуют облачных подключений. И для Apple это, вполне возможно, и есть суть.