Пробные версии Apple Intelligence в бета-версии Mac предписывают Smart Reply не «галлюцинировать»

Пользователь Reddit обнаружил встроенные Apple Intelligence в бета-версии macOS, в которых Apple предписывает функции Smart Reply не «галлюцинировать».

Smart Reply помогает отвечать на электронные письма и сообщения, проверяя заданные вопросы, предлагая вам ответы и затем формулируя ответ…

Smart Reply

Вот как Apple описывает эту функцию:

Используйте Smart Reply в «Почте», чтобы быстро составить ответ на электронное письмо со всеми нужными деталями. Apple Intelligence может определять вопросы, которые вам задавали в письме, и предлагать релевантные варианты для включения в ваш ответ. Всего за несколько нажатий вы будете готовы отправить ответ с ответами на ключевые вопросы.

Встроенные подсказки Apple Intelligence

Генеративные системы ИИ получают указания к действию с помощью текста, известного как подсказки. Некоторые из этих подсказок предоставляются пользователями, а другие написаны разработчиком и встроены в модель. Например, большинство моделей имеют встроенные инструкции или предварительные подсказки, предписывающие им не предлагать ничего, что могло бы нанести вред людям.

Пользователь Reddit devanxd2000 обнаружил набор JSON-файлов в бета-версии macOS 15.1, которые, по-видимому, являются инструкциями Apple по предварительной подсказке для функции Smart Reply.

Вы — полезный почтовый ассистент, который может помочь определить релевантные вопросы из данного письма и короткого фрагмента ответа.

Учитывая письмо и фрагмент ответа, задавайте релевантные вопросы, которые явно заданы в письме. Ответы на эти вопросы будет выбирать получатель, что поможет уменьшить «галлюцинации» при составлении ответа.

Пожалуйста, выводите лучшие вопросы вместе с набором возможных ответов/вариантов для каждого из этих вопросов. Не задавайте вопросы, на которые уже есть ответ во фрагменте ответа. Вопросы должны быть короткими, не более 8 слов. Выводите результат в формате JSON со списком словарей, содержащих ключи «вопрос» и «ответы». Если в письме нет заданных вопросов, выводите пустой список. Выводите только валидный JSON-контент и ничего более.

«Не галлюцинировать»

The Verge обнаружил конкретные инструкции, предписывающие ИИ не «галлюцинировать»:

Не галлюцинируйте. Не выдумывайте фактическую информацию.

Мнение 9to5Mac

Инструкции «не галлюцинировать» кажутся… оптимистичными! Причина, по которой генеративные системы ИИ «галлюцинируют» (то есть выдумывают ложную информацию), заключается в том, что они не понимают содержания и, следовательно, не имеют надежного способа узнать, правдив ли их результат.

Apple полностью осознает, что результаты ее ИИ-систем будут находиться под пристальным вниманием, так может быть, это просто случай, когда «любая помощь хороша»? С этими подсказками, по крайней мере, система ИИ понимает важность не выдумывать информацию, даже если она не может ей следовать.

Изображение: коллаж 9to5Mac с использованием изображения от Apple