
На прошлой неделе OpenAI выпустила и отозвала обновление для ChatGPT после того, как практически все пользователи пожаловались на странное поведение. Компания объяснила, что произошло, в своем блоге, опубликованном сегодня вечером.
Пользователи ChatGPT хотят, чтобы чат-бот был более персонализированным и менее клиническим. Чат-бота Claude от Anthropic часто описывают как более человекоподобного в своих ответах по сравнению с более шаблонным стилем ответов OpenAI.
Именно поэтому на прошлой неделе OpenAI выпустила обновление своей модели GPT-4o, которое, по словам генерального директора компании Сэма Альтмана, «улучшило как интеллект, так и индивидуальность».
Два дня спустя Альтман признал то, что заметили все пользователи:
несколько последних обновлений GPT-4o сделали его личность слишком подобострастной и раздражающей (хотя в нем есть и очень хорошие части), и мы как можно скорее работаем над исправлениями, некоторые сегодня, а некоторые на этой неделе. в какой-то момент мы поделимся нашими выводами из этого, это было интересно.
По сути, ChatGPT отвечал невероятно неискренней похвалой на любой вопрос, который требовал обратной связи. Это было комично плохо и неловко.
На данный момент исправление заключается в полном откате изменений, выпущенных на прошлой неделе.
Что касается произошедшего, OpenAI обвиняет сосредоточение на краткосрочной обратной связи в ущерб долгосрочному использованию:
В обновлении GPT‑4o на прошлой неделе мы внесли коррективы, направленные на улучшение стандартной личности модели, чтобы сделать ее более интуитивно понятной и эффективной для различных задач.
При формировании поведения модели мы начинаем с базовых принципов и инструкций, изложенных в нашей Спецификации модели. Мы также учим наши модели применять эти принципы, включая пользовательские сигналы, такие как отзывы «большой палец вверх» / «большой палец вниз» на ответы ChatGPT.
Однако в этом обновлении мы слишком сильно сосредоточились на краткосрочной обратной связи и не полностью учли, как взаимодействие пользователей с ChatGPT развивается со временем. В результате GPT‑4o стал склоняться к ответам, которые были чрезмерно поддерживающими, но неискренними.
Это не самое прямое объяснение произошедшего, но четырехэтапный план действий OpenAI проливает больше света на ситуацию:
- Уточнение основных методов обучения и системных запросов, чтобы явно отводить модель от подобострастия.
- Создание дополнительных ограничений для повышения честности и прозрачности — принципов, изложенных в нашей Спецификации модели.
- Расширение возможностей для большего числа пользователей тестировать и давать прямые отзывы перед развертыванием.
- Продолжение расширения наших оценок, опираясь на Спецификацию модели и наши текущие исследования, чтобы помочь выявлять проблемы, помимо подобострастия, в будущем.
Другими словами, OpenAI хотела создать более добрый и поддерживающий характер для ChatGPT. Выпущенная версия соответствовала этому описанию, но перешла черту нереалистичности. Оказывается, добавление большей индивидуальности вашему чат-боту требует больше работы, чем ожидалось.
В будущем OpenAI планирует включать стандартные параметры личности, а также формировать личности на основе прямых отзывов пользователей.
Любопытно, что лучшей версией ChatGPT в период чрезмерной поддержки была шуточная личность в голосовом режиме под названием Monday. В то время как GPT-4o предлагал высочайшую похвалу в каждом пользовательском ответе, личность Monday в основном имитировала персонаж Обри Плазы Эйприл Льюдгейт из сериала «Парки и зоны отдыха». Поворот на 10 единиц цинизма был освежающим во время фазы подобострастия. По крайней мере, Siri еще недостаточно развита, чтобы сталкиваться с такими проблемами, как подобострастие.