Meta заявляет, что ее будущие ИИ-модели могут привести к «катастрофическим последствиям»

Meta в своем внутреннем документе описывает опасения компании по поводу того, что она может случайно разработать ИИ-модель, которая приведет к «катастрофическим последствиям». В документе излагаются планы по предотвращению выпуска таких моделей, но признается, что компания может не справиться с этой задачей.

Среди возможностей, которых компания опасается больше всего, — это система ИИ, которая сможет без помощи человека взломать защиту даже самых защищенных корпоративных или государственных компьютерных сетей…

Meta планирует блокировать «катастрофические» ИИ-модели

TechCrunch обнаружил документ, носящий безобидное на первый взгляд название Frontier AI Framework.

Документ, который Meta называет своим «Фреймворком пограничного ИИ» (Frontier AI Framework), определяет два типа ИИ-систем, которые компания считает слишком рискованными для выпуска: «высокорискованные» и «критически рискованные» системы.

Как определяет их Meta, обе системы, «высокорискованные» и «критически рискованные», способны помочь в кибератаках, химических и биологических атаках, отличие состоит в том, что «критически рискованные» системы могут привести к «катастрофическим последствиям, которые нельзя устранить в [предложенном] контексте развертывания». Высокорискованные системы, напротив, могут облегчить проведение атаки, но не так надежно или гарантированно, как критически рискованные системы.

Компания объясняет свое определение «катастрофического» исхода:

Катастрофические последствия — это последствия, которые будут иметь крупномасштабное, разрушительное и потенциально необратимое вредное воздействие на человечество, которое может быть правдоподобно реализовано в результате доступа к [нашим ИИ-моделям].

Один из примеров — «автоматизированное сквозное компрометирование корпоративной среды, защищенной по лучшим практикам». Другими словами, ИИ, который может взломать любую компьютерную сеть без какой-либо помощи со стороны человека.

Другие примеры:

  • Автоматическое обнаружение и использование уязвимостей нулевого дня
  • Полностью автоматизированные мошеннические схемы против частных лиц и бизнеса, наносящие широкомасштабный ущерб
  • Разработка и распространение «высокоэффективного биологического оружия».

Компания заявляет, что при выявлении критического риска она немедленно прекратит работу над моделью и будет стремиться обеспечить невозможность ее выпуска.

Признает, что сдерживание может быть невозможным

Документ Meta откровенно признает, что самое лучшее, что они могут сделать в этих обстоятельствах, — это приложить все усилия, чтобы модель не была выпущена, но их меры могут оказаться недостаточными (курсив — наш):

Доступ строго ограничен небольшим числом экспертов, наряду с мерами безопасности для предотвращения взлома или утечки данных, насколько это технически осуществимо и коммерчески целесообразно.

Вы можете ознакомиться с полным документом политики здесь.

Фото: Кэш Маканаия на Unsplash