
Meta в своем внутреннем документе описывает опасения компании по поводу того, что она может случайно разработать ИИ-модель, которая приведет к «катастрофическим последствиям». В документе излагаются планы по предотвращению выпуска таких моделей, но признается, что компания может не справиться с этой задачей.
Среди возможностей, которых компания опасается больше всего, — это система ИИ, которая сможет без помощи человека взломать защиту даже самых защищенных корпоративных или государственных компьютерных сетей…
Meta планирует блокировать «катастрофические» ИИ-модели
TechCrunch обнаружил документ, носящий безобидное на первый взгляд название Frontier AI Framework.
Документ, который Meta называет своим «Фреймворком пограничного ИИ» (Frontier AI Framework), определяет два типа ИИ-систем, которые компания считает слишком рискованными для выпуска: «высокорискованные» и «критически рискованные» системы.
Как определяет их Meta, обе системы, «высокорискованные» и «критически рискованные», способны помочь в кибератаках, химических и биологических атаках, отличие состоит в том, что «критически рискованные» системы могут привести к «катастрофическим последствиям, которые нельзя устранить в [предложенном] контексте развертывания». Высокорискованные системы, напротив, могут облегчить проведение атаки, но не так надежно или гарантированно, как критически рискованные системы.
Компания объясняет свое определение «катастрофического» исхода:
Катастрофические последствия — это последствия, которые будут иметь крупномасштабное, разрушительное и потенциально необратимое вредное воздействие на человечество, которое может быть правдоподобно реализовано в результате доступа к [нашим ИИ-моделям].
Один из примеров — «автоматизированное сквозное компрометирование корпоративной среды, защищенной по лучшим практикам». Другими словами, ИИ, который может взломать любую компьютерную сеть без какой-либо помощи со стороны человека.
Другие примеры:
- Автоматическое обнаружение и использование уязвимостей нулевого дня
- Полностью автоматизированные мошеннические схемы против частных лиц и бизнеса, наносящие широкомасштабный ущерб
- Разработка и распространение «высокоэффективного биологического оружия».
Компания заявляет, что при выявлении критического риска она немедленно прекратит работу над моделью и будет стремиться обеспечить невозможность ее выпуска.
Признает, что сдерживание может быть невозможным
Документ Meta откровенно признает, что самое лучшее, что они могут сделать в этих обстоятельствах, — это приложить все усилия, чтобы модель не была выпущена, но их меры могут оказаться недостаточными (курсив — наш):
Доступ строго ограничен небольшим числом экспертов, наряду с мерами безопасности для предотвращения взлома или утечки данных, насколько это технически осуществимо и коммерчески целесообразно.
Вы можете ознакомиться с полным документом политики здесь.
Фото: Кэш Маканаия на Unsplash