
США, Великобритания и еще 16 стран подписали соглашение, обязующееся предпринять шаги для обеспечения «безопасности по дизайну» ИИ.
Хотя это признается как базовое изложение принципов, Агентство по кибербезопасности и защите инфраструктуры США (CISA) заявило, что это важный первый шаг…
Reuters сообщает.
Соединенные Штаты, Великобритания и более дюжины других стран в воскресенье представили то, что высокопоставленный представитель США описал как первое подробное международное соглашение о том, как обезопасить искусственный интеллект от злоумышленников, призывая компании создавать системы ИИ, «безопасные по дизайну».
В 20-страничном документе, представленном в воскресенье, 18 стран согласились с тем, что компании, разрабатывающие и использующие ИИ, должны разрабатывать и внедрять его таким образом, чтобы защитить клиентов и широкую общественность от неправомерного использования.
Директор CISA Джен Эстерли заявила, что важно, чтобы страны признали необходимость подхода, ориентированного на безопасность, при разработке ИИ, и призвала другие страны присоединиться.
«Это первый раз, когда мы видим подтверждение того, что эти возможности должны быть не просто крутыми функциями, не тем, как быстро мы можем вывести их на рынок или как мы можем конкурировать, чтобы снизить затраты», — заявила Эстерли Reuters, добавив, что рекомендации представляют собой «соглашение о том, что самое важное, что нужно сделать на этапе проектирования, — это безопасность».
Среди других стран, подписавших соглашение на данный момент, — Германия, Италия, Чехия, Эстония, Польша, Австралия, Чили, Израиль, Нигерия и Сингапур.
Европа добилась успехов в этой области, предприняв попытку создать конкретные законы, регулирующие разработку и выпуск новых систем ИИ — которые включали бы юридическое требование к компаниям проводить регулярное тестирование безопасности для выявления потенциальных уязвимостей. Однако прогресс в этом направлении был медленным, что привело к тому, что Франция, Германия и Италия достигли собственного промежуточного соглашения.
Белый дом призвал Конгресс разработать регулирование ИИ в США, но на сегодняшний день достигнут небольшой прогресс. В прошлом месяце президент Байден подписал исполнительный указ, обязывающий компании, занимающиеся ИИ, проводить тесты безопасности, в основном направленные на защиту систем от хакеров.
Использование ИИ компанией Apple
Apple уже много лет интегрирует функции ИИ в свои продукты, особенно в области фотографии на iPhone. Компания разработала собственный чат-бот под названием Apple GPT, но пока использует его только внутри компании, вероятно, потому, что хочет использовать возможности генеративного ИИ для разработки программного обеспечения, не ставя под угрозу безопасность продуктов.
Учитывая типично осторожный подход компании к новым технологиям, потребуется некоторое время, прежде чем Apple выпустит что-то подобное для своих клиентов.
Мнение 9to5Mac
Создание законов, направленных на обеспечение безопасности новых систем ИИ, чрезвычайно сложно.
Сама природа систем ИИ — которые развивают собственные возможности, а не специально запрограммированы на определенные действия или бездействие — означает, что даже исследователи, работающие над проектом, могут не полностью осознавать, чего может достичь новая модель ИИ, пока она еще не завершена.
Также часто возникают разногласия среди исследователей относительно того, каковы эти возможности, и что они могут означать для будущего.
Это 20-страничное соглашение чрезвычайно базовое, скорее изложение общих принципов, чем план действий, но, учитывая возникшие проблемы, оно, вероятно, является по крайней мере разумной отправной точкой. Оно устанавливает, что исследовательские компании обязаны специально искать уязвимости безопасности.
Однако важно отметить, что инициатива касается исключительно того, как хакеры могут использовать системы ИИ. Она не затрагивает гораздо более широкий и важный вопрос о том, как сами системы ИИ могут представлять угрозу для человечества.