Калифорния приняла спорный законопроект, регулирующий обучение моделей ИИ

Пока мир обсуждает, что правильно и что неправильно в области генеративного ИИ, Законодательное собрание и Сенат Калифорнии приняли законопроект «Безопасные и надежные инновации для передовых моделей искусственного интеллекта» (SB 1047), который является одним из первых значимых нормативных актов для ИИ в Соединенных Штатах.

Калифорния хочет регулировать ИИ новым законопроектом

Законопроект, по которому проголосовали в четверг (через The Verge), стал предметом споров в Кремниевой долине, поскольку он фактически обязывает компании, занимающиеся ИИ в Калифорнии, принимать ряд мер предосторожности перед обучением «сложной базовой модели».

Согласно новому закону, разработчики должны будут убедиться, что они смогут быстро и полностью отключить модель ИИ, если она будет признана небезопасной. Языковые модели также должны будут быть защищены от «небезопасных модификаций после обучения» или всего, что может вызвать «критический вред». Сенаторы описывают законопроект как «меры защиты общества» от злоупотребления ИИ.

Профессор Хинтон, бывший руководитель отдела ИИ в Google, высоко оценил законопроект за признание того, что риски мощных систем ИИ «очень реальны и к ним следует относиться чрезвычайно серьезно».

Однако такие компании, как OpenAI, и даже мелкие разработчики раскритиковали законопроект о безопасности ИИ, поскольку он предусматривает уголовную ответственность для тех, кто не соблюдает его положения. Некоторые утверждают, что законопроект навредит независимым разработчикам, которым придется нанимать юристов и заниматься бюрократией при работе с моделями ИИ.

Губернатор Гэвин Ньюсом теперь до конца сентября должен решить, одобрить или наложить вето на законопроект.

Apple и другие компании обязуются соблюдать правила безопасности ИИ

Apple Intelligence | OpenAI ChatGPT | Google Gemini | AI

Ранее в этом году Apple и другие технологические компании, такие как Amazon, Google, Meta и OpenAI, согласились с набором добровольных правил безопасности ИИ, установленных администрацией Байдена. Правила безопасности излагают обязательства по тестированию поведения систем ИИ, обеспечивая отсутствие дискриминационных тенденций или проблем с безопасностью.

Результаты проведенных тестов должны быть переданы правительствам и научным кругам для экспертной оценки. По крайней мере, на данный момент правила Белого дома в отношении ИИ не имеют обязательной юридической силы.

Apple, разумеется, проявляет большой интерес к подобным нормативным актам, поскольку компания работает над функциями Apple Intelligence, которые будут выпущены для общественности позднее в этом году с iOS 18.1 и macOS Sequoia 15.1.

Стоит отметить, что функции Apple Intelligence требуют iPhone 15 Pro или новее, или iPad и Mac с чипом M1 или новее.