
Поскольку 2024 год обещает стать годом, когда Apple сделает большой шаг в генеративный ИИ, федеральное правительство также поощряет использование ИИ собственными ведомствами…
Однако сегодня Белый дом объявил, что правительственные учреждения, желающие использовать ИИ, должны применять три меры предосторожности для снижения потенциальных рисков этой технологии.
Три правила для федеральных инициатив в области искусственного интеллекта
Engadget отмечает, что вице-президент Камала Харрис объявила о новой политике, которая устанавливает три требования для федеральных агентств при внедрении инициатив в области ИИ:
- Обеспечение безопасности
- Прозрачность
- Назначение главного специалиста по ИИ
«Я считаю, что все лидеры от правительства, гражданского общества и частного сектора несут моральный, этический и общественный долг обеспечить, чтобы искусственный интеллект внедрялся и развивался таким образом, чтобы защитить общественность от потенциального вреда, гарантируя при этом, что каждый сможет пользоваться его преимуществами», — заявила вице-президент журналистам на пресс-конференции.
Обеспечение безопасности
Во-первых, агентства должны будут гарантировать, что любые используемые ими инструменты ИИ «не ставят под угрозу права и безопасность американского народа». У них есть время до 1 декабря, чтобы убедиться, что они внедрили «конкретные меры предосторожности» для обеспечения того, чтобы системы ИИ, которые они используют, не влияли на безопасность или права американцев.
Это требование не ограничивается физической безопасностью, но также включает такие аспекты, как поддержание целостности выборов и инфраструктуры голосования.
Одной из главных проблем, поднятых в связи с системами ИИ, является то, что, поскольку они обучаются на основе прошлого опыта, они могут увековечивать системную предвзятость. Поэтому требуются соответствующие меры предосторожности при использовании ИИ в таких областях, как предиктивная полиция и скрининг кандидатов при приеме на работу.
Прозрачность
Федеральные агентства должны раскрывать используемые ими системы ИИ, причем в большинстве случаев полная информация должна быть общедоступной.
«Сегодня президент Байден и я требуем, чтобы каждый год государственные учреждения США публиковали в Интернете список своих систем ИИ, оценку рисков, которые эти системы могут представлять, и то, как эти риски управляются», — сказала Харрис.
В рамках этих усилий агентства должны будут публиковать принадлежащий правительству код, модели и данные ИИ, если это не нанесет вреда общественности или государственным операциям.
Назначение главного специалиста по ИИ
И наконец, федеральные агентства должны будут осуществлять внутренний надзор за использованием ИИ. Это включает назначение каждым ведомством главного специалиста по ИИ для контроля за использованием ИИ во всех агентствах.
«Это делается для того, чтобы ИИ использовался ответственно, понимая, что у нас должны быть старшие руководители во всем нашем правительстве, которым специально поручено контролировать внедрение и использование ИИ», — отметила Харрис. Многие агентства также должны будут иметь комитеты по управлению ИИ к 27 мая.
Относительно медленное продвижение Apple в области генеративного ИИ, скорее всего, связано с собственными опасениями компании относительно потенциальных рисков.