Соединенные Штаты, Британия и более десятка других стран в воскресенье обнародовали то, что высокопоставленный американский чиновник назвал первым подробным международным соглашением о том, как обезопасить искусственный интеллект от злоумышленников, подталкивая компании к созданию систем искусственного интеллекта, которые “безопасны по замыслу”.
Как сообщает Reuters, в 20-страничном документе, обнародованном в воскресенье, 18 стран согласились с тем, что компаниям, разрабатывающим и использующим искусственный интеллект, необходимо разрабатывать и внедрять его таким образом, чтобы обезопасить клиентов и широкую общественность от неправильного использования ИИ.
Соглашение, впрочем, не имеет обязательной силы и содержит в основном общие рекомендации, такие как мониторинг систем искусственного интеллекта на предмет злоупотреблений, защита данных от подделки и проверка поставщиков программного обеспечения.
Тем не менее, директор Агентства кибербезопасности и защиты инфраструктуры США Джен Истерли отмечает, что важно, чтобы так много стран поддержали идею о том, что системы искусственного интеллекта должны ставить безопасность на первое место.
“Это первый раз, когда мы видим подтверждение того, что эти возможности должны касаться не только интересных функций и того, как быстро мы можем вывести их на рынок, или того, как мы можем конкурировать, чтобы снизить затраты”, — подчеркивает Истерли, добавив, что руководящие принципы представляют собой “соглашение о том, что самое важное, что нужно сделать то, что должно быть сделано на этапе проектирования, — это безопасность”.
Соглашение является последней в серии инициатив – лишь немногие из которых имеют успех – правительств по всему миру, направленных на формирование развития искусственного интеллекта, вес которого все больше ощущается в промышленности и обществе в целом. В конце прошлого месяца Великобритания провела саммит по ИИ.
Помимо Соединенных Штатов и Великобритании, в число 18 стран, подписавших новые руководящие принципы, входят Германия, Италия, Чешская Республика, Эстония, Польша, Австралия, Чили, Израиль, Нигерия и Сингапур, сообщает Reuters.
Договоренность рассматривает вопросы о том, как уберечь технологию искусственного интеллекта от взлома хакерами, и включает такие рекомендации, как выпуск моделей только после соответствующего тестирования безопасности.
В документе не рассматриваются острые вопросы, связанные с надлежащим использованием искусственного интеллекта или с тем, как собираются данные, которые питают эти модели.
Развитие искусственного интеллекта породило множество опасений, в том числе опасение, что он может быть использован для подрыва демократического процесса, усиления мошенничества или привести к резкой потере работы, а также к другим вредным последствиям, напоминает Reuters.
Европа опережает Соединенные Штаты по регулированию в области искусственного интеллекта, и тамошние законодатели разрабатывают правила в области искусственного интеллекта. Франция, Германия и Италия также недавно достигли соглашения о том, как следует регулировать искусственный интеллект, которое поддерживает “обязательное саморегулирование посредством кодексов поведения” для так называемых базовых моделей ИИ, которые предназначены для получения широкого спектра результатов.
Администрация Байдена настаивала на регулировании искусственного интеллекта законодателями, но поляризованный Конгресс США практически не продвинулся в принятии эффективного регулирования.
Белый дом стремился снизить риски искусственного интеллекта для потребителей, работников и групп меньшинств, одновременно укрепляя национальную безопасность новым указом президента в октябре.
Источник: mk.ru