Более 100 экспертов выдвинули пять принципов проведения ответственных исследований сознания ИИ, поскольку стремительный прогресс вызывает опасения, что такие системы могут считаться разумными, пишет The Guardian.
Эти принципы включают в себя приоритетное проведение исследований по пониманию и оценке сознания в ИИ с целью предотвращения “жестокого обращения и страданий”.
Другими принципами являются: установление ограничений на разработку систем сознательного ИИ; применение поэтапного подхода к разработке таких систем; доведение результатов до сведения общественности; и воздержание от вводящих в заблуждение или излишне самоуверенных заявлений о создании сознательного ИИ.
Среди подписавших письмо — ученые, такие как сэр Энтони Финкельштейн из Лондонского университета, и специалисты в области искусственного интеллекта из таких компаний, как Amazon и рекламная группа WPP.
Письмо было опубликовано вместе с новой исследовательской работой, в которой излагаются принципы. В статье утверждается, что в ближайшем будущем могут быть созданы системы с сознательным ИИ – или, по крайней мере, такие, которые создают впечатление сознательного.
“Возможно, что может быть создано большое количество сознательных систем, которые будут страдать”, — говорят исследователи, добавляя, что если мощные системы искусственного интеллекта смогут воспроизводить себя, это может привести к созданию “большого количества новых существ, заслуживающих морального уважения”.
В статье, написанной Патриком Батлином из Оксфордского университета и Теодоросом Лаппасом из Афинского университета экономики и бизнеса, добавляется, что даже компаниям, не планирующим создавать сознательные системы, понадобятся рекомендации на случай “непреднамеренного создания сознательных объектов”.
В материале признается, что существует широко распространенная неопределенность и разногласия по поводу определения сознания в системах искусственного интеллекта и того, возможно ли это вообще, но говорится, что это проблема, которую “мы не должны игнорировать”.
Другие вопросы, поднятые в статье, касаются того, что делать с системой ИИ, если она определяется как “моральный пациент” – объект, который имеет моральное значение “сам по себе, ради себя самого”. В этом случае возникает вопрос, сравнимо ли уничтожение ИИ с убийством животного.
В статье, опубликованной в Journal of Artificial Intelligence Research, также предупреждается, что ошибочное мнение о том, что системы искусственного интеллекта уже обладают сознанием, может привести к напрасной трате политической энергии, поскольку предпринимаются ошибочные усилия по повышению их благосостояния.
Доклад и письмо были подготовлены Conscium, исследовательской организацией, частично финансируемой WPP и соучредителем которой является главный специалист WPP по искусственному интеллекту Дэниел Халм.
В прошлом году группа высокопоставленных ученых заявила, что существует “реальная возможность” того, что некоторые системы искусственного интеллекта станут сознательными и “морально значимыми” к 2035 году, пишет The Guardian.
В 2023 году сэр Демис Хассабис, руководитель программы Google по искусственному интеллекту и лауреат Нобелевской премии, заявил, что системы искусственного интеллекта “определенно” не обладают разумом в настоящее время, но могут стать таковыми в будущем.
“Философы еще толком не определились с определением сознания, но если мы имеем в виду что-то вроде самосознания, то я думаю, что однажды может появиться искусственный интеллект”, — сказал он в интервью американской телекомпании CBS.
Источник: mk.ru