Skip to content
Понедельник, 29 мая
  • Мир
  • Наука
  • Кино
  • Спорт
  • Авто
  • Статьи
  • Разное

Новостной сервис GS

Свежие мировые новости

Новостной сервис GS

Свежие мировые новости

  • Мир
  • Наука
  • Кино
  • Спорт
  • Авто
  • Статьи
  • Разное
  • Мир
  • Наука
  • Кино
  • Спорт
  • Авто
  • Статьи
  • Разное
Home>>Наука>>Специалисты предупредили об опасности уничтожения человечества искусственным интеллектом
Наука

Специалисты предупредили об опасности уничтожения человечества искусственным интеллектом

admin
25 мая, 2023

Руководители OpenAI, разработчика ChatGPT, призвали к регулированию “сверхразумного” искусственного интеллекта (ИИ), утверждая, что необходим аналог Международного агентства по атомной энергии, чтобы защитить человечество от риска случайного создания чего-либо, способного его уничтожить.

Как пишет The Guardian, в короткой заметке, опубликованной на веб-сайте компании, соучредители Грег Брокман и Илья Суцкевер, а также исполнительный директор Сэм Альтман призывают международный регулирующий орган начать работу над тем, как “инспектировать системы, требовать аудитов, проверять на соответствие стандартам безопасности и устанавливать ограничения на степень защиты” с целью снижения “экзистенциального риска”, который могут представлять такие системы.

“Вполне возможно, что в течение следующих 10 лет системы искусственного интеллекта превзойдут уровень квалификации экспертов в большинстве областей и будут выполнять такую же продуктивную деятельность, как и одна из крупнейших корпораций современности”, — пишут они.

“С точки зрения как потенциальных преимуществ, так и недостатков, сверхразум будет более мощным, чем другие технологии, с которыми человечеству приходилось сталкиваться в прошлом, – утверждают авторы. – У нас может быть значительно более благополучное будущее, но мы должны управлять рисками, чтобы достичь этого. Учитывая возможность экзистенциального риска, мы не можем просто реагировать”.

В краткосрочной перспективе авторы призывают к “некоторой степени координации” между компаниями, работающими над передовыми исследованиями в области искусственного интеллекта, чтобы обеспечить плавную интеграцию разработки все более мощных моделей с обществом, уделяя при этом приоритетное внимание безопасности. Такая координация могла бы осуществляться, например, через правительственный проект или через коллективное соглашение, направленное на ограничение роста возможностей искусственного интеллекта.

Исследователи десятилетиями предупреждали о потенциальных рисках, связанных со сверхразумом, но по мере того, как развитие искусственного интеллекта набирало обороты, эти риски становились все более конкретными.

Базирующийся в США Центр безопасности искусственного интеллекта (CAIS), который работает над “снижением рисков, связанных с искусственным интеллектом в масштабах общества”, описывает восемь категорий “катастрофических” и “экзистенциальных” рисков, которые может представлять разработка искусственного интеллекта.

В то время как некоторые беспокоятся о том, что мощный искусственный интеллект полностью уничтожит человечество, случайно или намеренно, CAIS описывает другие, более пагубные последствия.

Мир, в котором системам ИИ добровольно передается все больше труда, может привести к тому, что человечество «потеряет способность к самоуправлению и станет полностью зависимым от машин», что описывается как «ослабление». И небольшая группа людей, контролирующих мощные системы, могла бы «сделать ИИ централизующей силой», что привело бы к «привязке ценностей», вечной кастовой системе между управляемыми и правителями.

Руководители OpenAI говорят, что эти риски означают, что “люди во всем мире должны демократическим путем определять границы и значения по умолчанию для систем искусственного интеллекта”, но признают, что “мы пока не знаем, как разработать такой механизм”. Однако они говорят, что продолжение разработки мощных систем стоит того, чтобы рискнуть.

“Мы верим, что это приведет к гораздо лучшему миру, чем мы можем себе представить сегодня (мы уже видим первые примеры этого в таких областях, как образование, творческая работа и личная продуктивность)”, — пишут специалисты.

Они предупреждают, что приостановка разработки также может быть опасной. “Поскольку преимущества настолько огромны, стоимость его создания снижается с каждым годом, число участников, создающих его, быстро растет, и это неотъемлемая часть технологического пути, по которому мы идем. Чтобы остановить это, потребовалось бы что-то вроде глобального режима наблюдения, и даже это не гарантирует, что сработает. Так что мы должны сделать это правильно”.

Читайте далее: Искусственный интеллект научится читать мысли: ученые испугались

Источник: mk.ru

Еще новости:

Ученый описал точный сценарий «встречи» астероида Апофиз и Земли В три раза больше Земли: астрономы открыли загадочное космическое тело Магический шар и барабан времен Стоунхенджа: древнее детское захоронение растрогало археологов Ученые смоделировали взаимодействие «Омикрона» и «Дельты»: конец пандемии близок

Previous Post

«Ползучая катастрофа»: ученые ошеломлены пересыханием озер во всем мире

Next Post

Китайские археологи заинтригованы двумя затонувшими старинными кораблями

Related Articles

Наука

«Великий поход»: Китай приступил к историческому полету на Марс

Наука

Названы 5 стран, которые могут пережить ядерную зиму

Наука

Создан суперкомпозит для космических самолетов

Наука

Ученые смоделировали взаимодействие «Омикрона» и «Дельты»: конец пандемии близок

Наука

Названо двоякое воздействие употребления кофе на организм

Последние

«Мы не понимаем»: ученые не смогли объяснить длительные последствия коронавируса

admin
27 мая, 2023

Нейрофизиолог Балабан дал оценку экспериментам Маска по имплантации чипов в мозг

admin
27 мая, 2023

Сверхмассивная черная дыра в самой удаленной галактике удивила ученых

admin
27 мая, 2023

Китайские археологи заинтригованы двумя затонувшими старинными кораблями

admin
25 мая, 2023

Специалисты предупредили об опасности уничтожения человечества искусственным интеллектом

admin
25 мая, 2023

Популярные

  • Наука
    Сверхмассивная черная дыра в самой удаленной галактике удивила ученых
© 2023 Новостной сервис GS | WordPress Theme Ultra News
  • Мир
  • Наука
  • Кино
  • Спорт
  • Авто
  • Статьи
  • Разное