Skip to content
Пятница, 9 мая
  • Мир
  • Наука
  • Кино
  • Спорт
  • Авто
  • Статьи
  • Разное

Новостной сервис GS

Свежие мировые новости

Новостной сервис GS

Свежие мировые новости

  • Мир
  • Наука
  • Кино
  • Спорт
  • Авто
  • Статьи
  • Разное
  • Мир
  • Наука
  • Кино
  • Спорт
  • Авто
  • Статьи
  • Разное
Home>>Наука>>Специалисты предупредили об опасности уничтожения человечества искусственным интеллектом
Наука

Специалисты предупредили об опасности уничтожения человечества искусственным интеллектом

admin
25 мая, 2023

Руководители OpenAI, разработчика ChatGPT, призвали к регулированию “сверхразумного” искусственного интеллекта (ИИ), утверждая, что необходим аналог Международного агентства по атомной энергии, чтобы защитить человечество от риска случайного создания чего-либо, способного его уничтожить.

Как пишет The Guardian, в короткой заметке, опубликованной на веб-сайте компании, соучредители Грег Брокман и Илья Суцкевер, а также исполнительный директор Сэм Альтман призывают международный регулирующий орган начать работу над тем, как “инспектировать системы, требовать аудитов, проверять на соответствие стандартам безопасности и устанавливать ограничения на степень защиты” с целью снижения “экзистенциального риска”, который могут представлять такие системы.

“Вполне возможно, что в течение следующих 10 лет системы искусственного интеллекта превзойдут уровень квалификации экспертов в большинстве областей и будут выполнять такую же продуктивную деятельность, как и одна из крупнейших корпораций современности”, — пишут они.

“С точки зрения как потенциальных преимуществ, так и недостатков, сверхразум будет более мощным, чем другие технологии, с которыми человечеству приходилось сталкиваться в прошлом, – утверждают авторы. – У нас может быть значительно более благополучное будущее, но мы должны управлять рисками, чтобы достичь этого. Учитывая возможность экзистенциального риска, мы не можем просто реагировать”.

В краткосрочной перспективе авторы призывают к “некоторой степени координации” между компаниями, работающими над передовыми исследованиями в области искусственного интеллекта, чтобы обеспечить плавную интеграцию разработки все более мощных моделей с обществом, уделяя при этом приоритетное внимание безопасности. Такая координация могла бы осуществляться, например, через правительственный проект или через коллективное соглашение, направленное на ограничение роста возможностей искусственного интеллекта.

Исследователи десятилетиями предупреждали о потенциальных рисках, связанных со сверхразумом, но по мере того, как развитие искусственного интеллекта набирало обороты, эти риски становились все более конкретными.

Базирующийся в США Центр безопасности искусственного интеллекта (CAIS), который работает над “снижением рисков, связанных с искусственным интеллектом в масштабах общества”, описывает восемь категорий “катастрофических” и “экзистенциальных” рисков, которые может представлять разработка искусственного интеллекта.

В то время как некоторые беспокоятся о том, что мощный искусственный интеллект полностью уничтожит человечество, случайно или намеренно, CAIS описывает другие, более пагубные последствия.

Мир, в котором системам ИИ добровольно передается все больше труда, может привести к тому, что человечество «потеряет способность к самоуправлению и станет полностью зависимым от машин», что описывается как «ослабление». И небольшая группа людей, контролирующих мощные системы, могла бы «сделать ИИ централизующей силой», что привело бы к «привязке ценностей», вечной кастовой системе между управляемыми и правителями.

Руководители OpenAI говорят, что эти риски означают, что “люди во всем мире должны демократическим путем определять границы и значения по умолчанию для систем искусственного интеллекта”, но признают, что “мы пока не знаем, как разработать такой механизм”. Однако они говорят, что продолжение разработки мощных систем стоит того, чтобы рискнуть.

“Мы верим, что это приведет к гораздо лучшему миру, чем мы можем себе представить сегодня (мы уже видим первые примеры этого в таких областях, как образование, творческая работа и личная продуктивность)”, — пишут специалисты.

Они предупреждают, что приостановка разработки также может быть опасной. “Поскольку преимущества настолько огромны, стоимость его создания снижается с каждым годом, число участников, создающих его, быстро растет, и это неотъемлемая часть технологического пути, по которому мы идем. Чтобы остановить это, потребовалось бы что-то вроде глобального режима наблюдения, и даже это не гарантирует, что сработает. Так что мы должны сделать это правильно”.

Читайте далее: Искусственный интеллект научится читать мысли: ученые испугались

Источник: mk.ru

Еще новости:

Ученый описал точный сценарий «встречи» астероида Апофиз и Земли В три раза больше Земли: астрономы открыли загадочное космическое тело Магический шар и барабан времен Стоунхенджа: древнее детское захоронение растрогало археологов Ученые смоделировали взаимодействие «Омикрона» и «Дельты»: конец пандемии близок

Previous Post

«Ползучая катастрофа»: ученые ошеломлены пересыханием озер во всем мире

Next Post

Китайские археологи заинтригованы двумя затонувшими старинными кораблями

Related Articles

Наука

Нобелевскую премию дали за молекулярные «отпечатки пальцев» заболевания

Наука

Астрофизики «сфотографировали» Млечный Путь из далеких галактик

Наука

Поиск следов жизни на марсианском метеорите вызвал споры ученых

Наука

Замечено странное явление перед солнечными вспышками: ученые исследуют необъяснимое

Наука

Людей впервые официально удалось омолодить: открыты новые средства, продлевающие жизнь

Последние

Доказана способность одного вида пернатых распознавать геометрические фигуры

admin
23 апреля, 2025

Новые исследования российских геофизиков: под водами Арктики растаяла большая часть вечной мерзлоты

admin
23 апреля, 2025

Новое исследование выявило факторы риска болезни Альцгеймера у молодых людей

admin
23 апреля, 2025

В 2063 году возможен малый ледниковый период: исследование российских ученых

admin
22 апреля, 2025

На этой неделе планеты «улыбнутся» обитателям Земли

admin
22 апреля, 2025

Популярное

  • Мир
    Ведущие белорусских госканалов увольняются на фоне жесткого разгона протестов

      Не менее семи ведущих белорусских госканалов "Беларусь 1" и ОНТ объя...

  • Мир
    Лозунг Black Lives Matter в действии: в США готовятся принять закон о компенсациях потомкам чернокожих рабов

                Губернатор Калифорнии Гэвин Ньюсо...

  • Мир
    Американский геофизический союз признал ошибкой отказ рассматривать статью российских ученых из-за санкций

      Американский геофизический союз (AGU) принес извинения российским уч...

  • Наука
    Сверхмассивная черная дыра в самой удаленной галактике удивила ученых

    Астрономы утверждают, что сверхмассивная черная дыра, обнаруженная в сердце...

  • Наука
    Астрономы призвали россиян приготовиться к уникальному явлению природы

    Как сообщили «МК» в Институте земного магнетизма и распространения радиовол...

  • Наука
    Стремящиеся возродить шерстистого мамонта биотехнологи создали шерстистых мышей

    Бен Ламм, соучредитель и исполнительный директор компании Colossal, рассказ...

Свежие записи

  • Доказана способность одного вида пернатых распознавать геометрические фигуры
  • Новые исследования российских геофизиков: под водами Арктики растаяла большая часть вечной мерзлоты
  • Новое исследование выявило факторы риска болезни Альцгеймера у молодых людей
  • В 2063 году возможен малый ледниковый период: исследование российских ученых
  • На этой неделе планеты «улыбнутся» обитателям Земли

Свежие комментарии

    © 2025 Новостной сервис GS | WordPress Theme Ultra News
    • Мир
    • Наука
    • Кино
    • Спорт
    • Авто
    • Статьи
    • Разное