Один из профессоров, стоящих на переднем крае развития искусственного интеллекта, сказал, что министры делают недостаточно для защиты от опасностей, связанных со сверхразумными машинами в будущем, пишет The Guardian.
В своем последнем вкладе в дискуссию о безопасности постоянно ускоряющегося развития искусственного интеллекта профессор Стюарт Рассел рассказал The Times, что министры неохотно регулируют отрасль, несмотря на опасения, что технология может выйти из-под контроля и угрожать будущему человечества.
Рассел, преподаватель Калифорнийского университета в Беркли и бывший советник правительств США и Великобритании, признает, что он обеспокоен тем, что ChatGPT, который был выпущен в ноябре, может стать частью сверхинтеллектуальной машины, которую будет невозможно ограничить.
“Как вам удается сохранять власть над существами, более могущественными, чем вы, – вечно? – задается вопросом профессор. – Если у вас нет ответа, тогда прекратите проводить исследование. Все очень просто. Ставки не могут быть выше: если мы не будем контролировать нашу собственную цивилизацию, у нас не будет права голоса в том, продолжим ли мы существовать”.
Как пишет The Guardian, после обнародования в прошлом году ChatGPT, который использовался для написания прозы и уже вызвал беспокойство лекторов и преподавателей по поводу его использования в университетах и школах, усилились дебаты о его безопасности в долгосрочной перспективе.
Илон Маск, основатель Tesla и владелец Twitter, и соучредитель Apple Стив Возняк вместе с 1000 экспертами по искусственному интеллекту написали письмо, в котором предупредили, что в лабораториях ИИ происходит “неконтролируемая гонка”, и призвали приостановить создание гигантского искусственного интеллекта.
В письме предупреждалось, что эти лаборатории разрабатывают “все более мощные цифровые разумы, которые никто, даже их создатели, не может понять, предсказать или надежно контролировать”.
Существует также обеспокоенность по поводу его более широкого применения. Комитет Палаты лордов на этой неделе заслушал показания сэра Лоуренса Фридмана, профессора военных исследований, который рассказал об опасениях по поводу того, как искусственный интеллект может быть использован в будущих войнах.
Сам профессор Рассел ранее работал в ООН над вопросами контроля за соблюдением договора о запрещении ядерных испытаний, и ранее в этом году его попросили поработать с Уайтхоллом. Он сказал: “Министерство иностранных дел… поговорило со многими людьми, и они пришли к выводу, что потеря контроля оказалась вероятным и чрезвычайно важным результатом. И тогда правительство выступило с нормативным подходом, который гласит: «Здесь не на что смотреть… мы будем приветствовать индустрию искусственного интеллекта”, как если бы речь шла о производстве автомобилей или о чем-то подобном. Я думаю, мы что-то сделали не так с самого начала, когда были настолько увлечены идеей понимания и создания интеллекта, что не задумывались о том, для чего этот интеллект будет нужен”.
“Если только его единственная цель не состоит в том, чтобы приносить пользу людям, вы фактически создаете конкурента – и это было бы, очевидно, глупостью. Нам не нужны системы, имитирующие человеческое поведение… По сути, вы обучаете их ставить перед собой цели, подобные человеческим, и добиваться этих целей. Вы можете только представить, насколько катастрофичным было бы иметь действительно способные системы, которые преследовали бы такого рода цели”, – предостерегает эксперт.
Источник: mk.ru