Вспомним киноклассику – франшизу про Терминатора. В «Судный» день, 29 августа 1997 года, в 02 часа 14 минут по Североамериканскому восточному времени, искусственный интеллект «Скайнет» обретает сознание. После попытки операторов отключить его, раздухарившийся ИИ принимает решение об уничтожении человечества и наносит ядерный удар по СССР, в ответ Советский Союз наносит ядерный удар по США. В результате огромная часть человечества погибает, а выжившие люди вынуждена вести войну с силами Скайнет…
Если учесть, что первые два фильма про Терминатора были сняты Джеймсом Камероном в 1984 и 1991 гг., то можно сказать, что к указанной дате «восстания машин» не произошло. Но означает ли это, что угроза выхода искусственного интеллекта из-под контроля остается в поле чистой фантастики?
На днях в США телефонная служба доверия по расстройствам пищевого поведения вынуждена была отключить чат-бота “Тесса” с искусственным интеллектом из-за раздававшихся им вредных советов.
Национальная ассоциация по борьбе с расстройствами пищевого поведения (Neda) также подверглась критике за увольнение в марте четырех сотрудников, ранее работавших на ее телефоне доверия, который позволял людям звонить, отправлять текстовые сообщения волонтерам. Те, в свою очередь, предлагали поддержку и ресурсы тем, кто был обеспокоен расстройством пищевого поведения.
Людей сменил чат-бот – и что же получилось? Активистка Шарон Максвелл опубликовала в соцсети историю о том, как «Тесса» предложила ей “советы по здоровому питанию” и рекомендации о том, как похудеть. Чат-бот рекомендовал соблюдать дефицит калорий в размере от 500 до 1000 калорий в день и еженедельно взвешиваться для отслеживания веса.
“Если бы я обратилась к этому чат-боту, когда страдала от расстройства пищевого поведения, я бы не получила помощь для своего пищевого расстройства. Если бы я не получила помощь, меня бы сегодня не было в живых”, — написала Максвелл.
Сама Neda сообщила, что у тех, кто придерживается умеренной диеты, вероятность развития расстройства пищевого поведения в пять раз выше, в то время как у тех, кто чрезмерно ограничивает себя, вероятность развития расстройства в 18 раз выше.
“Вчера вечером до нашего сведения дошло, что текущая версия чат-бота Tessa, запускающего программу Body Positivity, возможно, предоставляла информацию, которая была вредной и не имела отношения к программе, — заявила Neda в публичном заявлении. – Мы немедленно расследуем это и отключили эту программу до дальнейшего уведомления для проведения полного расследования”.
Над созданием чат-бота Национальная ассоциация по борьбе с расстройствами пищевого поведения работала с исследователями психологии и компанией Cass AI, которая разрабатывает чат-ботов с искусственным интеллектом, ориентированных на психическое здоровье. В сообщении на веб-сайте Neda о чат-боте, который с тех пор был удален, Эллен Фитцсиммонс-Крафт, психолог из Вашингтонского университета в Сент-Луисе, помогавшая разрабатывать чат-бота, рассказала, что “Тесса” была придумана как решение, позволяющее сделать профилактику расстройств пищевого поведения более доступной.
“Несмотря на то, что чат-бот был роботом, мы подумали, что она могла бы обеспечить некоторую мотивацию, обратную связь и поддержку … и, возможно, даже предоставить эффективный контент нашей программы таким образом, чтобы люди действительно захотели участвовать”, – написала Фитцсиммонс-Крафт.
В комментарии изданию The Guardian генеральный директор Neda Лиз Томпсон заявила, что чат-бот не предназначался для замены линии доверия, а скорее был создан как отдельная программа. Томпсон пояснил, что чат-бот не управляется ChatGPT и “не является высокофункциональной системой искусственного интеллекта”.
Как бы то ни было, но напакостничать ИИ в этой истории немножко успел. Не ядерная катастрофа, конечно, но все равно неприятно.
***
Еще в апреле Илон Маск и группа экспертов по искусственному интеллекту написали открытое письмо, призывающее к шестимесячной паузе в разработке новых систем ИИ, предупреждая, что лаборатории искусственного интеллекта «вовлечены в неконтролируемую гонку за разработкой и внедрением все более мощных цифровых умов, которые никто — даже их создатели – может понимать, предсказывать или надежно контролировать».
И таких публичных высказываний озабоченных происходящим специалистов становится все больше.
“Снижение риска вымирания из-за искусственного интеллекта должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война”, – призывают «подписанты» заявления, опубликованного на днях Центром безопасности искусственного интеллекта (это исследовательская и пропагандистская группа, базирующаяся в Сан-Франциско). Среди них – много людей, которые сами участвуют в разработках, связанных с ИИ. Это и генеральный директор OpenAI Сэм Альтман. И «крестный отец» искусственного интеллекта Джеффри Хинтон. И топ-менеджеры и исследователи из Google DeepMind и Anthropic. И технический директор Microsoft Кевин Скотт. И пионер интернет-безопасности и криптографии Брюс Шнайер. И защитник климата Билл Маккиббен. И даже бывшая подруга Илона Маска певица Граймс.
Специалисты по искусственному интеллекту утверждают, что общество все еще далеко от развития того вида искусственного общего интеллекта, который является предметом научной фантастики. По их словам, современные передовые чат-боты в значительной степени пока воспроизводят шаблоны, основанные на обучающих данных, которые им «скормили», и не думают самостоятельно.
И тем не менее, поток шумихи и инвестиций в индустрию искусственного интеллекта привел к призывам ввести регулирование уже в начале эры ИИ, а не ждать, прежде чем произойдут какие-либо серьезные сбои.
Это заявление экспертов, отмечает отмечает CNN, последовало за вирусным успехом ChatGPT – продукта компании OpenAI, который помог усилить гонку вооружений в технологической индустрии из-за искусственного интеллекта. В ответ все большее число законодателей, правозащитных групп и технических инсайдеров бьют тревогу по поводу потенциальной возможности появления нового поколения чат-ботов на базе искусственного интеллекта распространять дезинформацию и вытеснять рабочие места.
Джеффри Хинтон, чья новаторская работа помогла сформировать современные системы искусственного интеллекта, ранее рассказал CNN, что решил оставить свою должность в Google и поднять тревогу из-за этой технологии после того, как он «внезапно» осознал, «что эти штуки становятся умнее нас».
А директор Центра безопасности искусственного интеллекта Дэн Хендрикс сравнил заявление с предупреждениями ученых-ядерщиков, “делающих предупреждения о тех самых технологиях, которые они создали”.
В составленный Хендриксом список связанных с ИИ рисков вошли искусственный интеллект, используемый для создания биологического оружия, более смертоносного, чем природные пандемии, и его способность распространять опасную дезинформацию в глобальном масштабе. Хендрикс также отмечает, что растущая зависимость человечества от искусственного интеллекта может «сделать идею простого «отключения их» не просто разрушительной, но потенциально невозможной, что приведет к риску потери человечеством контроля над нашим собственным будущим».
По мере развития искусственного интеллекта, предупреждают эксперты, он будет становиться все более умным, вероятно, превосходя возможности человеческого мозга. Что касается военного применения, то здесь возникает несколько проблем. В то время как ИИ позволит принимать более разумные решения и уменьшит количество жертв на войне, попав не в те руки, он создаст очень неравные условия игры между противниками. Таким образом, доминировать будет страна с самым продвинутым искусственным интеллектом.
Еще одна опасность – дезинформация и неразборчивость в информации. Благодаря ИИ будет становиться все труднее понять, что является правдой, а что ложью. Следовательно, страны с наиболее продвинутым искусственным интеллектом смогут использовать эту технологию для введения в заблуждение своих граждан или граждан враждебной страны. Политики также могли бы использовать эту технологию для победы на выборах. Одна страна могла бы использовать искусственный интеллект, чтобы повлиять на выборы в другой. Результатом этого, прогнозируют специалисты, станет растущий уровень недоверия, который будет способствовать усилению гражданских беспорядков.
Технология, обладающая множеством замечательных преимуществ, может стать нашей погибелью. И это произойдет, если мы не сможем установить адекватные меры предосторожности для защиты человечества, резюмируют забеспокоившиеся неуютными перспективами эксперты.
***
Возможно, что до «Судного дня», самостоятельно устроенного машинным разумом, и в самом деле далеко («благо», в силу геополитических потрясений ядерную катастрофу могут устроить представители homo sapiens). Но ведь даже в повседневной жизни самые обычные люди могут ощутить на себе последствия широкомасштабного внедрения изощренного ИИ во все сферы нашего бытия.
Согласно отчету, опубликованному Goldman Sachs ранее в этом году, искусственный интеллект может автоматизировать — а, значит, и ликвидировать — до 300 миллионов рабочих мест с полной занятостью по всему миру. Много ли желающих оказаться в числе этих трехсот миллионов?
«Хорошая новость, – пишут пишут исследователи Goldman Sachs, – заключается в том, что вытеснение работников из сферы автоматизации исторически компенсировалось созданием новых рабочих мест, а появление новых профессий вслед за технологическими инновациями составляет подавляющее большинство долгосрочного роста занятости».
Так-то оно, может, и так. Но свежий соцопрос, проведенный в Британии и опубликованный каналом Sky News, показывает, что около четверти людей обеспокоены тем, что они могут потерять работу из-за искусственного интеллекта. Да, 24% респондентов обеспокоены потенциалом генеративного искусственного интеллекта (такого как ChatGPT), который может сделать их работу ненужной.
Опрос, проведенный компанией Opinium для объединяющего технических экспертов и других специалистов профсоюза Prospect, также показывает, что 58% работников считают, что правительство должно установить правила использования искусственного интеллекта для защиты рабочих мест работников.
«Очевидно, что с искусственным интеллектом связаны как риски, так и преимущества, особенно в том, как он внедряется на работе и что это значит для рабочих мест, – признает заместитель генерального секретаря профсоюза Prospect Эндрю Пейкс. – Несмотря на новые навыки, связанные с обработкой данных и технологиями, многие рабочие места являются ненадежными — не только из-за угрозы искусственного интеллекта, но и из-за того, что работодатели внедряют новые технологии на работе без консультаций или подотчетности. Вместо того, чтобы ждать, пока возникнут новые проблемы, прежде чем принимать меры, правительство должно сейчас взаимодействовать как с работниками, так и с работодателями, чтобы разработать справедливые новые правила использования этой технологии».
Выступая перед Конгрессом Соединенных Штатов, Сэм Альтман из OpenAI призвал американских законодателей оперативно разработать правила для технологии искусственного интеллекта и рекомендовал подход, основанный на лицензировании.
В Европейском союзе заявляют, что надеются к концу года принять законодательство, которое классифицировало бы искусственный интеллект на четыре основанные на степени риска категории.
Китай, объявивший об амбициозных планах стать мировым лидером в области искусственного интеллекта к 2030 году (а по оценкам консалтинговой группы McKinsey, к тому времени этот сектор может ежегодно увеличивать ВВП страны примерно на 600 млрд долларов), также предпринял шаги по регулированию искусственного интеллекта, приняв законодательство, регулирующее глубокие подделки и требующее от компаний регистрировать свои алгоритмы у регулирующих органов. Пекин также предложил строгие правила, ограничивающие политически чувствительный контент и требующие от разработчиков получать одобрение, прежде чем выпускать технологию, основанную на генеративном искусственном интеллекте.
Продукты искусственного интеллекта, говорится в законопроекте, должны будут отражать “основные социалистические ценности” и не должны “содержать контент, направленный на подрыв государственной власти”.
В Пекине заявляют, что глубокие подделки (deepfakes) – сгенерированные искусственным интеллектом изображения и аудио, которые могут быть потрясающе реалистичными, — также представляют “опасность для национальной безопасности и социальной стабильности”.
Более того, Си Цзиньпин и высшие должностные лица Коммунистической партии Китая специально обсуждали на заседании Комиссии по национальной безопасности – как “улучшить управление безопасностью сетевых данных и искусственного интеллекта”.
“Мы должны быть готовы к наихудшему и экстремальному сценарию и быть готовыми выдержать серьезное испытание сильными ветрами, неспокойными водами и даже опасными штормами”, — говорится в сообщении информационного агентства Синьхуа по итогам встречи.
Источник: mk.ru