Оказалось, во всем виноваты их нейронные сети, построенные на открытых данных из интернета.
В процессе обучения нейросети определяли, в том числе, этические моменты и алгоритмы выбора, устанавливающие ту или иную модель поведения ИИ.
Логично, что искусственный интеллект (ИИ) не является полностью самостоятельной системой. Все зависит от человека, который пишет программу. И, если он окажется маньяком, негодяем, подлецом и женоненавистником, то он и вложит в ИИ то, что есть в нем самом.
А ведь предполагается, что однажды ИИ будет управлять всеми нами, сея разумное, доброе, вечное.
Так как насчёт совмещения новейших технологий и этики?
«Да, этика в области искусственного интеллекта заслуживает отдельного внимания , — комментирует кандидат экономических наук Семен Вуйменков из «Национальной платформы искусственного интеллекта». — Очевидно, что техноэтика – это в первую очередь этика человека и коллективов, создающих такие решения и системы. По крайней мере, на текущем этапе развития».
Все эти вещи сильно зависят от этических представлений государств, компаний и программистов, которые ими занимаются.
Непредсказуемо, как будут взаимодействовать дальше человек и ИИ, но стремительное развитие локальных виртуальных вселенных, которые рано или поздно сольются в единое мета-пространство, постепенный перевод в это пространство определенной части нашей обычной жизни, значительно усложнит модель управления рисками, в первую очередь в области безопасности человека и общества.
Российские специалисты считают, что при создании искусственного интеллекта критически важно формирование технологического суверенитета России. Конечно, будет странно, если программы для нашего ИИ напишут американцы или китайцы со своим менталитетом и представлениями о том, что такое хорошо и что такое плохо.
Поэтому в России считают, что надо создавать суверенный искусственный интеллект, отвечающий национальным интересам.
«Особенно остро стоит вопрос в чувствительных сферах – военном деле, медицине, управлении транспортом, критической информационной инфраструктуре, — полагает ещё один эксперт в области искусственного интеллекта Рустам Романенков. — Необходимо не только сформировать систему или продукт, но и определить требования, отвечающие вопросам национальной безопасности, но и обеспечить подготовку кадров».
В прошлом году на Конгрессе «Стратегическое лидерство и технологии искусственного интеллекта» и в рамках Российской недели высоких технологий было принято решение об объединении усилий ведущих российских научно-исследовательских центров, осуществляющих разработку всех элементов национальной платформы ИИ.
Но для реализации этих проектов нужно совершенствовать законодательство Российской Федерации в сфере ИИ, в том числе и на предмет соответствия этическим принципам.
«Важно, чтобы нормативная среда в сфере использования искусственного интеллекта жестко регулировалась, — продолжает Рустам Романенков. — Для этого должны быть установлены четкие критерии социо-гуманитарной экспертизы, в частности, в вопросах эмоционального интеллекта робототехнических систем. Это является на текущем технологическом уровне неотъемлемой частью национальной безопасности».
Источник: mk.ru