Skip to content
Вторник, 20 мая
  • Мир
  • Наука
  • Кино
  • Спорт
  • Авто
  • Статьи
  • Разное

Новостной сервис GS

Свежие мировые новости

Новостной сервис GS

Свежие мировые новости

  • Мир
  • Наука
  • Кино
  • Спорт
  • Авто
  • Статьи
  • Разное
  • Мир
  • Наука
  • Кино
  • Спорт
  • Авто
  • Статьи
  • Разное
Home>>Наука>>Галлюцинации остаются: эксперт рассказал о слабых местах искусственного интеллекта
Наука

Галлюцинации остаются: эксперт рассказал о слабых местах искусственного интеллекта

admin
29 марта, 2025

тестовый баннер под заглавное изображение

  Все мы в той или иной степени уже являемся пользователями больших языковых моделей или искусственного интеллекта. Он помогает многим писать тексты, собирая необходимую справочную информацию, переводить, расшифровывать аудиофайлы, рисовать картины и сочинять музыку. Однако иногда, полностью доверившись своему компьютерному помощнику, люди попадают впросак. Например,  получая вместо правильного ответа на вопрос сущую белиберду, или «галлюцинации».

 Опасные сюрпризы ИИ

 По словам эксперта, проблема «галлюцинаций» пока не имеет решения, поскольку изначально языковая модель создавалась для того, чтобы быть полезной человеку. Она не может ответить на неизвестный ей вопрос: «не знаю» или «отвечай сам», она должна «все знать». Поэтому модель и начинает иногда «выдумывать» несуществующие вещи, которые «берет» из своего багажа знаний. Иногда даже на простые вроде бы вопросы, к примеру: «Назови столицу России», она может ответить: «Санкт-Петербург». Это, по словам эксперта, происходит по причине того, что ИИ не думает и не обладает интеллектом, как бы ее этим качеством ни старалось наделять общество, ИИ ищет ответ на вопросы методом подбора, который иногда работает в его «голове» подобно рулетке. Так, если модель обучалась в том числе на исторических данных, относящихся к временам, когда столицей России был Санкт-Петербург, она в один прекрасный момент может выдать это название в совсем неуместном контексте. Эксперт говорит, что это проблема, которая пока не решена, но разработчики ИИ ищут способы ее преодоления. А пользователям чат-ботов эксперт посоветовал не доверять слепо языковой модели, а всегда проверять ее ответы.

Когда исчезнет «мусор» из расшифровок

  Все, кто пользуется чат-ботом для расшифровки голосовых файлов, знают, что порой они не отличаются отменным качеством. Например, ИИ не разбирает некоторых слов, даже когда по контексту они должны быть понятны, не делят текст на абзацы, я уже молчу про знаки препинания.

О том, есть ли варианты преодоления этих проблем, Влад Тушканов ответил следующее:

– Технологии на базе машинного обучения, включая распознавание и синтез речи, обработку изображений и видео и, конечно, генерацию текста на естественном языке, постоянно совершенствуются. С этой точки зрения особый интерес представляет, во-первых, мультимодальность, когда модели могут обрабатывать, например, текст и изображения одновременно в рамках единой модели, во-вторых, интеграция разных модальностей в едином приложении. Например, у продвинутых чат-ботов можно попросить сначала расшифровать звуковой файл, а затем отредактировать расшифровку так, чтобы она звучала, к примеру, как комментарий из статьи в СМИ.

 Можно ли засекретить переписку с чат-ботом?

 Все эксперты по искусственному интеллекту предупреждают пользователей всевозможных языковых моделей о том, что вся переписка человека с ИИ может стать достоянием создателей чат-ботов. Это не значит, что у всех у них стоит цель – подсмотреть о чем вы пишете, просто  модели настроены таким образом, что используют ваши «перлы» в качестве обучающих выборок. Однако, если речь идет об информации, размещенной на каком-нибудь сайте, там для их владельцев есть способы запретить как минимум добросовестным сборщикам данных (нейросетям) доступ к материалам. Для этого можно использовать специальные мета-теги или директивы в файле robots.txt или применять капчу – специальную проверку того факта, что доступ к тексту осуществляется именно человеком. 

Как сберечь свои данные от мошенников

  В обществе есть определенный уровень недоверия к технологиям ИИ в связи с активным сбором личной информации и потенциальной ее утечкой. Мы поинтересовались у нашего эксперта, есть ли алгоритм того, как сдать, к примеру, биометрию и быть потом на 100 процентов уверенным, что данными не воспользуются злоумышленники?

 По словам специалиста, вопрос защиты личных данных очень важен и остро стоял еще до бума искусственного интеллекта. Пользователям для защиты своих данных он порекомендовал следовать базовым правилам: использовать защитные решения, защищать свои аккаунты при помощи двухфакторной аутентификации и уникальных сложных паролей, использовать менеджеры паролей для их хранения и делиться конфиденциальными данными только с надежными крупными организациями. Кроме того, по его мнению, следует быть осторожным и проявлять осмотрительность при переходе по незнакомым ссылкам и при скачивании программ.

Источник: mk.ru

Еще новости:

Ученые добрались до самого высокого дерева, когда-либо найденного на Амазонке Российские ученые ищут у морской звезды «человеческий» нейромодулятор Атом на все случаи жизни Исследователи совершили прорыв в противодействии «длинному COVID»

Previous Post

Ежедневное употребление одного вида орехов связали со снижением риска сердечно-сосудистых заболеваний

Next Post

Произошло нападение отравленного кислотой водорослей морского льва на серфера

Related Articles

Наука

НАСА представило бесшумный сверхзвуковой самолет для пассажирских полетов

Наука

Ученые предложили действенный способ для утреннего пробуждения

Наука

США вернулись на Луну впервые более чем за полвека: «Гигантский скачок»

Наука

Назван глобальный смысл постепенного отказа от этого популярного продукта

Наука

Космонавт раскрыл сюрприз, который приготовили на МКС для Анны Кикиной

Последние

Доказана способность одного вида пернатых распознавать геометрические фигуры

admin
23 апреля, 2025

Новые исследования российских геофизиков: под водами Арктики растаяла большая часть вечной мерзлоты

admin
23 апреля, 2025

Новое исследование выявило факторы риска болезни Альцгеймера у молодых людей

admin
23 апреля, 2025

В 2063 году возможен малый ледниковый период: исследование российских ученых

admin
22 апреля, 2025

На этой неделе планеты «улыбнутся» обитателям Земли

admin
22 апреля, 2025

Популярное

  • Наука
    Голуби оказались умнее ИИ: умеют лучше решать задачи

    Популярная поговорка «птичий (в русской версии куриный) мозг» больше не мож...

  • Мир
    В Гомеле скончался 25-летний задержанный

      В белорусском Гомеле после задержания скончался 25-летний мужчина. О...

  • Наука
    На античной фреске в Помпеях углядели древнюю пиццу и даже ананас

    Среди руин древних Помпей была найдена поразительная фреска-натюрморт, напо...

  • Наука
    Ученые доказали связь длительного голодания с повышенным риском смерти от сердечных заболеваний

    Исследование показало, что у тех, кто ест только в течение восьми часов в д...

  • Наука
    Нашедшие кость доисторического хищника три мальчика потеряли дар речи

    Два юных родных брата и их двоюродный брат рассказали, что они “потеряли да...

  • Наука
    «Нужны не процессоры, а умы»: китайский ИИ внушает надежду

    Многие эксперты соглашаются с заявлением Патриарха и считают, что будущее ч...

  • Наука
    Заявленная «красная линия» изменения климата в 2 градуса названа «мертвой»

    Новый анализ, проведенный Хансеном и его коллегами, позволяет сделать вывод...

Свежие записи

  • Доказана способность одного вида пернатых распознавать геометрические фигуры
  • Новые исследования российских геофизиков: под водами Арктики растаяла большая часть вечной мерзлоты
  • Новое исследование выявило факторы риска болезни Альцгеймера у молодых людей
  • В 2063 году возможен малый ледниковый период: исследование российских ученых
  • На этой неделе планеты «улыбнутся» обитателям Земли

Свежие комментарии

    © 2025 Новостной сервис GS | WordPress Theme Ultra News
    • Мир
    • Наука
    • Кино
    • Спорт
    • Авто
    • Статьи
    • Разное