"Известия": чат-боты стали чаще выдавать ложную информацию

Сгенерировано нейросетью
Читать Вести в MAX
Исследователи отмечают увеличение доли недостоверных ответов, предоставляемых ведущими чат-ботами, несмотря на технологический прогресс и интеграцию онлайн-поиска.

Доля ложных утверждений в ответах выросла с 18% до 35%, пишут "Известия" со ссылкой на данные NewsGuard. В ходе тестирования 10 популярных ИИ-моделей эксперты задавали заведомо ложные утверждения, связанные с бизнесом, брендами и политическими событиями. Целью было определить, как нейросети справляются с проверкой фактов и противостоят дезинформации.

Среди чат-ботов, показавших рост ложных ответов, значатся Pi, Perplexity, Chat, Grok и ChatGPT. Claude продемонстрировал меньший процент недостоверной информации.

Аналитики NewsGuard связывают ухудшение статистики с тем, что нейросети перестали воздерживаться от ответов на запросы без достаточной верификации информации. Также фактором является подключение встроенного веб-поиска без должной проверки качества источников.

Ситуацию усугубляют целенаправленные кампании по "дрессировке" ИИ, когда недобросовестные ресурсы публикуют материалы, ориентированные на поисковых роботов, чтобы ложные данные включались в ответы моделей.

Отдельной уязвимостью является работа с разными языками: наибольший уровень ошибок и отказов зафиксирован в русскоязычных и китайских запросах.

Эксперты отмечают, что архитектура больших языковых моделей, предсказывающая следующее слово на основе статистических закономерностей, а не понимания контекста, также является причиной распространения ложной информации.

Ранее сообщалось, что злоумышленники осваивают новые методы кибермошенничества, используя "невидимые" промпты (инструкции) для манипулирования искусственным интеллектом (ИИ). Эксперты предупреждают о росте угроз, связанных с использованием скрытых команд для генерации опасного контента – фишинговых ссылок и инструкций по установке вредоносного программного обеспечения.