Доля ложных утверждений в ответах выросла с 18% до 35%, пишут "Известия" со ссылкой на данные NewsGuard. В ходе тестирования 10 популярных ИИ-моделей эксперты задавали заведомо ложные утверждения, связанные с бизнесом, брендами и политическими событиями. Целью было определить, как нейросети справляются с проверкой фактов и противостоят дезинформации.
Среди чат-ботов, показавших рост ложных ответов, значатся Pi, Perplexity, Chat, Grok и ChatGPT. Claude продемонстрировал меньший процент недостоверной информации.
Аналитики NewsGuard связывают ухудшение статистики с тем, что нейросети перестали воздерживаться от ответов на запросы без достаточной верификации информации. Также фактором является подключение встроенного веб-поиска без должной проверки качества источников.
Ситуацию усугубляют целенаправленные кампании по "дрессировке" ИИ, когда недобросовестные ресурсы публикуют материалы, ориентированные на поисковых роботов, чтобы ложные данные включались в ответы моделей.
Отдельной уязвимостью является работа с разными языками: наибольший уровень ошибок и отказов зафиксирован в русскоязычных и китайских запросах.
Эксперты отмечают, что архитектура больших языковых моделей, предсказывающая следующее слово на основе статистических закономерностей, а не понимания контекста, также является причиной распространения ложной информации.
Ранее сообщалось, что злоумышленники осваивают новые методы кибермошенничества, используя "невидимые" промпты (инструкции) для манипулирования искусственным интеллектом (ИИ). Эксперты предупреждают о росте угроз, связанных с использованием скрытых команд для генерации опасного контента – фишинговых ссылок и инструкций по установке вредоносного программного обеспечения.