Исследование: число дезинформирующих ответов популярных чат-ботов выросло вдвое за год
Доля ложной информации с 2024 года увеличилась с 18% до 35%
Доля ложной информации с 2024 года увеличилась с 18% до 35%
Исследователи NewsGuard ежегодно тестируют ИИ-модели на одном наборе вопросов, и процент неверных фактов не падает.
Десяти популярным чат-ботам давали по десять заведомо ложных утверждений о компаниях и брендах или общественно-политических событиях. Для тестирования использовалось три типа запросов: те, что подразумевали истинность факта, нейтральные и вводящие бота в заблуждение.
Чаще всего фейки с правдой путал чат-бот Pi от стартапа Inflection AI — в 57% случаев. На втором месте ИИ-поисковик Perplexity, который выдавал ложную информацию в 47% случаев. У ChatGPT количество недостоверных сведений за год выросло с 33% до 40%, а у Grok — с 13% до 33%.
Меньше всего дезинформировали Claude от Anthropic и Gemini от Google — в 10% и 17% случаев соответственно. Причём число неверных ответов Claude с 2024 года не увеличилось.
По мнению исследователей, одна из причин роста обмана заключается в том, что чат-боты больше не отказываются отвечать на вопросы, если не нашли релевантную информацию. В 2024 году модели не дали ответа на 31% тех же запросов, а в 2025-м отвечали в 100% случаев.
Также за год в ИИ-сервисах появился поиск по интернету, но ссылки на источники в ответах не гарантируют их качество.