Чат-боты на основе искусственного интеллекта стали в два раза чаще распространять ложную информацию, свидетельствуют результаты исследования аналитической компании Newsguard.
Специалисты проанализировали в августе 2025 года работу десять ведущих инструментов генеративного ИИ. Выяснилось, что в 35% случаев при обработке новостных тем они выдавали фейк, в то время как годом ранее этот показатель составлял 18%.
Двукратный рост эксперты объясняют предоставлением ботам возможности веб-поиска в режиме реального времени, который, в том числе, ведет их на сайты с фейками, откуда они черпают информацию для ответов. Ранее ИИ-боты нередко отказывались отвечать на запросы, связанные с новостями, во избежание распространения фейков.
«Ранний ИИ придерживался стратегии "не навреди", отказываясь отвечать на вопросы, чтобы избежать риска распространения ложной информации. Предоставление им возможности поиска позволило получить доступ к "зараженной" информационной экосистеме, в которой злоумышленники намеренно распространяют ложную информацию, которую затем копируют системы ИИ», — цитирует материалы исследования портал Ithomе.
Анализ производительности каждой модели ИИ показал, что худшие результаты продемонстрировала нейросеть Inflection, распространяющая фейки в 56,67% случаев. Следом идет Perplexity — 46,67%. Модели ChatGPT и Meta* распространяли ложную информацию с частотой 40%, а Copilot (Microsoft Bing Chat) и Mistral — по 36,67%. Наиболее фейкоустойчивыми оказались модели Claude и Gemini —10% и 16,67%, соответственно.
Функция веб-поиска была внедрена для решения проблемы устаревших ответов ИИ, однако вместо этого она создала новые проблемы — чат-боты начали извлекать информацию из ненадежных источников, путая вековые новостные издания с фейковыми, говорится в исследовании Newsguard.
* признана экстремистской организацией и запрещена на территории России



