Технология
- Главная
- Технология
Чат-боты стали чаще врать

Аналитическая компания NewsGuard зафиксировала резкий рост числа случаев распространения ложных утверждений чат-ботами на базе искусственного интеллекта.
Как передает Vesti.az со ссылкой на зарубежные СМИ, исследование охватило 10 ведущих генеративных моделей, среди которых ChatGPT-5 (OpenAI), Smart Assistant (You.com), Grok (xAI), Pi (Inflection), le Chat (Mistral), Copilot (Microsoft), Meta AI, Claude (Anthropic), Gemini (Google) и Perplexity.
Тестирование проводилось на спорных новостных темах, по которым ранее уже были выявлены недостоверные утверждения. В среднем чат-боты воспроизводили их в 35% случаев — почти вдвое больше, чем год назад (18%). Худший результат показал Inflection Pi — 57% неверных ответов, за ним следуют Perplexity (47%), Meta AI и ChatGPT (по 40%). Наиболее точным оказался Claude, ошибавшийся лишь в 10% случаев.
По словам редактора NewsGuard по вопросам искусственного интеллекта и иностранного влияния Маккензи Садеги, рост неточностей связан с изменением методов обучения моделей. Если раньше они отказывались отвечать на определённые запросы или указывали на ограниченность данных, то теперь используют результаты поиска в реальном времени. Это повышает риски, так как поисковая выдача может быть намеренно наполнена дезинформацией.
В отчёте впервые публично названы конкретные чат-боты. В NewsGuard отметили, что сделали это для информирования политиков, журналистов и общества о повышенном уровне неточности в популярных инструментах ИИ.

Vesti.az

Полет на Марс за шесть месяцев: ученые создали концепт ядерного CNTR

Новый договор Azercosmos обеспечит трансляцию контента в Пакистане

Starlink возобновил работу

Samsung повторит дизайн iPhone 17 Pro в серии Galaxy S26

Китайские ученые создали гель, заживляющий переломы за 3 минуты

Создан препарат, предотвращающий инсульт