Технология
- Главная
- Технология
Чат-боты стали чаще врать
Аналитическая компания NewsGuard зафиксировала резкий рост числа случаев распространения ложных утверждений чат-ботами на базе искусственного интеллекта.
Как передает Vesti.az со ссылкой на зарубежные СМИ, исследование охватило 10 ведущих генеративных моделей, среди которых ChatGPT-5 (OpenAI), Smart Assistant (You.com), Grok (xAI), Pi (Inflection), le Chat (Mistral), Copilot (Microsoft), Meta AI, Claude (Anthropic), Gemini (Google) и Perplexity.
Тестирование проводилось на спорных новостных темах, по которым ранее уже были выявлены недостоверные утверждения. В среднем чат-боты воспроизводили их в 35% случаев — почти вдвое больше, чем год назад (18%). Худший результат показал Inflection Pi — 57% неверных ответов, за ним следуют Perplexity (47%), Meta AI и ChatGPT (по 40%). Наиболее точным оказался Claude, ошибавшийся лишь в 10% случаев.
По словам редактора NewsGuard по вопросам искусственного интеллекта и иностранного влияния Маккензи Садеги, рост неточностей связан с изменением методов обучения моделей. Если раньше они отказывались отвечать на определённые запросы или указывали на ограниченность данных, то теперь используют результаты поиска в реальном времени. Это повышает риски, так как поисковая выдача может быть намеренно наполнена дезинформацией.
В отчёте впервые публично названы конкретные чат-боты. В NewsGuard отметили, что сделали это для информирования политиков, журналистов и общества о повышенном уровне неточности в популярных инструментах ИИ.
Vesti.az
В Азербайджан прибыла министр связи Ирака
Трамп продлил льготы на ввоз видеокарт и комплектующих из Китая
В Telegram появится новый способ авторизации
Алгоритм BrainBody-LLM научил роботов планировать и действовать почти как человек
Red Magic 11 Pro Plus возглавил Android-топ AnTuTu
Рынок лихорадит: серверные SSD подорожали на 40 %