Крупные чат-боты на основе искусственного интеллекта (ИИ) стали чаще ошибаться, давая ответы на сложные вопросы. Соответствующее исследование опубликовано в журнале Nature.
Автор научной работы Хосе Эрнандес-Оралло из Валенсийского исследовательского института искусственного интеллекта в Испании проверил работу трех крупнейших чат-ботов на основе передовых ИИ-моделей. По его словам, чат-боты фактически разучились отвечать «я не знаю» на сложные вопросы, но стали совершать больше ошибок. Ученый полагает, что паттерн «отвечать любой ценой» заложен в модели создателями.
Специалист и его коллеги изучили три семейства больших языковых моделей (LLM), в число которых вошли GPT OpenAI, BLOOM и модель, созданная академической группой BigScience. В ходе тестирования ученые задавали сложные вопросы и заставляли ИИ решать математические задачи. Выяснилось, что модели стали значительно умнее по сравнению с предшественниками, но также они начали совершать ошибки вместо того, чтобы сказать, что не знают ответа.
Команда исследователей также обнаружила, что все модели иногда давали неправильные ответы даже на простые вопросы. «Люди не могут контролировать эти модели», — заявил Эрнандес-Оралло.
По словам ученых, создателям моделей нужно сделать так, чтобы чат-боты имели право пропускать вопросы, ответы на которые они не знают. В противном случае ИИ будет вводить пользователей в заблуждение.
В конце сентября исследователи фирмы AMCI Testing выяснили, что новая версия автопилота Tesla склонна к рискованным действиям. Так, тестируемый образец проехал на красный сигнал светофора и чуть не устроил ДТП.