«Скоро вообще, может, портала госуслуг не будет, все будет делаться через голосовую колонку», — сказал глава Минцифры Максут Шадаев в кулуарах форума «Цифровая экономика». Колонка будет разговаривать с человеком, отправлять за него все заявления, записывать, запоминать и доставлять результат. По словам министра, таким образом можно будет получать широкий спектр услуг — от записи к врачу до сдачи экзамена на права.
Эксперты говорят: за такими технологиями будущее. Коммуникация наверняка будет осуществляться быстрее: запросы у пользователей либо идентичны, либо очень похожи. Остается вопрос безопасности. Можно ли будет обмануть колонку, например, с помощью дипфейк-голоса? Отвечает управляющий RTM Group Евгений Царев:
— Колонку можно обмануть. Уже сейчас есть нейросети, которые позволяют имитировать мой голос, ваш голос — [чей угодно]. Просто нужно нейросеть обучить нашему голосу, будет и тембр соответствующий, и много чего еще, что определяют голосовые помощники. Я думаю, что должна остаться аутентификация в виде паролей. А вот как мы будем вводить — мышкой, клавиатурой или голосом, — это уже вторично. Но аутентификация в каком-то виде останется в любом случае.
— И она поможет?
— Это вопрос прямых рук. Если это сделать правильно, все будет работать.
Ранее тот же Шадаев заявил о планах министерства внедрить чат-бот на основе технологии GPT в работу «Госуслуг». С помощью этой языковой модели можно будет получать справочную информацию и заказывать конкретные услуги.
Сейчас в «Госуслугах» действует цифровой помощник робот Макс, который уже обработал более 450 млн запросов в режиме диалога. Его и усовершенствуют с помощью технологий GPT. Риски утечек в данном случае не очень большие, зато есть вопросы к неуправляемости таких моделей, считает гендиректор компании Promobot Максим Чугунов:
Максим Чугунов гендиректор компании Promobot «У генеративных моделей есть огромное количество плюсов. Модель может подстраиваться под собеседника. Но есть и минусы: при оказании услуги оператор действует, например в МФЦ, по скрипту, генеративные модели, если использовать их и только их, не смогут выдерживать этот скрипт. Как только человек от логики диалога делает шаг вправо или шаг влево, есть риск того, что модель уйдет от скрипта, не будет его соблюдать. То есть ее можно применить, но нужно докручивать дополнительные алгоритмы, которые бы препятствовали такому поведению. Риск придумывания того, чего человек не говорил, есть. Условно говоря, если вы говорите модели, что вам нужно купить билет в Санкт-Петербург, она может легко додумать, что вам нужно купить билет на «Сапсан». Просто потому, что «Сапсан» ездит в Санкт-Петербург. А вы не говорили про «Сапсан», вам вообще нужно на самолет. Модель может додумать сама».
Изначально в СМИ в цитате Шадаева ошибочно появился ChatGPT вместо GPT. Но GPT — это семейство языковых моделей, а ChatGPT — конкретная разработка OpenAI. Массивы информации, на которых обучается искусственный интеллект, в разных странах отличаются, и это нужно учитывать, заявил на днях премьер Михаил Мишустин. По его словам, каждая страна должна сохранять суверенитет данных и при допуске ИИ-решений в критически значимые отрасли — в науку, медицину, промышленность — важно использовать модели, «отвечающие общемировым человеческим ценностям и собственным национальным интересам».