Мошенники в ближайшее время смогут подделывать не только голосовые сообщения, но и атаковать россиян в социальных сетях в реальном времени через видеосвязь при помощи технологии дипфейков. Об этом сообщил главный эксперт «Лаборатории Касперского» Сергей Голованов.
— Мошенники будут просто брать картинку с экрана, и это будет, собственно говоря, твое лицо. Ты ставишь перед собой камеру, и на выходе получается изображение другого человека. Ты говоришь губами, а вот этот аватар повторяет. Злоумышленники доберутся до этого через несколько лет, — рассказал он РИА Новости, отметив, что эта схема будет распространяться в мессенджерах.
Однако это перспективы не текущего года, уточнил эксперт. Голованов напомнил, что сейчас мошенники отправляют жертве голосовые сообщение в мессенджере от якобы знакомого с просьбой перевести средства. Но у данной схемы имеется проблема — сгенерированные искусственным интеллектом сообщения «не адаптивные». Жертва понимает, что это сгенерированный голос.
— Интонация, с которой идут все голосовые сообщения, роботизирована: перепад голоса, отсутствие разговорных частиц и фонового шума. Это все очень настораживает человека, несмотря на то, что тембр голоса действительно похож на тембр реального человека, — отметил Голованов.
По его словам, будущий мошеннический тренд будет трудно вычислить. Он считает, что единственный способ, благодаря которому это можно сделать — проверка аккаунта, на слух же у жертвы распознать ИИ не получится.
В Сбербанке установили новую мошенническую схему по отношению к юрлицам. Теперь злоумышленники в популярных мессенджерах стали создавать фейковые аккаунты директоров организации, после чего принуждали бухгалтеров переводить средства на сторонние счета.