Картинка
/ Фото: REGIONS/Полина Крачун

Ваш голос и фото уже украдены: раскрыта новая схема взлома от мошенников — как защититься

Щербаченко: мошенники подделывают голоса родственников жертв с помощью ИИ

/Главная /Общество
Автор текста:
Евгений Акопян
/Главная /Общество
Автор текста:
Евгений Акопян

Доцент Финансового университета при правительстве России Петр Щербаченко, предупредил в интервью RT, что мошенники научились использовать искусственный интеллект не только для рассылки спама, но и для создания точных цифровых копий людей.


«Мошенники активно используют ИИ для генерации голоса и видео родственников или руководителей жертвы», — предупредил эксперт.

По словам аналитика, злоумышленники собирают фото и аудиозаписи из открытых источников, а затем в режиме реального времени подделывают картинку и звук. Человеку звонят якобы из полиции, банка или «от начальника» — и чужим голосом просят о помощи. Сценарии бывают разные: от лже-ДТП до неожиданной проверки службы безопасности. Жертву втягивают в чат или обзванивают в мессенджере, где якобы бурно обсуждают экстренную ситуацию.


«Идет бурное обсуждение. Все настроено на то, чтобы жертва самостоятельно перевела деньги на „безопасный счет“ или сообщила реквизиты карты, или код из смс для получения доступа к приложению банка или „Госуслуг“, — предостерег Щербаченко.

Как он добавил, подделка видео и голоса — лишь верхушка айсберга. Эксперт объяснил, что нейросети помогают преступникам еще на этапе подготовки. Система анализирует профили, посты и подписки человека, а затем выдает мошеннику психологический портрет жертвы — ее страхи, доверчивость и финансовые привычки. Параллельно бот генерирует персонализированные письма без ошибок, которые сложно отличить от настоящих.