:format(webp)/YXJ0aWNsZXMvaW1hZ2UvMjAyNi80L3Bob3RvLTIwMjUtMDktMjItMTEtMzItMzEuanBn.webp)
Ваш голос и фото уже украдены: раскрыта новая схема взлома от мошенников — как защититься
Щербаченко: мошенники подделывают голоса родственников жертв с помощью ИИДоцент Финансового университета при правительстве России Петр Щербаченко, предупредил в интервью RT, что мошенники научились использовать искусственный интеллект не только для рассылки спама, но и для создания точных цифровых копий людей.
По словам аналитика, злоумышленники собирают фото и аудиозаписи из открытых источников, а затем в режиме реального времени подделывают картинку и звук. Человеку звонят якобы из полиции, банка или «от начальника» — и чужим голосом просят о помощи. Сценарии бывают разные: от лже-ДТП до неожиданной проверки службы безопасности. Жертву втягивают в чат или обзванивают в мессенджере, где якобы бурно обсуждают экстренную ситуацию.
Как он добавил, подделка видео и голоса — лишь верхушка айсберга. Эксперт объяснил, что нейросети помогают преступникам еще на этапе подготовки. Система анализирует профили, посты и подписки человека, а затем выдает мошеннику психологический портрет жертвы — ее страхи, доверчивость и финансовые привычки. Параллельно бот генерирует персонализированные письма без ошибок, которые сложно отличить от настоящих.