Технологии искусственного интеллекта дают злоумышленникам новые возможности для обмана. Как пояснил в интервью RT заведующий лабораторией доверенного ИИ РТУ МИРЭА Юрий Силаев, сегодня достаточно всего нескольких секунд записи речи, чтобы сгенерировать правдоподобную копию голоса человека.
Эксперт отметил, что еще недавно для создания подобной модели требовались мощные вычислительные ресурсы и продолжительные аудиозаписи. Теперь же подобные сервисы находятся в открытом доступе, а их качество позволяет мошенникам убеждать жертв в подлинности «голоса близкого человека».
Для добычи образцов речи злоумышленники активно используют социальные сети, публичные выступления, подкасты и даже голосовые сообщения в мессенджерах. При этом опасность усиливается тем, что мошенники способны записать речь человека прямо во время телефонного разговора и использовать ее для дальнейшего клонирования.
По словам Силаева, основная цель преступников — вызвать у жертвы эмоциональную реакцию и заставить поверить.
Ранее сообщалось, как защитить пожилых родственников от телефонных мошенников.