В УБК МВД РФ предупредили о новой схеме кибермошенничества: взломав аккаунты в мессенджерах, злоумышленники используют образцы голоса жертв для создания фальшивых аудиосообщений через нейросети, узнали в aif.ru.
Как пояснили эксперты, даже короткой голосовой записи достаточно, чтобы сгенерировать любое сообщение, которое мошенники направят родственникам или знакомым пострадавшего.
Дополнительную опасность представляют видеозаписи с фронтальной камеры — их используют для создания дипфейков. Технологии искусственного интеллекта позволяют злоумышленникам реалистично имитировать не только голос, но и внешность жертвы.
Ранее сообщалось, что РКН призвал владельцев VPN отказаться от иностранных протоколов шифрования.