
Мошенники уже способны создавать убедительные дипфейки, полностью имитирующие реального человека, несмотря на существующие преграды. Об этом рассказал директор Kaspersky GReAT (центр исследований и анализа угроз) Игорь Кузнецов ТАСС.
Эксперт отметил, что современные нейросети уже способны создавать относительно правдоподобные видео, однако полное воспроизведение уникальных характеристик конкретного человека — мимики, манеры речи и внешности — остается технически сложной и ресурсоемкой задачей, требующей специальных знаний.
«Пока дипфейков такого уровня мы не видим, хотя создать их вполне реально — все упирается в возможности и инструментарий, который доступен конкретным злоумышленникам», — сказал Кузнецов.
По словам представителя «Лаборатории Касперского», более года ведется мониторинг теневого рынка ИИ (Dark AI), где создаются языковые модели для киберпреступников. Он отметил, что в этой среде пока отсутствуют специалисты, способные производить дипфейки, сопоставимые по качеству с продукцией крупных коммерческих компаний и студий.
Ранее были названы три главных признака голосового дипфейка.