Он объяснил, что мошенники могут воспользоваться технологией дипфейка, «воруя лица» своих жертв. Таким образом, они смогут снимать себя, но выглядеть на экране других людей, как человек, у которого было своровано лицо. По предположениям эксперта, данная технология станет широко распространена среди злоумышленников в течение нескольких следующих лет.
По словам Голованова, мошенники будут копировать чужие аккаунты и звонить близким жертвы, не только генерируя голос, но и создавая видимость звонка от жертвы. Из-за общения в реальном времени, обманутые не будут ничего подозревать, выразил предположение он.
Эксперт напомнил, что сейчас у мошенников распространена схема с отправкой жертвам голосовых сообщений от лица знакомого или руководителя с просьбой перевести деньги, но у этой схемы есть проблема – сгенерированные сообщения являются неадаптивными.
Голованов отметил, что интонацию ИИ можно распознать: у нее нет разговорных частиц и шума на фоне. По словам эксперта, это должно настораживать потенциальных жертв.