
Официальный представитель МВД РФ Ирина Волк сообщила ТАСС о новой схеме мошенничества с использованием технологий искусственного интеллекта. По ее словам, злоумышленники применяют генеративные нейросети для создания правдоподобного текстового, визуального или аудиовизуального контента, который выдается за сообщения от близких людей или доверенных лиц.
Волк пояснила, что созданный таким образом контент позволяет преступникам имитировать личности родственников, сотрудников банков, представителей государственных органов или публичных деятелей. Целью подобных действий является побуждение жертв к переводу денежных средств или раскрытию персональных данных.
В качестве примера представитель МВД привела случай, когда неизвестный получил доступ к чужому аккаунту в иностранном мессенджере и с помощью нейросети сгенерировал аудиосообщение, имитирующее голос владельца страницы. В этом сообщении содержалась просьба о помощи с просьбой перевести ₽35 тыс. чрез систему быстрых платежей.
Получатель сообщения, решив, что обращение поступило от его родной сестры, выполнил указание и перевел деньги, которые в итоге оказались у мошенников.
Ранее мошенники обманули пенсионерку из Егорьевска на ₽90 тыс.