
С развитием генеративного искусственного интеллекта цифровое мошенничество вышло на качественно новый уровень, став более массовым и изощренным. Если раньше за привлекательными фейковыми профилями в социальных сетях стояли живые люди, то теперь их место все чаще занимают автономные программы. Об этом в интервью RT заявил Андрей Рыбников, преподаватель кафедры инструментального и прикладного программного обеспечения Института информационных технологий РТУ МИРЭА.
По словам эксперта, современные аферисты создают целые цифровые образы.
«Мошенники создают цифровой образ „идеальной женщины“: собирают из тысяч сгенерированных фотографий и видео реалистичный визуальный контент, пишут детализированную легенду (биографию, увлечения, проблемы), а затем подключают к общению либо шаблонные чат-боты, либо сложные языковые модели, обученные на романтических диалогах», — пояснил Рыбников.
Ключевое отличие, по его мнению, — в невероятной эффективности и масштабе. Одна группа злоумышленников может одновременно вести тысячи «виртуальных отношений», где система запоминает детали, имитирует заботу и постепенно подводит жертву к просьбам о финансовой помощи под классическими предлогами: «поддержка бизнеса», «лечение родственника» или «срочная выплата долга».
Специалист отметил, что эмоциональная привязанность, формирующаяся за недели общения, делает человека крайне уязвимым. Для распознавания подобного скама он советует обращать внимание на ряд тревожных маркеров.
Первый — это избыточная идеальность и скорость ответов. Профиль может быть переполнен безупречными, но стилистически однотипными изображениями. В коротких видео иногда заметна неестественная мимика или цифровые артефакты. В диалоге ИИ-собеседник может слишком шаблонно реагировать на эмоции или терять логику сложного разговора. Проверочным вопросом, по рекомендации Рыбникова, может стать просьба описать что-то малозначительное и спонтанное на фото — искусственный интеллект часто дает общие или противоречивые ответы.
При этом эксперт предостерег, что даже видеозвонок в реальном времени не является стопроцентной гарантией. Технологии так называемого дипфейка позволяют в режиме онлайн накладывать сгенерированное лицо на видео живого актера. Однако в таком разговоре могут проявляться задержки, неидеальная синхронизация движения губ со звуком и нежелание собеседника отклоняться от заученного сценария.
Главным правилом безопасности, согласно рекомендациям аналитика, остается категорический отказ переводить деньги человеку, которого нет в реальной жизни.
«Включайте здоровый скептицизм: если новый виртуальный знакомый слишком быстро переходит к теме финансовых трудностей, даже под благородным предлогом, — это стопроцентный признак мошенничества», — добавил собеседник RT.
В качестве дополнительных мер он посоветовал проверять фотографии через обратный поиск, но учитывать, что сгенерированные изображения могут не иметь копий в Сети, и доверять интуиции: если что-то кажется слишком хорошим, чтобы быть правдой, скорее всего, так оно и есть.
Ранее сообщалось, что в Сети появились мошеннические сайты с фейковыми полисами ОСАГО.