Современные технологии и социальная инженерия улучшают во многом качество жизни многих людей. Вроде одна лишь польза от такого технического прогресса. Однако темная сторона тоже имеется: некоторые личности со злыми намерениями пытаются применить их для развода людей и быстрого обогащения. В ход идут уже не только привычные дипфейки, аудиальные и визуальные, но и сгенерированные полноценные ролики с участием якобы знакомых и друзей, которые якобы оказались в беде и могут обратиться за помощью к любому. Как отличить реального человека на видео от того, которого сгенерировали мошенники, выяснял REGIONS.
По словам киберэксперта Урвана Парфентьева, уже давно мошенники усовершенствовали механизмы обмана доверчивых граждан и редко когда используют телефонную инженерию.
«Если помните, то были истории, когда маме позвонила дочь и сообщила о том, что она попала в беду и родитель может спасти, если перечислит деньги. Сейчас все знают, что в подобных случаях нужно отключиться и перезвонить этому же человеку, но на тот номер, который у вас записан в телефонной книжке, или набрать ему по мессенджеру. И нередко после таких манипуляций якобы звонивший удивляется такому звонку, потому что он, как оказывается впоследствии, не звонил и уж точно не требовал никаких денег», — привел в пример Парфентьев.
Теперь же механизмы развода усовершенствовались, потому что аферисты начали генерировать самые настоящие ролики с участием фото- и видеоматериалов родственников своей будущей жертвы.
«Мошенники учат ИИ генерировать ролики, где условный брат или сестра жертвы просят о помощи, но отличить — живой это человек или сгенерированный — крайне тяжело, потому что его ничто практически не выдает», — сказал эксперт.
Спикер уточнил, что отличительные черты все же есть, по которым можно понять, кто на видео — родственник или дипфейк.
«Как создают ролик такого характера? Меняется исходный файл с помощью технологии машинного обучения в искусственном интеллекте. Есть несколько признаков, по которым вы можете определить дипфейк. Во-первых, у него часто сползает маска, то есть лицо, наложенное с помощью искусственного интеллекта, оно может шататься и иметь неестественную мимику», — сказал эксперт.
Также при наложении лица могут неестественно двигаться губы, а речь не всегда синхронизируется с движением губ.
«Более того, сгенерированный ролик зачастую имеет цветовые оттенки, которые не встречаются в естественных условиях. Если мы говорим про дипфейки аудиальные, то здесь будет нарушаться качество аудиозаписи и слышны некие дефекты в речи или ошибки в ударении в словах», — сказал киберэксперт.
Это также могут быть речевые или интонационные ошибки, заключил собеседник издания.