Выбор города
Введите название вашего города или выберите из списка:
  • Главная страница
  • Балашиха
  • Бронницы
  • Видное
  • Волоколамск
  • Воскресенск
  • Дзержинский
  • Дмитров
  • Долгопрудный
  • Домодедово
  • Дубна
  • Егорьевск
  • Жуковский
  • Зарайск
  • Звенигород
  • Истра
  • Кашира
  • Клин
  • Коломна
  • Королев
  • Котельники
  • Красногорск
  • Краснознаменск
  • Лобня
  • Лосино-Петровский
  • Лотошино
  • Луховицы
  • Лыткарино
  • Люберцы
  • Можайск
  • Мытищи
  • Наро-Фоминск
  • Ногинск
  • Одинцово
  • Орехово-Зуево
  • Павловский Посад
  • Подольск
  • Протвино
  • Пушкино
  • Пущино
  • Раменское
  • Реутов
  • Руза
  • Сергиев Посад
  • Серебряные Пруды
  • Серпухов
  • Солнечногорск
  • Ступино
  • Талдом
  • Фрязино
  • Химки
  • Черноголовка
  • Чехов
  • Шатура
  • Шаховская
  • Щелково
  • Электросталь

Ваш город ?

Ваш город ?

Как мошенники используют ИИ, чтобы обмануть своих жертв

Маму сгенерировали: как аферисты стали манипулировать людьми с помощью ИИ
Сегодня аферисты идут в ногу со временем и часто для обмана людей используют не только телефонную инженерию, дипфейки, но и генерируют ролики с «участием» людей, которых потенциальные жертвы ошибочно могут посчитать своими близкими или родными. Итог один: человек верит, что на видео его знакомый и готов быстро распрощаться с деньгами, если собеседник потребует определенную сумму. Защита от таких разводов одна: научиться отличать реальных людей от созданных ИИ. В деталях разбирался REGIONS.

Как мошенники используют ИИ, чтобы обмануть своих жертв

Фото: freepik.com
Автор: Рафаэль Залян
28 июля в 14:27

Современные технологии и социальная инженерия улучшают во многом качество жизни многих людей. Вроде одна лишь польза от такого технического прогресса. Однако темная сторона тоже имеется: некоторые личности со злыми намерениями пытаются применить их для развода людей и быстрого обогащения. В ход идут уже не только привычные дипфейки, аудиальные и визуальные, но и сгенерированные полноценные ролики с участием якобы знакомых и друзей, которые якобы оказались в беде и могут обратиться за помощью к любому. Как отличить реального человека на видео от того, которого сгенерировали мошенники, выяснял REGIONS.

По словам киберэксперта Урвана Парфентьева, уже давно мошенники усовершенствовали механизмы обмана доверчивых граждан и редко когда используют телефонную инженерию.  

«Если помните, то были истории, когда маме позвонила дочь и сообщила о том, что она попала в беду и родитель может спасти, если перечислит деньги. Сейчас все знают, что в подобных случаях нужно отключиться и перезвонить этому же человеку, но на тот номер, который у вас записан в телефонной книжке, или набрать ему по мессенджеру. И нередко после таких манипуляций якобы звонивший удивляется такому звонку, потому что он, как оказывается впоследствии, не звонил и уж точно не требовал никаких денег», — привел в пример Парфентьев.

Теперь же механизмы развода усовершенствовались, потому что аферисты начали генерировать самые настоящие ролики с участием фото- и видеоматериалов родственников своей будущей жертвы.  

Фото: istockphoto.com
Фото: istockphoto.com

«Мошенники учат ИИ генерировать ролики, где условный брат или сестра жертвы просят о помощи, но отличить — живой это человек или сгенерированный — крайне тяжело, потому что его ничто практически не выдает», — сказал эксперт.

Спикер уточнил, что отличительные черты все же есть, по которым можно понять, кто на видео — родственник или дипфейк.  

«Как создают ролик такого характера? Меняется исходный файл с помощью технологии машинного обучения в искусственном интеллекте. Есть несколько признаков, по которым вы можете определить дипфейк. Во-первых, у него часто сползает маска, то есть лицо, наложенное с помощью искусственного интеллекта, оно может шататься и иметь неестественную мимику», — сказал эксперт.

Также при наложении лица могут неестественно двигаться губы, а речь не всегда синхронизируется с движением губ.  

«Более того, сгенерированный ролик зачастую имеет цветовые оттенки, которые не встречаются в естественных условиях. Если мы говорим про дипфейки аудиальные, то здесь будет нарушаться качество аудиозаписи и слышны некие дефекты в речи или ошибки в ударении в словах», — сказал киберэксперт.

Это также могут быть речевые или интонационные ошибки, заключил собеседник издания.

Для улучшения работы и сбора статистических данных сайта собираются данные, используя файлы cookies и метрические программы. Продолжая работу с сайтом, Вы даете свое согласие на обработку персональных данных.

Файлы соокіе можно отключить в настройках Вашего браузера.

Подписывайтесь на нас!

Читайте больше крутых историй и новостей в наших социальных сетях.