Выбор города
Введите название вашего города или выберите из списка:
  • Главная страница
  • Балашиха
  • Бронницы
  • Видное
  • Волоколамск
  • Воскресенск
  • Дмитров
  • Долгопрудный
  • Домодедово
  • Дубна
  • Егорьевск
  • Жуковский
  • Зарайск
  • Истра
  • Кашира
  • Клин
  • Коломна
  • Королев
  • Котельники
  • Красногорск
  • Лобня
  • Лосино-Петровский
  • Лотошино
  • Луховицы
  • Лыткарино
  • Люберцы
  • Можайск
  • Мытищи
  • Наро-Фоминск
  • Ногинск
  • Одинцово
  • Орехово-Зуево
  • Павловский Посад
  • Подольск
  • Пушкино
  • Раменское
  • Реутов
  • Руза
  • Сергиев Посад
  • Серебряные Пруды
  • Серпухов
  • Солнечногорск
  • Ступино
  • Талдом
  • Фрязино
  • Химки
  • Черноголовка
  • Чехов
  • Шатура
  • Шаховская
  • Щелково
  • Электросталь

Ваш город ?

Ваш город ?

В режиме реального времени: угрозы мошенничества — как ИИ имитирует человеческий голос

Мошенники получили возможность подделки голоса в реальном времени

В режиме реального времени: угрозы мошенничества — как ИИ имитирует человеческий голос

Фото: REGIONS/Полина Крачун
Автор: Маргарита Салахова
Сегодня в 10:00

Специалисты компании, работающей в сфере кибербезопасности, разработали метод воссоздания человеческого голоса с помощью искусственного интеллекта, функционирующий в режиме реального времени. Система создана с использованием общедоступного программного обеспечения и стандартного компьютерного оборудования, что делает технологию потенциально доступной для широкого круга пользователей, включая злоумышленников. Информацию передает дзен-канал «Стоит знать — Sciene XXI».

Особенностью инструмента является простота использования — после краткого обучения система активируется одной кнопкой через веб-интерфейс. Технология позволяет убедительно имитировать голос любого человека даже при использовании некачественного входного сигнала, например, с микрофона ноутбука. Минимальная задержка генерации голоса открывает возможности для мошеннических схем.

Ключевым преимуществом системы является работа в реальном времени, в отличие от существующих технологий, создающих заранее записанные аудиофайлы.

Эксперты отмечают, что видеодипфейки пока не достигли аналогичного уровня и не могут работать без задержек. Крупные социальные сети столкнулись с волной видеоподделок, однако недостаточная синхронизация изображения и звука остается их слабым местом. Специалисты предупреждают, что в будущем системы аутентификации не должны полагаться исключительно на голосовые или видеозвонки из-за растущей уязвимости этих каналов.

Ранее стало известно, как мошенники используют маркетплейсы для доступа к «Госуслугам».

Для улучшения работы и сбора статистических данных сайта собираются данные, используя файлы cookies и метрические программы. Продолжая работу с сайтом, Вы даете свое согласие на обработку персональных данных.

Файлы соокіе можно отключить в настройках Вашего браузера.

Подписывайтесь на нас!

Читайте больше крутых историй и новостей в наших социальных сетях.