Выбор города
Введите название вашего города или выберите из списка:
  • Главная страница
  • Балашиха
  • Бронницы
  • Видное
  • Волоколамск
  • Воскресенск
  • Дмитров
  • Долгопрудный
  • Домодедово
  • Дубна
  • Егорьевск
  • Жуковский
  • Зарайск
  • Истра
  • Кашира
  • Клин
  • Коломна
  • Королев
  • Котельники
  • Красногорск
  • Лобня
  • Лосино-Петровский
  • Лотошино
  • Луховицы
  • Лыткарино
  • Люберцы
  • Можайск
  • Мытищи
  • Наро-Фоминск
  • Ногинск
  • Одинцово
  • Орехово-Зуево
  • Павловский Посад
  • Подольск
  • Пушкино
  • Раменское
  • Реутов
  • Руза
  • Сергиев Посад
  • Серебряные Пруды
  • Серпухов
  • Солнечногорск
  • Ступино
  • Талдом
  • Фрязино
  • Химки
  • Черноголовка
  • Чехов
  • Шатура
  • Шаховская
  • Щелково
  • Электросталь

Ваш город ?

Ваш город ?

Обращение к ИИ-психологам может привести к утечке персональных данных

Эксперт предупредил о рисках утечки данных при использовании ИИ-психологов

Обращение к ИИ-психологам может привести к утечке персональных данных

Фото: freepik.com
Автор: Маргарита Салахова
Вчера в 21:57

По словам Юрия Силаева, заведующего лабораторией доверенного искусственного интеллекта в РТУ МИРЭА, современные системы искусственного интеллекта, включая нейросети, все чаще применяются в роли виртуальных психологов. Однако он отметил, что такие сервисы могут представлять серьезные риски утечки персональных данных. Информацию передает RT.

Эксперт объяснил, что многие ИИ-платформы сохраняют пользовательские запросы для последующего обучения моделей. Если эти данные не обезличиваются должным образом, то откровенные разговоры о личных переживаниях и травмах могут остаться в логах или даже попасть в открытые датасеты.

Также он указал, что разработчики часто имеют доступ к пользовательским данным для анализа и улучшения своих сервисов, что увеличивает риск внутренних утечек информации. В качестве дополнительной угрозы эксперт назвал технические уязвимости: ошибки в настройке облачных хранилищ или API могут привести к тому, что переписки станут доступны посторонним лицам. Бывали случаи, когда из-за неправильной конфигурации базы данных она становилась доступной через интернет.

Силаев обратил внимание на так называемые атаки на саму модель искусственного интеллекта: злоумышленники с помощью специальных методов могут попытаться восстановить отдельные фрагменты данных, использованных при обучении нейросети, и частично реконструировать личные диалоги пользователей.

Эксперт также напомнил о классических рисках — фишинге и взломе аккаунтов: если злоумышленник получит доступ к учетной записи пользователя, он сможет ознакомиться с историей переписки с ИИ-ассистентом.

Для минимизации возможных угроз специалист советует выбирать сервисы с прозрачной политикой конфиденциальности и сквозным шифрованием. Он подчеркнул, что лучше всего удалять историю диалогов и не передавать нейросетям персональные данные, по которым можно однозначно идентифицировать человека. В качестве оптимального варианта эксперт назвал локальную обработку данных — когда разговоры остаются на устройстве пользователя и не покидают его.

По мнению Юрия Силаева, ИИ действительно может быть полезен в вопросах психологической поддержки, однако важно осознавать потенциальные риски и тщательно подходить к выбору сервисов.

Ранее сообщалось, что мошенники «раздевают» жертв нейросетью ради шантажа.

Для улучшения работы и сбора статистических данных сайта собираются данные, используя файлы cookies и метрические программы. Продолжая работу с сайтом, Вы даете свое согласие на обработку персональных данных.

Файлы соокіе можно отключить в настройках Вашего браузера.

Подписывайтесь на нас!

Читайте больше крутых историй и новостей в наших социальных сетях.