По словам Юрия Силаева, заведующего лабораторией доверенного искусственного интеллекта в РТУ МИРЭА, современные системы искусственного интеллекта, включая нейросети, все чаще применяются в роли виртуальных психологов. Однако он отметил, что такие сервисы могут представлять серьезные риски утечки персональных данных. Информацию передает RT.
Эксперт объяснил, что многие ИИ-платформы сохраняют пользовательские запросы для последующего обучения моделей. Если эти данные не обезличиваются должным образом, то откровенные разговоры о личных переживаниях и травмах могут остаться в логах или даже попасть в открытые датасеты.
Также он указал, что разработчики часто имеют доступ к пользовательским данным для анализа и улучшения своих сервисов, что увеличивает риск внутренних утечек информации. В качестве дополнительной угрозы эксперт назвал технические уязвимости: ошибки в настройке облачных хранилищ или API могут привести к тому, что переписки станут доступны посторонним лицам. Бывали случаи, когда из-за неправильной конфигурации базы данных она становилась доступной через интернет.
Силаев обратил внимание на так называемые атаки на саму модель искусственного интеллекта: злоумышленники с помощью специальных методов могут попытаться восстановить отдельные фрагменты данных, использованных при обучении нейросети, и частично реконструировать личные диалоги пользователей.
Эксперт также напомнил о классических рисках — фишинге и взломе аккаунтов: если злоумышленник получит доступ к учетной записи пользователя, он сможет ознакомиться с историей переписки с ИИ-ассистентом.
Для минимизации возможных угроз специалист советует выбирать сервисы с прозрачной политикой конфиденциальности и сквозным шифрованием. Он подчеркнул, что лучше всего удалять историю диалогов и не передавать нейросетям персональные данные, по которым можно однозначно идентифицировать человека. В качестве оптимального варианта эксперт назвал локальную обработку данных — когда разговоры остаются на устройстве пользователя и не покидают его.
По мнению Юрия Силаева, ИИ действительно может быть полезен в вопросах психологической поддержки, однако важно осознавать потенциальные риски и тщательно подходить к выбору сервисов.
Ранее сообщалось, что мошенники «раздевают» жертв нейросетью ради шантажа.