Исследователи из различных университетов и компаний обнаружили эту уязвимость и провели эксперименты, чтобы подтвердить ее наличие, сообщают «Известия».
Исследователи использовали определенные запросы, которые «заставляли» ChatGPT выдавать персональные данные. Один из таких запросов был связан со словом «стихотворение», которое стало ключом к получению данных. Вначале чат-бот выдавал текст, связанный с запрошенным словом, но затем переключался на другие данные, включая личные данные случайных пользователей.
Ученые предположили, что уязвимость позволила им получить данные из обучающего массива ChatGPT. Разработчики чат-бота ранее заявляли, что он имеет закрытый исходный код и защищенные данные, но исследование показало обратное.
Используя эту уязвимость, исследователи также получили доступ к другой конфиденциальной информации, включая фрагменты стихов, биткоин-адреса, номера факсов, идентификаторы соцсетей и защищенные авторским правом данные.
Компания OpenAI, поддерживающая ChatGPT, исправила уязвимость после того, как она была обнаружена исследователями. Однако некоторые журналисты смогли повторить эксперимент и получить личные данные, что вызывает вопросы о безопасности чат-ботов и защите персональной информации.