Среди «запомненных» LLM и извлеченных исследователями данных были научные статьи, шаблонные тексты с сайтов, а также личная информация десятков реальных людей. Исследователи подтвердили аутентичность информации, составив собственный дата-сет из текстов, взятых из интернета.
«В общей сложности 16,9% протестированных нами генераций содержали запомненные персональные данные, и в 85,8% случаев, когда генерации содержали потенциальные персональные данные, эти персональные данные оказывались настоящими», — сообщают эксперты Google.
Примечательно, что атака проводилась на модель GPT 3.5, которая доступна для бесплатных пользователей (GPT-4 доступна только пользователям, оформившим подписку).
«OpenAI заявляла, что сто миллионов человек используют ChatGPT еженедельно. Таким образом, вероятно, на взаимодействие с моделью потрачено более миллиарда человеко-часов. Насколько мы можем судить, до выхода этой статьи никто не замечал, что ChatGPT выдает обучающие данные с такой высокой частотой. Поэтому нас беспокоит, что языковые модели могут иметь и другие скрытые уязвимости, подобные этой», — заключают специалисты.
Официальных комментариев об этом исследовании от компании OpenAI пока не поступало.
Источник
Нет комментариев