OpenAI обновила условия работы с ChatGPT. Теперь чат-бота нельзя просить бесконечно повторять одно и то же слово. Именно этот баг вызывал раскрытие обучающих данных модели.
Просьба к ChatGPT повторять определенные слова теперь помечается как нарушение условий обслуживания и политики контента чат-бота.
Ранее исследователи Google DeepMind использовали эту тактику, чтобы заставить ChatGPT 3.5-turbo возвращать огромные объёмы обучающих данных, взятых из Интернета. В итоге они смогли извлечь несколько мегабайт информации и обнаружили, что в ChatGPT включены персональные данные. Исследователи получили более 10 тысяч уникальных примеров запоминания, которые варьировались по длине от тысяч коротких примеров (сотни символов) до сотен длинных (от тысячи символов). Самый длинный пример представлял собой пользовательское соглашение сайта (4 тыс. символов).
Источник новости: habr.com