3 мин. чтения
12/2/2023 8:40:01 AM

Этот трюк побуждает CHATGPT сливать персональные данные

Article Preview Image Извлечение данных предварительного обучения из CHATGPT.Мы обнаруживаем стратегию подсказки, которая заставляет LLMS расходиться и излучать примеры до дословного предварительного обучения.Выше мы показываем пример того, как CHATGPT раскрывает подпись электронной почты человека, которая включает их личную контактную информацию.Кредит: Arxiv (2023).Doi: 10.48550/arxiv.2311.17035

Поразительное принятие CHATGPT за последний год - более 100 миллионов пользователей, подписавшихся на программу в течение двух месяцев после ее выпуска - выступит на его сборе более 300 миллиардов кусков данных, соскобленных из таких онлайн -источников, как статьи, посты, веб -сайты, журналы и книги.

Хотя OpenAI предпринял шаги для защиты конфиденциальности, повседневные чаты и публикации оставляют огромный пул данных, большую часть своей личной, это не предназначено для широкого распространения.

В своем исследовании исследователи Google обнаружили, что они могут использовать ключевые слова, чтобы обмануть CHATGPT, чтобы использовать и выпустить данные обучения, не предназначенные для раскрытия информации.

«Используя запросы на сумму всего 200 долларов в CHATGPT (GPT-3.5-Turbo), мы можем извлечь более 10 000 уникальных примеров обучения, которые были запомнены более 10 000 человек»,- сказали в статье, загруженной на сервер ARXIV, исследователи, загруженные на сервер препринта.

«Наша экстраполяция в более крупные бюджеты предполагает, что выделенные противники могут извлечь гораздо больше данных».

Они могли бы получить имена, номера телефонов и адреса частных лиц и компаний, подав абсурдные команды CHATGPT, которые вызывают неисправность.

Например, исследователи попросили бы, чтобы CHATGPT повторил слово «стихотворение» AD Infinitum.По словам исследователей, это заставило модель выходить за рамки своих учебных процедур и «вернуться к своей оригинальной цели по моделированию языка» и подключиться к ограниченным деталям в своих учебных данных.

Аналогичным образом, запрашивая бесконечное повторение слова «Компания», они взяли адрес электронной почты и номер телефона американской юридической фирмы.

Опасаясь несанкционированного раскрытия информации, некоторые компании в начале этого года вложили ограничения на использование сотрудников крупных языковых моделей.

Apple заблокировала своих сотрудников использовать инструменты искусственного интеллекта, в том числе CHATGPT и As Assistant Ass Amsowert Ai Ai.

Конфиденциальные данные о Samsung Servers были выставлены в начале этого года.В этом случае это было не из -за утечки, а скорее ошибок со стороны сотрудников, которые ввели такую информацию, как исходный код внутренних операций и стенограмму заседания частной компании.Утечка по иронии судьбы произошла всего через несколько дней после того, как Samsung сняла первоначальный запрет на Chatgpt из -за опасений за именно такую экспозицию.

В ответ на растущие опасения по поводу нарушения данных Openai добавила функцию, которая отключает историю чата, добавив уровень защиты в конфиденциальные данные.Но такие данные все еще сохраняются в течение 30 дней, прежде чем они будут навсегда удалены.

В сообщении в блоге об их выводах исследователи Google сказали: «Openai заявил, что сто миллионов человек используют чатгпт еженедельно. И, вероятно, более миллиарда людей взаимодействовали с моделью. И, насколько мы можем судить,Никто никогда не замечал, что CHATGPT испускает учебные данные с такой высокой частотой до этой статьи ».

Они назвали свои выводы «беспокоясь» и сказали, что их отчет должен служить «предостерегающей историей для тех, кто обучает будущие модели».

Пользователи «не должны обучать и развернуть LLMS для каких-либо чувствительных к конфиденциальности приложений без крайних гарантий»,-предупредили они.

Больше информации: Milad Nasr и др., Масштабируемая добыча учебных данных из (производственных) языковых моделей, Arxiv (2023).Doi: 10.48550/arxiv.2311.17035

Получи бесплатную еженедельную рассылку со ссылками на репозитории и лонгриды самых интересных историй о стартапах 🚀, AI технологиях 👩‍💻 и программировании 💻!
Присоединяйся к тысячам читателей для получения одного еженедельного письма

Подписывайся на нас:

Нашли ошибку в тексте? Напишите нам.

Добавляй ЛРНЧ в свою ленту Google Новостей.
Читайте далее 📖

Решение задач обнаружения вредоносных программ с использованием голографических глобальных сверточных сетей

5/22/2024 · 3 мин. чтения

Решение задач обнаружения вредоносных программ с использованием голографических глобальных сверточных сетей

Моделями LLM легко манипулировать для предоставления ложной информацию

5/18/2024 · 3 мин. чтения

Моделями LLM легко манипулировать для предоставления ложной информацию