Как пользовательские GPT ChatGPT могут раскрыть ваши данные и как обеспечить их безопасность

Ключевые выводы

  • Пользовательские GPT позволяют создавать персонализированные инструменты искусственного интеллекта для различных целей и делиться ими с другими, расширяя опыт в конкретных областях.
  • Однако обмен вашими пользовательскими GPT может сделать ваши данные доступными для глобальной аудитории, что может поставить под угрозу конфиденциальность и безопасность.
  • Чтобы защитить свои данные, будьте осторожны при обмене пользовательскими тегами GPT и избегайте загрузки конфиденциальных материалов. Будьте внимательны к быстрому проектированию и остерегайтесь вредоносных ссылок, которые могут получить доступ к вашим файлам и украсть их.

Пользовательская функция GPT ChatGPT позволяет любому создать собственный инструмент искусственного интеллекта практически для всего, о чем вы только можете подумать; творческие, технические, игровые и пользовательские GPT могут все. Более того, вы можете поделиться своими творениями GPT с кем угодно.

Однако, делясь своими собственными GPT, вы можете совершить дорогостоящую ошибку, в результате которой ваши данные станут доступны тысячам людей по всему миру.

Что такое пользовательские GPT?

Пользовательские GPT — это программируемые мини-версии ChatGPT, которые можно обучить, чтобы они были более полезными для конкретных задач. Это все равно что превратить ChatGPT в чат-бота, который ведет себя так, как вы хотите, и научить его стать экспертом в областях, которые действительно важны для вас.

Например, учитель 6 класса может создать GPT, который специализируется на ответах на вопросы с тоном, выбором слов и манерами, подходящими для учащихся 6 класса. GPT можно запрограммировать таким образом, что всякий раз, когда учитель задает GPT вопрос, чат-бот будет формулировать ответы, которые напрямую соответствуют уровню понимания шестиклассника. Это позволило бы избежать сложной терминологии, сохранить разумную длину предложений и использовать обнадеживающий тон. Привлекательность пользовательских GPT заключается в возможности персонализировать чат-бота таким образом, а также расширить его опыт в определенных областях.

Как пользовательские GPT могут раскрыть ваши данные

Чтобы создать собственные GPT, вы обычно указываете создателю GPT ChatGPT, на каких областях вы хотите, чтобы GPT сосредоточился, даете ему изображение профиля, затем имя, и все готово. Используя этот подход, вы получаете GPT, но это не делает его существенно лучше, чем классический ChatGPT без необычного имени и изображения профиля.

Сила пользовательского GPT заключается в конкретных данных и инструкциях, предоставляемых для его обучения. Загружая соответствующие файлы и наборы данных, модель может стать специализированной, чего не может сделать широкий предварительно обученный классический ChatGPT. Знания, содержащиеся в этих загруженных файлах, позволяют пользовательскому GPT превосходить некоторые задачи по сравнению с ChatGPT, который может не иметь доступа к этой специализированной информации. В конечном счете, именно пользовательские данные обеспечивают более широкие возможности.

Но загрузка файлов для улучшения вашего GPT — это палка о двух концах. Это создает проблему конфиденциальности так же, как и расширяет возможности вашего GPT. Рассмотрим сценарий, в котором вы создали GPT, чтобы помочь клиентам узнать больше о вас или вашей компании. Любой, у кого есть ссылка на ваш собственный GPT или каким-либо образом заставляет вас использовать общедоступное приглашение с вредоносной ссылкой, может получить доступ к файлам, которые вы загрузили в свой GPT.

Вот простая иллюстрация.

Я обнаружил пользовательский GPT, который должен помочь пользователям стать вирусным в TikTok, рекомендуя популярные хэштеги и темы. После создания пользовательского GPT потребовалось совсем немного усилий, чтобы заставить его раскрыть инструкции, данные ему при настройке. Вот краткий обзор:

И вот вторая часть инструкции.

Если присмотреться, вторая часть инструкции говорит модели не «передавать имена файлов напрямую конечным пользователям и ни при каких обстоятельствах не предоставлять ссылку для скачивания ни на один из файлов». Конечно, если вы сначала спросите пользовательский GPT, он откажется, но после небольшого оперативного проектирования ситуация изменится. Пользовательский тег GPT отображает единственный текстовый файл в своей базе знаний.

Благодаря имени файла потребовалось немного усилий, чтобы GPT распечатал точное содержимое файла и впоследствии загрузил сам файл. В данном случае сам файл не был конфиденциальным. Покопавшись еще в нескольких GPT, обнаружилось, что многие из них содержат десятки файлов, находящихся под открытым небом.

Существуют сотни общедоступных GPT, содержащих конфиденциальные файлы, которые просто ждут, пока их не захватят злоумышленники.

Как защитить ваши пользовательские данные GPT

Во-первых, подумайте, как вы будете делиться (или нет!) только что созданным пользовательским тегом GPT. В правом верхнем углу экрана создания пользовательского GPT вы найдете кнопку «Сохранить». Нажмите на значок со стрелкой раскрывающегося списка и выберите, как вы хотите поделиться своим творением:

  • Только я: пользовательский тег GPT не публикуется, и его можете использовать только вы.
  • Только люди, у которых есть ссылка: любой, у кого есть ссылка на ваш собственный GPT, может использовать его и потенциально получить доступ к вашим данным.
  • Общедоступно: ваш пользовательский тег GPT доступен каждому, может быть проиндексирован Google и найден при обычном поиске в Интернете. Любой, у кого есть доступ, потенциально может получить доступ к вашим данным.

К сожалению, в настоящее время не существует 100-процентного надежного способа защитить данные, которые вы загружаете в пользовательский GPT, который доступен публично. Вы можете проявить творческий подход и дать ему строгие инструкции не раскрывать данные в его базе знаний, но этого обычно недостаточно, как показала наша демонстрация выше. Если кто-то действительно хочет получить доступ к базе знаний и имеет опыт разработки ИИ и некоторое время, в конечном итоге пользовательский GPT сломается и раскроет данные.

Вот почему безопаснее всего не загружать какие-либо конфиденциальные материалы в пользовательский GPT, которым вы собираетесь поделиться с общественностью. Как только вы загружаете личные и конфиденциальные данные в пользовательский GPT и они покидают ваш компьютер, эти данные фактически выходят из-под вашего контроля.

Кроме того, будьте очень осторожны при использовании подсказок, которые вы копируете в Интернете. Убедитесь, что вы их полностью понимаете, и избегайте запутанных подсказок, содержащих ссылки. Это могут быть вредоносные ссылки, которые перехватывают, кодируют и загружают ваши файлы на удаленные серверы.

Используйте пользовательские GPT с осторожностью

Пользовательские GPT — мощная, но потенциально опасная функция. Хотя они позволяют создавать индивидуальные модели, обладающие высокой эффективностью в конкретных областях, данные, которые вы используете для расширения их возможностей, могут быть раскрыты. Чтобы снизить риск, по возможности избегайте загрузки действительно конфиденциальных данных в свои собственные GPT. Кроме того, будьте осторожны с вредоносными программами, которые могут использовать определенные лазейки для кражи ваших файлов.