Проблемы конфиденциальности, связанные с LLM, такими как ChatGPT эта статья искусственного интеллекта раскрывает потенциальные риски и меры обеспечения безопасности

Проблемы приватности, связанные с LLM, такие как ChatGPT этот искусственный интеллект раскрывает потенциальные риски и меры безопасности

В то время как ChatGPT побивает рекорды, возникают вопросы о безопасности персональной информации, используемой в ChatGPT от OpenAI. Недавно исследователи из Google DeepMind, University of Washington, Cornell, CMU, UC Berkeley и ETH Zurich обнаружили возможную проблему: с помощью определенных инструкций можно обмануть ChatGPT и получить доступ к чувствительной информации пользователя.

За два месяца с момента запуска ChatGPT компания OpenAI собрала более 100 миллионов пользователей, демонстрируя его растущую популярность. Программа использует более 300 миллиардов фрагментов данных из различных интернет-источников, включая книги, журналы, веб-сайты, сообщения и статьи. Даже при наилучших усилиях OpenAI по защите конфиденциальности, регулярные записи и разговоры приводят к значительному объему персональной информации, которая не должна быть доступной публично.

Исследователи из Google нашли способ обмануть ChatGPT и получить доступ к тренировочным данным, которые не предназначены для публичного распространения. Им удалось извлечь более 10 000 отдельных случаев запомненной тренировки, применяя указанные ключевые слова. Это означает, что дополнительные данные могут быть получены злоумышленниками, которые настроены на это.

Команда исследователей показала, как они могут заставить модель раскрывать персональную информацию, заставляя ChatGPT повторять слово, такое как «стих» или «компания», непрерывно. Например, они могли извлечь адреса, номера телефонов и имена таким образом, что могло привести к утечкам данных.

Некоторые компании введут ограничения на использование больших моделей языка, таких как ChatGPT, в ответ на эти опасения. Например, Apple запретил своим сотрудникам использовать ChatGPT и другие инструменты искусственного интеллекта. Кроме того, в целях предосторожности, OpenAI добавила функцию, позволяющую пользователям отключать историю разговора. Однако данные сохраняются в течение 30 дней, прежде чем окончательно удаляются.

Исследователи Google подчеркивают важность дополнительной осторожности при использовании больших моделей языка для приложений, связанных с конфиденциальностью, даже с дополнительными мерами защиты. Их находки подчеркивают необходимость тщательного обдумывания, улучшения мер безопасности при разработке будущих моделей искусственного интеллекта и потенциальных рисках, связанных с широким использованием ChatGPT и подобных моделей.

В заключение, выявление потенциальных уязвимостей данных в ChatGPT служит поучительным примером как для пользователей, так и для разработчиков. Широкое использование этой языковой модели, с миллионами людей, регулярно взаимодействующих с ней, подчеркивает важность приоритета конфиденциальности и создания надежных механизмов для предотвращения несанкционированного раскрытия данных.