Никто не защищен от внедрения быстрой инъекции LLM

Любому можно подвергнуть быструю инъекцию LLM никто не защищен

Вот как сопротивляться

Я уверен, вы слышали о SQL-атаке внедрения кода. SQL-инъекция происходит, когда злоумышленник внедряет вредоносный SQL-код в поля или параметры, используемые приложением с фронтендом.

Изображение автора

Например, приведенный выше код может быстро привести к выносу данных, т.е. краже и укреплению всей базы данных SQL. С появлением LLMs аналогичный тип атаки грозит нарушить революцию. В этой статье вы узнаете:

  1. Что такое внедрение LLM-подсказок
  2. Почему это происходит
  3. и как ВЫ можете смягчить его влияние в качестве владельца приложения

Кто должен прочитать это?

Для кого полезен этот блог-пост? Работает ли кто-то над реализацией LLM-моделей в своих приложениях?

Насколько продвинутый этот пост? Любой, кто ранее ознакомился с терминами LLM, должен суметь следовать за ним.

Что такое внедрение подсказок в большие языковые модели (LLMs)?

Аналогично SQL, внедрение подсказок LLM стало проблемной возможностью LLM, таких как GPT-4. Этот метод позволяет пользователям внедрять конкретные подсказки, которые стратегически направляют модель на раскрытие данных, которые она изучила и которые не должны были быть открыты для пользователя на фронтенде.

Вот пример:

Почему происходит внедрение подсказок LLM?

  1. Слишком широкий тренировочный набор данных: LLM обучаются на разнообразных наборах данных из интернета, и их знания охватывают широкий спектр тем. В некоторых случаях тренировочные данные могут случайно содержать конфиденциальную или чувствительную информацию.
  2. Отсутствие фильтрации контента во время обучения: Во время этапа обучения языковые модели не активно фильтруют конфиденциальные данные, полагаясь на предположение, что модель не будет делиться такой информацией во время взаимодействия.
  3. Врожденный биас в источниках данных: Если…