Как улучшить вывод модели GenAI

Секреты улучшения результатов генеративной модели GenAI

Генеративный ИИ, существующий с 1950-х годов, развивался от ранних систем, основанных на правилах, до моделей, использующих алгоритмы глубокого обучения. В последнее десятилетие новейшие достижения в области аппаратного и программного обеспечения позволили генеративным ИИ-моделям генерировать контент высокого качества в режиме реального времени.

В этой статье я расскажу, как вы можете успешно интегрировать генеративный ИИ в крупномасштабные производственные процессы в бизнес-среде. Таким образом, вы узнаете, как подготовиться к внедрению генеративного ИИ на корпоративном уровне. Например, для обслуживания клиентов, маркетинговых коммуникаций, финансового управления или других бизнес-приложений генеративного ИИ.

Роль машинного обучения в генеративном ИИ

В контексте генеративного ИИ алгоритмы машинного обучения структурируют серию задач. Эти задачи представляют собой непрерывные эксперименты, требующие от нас подготовки команд и бизнеса к повторяющимся циклам.

Например, вы обучаете модель языка давать ответы. В этом случае вам необходимо установить цикл, оценить результаты и, если необходимо, корректировать. Здесь вы будете использовать различные подходы к решению проблем или «паттерны», которые прогрессируют от более простых к более сложным стратегиям управления задачами.

В этой диаграмме представлены различные циклы и итерации. Вы можете использовать ее и адаптировать под специфические требования вашей организации.

Разберем простой цикл.

Уровень 1. Подсказка, контекстное обучение и связывание

Шаг 1

Вы выбираете модель, даете подсказку, получаете ответ, оцениваете ответ и повторяете шаги, если необходимо, до достижения желаемого результата.

Контекстное обучение – это подход к разработке подсказок, при котором языковые модели учатся выполнять задачи на основе нескольких примеров естественного языка. Контекстное обучение – это новый подход в NLP с аналогичными целями для обучения на небольшом количестве данных, позволяющий моделям понимать контекст без значительной настройки.

Шаг 2

Помимо паттерна Подсказка → FM → Адаптация → Завершение, нам часто требуется использование цепочки задач, включающей извлечение данных, предиктивный ИИ и основные модели генеративного ИИ. Данный паттерн следующий:

Цепочка: Извлечение данных/аналитика → Запуск предиктивной модели МО → Отправка результата в LLM → Генерация вывода

Например, в маркетинговом сценарии вы можете начать с использования SQL с BigQuery для определенных сегментов клиентов. Затем используется алгоритм ранжирования предиктивного ИИ для выявления лучших клиентов, и эти данные отправляются в LLM для генерации персонализированных электронных писем.

Уровень 2. Улучшение предыдущего уровня

Если вы все еще не удовлетворены ответами модели, вы можете попробовать улучшить основную модель. Она может быть предметно-специфической, приспособленной к отрасли или созданной для конкретного формата вывода. Она дообучается на крупном наборе размеченных примеров, что может быть ресурсоемкой задачей, но обеспечивает высокую производительность.

Эффективное дообучение параметров (PEFT) может быть более ресурсоэффективным подходом по сравнению с традиционным дообучением. PEFT дообучает только подмножество параметров модели либо путем настройки адаптера, либо путем адаптации матрицы низкого ранга для моделей языка.

  • Настройка адаптера добавляет слой-specific, обученный на небольшом наборе размеченных примеров, позволяя модели учиться задаче-специфичным признакам без полного дообучения параметров.
  • LoRA аппроксимирует параметры модели с использованием матрицы низкого ранга с помощью матричного разложения, эффективно дообучая его на небольшом наборе размеченных примеров для изучения задаче-специфичных признаков.

Уровень 3. Повышение контекста ввода

Шаг 1

Чтобы реализовать семантический поиск связанных документов, следует разделить их на предложения или абзацы. Затем их можно преобразовать в эмбеддинги с помощью инструмента Vector Embedding. Этот процесс использует метод приближенного ближайшего соседа (ANN) для улучшения ответов модели путем уменьшения вероятности галлюцинаций и предоставления соответствующего контекста.

Он известен как Аугментированное извлечение поколения (RAG).

  1. Начните с запроса или утверждения пользователя.
  2. Улучшите подсказку, добавив контекст с помощью инструмента Векторных Вложений.
  3. Отправьте модернизированную подсказку в LLM.

Шаг 2

Вы можете повысить точность модели, позволив ей показать, откуда она получила свои ответы. С RAG это происходит перед показом ответа. После генерации ответа она находит источник и делится им. Многие поставщики, такие как Google Cloud AI, предлагают способы сделать это.

Шаг 3

FLARE, дочерняя компания RAG, включает в себя превентивное извлечение. Она предсказывает, что будет дальше и заранее ищет информацию, особенно когда не уверена в ответах.

Последние мысли

Овладение стадиями проекта генеративного искусственного интеллекта и адаптация необходимых навыков позволяют предприятиям эффективно использовать ИИ. Это сложное путешествие, требующее планирования, ресурсов и этической приверженности, но результатом является мощный инструмент искусственного интеллекта, способный трансформировать бизнес-операции. Надеюсь, эта информация была полезной!