Извлечение с использованием усиления генерации – интуитивно и полностю объясненное
Усиление генерации полное и интуитивно понятное объяснение процесса извлечения
Создание языковых моделей, способных искать информацию

В этой статье мы рассмотрим “улучшение поколения с помощью поиска” (RAG), стратегию, которая позволяет нам предоставить актуальную и полезную информацию большой языковой модели. Мы рассмотрим теорию, а затем представим себя в роли владельцев ресторанов; мы реализуем систему, позволяющую нашим клиентам общаться с искусственным интеллектом о нашем меню, сезонных мероприятиях и общей информации.

Для кого это полезно? Для всех, кто интересуется обработкой естественного языка (NLP).
Насколько сложна эта статья? Это очень мощная, но простая концепция, идеально подходит как для новичков, так и для экспертов.
Предварительные требования: Некоторые элементарные знания о больших языковых моделях (LLM) могут быть полезны, но не являются обязательными.
- Паттерны проектирования с использованием Python для инженеров машинного обучения Builder
- Введение в загрузку больших языковых моделей
- Можно ли обучить Llama 2-приводный чатбот на центральном процессоре?
Основа проблемы
LLM-модели требуют значительных затрат на обучение; например, обучение чат-бота GPT-3 обошлось в ошеломляющую сумму в 3,2 миллиона долларов только на вычислительные ресурсы. Если мы откроем новый ресторан и захотим использовать LLM для ответов на вопросы о меню, было бы здорово, если бы нам не приходилось тратить миллионы долларов каждый раз, когда мы вводим новый сезонный салат. Мы могли бы выполнить более небольшой этап обучения (называемый точечной настройкой), чтобы модель могла изучить небольшое количество крайне специфичной информации. Однако этот процесс все равно может обойтись в сотни или тысячи долларов.
Еще одной проблемой с LLM-моделями является их уверенность; иногда они утверждают что-то с полной уверенностью, хотя это явно неправда (это часто называют галлюцинациями). В результате бывает сложно понять, откуда LLM черпает свою информацию и насколько эта информация достоверна. Если клиент с аллергией спрашивает, содержит ли блюдо орехи, было бы здорово, если бы мы могли обеспечить точную информацию нашей LLM, чтобы наши посетители не подвергались анафилактическому шоку.
Адвокат Стивен А. Шварц оказался в неловком положении из-за использования ChatGPT, что привело к цитированию шести фальшивых случаев в правовой документации. — Известный пример галлюцинации в действии. Источник