Эта статья о искусственном интеллекте от NVIDIA исследует мощь взаимодействия с возвращением и дополнения в языковых моделях по сравнению с длинным контекстом какое из них господствует и могут ли они сосуществовать?

Исследование возможностей взаимодействия и дополнения в языковых моделях от NVIDIA сравнение мощи искусственного интеллекта с длинным контекстом и вопрос совместного существования

В рамках сравнительного исследования исследователи из Nvidia изучили влияние аугментации поиска и размера окна контекста на производительность больших языковых моделей (LLM) в вспомогательных задачах. Они пришли к выводу, что аугментация поиска последовательно улучшает производительность LLM независимо от размера окна контекста. Их исследование раскрывает эффективность механизмов поиска при оптимизации LLM для различных приложений.

Исследователи погружаются в область моделей длинного контекста языка, изучая эффективность аугментации поиска и размера окна контекста в улучшении производительности LLM для различных вспомогательных задач. Они проводят сравнительный анализ различных предварительно обученных LLM, демонстрируя, что механизмы поиска значительно улучшают возможности LLM независимо от размера их расширенного окна контекста.

Модели LLM с длинным контекстом становятся все более актуальными благодаря улучшению GPU и методам памяти-эффективного внимания. Их метод исследует использование поиска в качестве решения для работы с длинным контекстом в LLM, эффективно извлекая соответствующий контекст из получателя. Он сравнивает аугментацию поиска с расширенными окнами контекста в LLM для выполнения задач, таких как вопросно-ответная система и суммаризация.

Их подход включает сравнение производительности двух продвинутых предварительно обученных LLM (собственная модель GPT 43B и LLaMA2-70B) в контексте задач с длинным контекстом. Он исследует эффективность аугментации поиска и расширенных окон контекста для задач, таких как вопросно-ответная система и суммаризация. Исследование показывает, что модель LLaMA2-70B с аугментацией поиска и окном контекста 32K превосходит другие модели в семи задачах с длинным контекстом, включая вопросно-ответную систему и суммаризацию, при этом обеспечивая более быстрое время генерации. Исследование помогает практикам выбирать между аугментацией поиска и расширением контекста для LLM.

Исследование подчеркивает преимущества аугментации поиска и расширения контекста для улучшения производительности LLM во вспомогательных задачах. Аугментация поиска с окном контекста 4K сопоставима с версией LLM с окном контекста 16K путем позиционной интерполяции, что позволяет снизить вычислительные затраты. Модель LLaMA2-70B с аугментацией поиска и окном контекста 32K превосходит другие модели в различных задачах с длинным контекстом, открывая перспективное направление для развития LLM. Эти исследования помогают практикам выбирать между аугментацией поиска и расширением контекста для LLM.

В будущем будут исследоваться аугментация поиска и расширение контекста для LLM в различных задачах и наборах данных для повышения обобщаемости и оценки их эффективности за пределами задач вопросно-ответной системы и суммаризации в различных областях обработки естественного языка. Будут разрабатываться эффективные механизмы внимания для решения вычислительных проблем в моделях с длинным контекстом и будут изучаться взаимодействия между этими техниками в различных контекстах, а также улучшаться стратегии тонкой настройки для оптимизации задач.