В данной статье Alibaba Group представляет FederatedScope-LLM комплексный пакет для настройки LLM в федеративном обучении
Alibaba Group представляет FederatedScope-LLM - комплексный пакет для настройки LLM в федеративном обучении.
Сегодня платформы, такие как Hugging Face, упрощают доступ и использование предварительно обученных моделей большого языка (LLM) для различных сущностей широкому кругу пользователей, от исследователей ИИ до тех, у кого ограниченный опыт машинного обучения. Когда несколько таких организаций или сущностей выполняют сходные задачи, но не могут напрямую обмениваться данными из-за регулятивов конфиденциальности, появляется федеративное обучение (FL) в качестве ведущего решения для использования совместных данных от этих сущностей. FL также обеспечивает надежную защиту конфиденциальности, сохраняет идеи моделей в безопасности и позволяет создавать настраиваемые модели с использованием различных методов.
В этой работе исследователи создали всестороннюю конвейеризацию тестирования, упрощающую процессы предобработки набора данных, выполнения или моделирования федеративного дообучения и оценки производительности в контексте дообучения предварительно обученных моделей большого языка (LLM) в рамках федеративного обучения. Это сделано для разнообразных целей демонстрации возможностей.
На приведенной выше картинке показана архитектура FS-LLM, состоящая из трех основных модулей: LLMBENCHMARKS, LLM-ALGZOO и LLM-TRAINER. Команда разработала надежные реализации алгоритмов федеративного эффективного дообучения параметров (PEFT) и гибкие программные интерфейсы для облегчения будущих расширений, позволяющие LLM эффективно работать в сценариях федеративного обучения с минимальными затратами на коммуникацию и вычисления, даже при работе с LLM, имеющими закрытый исходный код.
- Извлечение темы документа с помощью больших языковых моделей (LLM) и алгоритма латентного разбиения Дирихле (LDA)
- Шпаргалка Scikit-learn для машинного обучения
- Встречайте FLM-101B открытая декодирующая модель LLM с 101 миллиардом параметров
Подробное руководство предоставляется на их веб-сайте: federatedscope.io
Вы можете попробовать FederatedScope через FederatedScope Playground или Google Colab.
Их подход также включает техники ускорения и стратегии ресурсной эффективности для дообучения LLM при ограниченных ресурсах, а также гибкие подключаемые подпрограммы для междисциплинарных исследований, таких как применение LLM в персонализированных настройках федеративного обучения.
Исследование включает серию объемных и воспроизводимых экспериментов, которые подтверждают эффективность FS-LLM и устанавливают базовые параметры для передовых моделей LLM с использованием современных алгоритмов эффективного дообучения параметров в федеративном контексте. На основе результатов этих экспериментов мы обозначаем некоторые перспективные направления для будущих исследований в области федеративного дообучения LLM для развития сообщества FL и LLM.