В данной статье Alibaba Group представляет FederatedScope-LLM комплексный пакет для настройки LLM в федеративном обучении

Alibaba Group представляет FederatedScope-LLM - комплексный пакет для настройки LLM в федеративном обучении.

Сегодня платформы, такие как Hugging Face, упрощают доступ и использование предварительно обученных моделей большого языка (LLM) для различных сущностей широкому кругу пользователей, от исследователей ИИ до тех, у кого ограниченный опыт машинного обучения. Когда несколько таких организаций или сущностей выполняют сходные задачи, но не могут напрямую обмениваться данными из-за регулятивов конфиденциальности, появляется федеративное обучение (FL) в качестве ведущего решения для использования совместных данных от этих сущностей. FL также обеспечивает надежную защиту конфиденциальности, сохраняет идеи моделей в безопасности и позволяет создавать настраиваемые модели с использованием различных методов.

В этой работе исследователи создали всестороннюю конвейеризацию тестирования, упрощающую процессы предобработки набора данных, выполнения или моделирования федеративного дообучения и оценки производительности в контексте дообучения предварительно обученных моделей большого языка (LLM) в рамках федеративного обучения. Это сделано для разнообразных целей демонстрации возможностей.

На приведенной выше картинке показана архитектура FS-LLM, состоящая из трех основных модулей: LLMBENCHMARKS, LLM-ALGZOO и LLM-TRAINER. Команда разработала надежные реализации алгоритмов федеративного эффективного дообучения параметров (PEFT) и гибкие программные интерфейсы для облегчения будущих расширений, позволяющие LLM эффективно работать в сценариях федеративного обучения с минимальными затратами на коммуникацию и вычисления, даже при работе с LLM, имеющими закрытый исходный код.

Подробное руководство предоставляется на их веб-сайте: federatedscope.io

Вы можете попробовать FederatedScope через FederatedScope Playground или Google Colab.

Их подход также включает техники ускорения и стратегии ресурсной эффективности для дообучения LLM при ограниченных ресурсах, а также гибкие подключаемые подпрограммы для междисциплинарных исследований, таких как применение LLM в персонализированных настройках федеративного обучения.

Исследование включает серию объемных и воспроизводимых экспериментов, которые подтверждают эффективность FS-LLM и устанавливают базовые параметры для передовых моделей LLM с использованием современных алгоритмов эффективного дообучения параметров в федеративном контексте. На основе результатов этих экспериментов мы обозначаем некоторые перспективные направления для будущих исследований в области федеративного дообучения LLM для развития сообщества FL и LLM.