Параметро-эффективная настройка (PEFT) для LLMs Полное введение

PEFT для LLMs - параметро-эффективная настройка.

Концептуальное исследование методов PEFT, используемых Hugging Face, Google Vertex AI и в конечном итоге OpenAI

Изображение, созданное DALL-E. Воскресный вечер на острове Ла Гранд-Жатт, но все люди - это гуманоиды.

Большие языковые модели (LLM) довольно большие по размеру. Эти модели обычно имеют от 7 до 70 миллиардов параметров. Чтобы загрузить модель с 70 миллиардами параметров в полной точности, потребуется 280 ГБ графической памяти! Для обучения такой модели вам придется обновлять миллиарды токенов в миллионах или миллиардах документов. Вычислительные затраты для обновления этих параметров значительны. Самостоятельное обучение этих моделей является дорогостоящим и может обходиться компаниям до $100 миллионов.

Для остальных нас существует значительный интерес к адаптации наших данных к этим моделям. С нашими ограниченными наборами данных (по сравнению) и недостатком вычислительных мощностей, как мы можем создавать модели, которые могут улучшить работу основных игроков по доле стоимости?

Здесь на сцену выходит исследовательская область эффективной настройки параметров (PEFT). С помощью различных техник, которые мы вскоре рассмотрим подробно, мы можем улучшить небольшие секции этих моделей, чтобы они лучше соответствовали задачам, которые мы хотим выполнить.

После прочтения этой статьи вы концептуально поймете каждую применяемую в Hugging Face технику PEFT и сможете различить различия между ними. Один из самых полезных обзоров, который я нашел до этой статьи, был в комментарии на Reddit. Также есть еще одна исключительная статья, доступная на lightning.ai (создатели pytorch lightning). Кроме того, есть всеобъемлющее исследование, на основе которого создано большинство этой статьи, написанное Лиали и др. [2]. В своей статье я стремлюсь заполнить пробелы, которые я выявил при изучении этого материала. На момент написания этой статьи она служит концептуальным руководством по всем методам PEFT, присутствующим в библиотеке Hugging Face. Целью для читателей является освоение научно-исследовательской литературы по другим методам PEFT с фундаментальным пониманием области.

Момент саморефлексии: Настало ли время для тонкой настройки?

Я написал предыдущую статью о соображениях, касающихся тонкой настройки LLM и о том, как можно достичь схожей производительности с помощью контекстного обучения…