LLMWare запускает специализированные 7Б-параметровые LLM-модели RAG модели промышленного уровня, настроенные для рабочих процессов предприятия, которые включают сложные деловые документы.

LLMWare представляет новые 7Б-параметровые LLM-модели RAG для промышленных предприятий индивидуально настроенные для сложных рабочих процессов и деловых документов.

В прошлом месяце Ai Bloks объявил о запуске открытого программного обеспечения своей рамки разработки, llmware, для создания корпоративных рабочих процессов на основе LLM. Сегодня Ai Bloks делает еще один большой шаг на пути к предоставлению фреймворка привязки следующего поколения с выпуском серии DRAGON (Delivering RAG on …), состоящей из 7B-параметровых LLM, разработанных для деловых рабочих процессов и тонко настроенных с конкретной целью фактологического вопросно-ответного обслуживания сложных деловых и юридических документов.

Поскольку все больше предприятий стремятся развертывать масштабируемые системы RAG с использованием собственной конфиденциальной информации, возникает все большая потребность в:

  1.  Едином фреймворке, объединяющем модели LLM с набором окружающих возможностей рабочего процесса (например, разбор документов, встраивание, управление подсказками, проверка источников, отслеживание аудита);
  2. Высококачественных, более маленьких, специализированных моделей LLM, которые были оптимизированы для фактологического вопросно-ответного обслуживания и корпоративных рабочих процессов;
  1. Открытом программном обеспечении, экономичных и гибких вариантах частной развертки с возможностью настройки.

Чтобы удовлетворить эти потребности, LLMWare запускает семь моделей DRAGON, доступных в открытом исходном коде в своем репозитории Hugging Face, все они были тщательно настроены для RAG и разработаны на основе ведущих базовых моделей с готовностью к эксплуатации в корпоративных рабочих процессах RAG.

Все модели DRAGON были оценены с использованием бенчмарка llmware rag-instruct-benchmark, и полные результаты тестирования и методология предоставлены вместе с моделями в репозитории. Каждая из моделей DRAGON достигает точности в средних и высоких 90-х процентах при работе с разнообразным набором из 100 основных тестовых вопросов, обладая надежностью для предотвращения галлюцинаций и определения случаев, когда вопрос не может быть отвечен из фрагмента (например, классификация “не найдено”).

Семейство моделей DRAGON присоединяется к двум другим коллекциям моделей LLMWare RAG: BLING и БИЗНЕС-BERT. Модели BLING – это специализированные более маленькие модели LLM, не требующие использования GPU (1B – 3B), которые могут работать на ноутбуке разработчика. Поскольку методика обучения очень похожа, разработчик может начать с локальной модели BLING, работающей на его ноутбуке, и без проблем переключиться на модель DRAGON для повышения производительности в производстве. Модели DRAGON были разработаны для частной развертки на односерверном корпоративном GPU, чтобы предприятия могли развернуть систему RAG полностью, безопасно и конфиденциально в своей собственной безопасной зоне.

Этот пакет специализированных моделей RAG с открытым исходным кодом, в сочетании с базовой рамкой разработки LLMWare и готовой к использованию интеграцией с instances of Milvus и Mongo DB в частной облачной среде, представляет собой комплексное решение для RAG. С помощью нескольких строк кода разработчик может автоматизировать загрузку и разбор тысяч документов, прикрепить векторы встраивания, выполнить инференции, основанные на состоянии искусственного интеллекта LLM, выполнить проверку доказательств и источников, все это в частном облаке и в некоторых случаях даже с ноутбука разработчика.

Согласно генеральному директору Ai Bloks Даррену Оберсту, “Мы верим, что LLMs позволяют новый рабочий процесс автоматизации в предприятии, и наше видение для LLMWare – объединить специализированные модели, конвейер данных и все необходимые компоненты в единую конструкцию в рамках открытого исходного кода, чтобы предприятия могли быстро настраивать и внедрять масштабируемую автоматизацию, основанную на LLM”.

Дополнительную информацию можно найти в хранилище github llmware по адресу www.github.com/llmware-ai/llmware.git.

Для непосредственного доступа к моделям, пожалуйста, посетите страницу организации llmware Huggingface по адресу www.huggingface.co/llmware.