Mistral AI представляет прорыв в языковых моделях с выпуском MoE 8x7B.

Mistral AI представляет революционные языковые модели с выпуском MoE 8x7B.

Парижская стартап-компания Mistral AI запустила языковую модель MoE 8x7B. Система Mistral LLM часто сравнивается с уменьшенной версией GPT-4, состоящей из 8 экспертов с 7 миллиардами параметров каждый. Отмечается, что для обработки каждого токена используются только 2 из 8 экспертов, что демонстрирует эффективный и оптимизированный подход к обработке.

Данная модель использует архитектуру смеси экспертов (MoE) для достижения впечатляющих результатов и эффективности. Это позволяет достичь более эффективной и оптимизированной производительности по сравнению с традиционными моделями. Исследователи отмечают, что MoE 8x7B показывает более высокую производительность по сравнению с предыдущими моделями, такими как Llama2-70B и Qwen-72B, в различных аспектах, включая генерацию текста, понимание и задачи, требующие высокоуровневой обработки, такие как кодирование и оптимизация SEO.

Она вызвала огромный интерес в сообществе искусственного интеллекта. Известный консультант по искусственному интеллекту и основатель сообщества Machine & Deep Learning Israel отметил, что Mistral известна подобными релизами, характеризуя их как уникальные в отрасли. Сторонник свободного программного обеспечения в сфере искусственного интеллекта Джей Скэмблер отметил необычность данного релиза. Он сказал, что это успешно вызвало большой интерес и предположил, что такая стратегия нужна Mistral для привлечения внимания и характерна для сообщества искусственного интеллекта.

Путь Mistral в области искусственного интеллекта отмечен вехами, включая привлечение рекордной суммы в размере 118 миллионов долларов в сид-раунде, которое является самым большим в истории Европы. Компания получила дополнительное признание, запустив свою первую большую языковую ИИ-модель, Mistral 7B, в сентябре.

Модель MoE 8x7B имеет 8 экспертов, каждый из которых имеет 7 миллиардов параметров, что представляет собой уменьшение по сравнению с GPT-4, где 16 экспертов имели по 166 миллиардов параметров на эксперта. По сравнению с оцениваемыми 1,8 триллионами параметров GPT-4, оцениваемый общий размер модели составляет 42 миллиарда параметров. Кроме того, MoE 8x7B обладает более глубоким пониманием языковых проблем, что приводит к улучшению машинного перевода, взаимодействия с чат-ботами и поиску информации.

Архитектура MoE обеспечивает более эффективное распределение ресурсов, что приводит к ускорению времени обработки и снижению вычислительных затрат. MoE 8x7B от Mistral AI является значительным шагом в развитии языковых моделей. Ее высокая производительность, эффективность и универсальность имеют огромный потенциал для различных отраслей и приложений. По мере развития искусственного интеллекта модели, подобные MoE 8x7B, ожидается, станут неотъемлемыми инструментами для бизнеса и разработчиков, стремящихся улучшить свои цифровые навыки и стратегии контента.

В заключение, релиз MoE 8x7B от Mistral AI представляет собой новую языковую модель, которая сочетает в себе техническую сложность и нестандартные маркетинговые тактики. Исследователи с нетерпением ждут влияния и применения этой передовой языковой модели по мере того, как сообщество искусственного интеллекта продолжает изучать и оценивать архитектуру компании Mistral. Возможности MoE 8x7B могут открыть новые пути в исследованиях и разработке в различных областях, включая образование, здравоохранение и научные открытия.