AWS и NVIDIA объявляют о новом стратегическом сотрудничестве

AWS и NVIDIA анонсируют о расширении стратегического партнерства

На AWS re:Invent между Amazon Web Services (AWS) и NVIDIA было объявлено о заметном расширении их стратегического сотрудничества, устанавливающего новые стандарты в области генеративного искусственного интеллекта. Это партнерство представляет собой переломный момент в этой области, объединяя мощную облачную инфраструктуру AWS и передовые технологии искусственного интеллекта NVIDIA. Поскольку AWS становится первым провайдером облачных услуг, интегрирующим передовые микросхемы GH200 Grace Hopper от NVIDIA, эта альянс обещает разблокировать небывалые возможности в области инноваций в области искусственного интеллекта.

В основе этого сотрудничества лежит общее видение поднять генеративный искусственный интеллект на новый уровень. Предоставляя доступ к системам с несколькими узлами NVIDIA, новейшим GPU, CPU и сложному программному обеспечению для искусственного интеллекта от NVIDIA, а также продвинутой системе виртуализации Nitro System, интерконнекту Elastic Fabric Adapter (EFA) и масштабируемости UltraCluster от AWS, это партнерство намерено революционизировать создание, обучение и развертывание приложений в области генеративного искусственного интеллекта.

Значимость этого сотрудничества выходит за рамки технической интеграции. Оно символизирует совместное стремление двух титанов отрасли продвигать генеративный искусственный интеллект, предоставляя клиентам и разработчикам доступ к передовым ресурсам и инфраструктуре.

Микросхемы NVIDIA GH200 Grace Hopper на AWS

Сотрудничество между AWS и NVIDIA привело к значительному технологическому прорыву: введению микросхем GH200 Grace Hopper от NVIDIA на платформу AWS. Этот шаг позволяет AWS стать первым поставщиком облачных услуг, предлагающим эти передовые микросхемы, что является важным вехопродвижением в области облачных вычислений и искусственного интеллекта.

Микросхемы NVIDIA GH200 Grace Hopper представляют собой прорыв в области вычислительной мощности и эффективности. Они разработаны с использованием новой технологии межузлового соединения, позволяющей им без сбоев соединяться и работать на нескольких узлах. Эта возможность является переломным моментом, особенно в контексте масштабных задач искусственного интеллекта и глубокого обучения. Она позволяет многоузловой платформе GH200 NVL32 масштабироваться до тысяч микросхем, обеспечивая производительность суперкомпьютерного уровня. Такая масштабируемость важна для сложных задач искусственного интеллекта, включая обучение сложных моделей генеративного искусственного интеллекта и обработку больших объемов данных с беспрецедентной скоростью и эффективностью.

Размещение NVIDIA DGX Cloud на AWS

Еще один значимый аспект партнерства между AWS и NVIDIA – размещение NVIDIA DGX Cloud на AWS. Этот сервис обучения искусственного интеллекта как сервис представляет собой значительное совершенствование в области обучения моделей искусственного интеллекта. Он основан на вычислительной мощности GH200 NVL32, специально разработанной для ускоренного обучения моделей генеративного искусственного интеллекта и масштабных языковых моделей.

NVIDIA DGX Cloud на AWS предлагает несколько преимуществ. Он позволяет запускать обширные языковые модели с более чем 1 трлн параметров, что раньше было сложно достичь. Эта возможность важна для разработки более сложных, точных и контекстно-ориентированных моделей искусственного интеллекта. Более того, интеграция с AWS позволяет обеспечить более гибкий и масштабируемый опыт обучения искусственного интеллекта, что делает его доступным для более широкого круга пользователей и отраслей.

Проект Ceiba: построение суперкомпьютера

Возможно, самым амбициозным аспектом сотрудничества между AWS и NVIDIA является проект Ceiba. Этот проект нацелен на создание самого быстрого в мире суперкомпьютера на базе графических процессоров (GPU) с использованием 16 384 микросхем NVIDIA GH200. Проектируемая производительность суперкомпьютера составляет потрясающие 65 эксафлопсов, что делает его уникальным в мире искусственного интеллекта.

Цели проекта Ceiba многообразны. Ожидается, что он значительно повлияет на различные области искусственного интеллекта, включая графику и моделирование, цифровую биологию, робототехнику, автономные транспортные средства и прогнозирование климата. Суперкомпьютер позволит исследователям и разработчикам проложить новые пути в области искусственного интеллекта, ускоряя прогресс в этих областях с непрецедентной скоростью. Проект Ceiba представляет собой не только технологическое чудо, но и катализатор для будущих инноваций в области искусственного интеллекта, который потенциально может привести к достижению прорывов в нашем понимании и применении искусственного интеллекта.

Новая эра инноваций в области искусственного интеллекта

Расширенное сотрудничество между Amazon Web Services (AWS) и NVIDIA отмечает начало новой эры инноваций в области искусственного интеллекта. Введение микросхем GH200 Grace Hopper от NVIDIA на платформу AWS, размещение NVIDIA DGX Cloud и начало амбициозного проекта Ceiba позволяют этим двум техническим гигантам не только преодолеть границы генеративного искусственного интеллекта, но и установить новые стандарты в области облачных вычислений и инфраструктуры искусственного интеллекта.

Это партнерство является не только просто технологическим союзом; оно представляет собой обязательство перед будущим искусственного интеллекта. Интеграция передовых технологий искусственного интеллекта от компании NVIDIA с прочной облачной инфраструктурой от AWS способна ускорить разработку, обучение и внедрение искусственного интеллекта в различных отраслях. От улучшения больших языковых моделей до продвижения исследований в областях, таких как цифровая биология и климатология, потенциальные приложения и последствия этого сотрудничества огромны и трансформационны.