Принимая трансформацию AWS и NVIDIA продвигаются вперед в генеративном ИИ и облачных инновациях

AWS и NVIDIA идут вперед в генеративном ИИ и облачных инновациях революция трансформации

Amazon Web Services и NVIDIA привезут последние технологии генеративного искусственного интеллекта предприятиям по всему миру.

Объединяя искусственный интеллект и облачные вычисления, основатель и генеральный директор NVIDIA Дженсен Хуанг во вторник выступил на сцене конференции AWS re:Invent 2023 в Venetian Expo Center в Лас-Вегасе вместе с генеральным директором AWS Адамом Селипски.

Селипски заявил, что он “возбужден” анонсируя расширение партнерства между AWS и NVIDIA с предоставлением более продвинутой графики, машинного обучения и генеративной архитектуры искусственного интеллекта.

Две компании объявили, что AWS станет первым облачным провайдером, который примет последний NVIDIA GH200 NVL32 Grace Hopper Superchip с новой многоузловой технологией NVLink, что AWS внедряет NVIDIA DGX Cloud на AWS, и что AWS интегрировала некоторые из самых популярных программных библиотек NVIDIA.

Хуанг начал разговор, подчеркивая интеграцию ключевых библиотек NVIDIA с AWS, охватывающих области от NVIDIA AI Enterprise до cuQuantum до BioNeMo, ориентированных на области обработки данных, квантовых вычислений и цифровой биологии.

Партнерство открывает AWS для миллионов разработчиков и почти 40 000 компаний, которые используют эти библиотеки, сказал Хуанг, добавив что замечательно видеть, что AWS расширяет возможности облачных инстансов, включая новые видеокарты L4, L40S и вскоре H200 от NVIDIA.

Селипски затем представил AWS дебют NVIDIA GH200 Grace Hopper Superchip, существенное достижение в области облачных вычислений, и попросил Хуанга о подробностях.

“Grace Hopper, который это GH200, соединяет два революционных процессора вместе уникальным образом”, – сказал Хуанг. Он пояснил, что GH200 соединяет Grace Arm CPU NVIDIA с графическим процессором H200 с использованием чипа-к-чипу интерконнекта, называемого NVLink, со скоростью до одного терабайта в секунду.

Каждый процессор имеет прямой доступ к высокопроизводительной HBM и эффективной памяти LPDDR5X. Эта конфигурация обеспечивает 4 петафлопса вычислительной мощности и 600 ГБ памяти для каждого суперчипа.

AWS и NVIDIA соединяют 32 Grace Hopper Superchips в каждой стойке с помощью нового коммутатора NVLink. Каждый узел на 32 GH200 NVLink-соединенных узлах может быть отдельным экземпляром Amazon EC2. Когда они интегрируются с AWS Nitro и EFA сетевой инфраструктурой, клиенты могут соединять инстансы GH200 NVL32 для масштабирования до тысячи GH200 Superchips.

“С AWS Nitro это фактически становится одним огромным виртуальным экземпляром графического процессора,” – сказал Хуанг.

Комбинация экспертизы AWS в высокомасштабируемых облачных вычислениях и инноваций NVIDIA с Grace Hopper сделает эту платформу удивительной, обеспечивая высочайшую производительность в сложных нагрузках генеративного искусственного интеллекта, сказал Хуанг.

“Здорово видеть не только инфраструктуру, но и программное обеспечение, сервисы и все остальные потоки работ, которые у них есть”, – сказал Селипски, представляя NVIDIA DGX Cloud на AWS.

Это партнерство приведет к появлению первого AI суперкомпьютера DGX Cloud, работающего на базе Superchips GH200, продемонстрируя мощь облачной инфраструктуры AWS и опыта NVIDIA в области искусственного интеллекта.

Продолжая, Хуанг объявил, что эта новая конструкция суперкомпьютера DGX Cloud в AWS под кодовым названием “Project Ceiba”, будет использоваться NVIDIA в качестве их нового искусственного интеллекта собственного суперкомпьютера для исследований и разработки.

По словам Хуанга, Project Ceiba DGX Cloud кластер, названный в честь величественного амазонского дерева Ceiba, включает 16 384 суперчипа GH200 для достижения 65 эксафлопсов вычислительной мощности искусственного интеллекта.

Project Ceiba станет первым AI суперкомпьютером GH200 NVL32, созданным в мире, и новейшим AI суперкомпьютером в DGX Cloud от NVIDIA, сказал Хуанг.

Хуанг описал Project Ceiba AI суперкомпьютер как “абсолютно невероятный”, говоря, что он сможет сократить время обучения самых больших языковых моделей на половину.

Инженерные команды по искусственному интеллекту NVIDIA будут использовать новый суперкомпьютер в DGX Cloud для продвижения искусственного интеллекта в графике, моделях языка и изображений/видео/3D генерации, цифровой биологии, робототехнике, автономных автомобилях, прогнозировании климата Earth-2 и других областях, сказал Хуанг.

«DGX – это облачная фабрика искусственного интеллекта NVIDIA», – сказал Хуанг, отметив, что ИИ теперь является ключевым элементом работы NVIDIA во всем, начиная от компьютерной графики и создания цифровых биологических моделей до робототехники и климатического моделирования.

«DGX Cloud также является нашей фабрикой искусственного интеллекта для работы с предприятиями по созданию пользовательских моделей искусственного интеллекта», – сообщил Хуанг. – «Они обеспечивают данные и экспертизу в сфере, мы предоставляем технологию и инфраструктуру искусственного интеллекта».

Кроме того, Хуанг также объявил, что AWS добавит на рынок четыре экземпляра Amazon EC2, основанных на графических процессорах NVIDIA GH200 NVL, H200, L40S, L4, которые появятся в начале следующего года.

Селипски завершил беседу, объявив, что экземпляры на основе GH200 и DGX Cloud будут доступны на AWS в следующем году. Вы можете посмотреть обсуждение и презентацию Селипски на YouTube-канале AWS.