AMD + πŸ€— УскорСниС Π±ΠΎΠ»ΡŒΡˆΠΈΡ… языковых ΠΌΠΎΠ΄Π΅Π»Π΅ΠΉ ΠΈΠ· ΠΊΠΎΡ€ΠΎΠ±ΠΊΠΈ с ΠΏΠΎΠΌΠΎΡ‰ΡŒΡŽ графичСского процСссора AMD

AMD + πŸ€— МаксимальноС ускорСниС ΠΎΠ±Ρ€Π°Π±ΠΎΡ‚ΠΊΠΈ Π±ΠΎΠ»ΡŒΡˆΠΈΡ… языковых ΠΌΠΎΠ΄Π΅Π»Π΅ΠΉ с графичСским процСссором AMD

Π Π°Π½Π΅Π΅ Π² этом Π³ΠΎΠ΄Ρƒ AMD ΠΈ Hugging Face объявили ΠΎ партнСрствС для ускорСния ΠΌΠΎΠ΄Π΅Π»Π΅ΠΉ искусствСнного ΠΈΠ½Ρ‚Π΅Π»Π»Π΅ΠΊΡ‚Π° Π½Π° мСроприятии AMD AI Day. ΠœΡ‹ усСрдно Ρ€Π°Π±ΠΎΡ‚Π°Π΅ΠΌ Π½Π°Π΄ Ρ€Π΅Π°Π»ΠΈΠ·Π°Ρ†ΠΈΠ΅ΠΉ этой Π·Π°Π΄Π°Ρ‡ΠΈ ΠΈ Π΄Π΅Π»Π°Π΅ΠΌ всС Π²ΠΎΠ·ΠΌΠΎΠΆΠ½ΠΎΠ΅, Ρ‡Ρ‚ΠΎΠ±Ρ‹ сообщСство Hugging Face ΠΌΠΎΠ³Π»ΠΎ Π·Π°ΠΏΡƒΡΠΊΠ°Ρ‚ΡŒ самыС Π½ΠΎΠ²Ρ‹Π΅ ΠΌΠΎΠ΄Π΅Π»ΠΈ искусствСнного ΠΈΠ½Ρ‚Π΅Π»Π»Π΅ΠΊΡ‚Π° Π½Π° ΠΎΠ±ΠΎΡ€ΡƒΠ΄ΠΎΠ²Π°Π½ΠΈΠΈ AMD с Π»ΡƒΡ‡ΡˆΠ΅ΠΉ ΠΏΡ€ΠΎΠΈΠ·Π²ΠΎΠ΄ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΡŒΡŽ.

AMD обСспСчиваСт ΠΌΠΎΡ‰Π½ΠΎΡΡ‚ΡŒ Π½Π΅ΠΊΠΎΡ‚ΠΎΡ€Ρ‹Ρ… ΠΈΠ· самых ΠΌΠΎΡ‰Π½Ρ‹Ρ… ΡΡƒΠΏΠ΅Ρ€ΠΊΠΎΠΌΠΏΡŒΡŽΡ‚Π΅Ρ€ΠΎΠ² Π² ΠΌΠΈΡ€Π΅, Π²ΠΊΠ»ΡŽΡ‡Π°Ρ самый быстрый Π² Π•Π²Ρ€ΠΎΠΏΠ΅ LUMI, ΠΊΠΎΡ‚ΠΎΡ€Ρ‹ΠΉ Ρ€Π°Π±ΠΎΡ‚Π°Π΅Ρ‚ Π½Π° Π±Π°Π·Π΅ Π±ΠΎΠ»Π΅Π΅ 10 000 графичСских процСссоров MI250X AMD. На этом мСроприятии AMD прСдставила свою послСднюю ΡΠ΅Ρ€ΠΈΡŽ аксСлСраторов для сСрвСров, AMD Instinctβ„’ MI300, которая скоро станСт доступна ΡˆΠΈΡ€ΠΎΠΊΠΎΠΌΡƒ ΠΊΡ€ΡƒΠ³Ρƒ ΠΏΠΎΠ»ΡŒΠ·ΠΎΠ²Π°Ρ‚Π΅Π»Π΅ΠΉ.

Π’ этой ΡΡ‚Π°Ρ‚ΡŒΠ΅ ΠΌΡ‹ расскаТСм ΠΎ нашСм прогрСссС Π² обСспСчСнии прСкрасной ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΊΠΈ графичСских процСссоров AMD “ΠΈΠ· ΠΊΠΎΡ€ΠΎΠ±ΠΊΠΈ” ΠΈ Ρ€Π°ΡΡˆΠΈΡ€Π΅Π½ΠΈΠΈ совмСстимости с послСдними графичСскими процСссорами AMD Instinct для сСрвСров.

УскорСниС “ΠΈΠ· ΠΊΠΎΡ€ΠΎΠ±ΠΊΠΈ”

ΠœΠΎΠΆΠ΅Ρ‚Π΅ Π»ΠΈ Π²Ρ‹ Π½Π°ΠΉΡ‚ΠΈ измСнСния Π² ΠΊΠΎΠ΄Π΅, спСцифичныС для AMD? НС затрудняйтС Π²Π·ΠΎΡ€, ΠΈΡ… Π½Π΅Ρ‚ ΠΏΠΎ ΡΡ€Π°Π²Π½Π΅Π½ΠΈΡŽ с Ρ€Π°Π±ΠΎΡ‚ΠΎΠΉ Π½Π° графичСских процСссорах NVIDIA πŸ€—.

from transformers import AutoTokenizer, AutoModelForCausalLMimport torchmodel_id = "01-ai/Yi-6B"tokenizer = AutoTokenizer.from_pretrained(model_id)with torch.device("cuda"):    model = AutoModelForCausalLM.from_pretrained(model_id, torch_dtype=torch.float16)inp = tokenizer(["БСгодня я Π½Π°Ρ…ΠΎΠΆΡƒΡΡŒ Π² ΠŸΠ°Ρ€ΠΈΠΆΠ΅ ΠΈ"], padding=True, return_tensors="pt").to("cuda")res = model.generate(**inp, max_new_tokens=30)print(tokenizer.batch_decode(res))

Одним ΠΈΠ· основных аспСктов, Π½Π°Π΄ ΠΊΠΎΡ‚ΠΎΡ€Ρ‹ΠΌ ΠΌΡ‹ Ρ€Π°Π±ΠΎΡ‚Π°Π΅ΠΌ, являСтся Π²ΠΎΠ·ΠΌΠΎΠΆΠ½ΠΎΡΡ‚ΡŒ запуска ΠΌΠΎΠ΄Π΅Π»Π΅ΠΉ Hugging Face Transformers Π±Π΅Π· измСнСния ΠΊΠΎΠ΄Π°. Π’Π΅ΠΏΠ΅Ρ€ΡŒ ΠΌΡ‹ ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΈΠ²Π°Π΅ΠΌ всС ΠΌΠΎΠ΄Π΅Π»ΠΈ ΠΈ Π·Π°Π΄Π°Ρ‡ΠΈ Transformers Π½Π° графичСских процСссорах AMD Instinct. И нашС сотрудничСство Π½Π΅ ограничиваСтся здСсь: ΠΌΡ‹ исслСдуСм ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΊΡƒ ΠΌΠΎΠ΄Π΅Π»Π΅ΠΉ diffusers “ΠΈΠ· ΠΊΠΎΡ€ΠΎΠ±ΠΊΠΈ” ΠΈ Π΄Ρ€ΡƒΠ³ΠΈΡ… Π±ΠΈΠ±Π»ΠΈΠΎΡ‚Π΅ΠΊ, Π° Ρ‚Π°ΠΊΠΆΠ΅ Π΄Ρ€ΡƒΠ³ΠΈΡ… графичСских процСссоров AMD.

ДостиТСниС этой Π²Π΅Ρ…ΠΈ Π±Ρ‹Π»ΠΎ Π·Π½Π°Ρ‡ΠΈΡ‚Π΅Π»ΡŒΠ½Ρ‹ΠΌ усилиСм ΠΈ сотрудничСством Π½Π°ΡˆΠΈΡ… ΠΊΠΎΠΌΠ°Π½Π΄ ΠΈ ΠΊΠΎΠΌΠΏΠ°Π½ΠΈΠΉ. Для поддСрТания ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΊΠΈ ΠΈ ΠΏΡ€ΠΎΠΈΠ·Π²ΠΎΠ΄ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ для сообщСства Hugging Face ΠΌΡ‹ создали ΠΈΠ½Ρ‚Π΅Π³Ρ€ΠΈΡ€ΠΎΠ²Π°Π½Π½ΠΎΠ΅ тСстированиС Π±ΠΈΠ±Π»ΠΈΠΎΡ‚Π΅ΠΊ с ΠΎΡ‚ΠΊΡ€Ρ‹Ρ‚Ρ‹ΠΌ исходным ΠΊΠΎΠ΄ΠΎΠΌ Hugging Face Π½Π° графичСских процСссорах AMD Instinct Π² Π½Π°ΡˆΠΈΡ… Π΄Π°Ρ‚Π°Ρ†Π΅Π½Ρ‚Ρ€Π°Ρ…, ΠΈ смогли ΡΠΎΠΊΡ€Π°Ρ‚ΠΈΡ‚ΡŒ ΡƒΠ³Π»Π΅Ρ€ΠΎΠ΄Π½Ρ‹ΠΉ слСд этих Π½ΠΎΠ²Ρ‹Ρ… Ρ€Π°Π±ΠΎΡ‡ΠΈΡ… Π½Π°Π³Ρ€ΡƒΠ·ΠΎΠΊ, работая с Verne Global ΠΏΠΎ Ρ€Π°Π·Π²Π΅Ρ€Ρ‚Ρ‹Π²Π°Π½ΠΈΡŽ сСрвСров AMD Instinct Π² Исландии.

Помимо Π½Π°Ρ‚ΠΈΠ²Π½ΠΎΠΉ ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΊΠΈ, Π΅Ρ‰Π΅ ΠΎΠ΄Π½ΠΈΠΌ Π²Π°ΠΆΠ½Ρ‹ΠΌ аспСктом нашСго сотрудничСства являСтся прСдоставлСниС ΠΈΠ½Ρ‚Π΅Π³Ρ€Π°Ρ†ΠΈΠΈ с послСдними инновациями ΠΈ функциями, доступными Π½Π° графичСских процСссорах AMD. Благодаря сотрудничСству ΠΊΠΎΠΌΠ°Π½Π΄Ρ‹ Hugging Face, ΠΈΠ½ΠΆΠ΅Π½Π΅Ρ€ΠΎΠ² AMD ΠΈ Ρ‡Π»Π΅Π½ΠΎΠ² сообщСства с ΠΎΡ‚ΠΊΡ€Ρ‹Ρ‚Ρ‹ΠΌ исходным ΠΊΠΎΠ΄ΠΎΠΌ, ΠΌΡ‹ с Ρ€Π°Π΄ΠΎΡΡ‚ΡŒΡŽ анонсируСм ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΊΡƒ:

  • Flash Attention v2 ΠΎΡ‚ AMD Open Source Π² Ρ€Π°ΡΡˆΠΈΡ€Π΅Π½Π½ΠΎΠΉ Π½Π°Ρ‚ΠΈΠ²Π½ΠΎΠΉ ΠΈΠ½Ρ‚Π΅Π³Ρ€Π°Ρ†ΠΈΠΈ Π² Transformers ΠΈ Text Generation Inference.
  • Paged Attention ΠΎΡ‚ vLLM ΠΈ Ρ€Π°Π·Π»ΠΈΡ‡Π½Ρ‹Π΅ ΠΎΠ±ΡŠΠ΅Π΄ΠΈΠ½Π΅Π½Π½Ρ‹Π΅ ядра, доступныС Π² Text Generation Inference для ROCm.
  • DeepSpeed для графичСских процСссоров, Ρ€Π°Π±ΠΎΡ‚Π°ΡŽΡ‰ΠΈΡ… Π½Π° ROCm с использованиСм Transformers, Ρ‚Π΅ΠΏΠ΅Ρ€ΡŒ ΠΎΡ„ΠΈΡ†ΠΈΠ°Π»ΡŒΠ½ΠΎ ΠΏΡ€ΠΎΠ²Π΅Ρ€Π΅Π½ ΠΈ поддСрТиваСтся.
  • GPTQ, общая Ρ‚Π΅Ρ…Π½ΠΈΠΊΠ° сТатия вСсов, ΠΈΡΠΏΠΎΠ»ΡŒΠ·ΡƒΠ΅ΠΌΠ°Ρ для ΡƒΠΌΠ΅Π½ΡŒΡˆΠ΅Π½ΠΈΡ Ρ‚Ρ€Π΅Π±ΠΎΠ²Π°Π½ΠΈΠΉ ΠΊ памяти ΠΌΠΎΠ΄Π΅Π»ΠΈ, поддСрТиваСтся Π½Π° ROCm-графичСских процСссорах благодаря нСпосрСдствСнной ΠΈΠ½Ρ‚Π΅Π³Ρ€Π°Ρ†ΠΈΠΈ с AutoGPTQ ΠΈ Transformers.
  • Optimum-Benchmark, ΡƒΡ‚ΠΈΠ»ΠΈΡ‚Π° для Π»Π΅Π³ΠΊΠΎΠ³ΠΎ тСстирования ΠΏΡ€ΠΎΠΈΠ·Π²ΠΎΠ΄ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ Transformers Π½Π° графичСских процСссорах AMD Π² Π½ΠΎΡ€ΠΌΠ°Π»ΡŒΠ½Ρ‹Ρ… ΠΈ распрСдСлСнных настройках с оптимизациями ΠΈ схСмами квантования.
  • ΠŸΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΊΠ° выполнСния ΠΌΠΎΠ΄Π΅Π»Π΅ΠΉ ONNX Π½Π° графичСских процСссорах, Ρ€Π°Π±ΠΎΡ‚Π°ΡŽΡ‰ΠΈΡ… Π½Π° ROCm, с использованиСм ONNX Runtime Ρ‡Π΅Ρ€Π΅Π· ROCMExecutionProvider с использованиСм Π±ΠΈΠ±Π»ΠΈΠΎΡ‚Π΅ΠΊΠΈ Optimum.

ΠœΡ‹ с большим восторгом ΠΏΡ€Π΅Π΄Π»Π°Π³Π°Π΅ΠΌ ΠΏΠΎΠ»ΡŒΠ·ΠΎΠ²Π°Ρ‚Π΅Π»ΡΠΌ Hugging Face эти соврСмСнныС инструмСнты ускорСния, ΠΊΠΎΡ‚ΠΎΡ€Ρ‹Π΅ стали доступными ΠΈ Π»Π΅Π³ΠΊΠΈΠΌΠΈ Π² использовании, Π° Ρ‚Π°ΠΊΠΆΠ΅ обСспСчиваСм ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΊΡƒ ΠΈ ΠΏΡ€ΠΎΠΈΠ·Π²ΠΎΠ΄ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΡŒ с прямой ΠΈΠ½Ρ‚Π΅Π³Ρ€Π°Ρ†ΠΈΠ΅ΠΉ Π² наш ΠΊΠΎΠ½Π²Π΅ΠΉΠ΅Ρ€ Π½Π΅ΠΏΡ€Π΅Ρ€Ρ‹Π²Π½ΠΎΠΉ ΠΈΠ½Ρ‚Π΅Π³Ρ€Π°Ρ†ΠΈΠΈ ΠΈ Ρ€Π°Π·Ρ€Π°Π±ΠΎΡ‚ΠΊΠΈ для графичСских процСссоров AMD Instinct.

Один графичСский процСссор AMD Instinct MI250 с 128 Π“Π‘ памяти высокой пропускной способности ΠΈΠΌΠ΅Π΅Ρ‚ Π΄Π²Π° ΠΎΡ‚Π΄Π΅Π»ΡŒΠ½Ρ‹Ρ… устройства ROCm (GPU 0 ΠΈ 1), ΠΊΠ°ΠΆΠ΄ΠΎΠ΅ ΠΈΠ· Π½ΠΈΡ… ΠΈΠΌΠ΅Π΅Ρ‚ 64 Π“Π‘ памяти высокой пропускной способности.

MI250 Π΄Π²Π° устройства, ΠΊΠ°ΠΊ ΠΏΠΎΠΊΠ°Π·Ρ‹Π²Π°Π΅Ρ‚ `rocm-smi`

Π­Ρ‚ΠΎ ΠΎΠ·Π½Π°Ρ‡Π°Π΅Ρ‚, Ρ‡Ρ‚ΠΎ с ΠΏΠΎΠΌΠΎΡ‰ΡŒΡŽ всСго ΠΎΠ΄Π½ΠΎΠΉ Π²ΠΈΠ΄Π΅ΠΎΠΊΠ°Ρ€Ρ‚Ρ‹ MI250 Ρƒ нас Π΅ΡΡ‚ΡŒ Π΄Π²Π° устройства PyTorch, ΠΊΠΎΡ‚ΠΎΡ€Ρ‹Π΅ ΠΌΠΎΠ³ΡƒΡ‚ Π±Ρ‹Ρ‚ΡŒ ΠΎΡ‡Π΅Π½ΡŒ Π»Π΅Π³ΠΊΠΎ ΠΈΡΠΏΠΎΠ»ΡŒΠ·ΠΎΠ²Π°Π½Ρ‹ с ΠΏΠ°Ρ€Π°Π»Π»Π΅Π»ΠΈΠ·ΠΌΠΎΠΌ Ρ‚Π΅Π½Π·ΠΎΡ€Π° ΠΈ Π΄Π°Π½Π½Ρ‹Ρ… для достиТСния Π±ΠΎΠ»Π΅Π΅ высокой ΠΏΡ€ΠΎΠΈΠ·Π²ΠΎΠ΄ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ ΠΈ ΠΌΠ΅Π½ΡŒΡˆΠΈΡ… Π·Π°Π΄Π΅Ρ€ΠΆΠ΅ΠΊ.

Π’ ΠΎΡΡ‚Π°Π²ΡˆΠ΅ΠΉΡΡ части ΡΡ‚Π°Ρ‚ΡŒΠΈ ΠΌΡ‹ прСдставляСм Ρ€Π΅Π·ΡƒΠ»ΡŒΡ‚Π°Ρ‚Ρ‹ ΠΏΡ€ΠΎΠΈΠ·Π²ΠΎΠ΄ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ для Π΄Π²ΡƒΡ… этапов, связанных с Π³Π΅Π½Π΅Ρ€Π°Ρ†ΠΈΠ΅ΠΉ тСкста с использованиСм Π±ΠΎΠ»ΡŒΡˆΠΈΡ… языковых ΠΌΠΎΠ΄Π΅Π»Π΅ΠΉ:

  • Π—Π°Π΄Π΅Ρ€ΠΆΠΊΠ° ΠΏΡ€Π΅Π΄Π²Π°Ρ€ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎΠΉ заполнСнности: врСмя, ΠΊΠΎΡ‚ΠΎΡ€ΠΎΠ΅ трСбуСтся ΠΌΠΎΠ΄Π΅Π»ΠΈ для вычислСния прСдставлСния Π²Π²Π΅Π΄Π΅Π½Π½Ρ‹Ρ… ΠΏΠΎΠ»ΡŒΠ·ΠΎΠ²Π°Ρ‚Π΅Π»Π΅ΠΌ Π΄Π°Π½Π½Ρ‹Ρ… ΠΈΠ»ΠΈ подсказки (Ρ‚Π°ΠΊΠΆΠ΅ Π½Π°Π·Ρ‹Π²Π°Π΅ΠΌΠΎΠ΅ “Π’Ρ€Π΅ΠΌΠ΅Π½Π΅ΠΌ Π΄ΠΎ ΠΏΠ΅Ρ€Π²ΠΎΠ³ΠΎ Ρ‚ΠΎΠΊΠ΅Π½Π°”).
  • Π—Π°Π΄Π΅Ρ€ΠΆΠΊΠ° дСкодирования Π½Π° ΠΊΠ°ΠΆΠ΄Ρ‹ΠΉ Ρ‚ΠΎΠΊΠ΅Π½: врСмя, ΠΊΠΎΡ‚ΠΎΡ€ΠΎΠ΅ трСбуСтся для Π³Π΅Π½Π΅Ρ€Π°Ρ†ΠΈΠΈ ΠΊΠ°ΠΆΠ΄ΠΎΠ³ΠΎ Π½ΠΎΠ²ΠΎΠ³ΠΎ Ρ‚ΠΎΠΊΠ΅Π½Π° Π² авторСгрСссивном Ρ€Π΅ΠΆΠΈΠΌΠ΅ послС этапа ΠΏΡ€Π΅Π΄Π²Π°Ρ€ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎΠ³ΠΎ заполнСния.
  • ΠŸΡ€ΠΎΠΏΡƒΡΠΊΠ½Π°Ρ ΡΠΏΠΎΡΠΎΠ±Π½ΠΎΡΡ‚ΡŒ дСкодирования: количСство сгСнСрированных Ρ‚ΠΎΠΊΠ΅Π½ΠΎΠ² Π² сСкунду Π²ΠΎ врСмя этапа дСкодирования.

Π˜ΡΠΏΠΎΠ»ΡŒΠ·ΡƒΡ optimum-benchmark ΠΈ запуская Π±Π΅Π½Ρ‡ΠΌΠ°Ρ€ΠΊΠΈ для Π²Ρ‹Π²ΠΎΠ΄Π° Π½Π° MI250 ΠΈ A100 с оптимизациями ΠΈ Π±Π΅Π· Π½ΠΈΡ…, ΠΌΡ‹ ΠΏΠΎΠ»ΡƒΡ‡Π°Π΅ΠΌ ΡΠ»Π΅Π΄ΡƒΡŽΡ‰ΠΈΠ΅ Ρ€Π΅Π·ΡƒΠ»ΡŒΡ‚Π°Ρ‚Ρ‹:

Π‘Π΅Π½Ρ‡ΠΌΠ°Ρ€ΠΊΠΈ Π²Ρ‹Π²ΠΎΠ΄Π° с использованиСм Π±ΠΈΠ±Π»ΠΈΠΎΡ‚Π΅ΠΊ Transformers ΠΈ PEFT. FA2 ΠΎΠ·Π½Π°Ρ‡Π°Π΅Ρ‚ "Flash Attention 2", TP - "Tensor Parallelism", DDP - "Distributed Data Parallel".

На Π³Ρ€Π°Ρ„ΠΈΠΊΠ°Ρ… Π²Ρ‹ΡˆΠ΅ ΠΌΡ‹ ΠΌΠΎΠΆΠ΅ΠΌ Π²ΠΈΠ΄Π΅Ρ‚ΡŒ, насколько ΠΏΡ€ΠΎΠΈΠ·Π²ΠΎΠ΄ΠΈΡ‚Π΅Π»ΡŒΠ½Π° MI250, особСнно для производствСнных Π·Π°Π΄Π°Ρ‡, Π³Π΄Π΅ запросы ΠΎΠ±Ρ€Π°Π±Π°Ρ‚Ρ‹Π²Π°ΡŽΡ‚ΡΡ ΠΏΠ°ΠΊΠ΅Ρ‚Π°ΠΌΠΈ большого Ρ€Π°Π·ΠΌΠ΅Ρ€Π°, Ρ‡Ρ‚ΠΎ позволяСт ΠΎΠ±Ρ€Π°Π±Π°Ρ‚Ρ‹Π²Π°Ρ‚ΡŒ Π±ΠΎΠ»Π΅Π΅ Ρ‡Π΅ΠΌ Π² 2,33 Ρ€Π°Π·Π° большС Ρ‚ΠΎΠΊΠ΅Π½ΠΎΠ² (пропускная ΡΠΏΠΎΡΠΎΠ±Π½ΠΎΡΡ‚ΡŒ дСкодирования) ΠΈ Π·Π°Π½ΠΈΠΌΠ°Π΅Ρ‚ Π²Π΄Π²ΠΎΠ΅ мСньшС Π²Ρ€Π΅ΠΌΠ΅Π½ΠΈ Π΄ΠΎ ΠΏΠ΅Ρ€Π²ΠΎΠ³ΠΎ Ρ‚ΠΎΠΊΠ΅Π½Π° (Π·Π°Π΄Π΅Ρ€ΠΆΠΊΠ° ΠΏΡ€Π΅Π΄Π²Π°Ρ€ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎΠΉ заполнСнности) ΠΏΠΎ ΡΡ€Π°Π²Π½Π΅Π½ΠΈΡŽ с ΠΊΠ°Ρ€Ρ‚ΠΎΠΉ A100.

Запуская Π±Π΅Π½Ρ‡ΠΌΠ°Ρ€ΠΊΠΈ обучСния, ΠΊΠ°ΠΊ ΠΏΠΎΠΊΠ°Π·Π°Π½ΠΎ Π½ΠΈΠΆΠ΅, ΠΎΠ΄Π½Π° ΠΊΠ°Ρ€Ρ‚Π° MI250 ΡƒΠΌΠ΅Ρ‰Π°Π΅Ρ‚ Π±ΠΎΠ»Π΅Π΅ ΠΊΡ€ΡƒΠΏΠ½Ρ‹Π΅ ΠΏΠ°ΠΊΠ΅Ρ‚Ρ‹ ΠΎΠ±ΡƒΡ‡Π°ΡŽΡ‰ΠΈΡ… ΠΎΠ±Ρ€Π°Π·Ρ†ΠΎΠ² ΠΈ достигаСт Π±ΠΎΠ»Π΅Π΅ высокой ΠΏΡ€ΠΎΠΈΠ·Π²ΠΎΠ΄ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ Π²ΠΎ врСмя обучСния.

Π‘Π΅Π½Ρ‡ΠΌΠ°Ρ€ΠΊ обучСния с использованиСм Π±ΠΈΠ±Π»ΠΈΠΎΡ‚Π΅ΠΊΠΈ Transformers ΠΏΡ€ΠΈ максимальном Ρ€Π°Π·ΠΌΠ΅Ρ€Π΅ ΠΏΠ°ΠΊΠ΅Ρ‚Π° (стСпСни Π΄Π²ΠΎΠΉΠΊΠΈ), ΠΊΠΎΡ‚ΠΎΡ€Ρ‹ΠΉ ΠΌΠΎΠΆΠ΅Ρ‚ ΠΏΠΎΠΌΠ΅ΡΡ‚ΠΈΡ‚ΡŒΡΡ Π½Π° ΠΎΠΏΡ€Π΅Π΄Π΅Π»Π΅Π½Π½ΠΎΠΉ ΠΊΠ°Ρ€Ρ‚Π΅

РСшСния для производства

Π•Ρ‰Π΅ ΠΎΠ΄Π½Π° ваТная Π·Π°Π΄Π°Ρ‡Π° нашСго сотрудничСства – созданиС ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΊΠΈ для производствСнных Ρ€Π΅ΡˆΠ΅Π½ΠΈΠΉ Hugging Face, начиная с Π²Ρ‹Π²ΠΎΠ΄Π° тСкста (Text Generation Inference, TGI). TGI прСдоставляСт комплСксноС Ρ€Π΅ΡˆΠ΅Π½ΠΈΠ΅ для развСртывания Π±ΠΎΠ»ΡŒΡˆΠΈΡ… языковых ΠΌΠΎΠ΄Π΅Π»Π΅ΠΉ для Π²Ρ‹Π²ΠΎΠ΄Π° Π² ΠΌΠ°ΡΡˆΡ‚Π°Π±Π΅.

Π˜Π·Π½Π°Ρ‡Π°Π»ΡŒΠ½ΠΎ TGI Π² основном Π±Ρ‹Π»Π° ΠΎΡ€ΠΈΠ΅Π½Ρ‚ΠΈΡ€ΠΎΠ²Π°Π½Π° Π½Π° графичСскиС процСссоры Nvidia, ΠΈΡΠΏΠΎΠ»ΡŒΠ·ΡƒΡ Π±ΠΎΠ»ΡŒΡˆΡƒΡŽ Ρ‡Π°ΡΡ‚ΡŒ послСдних ΠΎΠΏΡ‚ΠΈΠΌΠΈΠ·Π°Ρ†ΠΈΠΉ, Π²Ρ‹ΠΏΠΎΠ»Π½Π΅Π½Π½Ρ‹Ρ… для Π°Ρ€Ρ…ΠΈΡ‚Π΅ΠΊΡ‚ΡƒΡ€Ρ‹ Ampere, Ρ‚Π°ΠΊΠΈΡ… ΠΊΠ°ΠΊ Flash Attention v1 ΠΈ v2, Π²Π΅ΡΠΎΠ²ΡƒΡŽ ΠΊΠ²Π°Π½Ρ‚ΠΈΠ·Π°Ρ†ΠΈΡŽ GPTQ ΠΈ ΡΡ‚Ρ€Π°Π½ΠΈΡ†Π½ΡƒΡŽ Π°Ρ‚Ρ‚Π΅Π½Ρ†ΠΈΡŽ.

БСгодня ΠΌΡ‹ с Ρ€Π°Π΄ΠΎΡΡ‚ΡŒΡŽ объявляСм ΠΎ Π½Π°Ρ‡Π°Π»ΡŒΠ½ΠΎΠΉ ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΊΠ΅ Π²ΠΈΠ΄Π΅ΠΎΠΊΠ°Ρ€Ρ‚ AMD Instinct MI210 ΠΈ MI250 Π² TGI, ΠΈΡΠΏΠΎΠ»ΡŒΠ·ΡƒΡ всС ΠΎΡ‚Π»ΠΈΡ‡Π½Ρ‹Π΅ Ρ€Π°Π±ΠΎΡ‚Ρ‹ с ΠΎΡ‚ΠΊΡ€Ρ‹Ρ‚Ρ‹ΠΌ исходным ΠΊΠΎΠ΄ΠΎΠΌ, описанныС Π²Ρ‹ΡˆΠ΅, ΠΈΠ½Ρ‚Π΅Π³Ρ€ΠΈΡ€ΠΎΠ²Π°Π½Π½Ρ‹Π΅ Π² ΠΏΠΎΠ»Π½ΠΎΠ΅ комплСксноС Ρ€Π΅ΡˆΠ΅Π½ΠΈΠ΅, Π³ΠΎΡ‚ΠΎΠ²ΠΎΠ΅ ΠΊ Ρ€Π°Π·Π²Π΅Ρ€Ρ‚Ρ‹Π²Π°Π½ΠΈΡŽ.

По ΠΏΡ€ΠΎΠΈΠ·Π²ΠΎΠ΄ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ ΠΌΡ‹ ΠΏΠΎΡ‚Ρ€Π°Ρ‚ΠΈΠ»ΠΈ ΠΌΠ½ΠΎΠ³ΠΎ Π²Ρ€Π΅ΠΌΠ΅Π½ΠΈ Π½Π° ΠΏΡ€ΠΎΠ²Π΅Π΄Π΅Π½ΠΈΠ΅ Π±Π΅Π½Ρ‡ΠΌΠ°Ρ€ΠΊΠΎΠ² Π²Ρ‹Π²ΠΎΠ΄Π° тСкста Π½Π° Π²ΠΈΠ΄Π΅ΠΎΠΊΠ°Ρ€Ρ‚Π°Ρ… AMD Instinct, Ρ‡Ρ‚ΠΎΠ±Ρ‹ ΠΏΡ€ΠΎΠ²Π΅Ρ€ΠΈΡ‚ΡŒ ΠΈ Π²Ρ‹ΡΡΠ½ΠΈΡ‚ΡŒ, Π² ΠΊΠ°ΠΊΠΈΡ… областях Π½Π°ΠΌ слСдуСт Ρ„ΠΎΠΊΡƒΡΠΈΡ€ΠΎΠ²Π°Ρ‚ΡŒΡΡ Π½Π° ΠΎΠΏΡ‚ΠΈΠΌΠΈΠ·Π°Ρ†ΠΈΠΈ. Π’Π°ΠΊΠΈΠΌ ΠΎΠ±Ρ€Π°Π·ΠΎΠΌ, с ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΊΠΎΠΉ ΠΈΠ½ΠΆΠ΅Π½Π΅Ρ€ΠΎΠ² AMD GPUs, Π½Π°ΠΌ ΡƒΠ΄Π°Π»ΠΎΡΡŒ Π΄ΠΎΡΡ‚ΠΈΡ‡ΡŒ сопоставимой ΠΏΡ€ΠΎΠΈΠ·Π²ΠΎΠ΄ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ ΠΏΠΎ ΡΡ€Π°Π²Π½Π΅Π½ΠΈΡŽ с Ρ‚Π΅ΠΌ, Ρ‡Ρ‚ΠΎ ΡƒΠΆΠ΅ ΠΏΡ€Π΅Π΄Π»Π°Π³Π°Π»ΠΎΡΡŒ с ΠΏΠΎΠΌΠΎΡ‰ΡŒΡŽ TGI.

Π’ этом контСкстС ΠΈ ΠΏΡ€ΠΈ долгосрочных ΠΎΡ‚Π½ΠΎΡˆΠ΅Π½ΠΈΡΡ… ΠΌΠ΅ΠΆΠ΄Ρƒ AMD ΠΈ Hugging Face ΠΌΡ‹ ΠΈΠ½Ρ‚Π΅Π³Ρ€ΠΈΡ€ΠΎΠ²Π°Π»ΠΈ ΠΈ тСстировали инструмСнт AMD GeMM Tuner, ΠΏΠΎΠ·Π²ΠΎΠ»ΡΡŽΡ‰ΠΈΠΉ Π½Π°ΡΡ‚Ρ€Π°ΠΈΠ²Π°Ρ‚ΡŒ ядра GeMM (ΡƒΠΌΠ½ΠΎΠΆΠ΅Π½ΠΈΠ΅ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†), ΠΊΠΎΡ‚ΠΎΡ€Ρ‹Π΅ ΠΌΡ‹ ΠΈΡΠΏΠΎΠ»ΡŒΠ·ΡƒΠ΅ΠΌ Π² TGI, Ρ‡Ρ‚ΠΎΠ±Ρ‹ Π½Π°ΠΉΡ‚ΠΈ Π½Π°ΠΈΠ»ΡƒΡ‡ΡˆΡƒΡŽ ΠΊΠΎΠ½Ρ„ΠΈΠ³ΡƒΡ€Π°Ρ†ΠΈΡŽ для ΠΏΠΎΠ²Ρ‹ΡˆΠ΅Π½ΠΈΡ ΠΏΡ€ΠΎΠΈΠ·Π²ΠΎΠ΄ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ. Π˜Π½ΡΡ‚Ρ€ΡƒΠΌΠ΅Π½Ρ‚ AMD GeMM Tuner оТидаСтся Π²Ρ‹Ρ…ΠΎΠ΄Π° Π² составС PyTorch Π² ΡΠ»Π΅Π΄ΡƒΡŽΡ‰Π΅ΠΌ Ρ€Π΅Π»ΠΈΠ·Π΅ для Ρ‚ΠΎΠ³ΠΎ, Ρ‡Ρ‚ΠΎΠ±Ρ‹ ΠΊΠ°ΠΆΠ΄Ρ‹ΠΉ ΠΌΠΎΠ³ Π²ΠΎΡΠΏΠΎΠ»ΡŒΠ·ΠΎΠ²Π°Ρ‚ΡŒΡΡ ΠΈΠΌ.

Π‘ ΡƒΡ‡Ρ‘Ρ‚ΠΎΠΌ всСго Π²Ρ‹ΡˆΠ΅ΠΈΠ·Π»ΠΎΠΆΠ΅Π½Π½ΠΎΠ³ΠΎ, ΠΌΡ‹ с Π³ΠΎΡ€Π΄ΠΎΡΡ‚ΡŒΡŽ прСдставляСм ΠΏΠ΅Ρ€Π²Ρ‹Π΅ ΠΏΠΎΠΊΠ°Π·Π°Ρ‚Π΅Π»ΠΈ ΠΏΡ€ΠΎΠΈΠ·Π²ΠΎΠ΄ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ, Π΄Π΅ΠΌΠΎΠ½ΡΡ‚Ρ€ΠΈΡ€ΡƒΡŽΡ‰ΠΈΠ΅ послСдниС Ρ‚Π΅Ρ…Π½ΠΎΠ»ΠΎΠ³ΠΈΠΈ AMD, ΠΊΠΎΡ‚ΠΎΡ€Ρ‹Π΅ Π΄Π΅Π»Π°ΡŽΡ‚ Text Generation Inference Π½Π° графичСских процСссорах AMD Π»ΠΈΠ΄Π΅Ρ€ΠΎΠΌ эффСктивных Ρ€Π΅ΡˆΠ΅Π½ΠΈΠΉ для Π²Ρ‹Π²ΠΎΠ΄Π° сСмСйства ΠΌΠΎΠ΄Π΅Π»Π΅ΠΉ Llama.

Π Π΅Π·ΡƒΠ»ΡŒΡ‚Π°Ρ‚Ρ‹ Π·Π°Π΄Π΅Ρ€ΠΆΠΊΠΈ TGI для ΠΌΠΎΠ΄Π΅Π»ΠΈ Llama 34B, сравнСниС ΠΎΠ΄Π½ΠΎΠ³ΠΎ графичСского процСссора AMD Instinct MI250 ΠΏΡ€ΠΎΡ‚ΠΈΠ² A100-SXM4-80GB. Как Π±Ρ‹Π»ΠΎ объяснСно Π²Ρ‹ΡˆΠ΅, ΠΎΠ΄ΠΈΠ½ MI250 соотвСтствуСт Π΄Π²ΡƒΠΌ устройствам PyTorch.
Π Π΅Π·ΡƒΠ»ΡŒΡ‚Π°Ρ‚Ρ‹ Π·Π°Π΄Π΅Ρ€ΠΆΠΊΠΈ TGI для ΠΌΠΎΠ΄Π΅Π»ΠΈ Llama 70B, сравнСниС Π΄Π²ΡƒΡ… графичСских процСссоров AMD Instinct MI250 ΠΏΡ€ΠΎΡ‚ΠΈΠ² Π΄Π²ΡƒΡ… устройств A100-SXM4-80GB (с использованиСм ΠΏΠ°Ρ€Π°Π»Π»Π΅Π»ΠΈΠ·ΠΌΠ° Ρ‚Π΅Π½Π·ΠΎΡ€ΠΎΠ²)

ΠžΡ‚ΡΡƒΡ‚ΡΡ‚Π²ΠΈΠ΅ столбцов для A100 связано с ошибками Π½Π΅Ρ…Π²Π°Ρ‚ΠΊΠΈ памяти, Ρ‚Π°ΠΊ ΠΊΠ°ΠΊ модСль Llama 70B Π·Π°Π½ΠΈΠΌΠ°Π΅Ρ‚ 138 Π“Π‘ Π² Ρ„ΠΎΡ€ΠΌΠ°Ρ‚Π΅ float16, ΠΈ для ΠΏΡ€ΠΎΠΌΠ΅ΠΆΡƒΡ‚ΠΎΡ‡Π½Ρ‹Ρ… Π°ΠΊΡ‚ΠΈΠ²Π°Ρ†ΠΈΠΉ, KV кэш-Π±ΡƒΡ„Π΅Ρ€Π° (Π±ΠΎΠ»Π΅Π΅ 5 Π“Π‘ для Π΄Π»ΠΈΠ½Ρ‹ ΠΏΠΎΡΠ»Π΅Π΄ΠΎΠ²Π°Ρ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ 2048, Ρ€Π°Π·ΠΌΠ΅Ρ€Π° ΠΏΠ°ΠΊΠ΅Ρ‚Π° 8), контСкста CUDA ΠΈ Π΄Ρ€ΡƒΠ³ΠΈΡ… ΠΎΠΏΠ΅Ρ€Π°Ρ†ΠΈΠΉ трСбуСтся достаточно свободной памяти. ГрафичСский процСссор Instinct MI250 ΠΈΠΌΠ΅Π΅Ρ‚ 128 Π“Π‘ глобальной памяти, Π² Ρ‚ΠΎ врСмя ΠΊΠ°ΠΊ устройство A100 – 80 Π“Π‘, Ρ‡Ρ‚ΠΎ ΠΎΠ±ΡŠΡΡΠ½ΡΠ΅Ρ‚ Π²ΠΎΠ·ΠΌΠΎΠΆΠ½ΠΎΡΡ‚ΡŒ выполнСния Π±ΠΎΠ»Π΅Π΅ ΠΊΡ€ΡƒΠΏΠ½Ρ‹Ρ… Π½Π°Π³Ρ€ΡƒΠ·ΠΎΠΊ (Π΄Π»ΠΈΠ½Π½Ρ‹Π΅ ΠΏΠΎΡΠ»Π΅Π΄ΠΎΠ²Π°Ρ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ, большиС ΠΏΠ°ΠΊΠ΅Ρ‚Ρ‹) Π½Π° MI250.

Text Generation Inference Π³ΠΎΡ‚ΠΎΠ² для развёртывания Π½Π° графичСских процСссорах AMD Instinct Π² производствСнной срСдС с использованиСм ΠΎΠ±Ρ€Π°Π·Π° Docker ghcr.io/huggingface/text-generation-inference:1.2-rocm. ΠžΠ±ΡΠ·Π°Ρ‚Π΅Π»ΡŒΠ½ΠΎ ΠΎΠ·Π½Π°ΠΊΠΎΠΌΡŒΡ‚Π΅ΡΡŒ с Π΄ΠΎΠΊΡƒΠΌΠ΅Π½Ρ‚Π°Ρ†ΠΈΠ΅ΠΉ ΠΎ ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΊΠ΅ ΠΈ Π΅Ρ‘ ограничСниях.

Π§Ρ‚ΠΎ дальшС?

ΠœΡ‹ надССмся, Ρ‡Ρ‚ΠΎ этот Π±Π»ΠΎΠ³-пост Ρ‚Π°ΠΊΠΆΠ΅ вас Π²ΠΎΠΎΠ΄ΡƒΡˆΠ΅Π²ΠΈΠ», ΠΊΠ°ΠΊ ΠΈ нас Π² Hugging Face, Π² связи с этим партнёрством с AMD. ΠšΠΎΠ½Π΅Ρ‡Π½ΠΎ, это Ρ‚ΠΎΠ»ΡŒΠΊΠΎ Π½Π°Ρ‡Π°Π»ΠΎ нашСго ΠΏΡƒΡ‚ΠΈ, ΠΈ ΠΌΡ‹ с Π½Π΅Ρ‚Π΅Ρ€ΠΏΠ΅Π½ΠΈΠ΅ΠΌ ΠΆΠ΄Ρ‘ΠΌ возмоТности Ρ€Π΅Π°Π»ΠΈΠ·ΠΎΠ²Π°Ρ‚ΡŒ Π΅Ρ‰Ρ‘ большС ΠΏΡ€ΠΈΠΌΠ΅Π½Π΅Π½ΠΈΠΉ Π½Π° Ρ€Π°Π·Π»ΠΈΡ‡Π½Ρ‹Ρ… графичСских процСссорах AMD.

Π’ блиТайшиС мСсяцы ΠΌΡ‹ Π±ΡƒΠ΄Π΅ΠΌ Ρ€Π°Π±ΠΎΡ‚Π°Ρ‚ΡŒ Π½Π°Π΄ Ρ€Π°ΡΡˆΠΈΡ€Π΅Π½ΠΈΠ΅ΠΌ ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΊΠΈ ΠΈ ΠΏΡ€ΠΎΠ²Π΅Ρ€ΠΊΠΎΠΉ Π½Π° графичСских процСссорах AMD Radeon, ΠΊΠΎΡ‚ΠΎΡ€Ρ‹Π΅ ΠΌΠΎΠΆΠ½ΠΎ ΠΈΡΠΏΠΎΠ»ΡŒΠ·ΠΎΠ²Π°Ρ‚ΡŒ Π² своих ΠΏΠ΅Ρ€ΡΠΎΠ½Π°Π»ΡŒΠ½Ρ‹Ρ… ΠΊΠΎΠΌΠΏΡŒΡŽΡ‚Π΅Ρ€Π°Ρ… для локального использования, Ρ‚Π΅ΠΌ самым пониТая Π±Π°Ρ€ΡŒΠ΅Ρ€ ΠΊ доступности ΠΈ открывая Π²ΠΎΠ·ΠΌΠΎΠΆΠ½ΠΎΡΡ‚ΡŒ для Π΅Ρ‰Ρ‘ большСй гибкости для Π½Π°ΡˆΠΈΡ… ΠΏΠΎΠ»ΡŒΠ·ΠΎΠ²Π°Ρ‚Π΅Π»Π΅ΠΉ.

ΠšΠΎΠ½Π΅Ρ‡Π½ΠΎ, ΠΌΡ‹ Ρ‚Π°ΠΊΠΆΠ΅ Π±ΡƒΠ΄Π΅ΠΌ Ρ€Π°Π±ΠΎΡ‚Π°Ρ‚ΡŒ Π½Π°Π΄ ΠΎΠΏΡ‚ΠΈΠΌΠΈΠ·Π°Ρ†ΠΈΠ΅ΠΉ ΠΏΡ€ΠΎΠΈΠ·Π²ΠΎΠ΄ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ для Π»ΠΈΠ½Π΅ΠΉΠΊΠΈ MI300, Ρ‡Ρ‚ΠΎΠ±Ρ‹ ΠΎΠ±Π΅ΡΠΏΠ΅Ρ‡ΠΈΡ‚ΡŒ, Ρ‡Ρ‚ΠΎ ΠΈ открытая вСрсия, ΠΈ Ρ€Π΅ΡˆΠ΅Π½ΠΈΡ ΠΏΡ€Π΅Π΄ΠΎΡΡ‚Π°Π²Π»ΡΡŽΡ‚ самыС послСдниС ΠΈΠ½Π½ΠΎΠ²Π°Ρ†ΠΈΠΈ Π½Π° Π²Ρ‹ΡΠΎΡ‡Π°ΠΉΡˆΠ΅ΠΌ ΡƒΡ€ΠΎΠ²Π½Π΅ ΡΡ‚Π°Π±ΠΈΠ»ΡŒΠ½ΠΎΡΡ‚ΠΈ, ΠΊΠΎΡ‚ΠΎΡ€ΠΎΠ³ΠΎ ΠΌΡ‹ всСгда добиваСмся Π² Hugging Face.

Π’Π°ΠΊΠΆΠ΅ ΠΌΡ‹ Π°ΠΊΡ‚ΠΈΠ²Π½ΠΎ Π±ΡƒΠ΄Π΅ΠΌ Π·Π°Π½ΠΈΠΌΠ°Ρ‚ΡŒΡΡ Ρ€Π°Π·Π²ΠΈΡ‚ΠΈΠ΅ΠΌ Ρ‚Π΅Ρ…Π½ΠΎΠ»ΠΎΠ³ΠΈΠΈ AMD Ryzen AI, которая Π·Π°Π½ΠΈΠΌΠ°Π΅Ρ‚ своё мСсто Π² послСднСм ΠΏΠΎΠΊΠΎΠ»Π΅Π½ΠΈΠΈ процСссоров для Π½ΠΎΡƒΡ‚Π±ΡƒΠΊΠΎΠ² AMD, ΠΏΠΎΠ·Π²ΠΎΠ»ΡΡŽΡ‰Π΅ΠΉ Π²Ρ‹ΠΏΠΎΠ»Π½ΡΡ‚ΡŒ искусствСнный ΠΈΠ½Ρ‚Π΅Π»Π»Π΅ΠΊΡ‚ нСпосрСдствСнно Π½Π° устройствС. Π’ условиях, ΠΊΠΎΠ³Π΄Π° ΠΏΠΎΠΌΠΎΡ‰Π½ΠΈΠΊΠΈ ΠΏΡ€ΠΈ написании ΠΊΠΎΠ΄Π°, инструмСнты Π³Π΅Π½Π΅Ρ€Π°Ρ†ΠΈΠΈ ΠΈΠ·ΠΎΠ±Ρ€Π°ΠΆΠ΅Π½ΠΈΠΉ ΠΈ Π»ΠΈΡ‡Π½Ρ‹Π΅ ΠΏΠΎΠΌΠΎΡ‰Π½ΠΈΠΊΠΈ становятся всё Π±ΠΎΠ»Π΅Π΅ ΡˆΠΈΡ€ΠΎΠΊΠΎ доступными, Π²Π°ΠΆΠ½ΠΎ ΠΏΡ€Π΅Π΄Π»Π°Π³Π°Ρ‚ΡŒ Ρ€Π΅ΡˆΠ΅Π½ΠΈΡ, ΠΊΠΎΡ‚ΠΎΡ€Ρ‹Π΅ ΡΠΎΠΎΡ‚Π²Π΅Ρ‚ΡΡ‚Π²ΡƒΡŽΡ‚ потрСбностям Π² сохранСнии ΠΊΠΎΠ½Ρ„ΠΈΠ΄Π΅Π½Ρ†ΠΈΠ°Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ, Ρ‡Ρ‚ΠΎΠ±Ρ‹ ΠΏΠΎΠ»ΡƒΡ‡ΠΈΡ‚ΡŒ ΠΌΠ°ΠΊΡΠΈΠΌΠ°Π»ΡŒΠ½ΡƒΡŽ Π²Ρ‹Π³ΠΎΠ΄Ρƒ ΠΎΡ‚ этих ΠΌΠΎΡ‰Π½Ρ‹Ρ… инструмСнтов. Π’ этом контСкстС, ΡƒΠΆΠ΅ сСйчас Π½Π° Hugging Face Hub доступны ΠΌΠΎΠ΄Π΅Π»ΠΈ, совмСстимыС с Ryzen AI, ΠΈ ΠΌΡ‹ Π°ΠΊΡ‚ΠΈΠ²Π½ΠΎ Ρ€Π°Π±ΠΎΡ‚Π°Π΅ΠΌ с AMD, Ρ‡Ρ‚ΠΎΠ±Ρ‹ ΠΏΡ€Π΅Π΄ΠΎΡΡ‚Π°Π²ΠΈΡ‚ΡŒ Π΅Ρ‰Ρ‘ большС Ρ‚Π°ΠΊΠΈΡ… ΠΌΠΎΠ΄Π΅Π»Π΅ΠΉ Π² блиТайшиС мСсяцы.