Путь искусственного интеллекта к генеративному искусственному интеллекту и как это работает

Путь искусственного интеллекта к генеративному искусственному интеллекту - The path of artificial intelligence to generative artificial intelligence

В последние несколько лет передовые технологии и услуги резко изменили свои направления, динамику и сферы применения. Довольно очевидно, что последняя волна глобального принятия технологий промышленностью переполнена искусственным интеллектом (ИИ) и его различными вариантами. Искусственный интеллект все больше проникает в ткань нашей повседневной жизни, меняя способ, которым мы живем и работаем. В этой статье рассматриваются основы ИИ/МО, его использование, эволюция генеративного ИИ, инжиниринг Prompt и LangChain.

Что такое ИИ и МО?

ИИ – это способность имитировать человеческое интеллектуальное мышление и процессы, такие как обучение и решение проблем. Он может выполнять сложные задачи, которые исторически могли выполнять только люди. Через ИИ неживая система использует математические и логические подходы для имитации рассуждений, которые люди используют для освоения новой информации и принятия решений.

Искусственный интеллект имеет широкий спектр возможностей, которые открывают возможности для различных важных приложений в реальном мире. Некоторые из наиболее распространенных возможностей ИИ, используемых сегодня, включают распознавание образов, прогнозное моделирование, автоматизацию, распознавание изображений и персонализацию. В некоторых случаях передовой ИИ может даже управлять автомобилями или играть в сложные игры, такие как шахматы или Го.

Машинное обучение – это подмножество ИИ, которое использует алгоритмы, обученные на данных, для создания моделей для выполнения таких сложных задач. Сегодня большинство ИИ выполняется с использованием машинного обучения, поэтому термины ИИ и МО часто используются синонимично. Есть тонкая разница: ИИ относится к общей концепции создания человекоподобного познания с использованием компьютерного программного обеспечения и систем, в то время как МО относится только к одному методу его достижения. МО позволяет компьютерной системе продолжать самостоятельно учиться и совершенствоваться на основе опыта.

Преимущества

ИИ и МО приносят широкий спектр преимуществ как бизнесам, так и потребителям. В то время как предприятия могут ожидать снижения затрат и повышения операционной эффективности, потребители могут рассчитывать на более персонализированные услуги и рекомендации. Некоторые из основных преимуществ:

  • Обработка больших и разнообразных данных и их анализ с помощью математических моделей и прогнозирование практических выводов – что приводит к снижению операционных и сопровождающих затрат.
  • Улучшение MTTR (среднее время восстановления) и улучшение/превышение целей RTO.
  • Улучшение удовлетворенности клиентов и создание персонализированных клиентских услуг, отвечающих индивидуальным потребностям клиента.

Что такое генеративный ИИ?

Генеративный ИИ (популярно известный как GenAI) использует набор алгоритмов, чтобы позволить пользователям быстро создавать новый контент на основе различных входных данных. Создаваемый контент включает, но не ограничивается текстом, изображениями, звуковыми дорожками и видео. Алгоритмы основаны на обширной модели большого языка, обученной на огромных, неаннотированных данных. Одним из прорывов с генеративными моделями ИИ является возможность использования различных подходов к обучению, включая неконтролируемое или полу-неконтролируемое обучение.

Разница между традиционным ИИ

Основное отличие между традиционным ИИ и генеративным ИИ заключается в их возможностях и применениях. Традиционный ИИ отлично справляется с распознаванием образов, тогда как генеративный ИИ отлично справляется с созданием образов. Традиционный ИИ может анализировать данные и рассказывать вам, что он видит, а генеративный ИИ может использовать те же данные, чтобы создать что-то совершенно новое. Как GenAI, так и искусственный интеллект используют алгоритмы машинного обучения для получения результатов. Однако у них разные цели и назначение.

FM и LLM

Фундаментальная модель (FM)

Фундаментальные модели служат основой для более конкретных приложений. Они представляют собой ИИ-модели, разработанные для создания широкого и общего разнообразия результатов. Они способны выполнять ряд возможных задач и применений, таких как генерация текста, изображений или звука. Другими словами, исходная модель предоставляет базу (отсюда “фундаментальная”), на которой могут быть построены другие вещи. Типичные примеры фундаментальных моделей включают множество тех же систем, перечисленных в качестве LLM.

Большая языковая модель

Большая языковая модель (LLM) – это модель машинного обучения, которая использует алгоритмы глубокого обучения с техниками нейронных сетей для обработки и понимания естественного языка. Эти модели обучаются на огромных объемах текстовых данных для изучения закономерностей и взаимосвязей сущностей в языке. Они предварительно обучены на миллиардах данных с использованием самообучения и полу-самообучения. Эти модели могут улавливать сложные взаимосвязи сущностей в рассматриваемом тексте и могут генерировать текст, используя семантику и синтаксис этого конкретного языка. Популярное использование LLM: генерация текста, машинный перевод, написание резюме, генерация изображений из текстов, машинное кодирование, чат-боты или разговорный ИИ.

Большие языковые модели (LLM) относятся к категории фундаментальных моделей. В то время как языковые модели принимают ввод на языке и генерируют синтезированный вывод, фундаментальные модели работают с несколькими типами данных. Они являются мультимодальными, что означает, что они работают в не только в режиме языка.

Многократно термин “фундаментальная модель (FM)” часто используется как синоним “большой языковой модели (LLM)”, потому что языковые модели в настоящее время являются самым ясным примером систем с широкими возможностями, которые могут быть адаптированы для конкретных целей. Существенное различие между терминами заключается в том, что “большие языковые модели” специально относятся к системам, сфокусированным на языке, в то время как “фундаментальная модель” пытается занимать более широкое функциональное понятие, которое может быть расширено для вмещения новых типов систем в будущем.

Как работает GenAI

Генеративное ИИ работает на основе Больших языковых моделей (LLM) и Фундаментальных моделей (FM), состоящих из моделей машинного обучения, которые предварительно обучены на огромных объемах данных.

Примечание: В этой статье рассматривается LLM и его связь с генеративным ИИ.

Термин “большой” относится к количеству значений (параметров), которые модель может изменять автономно в процессе обучения. Некоторые успешные LLM имеют триллионы параметров.

LLM использует самообучение и/или обучение без учителя для предсказания следующего токена в предложении на основе окружающего контекста. Модели LLM обычно следуют трансформерной архитектуре, которая использует механизмы самовнимания для расчета взвешенной суммы для входной последовательности и динамического определения, какие токены в последовательности наиболее важны друг для друга. Это помогает определить отношения между словами в предложении независимо от их позиции в текстовой последовательности/предложении.

LLM используются для задач с небольшим количеством данных и задач без данных. Как задачи с небольшим количеством данных (очень ограниченное количество размеченных данных), так и задачи без данных (отсутствие размеченных данных) требуют от ИИ-модели хорошего индуктивного смещения и способности извлекать полезные представления из ограниченных (или отсутствующих) данных.

Ценообразование для LLM

Использование генеративного ИИ и поддерживающих моделей оплачивается в зависимости от объема входных и выходных данных. Разные поставщики LLM ценообразуют свои модели и объемы по-разному, некоторые по токенам, а другие по символам, но концепции остаются связанными друг с другом. Токен – это единица измерения, представляющая примерно четыре символа. Символ – это отдельная буква, цифра или символ. Например, слово “футболист” состоит из восьми символов и может быть немного больше двух токенов. В общем, ценообразование основано на стоимости 1 тысячи токенов или символов.

Основные компоненты в LLM

  • Входные данные: Большой объем неструктурированных данных
  • Токенизация: Токенизация разбивает текстовый документ на более мелкие единицы, называемые токенами – токенизатор отображает тексты в списки целых чисел. Цель состоит в том, чтобы преобразовать неструктурированный текстовый документ в числовые данные, подходящие для прогностической и/или прескриптивной аналитики. Токенизатор обычно выводит только целые числа в диапазоне {0,1,2,..V}, где V называется размером его словаря. Еще одной функцией токенизаторов является сжатие текста, что позволяет сэкономить время вычислений.
  • Эмбеддинг: Эмбеддинги – это векторы или массивы чисел, представляющие смысл и контекст токенов, которые модель обрабатывает и генерирует. Эмбеддинги затем используются в качестве входных данных для моделей NLP, позволяя моделям понимать значение слов в тексте.
  • Трансформер: Он позволяет LLM понимать и распознавать отношения и связи между словами и понятиями с помощью механизма самовнимания. Этот механизм может назначить оценку, которая обычно называется весом, заданному элементу (называемому токеном), чтобы определить отношение. Трансформер состоит из двух частей – кодировщика и декодера. Эти две части могут использоваться независимо или вместе – только кодировщик, только декодер, кодировщик-декодер. Трансформер использует самовнимание на стороне кодировщика и внимание на стороне декодера.

Генеративный ИИ в отраслях

Реализация генеративного ИИ в каждом из применений в отраслях требует комбинации различных LLM/FM и базовых моделей. Ниже приведены несколько примеров использования:

  • Медиа и развлечения: Приносить больше креативности в различные сферы, начиная от видеоигр до фильмов, анимации, создания миров и виртуальной реальности.
  • Автомобильная промышленность: Создание 3D-моделей для симуляций и проектирования автомобилей на основе текстовых описаний, предоставленных дизайнером. Кроме того, генеративный ИИ может создавать синтетические данные для обучения автономных транспортных средств.
  • Здравоохранение: Генеративные модели могут помочь в медицинских исследованиях, разрабатывая новые последовательности белков для поиска лекарств. Медики также могут воспользоваться автоматизацией задач, таких как набор текста, медицинский кодинг, медицинская визуализация и геномный анализ.
  • Генерация изображений: Преобразование текста в изображения и генерация реалистичных изображений на основе заданных настроек, объектов, стилей или местоположений.
  • Семантический перевод изображения в фотографию: На основе семантического изображения или наброска можно создать реалистичную версию изображения.
  • Генерация музыки: Генеративный ИИ также полезен в музыкальном производстве. Инструменты для генерации музыки могут использоваться для создания новых музыкальных материалов для рекламы или других творческих целей.
  • Создание персонализированного контента: Генерация персонализированного контента (текста, изображений, музыки и т. д.) на основе личных предпочтений, интересов или воспоминаний.
  • Анализ настроения/классификация текста: Анализ настроения, также называемый майнингом мнений, использует обработку естествен

    Ниже показаны некоторые из самых популярных LLM:

     

    Техника создания подсказок

    Техника создания подсказок заключается в разработке подсказок (например, вопросов), которые могут направлять LLM для более точного выполнения специализированных задач. Это включает инструкции и контекст, передаваемые модели языка, чтобы достичь желаемого результата. Это техника AI-инжиниринга для улучшения LLM с помощью конкретных подсказок и рекомендуемых выводов, а также процесс уточнения ввода для различных генеративных AI-сервисов для создания текста или изображений

    Подсказки могут быть двух типов:

    • Жесткая подсказка: жестко задана, создана вручную людьми
    • Мягкая подсказка: создана с помощью AI

    Мягкие подсказки лучше всего подходят для задавания сложных вопросов. Сами подсказки могут быть сгенерированы с использованием моделей AI. Техника создания подсказок стала полезным навыком для AI-инженеров, чтобы использовать модели языка с эффективностью. 

    Техника создания подсказок и способ работы

    Этот навык создания подсказок (соответствующих вопросов) все более популярен среди бизнес-пользователей и экспертов по операциям для создания FAQ/Устранения неполадок различных продуктов и приложений. С другой стороны, GenAI и LLM используются совместно для получения точных ответов на эти подсказки. Существуют два основных способа сделать это.

    Во-первых, отправьте вопросы-подсказки на конкретную модель LLM, запустите модель и получите ответы. LLM будет использовать модель и работать с доступными данными (собранными из Интернета), чтобы дать лучшие ответы. Однако это может привести к галлюцинациям или предвзятости, так как LLM может не быть обучен на соответствующих данных/вводе/контексте вопросов. 

    Во-вторых, контекстуализируйте модель LLM с помощью тонкой настройки. Слово “контекст” здесь означает, что LLM должна иметь ссылку на конкретную информацию о продукте/домене, с которым работает пользователь. Полная настройка всей модели LLM – это сложный и дорогостоящий процесс. Другой способ – вводить конкретные контексты в LLM внешне (встраивание) и затем использовать определенную модель для построения выводов на основе этих встроенных данных. 

    Общий рабочий процесс техники создания подсказок с встраиванием представлен ниже:

    Пример техники создания подсказок с использованием LangChain

    LangChain – это открытая платформа для создания надежных приложений на основе LLM. Она предоставляет набор библиотек, которые помогают пользователям программировать и интегрироваться с моделями LLM через API. Она предоставляет различные классы для шаблонов подсказок и конфигураций среды. LangChain сам по себе не предоставляет моделей, но он позволяет пользователям интегрировать модели от других поставщиков LLM. LangChain работает, предоставляя разработчикам доступ к семи компонентам, которые расширяют возможности LLM, а именно схема, модели, подсказки, индексы, память, цепочки и агенты.

    Ниже приведен фрагмент кода LangChain и подсказок.

    IBM и GenAI Space

    С развитием генеративного искусственного интеллекта и его возможностей, лидеры IT-индустрии стремятся быть впереди, предлагая своим корпоративным клиентам решения, основанные на искусственном интеллекте и генеративном искусственном интеллекте. Исходя из исследований рынка и опросов, было отмечено, что одной из наиболее предпочтительных областей (для применения GenAI) клиентами является управление IT-услугами (ITSM) – направленное на прогнозирование критических проблем/проблем, предотвращение инцидентов, оптимизацию/сокращение операционных расходов и повышение MTTR и производительности.

    Генеративный искусственный интеллект может улучшить возможности IT-операций и управления услугами (ITSM), особенно в контексте управления инцидентами, проблемами, изменениями и конфигурациями. Успешное применение генеративного искусственного интеллекта в ITSM будет зависеть от глубокого понимания делового контекста, управляемых IT-услуг, процессов ITSM и взаимодействия между ними. Это понимание должно быть отражено в проектировании и реализации системы искусственного интеллекта. Помимо выбора правильной платформы и моделей AI, успех генеративного искусственного интеллекта в IT-операциях также зависит от наличия чистых данных высокого качества и навыков управления, обучения/настройки и поддержания моделей AI.

    IBM разработала несколько активов в области управления операциями на основе AI с использованием Watsonx, а также настраиваемых моделей. Эти активы, вместе с IBM Control Tower (комбинация сборщиков данных для инструментов ITSM, инструментов мониторинга производительности, DevSecOps и ALM, настраиваемых моделей AI/ML Watsonx и визуализации), развертываются у множества клиентов. Ниже приведены некоторые примеры использования:

    • Управление инцидентами: Генеративное искусственное интеллект используется для автоматического определения приоритета и маршрутизации инцидентов на основе их описаний и других атрибутов. Он также может предложить потенциальные решения, сопоставляя их с историческими случаями.
    • Категоризация и приоритизация инцидентов: Анализируя характер инцидентов и исторические данные, происходит точная категоризация и приоритизация инцидентов. Это помогает в более быстром урегулировании критических инцидентов и более эффективном распределении ресурсов, что улучшает время восстановления после инцидента (MTTR).
    • Предиктивное управление инцидентами: Анализируя исторические данные и текущее состояние системы, генеративный искусственный интеллект может предсказывать возможные инциденты и предлагать предотвратительные меры. Это помогает сократить время простоя системы и улучшить доступность услуг.
    • Управление проблемами: Анализируя несколько образцов инцидентов, можно выявить скрытые проблемы. Он может создавать предположения о проблемах и моделировать ряд сценариев на основе исторических данных о проблемах, чтобы помочь командам ITSM в анализе причин и решении проблем. Это можно широко использовать в ChatOps / виртуальной комнате для операций IT – где эксперты / SRE / команды поддержки автоматически привлекаются и получают предиктивный анализ и решения.