Использование генеративного искусственного интеллекта и моделей машинного обучения для оптимизации темы электронной почты и мобильных уведомлений.

Применение ГИИ и моделей МО для оптимизации темы электронной почты и уведомлений.

Заголовки и названия электронных писем и push-уведомлений играют важную роль в определении показателей вовлеченности. Цифровое общение требует навыка создания убедительных заголовков и кратких названий push-уведомлений, которые привлекут внимание пользователей. Маркетологи создают заголовки на основе тона сообщения и целевой аудитории. Эффективное “обучение” этому навыку и его оптимизация для цифрового общения открывают увлекательную возможность автоматизации этого процесса с помощью генеративных моделей искусственного интеллекта. В статье рассматриваются некоторые подходы к созданию эффективных заголовков и push-уведомлений, а также их комбинирование с классическими моделями машинного обучения для прогнозирования показателей открытия с помощью генеративных моделей искусственного интеллекта (моделей с большим языковым объемом).

Методология

Здесь не только создание привлекательных заголовков, которые современные модели с большим языковым объемом (LLM) могут легко генерировать с правильным подсказыванием. Цель состоит в том, чтобы сгенерировать идеального кандидата для контекста и содержания, который заинтересует получателя и заставит его нажать и просмотреть сообщение. Модели машинного обучения, а именно алгоритмы случайного леса, могут с высокой уверенностью прогнозировать вероятность получателя нажать на сообщение, если они обучены соответствующим образом. Комбинирование LLM с прогностическими моделями машинного обучения позволяет генерировать заголовки и названия push-уведомлений высокого качества. Ниже приведены несколько возможных путей.

Подход 1: Обучите прогностическую модель машинного обучения путем извлечения ключевых характеристик заголовков, таких как длина, сложность языка, настроение и соответствующие показатели открытия (метки) из обучающих данных. Генерируйте несколько кандидатов для заголовков с помощью LLM. Модель машинного обучения может прогнозировать показатель открытия для каждого кандидата, извлекая ключевые характеристики и передавая их в качестве входных данных. Выберите заголовок с наивысшим прогнозируемым показателем открытия.

Подход 2: Аналогично предыдущему подходу модель обучается на необработанных сообщениях из набора данных и соответствующих метках показателей открытия вместо предварительной обработки набора данных для извлечения ключевых характеристик. Используйте эту обученную модель для генерации прогнозируемых показателей открытия для заголовка, сгенерированного LLM. Выберите заголовок с наивысшим прогнозируемым показателем открытия.

Подход 3: Этот подход расширяет Подход 1. Помимо обучения на ключевых характеристиках, LLM также настраивается для генерации заголовков на основе содержания электронной почты, показателей открытия, тона (например, срочность, позитивность и т. д.) и персоны целевой аудитории (например, демографические данные). Настроенный LLM генерирует несколько кандидатов для заголовков, и прогностическая модель машинного обучения, обученная на основе ключевых характеристик заголовков, выбирает наиболее эффективный из кандидатов.

Основная идея состоит в том, чтобы использовать лингвистические возможности LLM и прогностическую силу традиционной модели машинного обучения, объединив их вместе. LLM генерирует кандидатов, которые затем оцениваются моделью машинного обучения.

Давайте более подробно рассмотрим Подход 3.

Фаза обучения

Сбор данных для обучения модели

Первый шаг – собрать образцы электронных писем и мобильных push-уведомлений. Вместе с содержанием сообщения, заголовком, каналом и показателем открытия, обучающие данные также должны включать тональность и метки аудитории. В наборе данных пометьте каждую запись следующим образом: содержание, заголовок, заголовок push-уведомления на мобильное устройство, тип канала, показатель открытия/нажатия, тональность и сегмент аудитории. В мессенджинге «тип канала» относится к VoAGI, через который доставляется сообщение или контент. Оптимальная длина и стиль заголовка различаются между каналами, такими как электронная почта и мобильные push-уведомления.

#Пример обучающих данных

Содержание: Анонс нового продукта!
Заголовок: Представляем наш новый продукт XYZ!
Тональность: Волнующее
Аудитория: Техноэнтузиасты
Канал: Электронная почта
Показатель открытия: 0.25

Содержание: Скидки на Черную пятницу уже здесь!
Заголовок: Скидки на Черную пятницу!
Тональность: Срочное
Аудитория: Охотники за скидками
Канал: Мобильный
Показатель нажатия: 0.15

Убедитесь, что предоставлено достаточно обучающих данных с метками показателя открытия/нажатия.

Настройка большой языковой модели (LLM)

Настройте модель LLM на основе собранных образцов. Это позволяет ей генерировать заголовки или названия на основе канала. Важно также указать тональность и сегмент аудитории, помимо канала. Благодаря этому генерация текста зависит не только от канала, но и от тона сообщения и предназначенных получателей сообщения. Например, для настройки модели создайте файл JSON для набора данных, если используется GPT от OpenAI. Затем этот файл можно использовать для настройки модели OpenAI с помощью команды fine_tunes.create инструмента командной строки OpenAI CLI.

JSON
{"prompt": "Содержание: Анонс нового продукта! Тональность: Волнующее Аудитория: Техноэнтузиасты Канал: Электронная почта", "rate": "Показатель открытия: 0.25", "completion": "Заголовок: Представляем наш новый продукт XYZ!"}
{"prompt": "Содержание: Скидки на Черную пятницу уже здесь! Тональность: Срочное Аудитория: Охотники за скидками Канал: Мобильный", "rate": "Показатель нажатия: 0.15", "completion": "Заголовок: Скидки на Черную пятницу!"}

Обучение модели машинного обучения для предсказания

После настройки модели LLM необходимо обучить модель машинного обучения для оценки и выбора наиболее эффективных заголовков тем. Это можно сделать с использованием различных моделей предсказания. Алгоритм Случайного Леса может быть использован для предсказания, какие заголовки тем будут иметь наибольшую открытую ставку. Заголовки тем из обучающего набора данных должны быть извлечены для ключевых функций. Векторы из этих ключевых функций могут быть использованы для обучения модели Случайного Леса.

Извлечение векторов ключевых функций

Для извлечения ключевых функций можно использовать несколько библиотек с открытым исходным кодом. Для извлечения настроения можно использовать встроенный метод TextBlob и VADER (Valence Aware Dictionary and Sentiment Reasoner). TextStat можно использовать для определения уровня чтения, уровня класса Flesch-Kincaid и других показателей читаемости. RAKE (Rapid Automatic Keyword Extraction) может извлекать ключевые слова.

from textblob import TextBlob
import rake
import nltk

def get_features_of_subject_line(text):

  # Длина заголовка темы
  length = len(text)

  # Настроение
  sentiment = TextBlob(text).sentiment.polarity

  # Совпадение ключевых слов
  keywords_to_match = ["продажа", "новый", "горячий", "бесплатно"]
  matches = 0
  rake_extractor = rake.Rake()
  keywords = rake_extractor.extract_keywords_from_text(text)
  for kw in keywords:
    if kw in keywords_to_match:
      matches += 1

  # Читаемость
  readability = nltk.textstat.flesch_reading_ease(text)
  return [length, sentiment, matches, readability]

Для электронной почты извлекаются функции, такие как длина, настроение, совпадение ключевых слов и читаемость. В мобильных функциях включены длина символов, тональность, эмодзи и сегментация. Главное отличие заключается в извлечении функций, специфичных для канала, чтобы учесть стилистические различия между электронной почтой и мобильными устройствами. Модель учится правильно оценивать функции для каждого канала. Это позволяет оптимизировать генерацию и выбор заголовков тем для каждого канала с учетом ограничений канала и ожиданий аудитории.

Диаграмма потока, иллюстрирующая этапы обучения (Авторская картинка)

Этап предсказания

Генерация кандидатов для заголовка темы

Для генерации кандидатов для заголовка темы нового сообщения введите содержимое сообщения, канал, желаемую тональность и целевой сегмент аудитории в настроенную модель LLM. Укажите количество желаемых кандидатов в запросе. Модель сгенерирует запрошенное количество кандидатов, используя язык, соответствующий каналу, в указанной тональности и настроенные на целевую аудиторию.

Использование обученной модели предсказания для выбора лучшего кандидата

Ранее обученную модель предсказания теперь можно использовать для выбора наиболее оптимального заголовка темы из кандидатов, сгенерированных LLM. Для каждого кандидата извлекаются ключевые функции и вводятся в модель для генерации предсказаний. Заголовок темы с наивысшим предсказанным баллом выбирается в качестве лучшего варианта, имеющего наибольшую вероятность привлечения целевой аудитории для нажатия и открытия сообщения.

Диаграмма потока, иллюстрирующая этапы предсказания (Авторская картинка)

Шаги к продуктовому внедрению

Если серьезно рассматривается коммерциализация этого подхода в продукт, необходимо исследовать несколько областей для улучшения пользовательского опыта. Предоставление подробных сведений о том, что может улучшить или ухудшить эффективность заголовков тем и названий уведомлений было бы особенно полезно для маркетологов при редактировании/настройке заголовков тем и сгенерированных подходом названий.

Длина текста: Рекомендации по сокращению текста, который превышает оптимальную длину для каждой аудитории.

Влияние ключевых слов: Выделение ключевых слов, влияющих на показатели вовлеченности, и предложение об удалении негативных ключевых слов и добавлении положительных ключевых слов.

Использование ключевых слов и частота: Предоставление информации о том, как избежать утомления аудитории путем использования ключевых слов с правильной частотой.

Примеры успешных случаев: На основе прошлых успехов предоставлять похожие тексты, которые были особенно привлекательны в прошлом.

Сравнение с отраслевыми стандартами: Предсказанные показатели вовлеченности могут быть сравнены с отраслевыми стандартами, и при обнаружении низкой производительности могут быть предложены модификации.

Тестирование: A/B-тестирование лучших кандидатов и итерация на основе результатов.

Цикл обучения: Непрерывное обучение модели на новых данных для улучшения предсказаний.

Персонализация: Персонализация заголовков тем для отдельных подписчиков на основе их вовлеченности в прошлые сообщения.

Человек в процессе: балансирование ИИ и человеческого вмешательства

Поскольку ИИ интегрируется в маркетинговые стратегии, важно иметь участие человека. Маркетологам должно быть позволено просматривать и редактировать заголовки или названия уведомлений, созданные моделями перед их развертыванием. Помимо обеспечения качества и соответствия коммуникации, это также позволяет включать творческие идеи, которые модель сама не смогла бы предложить.

Кроме того, наличие механизма обратной связи открывает путь к постоянному совершенствованию и обучению. Данные об участии, собранные после развертывания, предоставляют ценную информацию, которая затем возвращается в модель для ее дальнейшей настройки. Анонимизация данных после развертывания перед их использованием для дальнейшего совершенствования является важной мерой для соблюдения законов о защите данных.

В заключительном этапе для повышения точности выводов от LLM-моделей и других моделей строительство ограждающих механизмов и методов обеспечения связи может помочь маркетологам оставаться легальными, этичными и соответствовать бренду. Это также укрепляет доверие и поддерживает личную связь, являющуюся основой любой коммуникации, даже если она осуществляется с помощью ИИ.

Заключение

Комбинация генеративного ИИ и традиционных моделей машинного обучения может быть использована для создания увлекательных заголовков и названий уведомлений. Генеративный ИИ может быть настроен для создания заголовков в зависимости от тона и аудитории. Предсказательные модели, такие как случайный лес, могут быть использованы для выбора наиболее эффективного заголовка и названия для достижения максимального вовлечения.