Как настроить ChatGPT 3.5 Turbo в нужном режиме

Мастерим в ChatGPT 3.5 Turbo настройка в нужном режиме

 

В случае, если вы это еще не слышали, OpenAI недавно объявила о доступности настройки для GPT-3.5 Turbo. Кроме того, настройка для GPT-4.0 ожидается будет выпущена поздней осенью. Это была очень желанная новость для разработчиков.

Но почему именно это было такое важное объявление? Вкратце, потому что настройка модели GPT-3.5 Turbo предлагает несколько важных преимуществ. В результате настройки разработчики могут более эффективно управлять своими проектами и сокращать свои запросы (иногда до 90%) путем внедрения инструкций в саму модель.

С помощью настроенной версии GPT-3.5 Turbo можно превзойти базовые возможности Chat GPT-3.5 для определенных задач. Рассмотрим более подробно, как можно настроить модели GPT-3.5 Turbo.

 

Подготовка данных для настройки

 

Первый шаг для настройки ваших данных для GPT-3.5 Turbo – отформатировать их в правильную структуру в формате JSONL. Каждая строка в вашем файле JSONL будет содержать ключ message с тремя типами сообщений:

  • Ваше входное сообщение (также называемое сообщением пользователя)
  • Контекст сообщения (также называемый системным сообщением)
  • Ответ модели (также называемый сообщением ассистента)

Вот пример со всеми этими типами сообщений:

{  "messages": [    { "role": "system", "content": "Вы опытный разработчик JavaScript, владеющий навыками исправления ошибок" },    { "role": "user", "content": "Найдите проблемы в следующем коде." },    { "role": "assistant", "content": "Предоставленный код имеет несколько моментов, которые можно улучшить." }  ]}

 

Затем вам нужно будет сохранить ваш JSON-объект после подготовки данных.

 

Загрузка файлов для настройки

 

После создания и сохранения вашего набора данных, как описано выше, пришло время загрузить файлы, чтобы вы могли выполнить настройку.

Вот пример того, как это можно сделать с помощью скрипта на Python, предоставленного OpenAI:

curl https://api.openai.com/v1/files \  -H "Authorization: Bearer $OPENAI_API_KEY" \  -F "purpose=fine-tune" \  -F "file=@path_to_your_file" 

 

Создание задания на настройку

 

Теперь пришло время, чтобы наконец выполнить настройку. Снова OpenAI предоставляет пример того, как это можно сделать:

curl https://api.openai.com/v1/fine_tuning/jobs \-H "Content-Type: application/json" \-H "Authorization: Bearer $OPENAI_API_KEY" \-d '{  "training_file": "TRAINING_FILE_ID",  "model": "gpt-3.5-turbo-0613"}'

 

Как показано в приведенном выше примере, вам нужно будет использовать openai.file.create для отправки запроса на загрузку файла. Не забудьте сохранить идентификатор файла, так как вам понадобится он для последующих шагов.

 

Использование настроенной модели

 

Теперь пришло время развернуть и взаимодействовать с настроенной моделью. Вы можете сделать это в рамках площадки OpenAI.

Обратите внимание на приведенный ниже пример от OpenAI:

curl https://api.openai.com/v1/chat/completions \-H "Content-Type: application/json" \-H "Authorization: Bearer $OPENAI_API_KEY" \-d '{  "model": "ft:gpt-3.5-turbo:org_id",  "messages": [    {      "role": "system",      "content": "Вы опытный разработчик JavaScript, искусный в исправлении ошибок"    },    {      "role": "user",      "content": "Привет! Можете просмотреть этот код, который я написал?"    }  ]}'

 

Это также хорошая возможность сравнить новую модель с мелкой настройкой с исходной моделью GPT-3.5 Turbo. 

 

Преимущества мелкой настройки

 

Мелкая настройка предлагает три основных преимущества для улучшения качества и производительности модели GPT-3.5 Turbo. 

 

Улучшенная управляемость

 

Это означает, что мелкая настройка позволяет разработчикам лучше обеспечивать выполнение конкретных инструкций пользовательской моделью. Например, если вам нужно, чтобы ваша модель завершала фразы на другом языке (например, итальянском или испанском), мелкая настройка позволяет это сделать. 

То же самое относится к сокращению выходных данных или настройке способа ответа модели. Говоря о выходных данных…

 

Более надежное форматирование выходных данных

 

Благодаря мелкой настройке модель может улучшить свою способность форматировать ответы в согласованном формате. Это очень важно для приложений, требующих определенного формата, например, для кодирования. Разработчики могут мелко настроить свои модели таким образом, чтобы пользовательские запросы становились фрагментами JSON, которые впоследствии можно интегрировать в более крупные модули данных. 

 

Индивидуальный стиль

 

Если у какого-либо бизнеса есть необходимость в том, чтобы вывод, созданный их ИИ-моделями, имел определенный стиль, мелкая настройка является наиболее эффективным способом обеспечить это. Многие бизнесы стремятся, чтобы их контент и маркетинговые материалы соответствовали их стилю бренда или имели определенный тон, чтобы лучше связываться с клиентами. 

Если у бизнеса узнаваемый голос бренда, он может претерпеть мелкую настройку своих моделей GPT-3.5 Turbo при подготовке данных для мелкой настройки. Это будет осуществляться в типах сообщений “пользователь” и “система”, о которых уже говорилось выше. Правильное использование этого приведет к тому, что все сообщения будут создаваться с учетом стиля бренда компании, а также значительно сократит время, затрачиваемое на редактирование всего, начиная с копии в социальных сетях и заканчивая белыми книгами. 

 

Будущие улучшения

 

Как уже отмечалось, OpenAI планирует скоро выпустить мелкую настройку для GPT-4.0. Кроме того, компания собирается выпустить новые функции, такие как поддержка вызова функций и возможность мелкой настройки через пользовательский интерфейс. Последнее сделает мелкую настройку более доступной для новичков. 

Эти улучшения мелкой настройки важны не только для разработчиков, но и для бизнеса. Например, многие из самых перспективных стартапов в сфере технологий и разработки, такие как Sweep или SeekOut, полагаются на использование ИИ для выполнения своих услуг. Такие компании найдут применение для возможности мелкой настройки своих моделей данных GPT. 

 

Заключение

 

Благодаря новой возможности мелкой настройки GPT-3.5 Turbo бизнесы и разработчики теперь могут более эффективно контролировать работу своих моделей, чтобы они работали более соответственно их приложениям. 

****[Налла Дэвис](http://nahlawrites.com/)**** является разработчиком программного обеспечения и техническим писателем. Прежде чем полностью посвятить себя техническому писательству, она занималась, среди прочего интересного, работой ведущего программиста в организации экспериментального брендинга Inc. 5,000, клиентами которой являются Samsung, Time Warner, Netflix и Sony.