Auto-GPT и GPT-Engineer Подробное руководство по ведущим ИИ-агентам сегодняшнего дня
Auto-GPT и GPT-Engineer - руководство по ИИ-агентам сегодня
При сравнении ChatGPT с автономными AI-агентами, такими как Auto-GPT и GPT-Engineer, проявляется значительная разница в процессе принятия решений. В то время как ChatGPT требует активного участия человека для ведения разговора, предоставляя руководство на основе запросов пользователя, процесс планирования в основном зависит от вмешательства человека.
Генеративные модели ИИ, такие как трансформеры, являются передовой технологией, на которой основаны эти автономные AI-агенты. Эти трансформеры обучаются на больших наборах данных, что позволяет им имитировать сложные логические рассуждения и способности к принятию решений.
Открытые корни автономных агентов: Auto-GPT и GPT-Engineer
Многие из этих автономных AI-агентов являются результатом инициативы в области открытого программного обеспечения, возглавляемой инновационными людьми, преобразующими традиционные рабочие процессы. Вместо простого предложения идей такие агенты, как Auto-GPT, могут самостоятельно выполнять задачи, от онлайн-шопинга до создания базовых приложений. Интерпретатор кода OpenAI стремится повысить ChatGPT с предложения идей к активному решению проблем с помощью этих идей.
И Auto-GPT, и GPT-Engineer оснащены мощью GPT 3.5 и GPT-4. Он понимает логику кода, объединяет несколько файлов и ускоряет процесс разработки.
- 7 способов, которыми бизнесы используют Google Cloud AI
- Google выпускает Gemini и ряд других инструментов искусственного интеллекта
- OpenAI выпустит ChatGPT Enterprise для крупных компаний
Суть функциональности Auto-GPT заключается в его AI-агентах. Эти агенты программированы для выполнения конкретных задач, от малозначимых, таких как составление расписания, до более сложных задач, требующих стратегического принятия решений. Однако эти AI-агенты работают в пределах, установленных пользователями. Контролируя их доступ через API, пользователи могут определить глубину и объем действий, которые может выполнять ИИ.
Например, если пользователю поставлена задача создания веб-приложения для чата, интегрированного с ChatGPT, Auto-GPT автономно разбивает цель на действия, такие как создание HTML-фронтенда или написание Python-бэкенда. В то время как приложение автономно создает эти подсказки, пользователи все равно могут отслеживать и изменять их. Как показал создатель AutoGPT @SigGravitas, он способен создавать и выполнять тестовые программы на основе Python.
Массовое обновление для Auto-GPT: выполнение кода! 🤖💻
Теперь Auto-GPT может самостоятельно писать свой собственный код с использованием #gpt4 и выполнять python-скрипты!
Это позволяет ему рекурсивно отлаживать, разрабатывать и самосовершенствоваться… 🤯 👇 pic.twitter.com/GEkMb1LyxV
— Significant Gravitas (@SigGravitas) 1 апреля 2023 года
Ниже приведена диаграмма, описывающая более общую архитектуру автономного AI-агента, которая предлагает ценные сведения о процессах, происходящих за кулисами.
Архитектура автономного AI-агента
Процесс начинается с проверки ключа API OpenAI и инициализации различных параметров, включая краткосрочную память и содержимое базы данных. После передачи ключевых данных Агенту модель взаимодействует с GPT3.5/GPT4 для получения ответа. Этот ответ затем преобразуется в формат JSON, который Агент интерпретирует для выполнения различных функций, таких как проведение онлайн-поисков, чтение или запись файлов или даже выполнение кода. Auto-GPT использует предварительно обученную модель для хранения этих ответов в базе данных, и будущие взаимодействия используют эту сохраненную информацию для ссылки. Цикл продолжается, пока задача не будет считаться завершенной.
Руководство по установке Auto-GPT и GPT-Engineer
Настройка передовых инструментов, таких как GPT-Engineer и Auto-GPT, может упростить процесс разработки. Ниже представлена структурированная инструкция по установке и настройке обоих инструментов.
Auto-GPT
Настройка Auto-GPT может показаться сложной, но с правильными шагами она становится простой. В этом руководстве описана процедура настройки Auto-GPT и предлагаются идеи для его различных сценариев использования.
1. Предварительные требования:
- Python-окружение: Убедитесь, что у вас установлена Python 3.8 или более поздняя версия. Вы можете получить Python с его официального веб-сайта.
- Если вы планируете клонировать репозитории, установите Git.
- Ключ API OpenAI: Для взаимодействия с OpenAI необходим ключ API. Получите ключ из своей учетной записи OpenAI
Генерация ключа API Open AI
Варианты памяти: Памятьное хранилище служит механизмом хранения данных, необходимых AutoGPT для выполнения своих операций. AutoGPT использует как краткосрочное, так и долгосрочное хранение данных. Pinecone, Milvus, Redis и другие являются некоторыми из доступных вариантов.
2. Настройка вашего рабочего пространства:
- Создайте виртуальное окружение:
python3 -m venv myenv
- Активируйте окружение:
- MacOS или Linux:
source myenv/bin/activate
- MacOS или Linux:
3. Установка:
- Клонируйте репозиторий Auto-GPT (убедитесь, что у вас установлен Git):
git clone https://github.com/Significant-Gravitas/Auto-GPT.git
- Чтобы убедиться, что вы работаете с версией 0.2.2 Auto-GPT, вы захотите переключиться на эту конкретную версию:
git checkout stable-0.2.2
- Перейдите в скачанный репозиторий:
cd Auto-GPT
- Установите необходимые зависимости:
pip install -r requirements.txt
4. Конфигурация:
- Найдите
.env.template
в основном каталоге/Auto-GPT
. Скопируйте и переименуйте его в.env
- Откройте
.env
и установите ваш ключ API OpenAI рядом сOPENAI_API_KEY=
- Аналогично, для использования Pinecone или других памятных хранилищ обновите файл
.env
своим ключом API Pinecone и регионом.
5. Инструкции командной строки:
Auto-GPT предлагает обширный набор аргументов командной строки для настройки его поведения:
- Общее использование:
- Показать справку:
python -m autogpt --help
- Настройка параметров ИИ:
python -m autogpt --ai-settings <имя файла>
- Указание памятного хранилища:
python -m autogpt --use-memory <памятьное хранилище>
- Показать справку:
AutoGPT в командной строке
6. Запуск Auto-GPT:
После завершения настройки инициируйте Auto-GPT с помощью:
- Linux или Mac:
./run.sh start
- Windows:
.\run.bat
Интеграция Docker (рекомендуемый подход к настройке)
Для тех, кто хочет контейниризовать Auto-GPT, Docker предоставляет удобный подход. Однако имейте в виду, что начальная настройка Docker может быть сложной. Обратитесь к руководству по установке Docker для получения помощи.
Продолжайте, следуя приведенным ниже шагам, чтобы изменить ключ API OpenAI. Убедитесь, что Docker работает в фоновом режиме. Теперь перейдите в основной каталог AutoGPT и выполните следующие шаги в терминале:
- Создайте образ Docker:
docker build -t autogpt .
- Теперь запустите:
docker run -it --env-file=./.env -v$PWD/auto_gpt_workspace:/app/auto_gpt_workspace autogpt
С использованием docker-compose:
- Запустите:
docker-compose run --build --rm auto-gpt
- Для дополнительной настройки вы можете интегрировать дополнительные аргументы. Например, для запуска с обоими параметрами –gpt3only и –continuous:
docker-compose run --rm auto-gpt --gpt3only--continuous
- Учитывая обширную автономию Auto-GPT в генерации контента из больших наборов данных, существует потенциальный риск его непреднамеренного доступа к вредоносным веб-ресурсам.
Для снижения рисков используйте Auto-GPT в виртуальном контейнере, например, Docker. Это гарантирует, что любое потенциально опасное содержимое останется ограниченным в виртуальном пространстве, не затрагивая внешние файлы и систему. В качестве альтернативы можно использовать Windows Sandbox, но он сбрасывается после каждой сессии и не сохраняет свое состояние.
В целях безопасности всегда запускайте Auto-GPT в виртуальной среде, чтобы ваша система оставалась изолированной от непредвиденных выводов.
При всех этих условиях все же есть вероятность, что вы не сможете получить желаемые результаты. Пользователи Auto-GPT сообщают о повторяющихся проблемах при попытке записи в файл, часто сталкиваясь с неудачными попытками из-за проблематичных имен файлов. Вот одна из таких ошибок: Auto-GPT (версия 0.2.2) не добавляет текст после ошибки "write_to_file returned: Error: File has already been updated"
На ассоциированном GitHub-треде обсуждаются различные решения для устранения этой проблемы.
GPT-Engineer
Рабочий процесс GPT-Engineer:
- Определение заголовка: Создайте подробное описание вашего проекта, используя естественный язык.
- Генерация кода: На основе вашего заголовка GPT-Engineer начинает работу, создавая фрагменты кода, функции или даже полные приложения.
- Уточнение и оптимизация: После генерации всегда есть возможность улучшить результат. Разработчики могут изменять сгенерированный код, чтобы удовлетворить конкретные требования и добиться высокого качества.
Процесс настройки GPT-Engineer был упрощен в простой пошаговый гид. Вот его пошаговое описание:
1. Подготовка окружения: Прежде чем приступить, убедитесь, что у вас есть готовая директория проекта. Откройте терминал и выполните следующую команду
- Создайте новую директорию с именем ‘website’:
mkdir website
- Перейдите в директорию:
cd website
2. Клонирование репозитория: git clone https://github.com/AntonOsika/gpt-engineer.git .
3. Перейти и установить зависимости: После клонирования перейдите в директорию cd gpt-engineer
и установите все необходимые зависимости make install
4. Активация виртуальной среды: В зависимости от вашей операционной системы активируйте созданную виртуальную среду.
- Для macOS/Linux:
source venv/bin/activate
- Для Windows это немного отличается из-за настройки API-ключа:
set OPENAI_API_KEY=[ваш ключ API]
5. Настройка – Установка API-ключа: Для взаимодействия с OpenAI вам понадобится API-ключ. Если у вас его еще нет, зарегистрируйтесь на платформе OpenAI, а затем:
- Для macOS/Linux:
export OPENAI_API_KEY=[ваш ключ API]
- Для Windows (как уже упоминалось):
set OPENAI_API_KEY=[ваш ключ API]
6. Инициализация проекта и генерация кода: Волшебство GPT-Engineer начинается с файла main_prompt
, расположенного в папке projects
.
- Если вы хотите начать новый проект:
cp -r projects/example/ projects/website
Здесь замените ‘website’ на выбранное вами имя проекта.
- Измените файл
main_prompt
с помощью текстового редактора, описав требования вашего проекта.
- Когда вы будете удовлетворены заголовком, выполните команду:
gpt-engineer projects/website
Сгенерированный код будет находиться в папке workspace
внутри директории проекта.
7. Пост-генерация: Несмотря на мощь GPT-Engineer, он не всегда может быть идеальным. Осмотрите сгенерированный код, внесите необходимые изменения вручную и убедитесь, что все работает гладко.
Пример выполнения
Задание:
«Я хочу разработать простое приложение Streamlit на Python, которое визуализирует данные пользователей с помощью интерактивных диаграмм. Приложение должно позволять пользователям загружать файл CSV, выбирать тип диаграммы (например, столбчатая, круговая, линейная) и динамически визуализировать данные. В нем можно использовать библиотеки, такие как Pandas для обработки данных и Plotly для визуализации».
Настройка и запуск GPT-Engineer
Подобно Auto-GPT, GPT-Engineer иногда может сталкиваться с ошибками даже после завершения установки. Однако, с третьей попытки я успешно получил доступ к следующей веб-странице streamlit. Убедитесь, что вы проверите все ошибки на официальной странице проблем репозитория GPT-Engineer.
Приложение Streamlit, созданное с помощью GPT-Engineer
Текущие проблемы искусственных интеллектуальных агентов
Операционные расходы
Одна задача, выполненная Auto-GPT, может включать в себя множество шагов. Важно отметить, что каждый из этих шагов может быть оплачен отдельно, увеличивая затраты. Auto-GPT может застрять в повторяющихся циклах, не выполняя обещанные результаты. Такие ситуации подрывают его надежность и ущемляют инвестиции.
Представьте, что вы хотите создать небольшое эссе с помощью Auto-GPT. Идеальная длина эссе составляет 8 тысяч токенов, но в процессе создания модель вникает во множество промежуточных шагов для завершения содержания. Если вы используете GPT-4 с длиной контекста 8 тысяч токенов, то для ввода вам будет начислено $0.03. А для вывода стоимость будет $0.06. Теперь предположим, что модель попадает в непредвиденный цикл, повторяя определенные части несколько раз. Процесс не только затягивается, но каждое повторение увеличивает стоимость.
Чтобы защититься от этого:
Установите ограничения использования в OpenAI Billing & Limits:
- Жесткий лимит: Ограничивает использование сверх вашего установленного порога.
- Мягкий лимит: Отправляет вам электронное письмо-оповещение, как только порог будет достигнут.
Ограничения функциональности
Возможности Auto-GPT, описанные в его исходном коде, имеют определенные границы. Его стратегии решения проблем определяются его внутренними функциями и доступностью, предоставленной интерфейсом API GPT-4. Для подробных обсуждений и возможных обходных путей рекомендуется посетить: Обсуждение Auto-GPT.
Влияние ИИ на рынок труда
Взаимодействие между ИИ и рынками труда постоянно развивается и подробно документируется в данной исследовательской работе. Одним из ключевых выводов является то, что технологический прогресс часто приносит пользу квалифицированным работникам, но создает риски для тех, кто занимается рутинными задачами. Фактически, технологические достижения могут вытеснять определенные задачи, но одновременно открывают путь для разнообразных трудоемких задач.
Оценивается, что около 80% американских работников могут обнаружить влияние языковых моделей на около 10% их повседневных задач. Эта статистика подчеркивает слияние ролей ИИ и человека.
Двойственная роль ИИ на рынке труда:
- Положительные аспекты: ИИ может автоматизировать множество задач, от обслуживания клиентов до финансовых консультаций, давая возможность малым предприятиям, не имеющим средств на создание отдельных команд.
- Опасения: Возрастание автоматизации вызывает опасения о потере рабочих мест, особенно в секторах, где человеческое участие является неотъемлемым, например, в области поддержки клиентов. К этому также привязана этическая проблематика, связанная с доступом ИИ к конфиденциальным данным. Это требует создания надежной инфраструктуры, обеспечивающей прозрачность, ответственность и этичное использование ИИ.
Заключение
Очевидно, что такие инструменты, как ChatGPT, Auto-GPT и GPT-Engineer, стоят во главе переформатирования взаимодействия между технологией и ее пользователями. Имея корни в движении с открытым исходным кодом, эти искусственные интеллектуальные агенты проявляют возможности автономии машин, оптимизируя задачи от планирования до разработки программного обеспечения.
Погружаясь в будущее, где искусственный интеллект все глубже интегрируется в наши повседневные рутины, становится ключевым баланс между использованием возможностей ИИ и защитой человеческих ролей. В более широком спектре динамика рынка ИИ и труда рисует двойное изображение возможностей роста и вызовов, требуя осознанной интеграции технической этики и прозрачности.