Этот AI-бюллетень – все, что вам нужно #68

Этот AI-бюллетень - всё, что вам нужно №68

Что произошло на этой неделе в мире искусственного интеллекта с Луи

На этой неделе мы стали свидетелями появления LLaVA v1.5, новой мультимодальной модели с открытым исходным кодом, которая выходит на арену в качестве конкурента GPT-4 с мульти-модальными возможностями. Она использует простую матрицу проекции для связи предобученного CLIP ViT-L/14 визионного энкодера с Vicuna LLM, что приводит к созданию надежной модели, способной обрабатывать изображения и текст. Модель обучается в два этапа: сначала обновляется матрица проекции на основе подмножества CC3M для более точного выравнивания, а затем модель в целом доуточняется для двух конкретных случаев использования, Visual Chat и Science QA, что приводит к достижению стейт-оф-зе-арт точности на последнем бенчмарке.

Модель, выпущенная вместе с бесплатным демо-доступом, привлекла некоторое внимание, в основном благодаря своим впечатляющим мульти-модальным возможностям. Пользователи поделились своим опытом в различных сценариях использования, где модель предлагает рецепты на основе изображения еды, решает CAPTCHA, генерирует коды пользовательского интерфейса или определяет объекты и животных. Модель хорошо справляется со всеми перечисленными задачами и является серьезным конкурентом для GPT-4.

Мы рады видеть открытую модель в мульти-модальном пространстве и надеемся, что это приведет к появлению множества новых приложений. Мы с нетерпением ждем более широкого внедрения модели GPT-4 vision и долгожданной модели Google Gemini, чтобы увидеть, как они сравниваются и что можно построить на их основе!

– Луи Питерс – Сооснователь и Генеральный директор Towards AI

Наш Бесплатный Сертификационный Курс по Обучению и Доводке LLM для Производства теперь доступен!

https://learn.activeloop.ai/courses/llms

Мы рады анонсировать второй бесплатный сертификационный курс Towards AI по обучению и доводке LLM для Производства, созданный в сотрудничестве с Activeloop и Инициативой Разрушителя Интеллекта. В этом курсе вы познакомитесь с тонкостями обучения, доводки и плавной интеграции этих моделей в продукты искусственного интеллекта. Курс поможет вам построить современную и экономичную AI-инфраструктуру для подготовки LLM для производства. Он также охватывает важные темы, такие как собственные и открытые модели, различные методы обучения LLM и стратегии развертывания в производстве. Мы также коснемся продвинутых методов доводки, таких как LoRA, QLoRA, SFT и RLHF, или обучения пользовательских моделей с помощью Cohere. При поддержке наших партнеров из Cohere и Lambda, квалифицированные участники получат возможность использовать вычислительные ресурсы, чтобы самостоятельно запустить примеры! Почти 60 уроков с практическими проектами и девятью сопровождающими видео теперь доступны на странице курса.

Самые горячие новости

1. Meta тихо раскрывает Llama 2 Long AI, которая обходит GPT-3.5 Turbo и Claude 2 в некоторых задачах

Meta выпускает Llama 2 Long, улучшенную версию Llama 2, которая прошла непрерывное предварительное обучение с использованием более длинных последовательностей обучения и повышенного уровня длинных текстов. Добавив 400 миллиардов токенов и внесши незначительные изменения в позиционные вложения вращения (RoPE), Llama 2 Long теперь способна обрабатывать более длинные последовательности информации и включать в свою модель меньше несвязанной информации.

2. Microsoft представит собственный AI-чип, уменьшая зависимость от NVIDIA

Microsoft планирует дебют своего первого чипа AI в следующем месяце. Под кодовым названием “Афина” чип может позволить Microsoft уменьшить свою зависимость от графических процессоров NVIDIA для ускорения AI в центрах обработки данных.

3. OpenAI рассматривает возможность создания своих собственных чипов AI

OpenAI рассматривает возможность разработки собственных чипов AI для ChatGPT из-за глобального дефицита процессоров для обучения моделей AI. Этот шаг может помочь снизить высокие операционные затраты ChatGPT, в настоящее время составляющие 700 000 долларов в день. Решение OpenAI может расходиться с Майкрософтом, их партнером, который также работает над собственными чипами AI.

4. Введение Stable LM 3B: создание устойчивых моделей языка высокой производительности для умных устройств

Stability AI представила Stable LM 3B, высокопроизводительную языковой модель, разработанную для умных устройств. С 3 миллиардами параметров она превосходит современные 3B модели и снижает операционные затраты и энергопотребление. Модель позволяет использовать более широкий спектр умных устройств, ПК и применений в краевых вычислениях.

5. Replit AI для всех

Replit предоставляет свои AI-возможности всем своим 23 млн + пользователей бесплатно. Функции автозаполнения кода и помощи при кодировании теперь включены по умолчанию. Replit также обучили новую модель replit-code-v1.5–3b, чтобы обеспечить эти новые возможности в этой масштабной реализации.

Пять материалов для чтения/видео продолжительностью 5 минут, чтобы обогатить ваше обучение

1. Внимание в LLM для бесконечной связности

Оконное внимание с токенами внимания представляет собой решение для поддержания связности в больших языковых моделях (LLM) в стиле чата, таких как Llama, Mistral, MPT, Falcon и GPT-NeoX (Pythia), которым часто не хватает памяти. Этот метод эффективно управляет оценками внимания и предотвращает потерю связности, когда первый токен выходит за рамки окна внимания.

2. Настройка моделей с использованием Prompt-Tuning с использованием библиотеки PEFT от Hugging Face

В этой статье рассматривается настройка моделей с использованием Prompt-Tuning с использованием библиотеки PEFT от Hugging Face. Она углубляется в технику и приложения и исследует конкретные примеры двух разных моделей.

3. Владение сегментацией клиентов с использованием LLM

Эта статья предоставляет исчерпывающее руководство по сегментации клиентов с использованием LLM. Она охватывает такие техники, как кластеризация по методу K-средних, библиотека PyOD для обнаружения выбросов, метод локтя и визуализацию силуэтов для определения оптимальных кластеров, метрики оценки и использование PCA, T-SNE и LLM для извлечения текстовых вложений.

4. Риски безопасности при настройке LLM

Эта статья подчеркивает возможные риски безопасности при настройке заранее обученных больших языковых моделей, таких как Llama от Meta и GPT-3.5 Turbo от OpenAI. Несмотря на то, что существующие структуры безопасности ограничивают вредное поведение LLM во время вывода, они не освещают риски безопасности при расширении привилегий настройки конечными пользователями.

5. Годфатер искусственного интеллекта Джеффри Хинтон о чуде и рисках передового искусственного интеллекта

Джеффри Хинтон считает, что системы искусственного интеллекта могут быть умнее, чем мы думаем, и есть вероятность, что машины смогут завладеть властью. Это транскрипт его беседы о рисках AI, будущем, чувствующем AI и другом.

Статьи и репозитории

1. Эффективные потоковые языковые модели с пристанищами внимания

Исследователи из MIT, Meta AI и Carnegie Mellon разработали StreamingLLM, фреймворк, позволяющий создавать языковые модели неограниченной длины без дорогостоящей донастройки. Этот эффективный подход позволяет моделям, таким как GPT-3 и PaLM, обрабатывать контексты длиной более 4 миллионов токенов, используя пристанища внимания, что значительно повышает производительность.

2. Еще долгий путь: исследование корреляций длины в RLHF

Эта статья демонстрирует, что оптимизация длины ответа – значительный фактор, стоящий за отчетливым улучшением RLHF в этих настройках. Работа исследует вмешательства, направленные на воспроизведение этих улучшений без увеличения размера, но их эффективность варьируется.

3. Исследователи Meta и INRIA узнали, что явные регистры устраняют пиковое внимание в ViT

Исследователи из Meta и INRIA открыли новый способ справиться с пиковым вниманием в Vision Transformers (ViT). Внедрение специальных “регистров” для временного хранения позволило создавать плавные карты внимания, улучшило производительность вниз по цепочке и повысило способность ViT обнаруживать объекты.

4. Улучшенные базовые показатели с помощью настройки визуальных инструкций

Исследователи значительно улучшили LLaVa мультимодальную языковую модель, используя CLIP-ViT-L-336px и MLP-проекцию. Путем интеграции академически-ориентированных данных VQA и подсказок для ответа, финальная проверочная точка 13B достигла замечательной производительности на различных контрольных наборах данных. Кроме того, для тренировки нужно всего 1,2 миллиона общедоступных данных, и ее можно полностью обучить на одной узле 8-A100 всего за один день.

5. Подумай перед тем, как говорить: обучение языковых моделей с помощью символов паузы

Недавнее исследование показывает, что использование символов паузы в языковых моделях позволяет проводить более глубокое вычисление перед генерацией следующего токена, что приводит к улучшению производительности при выполнении задач рассуждения. В рамках исследования были обнаружены значительные улучшения результатов на задачах таких, как ответы на вопросы и рассуждение.

Нравятся эти статьи и краткие новости? Получайте ежедневные обзоры в своей почте!

Раздел “Вместе учимся искусственному интеллекту”!

Еженедельный подкаст по искусственному интеллекту

В этом эпизоде подкаста “What’s AI” Луи Бушард интервьюирует удивительную Эксан Бош. С фокусом на этике ИИ, эта беседа исследует мир этики и управления ИИ с экспертом, рассматривая ответственные практики ИИ, баланс между инновациями и регулированием, а также роль этики в разработке и внедрении ИИ. Эксан делится взглядами на то, как компании могут ориентироваться в этой области, особенно в условиях грядущих правил ЕС. Полный эпизод можно посмотреть на YouTube или послушать на ваших любимых потоковых платформах.

Мем недели!

Мем, опубликованный rucha8062

Популярный пост от сообщества в Discord

Dogecoin создал InfoGPT – чат-бота, способного отвечать на вопросы по документам. Он создан с использованием Langchain, LlamaCPP, Streamlit, ChromaDB и Sentence Transformers. Он совместим с файлами PDF, TXT, CSV и DOCX. Посмотрите его на GitHub и поддержите участника сообщества! Оставьте свой отзыв и вклад в обсуждении здесь.

AI опрос недели!

Присоединяйтесь к обсуждению на Discord.

Избранная секция TAI

Статья недели

Обучение с подкреплением: аппроксимация функции и глубокие Q-сети — Часть 4 от Tan Pengshi Alvin

Эта статья рассмотрит два типа аппроксимации функции ценности. Первый – метод инкрементной аппроксимации с использованием стохастического градиентного спуска с линейным уравнением и методы разности временного состояния. В статье также рассматриваются популярные глубокие Q-сети (DQN). Глубокие сети Q-сетей являются расширением аппроксимации функции для Q-обучения вне политики.

Наши статьи, которые стоит прочесть

Решение утечки данных: важные соображения для надежных моделей машинного обучения от Mala Deep

Вы наверняка знаете GANs, но знаете ли вы, как их обучить? от Youssef Hosni

Полное введение в генерацию изображений искусственным интеллектом от Youssef Hosni

Если вы хотите опубликовать статью в Towards AI, ознакомьтесь с нашими правилами и оставьте заявку. Мы опубликуем вашу работу в нашей сети, если она соответствует нашим редакционным политикам и требованиям к качеству.

Вакансии

Инженер Prompt – 061023 @Sirion Pte Ltd (удаленная работа/Канада)

Ученый-исследователь по машинному обучению @Neural Magic (удаленная работа)

Инженер машинного обучения @Callsign (Лондон, Великобритания)

Ведущий специалист по анализу данных (WA) @Tiger Analytics (Сиэтл, штат Вашингтон, США)

Сотрудник Машинного Обучения @Clari (удаленно)

Младший Разработчик с Python (временная работа) @Clarity AI (удаленно)

Менеджер, Платформы Данных @Angi (удаленно)

Заинтересованы в размещении вакансии здесь? Свяжитесь с нами по адресу .

Если вы готовитесь к собеседованию по машинному обучению, не стесняйтесь посетить наш ведущий сайт для подготовки к собеседованиям confetti!

https://www.confetti.ai/