Этот информационный бюллетень ИИ – все, что вам нужно #71

ИИ Бьюти и Мода Все, что вам нужно знать - выпуск #71

Что произошло на этой неделе в мире ИИ от Луи

На этой неделе Президент Джо Байден привлек внимание к регулированию искусственного интеллекта, подписав указ о наблюдении за искусственным интеллектом. Этот директивный документ предлагает различным правительственным агентствам разработать новые руководства в отношении безопасности ИИ, защиты данных и кибербезопасности. Отметим, что значительная часть указа касается выделения средств на исследования по сохранению конфиденциальности. Правительство явно акцентирует внимание на регулировании таких областей, как конфиденциальность, равенство и гражданские права. Следует отметить, что, не имея поддержки Конгресса, данный указ не обладает силой закона. В ближайшие месяцы мы можем стать свидетелями инициатив со стороны Европейского Союза, и мы уже наблюдаем строгие регулирования со стороны Китая.

Новости вызвали споры на X (ранее известной как Twitter), где выдающиеся исследователи в области ИИ высказали свои опасения в отношении регулирования ИИ и потенциального негативного влияния на проекты с открытым исходным кодом. Андрю Нг прокомментировал: «Очевидно, что существуют крупные технологические компании, которым не хотелось бы конкурировать с открытыми исходниками». Тем временем, Иан Лекун, главный научный сотрудник Meta, заявил: «Если […] кампании по страшилкам будут успешными, это неизбежно приведет к […] катастрофе: немногие компании будут контролировать ИИ». Очевидно, что поиск правильного баланса между смягчением рисков ИИ и предотвращением преград, которые благоприятствуют только крупным компаниям, представляет сложность.

– Луи Питерс — сооснователь и генеральный директор Towards AI

Самые горячие новости

  1. Страхи стартапов AI: указ Байдена по AI может подавить инновации

Президент США Джо Байден стремится сократить риски, связанные с ИИ, для потребителей, рабочих, меньшинств и национальной безопасности с помощью нового указа. В то время как некоторые стартапы приветствуют указ, некоторые генеральные директоры выразили беспокойство о том, что он может помешать малым компаниям и задушить инновации.

2. Jina AI запускает первую в мире открытую модель встроенного текста 8K, конкурирующую с OpenAI

Jina AI представила модель jina-embeddings-v2 с открытым исходным кодом, которая поддерживает длину контекста в 8K. Она равнозначна модели OpenAI с показателями, такими как Classification Average, Reranking Average, Retrieval Average и Summarization Average в рейтинге MTEB.

3. Google вкладывает $2 млрд в Anthropic

Google обязалась существенно инвестировать в Anthropic, конкурента OpenAI, выделив до $2 млрд на стартап в области ИИ. Anthropic является разработчиком чат-бота Claude 2, который используется такими компаниями, как Slack, Notion и Quora.

4. Anthropic, Google, Microsoft и OpenAI анонсировали создание фонда в размере более $10 млн для безопасности ИИ

Anthropic, Google, Microsoft и OpenAI инвестировали свыше $10 млн для создания нового фонда по безопасности ИИ с целью продвижения исследований в области ответственного и безопасного развития передовых моделей ИИ. Это свидетельствует о предпринимаемых всей отраслью усилиях по повышению стандартов безопасности и проработке возникающих проблем при использовании сложных систем искусственного интеллекта.

5. ChatGPT объединяет все инструменты в обновлении

OpenAI начал внедрение новой версии ChatGPT, в которой объединены все возможности GPT-4 — Browsing, DALL-E 3 и Data Analysis — без необходимости переключаться между режимами. В обновлении предоставлен доступ ко всем функциям ChatGPT в основном интерфейсе без переключения между несколькими режимами.

Пять материалов на 5 минут для обогащения знаний

  1. Овладение LLM: лучшие стратегии оценки производительности LLM

Это руководство рассказывает о том, как эффективно оценивать и сравнивать большие языковые модели (LLM). Узнайте больше о перплексии, других показателях оценки и подобранных контрольных тестах для сравнения производительности LLM. Также включены практические инструменты для выбора подходящей модели для ваших потребностей и задач.

2. Оценка результатов LLM

В этом блоге рассматриваются несколько методов оценки результатов, созданных LLM. Он также дает представление о таких методах, как обратная связь пользователя и человеческие аннотаторы, а также о повторении методов человеческой оценки с использованием LLM.

3. Как работает бот-чат на LLM: исследование чата с использованием улучшенной генерации поиска (RAG)

В этой статье рассматривается создание генеративной части бота-чата, усиление LLM ботов-чатов с помощью RAG, важной компоненты конечной точки чата, которая позволяет подключать API к внешним данным для увеличения генерации.

4. Порядок имеет значение: как искусственный интеллект борется с обратным

Эта статья фокусируется на том, как и почему проклятие обратного воздействия влияет на большие языковые модели. В отличие от людей, LLM могут испытывать трудности с ответами на вопросы, которые эффективно используют обратную информацию. Кроме того, LLM могут демонстрировать неуверенность в областях, где сильны человеческие навыки.

5. Согласно Аристотелю, смог бы ChatGPT мыслить?

В этом сообщении рассматривается философский вопрос о том, обладают ли большие языковые модели, такие как ChatGPT, известные как LLM, рассудочными способностями Силлогизма Аристотеля. Оно исследует связь между ИИ и философией, в частности, в логическом рассуждении.

Статьи и репозитории

  1. QMoE: Практическое сжатие моделей на триллион параметров меньше чем на 1 бит/параметр

QMoE – это практическое решение для сжатия моделей на триллион параметров, таких как SwitchTransformer, до <1 бит/параметр, что существенно снижает требования к памяти. Оно достигает коэффициента сжатия 20 раз с минимальной потерей точности и может работать эффективно на доступном оборудовании.

2. JudgeLM: Масштабируемые судьи – тонкая настройка больших языковых моделей

JudgeLM – это метод, который улучшает оценку больших языковых моделей, настраивая их как масштабируемых судей. Собирая набор данных и используя методы аугментации, JudgeLM устраняет предвзятость и демонстрирует хорошую производительность на контрольных тестах. Он превосходит судебное решение человека и проявляет универсальность в различных форматах.

3. Контрастное обучение предпочтений: обучение с помощью обратной связи от людей без RL

Контрастное обучение предпочтений (CPL) – новый подход к обучению с подкреплением на основе обратной связи от людей (RLHF), который избегает необходимости в традиционных методах RL. Сосредоточиваясь на сожалении, а не на вознаграждении, CPL упрощает процесс обучения и имеет потенциал быть эффективно примененным в высокоразмерных сценариях RLHF.

4. ConvNets Match Vision Transformers at Scale

Google DeepMind провело исследование, сравнивая сверточные нейронные сети (ConvNets) и Vision Transformers (ViTs) для классификации изображений в большом масштабе. В общем ConvNets и ViTs проявляют схожую производительность при использовании сопоставимых ресурсов.

5. HallusionBench: Ты видишь то, что думаешь? Или думаешь то, что видишь?

HallusionBench – это недавно созданный контрольный тест, предназначенный для изучения лингвистического обмана и визуальной иллюзии в моделях Вижн-Язык, таких как GPT4-V и LLaVA-1.5. Этот контрольный тест проверяет способность моделей рассуждать с учетом контекста изображения и подчеркивает возможные слабости их визионных модулей.

Наслаждайтесь этими статьями и сводками новостей? Получайте ежедневный обзор в своей почте!

Раздел Сообщества Learn AI Together!

Мем недели!

Мем, опубликованный rucha8062

Избранный пост из сообщества Discord

NYLee запустил LLMwarre – единый, открытый и расширяемый фреймворк для приложений, основанных на LLM, включая Retrieval Augmented Generation (RAG). Этот проект предоставляет всеобъемлющий набор инструментов, который может использовать любой – от новичков до самых искушенных разработчиков искусственного интеллекта. Он включает парсинг PDF и офисных документов, выделение фрагментов текста, векторное вложение с использованием Milvus, FAISS или Pinecone и гибкий поиск. Посетите GitHub и поддержите своего сообщника. Поделитесь своими отзывами в этой ветке!

AI-опрос недели!

Присоединяйтесь к обсуждению на Discord.

Отобранный раздел TAI

Статья недели

Полное руководство по созданию AI-ассистента для подведения итогов YouTube-видео — Часть 1 от Amin Kamali

Эта статья является первой в серии из трех блог-постов, объясняющих пошаговое создание AI-ассистента для подведения итогов YouTube-видео. Начните эту серию с подробных инструкций по захвату транскрипции YouTube-видео с помощью Whisper от OpenAI, затем реализуйте суммирование текста с использованием Langchain и продемонстрируйте прототип решения с использованием Gradio и Hugging Face Spaces.

Наши обязательные к чтению статьи

Порядок имеет значение: как AI борется с обратным проблемы от Salvatore Raieli

Полное понимание эластичной сети регрессии с использованием Python от Amit Chauhan

Если вас интересует публикация на Towards AI, ознакомьтесь с нашими рекомендациями и зарегистрируйтесь. Мы опубликуем вашу работу в нашей сети, если она соответствует нашим редакционным политикам и стандартам.

Вакансии

Jr. Инженер машинного обучения @BreederDAO (удаленно)

Инженер машинного обучения @CloudHire (удаленно)

Инженер машинного обучения/ИИ @Imagine.io (удаленно)

Ученый машинного обучения AI @PayPal (Сан-Хосе, Калифорния, США)

Этичный Red Teamer — компьютерное зрение @Salesforce (удаленно)

Стажер на лето 2024 года — Data Science, Data & Analytics @Salesforce (удаленно)

Архитектор решений, LLM @NVIDIA (удаленно)

Интересуетесь размещением вакансии здесь? Свяжитесь с .

Если вы готовитесь к следующему собеседованию по машинному обучению, не стесняйтесь посетить наш ведущий сайт подготовки к интервью, confetti!

https://www.confetti.ai/