Установка стандартов для ответственного искусственного интеллекта с генеративной способностью.
Установка стандартов для ответственного искусственного интеллекта с генеративным потенциалом.
С быстрым развитием ИИ во всех отраслях, ответственный ИИ стал горячей темой как для принимающих решения, так и для ученых-исследователей данных. Но с появлением легкодоступного генеративного ИИ стало более важно, чем когда-либо. Есть несколько причин, почему ответственный ИИ играет критическую роль при продвижении технологии.
Некоторые из причин включают беспокойство о предвзятости/дискриминации, защите и конфиденциальности данных, безопасности, а также прозрачности и ответственности. Давайте более подробно рассмотрим, почему принципы ответственного ИИ имеют решающее значение в области ИИ и что делают некоторые технологические лидеры.
Обязательство Microsoft по ответственному генеративному ИИ
Компания Microsoft намерена показать свою приверженность ответственному генеративному ИИ, публично представив свои шесть принципов ответственного генеративного ИИ. Согласно компании, эти принципы включают справедливость, надежность и безопасность, конфиденциальность и защиту данных, инклюзивность, прозрачность и ответственность. Microsoft осуществляет свое обязательство через управление, политику и исследования.
- Обучение ChatGPT на собственных данных Руководство для разработчиков программного обеспечения
- Расширенный анализ данных с GPT4 Картирование европейских тенденций в туризме
- Топ-10 онлайн-курсов по науке о данных в США
Некоторые конкретные примеры инициатив Microsoft по ответственному генеративному ИИ включают рабочую книгу Human-AI Experience (HAX), список проверки справедливости ИИ и Приборную панель ответственного ИИ. Microsoft также сотрудничает с организациями, такими как ЮНЕСКО, для продвижения ответственного генеративного ИИ.
МЕРОПРИЯТИЕ – СУВ Запад 2023
Личная и виртуальная конференция
С 30 октября по 2 ноября
Присоединяйтесь к нам, чтобы углубиться в последние тенденции в области науки о данных и ИИ, инструменты и техники, от LLM до аналитики данных и от машинного обучения до ответственного ИИ.
Проектирование с учетом ответственности
Одна из самых важных вещей, которые можно сделать для продвижения ответственного генеративного ИИ, – это проектирование ИИ-систем с учетом ответственности. Это означает рассмотрение потенциальных рисков и проблем ИИ-системы с самого начала, а не думать об этом после ее внедрения. После принятия решения о применении ИИ-системы ответственный генеративный ИИ должен стать краеугольным камнем любого проектирования.
Конечно, это также означает проектирование ИИ-систем таким образом, чтобы они были справедливы, надежны, безопасны, инклюзивны, прозрачны и ответственны.
Проведение адверсарных тестов
Этот аспект часто недостаточно обсуждается – использование адверсарных тренировок и тестов для продвижения ответственности в ИИ. Адверсарное тестирование осуществляется путем тестирования или редлайнинга с использованием подсказок и других методов для выявления уязвимостей систем ИИ. Например, это может включать попытки произвести разблокировку системы ИИ, используя серии подсказок для принуждения к нежелательному ответу.
Эти ответы могут варьироваться от простых ошибок фактической информации до обоснованных проблем безопасности из-за содержимого, генерируемого ИИ. Проведя адверсарное тестирование, внутренние команды могут выявить и устранить потенциальные уязвимости систем ИИ до их эксплуатации. Эти команды часто состоят не только из профессионалов в области науки о данных, но и из других специалистов, чтобы использовать широкий спектр навыков и выявить возможные проблемы безопасности.
Будьте осторожны с коммуникацией
Поверьте или нет, коммуникация является ключом к продвижению ответственного генеративного ИИ. Это связано с тем, что при общении о ИИ важно быть ясным, кратким и доступным для широкой аудитории, особенно для неспециалистов. Причина этого довольно проста. Достаточно посмотреть на быстрое внедрение ChatGPT среди тех, кто не работает в технологической сфере с прошлого года. ChatGPT показал, что общество готово использовать ИИ сейчас, а не позднее.
Поэтому ясность важна. Это помогает создать доверие и прозрачность с аудиторией, которая может не обладать определенной технической экспертизой. Это также помогает смягчить предвзятость и дискриминацию и обеспечить соответствие ИИ-систем человеческим ценностям.
Мониторинг предвзятости
Предубеждение имеет ясно негативную тенденцию по очень важной причине. Никто не хочет, чтобы ИИ был предвзятым по отношению к какой-либо группе, так как это снижает доверие и увеличивает другие риски. Поэтому важно контролировать предубеждение в системах ИИ, обеспечивая чистоту наборов данных и другие методы. Но правда в том, что предвзятость может проникнуть в системы ИИ разными путями, поэтому важно быть бдительным. Существует несколько способов контроля предвзятости, включая:
- Анализ данных, используемых для обучения систем ИИ
- Оценка результатов работы систем ИИ
- Проведение пользовательских исследований
Использование наборов данных высокого качества
Как мы видели за последний год, парсинг веб-сайтов впечатляюще справляется с созданием уникальных и функциональных моделей генерации языка. По мере роста сложности ясно, что качество наборов данных, используемых для обучения моделей, станет все более важным. Поэтому синтетические данные становятся все популярнее и, вероятно, их популярность будет расти в следующие годы. Однако необходимо полагаться не только на синтетические данные.
Вот где приходят в игру ученые по данным и другие профессионалы, работающие с данными. Они обеспечивают поддержание качества всех наборов данных, так как риски, связанные с низкокачественным набором данных, могут разрушить сотни, если не тысячи часов работы команд в компании.
Вывод о ответственном генеративном ИИ
Ответственный генеративный ИИ помогает обеспечить справедливость, прозрачность и доступность технологии для максимального числа людей, минимизируя при этом вред. Если вам интересна эта тема, Сара Берд, PhD, глобальный руководитель по ответственной разработке искусственного интеллекта в компании Microsoft, выступит на конференции ODSC West через несколько недель.
Так что не упустите возможность и посмотрите самостоятельно, что ожидает искусственный интеллект в будущем. Зарегистрируйтесь сейчас, пока билеты со скидкой 30%!
Вы также можете ознакомиться с нашим треком по генеративному ИИ и узнать, как вы можете использовать GenAI самостоятельно! Некоторые названия сессий включают:
- Выравнивание открытых моделей генерации языка с помощью обучения с подкреплением на основе обратной связи
- Генеративный ИИ, автономные агенты ИИ и AGI – Как новые достижения в области ИИ улучшат наши продукты
- Внедрение Gen AI на практике
- Область применения моделей генерации языка и GPT в области безопасности
- Оптимизация запросов с помощью GPT-4 и Langchain
- Создание приложений генеративного ИИ: кейс-стади генерации языка
- Графы: следующая граница объяснимости GenAI
- Стабильная диффузия: новая граница для парадигмы текст-изображение
- Генеративный ИИ, автономные агенты и нейро-техники: открывая новую эру игр, симуляций и метавселенной
- Генеративный ИИ в корпоративном секторе: раскрытие потенциала и преодоление препятствий
- Парадигменный сдвиг в ИИ: под капотом больших моделей языка
- Внедрение надежного генеративного ИИ