«Искусственный интеллект предвзятость и культурные стереотипы эффекты, ограничения и смягчение»

«Искусственный интеллект эффекты, ограничения и смягчение предвзятости и культурных стереотипов»

Искусственный интеллект (ИИ), особенно Генеративный ИИ, продолжает превосходить ожидания своей способностью понимать и имитировать человеческую мыслительную деятельность и интеллект. Однако во многих случаях результаты или прогнозы систем ИИ могут отражать различные типы искажений, связанных с ИИ, таких как культурные и расовые.

Блог “Барби со всего мира” от Buzzfeed (который теперь удален) ясно проявляет эти культурные искажения и неточности. Эти “барби” были созданы с использованием ведущего генератора изображений на основе ИИ под названием Midjourney, чтобы узнать, какими будут “барби” в разных частях мира. Об этом мы поговорим позже.

Но это не первый случай, когда системы ИИ “рацистские” или производят неточные результаты. Например, в 2022 году Apple была подана в суд по обвинению в том, что датчик крови Apple Watch был предвзят по отношению к людям цвета кожи. В другом случае, пользователи Twitter обнаружили, что автоматическая система обрезки изображений в Twitter предпочитала лица белых людей перед чернокожими и женщин перед мужчинами. Это серьезные вызовы, и их решение сложно.

В этой статье мы рассмотрим, что такое искажение ИИ, как оно влияет на наше общество, и кратко обсудим, как практики могут смягчить его для борьбы со стереотипами культуры.

Что такое искажение ИИ?

Искажение ИИ происходит, когда модели ИИ производят дискриминационные результаты по отношению к определенным группам населения. В системы ИИ могут попадать различные типы искажений, которые приводят к неправильным результатам. Некоторые из этих искажений ИИ:

  • Стереотипное искажение: Стереотипное искажение относится к явлению, когда результаты модели ИИ отражают стереотипы или представления о определенной группе населения.
  • Расовое искажение: Расовое искажение в ИИ происходит, когда результат модели ИИ является дискриминационным и бесчестным по отношению к человеку или группе на основе их этнической принадлежности или расы.
  • Культурное искажение: Культурное искажение возникает, когда результаты модели ИИ отдают предпочтение определенной культуре перед другой.

Помимо искажений, другие проблемы также могут препятствовать результатам системы ИИ, такие как:

  • Неточности: Неточности возникают, когда результаты, производимые моделью ИИ, неправильны из-за несогласованности тренировочных данных.
  • Галлюцинации: Галлюцинации возникают, когда модели ИИ производят вымышленные и ложные результаты, не основанные на фактических данных.

Влияние искажения ИИ на общество

Влияние искажения ИИ на общество может быть негативным. Искаженные системы ИИ могут производить неточные результаты, которые усиливают уже существующее предубеждение в обществе. Эти результаты могут увеличивать дискриминацию и нарушение прав, влиять на процессы найма и снижать доверие к технологии ИИ.

Кроме того, искаженные результаты ИИ часто приводят к неточным прогнозам, которые могут иметь серьезные последствия для невинных людей. Например, в августе 2020 года Роберт МакДэниэл стал жертвой преступного акта из-за алгоритма прогнозирования полиции Чикаго, который пометил его как “подозреваемого”.

Аналогично, искаженные системы здравоохранения на основе ИИ могут иметь острые последствия для пациентов. В 2019 году журнал Science обнаружил, что широко используемый медицинский алгоритм США имел расовое искажение в отношении людей цвета кожи, что привело к недостаточному оказанию высокорискового медицинского ухода черным пациентам.

Барби со всего мира

В июле 2023 года Buzzfeed опубликовал блог, включающий 194 барби, созданных с использованием ИИ со всего мира. Пост стал вирусным в Twitter. Несмотря на то, что Buzzfeed написал отказное заявление, пользователи продолжали указывать на расовые и культурные неточности. Например, ИИ-сгенерированное изображение немецкой барби было одето в форму генерала SS Нацистов.

Barbies of the World-image5

Аналогично, AI-сгенерированное изображение Barbie из Южного Судана показывает, как она держит пистолет у бока, что является отражением глубоко закоренелых предвзятостей в алгоритмах AI.

Barbies of the World-image4

Кроме этого, несколько других изображений показывают культурные неточности, например, барби из Катара, которая носит Гутру, традиционную головную повязку арабских мужчин.

Barbies of the World-image3

За этот блоговый пост последовала массовая критика за культурные стереотипы и предубежденность. London Interdisciplinary School (LIS) назвала это “вредом представительности”, который должен быть контролируемым с помощью установления качественных стандартов и учреждения надзорных органов над AI.

Ограничения моделей искусственного интеллекта

ИИ имеет потенциал революционизировать многие отрасли. Но если подобные сценарии, упомянутые выше, будут только распространяться, это может привести к снижению общей принятия ИИ и пропущенным возможностям. Такие случаи обычно возникают из-за значительных ограничений в ИИ системах, таких как:

  • Отсутствие креативности: Поскольку ИИ может принимать решения только на основе имеющихся данных обучения, у него отсутствует креативность, чтобы думать нестандартным образом, что затрудняет творческое решение проблем.
  • Отсутствие контекстного понимания: Системы ИИ испытывают трудности в понимании контекстуальных нюансов или языковых выражений региона, что часто приводит к ошибкам в результатах.
  • Предвзятость в обучении: ИИ опирается на исторические данные, которые могут содержать различные дискриминационные примеры. Во время обучения модель может легко выучить дискриминирующие паттерны, в результате чего будут получены несправедливые и предвзятые результаты.

Как уменьшить предвзятость в моделях искусственного интеллекта

Эксперты предполагают, что к 2026 году 90% интернет-контента может быть синтетически создано. Поэтому крайне важно быстро устранять проблемы, присутствующие в ИИ технологиях генерации.

Для снижения предвзятости в моделях ИИ могут быть использованы несколько ключевых стратегий. Некоторые из них:

  • Обеспечение качества данных: Использование полных, точных и чистых данных в модели ИИ может помочь снизить предвзятость и получить более точные результаты.
  • Разнообразные наборы данных: Введение разнообразных наборов данных в систему ИИ может помочь снизить предвзятость, поскольку система ИИ со временем становится более инклюзивной.
  • Увеличение регулирования: Глобальное регулирование ИИ является важным фактором для поддержания качества ИИ систем во всем мире. Поэтому международные организации должны работать вместе для обеспечения стандартизации ИИ.
  • Увеличение принятия ответственного ИИ: Стратегии ответственного ИИ положительно влияют на снижение предвзятости ИИ, развитие справедливости и точности в ИИ системах, а также обеспечение обслуживания разнообразной аудитории пользователей с постоянным стремлением к улучшению.

Путем использования разнообразных наборов данных, этической ответственности и открытого общения VoAGI (всеобъемлющих искусственных генеральных интеллектов), мы можем обеспечить, чтобы ИИ был источником позитивных изменений во всем мире.

Если вы хотите узнать больше о предвзятости и роли искусственного интеллекта в нашем обществе, прочтите следующие блоги.