Эти новые инструменты могут сделать системы искусственного интеллекта для компьютерного зрения менее предвзятыми
Революционные инструменты сделайте системы компьютерного зрения искусственного интеллекта менее предвзятыми

Системы компьютерного зрения повсюду. Они помогают классифицировать и помечать изображения в социальных медиа, обнаруживать объекты и лица на фотографиях и видео, а также выделять значимые элементы изображения. Однако они переполнены предубеждениями , и они менее точны, когда на изображениях показаны черные или коричневые люди и женщины . И есть еще одна проблема: текущие способы обнаружения предубеждений в этих системах сами предубедительны, сортируя людей на широкие категории, не учитывающие сложность, присущую человеческому бытию.
Два новых доклада исследователей из Sony и Meta предлагают способы измерения предубеждений в системах компьютерного зрения так, чтобы полнее охватить богатое разнообразие человечества. Оба доклада будут представлены на конференции ICCV по компьютерному зрению в октябре. Разработчики могут использовать эти инструменты для проверки разнообразия своих наборов данных, помогая создавать более качественные и разнообразные обучающие данные для искусственного интеллекта. Инструменты также могут использоваться для измерения разнообразия в человеческих изображениях, созданных генеративным искусственным интеллектом.
Традиционно предубеждение по оттенку кожи в системах компьютерного зрения измеряется с помощью шкалы Фицпатрика, которая измеряет от светлого до темного. Шкала была изначально разработана для измерения загара белой кожи, но с тех пор широко применяется как инструмент для определения этнической принадлежности, говорит Уильям Тонг, исследователь этики искусственного интеллекта в Sony. Она используется для оценки предубеждений в компьютерных системах путем, например, сравнения точности моделей искусственного интеллекта у людей светлой и темной кожи.
Однако описывать цвет кожи людей с помощью одномерной шкалы – это вводящее в заблуждение, говорит Алиса Сян, глава отдела этики искусственного интеллекта в Sony. Классифицируя людей по группам на основе этой грубой шкалы, исследователи упускают из виду предубеждения, которые влияют, например, на азиатских людей, которые недостаточно представлены в западных наборах данных и могут относиться как к светлокожим, так и к темнокожим категориям. И это также не учитывает тот факт, что оттенок кожи людей изменяется. Например, азиатская кожа становится темнее и более желтой с возрастом, в то время как белая кожа становится темнее и краснее, указывают исследователи.
- Создание приложений искусственного интеллекта с помощью Java и Gradle
- Зарплата инженера по машинному обучению в США
- Инновационная компания по искусственному интеллекту Luda представляет революционную систему обучения с подкреплением в реальном времени.
Источник: MIT Technology Review Полная статья