В этом обзоре исследуется интеграция спутниковых изображений и глубокого обучения для измерения бедности, основанной на активах.

Исследование интеграции спутниковых изображений и глубокого обучения для измерения активов, связанных с бедностью.

Исследователи из Лундского университета и Университета Халмстад провели обзор работы по объяснению искусственного интеллекта (ИИ) в оценке бедности через спутниковые изображения и глубокое машинное обучение. Анализ 32 статей показал, что ключевые элементы объяснительного машинного обучения – прозрачность, интерпретируемость и знание предметной области – имеют вариативность и не полностью удовлетворяют потребности в научных исследованиях бедности и благосостояния.

Исследование обнаружило вариативность состояния этих основных элементов, анализируя 32 статьи, предсказывающие бедность/благосостояние на основе данных, собранных в опросах, применяя их к городским и сельским населенным пунктам и используя глубокие нейронные сети. Подчеркивается, что текущее состояние не соответствует научным требованиям для получения новых знаний о бедности и благосостоянии. Обзор подчеркивает важность объяснимости для более широкого распространения и принятия в развивающемся сообществе.

Введение рассматривает проблемы идентификации уязвимых сообществ и понимания факторов, влияющих на бедность, указывая на информационные пробелы и ограничения предметных опросов. Оно подчеркивает потенциал глубокого машинного обучения и спутниковых изображений в преодолении этих проблем и отмечает необходимость в объяснимости, прозрачности, интерпретируемости и знании предметной области в научном процессе, оценивая состояние объяснительного машинного обучения в предсказании бедности/благосостояния на основе данных опросов, спутниковых изображений и глубоких нейронных сетей. Цель состоит в улучшении более широкого распространения и принятия в развивающемся сообществе.

В ходе интегративного обзора литературы исследование анализирует 32 исследования, соответствующие определенным критериям в предсказании бедности, данных опросов, спутниковых изображений и глубоких нейронных сетей. Обсуждается использование карт атрибуций в объяснении моделей глубинного обучения и оцениваются свойства модели для интерпретируемости. Обзор направлен на предоставление обзора объяснимости в рассмотренных статьях и оценку их потенциального вклада в новые знания в предсказании бедности.

Обзор статей показывает разный статус основных элементов объяснимого машинного обучения – прозрачности, интерпретируемости и знания предметной области, не соответствующий научным требованиям. Интерпретируемость и объяснимость слабы, с ограниченными усилиями по интерпретации моделей или объяснению предсказательных данных. Знание предметной области широко используется в моделях на основе признаков для выбора, но меньше применяется в других аспектах. Экспериментальные результаты показывают выводы, такие как моделирование ограничений показателей благосостояния и влияния спутниковых изображений низкого разрешения. Одна статья выделяется своей сильной гипотезой и положительной оценкой знания предметной области.

В области бедности, машинного обучения и спутниковых изображений статус прозрачности, интерпретируемости и знания предметной области в объяснимых подходах к машинному обучению различен и не соответствует научным требованиям. Объяснимость, важная для более широкого распространения в развивающемся сообществе, превосходит простую интерпретируемость. Прозрачность в рассматриваемых статьях является смешанной, с некоторыми хорошо задокументированными и другими не имеющими возможности воспроизведения. Проблемы с интерпретируемостью и объяснимостью продолжаются, поскольку немногие исследователи интерпретируют модели или объясняют предсказательные данные. В то время как знание предметной области широко используется в моделях на основе признаков для выбора, оно мало применяется в других аспектах моделирования. Сортировка и ранжирование факторов влияния являются важными направлениями для будущих исследований.