Интерпретируемый искусственный интеллект с помощью SHAP
ИИ с SHAP
Аргументы в пользу интерпретируемого искусственного интеллекта
Мы живем в эпоху искусственного интеллекта. Он окружает нас повсюду, и СМИ не позволяют нам забыть о его влиянии на мир, каким мы его знаем. В связи с растущей популярностью искусственного интеллекта и его применений все больше людей осознают роль, которую машинное обучение играет в повседневной жизни — от систем рекомендаций до прогнозов и генеративного искусственного интеллекта.
С повышенной чувствительностью общественности к всему, что связано с искусственным интеллектом, становится все более важным для ученых-данных и инженеров уметь интерпретировать, когда это уместно, почему их модели делают определенные прогнозы и принимают решения. Обычно хорошая модель может взять проблему и объяснить, что скорее всего будет наблюдаться в будущем. Однако это решает только часть реальной проблемы:
«Модель также должна объяснить, как она пришла к прогнозу («почему»), поскольку правильный прогноз только частично решает вашу исходную проблему». — Кристоф Мольнар, Интерпретируемое машинное обучение
Вышеприведенная цитата подчеркивает необходимость рассмотрения процесса, который модель использует для своих прогнозов. Существует множество методов объяснения модели, но я сосредоточусь на методе, который стал все более популярным благодаря своей эффективности и простоте.
- Лучшие бесплатные курсы по искусственному интеллекту, чтобы обеспечить будущую профессиональную успешность.
- Переход генеративного искусственного интеллекта от GPT-3.5 к путешествию GPT-4
- Обработка исключений и ошибок в Python
SHAP (SHapley Additive exPlanations)
SHAP – это применение значения Шепли — хорошо проверенного концепта из теории кооперативных игр, который измеряет индивидуальный вклад каждого игрока в результат игры. Например, если 4 друга играют в кооперативную игру вместе, с помощью значений Шепли можно рассчитать, насколько каждый друг внес вклад в результат игры.
Когда речь идет о интерпретируемом машинном обучении, SHAP рассматривает игроков в игре как отдельные признаки в модели, а результат игры как прогнозы модели. Таким образом, SHAP измеряет, как каждый признак в модели влияет на отдельный прогноз.
Подробности
Значения Шепли рассчитываются путем моделирования игры, в которой отсутствуют некоторые игроки, а некоторые присутствуют. Путем моделирования различных игр с разными группами игроков и расчета результатов модель может…