Простые модели продвинутого снижения размерности
Легкие модели для продвинутого снижения размерности
Изучите, как эффективно применять передовые методы уменьшения размерности и повышать эффективность ваших моделей машинного обучения.
![Источник изображения: unsplash.com.](https://ai.miximages.com/miro.medium.com/v2/resize:fit:640/format:webp/1*M6hcQOs5qwHhwEBZlBxqKA.png)
При работе с задачами машинного обучения, вы когда-нибудь чувствовали, что вас ошеломляет огромное количество признаков?
Большинство специалистов по обработке данных ежедневно сталкиваются с этим сложным испытанием. Хотя добавление признаков обогащает данные, оно часто замедляет процесс обучения и делает сложнее обнаружить скрытые закономерности, что приводит к (известному) проклятию размерности.
Кроме того, в пространствах высокой размерности происходят удивительные явления. Чтобы проиллюстрировать это понятие аналогией, представьте роман “Плоскомир”, где персонажи, живущие в плоском (двумерном) мире, ошеломляются, когда сталкиваются с трехмерным существом. Так же и мы испытываем трудности в понимании того, что в пространствах высокой размерности большинство точек являются выбросами, а расстояния между точками обычно больше, чем ожидается. Все эти явления, если не обрабатываются правильно, могут иметь катастрофические последствия для наших моделей машинного обучения.
![Изображение автора](https://ai.miximages.com/miro.medium.com/v2/resize:fit:640/format:webp/1*48Mp6kwgo4_K6w8FpEDIfQ.png)
В этой публикации я объясню некоторые продвинутые техники уменьшения размерности, используемые для решения этой проблемы.
- Восстановление знаний на первом месте
- Исследование чат-бота для отчётов о гуманитарных катастрофах — с использованием GPT-4-Turbo и полного контекстного активации.
- Создание пользовательского GPT уроки и советы
В моей предыдущей публикации я рассказал о значимости уменьшения размерности в задачах машинного обучения, и о том, как побороть проклятие размерности, а также объяснил как теорию, так и реализацию алгоритма главных компонент в Scikit-Learn.
В этом продолжении я рассмотрю дополнительные алгоритмы уменьшения размерности, такие как kPCA или LLE, которые преодолевают ограничения PCA.
Не беспокойтесь, если вы еще не читали введение в уменьшение размерности. Эта публикация является самостоятельным руководством, так как я разберу каждое понятие простыми словами. Однако, если вам интересно узнать больше о PCA, я уверен, что это руководство поможет вам достичь вашей цели: