Следующий шаг – это ответственный искусственный интеллект. Как мы туда попадем?

Следующий шаг - ответственный ИИ. Как добраться?

Машинное обучение занимает важное место в нашей жизни. Это уже не только о производительности, но и о ответственности.

Фото от Jude Infantini на Unsplash

В последние десятилетия многие проекты искусственного интеллекта сосредоточены на эффективности и производительности моделей. Результаты документируются в научных статьях, а самые производительные модели развертываются в организациях. Теперь пришло время внести еще одну важную составляющую в наши системы искусственного интеллекта – ответственность. Алгоритмы здесь, чтобы остаться, и в настоящее время они доступны для каждого благодаря таким инструментам, как chatGPT, co-pilot и prompt engineering. Теперь наступает более сложная часть, которая включает моральные консультации, обеспечение осмотрительной комиссии и информирование заинтересованных сторон. Вместе эти практики способствуют ответственному и этичному ландшафту искусственного интеллекта. В этом блог-посте я опишу, что означает ответственность в проектах искусственного интеллекта и как включить ее в проекты, используя 6 практических шагов.

Краткое введение в ответственный искусственный интеллект.

Прежде чем я углублюсь в ответственный искусственный интеллект (rAI), позвольте мне сначала обрисовать некоторые важные шаги, которые предпринимаются в области науки о данных. В предыдущем блоге я писал о том, что нужно изучать в области науки о данных [1] и о том, что продукты науки о данных могут увеличить доход, оптимизировать процессы и снизить (производственные) затраты. В настоящее время многие развернутые модели оптимизированы с точки зрения производительности и эффективности. Другими словами, модели должны иметь высокую точность прогнозирования и низкие вычислительные затраты. Но более высокая производительность модели обычно приводит к тому, что сложность модели постепенно увеличивается. Некоторые модели превращаются в так называемые “черные ящики”. Примеры можно найти в области распознавания изображений и текстового анализа, где нейронные сети обучаются на сотнях миллионов параметров с использованием определенной архитектуры модели. Становится трудно или даже невозможно понять, почему такие модели принимают определенные решения. Еще один пример – в финансах, где многие основные процессы выполняются с помощью алгоритмов, и решения принимаются ежедневно машинами. Самое важное, чтобы такие решения, принимаемые машинами, могли быть проверены и переоценены человеческими руками, когда это необходимо.