Экспертные знания по разработке безопасных, защищенных и надежных фреймворков искусственного интеллекта.

Экспертные знания по созданию безопасных, надежных и защищенных фреймворков искусственного интеллекта

Авторы: доктор Чарльз Вардеман, доктор Крист Сьюит и доктор Пол Бреннер

В соответствии с недавним распоряжением Президента Байдена о безопасном, надежном и доверенном искусственном интеллекте (ИИ), мы делимся нашими уроками, извлеченными из двухлетнего исследования наших проектов. Эта инициатива в области искусственного интеллекта, проиллюстрированная на рисунке ниже, фокусируется на внедрении ИИ, отвечающего строгим этическим и производственным стандартам. Она соответствует растущей тенденции в индустрии к прозрачности и ответственности в системах искусственного интеллекта, особенно в чувствительных областях, таких как национальная безопасность. В этой статье рассматривается переход от традиционной разработки программного обеспечения к подходам искусственного интеллекта, где надежность является главным фактором доверия.

 

Применение размерностей TAI в технологическом конвейере машинного обучения и разработке ИИ

 

 

Переход от разработки программного обеспечения к разработке ИИ

 

Переход от “программного обеспечения 1.0 к 2.0 и представлений 3.0″ требует надежной инфраструктуры, которая не только концептуализирует, но и практически обеспечивает доверие к ИИ. Модуль ML, показанный на рисунке ниже, даже в простейшем виде, демонстрирует значительную сложность, которую необходимо понимать для решения вопросов доверия на каждом уровне. Наша подпрограмма TAI Frameworks решает эту проблему, предлагая точку интеграции для программного обеспечения и передовых практик, разработанных на основе исследований в области TAI. Подобные фреймворки снижают барьеры для применения TAI. Автоматизация настройки позволяет разработчикам и принимающим решения сосредоточить свои усилия на инновациях и стратегии, а не бороться с начальными сложностями. Это обеспечивает, чтобы доверие было неотъемлемой частью процесса, и каждая фаза, от управления данными до развертывания модели, соответствовала этическим и операционным стандартам. В результате создается упрощенный путь к применению ИИ-систем, которые не только технически продвинуты, но также этически оправданы и стратегически надежны для сложных условий использования. Программа TAI Frameworks опрашивает и использует существующие программные инструменты и передовые практики, которые имеют свои собственные сообщества, основанные на открытом источнике, и могут быть непосредственно использованы в текущих операционных средах.

 

Примеры компонентов и эксплуатаций фреймворка искусственного интеллекта

 

 

GitOps и CI/CD

 

GitOps стал неотъемлемой частью инженерии искусственного интеллекта, особенно в рамках TAI. Он представляет собой эволюцию в управлении разработкой программного обеспечения и операционными рабочими процессами, предлагая декларативный подход к управлению инфраструктурой и жизненным циклом приложений. Этот метод является ключевым для обеспечения непрерывного качества и включения этической ответственности в системы искусственного интеллекта. Проект TAI Frameworks использует GitOps в качестве основного компонента для автоматизации и упрощения процесса разработки от написания кода до развертывания. Этот подход обеспечивает автоматическое соблюдение передовых практик в разработке программного обеспечения, позволяет иметь постоянный контроль над версиями и легкость отката. Он упрощает сложные процессы развертывания. Кроме того, GitOps способствует интеграции этических аспектов, предоставляя структуру, в которой этические проверки могут быть автоматизированы как часть технологического конвейера CI/CD. Применение CI/CD в разработке искусственного интеллекта работает не только на поддержание качества кода, но и на обеспечение надежности, безопасности и ожидаемой производительности ИИ-систем. TAI способствует автоматическому тестированию протоколов, которые решают уникальные задачи, связанные с искусственным интеллектом, особенно в эпоху генеративного ИИ и систем, основанных на подсказках. Проверка больше не ограничивается статическим анализом кода и модульными тестами. Она распространяется на динамическую проверку поведения ИИ, охватывая результаты генеративных моделей и эффективность подсказок. Автоматизированные наборы тестов должны оценивать не только точность ответов, но также их актуальность и безопасность.

 

Данные – средоточие и задокументированные

В стремлении к TAI фундаментальным подходом является центрирование на данных, поскольку оно приоритетизирует качество и ясность данных перед сложностями алгоритмов, тем самым устанавливая доверие и интерпретируемость с нуля. В данной рамке доступен ряд инструментов для поддержания целостности и трассируемости данных. dvc (контроль версий данных) особенно ценится за совместимость с GitOps фреймворком, расширяя Git для управления данными и экспериментами (см. альтернативы здесь). Он обеспечивает точный контроль версий для наборов данных и моделей, аналогично тому, как Git это делает для кода, что является важным условием для эффективных практик CI/CD. Это обеспечивает постоянное питание AI-систем актуальными и поддающимися проверке данными, что является предпосылкой для доверительного отношения к AI. Мы используем nbdev, который дополняет dvc, превращая блокноты Jupyter в средство для литературного программирования и исследовательского программирования, упрощая переход от исследовательского анализа к хорошо документированному коду. Природа разработки программного обеспечения эволюционирует в этом стиле “программирования” и только ускоряется эволюцией “со-пилотов” AI, которые помогают в документировании и построении приложений AI. Software Bill of Materials (SBoMs) и AI BoMs, поддерживаемые открытыми стандартами, такими как SPDX, являются неотъемлемой частью этой экосистемы. Они служат в качестве подробных записей, дополняющих dvc и nbdev, описывающих происхождение, состав и соответствие моделям AI. SBoMs предоставляют полный список компонентов, гарантируя учет и проверку каждого элемента AI-системы. AI BoMs расширяют эту концепцию, чтобы включить источники данных и процессы преобразования, предлагая уровень прозрачности для моделей и данных в приложениях AI. Вместе они формируют полную картину происхождения AI-системы, способствуя доверию и обеспечивая понимание среди заинтересованных сторон.

Необходимость TAI

Этические и фокусирующиеся на данных подходы являются фундаментальными для TAI, обеспечивая эффективность и надежность AI-систем. Наш проект по TAI-фреймворкам использует такие инструменты, как dvc для версионирования данных и nbdev для литературного программирования, отражая сдвиг в программной инженерии, который учитывает особенности AI. Эти инструменты являются символом более общей тенденции к интеграции качества данных, прозрачности и этических аспектов уже на начальном этапе разработки AI. Как в гражданском, так и в военном секторах, принципы TAI остаются неизменными: система надежна только насколько надежны данные, на которых она построена, и этический фреймворк, к которому она придерживается. С ростом сложности AI растет и потребность в надежных фреймворках, которые могут обеспечить эту сложность прозрачно и этично. Будущее AI, особенно в миссионно-критических приложениях, будет зависеть от принятия данных-центрических и этических подходов, укрепляющих доверие к AI-системам во всех областях.

Об авторах

Чарльз Вардеман, Крист Суит и Пол Бреннер являются научными сотрудниками Центра исследовательских вычислений Университета Нотр-Дам. Они имеют десятилетия опыта в разработке научного программного обеспечения и алгоритмов с акцентом на прикладные исследования для переноса технологий в операционную деятельность продуктов. У них имеется множество научных статей, патентов и финансируемых исследовательских проектов в области науки о данных и киберинфраструктуры. Здесь можно найти недельные TAI-подсказки, связанные с проектами студентов.

[Др. Чарльз Вардеман](https://www.linkedin.com/in/charles-vardeman-7897759) является научным сотрудником Центра исследовательских вычислений Университета Нотр-Дам.