Три пути, которыми генеративный искусственный интеллект может усилить кибербезопасность

Три способа, которыми генеративный искусственный интеллект может усилить кибербезопасность

Аналитики уже не могут эффективно защищаться от все более быстрых и сложных кибератак. Объем данных слишком велик, чтобы ручками проверять их все.

Генеративный ИИ, самый трансформирующий инструмент нашего времени, позволяет использовать цифровой джиу-джитсу. Он позволяет компаниям превратить силу данных, которые угрожают переполнить их системы, в силу, которая укрепляет их защиту.

Представители бизнеса готовы использовать эту возможность. В недавнем опросе генеральных директоров они назвали кибербезопасность одной из трех самых важных проблем и считают генеративный ИИ ключевой технологией, способной дать конкурентное преимущество.

Генеративный ИИ представляет собой и риски, и выгоды. В предыдущей статье были описаны шесть шагов для начала процесса обеспечения безопасности корпоративного ИИ.

Вот три способа, которыми генеративный ИИ может укрепить кибербезопасность.

Начните с разработчиков

Во-первых, предоставьте разработчикам помощника в области безопасности.

Каждый должен играть свою роль в обеспечении безопасности, но не все являются экспертами в этой области. Именно поэтому это одно из стратегически важных начальных мест.

Лучшее место для начала укрепления безопасности – это фронт-энд, где разработчики пишут код. Искусственный интеллект, обученный как специалист по безопасности, может помочь им убедиться, что их код соответствует лучшим практикам в области безопасности.

Софт-помощник на основе искусственного интеллекта может становиться все умнее каждый день, если ему подаются заранее рассмотренные коды. Он может учиться на основе предыдущей работы, чтобы помогать разработчикам с лучшими практиками.

Чтобы дать пользователям возможность продвинуться вперед, NVIDIA создает рабочую среду для создания таких помощников или чат-ботов. В этом конкретном процессе используются компоненты из NVIDIA NeMo, инструмента для создания и настройки больших языковых моделей.

Безопасный помощник только первый шаг в применении генеративного ИИ в кибербезопасности, пользователи могут создавать свои собственные модели или использовать коммерческие службы.

Анализ уязвимостей с помощью агента

Во-вторых, давайте генеративному ИИ помочь найти путь в огромном море известных уязвимостей программного обеспечения.

В любой момент компании приходится выбирать среди тысяч патчей для устранения известных уязвимостей. Это связано с тем, что каждый кусочек кода может иметь связи с десятками, если не тысячами различных программных ветвей и проектов с открытым исходным кодом.

Специально обученная модель, зафокусированная на анализе уязвимостей, может помочь определить, какие патчи следует внедрить в первую очередь. Это мощный помощник в области безопасности, поскольку он анализирует все библиотеки программного обеспечения, которые использует компания, а также ее политики в отношении функций и API.

Чтобы протестировать эту концепцию, NVIDIA создала конвейер для анализа программных контейнеров на предмет наличия уязвимостей. Агент с высокой точностью определяет области, которые нуждаются в патчах, ускоряя работу аналитиков в четыре раза.

Вывод ясен. Пришло время использовать генеративный ИИ в качестве первого реагента в анализе уязвимостей.

Заполните пробелы в данных

Наконец, используйте LLM для заполнения растущего пробела в данных для кибербезопасности.

Пользователи редко делятся информацией о нарушениях данных, потому что они очень важны. Это затрудняет прогнозирование атак.

Вот где появляются LLM. Модели генеративного ИИ могут создавать синтетические данные, чтобы имитировать нападения с ранее неизвестными шаблонами. Такие синтетические данные могут также заполнять пробелы в обучающих данных, чтобы системы машинного обучения учились защищаться от атак до их реализации.

Безопасные симуляции

Не ждите, пока злоумышленники продемонстрируют, что возможно. Создавайте безопасные симуляции, чтобы узнать, как они могут попытаться проникнуть в корпоративную защиту.

Такая превентивная защита является фундаментом надежной программы безопасности. Злоумышленники уже используют генеративный ИИ в своих атаках. Пришло время для пользователей использовать эту мощную технологию для кибербезопасности.

Чтобы показать, что возможно, другой рабочий процесс AI использует генеративное искусственное интеллекта для защиты от атак “с копьями” — тщательно направленных фальшивых электронных писем, которые только в 2021 году обошли компании в оценочную сумму $2.4 миллиарда.

Этот рабочий процесс генерировал синтетические электронные письма, чтобы убедиться, что у него есть достаточно хороших примеров “фальшивых” писем. Модель искусственного интеллекта, обученная на этих данных, научилась понимать намерения входящих электронных писем через возможности обработки естественного языка в NVIDIA Morpheus, фреймворке для кибербезопасности на базе искусственного интеллекта.

Получившаяся модель поймала на 21% больше атак “с копьями” по сравнению с существующими инструментами. Посмотрите наш блог разработчика или посмотрите видео ниже, чтобы узнать больше.

Где бы ни начали пользователи этот рабочий процесс, автоматизация является крайне важной, учитывая нехватку специалистов в области кибербезопасности и тысячи пользователей и случаев использования, которые компании должны защищать.

Эти три инструмента — программные помощники, виртуальные аналитики уязвимостей и синтетические симуляции данных — являются отличными отправными точками для применения генеративного искусственного интеллекта в процессе безопасности, который продолжается каждый день.

Но это только начало. Компании должны интегрировать генеративный искусственный интеллект во все уровни своей защиты.

Посетите вебинар для получения более подробной информации о том, как начать.