Обещание и опасность генеративного ИИ для кибербезопасности

Обещание и опасность генеративного ИИ в кибербезопасности.

На недавней панельной дискуссии на конференции Black Hat 2023 под названием “Генеративное искусственное интеллект: друг или враг безопасности?” были представлены идеи о том, как генеративные модели искусственного интеллекта, такие как ChatGPT, могут повлиять на команды безопасности. Келли Джексон, главный редактор Dark Reading, выступила в роли модератора круглого стола, в котором приняли участие лидеры в области кибербезопасности Джош Зелонис из Palo Alto Networks, Фред Квонг из Университета Деври и аналитик Курт Франклин из Omdia. Быстрое развитие генеративного искусственного интеллекта предоставляет как возможности, так и риски для профессионалов в области безопасности.

С позитивной стороны, генеративные модели могут помочь автоматизировать рутинные задачи и повысить эффективность работы аналитиков безопасности. Как объяснил Зелонис, искусственный интеллект является неотъемлемым компонентом для отклика в условиях роста сложности окружающей среды. Квонг отметил преимущества для исследования угроз и образования – искусственный интеллект может быстро суммировать большие объемы данных для ускорения развития навыков. Франклин предостерег, что узкофокусированный “экспертный” искусственный интеллект в настоящее время более реалистичен, чем общая интеллектуальность.

Создание естественноязыковых запросов и отчетов было названо ключевым применением. Это может помочь аналитикам формулировать вопросы однородно, чтобы получать надежные ответы. Но, как отметил Франклин, для создания эффективных инструментов запросов искусству инженеров запросов потребуются навыки. Квонг также указал на потенциал автоматизации рутинных задач SOC, таких как сбор основных журналов действий.

Панелисты согласились, что генеративный искусственный интеллект может усилить возможности человека, но не заменить команды безопасности полностью. Квонг подчеркнул важность обучения сотрудников правильному и этичному использованию искусственного интеллекта. Организациям потребуются политики и управление для искусственного интеллекта, как и для любой другой технологической возможности.

С точки зрения рисков, панель подчеркнула увеличивающуюся сложность инженерии социального взаимодействия и кампаний по рассылке фишинговых писем. Атакующие могут создавать высокоубедительный специально настроенный контент фишинговых писем. Квонг отметил, что киберпреступники создают синтетическое аудио с клонированными голосами из общедоступных записей для запуска вишинг-мошенничества.

Зелонис пояснил, что генеративные модели предоставляют атакующим больше возможностей, но основные аспекты безопасности, такие как нулевое доверие, остаются неотъемлемыми. Существуют также потенциальные риски внутренних угроз, связанных с оружием на основе искусственного интеллекта или неправильным использованием доступа к конфиденциальным данным обучения. Квонг рекомендовал командам безопасности спрашивать у поставщиков о том, как используются данные клиентов для обучения моделей искусственного интеллекта.

Другие вызовы включают “гиперболу против реальности” искусственного интеллекта в продуктах безопасности. Как указал Зелонис, организациям необходимо оценить, когда еще рано принимать новые технологии на борт, а когда они могут добавить стратегическую ценность. Прозрачность и этичность коммерческих предложений по искусственному интеллекту также требуют внимательного изучения.

В целом, панель подчеркнула, что искусственный интеллект уже здесь, и команды безопасности должны его принять. С сильным управлением данными, контролем обучения и фокусом на использовании с учетом человека, генеративный искусственный интеллект может улучшить обнаружение угроз и продуктивность аналитиков. Однако риски, такие как подделка голоса и глубокие фейки, требуют постоянного обучения. Политики безопасности искусственного интеллекта нуждаются в постоянной адаптации. Хотя это не волшебная пуля, рассудительное принятие искусственного интеллекта может окупиться. Однако технология приносит новые угрозы, на которые руководители безопасности должны быть готовы.

Основные выводы

Вот основные выводы из обсуждения безопасности генеративного искусственного интеллекта:

  • Генеративный искусственный интеллект может автоматизировать рутинные задачи аналитиков, делая команды безопасности более эффективными и отзывчивыми.
  • Естественная генерация языка для запросов и отчетов является перспективным приложением в ближайшей перспективе, если она внедряется осознанно.
  • Однако искусственный интеллект не является волшебным решением – он дополняет возможности человека, но не заменяет специалистов по безопасности.
  • Сильное управление данными, надзор за обучением и политики являются ключевыми при развертывании инструментов искусственного интеллекта.
  • Образование в области этичного использования искусственного интеллекта является критическим, как и прозрачность со стороны поставщиков.
  • Использование синтезированного контента и голосов социальной инженерии представляет собой вновь возникающую угрозу генеративного искусственного интеллекта.
  • Организации должны оценивать гиперболу против реальности при выборе продуктов безопасности на основе искусственного интеллекта и интегрировать только те возможности, которые добавляют стратегическую ценность.
  • Основы, такие как нулевое доверие и обучение безопасности, остаются неотъемлемыми, несмотря на прогресс в области искусственного интеллекта.
  • Риски, такие как внутренние угрозы и злоупотребление данными обучения, требуют контроля и мер по смягчению для систем искусственного интеллекта.
  • Генеративный искусственный интеллект приносит как преимущества, так и новые угрозы – измеренный, обдуманный подход является ключом к максимизации выгод при минимизации рисков.

В заключение, панель подчеркнула потенциал генеративного искусственного интеллекта для обеспечения безопасности, но подчеркнула, что ответственное принятие, обучение и сообразное внедрение будут критически важны для получения ценности и избегания проблем.