Использование искусственного интеллекта для усиления возможностей людей в кибербезопасности
Улучшение возможностей кибербезопасности с помощью искусственного интеллекта
По мере того как искусственный интеллект продолжает быстро проникать в различные отрасли, сектор кибербезопасности исследует возможности использования ИИ для усиления защиты от все более сложных угроз.
На недавней конференции для пользователей Fal.Con23 исполнительная дирекция CrowdStrike рассказала о своем видении интеграции ИИ таким образом, чтобы он дополнял, а не замещал человеческую экспертизу.
Необходимость скорости в области безопасности
Одной из главных тем было использование ИИ для ускорения обнаружения и реагирования. С учетом того, что атаки, такие как рансомвар, сокращают время взлома до нескольких минут, сейчас скорость является самым важным показателем. Отдельные аналитики не могут успевать за угрозами, действующими со скоростью машин. Как указал вице-президент по мониторингу и реагированию на угрозы Остин Мерфи, “Мы видим, что время, которое противники тратят на взлом, сократилось с 118 минут в 2018 году до всего 7 минут в прошлом году.”
CrowdStrike стремится использовать облачный ИИ для обеспечения необходимой скорости в современных операциях по обеспечению безопасности. Однако было предостережение от полностью автоматизированной безопасности, учитывая сложность и постоянное развитие характера атак. ИИ может фильтровать помехи и выполнять повторяющиеся задачи, но для реагирования на новые угрозы все равно важны человеческий инсайт и интуиция. Как объясняет Мерфи, “ИИ позволяет младшим аналитикам работать на уровне старших аналитиков, выполняя базовую триаж – но для принятия решений все равно требуется креативность и интуиция человека.”
- Могут ли разработчики сократить затраты на программное обеспечение с помощью ИИ?
- Полное руководство по созданию AI-помощника для краткого изложения видео на YouTube — Часть 1
- Познакомьтесь с нашим новым ИИ-репетитором!
Эволюция тактик противников
Слушателям были приведены устрашающие примеры того, как генеративный ИИ может усилить социальную инженерию, которая остается одним из основных векторов атаки. Используя убедительные подлинные синтетические голоса и личности, хакеры могут масштабированно обманывать цели. Это демонстрирует двойственную природу ИИ – его демократизация создает новые риски.
Вице-президент по профессиональным услугам Джастин Вейссерт рассказал о том, как он сам видел эволюцию совершенствования тактик противников: “Вы могли на самом деле видеть, что отделение С пыталось вернуться, а потом вы видите, что чуть позже приходит новая группа, и вы видите, что они набирают команды, которые они вводят, и вы знаете, что они, чтобы поддерживать свое присутствие в данной среде. Теперь отходите в сторону и позвольте команде А-СВАТ приступить к действиям.”
Чтобы опережать противников, оснащенных ИИ, CrowdStrike улучшает платформы, такие как ассистент Шарлотта, включая разговорные интерфейсы. Это позволяет бесшовное сотрудничество между людьми и ИИ, при этом Шарлотта переводит запросы на естественном языке в машинно-исполняемые действия. Такое партнерство объединяет тонкость человеческой экспертизы со скоростью и масштабируемостью ИИ.
Человек в обратной связи
Переход к такому будущему был сравнен с переходом от языка ассемблера к современным компиляторам и интегрированным средам разработки. Это повышает уровень абстракции и позволяет аналитикам фокусироваться на общих стратегических задачах вместо рутиных анализов журналов. Однако было предостережение, что это эволюция, а не мгновенное преобразование – формирование ИИ требует лет тщательной курированной моделирования на основе качественных данных.
В плане контроля за работой, слушатели подчеркнули, что ИИ должен рассматриваться как область, требующая специализированных навыков. Пока не очень хорошо понимаются такие концепции, как санитарная обработка нейронной сети и контроль за злоупотреблением. Предлагается создание специализированных ролей, например, главного архитектора ИИ, чтобы обеспечить конфиденциальность и этичность. На это обращено внимание, аналогии с безопасным внедрением облачных технологий и теневых информационных технологий были проведены.
Разработчикам и архитекторам, желающим интегрировать ИИ, советуется начинать постепенно с малорисковых случаев использования и ограничивать доступ, пока не сформируются практики управления. Критически важна прозрачность в отношении поведения моделей и распространения данных, а также учет атакующих техник, таких как введение зараженных данных. ИИ открывает большие возможности, но должен быть введен обдуманно.
Общее мнение: ИИ не может полностью заменить человеческий суд в области кибербезопасности. Учитывая то, что угрозы адаптируются также быстро, как и защита от них, требуется сочетание человеческого творчества и машинной скорости. Но ИИ, внедренный осмысленно, может снизить нагрузку на перегруженных аналитиков, автоматизируя повторяющиеся задачи, что позволяет им сосредоточиться на стратегическом мышлении с высоким влиянием. Это партнерство является ключевым фактором в борьбе с все более автоматизированными атаками.
Как отметил вице-президент по охоте на угрозы в группе OverWatch Пархам Сингх, “Мы понимаем, что это уже не проблема вредоносного программного обеспечения. Это проблема противников. Противники фактически загружают свои вредоносные программы в VirusTotal, чтобы узнать, обнаруживают ли они их или нет. И они будут изменять код до тех пор, пока его не станет невозможно обнаружить, а затем использовать.”
Дальнейший путь
Участники панели подчеркнули необходимость начинать с основ безопасности, таких как патчи и многофакторная аутентификация, прежде чем охотиться за “новыми блестящими вещами” вроде искусственного интеллекта (ИИ). Как предостерегла Вейсерт, “нельзя контролировать то, чего не знаешь”. Необходимо иметь видимость активов и потоков данных.
Было рекомендовано постепенное продвижение – сначала автоматизировать повторяющиеся рабочие процессы при одновременном мониторинге на предмет злоупотреблений. Это позволяет направить специалистов на более ценные неизвестные угрозы. Как заявил Сингх, “замените себя на ИИ, чтобы вы могли больше сосредоточиться на неизвестных неизвестных”.
В конечном итоге, миссия CrowdStrike состоит в использовании технологии для укрепления защиты человека. С помощью надежной базы данных и фокуса на пользовательском опыте достигается цель – безтрения помощь ИИ. Это позволяет командам безопасности следовать за всё большим количеством автоматизированных атак.
Как заключил Мерфи, “не то чтобы мы не нуждались в аналитиках уровней 1 и 2. Просто мы теперь можем обучить их основам. Мы видим, что за счет ИИ аналитики могут повысить эффективность своего редкого времени, сосредоточившись только на креативной и стратегической работе, которую может выполнять только человек”.
Эволюция угрозов
Участники панели нарисовали тревожную картину эскалирующего киберугрозового ландшафта. Они отметили, что помимо ИИ, противники постоянно разрабатывают новые методы эксплуатации и тактики использования вымогательства. Как сказал Сингх: “Каждый день мы видим новые приемы, новые тактики, новые варианты цепей использования эксплоитов, которые мы еще не решали ранее. А это будет только усиливаться с использованием ИИ, так как злоумышленники также будут использовать его”.
Это подчеркивает необходимость непрерывного инновационного участия человека, поскольку ИИ сам по себе не может следить за творчеством атакующего. Защита должна использовать как возможности машинного обучения, так и человеческого опыта.
Интеграция человеческого понимания с машинной скоростью
Главным принципом является тесная интеграция человеческого опыта с масштабируемостью ИИ. Поскольку угрозы действуют со скоростью цифрового окружения, требуется ИИ, чтобы быстро фильтровать шум и реагировать. Однако для выявления новых угроз, упущенных моделями, по-прежнему необходимо человеческое мнение.
Вейсерт объясняет: “Обычно я полагаюсь на систему, которая говорит: ‘Это мы видели ранее. Мы остановим это’. Но если вы этого не видели, то не можете остановить. И я думаю, что это большая часть того, как мы пытаемся противостоять этим вещам”.
Сочетая человеческое творчество с машинной однородностью, организации могут достичь лучшего результата – персонализированного понимания и быстрой автоматизации.
Риски неправильного использования
Хотя ИИ позволяет достичь масштабируемой эффективности, он также создает риски. Участники панели предостерегли, что генеративные модели могут быть неправильно использованы для распространения дезинформации или предвзятых точек зрения, если их не контролировать должным образом.
Мерфи отметил: “Мы слышали истории от наших клиентов из руководства о возникновении проблем, потому что пользователи играли с этой великой технологией, но не осознавали, что отправляют интеллектуальную собственность третьей стороне”.
Это демонстрирует необходимость осмотрительного надзора перед внедрением ИИ, учитывая такие элементы, как защита данных, аутентификация пользователей, прозрачность и выявление предвзятости. Без этих мер предосторожности внедрение безопасности становится опасным.
Обучение следующего поколения
Для обучения будущего поколения специалистов по безопасности рекомендуется использовать ИИ безопасно и эффективно. Концепции прочности моделей, этики и алгоритмической предвзятости должны стать основными составляющими кибербезопасности.
Сингх предложил: “Мы можем использовать ИИ для сокращения времени адаптации. Тренировочные упражнения, которые мы проводили ранее, теперь могут использовать ИИ для сокращения времени адаптации в значительной степени”.
Специализированные навыки в области ИИ становятся все более обязательными, и программа, ориентированная на эти новые технологии, станет критической для защитников.
Консенсус состоит в том, что сочетание человеческого великолепия и машинной эффективности необходимо для борьбы с современными угрозами. При осознанной реализации ИИ-помощник по безопасности позволяет аналитикам работать с большим контекстом и на цифровой скорости. Это соединение обещает привести кибербезопасность в будущее, где технология и человеческое творчество работают в гармонии, чтобы победить атаки.