Применение генеративного искусственного интеллекта Разбор кибербезопасности в связи с инструментами генеративного искусственного интеллекта
Применение генеративного искусственного интеллекта в кибербезопасности с использованием инструментов генеративного искусственного интеллекта.
Справедливо сказать, что генеративный искусственный интеллект теперь привлекает внимание каждого руководителя организации и бизнес-лидера. Раньше это была периферийная технология, которую было сложно использовать, не говоря уже о владении ею. Однако, теперь двери в генеративный искусственный интеллект широко открыты благодаря приложениям, таким как ChatGPT или DALL-E. Мы наблюдаем всеобщее внедрение генеративного искусственного интеллекта во всех отраслях и возрастных группах, поскольку сотрудники находят способы использовать эту технологию в своих интересах.
По результатам недавнего исследования, 29% представителей поколения Z, 28% представителей поколения X и 27% представителей миллениалов уже используют генеративные инструменты искусственного интеллекта в своей повседневной работе. В 2022 году масштабное внедрение генеративного искусственного интеллекта составляло 23%, и предполагается, что к 2025 году этот показатель удвоится и достигнет 46%.
Генеративный искусственный интеллект – это новая, но быстро развивающаяся технология, которая использует обученные модели для создания оригинального контента различных форм, от письменного текста и изображений до видео, музыки и даже программного кода. С использованием больших языковых моделей (LLM) и огромных наборов данных, эта технология может мгновенно создавать уникальный контент, который практически неотличим от работы человека и во многих случаях более точный и убедительный.
Однако, несмотря на то, что предприятия все больше используют генеративный искусственный интеллект для поддержки своей повседневной деятельности, и сотрудники быстро осваивают его использование, скорость его внедрения и отсутствие регулирования вызывают значительные озабоченности в области кибербезопасности и соблюдения регуляторных норм.
- Смелый шаг Walmart оснащение 50 000 корпоративных сотрудников генеративным искусственным интеллектом помощником.
- Как стать спортивным аналитиком?
- 5 советов по инженерии для Клода
По результатам одного исследования общественного мнения, более 80% людей беспокоятся о рисках безопасности, связанных с использованием ChatGPT и генеративного искусственного интеллекта, и 52% опрошенных хотят приостановить развитие генеративного искусственного интеллекта, чтобы регуляторные нормы могли догнать его. Это мнение разделяется и самими предприятиями: 65% высших руководителей IT не хотят содействовать безпрепятственному доступу к генеративным инструментам искусственного интеллекта из-за проблем безопасности.
Генеративный искусственный интеллект все еще является неизвестной неизвестностью
Генеративные инструменты искусственного интеллекта питаются данными. Модели, такие как используемые ChatGPT и DALL-E, обучаются на внешних или свободно доступных данных в Интернете, но для получения максимальной пользы от этих инструментов пользователи должны предоставить очень конкретные данные. Часто, при взаимодействии с инструментами, такими как ChatGPT, пользователи делятся чувствительной бизнес-информацией, чтобы получить точные и всесторонние результаты. Это создает много неизвестных факторов для предприятий. Риск несанкционированного доступа или непреднамеренного разглашения конфиденциальной информации “встроен” в использование свободно доступных генеративных инструментов искусственного интеллекта.
Сам по себе этот риск не является нечто плохим. Проблема заключается в том, что эти риски пока не получили должного исследования. До сих пор не было проведено реального анализа влияния использования широко доступных генеративных инструментов искусственного интеллекта на бизнес, а глобальные правовые и регуляторные рамки использования генеративного искусственного интеллекта так и не достигли должной зрелости.
Регулирование все еще находится в процессе разработки
Регуляторы уже оценивают генеративные инструменты искусственного интеллекта с точки зрения конфиденциальности, безопасности данных и целостности создаваемых ими данных. Однако, как это часто бывает с новыми технологиями, регулирующий аппарат, поддерживающий и регулирующий их использование, отстает на несколько шагов. В то время как технологию широко используют компании и сотрудники по всему миру, регуляторные рамки все еще находятся на стадии разработки.
Это представляет собой явный и актуальный риск для бизнеса, который на данный момент не воспринимается всерьез. Руководители естественно интересуются тем, как эти платформы принесут материальные выгоды для бизнеса, такие как возможности для автоматизации и роста, но менеджеры по управлению рисками интересуются тем, как будет регулироваться эта технология, какие могут быть правовые последствия, и каким образом могут быть скомпрометированы или раскрыты данные компании. Многие из этих инструментов свободно доступны любому пользователю с браузером и подключением к Интернету, поэтому в ожидании регулирования бизнесу необходимо очень внимательно обдумывать свои собственные “правила игры” в отношении использования генеративного искусственного интеллекта.
Роль главных информационных безопасности в управлении генеративным искусственным интеллектом
Поскольку отсутствуют надлежащие регуляторные рамки, главные информационные безопасности (CISO) должны взять на себя ключевую роль в управлении использованием генеративного искусственного интеллекта в своих организациях. Они должны понимать, кто использует эту технологию и с какой целью, как защитить корпоративную информацию при взаимодействии с генеративными инструментами искусственного интеллекта, как управлять рисками безопасности базовой технологии и как сбалансировать безопасность с преимуществами, которые предлагает эта технология.
Это не простая задача. Детальные оценки рисков должны быть проведены для определения негативных и позитивных последствий использования технологии как в официальном порядке, так и при разрешении сотрудникам использовать свободно доступные инструменты без надзора. Учитывая легкодоступность приложений генеративного искусственного интеллекта, главным информационным безопасностям необходимо тщательно обдумать политику компании, касающуюся их использования. Должны ли сотрудники иметь свободу использовать инструменты, такие как ChatGPT или DALL-E, для упрощения своей работы? Или доступ к этим инструментам должен быть ограничен или регулируемым каким-либо образом с помощью внутренних руководств и рамок, определяющих их использование? Очевидной проблемой является то, что даже если внутренние руководства по использованию будут созданы, учитывая скорость развития технологии, они могут оказаться устаревшими к моменту их завершения.
Один из способов решения этой проблемы может заключаться в отводе внимания от самих инструментов искусственного интеллекта, а вместо этого сосредоточиться на классификации и защите данных. Классификация данных всегда являлась ключевым аспектом защиты данных от несанкционированного доступа или утечки, и это также справедливо и в данном случае. Она включает в себя присвоение уровня конфиденциальности данным, что определяет, как с ними следует обращаться. Следует ли их шифровать? Следует ли блокировать для предотвращения распространения? Следует ли уведомлять о нарушении? Кто должен иметь к ним доступ, и где разрешено делиться информацией? Сосредоточившись на потоке данных, а не на самом инструменте, главные информационные безопасности и офицеры по безопасности значительно увеличат свои шансы на снижение рисков, упомянутых выше.
Как и все новые технологии, генеративный искусственный интеллект является как благом, так и риском для бизнеса. В то время как он предлагает захватывающие новые возможности, такие как автоматизация и творческое концептуализация, он также вносит некоторые сложные вызовы в области безопасности данных и защиты интеллектуальной собственности. В то время как регуляторные и правовые рамки все еще прорабатываются, бизнесам следует самостоятельно балансировать между возможностями и рисками, внедряя свои собственные политики контроля, отражающие общую безопасность. Генеративный искусственный интеллект будет развивать бизнес вперед, но мы должны быть осторожны и сохранять контроль.