Присмотритесь к рискам, прежде чем попасть в восторг от искусственного интеллекта в расширениях

Опасайтесь потенциальных рисков перед тем, как восхищаться искусственным интеллектом в расширениях

Google недавно объявила о полноценном запуске расширений Bard, интегрируя инструмент искусственного интеллекта (ИИ) для генерации разговоров (GenAI) в свои другие услуги. Теперь Bard может использовать личные данные пользователей для выполнения множества задач – организация электронной почты, бронирование перелетов, планирование поездок, составление ответов на сообщения и многое другое.

Поскольку услуги Google уже глубоко вплетены в нашу повседневную жизнь, эта интеграция является настоящим шагом вперед для практических ежедневных применений GenAI, создавая более эффективные и продуктивные способы выполнения личных задач и рабочих процессов. В результате, по мере того как Google выпускает более удобные инструменты ИИ, появляются другие веб-ориентированные функции ИИ для удовлетворения потребностей пользователей, которые теперь ищут расширения для повышения производительности в браузере.

Однако пользователи также должны быть осторожны и ответственны. Несмотря на то, что расширения Bard и подобные инструменты могут быть полезны и продуктивны, они открывают новые возможности для потенциальных уязвимостей безопасности, которые могут подвергнуть риску личные данные пользователей и другие еще неизвестные риски. Пользователям, желающим использовать Bard или другие инструменты GenAI для повышения производительности, следует изучить лучшие практики и применить комплексные решения по безопасности, прежде чем безрассудно предоставлять свою конфиденциальную информацию.

Обзор личных данных

Google явно указывает, что сотрудники компании могут просматривать разговоры пользователей с Bard, которые могут содержать конфиденциальную информацию, от счетов-фактур до банковских реквизитов и любовных записок. Пользователей предупреждают не передавать конфиденциальную информацию или любые данные, которые они не хотели бы, чтобы сотрудники Google видели или использовали для информирования продуктов, услуг и технологий машинного обучения.

Google и другие поставщики инструментов GenAI также, вероятно, будут использовать личные данные пользователей для повторного обучения своих моделей машинного обучения – необходимого аспекта улучшения GenAI. Сила ИИ заключается в его способности обучаться самому и извлекать новую информацию, но когда эта новая информация поступает от пользователей, доверивших GenAI расширению свои личные данные, возникает риск интеграции информации, такой как пароли, банковская информация или контактные данные, в общедоступные услуги Bard.

Нерешенные проблемы безопасности

Поскольку Bard становится все более широко интегрированным инструментом в Google, эксперты и пользователи все еще пытаются понять его функциональные возможности. Но, как и все передовые участники в области искусственного интеллекта, Google продолжает выпускать продукты, не зная точно, как будет использоваться информация и данные пользователей. Например, недавно стало известно, что если вы поделитесь разговором с Bard с другом через кнопку “Поделиться”, весь разговор может появиться в стандартных результатах поиска Google и стать доступным для любого пользователя.

Хотя это привлекательное решение для улучшения рабочих процессов и эффективности, предоставление разрешения Bard или любому другому расширению, работающему на основе искусственного интеллекта, для выполнения полезных повседневных задач от вашего имени может привести к нежелательным последствиям в виде галлюцинаций ИИ – ложных или неточных результатов, которые GenAI иногда создает.

Для пользователей Google это может означать бронирование неправильного рейса, неправильную оплату счета-фактуры или передачу документов неправильному человеку. Раскрытие личных данных неправильной стороне или злоумышленнику или отправка неправильных данных правильному человеку может привести к нежелательным последствиям – от кражи личности и потери цифровой конфиденциальности до потенциальных финансовых потерь или огласки неприятной переписки.

Расширение безопасности

Для обычного пользователя ИИ лучшей практикой является просто не передавать никакую персональную информацию непредсказуемым помощникам на основе ИИ. Но это само по себе не гарантирует полной безопасности.

Переход к SaaS и веб-приложениям уже сделал браузер основной целью для атакующих. И по мере того, как люди начинают принимать в использование все больше веб-приложений на основе ИИ, возможности кражи конфиденциальных данных немного расширяются. Поскольку все больше расширений для браузера пытаются нахлынуть на волне успеха GenAI, увлекая пользователей установкой благодаря новым и эффективным функциям, людям нужно быть осторожными в отношении того, что многие из этих расширений могут в конечном итоге красть информацию или ключи API OpenAI пользователя, в случае связанных с ChatGPT инструментов.

К счастью, в распоряжении уже имеются решения для обеспечения безопасности расширений браузера, которые предотвращают кражу данных. Путем внедрения расширения браузера с контролем защиты от потери данных (DLP) пользователи могут снизить риск приглашения других расширений браузера, работающих на основе ИИ или иным образом, миссионировать или передавать персональные данные. Эти расширения безопасности могут проверять активность браузера и применять политики безопасности, предотвращая возможность захвата конфиденциальной информации веб-приложениями.

Защитите Барда

В то время как Бард и другие подобные расширения обещают улучшение продуктивности и удобство, они несут значительные риски в области кибербезопасности. Всякий раз, когда затрагиваются личные данные, всегда существуют скрытые проблемы безопасности, о которых пользователи должны быть осведомлены – тем более в новых, еще неизведанных водах Генеративного ИИ.

Когда пользователи позволяют Барду и другим ИИ и веб-инструментам действовать самостоятельно с чувствительными личными данными, они неизбежно сталкиваются с более серьезными последствиями, о которых не подозревают и оставляют себя уязвимыми без расширений безопасности браузера или управления информационной безопасностью DLP. В конце концов, увеличение продуктивности будет гораздо менее продуктивным, если оно повышает вероятность раскрытия информации, и люди должны предпринять меры для обеспечения безопасности ИИ до того, как данные будут обращены с преувеличенными расходами.