Metomic запускает систему безопасности данных ChatGPT, чтобы сотрудники не могли делиться данными

Простой в использовании плагин для браузера позволяет компаниям в полной мере воспользоваться преимуществами генеративного решения искусственного интеллекта, не ставя под угрозу наиболее конфиденциальные данные своей компании.  

Я поговорил с Ричем Вибертом, генеральным директором Metomic, чтобы узнать больше: 

В прошлом году  отчеты  показали, что объем конфиденциальных данных, загружаемых сотрудниками в ChatGPT, увеличился на 60 процентов в период с марта по апрель, при этом в период с 9 по 15 апреля 2023 года было выявлено 319 случаев среди 100 000 сотрудников.  

По словам Виберта:

«Менеджеры все большего числа компаний, особенно на уровне генеральных директоров, просыпаются и думают: что мои сотрудники вкладывают в эти инструменты?

Вы просто открываете браузер и заходите в чатGPT или любой из этих других инструментов, чтобы выполнять свою работу лучше, чем ваши конкуренты, но затем случайно помещаете личные данные клиента, секреты или пароли компании в эти сторонние инструменты.

Это не только поднимает вопросы конфиденциальности, но также может привести к нарушению договоров с клиентами или правил, таких как GDPR». 

Виберт постарался добавить, что большинство нарушений безопасности с использованием ChatGPT и подобных материалов не являются вредоносными и в целом делятся на два лагеря: 

Во-первых, это обмен исходным кодом.

В прошлом году было обнаружено , что сотрудники корейского подразделения полупроводников Samsung подключили строки конфиденциального кода к ChatGPT, что фактически привело к утечке корпоративных секретов, которые могли быть включены в будущие ответы чат-бота другим людям, включая конкурентов.

Другая форма нарушения часто включает в себя конфиденциальную информацию компании, такую ​​как доходы и зарплаты, а также общедоступную информацию (PII), такую ​​​​как номера телефонов сотрудников и клиентов, адреса и номера социального страхования. 

Особенно это касается таких инструментов, как второй пилот и открытый искусственный интеллект, которые вы подключаете ко всему своему набору данных. А поскольку модели обучены работе с конфиденциальными данными, сотрудники имеют доступ к суперконфиденциальным материалам, к которым у них не должно быть доступа.

«Затем вы предоставляете доступ всем сотрудникам компании. Чтобы компания могла использовать его, чтобы спросить: «Каков был наш доход в прошлом году?» или что-то еще более конфиденциальное». 

Проактивный, а не реактивный

Поскольку интеграция Metomic ChatGPT находится внутри самого браузера, она определяет, когда сотрудник входит в веб-платформу ChatGPT OpenAI, и сканирует загруженные данные в режиме реального времени.

Службы безопасности могут получать оповещения, если сотрудники загружают конфиденциальные данные, такие как личные данные клиента, учетные данные безопасности и интеллектуальную собственность. Расширение для браузера оснащено 150 готовыми классификаторами данных для распознавания распространенных критических рисков данных. 

Компании также могут создавать индивидуальные классификаторы данных для выявления наиболее уязвимой информации.

Виберт поделился:

«Мы создали Metomic, обещая предоставить предприятиям возможности совместных инструментов SaaS и GenAI без рисков безопасности данных, которые возникают при внедрении облачных приложений.

 Наша интеграция с ChatGPT расширяет нашу основополагающую ценность как платформы безопасности данных. Компании получают все преимущества ChatGPT, избегая при этом серьезных уязвимостей данных». 

Metomic для ChatGPT выявляет критические риски в разговорах ChatGPT в режиме реального времени и предлагает контекстный предварительный просмотр конфиденциальных данных, загружаемых на платформу. 

Клиенты Metomic, реализующие расширение для браузера, имеют доступ к конфиденциальным данным, которые сотрудники, использующие Chrome на настольном компьютере, передают ChatGPT. 

Хотя существует множество исследований, подтверждающих тот факт, что у большинства компаний нет правил или политик по использованию генеративного ИИ на работе, и, как предупреждает Виберт:

«Даже если у них есть политика использования генеративного ИИ, эти инструменты развиваются так быстро, что политика, которую они написали в первые дни, уже устарела».

Виберт рассматривает образование как путь вперед.

«Вы должны обучать сотрудников, доверять им и передавать контроль и обучение непосредственно в их руки».

Модуль Metonic — это обучение в режиме реального времени, при котором элементы управления передаются непосредственно в руки сотрудников, поэтому они не нажимают кнопку «Отправить», если в подсказках обнаруживается, что они используют конфиденциальную информацию.  

«Мы не блокируем их. Они по-прежнему могут использовать инструменты. Мы просто удаляем конфиденциальные данные, прежде чем они нажмут кнопку отправки».

Мне было любопытно, как это повлияет на работу сотрудников, использующих GenerativeAI неблагоприятным образом.

Виберт утверждает:

«Это только начало длинной цепочки событий, которые очень быстро будут развиваться в технологической отрасли. 

Возможно, предупреждения безопасности запускают рабочий процесс, который приводит к обучению безопасности, или могут запускать поток, который гарантирует, что у вас нет доступа к определенным системам.

Также важно понимать, как каждый сотрудник распределяет конфиденциальные данные по всему пакету программного обеспечения, и реагировать соответствующим образом, чтобы гарантировать, что сотрудники используют эти инструменты более безопасно».

Программное обеспечение Metomic для обеспечения безопасности данных распространяется на SaaS, GenAI и облако.

«Это позволяет компаниям понять, как сотрудники обмениваются конфиденциальными данными по всему технологическому стеку. 

Это очень важно, потому что вам нужна более широкая картина.

Некоторые отделы активно используют один инструмент, а другие очень активно используют другой инструмент. Картина будет неверной и неточной, если у нас не будет такого перекрестного охвата. Поэтому крайне важно иметь целостное представление о том, как сотрудники обмениваются конфиденциальными данными.

И это варьируется от таких вещей, как Slack и Microsoft Teams, Google Drive, до ChatGPT».

Хотя истинное влияние ChatGPT и других генеративных инструментов искусственного интеллекта на конфиденциальность и конфиденциальность все еще проявляется, активная позиция Metomic дает ценную возможность заглянуть в будущее безопасности данных в условиях динамического характера проблем безопасности на рабочих местах.

Оцените статью
Логово IT
Добавить комментарий