|
Enterprises are embracing generative AI (Gen AI) to streamline operations and increase revenue by letting AI perform manual, tedious tasks. However, the potential for data loss hinders many deployments. Organizations are concerned about their key intellectual property and sensitive data being inadvertently disclosed. GenAI-based apps were a top data loss vector, with 43% of enterprises having experienced a data loss event via a GenAI-based application. |
Le aziende stanno adottando l'IA generativa (Gen AI) per semplificare le operazioni e aumentare i ricavi consentendo all'IA di svolgere attività manuali e noiose. Tuttavia, la potenziale perdita di dati ostacola molte implementazioni. Le organizzazioni temono che le loro proprietà intellettuali chiave e i loro dati sensibili vengano divulgati inavvertitamente. Le app basate su GenAI sono state il principale vettore di perdita di dati, con il 43% delle aziende che ha subito un evento di perdita di dati tramite un'applicazione basata su GenAI. |
|
Existing data loss prevention (DLP) tools are based heavily on regular expression (regex) logic that functions well with known, structured data types like personally identifiable information (PII). However, the regex approach does not lend itself to GenAI applications where intellectual property and other unstructured data are commonplace. Conventional solutions being redeployed for GenAI applications can be a burden to configure and administer and also tend to generate significant false positive alert noise that burdens security teams. GenAI applications are a different beast that benefits from a new DLP approach. |
Gli strumenti di prevenzione della perdita di dati (DLP) esistenti si basano fortemente sulla logica delle espressioni regolari (regex) che funziona bene con tipi di dati strutturati noti come le informazioni di identificazione personale (PII). Tuttavia, l'approccio regex non si presta alle applicazioni GenAI in cui la proprietà intellettuale e altri dati non strutturati sono all'ordine del giorno. Le soluzioni convenzionali in fase di ridistribuzione per le applicazioni GenAI possono essere difficili da configurare e amministrare e tendono anche a generare un significativo rumore di falsi allarmi positivi che gravano sui team di sicurezza. Le applicazioni GenAI sono una bestia diversa che trae vantaggio da un nuovo approccio DLP. |
|
GenAI applications are also being rapidly adopted, frequently without oversight from security teams. It is easy for employees to fire up their browsers and visit ChatGPT, Claude, or Perplexity to complete their tasks. Such tools may be unauthorized or risky AI applications, and security teams frequently lack visibility and control over AI apps. |
Anche le applicazioni GenAI vengono adottate rapidamente, spesso senza la supervisione dei team di sicurezza. È facile per i dipendenti attivare il browser e visitare ChatGPT, Claude o Perplexity per completare le proprie attività. Tali strumenti possono essere applicazioni AI non autorizzate o rischiose e i team di sicurezza spesso non hanno visibilità e controllo sulle app AI. |
|
Any solution needs to overcome the traditional DLP challenges of minimizing administrative overhead and reducing alert noise. While existing solutions might solve that challenge for existing data loss vectors like email and endpoints, GenAI applications pose different risks to sensitive information. Enterprises need to have an adequate inventory of AI assets, identify and assess shadow AI, enforce AI policies, and continuously guide end users to avoid inadvertent data leakage. GenAI is different in that solutions need to prevent leakage of unstructured sensitive data like intellectual property and source code. Compliance requirements mean that solutions also need to detect personally identifiable information (PII) and cardholder information affected by Payment Card Industry Data Security Standard (PCI-DSS) mandates. |
Qualsiasi soluzione deve superare le tradizionali sfide della DLP, ossia ridurre al minimo i costi amministrativi e ridurre il rumore degli avvisi. Sebbene le soluzioni esistenti possano risolvere questa sfida per i vettori di perdita di dati esistenti come e-mail ed endpoint, le applicazioni GenAI presentano rischi diversi per le informazioni sensibili. Le aziende devono disporre di un inventario adeguato delle risorse di intelligenza artificiale, identificare e valutare l'IA ombra, applicare le politiche di intelligenza artificiale e guidare continuamente gli utenti finali per evitare fughe involontarie di dati. GenAI è diverso in quanto le soluzioni devono prevenire la fuga di dati sensibili non strutturati come la proprietà intellettuale e il codice sorgente. I requisiti di conformità implicano che le soluzioni devono anche rilevare le informazioni di identificazione personale (PII) e le informazioni sui titolari di carta interessate dai mandati del Payment Card Industry Data Security Standard (PCI-DSS). |