Gen AI Application Deployments Inhibited by Data Loss Risk
     
    Remove Translation Translation
    Original Text

    Enterprises are embracing generative AI (Gen AI) to streamline operations and increase revenue by letting AI perform manual, tedious tasks. However, the potential for data loss hinders many deployments. Organizations are concerned about their key intellectual property and sensitive data being inadvertently disclosed. GenAI-based apps were a top data loss vector, with 43% of enterprises having experienced a data loss event via a GenAI-based application.

    기업은 제너레이티브 AI (Gen AI) 를 채택하여 AI가 번거로운 수동 작업을 수행하도록 함으로써 운영을 간소화하고 수익을 늘리고 있습니다.하지만 데이터 손실 가능성은 많은 배포에 방해가 됩니다.조직에서는 주요 지적 재산과 민감한 데이터가 실수로 공개되는 것을 우려하고 있습니다.GenAI 기반 앱이 가장 큰 데이터 손실 경로를 차지했으며, 기업 중 43% 가 GenAI 기반 애플리케이션을 통해 데이터 손실을 경험했습니다.

    Existing data loss prevention (DLP) tools are based heavily on regular expression (regex) logic that functions well with known, structured data types like personally identifiable information (PII). However, the regex approach does not lend itself to GenAI applications where intellectual property and other unstructured data are commonplace. Conventional solutions being redeployed for GenAI applications can be a burden to configure and administer and also tend to generate significant false positive alert noise that burdens security teams. GenAI applications are a different beast that benefits from a new DLP approach.

    기존 DLP (데이터 손실 방지) 도구는 주로 개인 식별 정보 (PII) 와 같은 알려진 구조화된 데이터 유형과 잘 작동하는 정규 표현식 (regex) 논리를 기반으로 합니다.그러나 지적 재산과 기타 비정형 데이터가 흔히 사용되는 GenAI 애플리케이션에는 정규식 접근 방식이 적합하지 않습니다.GenAI 애플리케이션용으로 기존 솔루션을 재배포하면 구성 및 관리에 부담이 될 수 있으며, 심각한 오탐 경고 노이즈가 발생하여 보안 팀에 부담이 되는 경향이 있습니다.GenAI 애플리케이션은 새로운 DLP 접근 방식의 이점을 누릴 수 있는 또 다른 제품입니다.

    GenAI applications are also being rapidly adopted, frequently without oversight from security teams. It is easy for employees to fire up their browsers and visit ChatGPT, Claude, or Perplexity to complete their tasks. Such tools may be unauthorized or risky AI applications, and security teams frequently lack visibility and control over AI apps.

    또한 GenAI 애플리케이션은 보안 팀의 감독 없이 빠르게 채택되고 있습니다.직원들은 쉽게 브라우저를 실행하고 ChatGPT, Claude 또는 Perplexity를 방문하여 작업을 완료할 수 있습니다.이러한 도구는 승인되지 않았거나 위험한 AI 애플리케이션일 수 있으며 보안팀은 AI 앱에 대한 가시성과 통제력이 부족한 경우가 많습니다.

    Any solution needs to overcome the traditional DLP challenges of minimizing administrative overhead and reducing alert noise. While existing solutions might solve that challenge for existing data loss vectors like email and endpoints, GenAI applications pose different risks to sensitive information. Enterprises need to have an adequate inventory of AI assets, identify and assess shadow AI, enforce AI policies, and continuously guide end users to avoid inadvertent data leakage. GenAI is different in that solutions need to prevent leakage of unstructured sensitive data like intellectual property and source code. Compliance requirements mean that solutions also need to detect personally identifiable information (PII) and cardholder information affected by Payment Card Industry Data Security Standard (PCI-DSS) mandates.

    어떤 솔루션이든 관리 오버헤드를 최소화하고 경고 노이즈를 줄여야 하는 기존의 DLP 문제를 극복해야 합니다.기존 솔루션은 이메일이나 엔드포인트와 같은 기존 데이터 손실 벡터에 대한 이러한 문제를 해결할 수 있지만, GenAI 애플리케이션은 민감한 정보에 대해 다양한 위험을 초래합니다.기업은 적절한 AI 자산 인벤토리를 확보하고, 섀도우 AI를 식별 및 평가하고, AI 정책을 적용하고, 최종 사용자를 지속적으로 안내하여 의도하지 않은 데이터 유출을 방지해야 합니다.GenAI는 솔루션이 지적 재산권 및 소스 코드와 같은 구조화되지 않은 민감한 데이터의 유출을 방지해야 한다는 점에서 다릅니다.규정 준수 요구 사항에 따라 솔루션은 결제 카드 산업 데이터 보안 표준 (PCI-DSS) 규정의 영향을 받는 개인 식별 정보 (PII) 및 카드 소지자 정보도 탐지해야 합니다.