Gen AI Application Deployments Inhibited by Data Loss Risk
     
    Remove Translation Translation
    Original Text

    Enterprises are embracing generative AI (Gen AI) to streamline operations and increase revenue by letting AI perform manual, tedious tasks. However, the potential for data loss hinders many deployments. Organizations are concerned about their key intellectual property and sensitive data being inadvertently disclosed. GenAI-based apps were a top data loss vector, with 43% of enterprises having experienced a data loss event via a GenAI-based application.

    企業はジェネレーティブAI(ジェネレーティブAI)を採用して、AIに手作業で面倒なタスクを実行させることで業務を合理化し、収益を増やしています。しかし、データ損失の可能性があるため多くの導入が妨げられています。組織は、自社の重要な知的財産や機密データが誤って開示されてしまうことを懸念しています。Genaiベースのアプリケーションはデータ損失の最大の要因であり、43% の企業が Genai ベースのアプリケーションによるデータ損失事象を経験しています。

    Existing data loss prevention (DLP) tools are based heavily on regular expression (regex) logic that functions well with known, structured data types like personally identifiable information (PII). However, the regex approach does not lend itself to GenAI applications where intellectual property and other unstructured data are commonplace. Conventional solutions being redeployed for GenAI applications can be a burden to configure and administer and also tend to generate significant false positive alert noise that burdens security teams. GenAI applications are a different beast that benefits from a new DLP approach.

    既存のデータ損失防止(DLP)ツールは、個人を特定できる情報(PII)などの既知の構造化されたデータタイプでうまく機能する正規表現(regex)ロジックに大きく基づいています。しかし、正規表現のアプローチは、知的財産やその他の非構造化データが一般的な GenAI アプリケーションには向いていません。従来のソリューションを GenAI アプリケーションに再導入すると、設定と管理に負担がかかり、セキュリティチームに負担をかける重大な誤検知アラートが発生する傾向もあります。GenAI アプリケーションは、新しい DLP アプローチの恩恵を受ける一味違った存在です。

    GenAI applications are also being rapidly adopted, frequently without oversight from security teams. It is easy for employees to fire up their browsers and visit ChatGPT, Claude, or Perplexity to complete their tasks. Such tools may be unauthorized or risky AI applications, and security teams frequently lack visibility and control over AI apps.

    GenAI アプリケーションも急速に採用されており、多くの場合、セキュリティチームによる監視は行われていません。従業員がブラウザを起動し、ChatGPT、Claude、Perplexityにアクセスしてタスクを完了するのは簡単です。このようなツールは無許可またはリスクのある AI アプリケーションである可能性があり、セキュリティチームは AI アプリケーションを可視化して制御できないことがよくあります。

    Any solution needs to overcome the traditional DLP challenges of minimizing administrative overhead and reducing alert noise. While existing solutions might solve that challenge for existing data loss vectors like email and endpoints, GenAI applications pose different risks to sensitive information. Enterprises need to have an adequate inventory of AI assets, identify and assess shadow AI, enforce AI policies, and continuously guide end users to avoid inadvertent data leakage. GenAI is different in that solutions need to prevent leakage of unstructured sensitive data like intellectual property and source code. Compliance requirements mean that solutions also need to detect personally identifiable information (PII) and cardholder information affected by Payment Card Industry Data Security Standard (PCI-DSS) mandates.

    どのソリューションでも、管理オーバーヘッドを最小限に抑え、アラートノイズを減らすという従来のDLPの課題を克服する必要があります。電子メールやエンドポイントなどの既存のデータ損失ベクトルについては、既存のソリューションによってこの課題を解決できる可能性がありますが、GenAI アプリケーションは機密情報に対してさまざまなリスクをもたらします。企業は、AI 資産の十分なインベントリを保有し、シャドー AI を特定して評価し、AI ポリシーを実施し、エンドユーザーに不注意によるデータ漏洩を防ぐよう継続的に指導する必要があります。GenAIは、ソリューションが知的財産やソースコードなどの非構造化機密データの漏洩を防ぐ必要があるという点で異なります。コンプライアンス要件があるため、ソリューションではペイメントカード業界データセキュリティ基準 (PCI-DSS) の義務の影響を受ける個人識別情報 (PII) やカード所有者情報も検出する必要があります。