At Microsoft Build 2025, Microsoft announced several AI content safety controls for Azure AI Foundry, including: |
A Microsoft Build 2025, Microsoft ha annunciato diversi controlli di sicurezza dei contenuti di intelligenza artificiale per Azure AI Foundry, tra cui: |
Spotlighting. Enhances Microsoft Prompt Shields by detecting and blocking potential indirect prompt injections helping prevent unauthorized model actions. |
Illuminazione. Migliora Microsoft Prompt Shields rilevando e bloccando potenziali iniezioni indirette di prompt, aiutando a prevenire azioni non autorizzate sul modello. |
Real-time task adherence for agents. Tool assesses whether agent behavior is aligned with assigned tasks. |
Aderenza alle attività in tempo reale per gli agenti. Lo strumento valuta se il comportamento degli agenti è in linea con le attività assegnate. |
Continuous evaluation and monitoring of agentic systems. Unified dashboard for tracking performance, quality, safety, and resource usage in real time. |
Valutazione e monitoraggio continui dei sistemi agentici. Dashboard unificato per il monitoraggio delle prestazioni, della qualità, della sicurezza e dell'utilizzo delle risorse in tempo reale. |
Evaluation tool integration for compliance management. Between Microsoft Purview, Credo AI and Saidot to help define risk parameters, run compliance evaluations. |
Integrazione dello strumento di valutazione per la gestione della conformità. Tra Microsoft Purview, Credo AI e Saidot per aiutare a definire i parametri di rischio, esegui valutazioni di conformità. |
Microsoft Entra Agent ID. Gives security admins control, visibility over AI agents built in Azure AI Foundry. |
ID agente Microsoft Entra. Fornisce agli amministratori della sicurezza il controllo e la visibilità sugli agenti di intelligenza artificiale integrati in Azure AI Foundry. |
Microsoft Defender integration. AI security posture management recommendations and runtime threat protection alerts, running natively in Azure AI Foundry. |
Integrazione con Microsoft Defender. Raccomandazioni sulla gestione del livello di sicurezza dell'IA e avvisi di protezione dalle minacce in fase di esecuzione, eseguiti in modo nativo in Azure AI Foundry. |
Microsoft Purview extended to AI applications, agents. Data security compliance controls extended to custom AI applications and agents via Purview SDK or native integration with Azure AI Foundry. |
Microsoft Purview si è esteso alle applicazioni di intelligenza artificiale e agli agenti. Controlli di conformità alla sicurezza dei dati estesi ad applicazioni e agenti AI personalizzati tramite Purview SDK o integrazione nativa con Azure AI Foundry. |