Vai al contenuto

Novità in Azure AI Content Safety: Anteprima Pubblica delle Categorie Personalizzate

Scopri come le nuove funzioni di Azure AI Content Safety ti permettono di creare filtri di contenuto personalizzati per una maggiore sicurezza e conformità normativa.

La nuova funzione di categorie personalizzate è ora disponibile in Azure AI Content Safety, offrendo la possibilità di creare classificatori personalizzati per rispondere alle specifiche esigenze di filtraggio dei contenuti e sicurezza AI. Questo strumento consente di rilevare contenuti sensibili, moderare i contenuti generati dagli utenti e rispettare le normative locali, tutto con facilità e flessibilità.

Panoramica della Funzione

Le categorie personalizzate in Azure AI Content Safety sono potenziate da Azure AI Language, un servizio di elaborazione del linguaggio naturale avanzata per l’analisi e la generazione di testo. Il processo è strutturato per facilitare la creazione, l’addestramento e l’uso di modelli di classificazione del contenuto su misura. È possibile utilizzare questa funzione tramite la Content Safety API o tramite il Azure AI Studio.

Distribuzione della Categoria Personalizzata

Offriamo due opzioni di distribuzione per i nostri clienti:

  1. Custom Categories (Standard):
    • Questa opzione richiede un minimo di 50 esempi di linguaggio naturale per addestrare la categoria, garantendo un filtro approfondito e robusto. La distribuzione avviene entro 24 ore.
  2. Custom Categories (Rapid):
    • Questa opzione, pensata per esigenze urgenti, permette una rapida creazione e distribuzione di filtri personalizzati con pochi esempi di linguaggio o immagini. La distribuzione avviene in circa un’ora per il testo e pochi minuti per le immagini.

Entrambe le opzioni offrono alle organizzazioni strumenti per proteggere le loro applicazioni AI e gli utenti da contenuti dannosi, con un equilibrio tra reattività e approfondimento in base alle esigenze specifiche.

Come Utilizzare la Funzione

Fase 1: Definizione e Configurazione

Creando una categoria personalizzata, si definiscono i tipi di contenuti da rilevare. È necessario creare un nome della categoria e una definizione che descriva chiaramente le caratteristiche dei contenuti. Quindi, raccogliere un dataset bilanciato con esempi positivi e negativi consente all’IA di apprendere le sfumature della categoria.

Fase 2: Addestramento del Modello

Una volta pronto il dataset, Azure AI Content Safety userà i dati per addestrare un nuovo modello. Durante l’addestramento, l’IA impara a distinguere tra i contenuti che corrispondono alla categoria personalizzata e quelli che non corrispondono. Questo processo è basato sulla tecnologia di personalizzazione a bassa interazione di Azure AI Language.

Fase 3: Inferenza del Modello

Dopo l’addestramento, è necessario valutare il modello per garantire che soddisfi i requisiti di accuratezza. Testare il modello con nuovi contenuti aiuta a identificare eventuali aggiustamenti necessari prima della distribuzione in un ambiente di produzione.

Fase 4: Iterazione

Nella prossima release, avremo una funzione che permetterà agli utenti di modificare la definizione e i campioni di addestramento utilizzando suggerimenti generati da GPT.

Unisciti ai Nostri Clienti che Utilizzano le Categorie Personalizzate

Dipartimento per l’Istruzione del Sud Australia: “La funzione di categorie personalizzate di Azure AI Content Safety rappresenta una svolta per il nostro chatbot AI EdChat, permettendoci di adattare la moderazione dei contenuti ai nostri standard specifici, garantendo un’esperienza più sicura e adeguata per gli utenti.”

Dan Hughes, Chief Information Officer, South Australia Department for Education

Scopri di più su come il Dipartimento per l’Istruzione del Sud Australia sta utilizzando Azure AI Content Safety

Inizia Subito!

Grazie per il vostro supporto mentre continuiamo a migliorare la nostra piattaforma. Siamo entusiasti che possiate iniziare a utilizzare le categorie personalizzate. Rimanete aggiornati per ulteriori novità e annunci sui nostri progressi.