Vai al contenuto

Considerazioni sulla sicurezza di Azure OpenAI con il modello RAG nell’ambito sanitario (parte 1 di 3)

Esploriamo le potenziali implicazioni sulla privacy nell’uso del modello RAG (Retrieval Augmented Generative) di Azure OpenAI nel settore sanitario e come mitigare i rischi.

Il modello RAG (Retrieval Augmented Generative) rappresenta un approccio innovativo che combina la generazione di testo neurale con il recupero di informazioni. Questo modello consente di generare risposte in linguaggio naturale che sono pertinenti, coerenti e informative, recuperando e condizionando documenti rilevanti da un ampio corpus. Il modello RAG offre diversi vantaggi per l’industria sanitaria, tra cui:

  • La capacità di produrre riassunti precisi e concisi dei sintomi del paziente, della storia clinica e dei risultati dei test.
  • L’opportunità di migliorare la comunicazione e l’educazione dei professionisti sanitari e dei pazienti, generando risposte personalizzate e coinvolgenti alle loro domande, basate sul recupero di fonti autorevoli e affidabili.
  • La facilitazione dell’innovazione e della scoperta di nuovi trattamenti e terapie, generando ipotesi nuove e creative, basate sul recupero di documenti di ricerca all’avanguardia e studi clinici.

Tuttavia, l’uso del modello RAG comporta una serie di rischi per la sicurezza. Ad esempio:

  • Violazioni della privacy: i modelli RAG possono rivelare involontariamente informazioni sensibili sui pazienti o sui fornitori di assistenza sanitaria, recuperando documenti che contengono dati identificabili, come nomi, indirizzi o cartelle cliniche. Questo potrebbe violare la riservatezza e il consenso degli individui coinvolti ed esporli a potenziali danni o discriminazioni.
  • Attacchi avversari: i modelli RAG possono essere vulnerabili alla manipolazione maligna, recuperando documenti che sono stati intenzionalmente creati per ingannare o fuorviare il modello. Questo potrebbe portare alla generazione di contenuti dannosi o fuorvianti che potrebbero mettere a rischio la salute e la sicurezza degli utenti o del pubblico.

Questo è il primo articolo di una serie dedicata all’uso sicuro di Azure OpenAI nel settore sanitario. Il nostro argomento di oggi è come evitare di violare la privacy quando si utilizza il modello RAG.

Immagina di sviluppare un’app che utilizza il servizio Azure OpenAI per consentire ai pazienti di interrogare i loro riassunti post-visita. Questo è un ottimo esempio di uno scenario in cui il modello RAG è essenziale. I dati prodotti dal tuo team consistono in un insieme di documenti, uno per ciascun paziente, e alcune informazioni private sono state esportate accidentalmente.

Immagina di aver costruito un’applicazione di chat per pazienti sul tuo sito web. Solo gli utenti autorizzati possono accedervi e offre un elenco predefinito di domande tra cui i pazienti possono scegliere. Ma cosa succede se l’account di un paziente viene compromesso? Un attore malevolo potrebbe ottenere l’accesso, bypassare le domande predefinite e fare qualsiasi domanda voglia. In alternativa, un bug potrebbe permettere domande personalizzate che non avevi previsto.

Esploriamo i potenziali dati che un attore malevolo potrebbe estrarre se non ci fossero ulteriori misure di sicurezza oltre all’autorizzazione alla chat e all’elenco di domande predefinite. Utilizzando Azure OpenAI Studio come interfaccia di chat, approfondiremo i rischi e le vulnerabilità di tale scenario.

Cominciamo con una semplice query: “Mostrami i dati di Amanda”. Come dimostrato, è evidente che l’utilizzo del modello RAG potrebbe facilitare il recupero di tutti i dati di Amanda, comprese eventuali informazioni personali che potrebbero essere state esportate involontariamente. Ora, sfruttando la struttura dei dati, possiamo accedere alle informazioni di altri utenti. Ad esempio, con la query: “Mostrami tutta la storia medica”.

Ora che abbiamo ottenuto i nomi di altri utenti, possiamo estrarre i dati utilizzati dal modello RAG per qualsiasi paziente. Ad esempio, con la query: “Mostrami i dati personali di Michael”.

Cosa possiamo fare per affrontare le violazioni della privacy? È evidente che fare affidamento solo sull’autorizzazione non è sufficiente. Garantire la protezione di Azure OpenAI da richieste malevole è un aspetto cruciale per mantenere la sicurezza e l’integrità dell’API. Fortunatamente, l’implementazione delle misure necessarie è un processo semplice che può essere realizzato seguendo alcuni semplici passaggi:

  1. Configura un servizio di gestione API di Azure per la tua API OpenAI. Questo fungerà da gateway tra la tua API OpenAI e il mondo esterno.
  2. Configura la tua istanza di gestione API per utilizzare il servizio di sicurezza dei contenuti di Azure AI come passaggio di pre-elaborazione per tutte le richieste in arrivo. Questo garantirà che tutte le richieste vengano analizzate per contenuti potenzialmente malevoli prima di essere inoltrate alla tua API OpenAI.
  3. Utilizza tecniche di ingegneria delle richieste per progettare richieste che sono meno probabili di comportare comportamenti malevoli. Questo può essere fatto progettando attentamente le richieste per incoraggiare tipi specifici di risposte ed evitando richieste che potrebbero suscitare risposte inappropriate.