Vai al contenuto

GoEX: Come Costruire Applicazioni AI Autonome in Modo Sicuro

Un approccio nuovo e sicuro per la costruzione di applicazioni autonome AI. Discussione sull’Engine di Esecuzione di Gorilla, un approccio rivoluzionario nato presso la UC Berkeley.

Nel mondo digitalmente accelerato, il ruolo dei grandi modelli linguistici (LLMs) sta vivendo una profonda trasformazione. Anteriormente rilevanti per la divulgazione di informazioni all’interno dei sistemi di dialogo, adesso sfociano in un ambito in cui possono interagire attivamente con strumenti ed eseguire azioni su applicazioni e servizi reali con minima o nessuna intervento umano. Questa evoluzione implica anche considerevoli rischi. Gli LLMs possono manifestare comportamenti imprevedibili, e concedendo loro di eseguire un codice arbitrario o chiamate API sorgono preoccupazioni legittime. Come possiamo fidarci che questi agenti operino in modo sicuro e responsabile?

Alla ricerca di una risposta a queste domande nasce GoEX (Gorilla Execution Engine), un progetto guidato dal ricercatore Shishir Patil dalla UC Berkeley. Il team di Patil ha recentemente presentato un studio esaustivo dal titolo “GOEX: Prospettive e Progetti per Costruire un Runtime per le Applicazioni Autonome LLM” che affronta queste problematiche. Lo studio propone un approccio innovativo che riguarda la costruzione di agenti LLM in grado di interagire in modo sicuro con le API, aprendo così un mondo di possibilità per le applicazioni autonome.

Il problema con gli LLM risiede nella loro intrinseca imprevedibilità. Possono generare una vasta gamma di comportamenti e mal interpretare la richiesta umana.Azure AI Content Safety è un ottimo esempio di un sistema pronto per la produzione che è possibile utilizzare oggi per rilevare e filtrare contenuti violenti, di odio, sessuali e di autolesionismo. Ma quando si tratta di generare chiamate API, tali filtri non si applicano.

Dato che una chiamata API in sé inoffensiva in un contesto potrebbe essere indesiderata e avere conseguenze disastrose in un contesto diverso se non si allinea con l’intento dell’utente. Nel contesto delle applicazioni agentiche, abbiamo bisogno di una soluzione diversa.

Mentre il raggio d’azione in questo caso è abbastanza limitato, non solo l’AI potrebbe devastare tutto ciò a cui l’utente ha concesso l’accesso, ma potrebbe anche accidentalmente rivelare tutte le chiavi API che le sono state affidate.

In queste considerazioni emerge la necessità di GoEX e la sua proposta di soluzione per garantire la privacy e la sicurezza nell’esecuzione delle applicazioni AI.

E’ evidente che per garantire la corretta funzionalità degli LLM, è necessario istituire dei controlli e delle misure di sicurezza efficaci. E’ in questo contesto che si inserisce GoEX, proponendosi come una “salvaguardia” nell’uso delle applicazioni LLM.