Vai al contenuto

Backdoor in modelli AI su Hugging Face: la sicurezza a rischio

La piattaforma Hugging Face è stata invasa da oltre 100 modelli di intelligenza artificiale nocivi: il mondo digitale in allerta.

Il panorama digitale è di nuovo in tumulto dopo il recente allarme lanciato dagli specialisti di JFrog: la rivelazione che oltre un centinaio di modelli di intelligenza artificiale nocivi hanno invaso la piattaforma collaborativa Hugging Face ha scosso la comunità di ricercatori e sviluppatori. Questo ecosistema, pensato per l’incremento della condivisione di risorse nel campo dell’elaborazione del linguaggio naturale e della visione artificiale, si trova ora di fronte a una minaccia significativa per la sicurezza informatica.

La peculiarità di Hugging Face, un luogo di incontro virtuale per studiosi e appassionati di machine learning, risiede nel permesso accordato agli utenti di pubblicare liberamente i propri modelli algoritmici, con l’intento di favorire progressi e innovazioni nel settore. Sfortunatamente, è emerso che alcuni di questi algoritmi celavano software dannosi, progettati per infiltrarsi silenziosamente nei sistemi informatici.

Un insidioso modello PyTorch, ad esempio, rimosso in seguito alla sua identificazione, integrava un payload che si connetteva a un’entità remota. Questa pericolosa “porta sul retro”, o backdoor, una volta attivata, dava ai malintenzionati la possibilità di prevalersi del controllo del dispositivo in cui il modello veniva caricato.

Per celare l’esistenza di questi codici malefici, gli autori hanno sapientemente manipolato tecniche di serializzazione come il metodo “__reduce__” del modulo pickle di Python, rendendo il processo di caricamento di un file PyTorch una potenziale tregua per il lancio di comandi occulti, potenzialmente invisibili ai comuni sistemi di cyber security.

La scoperta di JFrog ci mette di fronte a un dato allarmante: i modelli con payload pericolosi sono un rischio concreto all’interno dell’ecosistema Hugging Face. Inoltre, scegliere di pubblicare tali modelli, anche nel contesto della ricerca sulla sicurezza della piattaforma, rimane una pratica altamente pericolosa ed eticamente dubbia, poiché pone tutti gli utenti, inclusi impreparati ricercatori, davanti al pericolo di scaricare involontariamente malware.

I professionisti di JFrog, nell’indagare la minaccia, hanno messo a punto un robusto sistema di vigilanza, specificamente tarato sul rilevamento di anomalie nel codice AI, mostrando come gli intrusi possano sfuggire a misure di sicurezza preesistenti. Questo richiede una presa di coscienza generale: gli sviluppatori, ora più che mai, sono chiamati a indossare il mantello della prudenza e ad adottare stratagemmi di difesa innovativi per preservare la sicurezza nell’arena dell’intelligenza artificiale.