Vai al contenuto

Criminalità Cyber 2.0: Il Caso del Ransomware via ChatGPT

In Cina, quattro individui sono stati fermati per aver creato un ransomware con l’ausilio di ChatGPT e ricattato un’azienda.

I confini tra intelligenza artificiale e criminalità si intrecciano in un episodio che ha segnato un precedente allarmante in Cina: quattro persone sono state accusate di utilizzare l’ingegnosità offerta dal famoso chatbot ChatGPT per architettare un attacco informatico basato su ransomware e intimare una richiesta di riscatto in criptovaluta.

Nella specifica, la vicenda ha origine quando un’organizzazione con base a Hangzhou ha segnalato un attacco che ha visto i propri sistemi crittografati da un ransomware, dietro cui si cela il gruppo di malintenzionati. Le forze dell’ordine locali sono giunte all’arresto di due sospetti a Pechino e altri due nella regione autonoma della Mongolia Interna. A seguito dell’interscambio con le forze dell’ordine, i criminali hanno confessato di essere gli artefici del ransomware, creato grazie al supporto di ChatGPT e di aver realizzato il loro piano attraverso la ricerca di vulnerabilità e l’instaurazione di un ricatto economico finalizzato.

Il caso solleva una problematica di non poco conto riguardo l’impiego di ChatGPT in Cina, considerando il tentativo del governo di limitare l’uso di strumenti di intelligenza artificiale sviluppati all’estero. Nonostante la mossa di OpenAI di bloccare l’accesso da aree quali Cina, Hong Kong, Corea del Nord e Iran, l’astuzia di alcuni utenti nell’impiegare reti private virtuali (VPN) per bypassare tali restrizioni pone l’accento sull’imminente corsa agli armamenti cibernetici.

Da una prospettiva normativa, le aziende che si affidano a VPN per accedere alle piattaforme di OpenAI devono ora valutare attentamente i “rischi di conformità” con le leggi locali. La questione legale attorno alla generazione di intelligenza artificiale sta diventando sempre più complessa con l’incremento dell’utilizzo di tecnologie quali ChatGPT.

La rilevanza dell’intelligenza artificiale nelle questioni legali risulta evidenziata anche da un precedente avvenuto a maggio, dove la polizia del Gansu ha intercettato un individuo per la diffusione di notizie false ottenute tramite l’uso di ChatGPT, amplificando l’attenzione sulla responsabilità legale in situazioni del genere.

Il soggiacente messaggio è chiaro: l’innovazione tecnologica, sebbene fonte di crescita e sviluppo, può anche trasformarsi in un’arma quando utilizzata con intenti perversi. È indispensabile vigilare e implementare misure di cyber security che possano contrastare l’abuso di strumenti ai fini di perpetuare crimini digitali.

Di fronte a casi come questi, le autorità cinesi non possono fare altro che rafforzare la loro lotta contro la criminalità informatica, inseguendo una sicurezza che, nell’era digitale, si mostra sempre più sfuggente e complessa.