Vai al contenuto

Violazione ChatGPT 2023: l’ombra della Cina dietro l’hackeraggio

Nel 2023, un hacker ha avuto accesso ai sistemi di messaggistica di OpenAI, sollevando preoccupazioni su possibili legami con la Cina.

All’inizio del 2023, un hacker ha ottenuto accesso ai sistemi di messaggistica interna di OpenAI, la società dietro lo sviluppo di ChatGPT, compromettendo i dettagli progettuali delle sue tecnologie di intelligenza artificiale. Nonostante iniziali rassicurazioni da parte di OpenAI, la vicenda ha rapidamente assunto connotazioni internazionali, con il timore crescente che l’attacco potesse avere legami con Pechino.

L’informazione è emersa da un forum online frequentato da dipendenti di OpenAI, senza che l’hacker riuscisse a penetrare nei sistemi principali che ospitano l’AI dell’azienda. In una riunione ad aprile 2023, i dirigenti di OpenAI hanno informato i dipendenti dell’attacco, ma non hanno reso pubblica la notizia dato che non erano stati sottratti dati di clienti o partner, e non vi erano prove di un legame con governi stranieri.

ChatGPT nel mirino

La questione si è complicata quando il New York Times ha sollevato dubbi sulla gestione della sicurezza da parte di OpenAI, ipotizzando che paesi stranieri, come la Cina, potessero rubare codici e dati compromettendo la sicurezza nazionale degli USA. L’azienda è stata accusata di non aver preso sufficienti contromisure contro la possibilità di furti da parte di governi stranieri, in particolare quello cinese.

Leopold Aschenbrenner, un responsabile del programma tecnico presso OpenAI, ha criticato l’azienda per la sua gestione inadeguata della sicurezza, avvertendo che non si stava facendo abbastanza per proteggere le tecnologie critiche dai tentativi di spionaggio. Aschenbrenner è stato in seguito licenziato, ufficialmente per aver divulgato informazioni non autorizzate, ma la circostanza ha aumentato i sospetti e le polemiche.

Indizi da Pechino

I timori di un coinvolgimento cinese non sono infondati. Brad Smith, presidente di Microsoft, ha testimoniato su come hacker cinesi abbiano sfruttato i sistemi del colosso tecnologico per attacchi alle reti governative statunitensi. Tuttavia, le leggi federali e californiane vietano discriminazioni basate sulla nazionalità, complicando la situazione per OpenAI nel prevenire potenziali minacce interne senza rischiare denunce di discriminazione.

La vicenda mette in luce una problematica più ampia nella gestione della sicurezza delle tecnologie di intelligenza artificiale. Anche altre aziende come Meta stanno affrontando sfide simili, scegliendo di rendere open source i propri progressi per minimizzare i rischi e favorire la collaborazione globale nella risoluzione dei problemi.

Il dragone esporta talenti

Aziende cinesi stanno rapidamente avanzando nella creazione di sistemi AI potentissimi, e la nazione è emersa come un importante produttore di talenti in questo settore. In base agli studi, la Cina ha quasi la metà dei migliori ricercatori AI nel mondo. Competitive attività di ricerca e sviluppo da parte di aziende come OpenAI, Anthropic e Google devono tener conto di queste dinamiche internazionali per proteggere le proprie innovazioni.

Alla luce di questi eventi, OpenAI e altre aziende devono affrontare il delicato equilibrio tra protezione delle proprie tecnologie e promozione di un ambiente di lavoro inclusivo, mantenendo alta la guardia contro entità statali potenzialmente ostili.