Vai al contenuto

Intelligenza Artificiale: l’allarme degli ex dipendenti di OpenAI e Google DeepMind

Ex dipendenti di OpenAI e Google DeepMind lanciano un monito sulle potenziali minacce dell’Intelligenza Artificiale, denunciando la mancanza di sicurezza e trasparenza nelle aziende.

Un gruppo di 13 esperti ha recentemente sollevato preoccupazioni riguardo la gestione dell’Intelligenza Artificiale (AI) da parte di due giganti del settore, Google DeepMind e OpenAI. Tra i firmatari della lettera aperta, pubblicata su Forbes, figurano ex dipendenti di entrambe le aziende, che denunciano una serie di problematiche legate alla sicurezza, alla trasparenza e alla cosiddetta “cultura del silenzio”.

Le critiche si concentrano su tre aspetti principali. Primo, la mancanza di attenzione alla sicurezza dei progetti di AI. Le aziende sembrano privilegiare la velocità di sviluppo e il profitto, trascurando i potenziali rischi per l’umanità, come la disinformazione, la manipolazione e la perdita di controllo sui sistemi di AI. Secondo, la scarsa trasparenza. Le imprese non condividono con governi e pubblico le informazioni cruciali sui loro sistemi, ostacolando una valutazione indipendente dei rischi. Terzo, la diffusa “cultura del silenzio”, che impedisce ai dipendenti di esprimere apertamente le loro preoccupazioni a causa di accordi di non divulgazione e timore di ritorsioni.

Il contenuto della lettera aperta

Nella lettera, i firmatari chiedono una gestione più inclusiva dei progetti di AI, coinvolgendo la comunità scientifica, i politici e il pubblico. Sottolineano come le aziende che sviluppano AI abbiano forti incentivi finanziari per avanzare rapidamente, spesso evitando di condividere informazioni sulle misure di protezione e sui livelli di rischio.

Alcuni ex dipendenti di OpenAI hanno espresso preoccupazione per il fatto che sia stato loro chiesto di firmare accordi di non denigrazione, che potrebbero portare alla perdita di lucrosi accordi azionari se si esprimono contro l’azienda. Dopo alcune resistenze, OpenAI ha dichiarato che avrebbe liberato gli ex dipendenti dagli accordi.

La lettera chiede la soddisfazione di quattro punti: la fine degli accordi di non divulgazione che limitano le critiche; la creazione di canali anonimi per segnalare i rischi ai vertici aziendali, ai regolatori e a organizzazioni indipendenti; la promozione di una cultura aziendale aperta al dissenso; la protezione di chi divulga informazioni sensibili per motivi di sicurezza, anche se in violazione delle regole aziendali.

Esempi emblematici

La lettera contiene anche alcuni esempi emblematici. Daniel Kokotajlo, ex ricercatore di OpenAI, sostiene che l’azienda abbia ignorato i protocolli di sicurezza per accelerare lo sviluppo di un modello potenzialmente pericoloso. Kokotajlo è convinto che l’AI generativa arriverà entro il 2027 e che abbia il 70% di probabilità di causare danni catastrofici all’umanità.

William Saunders, altro ex dipendente di OpenAI, descrive l’approccio aziendale come “lanciamo tutto, poi lo aggiusteremo”. Jan Leike, ex ricercatore di DeepMind, ha invece denunciato la priorità data ai “prodotti scintillanti” rispetto alla sicurezza.