Vai al contenuto

Strumenti di intelligenza artificiale: classificazione basata sulla trasparenza

Come si confrontano le principali aziende tecnologiche in termini di trasparenza dei loro sistemi di Intelligenza Artificiale? Un indice di studio ne evidenzia i risultati sorprendenti.

Le principali società tecnologiche come Microsoft, OpenAI e Google sono note per proclamare le straordinarie potenzialità e la potenza dei loro sistemi di intelligenza artificiale generativa. Tutto ciò si traduce in modelli come chatGPT, Bard e molti altri. Tuttavia, è altrettanto importante, se non di più, porci la seguente domanda: quanta trasparenza c’è dietro questi potenti sistemi? In altre parole, quanto sappiamo sulle procedure e i processi coinvolti nella creazione e nell’uso di questi modelli?

Per rispondere a questa domanda, gli studiosi del Center for Research on Foundation Models presso la Stanford University hanno confezionato il Foundation Model Transparency Index (FMTI). Questo indice valuta le aziende e i loro rispettivi modelli basandosi su 100 parametri di trasparenza che spaziano dalla creazione del modello all’uso che ne viene fatto.

Secondo l’FMTI, su un totale di 10 società valutate, Meta si colloca in cima con un punteggio del 54%, grazie al suo modello Llma 2. Al secondo posto, troviamo lo strumento BLOOMZ sviluppato dalla BigScience, un’azienda di origine francese. OpenAI con la sua ultima versione di chatGPT compare solo al terzo posto.

L’importanza della trasparenza dell’IA è evidente. Per sofruttare appieno le potenzialità dei sistemi di IA generativa, è necessario comprendere perfettamente quali dati vengono utilizzati per allenare gli algoritmi. Ad esempio, bisogna capire se questi dati sono raccolti in modo legale o se venissero raccolti in modo illecito tramite lo scraping di dati personali senza il consenso degli interessati. Questo è l’unico modo per garantire una corretta prassi algorithmica che comprende la trasparenza dei dati utilizzati per perfezionare l’IA.