Vai al contenuto

OpenAI rimuove la voce simile a Scarlett Johansson dalla sua nuova tecnologia

OpenAI prende provvedimenti dopo le polemiche per l’utilizzo della voce di un’attrice famosa nella sua nuova funzionalità vocale.

Recentemente, OpenAI ha introdotto una modalità vocale avanzata per la sua piattaforma ChatGPT, nota come Omnia. Questa innovativa funzione è stata progettata per emulare in modo sorprendente conversazioni naturali, superando la qualità delle voci roboticamente generate da assistenti digitali come Alexa o Siri. Tuttavia, durante la fase di lancio, è emerso un problema: la voce di Omnia risultava essere inquietantemente simile a quella di Scarlett Johansson, attrice celebrazione nel film “Her”, dove interpreta un’intelligenza artificiale.

Per evitare complicazioni legali, la società ha deciso di rimuovere questa voce, chiamata “Sky”, escludendola dalle future implementazioni per tutti gli utenti iscritti al piano Plus. Questo intervento tempestivo ha lo scopo di prevenire una potenziale battaglia legale, anche se l’adozione della tecnologia vocale avanzata offre opportunità intriganti.

Cosa significa per OpenAI

Questa nuova modalità vocale, sebbene disponibile inizialmente solo per una selezionata cerchia di abbonati, verrà estesa a tutti i clienti Plus nel corso dell’autunno. Questo aggiornamento rappresenta un passo significativo, trasformando ChatGPT da un semplice assistente virtuale a un compagno di conversazione più umano. OpenAI si propone di rendere l’interazione con l’IA genuinamente coinvolgente, permettendo scambi più naturali tra gli utenti e la loro intelligenza artificiale. I limiti di utilizzo della piattaforma potrebbero essere notevolmente ampliati, rendendo l’assistente virtuale pronto a competere con giganti come Apple e Amazon.

Tuttavia, sorge una questione cruciale: come gestirà ChatGPT le diverse modalità di comunicazione, incluso il linguaggio delle persone con difficoltà di espressione? E la realistica incarnazione della voce umana non incoraggerà una dipendenza eccessiva dall’IA anche nei casi di errore?

Il passo verso il multilinguismo

Inizialmente programmata per il lancio a giugno, la modalità vocale avanzata ha subito ritardi per garantire il massimo della funzionalità e della sicurezza. Negli ultimi mesi, oltre 100 beta tester di vari sfondi culturali e linguistici hanno contribuito a perfezionare le piattaforme vocali dell’IA. OpenAI ha testato circa 45 lingue in 29 regioni, stabilendo protezioni per evitare l’abuso di questa tecnologia. Sono state implementate quattro modalità vocali predefinite, sviluppate con l’aiuto di attori professionisti, riducendo il rischio di malintesi e impropri utilizzi di voci non autorizzate o potenzialmente di qualità scadente.

La scelta di rispettare

Un cambiamento notevole rispetto alla demo di maggio è stata la decisione di abbandonare la voce simile a quella di Scarlett Johansson. Nonostante OpenAI abbia affermato che la voce era stata originariamente creata con un attore diverso, la compagnia ha optato per sospenderne l’uso per “rispetto” della richiesta dell’attrice di non vedere il suo timbro vocale associato a questa tecnologia. In concomitanza con la costruzione della nuova voce, OpenAI ha anche annunciato test su un motore di ricerca che utilizza le proprie tecnologie, nel tentativo di sfidare l’egemonia di Google nel settore.