Vai al contenuto

Integrità dei Media su Meta: Incoerenze nelle Politiche

L’approccio di Meta alla moderazione di media manipolati è critico: l’Integrity Board evidenzia le politiche incoerenti.

La valutazione dell’Integrity Board di Meta riguardo la gestione dei contenuti multimediali manipolati ha messo in luce delle carenze sostanziali nelle politiche dell’azienda, soprattutto in vista delle prossime elezioni globali del 2024, un periodo particolarmente sensibile alla diffusione di informazioni fuorvianti. La critica principale si basa sulla distinzione di Meta tra contenuti manipolati tramite intelligenza artificiale e montaggi più semplici, denominati “cheap fakes”.

Meta ha lasciato online un video manomesso che accusava falsamente il Presidente Joe Biden di pedofilia. Sebbene l’Integrity Board abbia concordato con la decisione di non rimuovere il video, ha sottolineato come la scelta dell’azienda di limitare le sue regole sui media manipolati solamente ai materiali generati dall’AI sia “scorretta e confusa”, evidenziando la necessità di una politica più ampia e rigorosa che includa tutte le forme di falsificazione mediale.

Attualmente, Meta classifica come violazioni soltanto i video modificati attraverso strumenti basati sull’AI e i media che ritraggono persone che dicono cose mai dette, escludendo da tale politica audio manipolati o media che mostrano persone che compiono azioni mai verificate.

La piattaforma è stata esortata a espandere i criteri di moderazione, includendo contenuti audiovisivi e in generale qualsiasi media che “mostri persone che fanno cose che non hanno fatto”. Inoltre, l’Integrity Board ha sollecitato Meta a chiarire meglio quali danni – come la distorsione del processo elettorale – la loro politica intenda prevenire.

Invece di rimuovere o sopprimere tali contenuti, si raccomanda che l’azienda valuti l’opzione di etichettarli come significativamente alterati per fornire contesto agli utenti e evitare restrizioni “sproporzionate” sulla libertà di espressione, come quelle che potrebbero colpire forme di satira.

La controversia sollevata indica una questione più vasta riguardante il modo in cui le piattaforme di social media gestiscono il contenuto ingannevole e manipolato, in un’epoca dove tecnologia e AI giocano ruoli preponderanti nella disinformazione. La decisione dell’Integrity Board di concordare con Italia iniziale di Meta, pur criticandone le linee guida, offre uno spunto per una riflessione dettagliata sul modo in cui le piattaforme social devono affrontare questo tipo di contenuti.

Nonostante la crescente preoccupazione per l’impatto delle nuove tecnologie come l’AI, il ecosistema online resta inondato di media manipolati con strumenti tecnici meno avanzati, ma non per questo meno ingannevoli. Il caso in esame sottolinea l’urgenza di valutare accuratamente la veridicità dei contenuti e di intervenire in modo adeguato ed equo, bilanciando la sicurezza informativa e la libertà di espressione degli utenti.