Pochi giorni prima dell’insediamento di Donald Trump alla Casa Bianca, Zuckerberg ha annunciato con un video intitolato “Più parole e meno errori” alcuni cambiamenti previsti per META. Riassunto in 4 punti, il CEO del più grande organo di informazione del mondo, dice che:
- Chiuderà l’attuale programma di verifica dei fatti praticato da organi indipendenti (fact checkers) per passare a un programma Community Notes.
- Sposterà i team di fiducia e sicurezza che scrivono le policy sui contenuti e che esaminano i contenuti dalla California al Texas e ad altre località degli Stati Uniti.
- Eliminerà una serie di restrizioni su argomenti come immigrazione, identità di genere e genere che sono oggetto di frequenti discorsi e dibattiti politici. “Non è giusto”, dice, “che le cose possano essere dette in TV o sul pavimento del Congresso, ma non sulle nostre piattaforme”.
- I contenuti politici saranno trattati come qualsiasi altro contenuto nel feed, e saranno classificati e mostrati in base alle preferenze di interazione (visualizzazioni o reazioni attive) con i post.
Questa decisione, insiste Zuckerberg a più riprese, è stata presa per riavvicinare l’azienda alla libertà di espressione, che è la forza trainante del progresso.
Ma qual è il rapporto tra libertà di espressione, progresso della civiltà e social network?
C’era una volta il 2016
Il programma di fact-checking di Meta è stato lanciato su Facebook nel 2016, dopo lo scandalo di Cambridge Analytica, una società di consulenza britannica che aveva raccolto i dati personali di 87 milioni di account Facebook, senza consenso, a favore della campagna politica del senatore Ted Cruz, ultraconservatore reazionario della destra cristiana religiosa, favorevole alla pena di morte, contrario all’aborto e ai matrimoni gay.

Lo scandalo portò Zuckerberg a testimoniare davanti al Congresso degli Stati Uniti, e a sviluppare in seguito programmi per una maggiore protezione degli utenti online in materia di diritto alla privacy, oltre a limitare la disinformazione e la propaganda.
Nascono da qui i fact-checkers terzi: agenzie giornalistiche che si occupano di trasparenza e disinformazione: oltre 90 organizzazioni in 60 lingue diverse in tutto il mondo autorizzate a limitare la diffusione di bufale e informazioni nocive.
Come funzionava il fact-checking
Quando un fact-checker determinava che un contenuto era falso, Meta interveniva per limitare sostanzialmente la portata di quel contenuto, assicurandosi che raggiungesse un pubblico significativamente più piccolo.
I fact-checkers non potevano eliminare un account o un post, ma potevano ridurne drasticamente la visibilità “denunciandolo” a Meta.
Quando i fact-checkers segnalavano contenuti falsi, cioè, avevano il potere di evidenziare la non idoneità di certe notizie, ma è sempre stato Meta a decidere come i contenuti ritenuti falsi dai fact-checkers dovevano essere declassati o etichettati.
I fact-checkers, insomma, non non sono mai stati organi liberi dal controllo classificatorio di Meta, né autorizzati alla censura.

Come funziona la nuova moderazione
Similmente a X di Elon Musk, Meta utilizzerà le Note della community per moderare i contenuti anziché i fact-checkers (ancora non è chiaro come, se il sistema sarà speculare a quello di X o differente).
Su X, le note della comunità compaiono in riquadri etichettati sotto il post in questione, e possono essere legate a fonti o collegamenti ipertestuali esterni.
Gli utenti che possono partecipare alle note devono essere account verificati, e possono valutare i contenuti come “Utili” o “Non utili”. I contributori ricevono un punteggio di “Rating Impact” (quanti commenti effettuati sono risultati utili dall’account) e “Writing Impact” (lo stato di valutazione “utile” rispetto la singola nota commentata). In ambedue i casi, vediamo come l’utilità si basi su cioè un punteggio quantitativo, decretato dagli altri utenti della piattaforma e che determina la credibilità di un certo contenuto.

Terreni scivolosi vecchi e nuovi
Sicuramente, non avendo ancora informazioni precise sulle Community Notes di Meta, è difficile capire come verranno utilizzate: funzioneranno allo stesso modo di X? Resta di fatto che un utenza di 600 milioni di persone (quella di X) è comunque ben diversa da una di 3 miliardi e 65 milioni (quella di Facebook).
Siamo sicuri un pubblico così vasto sarà in grado di autodisciplinarsi, di acciuffare bufale e fake news per tempo attraverso un sistema di commenti?

Inoltre, sia nel caso del fact checking che nelle notes è difficile capire come muoversi nelle differenze tra “notizie” e “opinioni”, soprattutto dentro piattaforme che utilizzano perlopiù il linguaggio diretto e istantaneo per raccontare qualcosa.
C’è sempre una evidente differenza tra opinione e notizia sui social network?
E se un’opinione fa notizia, come spesso può accadere in luoghi dove personalità singole raggruppano consensi attraverso una carriera che si sviluppa a partire dai post o dalle stories (influencers), come si valuta dove finisce il “vero” della notizia o inizia il “falso” di un’opinione?
In luoghi che hanno fatto del loro successo la pluralità di voci in una stessa arena, siamo sicuri che le opinioni siano meno credibili delle notizie?
E che dire delle nuove forme di linguaggio nate sui social? Un meme, ad esempio, è notizia o opinione?
Il terreno scivolosissimo, è messo in luce nel punto D. della normativa di Meta riguardo il controllo dei fact checkers:
D: Cosa succede se un’opinione include disinformazione?
In genere, i contenuti di opinione non sono idonei per la valutazione, in quanto il programma di fact-checking non intende interferire con la libertà di espressione individuale o la possibilità di dibattito. Tuttavia, la definizione di “opinione” non è da interpretare come un’autorizzazione alla pubblicazione di contenuti che diffondono informazioni false, unicamente sulla base di come sono presentati. Pertanto, chiediamo ai fact-checker di usare il buon senso per determinare se un contenuto è davvero un’opinione o un’informazione falsa mascherata come tale, valutandola nel modo più opportuno.
I fact-checkers, cioè, dovevano far voto al loro “buon senso” per capire quando una notizia era mascherata da opinione. Un’impresa complessissima non tanto per le influenze interpretative di cui parla Zuckerberg, ma per il funzionamento stesso delle piattaforme, che nascono proprio per mettere in contatto identità distinte, in uno spazio aperto a più sistemi linguistici che permette a chi vuole di diventare riconoscibile.
Il problema delle notizie sui social è connaturato al funzionamento stesso dei social network, a come sono progettati, e alla cosiddetta “libertà di espressione” o “democrazia”, parole ormai svuotate di senso e usate come sinonimi per significare più che altro “ognuno può qualunque cosa, tutti sono credibili allo stesso modo”.