venerdì 1 ottobre 2021

Come Facebook, decide quale post vada rimosso e quale reintegrato

Chiunque si veda rimosso un post su un social e non sia d'accordo con la decisione può normalmente fare ricorso contro la decisione. Di solito la piattaforma, e in questo caso Facebook esamina nuovamente il contenuto - normalmente entro 24 ore - e, se ritiene di aver commesso un errore, lo comunica all'utente e ripristina il post.

 
Il controllo di solito, viene affidato agli algoritmi delle macchine settate da Facebook che sorvegliano il social in tempo reale, o alla soggettività malpagata di pochi moderatori umani. 
Dal novembre 2020 Facebook ha introdotto un nuovo sistema, basato pesantemente sull'intelligenza artificiale e sul machine learning per far sì che i contenuti potenzialmente più pericolosi vengano revisionati per primi. I tre criteri su cui si basa il nuovo ordine sono viralità, gravità e probabilità che stiano infrangendo le regole. Le macchine utilizzano il riconoscimento visivo per identificare intere categorie di contenuti potenzialmente nocivi - che si tratti di capezzoli o cadaveri, pistole o droghe - oppure cercano di abbinare i contenuti a una lista di elementi vietati compilata in anticipo da esseri umani.  Queste tecniche sono utilizzata per sbarazzarsi del materiale illecito più evidente; cose come video di propaganda di organizzazioni terroristiche, materiale pedopornografico e contenuti protetti da copyright. Ciò può comportare la rimozione automatica del post o del commento o addirittura il blocco di un intero account. 

Se TikTok assume direttamente i propri moderatori di contenuti e piattaforme come Reddit o Nextdoor si affidano quasi del tutto a un enorme numero di volontari, Facebook - come anche Twitter e YouTube - hanno optato per la strada dell'esternalizzazione. Spesso precari e oberati di lavoro, i revisori di contenuti non sono nemmeno lontanamente sufficienti per controllare la massa di segnalazioni che ricevono.  Spesso molti social utilizzano lo shadowbanning. Lo shadowban altro non è che una sorta di penalizzazione inflitta dai vari social ad un account. La penalizzazione comporta ovviamente dei disagi per chi la subisce, in particolare in termini di visibilità rispetto ad altri utenti.

Dal 2020 - ci si può appellare ad un organismo indipendente e autonomo un "Oversight Board" (OB), un Comitato di controllo, una Corte Suprema della libertà di parola digitale, nata su inizativa dello stesso Zuckerberg.
Il Board è purtroppo, finanziato dallo stesso Facebook con 130 milioni di dollari attraverso una fondazione che ne dovrebbe garantire l'autonomia ed è lo stesso Facebook, il social più diffuso al mondo che possiede anche Instagram e WhatsApp, che sceglierà i giudici ( tra i giudici c'è Helle Thorning-Schmidt è stata la prima donna a guidare la Danimarca fra il 2011 e il 2015). 
Le decisioni di questo Board cercheranno di coniugare l'enorme spazio compreso tra gli standard della community di Facebook e i principi dei diritti umani. È una forbice enorme, che non considera tutto quello che c'è nel mezzo. L'OB dovrà "supportare il diritto alla libertà di espressione delle persone" ed  intervenire sui casi in cui il social ha cancellato un post, ma senza averne il diritto o in assenza di presupposti.

Il gruppo di esperti dell'OB  ha il compito di selezionare pochi casi ad alto valore simbolico e di particolare complessità destinati a diventare "giurisprudenza" interna al social, confermando o revocando decisioni di rimozione dei post normalmente assunti dai sistemi di controllo automatizzati predisposti da Facebook. In modo tale da mettere al riparo i top manager di Facebook dalle continue polemiche, e delle troppe responsabilità, che inevitabilmente accendono sul social, le dinamiche dell'informazione, della censura, della violenza, dell'hate speech. "Il Comitato si avvale del proprio giudizio indipendente per supportare il diritto alla libertà di espressione delle persone e assicurarsi che tali diritti siano adeguatamente rispettati", si legge nella dichiarazione di intenti dell'Oversight Board. " 

Mark Zuckerberg, dopo gli scandali scoppiati a partire dalle elezioni presidenziali americane del 2016, ha prima negato l'impatto della propaganda politica sulle sue piattaforme, per poi correre ai ripari e ammettere gli errori fatti. Davanti al Congresso americano e in seguito in audizione al Parlamento Europeo, si è scusato. Era del resto il 2018, l'anno dell'affaire Cambridge Analytica. L'Oversight Board venne concepito poco dopo, per evitare che certi passi falsi non si ripetessero. Zuckerberg si era reso conto della propria inadeguatezza e di quella dei suoi manager nel maneggiare materie complesse e dai risvolti politici potenzialmente planetari, come il tentativo russo di condizionare le presidenziali che portarono alla Casa Bianca Donald Trump.  

Dal momento in cui è diventato operativo, dicembre 2020, il Comitato ha giudicato 16 casi controversi. Altri tre sono in esame, ma le richieste di intervento sono nell'ordine delle 500mila. "Siamo in venti nel Consiglio e interveniamo solo su una piccola frazione dei casi che le persone ci sottopongono", spiega Thorning-Schmidt. "Scegliamo quelli più rappresentativi in modo che possano funzionare come precedenti ai quali poi fare riferimento". Sono state prese 16 decisioni, una ad una, saltando da un continente all'altro, dando conto anche del background culturale del Paese in cui quel post nasce.   Sulla pandemia e l'infodemia che ne è stata la conseguenza, abbiamo visto tutti un flusso continuo di informazioni e contenuti falsi o (peggio) sul crinale scivoloso della manipolazione. Gli esperti del Comitato nei due casi esaminati si sono schierati dalla parte della libertà di parola.

 L'Oversight Board non è stato particolarmente efficace, inoltre non appare del tutto indipendente (molti membri del comitato sono americani)  e fino ad ora non è riuscirto ad avere un quell'approccio globale. Dal punto di vista di chi studia il rapporto tra mondo digitale e società civile, diritti umani e libertà d'espressione, il Board è stato poco più di un inizio, incompleto e deludente. Esito forse inevitabile. Nel suo primo anno di vita si è trovato ad affrontare disinformazione sanitaria e razzismo, nudi e religione. E la spinosa questione del "deplatforming", della cancellazione dai social, dell'ex presidente degli Stati Uniti Donald Trump, su cui si è andata a scontrare forse tutta l'inadeguatezza della sua struttura. "Faccio fatica ad immaginare che un Comitato del genere, anche sotto l'ombrello delle Nazioni Unite, possa davvero elaborare una serie di standard legali che soddisfino tutti, ovunque".  Una vicenda emblematica (dibattuta a livello planetario) sui limiti della libertà d'espressione di uno degli uomini più potenti al mondo (il presidente degli Stati Uniti) sulle piattaforme digitali e, in ultima analisi, dei rapporti di forza e di potere tra i leader digitali mondiali e i leader politici di peso altrettanto mondiale. 

Il primo silenziamento di Trump fu deciso da Facebook all'indomani dei traumatici eventi del 6 gennaio 2021, quando centinaia di sostenitori dell'ex presidente presero d'assalto il Congresso Usa eccitati dai messaggi incendiari e dalle false accuse di truffa elettorale lanciati da Trump dopo la vittoria di Joe Biden nel voto del 4 novembre 2020. Subito dopo, Facebook, come anche Youtube e Twitter, avevano deciso di sospendere (a tempo indefinito) l'ex presidente dai loro siti. Dopo le polemiche e le accuse di "censura" da parte di molta stampa, governi, osservatori in tutto il mondo, Facebook aveva rinviato la decisione all'Oversight Board, il comitato indipendente di "saggi" istituito da Mark Zuckerberg per valutare le decisioni della piattaforma. Il Board ha confermato nel maggio scorso la decisione presa dal social network, ma lo ha fatto con un verdetto pieno di sfumature, che ha rimandato la decisione nel campo di Zuckerberg. Comunque Trump non potrà tornare su Facebook per almeno i prossimi due anni.
Il bando di Trump ha sollevato le proteste di molti governi, e numerosi appelli alla regolamentazione delle piattaforme. Ma quando i governi intervengono per giudicare e regolamentare la Rete, il rischio è che si metta mano troppo presto su una materia ancora tutta da plasmare. Soprattutto ci sono molte resistenze da parte delle leadership di questi enormi colossi digitali.

  La libertà di parola è un diritto universale e deve valere ovunque senza differenze nell'applicazione. Ciò presenta molti problemi e a volte qualche opportunità:  grazie all'ampiezza delle piattaforme come Facebook, Twitter, Youtube, sono riuscite ad emergere voci che non erano finora state ascoltate sui mass media. Come Black Lives Matter o il MeToo, la testimonianza dell'uccisione di George Floyd, ecc.    

Shoshana Zuboff, accademica della Harvard Business School e autrice de Il capitalismo della sorveglianza, si è espressa in questo modo, all'indomani del caso Trump: "Mark Zuckerberg e i suoi colleghi dovrebbero smettere di raccogliere dati sulle persone e bisognerebbe bloccare gli algoritmi che mettono mano alle bacheche degli utenti promuovendo il peggio delle discussioni e portandole al centro del dibattito pubblico. Bisogna cambiare 'l'ingegnerizzazione che è alle spalle di tutto e che ha portato a realizzare profitti economici enormi in maniera del tutto illegittima".

Nessun commento:

Posta un commento

Introduzione al Blog

Il Blog è nato nel marzo 2021, in tempo di pandemia, per comunicare e condividere le mie letture e i miei interessi.  Nel Blog ci sono ci...