Organismo di Vigilanza di Facebook: terze parti per decidere

0
564
Organismo di Vigilanza

Il 5 maggio 2021, il quasi indipendente Organismo di Vigilanza (Oversight Board) di Facebook, ha confermato la sospensione dell’ex presidente Donald Trump dalla piattaforma e da Instagram. La decisione è arrivata quattro mesi dopo che il CEO di Facebook Mark Zuckerberg ha bandito Trump “a tempo indeterminato”. Per il suo ruolo nell’incitare la rivolta del 6 gennaio al Campidoglio degli Stati Uniti. Il consiglio ha rimproverato Facebook per non aver fissato una data di fine per la sospensione o per aver bandito definitivamente Trump e ha concesso alla società di social media sei mesi per risolvere la questione.

Cos’è l’Organismo di Vigilanza di Facebook?

L’Organismo di Vigilanza è stato istituito per fornire agli utenti una terza parte indipendente a cui possono appellarsi alle decisioni di moderazione di Facebook. Nonché per aiutare a definire le politiche che governano queste decisioni. 

L’idea è stata proposta per la prima volta da Zuckerberg nel 2018 dopo una discussione con il professore di diritto di Harvard Noah Feldman. Il consiglio ha iniziato a lavorare nell’ottobre 2020, finanziato da un trust di 130 milioni di dollari fornito da Facebook per coprire i primi sei anni di spese operative.

È stato creato per aiutare Facebook a rispondere ad alcune delle domande più difficili sulla libertà di espressione online: cosa rimuovere, cosa lasciare e perché. L’Organismo di Vigilanza ha l’autorità decisionale finale, anche al di sopra del consiglio di amministrazione, e le sue decisioni sono vincolanti per Facebook.

L’Oversight Board ha 20 membri provenienti da tutto il mondo e una vasta gamma di discipline e background. Come il giornalismo, i diritti umani e la legge, oltre a diverse prospettive politiche. Include anche un ex primo ministro. L’obiettivo è quello di espandere alla fine il consiglio a 40 membri in totale.

Quali altre decisioni ha preso l’Organismo di Vigilanza?

Finora, il consiglio ha esaminato 10 decisioni di Facebook , inclusa quella che coinvolge Trump. Le decisioni riguardavano una varietà di tipi di contenuti. Come i post rimossi perché ritenuti razzisti , indecenti o intesi a incitare alla violenza . Ha ribaltato la sentenza di Facebook in sei casi e l’ha confermata in tre di essi. Nel decimo caso, l’utente ha cancellato il post che Facebook aveva rimosso, il che ha concluso la revisione del forum.

Dato che Facebook dovrebbe intraprendere da 20 a 30 miliardi di azioni di contrasto nel solo 2021, è improbabile che il Consiglio di sorveglianza sarà in grado di gestire più di una manciata di casi di alto profilo, come quello di Trump. È uno dei motivi per cui l’Organismo di Vigilanza è soprannominato ” Corte Suprema di Facebook “.

Un modello che probabilmente seguiranno altre società di social media

Come azienda di piattaforme, Facebook è unico. È un gigante dei social media che deve monitorare un’operazione globale che genera oltre $ 86 miliardi di entrate. Impiega 58.600 persone e serve più di 2,8 miliardi di utenti mensili attivi, più di un terzo della popolazione mondiale . Così come milioni di inserzionisti. Pochissime aziende di social operano in uno spazio che implica la moderazione dei contenuti degli utenti e nessuna su questa scala. Altre società di piattaforme hanno molto meno contenuti e di solito solo in una lingua, mentre Facebook è disponibile in 100 lingue .

È improbabile, tuttavia, che altre società avranno mai un tipo di consiglio simile. L’Organismo di Vigilanza è stato estremamente dispendioso in termini di risorse. Ci sono voluti più di due anni per stabilire attraverso una serie di 22 tavole rotonde con partecipanti in 88 paesi, sei seminari approfonditi, 250 discussioni individuali e 1.200 presentazioni. Per non parlare del suo alto costo di $ 130 milioni, per durare sei anni.

Organismo di Vigilanza una buona idea

Un numero crescente di ricerche si interroga se gli amministratori dei consigli di amministrazione aziendali possano adempiere alle proprie responsabilità di supervisione da soli. A causa dell’enorme quantità di informazioni che devono essere ottenute, elaborate e condivise.

Penso che vedremo più consigli di amministrazione aziendali esternalizzare alcune decisioni e processi a panel esterni. Poiché non ci si può aspettare che un piccolo consiglio abbia le conoscenze e le competenze necessarie su tutti gli argomenti. È probabile che poche aziende seguano l’esempio di Facebook e concedano a un ente esterno il potere di prendere decisioni unilaterali.

Poiché solo il consiglio di amministrazione è riservato agli azionisti di una società, i direttori del consiglio in ultima analisi devono assumersi la responsabilità finale delle decisioni aziendali.

L’Organismo di Vigilanza protegge Facebook dalle ricadute politiche o legali

È probabile che alcuni in Facebook sperassero che spostare le sue decisioni più spinose avrebbe isolato l’azienda. I dirigenti e i membri del consiglio aziendale sarebbero stati lontani da problemi politici o legali, come mostra la decisione di Trump.

Certamente la decisione di utilizzare un organismo di controllo esterno potrebbe essere interpretata come politica. Poiché tutti i 10 direttori del consiglio di Facebook vivono e lavorano prevalentemente negli Stati Uniti. Potrebbero essere riluttanti a votare per prendere decisioni come limitare la libertà di espressione di un ex presidente. Trump ancora ha il sostegno di molti americani e ha vinto il 47% dei voti popolari nelle ultime elezioni.

Ma se Facebook prende la decisione da solo o esternalizza a un consiglio indipendente, Facebook dovrà comunque affrontare le conseguenze. Come la decisione di mantenere il divieto di Trump. Una decisione che potrebbe allontanare gli americani o le persone in tutto il mondo che ritengono che sia un attacco alla loro libertà di espressione.

Le persone possono lasciare Facebook per altre piattaforme come Parler, Gab e Signal, come molti hanno già fatto dal divieto iniziale di Trump a gennaio. Sapere che un ente esterno ha preso la decisione non li fermerà. E una cattiva decisione “politica” potrebbe allontanare alcuni inserzionisti e rendere più difficile assumere e trattenere i dipendenti, indipendentemente da chi lo ha fatto.

In che modo le altre società di social media gestiscono questi problemi in modo diverso?

L’amministratore delegato di Twitter Jack Dorsey ha preso una decisione interna di sospendere definitivamente Trump dalla piattaforma della sua azienda l’8 gennaio 2021. Sebbene Dorsey abbia riconosciuto che la decisione costituisce un “pericoloso precedente “, Twitter, come altre società di social media non è tornato sui suoi passi. Alcune società più recenti, come MeWe e Rumble, offrono una moderazione dei contenuti più permissiva per consentire una maggiore libertà di espressione per gli utenti.

Gab si descrive come “Un social network che sostiene la libertà di parola, la libertà individuale e il libero flusso di informazioni online. Tutti sono i benvenuti. ” Le linee guida sui contenuti di Parler sono ancora più basilari e mantengono la moderazione dei contenuti al minimo assoluto. “Preferiamo lasciare le decisioni su ciò che si vede e chi è ascoltato a ogni individuo “. Ma Gab e Parler sono attualmente banditi dagli app store di Apple e Google a causa della mancanza di moderazione dei contenuti.

LEAVE A REPLY

Please enter your comment!
Please enter your name here