Per anni ha imperversato una battaglia di idee oltre i limiti del discorso online, incentrata principalmente su Facebook, Twitter e, in misura minore, YouTube. Resistenti per natura al lavoro disordinato e costoso di controllare quanto dicono degli utenti, quelle vaste piattaforme hanno allargato a malincuore la loro forza lavoro di moderazione dei contenuti online. Hanno ampliato le loro politiche sui contenuti e rafforzato le loro applicazioni in risposta a contraccolpi dei media, minacce normative, boicottaggi degli inserzionisti e rivolte dai propri dipendenti. Un sistema che pare non aver toccato, per ora, Pornhub e Peloton.
Le battaglie contro i falsi contenuti
Queste battaglie sono tutt’altro che finite e potrebbero non esserlo mai. Ma nonostante tutta l’attenzione prestata ad alcune piattaforme di alto profilo, innumerevoli altri forum online hanno ampiamente evitato il controllo delle loro politiche sui contenuti, finora.
“Questo cambierà” dice Evelyn Douek, docente di diritto ad Harvard che ricerca il discorso online. E cambierà in fretta, crede. Ha sviluppato una teoria funzionante del discorso online che spiega perché e offre alcuni indizi su ciò che le piattaforme dovrebbero fare riguardo all’espressione dannosa, idealmente prima che si trovino in prima pagina per le ragioni sbagliate.
Il modello di moderazione dei contenuti online
Le controversie sulla moderazione dei contenuti non riguardano più solo i social network.
Venerdì, l’editorialista del New York Times Nick Kristof ha pubblicato un articolo su Pornhub, l’enorme sito di pornografia che ha cercato di posizionarsi come un gigante di Internet più o meno rispettabile con una vena maliziosa. I suoi rapporti dimostrano che Pornhub trae profitto sistematicamente da atroci crimini sessuali ospitando e monetizzando i video pubblicati dagli utenti senza una supervisione sufficientemente attenta.
Cosa dice l’articolo su NYT?
Quel presunto “sano Pornhub” attira 3,5 miliardi di visite al mese, più di Netflix, Yahoo o Amazon. Pornhub raccoglie denaro da quasi tre miliardi di impressioni pubblicitarie al giorno. Una classifica elenca Pornhub come il decimo sito web più visitato al mondo.
Eppure c’è un altro aspetto dell’azienda: il suo sito è infestato da video di stupro. Monetizza gli stupri di minori, la pornografia per vendetta, i video delle telecamere spia di donne che fanno la doccia, contenuti razzisti e misogini e filmati di donne asfissiate in sacchetti di plastica. La ricerca di “ragazze sotto i 18 anni” (senza spazio) o “14 anni” porta in ogni caso a più di 100.000 video. La maggior parte non riguarda bambini che vengono aggrediti, ma troppi lo sono.
La posizione di Pornhub e la moderazione dei contenuti online
La risposta di Pornhub rispecchia quella di altre piattaforme che non sono abituate a confrontarsi pubblicamente. I commenti della società erano concisi e difensivi, insistendo sul fatto di avere il problema sotto controllo mentre si rifiutavano di discutere come o con quali risorse. Un moderatore anonimo ha dichiarato a Kristof che la società madre di Pornhub, Mindgeek, ha solo 80 moderatori in tutto il mondo. Insomma, sembra che stia facendo il minimo indispensabile, sperando di farla franca. Kristof riconosce che un sito porno rivale, Xvideos, potrebbe avere “ancora meno scrupoli” e “attrarre più video”, anche se per lo più scorre nel suo pezzo. Indipendentemente dal fatto che Pornhub sia colpevole o meno come sostiene Kristof, sembra probabile che l’industria del porno online sia pronta per un periodo di notizie negative.
Il ciclo di vita dei contenuti generati dagli utenti
“È l’inevitabile ciclo di vita di una piattaforma di contenuti generati dagli utenti“, afferma Kristof. Funziona nel modo seguente:
- Qualcuno, spesso un attivista o un giornalista, trova contenuti ripugnanti sulla piattaforma X.
- Diventa uno scandalo e la pressione aumenta man mano che vengono scoperti più esempi.
- La piattaforma alla fine interviene, ma lo fa in modo casuale e reattivo, orientato a risolvere il problema delle PR piuttosto che i problemi sottostanti.
- Presto o tardi, il suo approccio incoerente alla moderazione scatena una reazione propria.
La storia di Pornhub
Forse avrebbe dovuto essere ovvio che questo giorno sarebbe arrivato per una piattaforma come Pornhub. Ma la teoria di Douek sostiene che arriverà anche per piattaforme che non sembrano candidati ovvi per controversie sulla moderazione dei contenuti. In breve “Se hai intenzione di avere utenti che generano contenuti, avrai utenti che generano contenuti dannosi“, ha detto Douek in un’intervista telefonica. “E devi pensare in anticipo a cosa farai al riguardo”. Ha il suono di una legge di Internet, simile alla legge di Poe o alla legge di Godwin.
Tutte le lotte contro il controllo dei contenuti generati dagli utenti
Per quanto ovvia possa sembrare la tesi, ogni settimana ora sembra portare nuovi esempi di piattaforme che non sono riuscite a prenderne a cuore le implicazioni. Abbiamo visto Spotify lottare per spiegare perché andava bene che la sua star del podcast Joe Rogan ospitasse Alex Jones, che Spotify aveva bandito dalla sua piattaforma due anni prima. La piattaforma di newsletter in rapida crescita Substack finora ha resistito alle richieste di rimuovere i post di “Stop the Steal” anche se Facebook ha intrapreso un’azione aggressiva contro i gruppi che spingono le affermazioni di frode elettorale smascherate. Persino Peloton, tra tutte le società, ha dovuto affrontare un piccolo problema di moderazione dei contenuti dopo che un editore del Washington Post ha individuato gli hashtag di QAnon tra le opzioni per connettersi con ciclisti che la pensano allo stesso modo. Peloton in seguito li ha rimossi.
I progressi di Facebook e Twitter nella moderazione dei contenuti online
Per le piattaforme direttamente nel business dei social media, e in particolare quelle che amplificano algoritmicamente i contenuti, non ci sono scuse a questo punto per considerare la moderazione dei contenuti come qualcosa di meno centrale per il business. I progressi compiuti da Facebook e Twitter sulla moderazione dei contenuti finiranno per aumentare la pressione su altre piattaforme, da YouTube in giù. Più restrittivi diventano i giganti dei social media e più problemi affrontano, più questi problemi migreranno verso siti con regole e sistemi di moderazione meno sviluppati. E maggiore sarà la pressione che dovranno affrontare quelle piattaforme più piccole per affrontarle. Ad esempio, Joe Rogan che ospita Alex Jones su Spotify probabilmente non avrebbe suscitato una tale protesta se non fosse già stato buttato fuori da altre piattaforme.
Peloton
Come illustra l’esempio di Peloton, tuttavia, non tutte le piattaforme online che ospitano contenuti generati dagli utenti sono in grado di addentrarsi a capofitto nei meandri della politica vocale online. Per alcune delle piattaforme più grandi e social, come Roblox o Minecraft, investire nella moderazione è quasi certamente necessario e utile. Ma per altri potrebbe essere più semplice chiudere le funzioni di messaggistica che ampliare le risorse per moderare adeguatamente.
La moderazione dei contenuti un nuovo servizio per i social media
Esistono già startup che offrono strumenti per rilevare commenti che potrebbero indicare incitamento all’odio o contro i bambini. Non è difficile immaginare un futuro che includa aziende che offrono moderazione della piattaforma umana, per coloro che non vogliono o non sono in grado di assumersela da soli. Ci saranno sempre contenuti dannosi, ci saranno sempre dibattiti su cosa siano i contenuti dannosi e dove tracciare la linea, e ci saranno sempre errori. Ma questo non significa che dovremmo alzare le mani, ha aggiunto.
Da dove iniziare?
Si cono almeno due posti per iniziare con la moderazione dei contenuti online. Uno è la maggiore trasparenza dalle piattaforme. L’altro è che le piattaforme e i loro critici si concentrino meno su risultati rapidi e concreti e più su regole e processi che saranno costantemente applicabili in futuro.
Facebook 2020: il giallo dei post rimossi senza nessun motivo