La piattaforma di social media ha pubblicato un lungo post sul suo blog per illustrare i suoi sforzi di moderazione, sottolineando che sta lavorando con persone che parlano correntemente ebraico e arabo per monitorare e rispondere alla situazione.
Nei tre giorni successivi agli attacchi terroristici compiuti da Hamas contro Israele il 7 ottobre, Meta ha dichiarato di aver rimosso “sette volte più contenuti su base giornaliera” per violazione della sua politica sulle organizzazioni e gli individui pericolosi in ebraico e arabo rispetto ai due mesi precedenti. La rivelazione fa parte di un post sul blog in cui la società di social media illustra i suoi sforzi di moderazione durante la guerra in corso in Israele.
Sebbene non menzioni l’UE o il suo Digital Services Act, il post di Meta è stato pubblicato pochi giorni dopo che il commissario europeo Thierry Breton ha scritto una lettera aperta a Meta per ricordare all’azienda i suoi obblighi di limitare la disinformazione e i contenuti illegali sulle sue piattaforme. Breton ha scritto che la Commissione sta “assistendo a un’impennata di contenuti illegali e di disinformazione diffusi nell’UE attraverso alcune piattaforme” e ha chiesto “con urgenza” all’amministratore delegato di Meta, Mark Zuckerberg, di “garantire che i vostri sistemi siano efficaci”. Il commissario ha scritto lettere simili anche a X, la società precedentemente nota come Twitter, e a TikTok.
Quasi 800.000 contenuti “rimossi o contrassegnati come inquietanti”.
Meta afferma di aver “rimosso o contrassegnato come disturbanti” oltre 795.000 contenuti nei tre giorni successivi al 7 ottobre per aver violato le sue politiche in ebraico e arabo e afferma che Hamas è bandito dalle sue piattaforme. L’azienda afferma inoltre che sta adottando misure più temporanee, come il blocco degli hashtag e la priorità dei servizi Facebook e Instagram Live relativi alla crisi. L’azienda afferma inoltre che sta consentendo la rimozione di contenuti senza disabilitare gli account, perché il volume più elevato di contenuti rimossi significa che alcuni potrebbero essere rimossi per errore.
L’operatore di Instagram e Facebook aggiunge di aver creato un “centro operativo speciale” con esperti che parlano correntemente ebraico e arabo per rispondere alla situazione. Questo è notevole, dato che una delle cose principali che Meta (allora conosciuta come Facebook) ha fatto dopo essere stata criticata per la sua risposta alla violenza genocida in Myanmar è stata quella di costruire un team di madrelingua Myanmar.
Anche di recente, i precedenti di Meta in materia di moderazione non sono stati perfetti. I membri del programma Trusted Partner, che dovrebbe consentire a organizzazioni esperte di segnalare all’azienda problemi relativi ai contenuti su Facebook e Instagram, si sono lamentati della lentezza delle risposte, e l’azienda è stata criticata per aver modificato le politiche di moderazione in relazione alla guerra tra Russia e Ucraina.
La descrizione della moderazione di X in relazione al conflitto non menziona le lingue parlate dal suo team di risposta. La Commissione europea ha inviato formalmente a X una richiesta di informazioni ai sensi del Digital Services Act, citando la “presunta diffusione di contenuti illegali e di disinformazione”, tra cui “la diffusione di contenuti terroristici e violenti e di incitamento all’odio”.