Ricercatori di Stanford scoprono che Mastodon ha un enorme problema di materiale pedopornografico

0
237


Mastodon, la rete decentralizzata considerata una valida alternativa a Twitter, è piena di materiale pedopornografico (CSAM), secondo un nuovo studio dell’Osservatorio Internet di Stanford (via Washington Post). In soli due giorni, i ricercatori hanno trovato 112 casi di CSAM noto in 325.000 post sulla piattaforma, il primo dei quali è stato trovato dopo soli cinque minuti di ricerca.

Per condurre la ricerca, l’Internet Observatory ha analizzato le 25 istanze più popolari di Mastodon alla ricerca di CSAM. I ricercatori hanno anche utilizzato l’API SafeSearch di Google per identificare le immagini esplicite, insieme a PhotoDNA, uno strumento che aiuta a trovare CSAM segnalate. Durante la ricerca, il team ha trovato 554 contenuti che corrispondevano ad hashtag o parole chiave spesso utilizzate da gruppi di abuso sessuale su minori online, tutti identificati come espliciti con la “massima sicurezza” da Google SafeSearch.

La pubblicazione aperta di CSAM è “preoccupantemente diffusa”.

Sono stati inoltre utilizzati 713 hashtag tra i primi 20 relativi a CSAM in tutto il Fediverse su post che contenevano media, oltre a 1.217 post di solo testo che indicavano “commercio di CSAM fuori sede o adescamento di minori”. Lo studio rileva che la pubblicazione aperta di CSAM è “preoccupantemente diffusa”.

Un esempio si riferisce all’interruzione prolungata del server di mastodon.xyz che abbiamo notato all’inizio del mese, un incidente che si è verificato a causa di CSAM postato su Mastodon. In un post sull’incidente, l’unico manutentore del server ha dichiarato di essere stato avvisato della presenza di contenuti contenenti CSAM, ma ha fatto notare che la moderazione viene effettuata nel suo tempo libero e può richiedere fino a qualche giorno: non si tratta di un’operazione gigantesca come Meta, con un team mondiale di appaltatori, ma di una sola persona.

Pur dichiarando di aver preso provvedimenti contro il contenuto in questione, l’host del dominio mastodon.xyz lo aveva comunque sospeso, rendendo il server inaccessibile agli utenti fino a quando non fosse stato in grado di contattare qualcuno per ripristinare il suo elenco. Dopo aver risolto il problema, l’amministratore di mastodon.xyz afferma che la società di registrazione ha aggiunto il dominio a un elenco di “falsi positivi” per evitare future rimozioni. Tuttavia, come sottolineano i ricercatori, “ciò che ha causato l’azione non era un falso positivo”.

“In un periodo di due giorni abbiamo avuto più riscontri da PhotoDNA di quanti ne abbiamo avuti in tutta la storia della nostra organizzazione nell’analisi di qualsiasi tipo di social media, e non ci siamo nemmeno vicini”, ha dichiarato David Thiel, uno dei ricercatori del rapporto, in una dichiarazione al Washington Post. “In gran parte è solo il risultato di quella che sembra essere una mancanza di strumenti che le piattaforme centralizzate di social media utilizzano per affrontare i problemi di sicurezza dei bambini”.


Con la crescita della popolarità delle reti decentralizzate come Mastodon, sono cresciute anche le preoccupazioni per la sicurezza. Le reti decentralizzate non utilizzano lo stesso approccio alla moderazione dei siti tradizionali come Facebook, Instagram e Reddit. Invece, a ogni istanza decentralizzata viene dato il controllo sulla moderazione, il che può creare incoerenza tra i vari Fediverse. Per questo motivo i ricercatori suggeriscono che le reti come Mastodon impieghino strumenti più robusti per i moderatori, insieme all’integrazione di PhotoDNA e alla segnalazione di CyberTipline.


LEAVE A REPLY

Please enter your comment!
Please enter your name here