Meta rimuove i contenuti sullo sfruttamento sessuale dei minori su Facebook dopo la notifica dell’autorità di Singapore

0
397
Facebook elimina il riconoscimento facciale

La legge sulla sicurezza online, approvata nel novembre 2022, rende le piattaforme di social media responsabili se non riescono a proteggere gli utenti dai danni online.
L’Infocomm Media Development Authority (IMDA) ha notificato a Meta di rivedere e rimuovere i contenuti di Facebook contenenti materiale sullo sfruttamento sessuale dei minori (CSEM), ha dichiarato venerdì (9 giugno) l’agenzia.

Secondo l’IMDA, Meta, la società madre di Facebook, Instagram e WhatsApp, ha rimosso la pagina e il gruppo incriminato entro 24 ore.


È la prima volta che l’IMDA notifica a un servizio di social media la presenza di contenuti di questo tipo, in seguito alle modifiche apportate lo scorso novembre alla legge sulle trasmissioni radiotelevisive per includere maggiori requisiti di sicurezza online.

La polizia aveva segnalato all’agenzia una pagina Facebook che faceva parte di una rete online che facilitava la condivisione di CSEM, scoprendo in seguito un gruppo Facebook con post simili.

“I post contenevano collegamenti ipertestuali che conducevano gli spettatori a un sito web con il CSEM”, ha dichiarato l’IMDA, aggiungendo che ha anche ordinato ai fornitori di servizi Internet di Singapore di bloccare un sito web collegato che consentiva l’accesso e la distribuzione di contenuti simili.

Lo scorso anno il Parlamento ha approvato la legge sulla sicurezza online, che impone ai siti di social media di bloccare l’accesso a contenuti dannosi entro poche ore. La legge autorizza l’IMDA a occuparsi dei contenuti online dannosi accessibili agli utenti di Singapore, indipendentemente dal luogo in cui i contenuti sono ospitati o avviati.

In base alla legge emendata, l’IMDA può ordinare alle società di social media di bloccare o rimuovere tali contenuti e l’agenzia ha dichiarato che non esiterà a farlo se non verrà intrapresa un’azione rapida.


L’IMDA può anche ordinare a un fornitore di servizi Internet di bloccare l’accesso degli utenti a Singapore, nel caso in cui un servizio di comunicazione online si rifiuti di rimuovere contenuti online dannosi.

La legge è entrata in vigore il 1° febbraio di quest’anno.


La polizia e l’IMDA considerano seriamente la sollecitazione e la distribuzione di CSEM, che è un tipo di contenuto grave secondo la definizione del Broadcasting Act modificato, ha dichiarato l’agenzia.

Altre forme di contenuti che rientrano nell’ambito di questa legge sono quelli che incitano al terrorismo, al suicidio e all’autolesionismo, così come quelli che rappresentano un rischio per la salute pubblica o quelli che possono causare disarmonie razziali e religiose a Singapore.

“Anche i servizi di social media hanno la responsabilità di garantire la sicurezza online di tutti gli utenti, in particolare dei bambini”, ha dichiarato l’IMDA.
“Riconosciamo che negli ultimi anni l’industria ha adottato misure attive per combattere i contenuti online dannosi sui social media e invitiamo i servizi di social media a rimanere vigili nell’individuare e prevenire la diffusione di contenuti online dannosi attraverso le loro piattaforme e i loro servizi”.

L’IMDA ha aggiunto che continuerà a lavorare a stretto contatto con i servizi di social media per migliorare la sicurezza online di Singapore.

LEAVE A REPLY

Please enter your comment!
Please enter your name here