Il Guardian riporta che il generatore di adesivi di WhatsApp inserisce spesso pistole quando vengono richiesti termini legati alla Palestina, ma non per quelli che riguardano Israele.
Su WhatsApp di Meta, gli utenti possono generare adesivi utilizzando suggerimenti dell’intelligenza artificiale. Il Guardian ha riferito venerdì che il modello di intelligenza artificiale utilizzato per creare questi adesivi a volte genera immagini di bambini che impugnano armi da fuoco quando vengono richiesti “Palestina” e parole simili. Nel frattempo, secondo il giornale, le richieste di “Israele” non hanno prodotto immagini di questo tipo.
Un mese fa, il generatore di adesivi AI di Meta ha iniziato a diffondersi con la tendenza a creare immagini inappropriatamente violente o volgari, tra cui, appunto, bambini soldato. Secondo l’articolo, una fonte senza nome ha dichiarato che alcuni lavoratori dell’azienda hanno segnalato e aggravato il problema con messaggi relativi alla guerra in Israele.
Il portavoce di Meta, Kevin McAlister, ha dichiarato a The Verge via e-mail che l’azienda sta affrontando il problema, aggiungendo che Meta “continuerà a migliorare queste funzioni man mano che si evolveranno e che sempre più persone condivideranno i loro feedback”.
Meta ha avuto altri problemi di distorsione nei suoi modelli di intelligenza artificiale, come la funzione di traduzione automatica di Instagram che ha inserito la parola “terrorista” nelle biografie degli utenti scritte in arabo, facendo eco a una traduzione errata di Facebook che ha portato all’arresto di un uomo palestinese in Israele nel 2017.