Twitter elimina l’algoritmo che discrimina i neri

0
647
Twitter

La decisione arriva dopo le numerose richieste degli utenti: Twitter decide di eliminare l’algoritmo di ritaglio.

Perché Twitter elimina l’algoritmo di ritaglio?

L’algoritmo che decide l’anteprima delle foto troppo grandi è oggetto di critiche da parte della comunità di utenti. Il motivo? L’intelligenza artificiale preferisce mostrare i volti più chiari presenti nella foto. Se nell’immagine ci sono due uomini, e uno dei due è nero, la funzione di ritaglio mostra nell’anteprima la persona con la carnagione più chiara. Al fine di evitare spiacevoli inconvenienti, Twitter pensa sia meglio consentire la pubblicazione di immagini intere e non ritagliate. A scoprire l’algoritmo razzista è la ricercatrice Joy Buolamwini, protagonista di un documentario di Netflix intitolato Coded Bias. È Buolamwini che, dopo uno studio, scopre l’intelligenza artificiale mal funzionante.

Twitter: i pregiudizi dell’intelligenza artificiale

Joy Buolamwini, informatica ghanese del MIT Media Lab e fondatrice dell’Algorithmic Justice League, smaschera l’infausto algoritmo nel corso di una ricerca. L’informatica sottopone 1000 volti ad alcuni sistemi di riconoscimento facciale e scopre che il software ha qualche difficoltà a riconoscere i soggetti di pelle scura. Tutto questo accadeva nel 2018. Gli algoritmi, scoprì la ricercatrice, codificavano i bias tipici della nostra società e prendevano decisioni di importanza cruciale ai danni dei soliti esclusi. Grazie a questo studio e ad un articolo intitolato Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification, IBM e Microsoft adeguarono i propri algoritmi. Ora è la volta di Twitter.

Coded Bias

L’idea di un algoritmo razzista sembra il colpo di scena di una sceneggiatura fantascientifica, invece è realtà. Il documentario intitolato Coded Bias parla proprio di questo. Il docufilm racconta l’episodio che portò Buolamwini a indagare gli errori dell’intelligenza artificiale. La Boulamwin scoprì che l’algoritmo non la riconosceva. Il suo volto era, per la macchina, invisibile. L’informatica provò allora ad indossare una maschera bianca, del tutto anonima, e il software la riconobbe. E visto che il sistema di riconoscimento si fonda sui nostri dati, la conclusione alla quale arriva oggi la Buolamwini è che la rete artificiale attinge alla storia del nostro razzismo.

LEAVE A REPLY

Please enter your comment!
Please enter your name here