Da Twitter una nuova iniziativa per contrastare i pregiudizi e migliorare gli algoritmi con ‘Responsible Machine Learning’. Lo scopo di Twitter è quello di contrastare i pregiudizi del suo algoritmo fino ad arrivare a dare agli utenti una “scelta algoritmica”
Il fondatore di Twitter, Jack Dorsey ha annunciato l’avvio del progetto ‘Responsible Machine Learning’, che mira ad analizzare in che modo gli algoritmi in uso dal social facilitano il pregiudizio online.
L’intento è quello di capire le strade prese dall’apprendimento automatico di Twitter che può portare, anche senza volerlo, a pregiudizi algoritmici, con un impatto negativo sugli utenti.
Un team di ingegneri, data scientist e ricercatori è già al lavoro per capire in che modo l’utilizzo dell’apprendimento automatico da parte di Twitter possa portare a pregiudizi algoritmici che possono portare a un impatto negativo sugli utenti.
Il fine è ultimo è migliorare l’apprendimento automatico ed evitare preconcetti razziali, di genere o politici.
LEGGI ANCHE: Twitter, se scrivi 5 post contenenti fake news sul vaccino Covid sei out
Tra i vari step che l’iniziativa seguirà, c’è quello di comprendere come e quando l’algoritmo di Twitter preferisce far visualizzare nelle bacheche degli utenti tweet con foto di persone di carnagione bianca, piuttosto che altre.
Questo è tra i primi comiti del team: valutare quel pregiudizio razziale e di genere dell’algoritmo che lo spinge a preferire i volti bianchi a quelli neri.
A notarlo sono stati gli utenti partendo dalle anteprime delle foto ritagliate automaticamente dal social.
Già dal mese scorso la società ha cominciato a testare la visualizzazione di immagini complete anziché di anteprime tagliate per ovviare il problema.
Nel mirino degli analisti finiranno anche il modo in cui il feed si presenta alle persone a seconda della loro etnia e leraccomandazioni sui contenuti di tipo politico a seconda del paese.
Un presupposto notato tempo fa, partendo dalle anteprime delle foto ritagliate automaticamente dal social, che escludeva appunto persone di colore.
LEGGI ANCHE: Bitcoin in regalo su Twitter? No, è un tentativo di frode: ecco come avviene
Come va avanti la vicenda?
Nel mirino degli analisti anche il modo in cui il feed si presenta alle persone a seconda della loro etnia e le raccomandazioni sui contenuti di tipo politico per provenienza.
L’analisi di Twitter e di come funziona è ancora agli albori e il social stesso ha dichiarato che non ci sono idee precise su cosa verrà scoperto: l’intento è quello di lavorare gomito a gomito con ricercatori accademici e condividere i risultati chiedendo anche un contributo da parte degli utenti.
Quello che è chiaro è che i risultati “potrebbero non sempre tradursi in modifiche visibili del prodotto”, portando però “una consapevolezza maggiore e discussioni importanti” sul modo in cui viene utilizzato il machine learning.
“A guidare questo lavoro è il team ML Ethics, Transparency and Accountability (META)” ha spiegato Twitter “ un gruppo dedicato di ingegneri, ricercatori e data scientist che collaborano in tutta l’azienda per valutare i danni non intenzionali a valle o attuali negli
algoritmi, così da stabilire quali priorità affrontare prima”.
Anticipando l’iniziativa, a febbraio Dorsey aveva parlato del Twitter del futuro, dove gli utenti potrebbero scegliere da soli a quali contenuti dare maggiore importanza, gestendo il feed in maniera personalizzata.