Grave scivolone totalmente unpolite per Facebook, con un algoritmo fuori controllo che associa le persone di colore ai primati
È noto che la questione legata alla gestione dei contenuti del social sia una materia quanto più complessa e spinosa. Non a caso in questo senso l’azienda di Mark Zuckerberg ha costruito una rete a maglie sempre più strette. Questo sistema di controllo si pone come obiettivo quello di costruire l’impalcatura di un setaccio virtuale che filtri in maniera efficiente immagini, video e notizie.
Il pointset è quello di cercare di mantenere sulle nostre bacheche un clima accettabile e quanto più possibile rispettoso, inclusivo, oltre che privo di contenuti violenti.
Ma purtroppo tutti gli sforzi fatti in questa direzione compiuti della società non sono valsi a salvare Facebook dal terribile pasticcio mediatico che ha travolto come una valanga il social a ha profondamente indignato un’intera comunità e tutti gli utenti, sensibili alla questione Black Metters, in ogni angolo del pianeta.
LEGGI ANCHE: Facebook al centro delle critiche per il libro rivelazione “Un’orribile verità”, quello che non è arrivato su Web
E questo è un sistema a rete dove la comunicazione è diretta ed immediata e non sono ammessi scivoloni o sbavature così eclatanti. Non stupisce che la notizia dell’errore commesso abbia quindi fatto in breve il giro del mondo.
Facebook corre ai ripari e riconosce la non accettabilità dell’errore
Parliamo nello specifico di quello che hanno potuto visionare tutti gli utenti tra i contenuti consigliati. A generare l’errore ci ha pensato un algoritmo fuori controllo. Questo ha commesso un imperdonabile sbaglio, pubblicando sotto la schermata di un video a tema sicurezza, con protagonisti le forze dell’ordine e una persona di colore, il suggerimento di visionare altri “video di primati”, associando i protagonisti di colore della vicenda alle scimmie.
Il titolo del video è già di per se scandaloso, intitolandosi “ Uomo bianco chiama le forze dell’ordine contro dei neri al porto turistico” e va a toccare delle tematiche razziali totalmente non politically correct. Si tratta di un contenuto di più di un anno fa pubblicato dal giornale britannico Daily Mail e all’interno di esso sono presenti solo persone.
A denunciare l’accaduto ci ha pensato lo scandaglio vigile del NY Times, che ha rimbalzato la notizia.
LEGGI ANCHE: Facebook: nuova politica di censura preventiva contro le fake news
La reazione di Facebook è stata tempestiva Inizialmente è corsa subito ai ripari “spegnendo” la funzione che ha creato questo incidente e successivamente attraverso il suo portavoce si è espressa con dichiarazioni di scuse e rammarico per quanto suggerito dall’algoritmo, promettendo un approfondimento per comprendere quali siano state le cause che hanno portato all’errore e prevenirlo in futuro.
L’agenzia di stampa francesca ANP, la cui mission è garantire un sistema internazionale accurato, imparziale e super partes, ha aperto un’inchiesta che chiede all’azienda californiana maggiori chiarimenti e spiegazioni relative a quanto accaduto. E intanto si attende l’onda d’urto da parte del popolo social.