Qualsiasi metodo sistematico di calcolo utilizzato per il web non ha pregiudizi razziali, chi li formula, però a volte sì
![](https://comune-info.net/wp-content/uploads/2019/05/matrix-4127272_960_720.jpg)
Ci sono razzisti che riescano a influenzare anche il comportamento delle applicazioni informatiche. Nel 2018 Joy Buolamwini, ricercatrice al Mit (Massachusetts Institute of Technology), pubblica uno studio in cui mette in luce come i sistemi di riconoscimento facciale, venduti da alcune grandi aziende, avessero un tasso di riconoscimento delle donne dalla pelle scura del 34 per cento più basso di quello degli uomini di pelle chiara.
Altri articoli usciti nello stesso periodo hanno confermato questa tesi, individuando la causa di tale disparità nel fatto che l’algoritmo è alimentato con dati distorti. Infatti agli strumenti di identificazione vengono sottoposti molti più volti “bianchi” rispetto al numero di quelli dalla pelle scura. La qualità dei risultati ottenuti da un algoritmo dipende totalmente dalla bontà dei dati utilizzati per addestrarlo. E se questi dati sono viziati dai pregiudizi umani, ecco che la macchina li farà suoi, riportandoli nei risultati ottenuti.
Un altro esempio di questa tendenza ci viene da Tay, un software progettato da Microsoft, che impersonava un utente di Twitter e immagazzinava dati interagendo con gli utenti dei social network. In poco tempo, i troll hanno dato in pasto a Tay una miriade di opinioni razziste, omofobe, ecc (nel gergo di Internet, troll è un soggetto che interagisce con gli altri tramite messaggi provocatori, irritanti, fuori tema o semplicemente senza senso e/o del tutto errati, con il solo obiettivo di disturbare la comunicazione e fomentare gli animi). Nel giro di ventiquattro ore, Tay è diventata la prima intelligenza artificiale nazista della storia. Prima di venir chiusa da Microsoft, è riuscita infatti a twittare il suo supporto a Hitler.
Il problema è che tutti gli algoritmi di questo tipo sono allenati utilizzando testi reperiti in libri o in articoli, per cui non fanno che riproporre i pregiudizi contenuti nel materiale umano che viene usato per addestrarli. Secondo la ricercatrice Amanda Levendowski (New York University), una delle ragioni per cui spesso i testi analizzati dalle intelligenze artificiali sono viziati da pregiudizi è legata al diritto d’autore, che costringe i ricercatori a utilizzare vecchi testi di dominio pubblico: «La maggior parte delle opere oggi di dominio pubblico sono state pubblicate prima degli anni Venti. Un database che faccia affidamento solo su questi lavori non potrà che riflettere i pregiudizi del tempo».
Per fortuna gli algoritmi non hanno pregiudizi razziali, chi li formula, però a volte sì.
____________________
Pubblicato su Nigrizia e qui con il consenso dell’editore.
*Docente di antropologia culturale presso l’università di Genova, è autore di numerosi libri di saggistica (tra cui Eccessi di culture e Il dono al tempo di Internet per Einaudi, Etnografia del quotidiano e La macchia della razza per eleuthera) e di alcuni libri di narrativa e per bambini.
Lascia un commento