Alexandria Ocasio-Cortez afferma che gli algoritmi possono essere razzisti. Ecco perché ha ragione.

  • Jacob Hoover
  • 0
  • 2090
  • 91

La scorsa settimana, la neoeletta rappresentante degli Stati Uniti Alexandria Ocasio-Cortez ha fatto notizia quando ha affermato, come parte del quarto evento annuale MLK Now, che le tecnologie e gli algoritmi di riconoscimento facciale "hanno sempre queste disuguaglianze razziali che vengono tradotte, perché gli algoritmi sono ancora fatti da esseri umani, e quegli algoritmi sono ancora ancorati a presupposti umani di base. Sono solo automatizzati. E presupposti automatizzati - se non aggiusti il ​​bias, allora stai solo automatizzando il bias ".

Ciò significa che gli algoritmi, che sono teoricamente basati sulle verità oggettive della matematica, possono essere "razzisti"? E se è così, cosa si può fare per rimuovere tale pregiudizio? [Le 11 equazioni matematiche più belle]

Si scopre che l'output degli algoritmi può effettivamente produrre risultati distorti. Gli scienziati dei dati affermano che i programmi per computer, le reti neurali, gli algoritmi di apprendimento automatico e l'intelligenza artificiale (AI) funzionano perché imparano a comportarsi dai dati che vengono forniti. Il software è scritto da esseri umani, che hanno pregiudizi, e i dati di allenamento sono generati anche da persone che hanno pregiudizi.

Le due fasi dell'apprendimento automatico mostrano come questo pregiudizio possa insinuarsi in un processo apparentemente automatizzato. Nella prima fase, la fase di addestramento, un algoritmo apprende sulla base di un insieme di dati o di determinate regole o restrizioni. La seconda fase è la fase di inferenza, in cui un algoritmo applica ciò che ha appreso nella pratica. Questa seconda fase rivela i pregiudizi di un algoritmo. Ad esempio, se un algoritmo viene addestrato con immagini di sole donne che hanno i capelli lunghi, allora penserà che chiunque abbia i capelli corti sia un uomo.

Google è stata infamemente presa di mira nel 2015 quando Google Foto ha etichettato i neri come gorilla, probabilmente perché quelli erano gli unici esseri dalla pelle scura nel set di addestramento.

E i pregiudizi possono insinuarsi attraverso molte strade. "Un errore comune è addestrare un algoritmo a fare previsioni basate su decisioni passate di esseri umani prevenuti", ha detto Sophie Searcy, una scienziata dei dati senior al bootcamp Metis per la formazione sulla scienza dei dati. "Se creo un algoritmo per automatizzare le decisioni precedentemente prese da un gruppo di addetti ai prestiti, potrei prendere la strada più facile e addestrare l'algoritmo sulle decisioni passate di quegli addetti ai prestiti. Ma poi, ovviamente, se quegli addetti ai prestiti fossero di parte, allora l'algoritmo che creo continuerà questi pregiudizi. "

Searcy ha citato l'esempio di COMPAS, uno strumento predittivo utilizzato nel sistema di giustizia penale degli Stati Uniti per la sentenza, che cerca di prevedere dove si verificherà il crimine. ProPublica ha eseguito un'analisi su COMPAS e ha scoperto che, dopo aver controllato per altre spiegazioni statistiche, lo strumento ha sovrastimato il rischio di recidiva per gli imputati neri e costantemente sottovalutato il rischio per gli imputati bianchi.

Per aiutare a combattere i bias algoritmici, ha detto Searcy, ingegneri e data scientist dovrebbero creare set di dati più diversificati per nuovi problemi, oltre a cercare di comprendere e mitigare il bias incorporato nei set di dati esistenti.

Innanzitutto, ha affermato Ira Cohen, scienziato dei dati presso la società di analisi predittiva Anodot, gli ingegneri dovrebbero disporre di un set di formazione con una rappresentazione relativamente uniforme di tutti i tipi di popolazione se stanno addestrando un algoritmo per identificare attributi etnici o di genere. "È importante rappresentare un numero sufficiente di esempi da ogni gruppo di popolazione, anche se sono una minoranza nella popolazione complessiva esaminata", ha detto Cohen. Infine, Cohen consiglia di verificare la presenza di pregiudizi su un set di test che includa persone di tutti questi gruppi. "Se, per una certa razza, l'accuratezza è statisticamente significativamente inferiore rispetto alle altre categorie, l'algoritmo potrebbe avere un bias, e valuterei i dati di allenamento che sono stati utilizzati per questo", ha detto Cohen a WordsSideKick.com. Ad esempio, se l'algoritmo è in grado di identificare correttamente 900 volti bianchi su 1.000, ma rileva correttamente solo 600 volti asiatici su 1.000, l'algoritmo potrebbe avere un pregiudizio "contro" asiatici, ha aggiunto Cohen.

Rimuovere i pregiudizi può essere incredibilmente difficile per l'IA.

Persino Google, considerato un precursore nell'intelligenza artificiale commerciale, apparentemente non è riuscito a trovare una soluzione completa al suo problema dei gorilla dal 2015. Wired ha scoperto che invece di trovare un modo per i suoi algoritmi di distinguere tra persone di colore e gorilla, Google ha semplicemente bloccato i suoi algoritmi di riconoscimento delle immagini dall'identificazione dei gorilla.

L'esempio di Google è un buon promemoria del fatto che la formazione del software di intelligenza artificiale può essere un esercizio difficile, in particolare quando il software non viene testato o addestrato da un gruppo di persone rappresentativo e diversificato.

  • Intelligenza artificiale: amichevole o spaventosa?
  • Macchine super intelligenti: 7 Futures robotici
  • 10 nuove pazze abilità che i robot hanno acquisito nel 2018

Pubblicato originariamente su .




Nessun utente ha ancora commentato questo articolo.

Gli articoli più interessanti su segreti e scoperte. Molte informazioni utili su tutto
Articoli su scienza, spazio, tecnologia, salute, ambiente, cultura e storia. Spiegare migliaia di argomenti in modo da sapere come funziona tutto