Nel 2014 Amazon ha iniziato a utilizzare un software di Intelligenza Artificiale per una prima scrematura delle migliaia di candidature di impiego che arrivavano ogni giorno. In pratica il software dava a ciascun candidato una valutazione che risultava indispensabile prima di incontrare un esaminatore in carne e ossa. Ora però, come rivela la Reuters, gli stessi programmatori che hanno messo a punto il software si sono resi conto di un eccessivo sbilanciamento dei risultati verso il sesso maschile.
Gli stessi programmatori che hanno messo a punto il software si sono resi conto di un eccessivo sbilanciamento dei risultati verso il sesso maschile
La responsabilità naturalmente non è della macchina ma di chi l’ha programmata impostando l’algoritmo sulle assunzioni degli ultimi dieci anni, quando la predominanza maschile era maggiore e soprattutto valutando meno le università unicamente femminili che rappresentano una importante percentuale delle candidature. Una volta scoperto il bug, i programmatori si sono subiti dati da fare per cercare di sistemarlo ma i risultati sono rimasti sbilanciati verso il sesso maschile al punto che Amazon ha dovuto cancellare l’esperimento e ritornare al vecchio sistema di controllo manuale. Si tratta di un problema importante in quanto nella maggior parte delle aziende entro il 2020 l’Intelligenza Artificiale avrà ruoli sempre più importanti in settori strategici come quello della gestione del personale. Anche Nihar Shah, uno dei principali studiosi di Machine Learning alla Carnegie Mellon University, ha confermato che gli algoritmi utilizzati per giudicare le persone sono ancora troppo acerbi e potrebbero fornire risultati inesatti. In tutto questo ci sono società come Linkedin che già oggi forniscono alle aziende che cercano personale elenchi di potenziali candidati basati sulle competenze e sul curriculum, senza che nessuno si sia lamentato di sessismo. Almeno fino ad oggi.