L’intelligenza artificiale ha un problema con la diversità?

0
65
Questo post è stato pubblicato da this site
Yann Lecun, pioniere dell’intelligenza artificiale e tra i vincitori del premio Turing 2019, è il direttore del Facebook AI Research (foto: Marlene Awaad/Bloomberg via Getty Images)

Forse non è un caso che Yann Lecun, direttore del Facebook Ai Research, sia uno dei pionieri dell’intelligenza artificiale. Secondo un nuovo report, la maggior parte di coloro che lavorano in questo campo è bianca e di sesso maschile. La percentuale si aggira intorno all’80% e arriva addirittura al 90% nel caso di Google. Va un po’ meglio per Facebook dove, almeno, le donne dell’Ai sono il 15%.

Secondo i ricercatori dell’AI Now Institute di New York University – l’organizzazione con sede a New York che studia le implicazioni sociali dell’intelligenza artificiale e ha redatto l’analisi – il dato è preoccupante. Le macchine, infatti, analizzano la realtà dal punto di vista dei loro creatori e possono essere condizionate dai loro pregiudizi. Non solo. La mancanza di diversità all’interno delle aziende mina anche la loro efficacia. Un’indagine del Mit Lab, per esempio, ha scoperto che i sistemi di riconoscimento facciale identificano molto bene individui con la pelle bianca ma commettono spesso errori quando devono ripetere lo stesso compito con persone di colore.

Il problema della mancanza di diversità nel settore dell’intelligenza artificiale è ben documentato e riguarda tutti i luoghi di lavoro”, hanno detto i ricercatori. “Basta vedere gli uffici, le università, le disparità nelle assunzioni e nelle promozioni e persino nei sistemi sul mercato che riflettono e amplificano i pregiudizi, motivo per cui si ritorna a parlare di determinismo biologico”.

Le possibili soluzioni

I ricercatori dell’istituto lamentano che le politiche finora adottate per risolvere questo problema non hanno avuto nessun effetto. Nel documento si legge, per esempio, che le iniziative per favorire l’ingresso delle donne sono ancora molto limitate e riguardano solo le dipendenti di pelle bianca, mentre le loro colleghe nere restano escluse. Inoltre, le aziende continuano spesso a trattare i pregiudizi delle macchine singolarmente, senza pensare a una strategia più ampia o comune.

Secondo il team, sarebbe più efficace prendere coscienza di questo problema – cosa che non è ancora stata fatta – e agire di conseguenza, assumendo persone di differenti etnie e dando loro la possibilità di salire di livello se se lo meritano. Bisognerebbe poi agire sulla trasparenza, pubblicando report in cui si mette per iscritto chi è stato assunto, chi è stato promosso e quanto sono pagati i singoli dipendenti: una misura che favorirebbe l’accountability delle aziende e aiuterebbe le stesse a monitorare i suoi progressi in tema di diversità.

Infine, bisognerebbe continuare a testare le macchine e valutare anche il loro impatto sociale. “Questi sistemi devono essere giusti, non solo sicuri”, scrivono gli autori della ricerca.

 

The post L’intelligenza artificiale ha un problema con la diversità? appeared first on Wired.