martedì, Luglio 23, 2024

L'Europa discute di quali intelligenze artificiali vietare

Must Read

Questo articolo è stato pubblicato da questo sito

Vanja Skoric, direttore del programma dell’organizzazione, sostiene che un’esenzione per motivi di sicurezza nazionale creerebbe una scappatoia attraverso la quale i sistemi di Ai che mettono a repentaglio i diritti umani – come i poligrafi Ai – potrebbero finire nelle mani della polizia o delle agenzie di frontiera.

Il regolamento dovrebbe essere approvato o respinto in via definitiva entro la fine del prossimo anno. Prima che i membri del Parlamento europeo presentassero i loro emendamenti il primo giugno, Tudorache aveva dichiarato a Wired US che “se gli emendamenti saranno migliaia, come alcuni prevedono, il lavoro per raggiungere un compromesso sarà immane“. Ora Tudorache aggiunge che sono state presentate circa 3.300 proposte di emendamento, ma che il processo legislativo dell’Ai Act potrebbe comunque concludersi entro la metà del 2023.

I punti da migliorare

I timori che le previsioni basate sui dati possano essere discriminatorie non sono solo teorici. È emerso, per esempio, che tra il 2013 e il 2020 un algoritmo utilizzato dall’autorità fiscale olandese per individuare potenziali frodi relative a un misura di sostegno per i figli a carico ha danneggiato decine di migliaia di persone, portando all’affidamento di oltre mille bambini. Il sistema considerava come motivo di indagine la presenza di dati come una seconda nazionalità e aveva un impatto sproporzionato sugli immigrati.

Secondo Skoric, lo scandalo sui sussidi olandesi avrebbe potuto essere evitato o attenuato se le autorità olandesi avessero realizzato una valutazione d’impatto sul sistema, come proposto dal regolamento sull’Ai, che avrebbe potuto far emergere segnali di allarme. Skoric sostiene che il regolamento dovrebbe spiegare in modo chiaro perché un modello viene classificato in un determinato modo.

Alexandru Circiumaru, responsabile delle politiche pubbliche europee presso il gruppo indipendente di ricerca e diritti umani Ada Lovelace Institute, nel Regno Unito, è d’accordo e sostiene che il regolamento sull’Ai debba spiegare meglio la metodologia che porta a riclassificare un sistema di Ai: “Per quale motivo questi sistemi ora sono inclusi in determinate categorie e non lo erano prima? Che test viene fatto?“.

Una maggiore chiarezza è necessaria anche per evitare che l’Ai Act blocchi gli algoritmi potenzialmente utili, spiega Sennay Ghebreab, fondatore e direttore del Civic Ai Lab dell’università di Amsterdam. La profilazione può essere discriminatoria, come dimostra lo scandalo dei sussidi olandesi, e Ghebreab è favorevole al divieto della polizia predittiva. Ma altri algoritmi invece possono rivelarsi efficaci e contribuire per esempio al reinsediamento dei rifugiati, tracciando un profilo delle persone in base al loro background e alle loro competenze. Uno studio del 2018 pubblicato su Science ha stimato che un algoritmo di apprendimento automatico potrebbe ampliare  a costi contenuti le opportunità di lavoro per i rifugiati negli Stati Uniti di oltre il 40 per cento e di oltre il 70 per cento in Svizzera.

Non credo sia possibile costruire sistemi perfetti – dice Ghebreab –, ma credo che si possano migliorare continuamente i sistemi di intelligenza artificiale osservando ciò che è andato storto e raccogliendo i feedback delle persone e delle comunità“.

Molte delle migliaia di modifiche suggerite all’Ai Act non saranno integrate nella versione finale del regolamento. Tuttavia, secondo Petra Molnar del Refugee Law Lab, che ha presentato una ventina di emendamenti (tra cui il divieto di sistemi come iBorderCtrl), questo è un momento importante per stabilire con chiarezza quali forme di Ai dovrebbero essere vietate o meritano un’attenzione particolare.

È un’occasione davvero importante per riflettere su come vogliamo che sia il nostro mondo, su come vogliamo che siano le nostre società, su cosa significhi effettivamente applicare i diritti umani nella realtà, non solo sulla carta – racconta –. Il punto è capire cosa dobbiamo gli uni agli altri, che tipo di mondo stiamo costruendo e chi è stato escluso da queste conversazioni“.

Questo articolo è comparso originariamente su Wired US.

- Advertisement -spot_img
- Advertisement -spot_img
Latest News

Aerei, la Commissione europea fa chiarezza sui diritti dei passeggeri

Il 22 luglio la Commissione europea ha pubblicato i nuovi orientamenti interpretativi dei diritti dei passeggeri del trasporto aereo,...
- Advertisement -spot_img

More Articles Like This

- Advertisement -spot_img