Questo articolo è stato pubblicato da questo sito
Infine ricadono in questa categoria gli algoritmi usati dalle forze dell’ordine, dal potere giudiziario e dalle autorità di frontiera per valutare rischi, scoprire flussi di immigrazione illegale o stabilire pericoli sanitari, impedendo a una persona di varcare i confini dell’Unione. Se però l’algoritmo serve solo per svolgere una procedura limitata, per migliorare i risultati già ottenuti da un essere umano, per identificare deviazioni dagli usuali processi decisionali o per svolgere lavori preparatori di controllo, allora non può essere considerato ad alto rischio. Entro 18 mesi dall’entrata in vigore del regolamento, la Commissione fornirà linee guida per applicare in pratica le norme sui sistemi ad alto rischio. Così come modificare la lista degli algoritmi che ricadono sotto questa categoria. Per farlo occorre stabilire gli scopi della tecnologia, l’estensione d’uso e di autonomia decisionale, natura e quantità di dati processati, abusi su gruppi di persone, così come la possibilità di correggere un errore o i benefici ottenuti. Un database conterrà l’elenco aggiornato dei sistemi ad alto rischio usati in Europa.
Chi sviluppa sistemi di AI ad alto rischio è tenuto a stabilire sistemi di controllo, gestire in modo trasparente i dati, chiarendo l’origine delle informazioni usate e mantenendole aggiornate, e registrare in automatico i log, da conservare per tutta la vita commerciale dell’algoritmo, per poter risalire a eventuali situazioni di rischio e indagare sulle origini. Inoltre deve fornire i documenti tecnici (da conservare per 10 anni), in versione light per startup e piccole e medie imprese. Gli sviluppatori di sistemi ad alto rischio dovranno comunicare il livello di accuratezza dell’AI, compresa una serie di metriche stabilita dalla Commissione, robustezza e sicurezza informatica. Il tutto sotto il controllo di un essere umano. In quale, in caso di pericolo imminente, può bloccare l’intelligenza artificiale attraverso un “bottone di stop o una procedura simile, che consente al sistema di bloccarsi in modo sicuro”. Gli sviluppatori sono tenuti a istituire un sistema di verifica della qualità, a sottoporsi alle analisi di conformità, applicare il marchio CE, che identifica un prodotto autorizzato nell’Unione, comunicare eventuali incidenti alle autorità. Anche importatori o distributori sono tenuti a conservare i documenti sulla sicurezza dell’AI che hanno venduto. E a sottoporsi a più controlli, se modificano l’algoritmo al punto da farlo ricadere nella categoria ad alto rischio. È previsto anche un sistema di monitoraggio dopo l’immissione di un sistema sul mercato, dal quale sono escluse le forze dell’ordine.
I sistemi di AI per uso generale
Il testo regola i sistemi di AI per uso generale, in grado di svolgere compiti diversi (come creare un testo o un’immagine) e allenati attraverso un’enorme mole di dati non categorizzati, come GPT-4, alla base del potente chatbot ChatGPT, o LaMDA, dietro Google Bard. Gli sviluppatori devono assicurarsi che i contenuti siano marcati in un sistema leggibile da una macchina e siano riconoscibili come generati da un’AI. Un utente deve sapere se sta interagendo con un chatbot. E i contenuti deepfake devono essere etichettati come tali (attraverso sistemi come il watermarking, la filigrana digitale applicata a foto o video). Previsioni che, tuttavia, non è detto siano sufficienti a impedire la diffusione di fake news. Unica eccezione: l’impiego di questi sistemi per perseguire reati.