Questo articolo è stato pubblicato da questo sito
Un bel mattino ci siamo accorti che la tecnologia ha fatto passi da gigante, costringendoci a una rincorsa affannosa, perfino sul piano etico. L’intelligenza artificiale (AI) sta rapidamente rivoluzionando il modo in cui le imprese operano e interagiscono con il mondo. Con il suo crescente impatto in settori come la produzione, il marketing e la logistica, è diventato fondamentale per le aziende comprendere come utilizzare l’AI in modo responsabile, per non rimanere indietro. In risposta a questa esigenza, il Cefriel, centro di innovazione digitale affiliato al Politecnico di Milano, ha pubblicato lo studio Intelligenza artificiale responsabile, in cui Diego Ragazzi, esperto senior di Data strategy al Cefriel, riflette su rischi e responsabilità che questa tecnologia genera.
Una AI responsabile
ChatGPT è solo la punta dell’iceberg dei molteplici impieghi dell’AI che sono già ampiamente utilizzati, anche se non sempre lo sappiamo. Dai veicoli autonomi agli assistenti virtuali personalizzati, i sistemi di intelligenza artifciale hanno dimostrato uno straordinario potenziale per migliorare la produttività, semplificare i processi e aprire possibilità senza precedenti. Tuttavia, con il proliferare della tecnologia, è cresciuta anche la consapevolezza di doverne fare un uso responsabile e consapevole. Da grandi poteri, d’altronde, derivano grandi responsabilità.
“Lo sviluppo responsabile dell’AI non è solo un obbligo morale, ma anche un imperativo strategico per le aziende”, spiega Ragazzi, autore del paper. La questione non va presa sottogamba, ricorda, perché un “danno di immagine derivante da pratiche irresponsabili può avere conseguenze di vasta portata“. Affrontando attivamente questioni come la trasparenza, l’equità, l’affidabilità e la responsabilità, le imprese possono costruire fiducia tra i loro collaboratori, clienti e partner commerciali, contribuendo così a una “percezione positiva delle tecnologie basate sull’AI” oltre che a salvaguardarsi dal “rischio normativo e legale”.
Su quest’ultimo aspetto insiste molto il paper, dato che in tutto il mondo “i governi stanno correndo ai ripari, cercando di arginare la marea montante” provocata dal vuoto normativo che caratterizza il settore. L’ultimo rapporto di Stanford sullo stato dell’AI ha censito ben 37 progetti di legge riguardanti in qualche modo l’intelligenza artificiale approvati nel 2022, contro appena uno nel 2016. L’Europa sta discutendo la prima normativa transnazionale armonizzata a livello mondiale, l’AI Act, mentre la Cina ha adottato regole stringenti sull’intellingenza artificiale generativa.
I temi etici
Che quella di una maggiore consapevolezza dell’AI sia una necessità non più prorogabile lo dimostrano le previsioni dell’Osservatorio Artificial Intelligence 2023 della School of Management del Politecnico di Milano, citate nel paper: “Il mercato dell’AI ha raggiunto i 500 milioni di euro nel 2022, con una crescita del 32% in un solo anno. Di questi, il 73% è stato commissionato da imprese italiane, mentre il restante 27% rappresenta progetti di esportazione”. Questi numeri testimoniano l’impetuosa diffusione dell’AI all’interno di aziende di tutti i tipi. Quindi, innanzitutto, – spiega Ragazzi – una prima sfida etica consiste “nell’accettazione dell’AI da parte dei dipendenti e collaboratori dell’impresa”. E questo lo si fa attraverso percorsi di formazione specifica. Molte università si stanno attivando in questo senso.