martedì, Maggio 30, 2023

Intelligenza artificiale, perché una pausa allo sviluppo è dannosa

Must Read

Questo articolo è stato pubblicato da questo sito

Francesca Rossi è Ibm Fellow e AI Ethics Global Leader del colosso informatico statunitense. È membro del comitato scientifico del Future of Life Institute, il think tank di Cambridge, in Massachusetts, che pochi giorni fa ha ospitato l’appello di oltre mille fra imprenditori, informatici e celebrità sui rischi dell’intelligenza artificiale. In particolare, sulla necessità di sospendere per almeno sei mesi lo sviluppo di sistemi più potenti di quel GPT-4 da poco presentato da OpenAi. Rossi, 190 articoli scientifici sul tema all’attivo e autrice del volume Il confine del futuro. Ci possiamo fidare dell’intelligenza artificiale?, non ha però firmato l’appello, dai toni a dir poco apocalittici, molto concentrato su scenari futuribili e poco sui rischi più immediati che il deep learning pone. A Wired Italia spiega il perché di questo dissenso.

Per alcuni la lettera pubblicata dal gruppo di imprenditori, filantropi e scienziati sembra uno scenario possibile, per altri somiglia di più a un’allucinazione di una certa fetta di alte sfere della Silicon Valley accomunate dall’adesione al cosiddetto “lungotermismo”: “Nonostante sia un membro del comitato scientifico del Future of Life Institute, che ha pubblicato questa lettera, ho deciso di non firmarla”. Spiega Rossi di condividere in pieno le motivazioni e l’intento della lettera: “Fare in modo che l’Ai sia sviluppata e usata in modo che abbia un impatto positivo e che i possibili rischi vengano mitigati. Non condivido però il metodo che viene proposto per raggiungere questo obiettivo”.

Benefici e svantaggi

La ragione è che, come alcuni esperti hanno sottolineato nei giorni scorsi, una pausa sulle attività di training di nuovi e più potenti sistemi di Ai non aiuterebbe e anzi sarebbe dannosa. “Focalizzarsi sui sistemi futuri sembra implicare che i sistemi attualmente in uso non hanno bisogno di un lavoro attento per identificare limiti e rischi e costruire strumenti socio-tecnologici per mitigarli. L’allineamento ai valori umani è necessario già adesso, non solo nel futuro – conferma la responsabile Ai di Ibm -. Inoltre, una pausa sul lavoro di training, in cui un sistema di Ai viene ‘allenato’ su grandi quantità di dati per poter imparare come comportarsi una volta messo in uso, implica un impatto su attività di ricerca e sviluppo che invece devono essere espanse e integrate con approcci di ‘ethics by design’, in modo da inserire azioni concrete relative all’etica dell’Ai (come il bias testing) in tutta la filiera dello sviluppo di un sistema di Ai”. Rossi dice di non essere per principio contraria al lungotermismo, che si preoccupa di scenari molto negativi lontani nel futuro, ”ma il mio modo di affrontare questi possibili scenari è quello di individuare e cercare di risolvere concretamente i problemi nella tecnologia che abbiamo adesso e di evolvere con le soluzioni a mano a mano che la tecnologia evolve”.

Oltre le legittime opinioni, quell’appello sembra concentrarsi molto poco sui problemi concreti dei meccanismi di deep learning (discriminazioni, sorveglianza, errori vari) e troppo sugli scenari apocalittici di cui, in tutta onestà, non abbiamo ancora nessuna prova visto che di intelligenze artificiali senzienti non ne esistono. In questo, spiega Rossi, siamo vittime delle nostre stesse debolezze psicologiche: “Le tecniche di Ai più recenti, basate sulla cosiddetta Ai generativa, hanno permesso la creazione di sistemi di dialogo che noi percepiamo come estremamente simili a noi, per la nostra tendenza a umanizzare le entità con cui interagiamo, specialmente se hanno un comportamento simile al nostro. Questo fa sembrare l’Ai più ‘intelligente’ di quello che è e questa percezione può essere intesa come una tendenza verso sistemi con una intelligenza simile a quella umana. In realtà non è così, anche se certamente le nuove tecniche di Ai rendono questa tecnologia molto più utile in tantissimi campi applicativi”.

I problemi di una pausa allo sviluppo dell’Ai

Se anche questa pausa globale si potesse attivare, sarebbe davvero complesso onorare (o controllare) l’applicazione di una simile moratoria visto che “la fase di training è effettuata nei laboratori di sviluppo dell’Ai e non è visibile dall’esterno, a meno di una legge che imponga il rilascio di informazioni su questa attività. Molto più visibile è invece l’uso dei sistemi di Ai – aggiunge l’esperta – per questo le leggi che sono attualmente in discussione sull’Ai, come l’Ai Act europeo, adottano un approccio basato sul rischio delle applicazioni, non della tecnologia in sé”.

- Advertisement -spot_img
- Advertisement -spot_img
Latest News

Succession è finita, ma i meme sulla serie avranno vita lunga

Un'altra creatrice di meme ispirati a Succession, Anna Golez, rivela che esistono diversi filoni all'interno della comunità online, come...
- Advertisement -spot_img

More Articles Like This

- Advertisement -spot_img