Questo articolo è stato pubblicato da questo sito
L’intelligenza artificiale ha fatto progressi straordinari negli ultimi anni, aprendo nuove possibilità in diversi settori. Tuttavia, con il crescente sviluppo delle Ai generative e complesse, sorge una questione intrigante: possono le macchine sperimentare allucinazioni? La risposta è sì. Le allucinazioni non sono quindi solo un fenomeno mentale umano che coinvolge la percezione di cose che non esistono nel nostro mondo, ma si manifestano anche nelle Ai
Tra realtà e fantasia
Le allucinazioni umane sono un’esperienza sensoriale che una persona avverte come reale, ma che non ha una base oggettiva nel mondo esterno. Spesso legate a disfunzioni cognitive possono essere causate da diverse condizioni mediche, come la schizofrenia o l’uso di sostanze psicotrope. Ma nel caso delle Ai, non esistono cervelli biologici, solo algoritmi e modelli di apprendimento, perché parlare quindi di allucinazioni? Per il semplice fatto che le allucinazioni nelle AI possono essere considerate una forma di “fantasia” estrema generata dall’algoritmo, quando non trova risposte, un fenomeno che nell’intelligenza artificiale da fisiologico diventa patologico.
In altre parole, una Ai piuttosto che non rispondere – e non generare un output – si “allucina”: inventa, distorce, crea ex novo realtà di tutti i tipi, perché una risposta anche allucinata te la deve dare.
Perché le Ai hanno allucinazioni
Possono verificarsi per diversi motivi, principalmente legati al modo in cui le macchine elaborano e interpretano i dati. Alcuni dei fattori che possono contribuire alle allucinazioni fantastiche nelle Ai sono:
- Rumore nei dati di addestramento
Se i dati utilizzati per addestrare un’Ai sono rumorosi o contengono informazioni inaccuratamente etichettate, l’algoritmo di apprendimento automatico potrebbe generare rappresentazioni distorte della realtà. Questo può portare a allucinazioni generate dall’AI quando viene esposta a situazioni simili ma non corrispondenti alla realtà di partenza.
- Elaborazione errata delle informazioni
Le Ai utilizzano algoritmi di apprendimento automatico, come le reti neurali artificiali, che possono elaborare informazioni in modo impreciso o errato. Durante il processo di addestramento, l’Ai impara modelli e tendenze dai dati di input. Tuttavia, se queste informazioni sono incomplete, ambigue o non rappresentative, l’Ai potrebbe generare risultati errati o fantasiosi. Inventando di sana pianta.