Questo articolo è stato pubblicato da questo sito
Nonostante il clamore suscitato da Blake Lemoine – l’ex ingegnere di Google che si è convinto che uno dei chatbot di intelligenza artificiale (Ai) più sofisticati dell’azienda, Language Model for Dialogue Applications (LaMda), sia diventato senziente – la stragrande maggioranza degli esperti di etica dell’Ai sembrano poco propensi a continuare a discutere della possibilità che l’intelligenza artificiale abbia una coscienza, o considerano l’argomento una distrazione. E hanno ragione.
Leggendo la trascrizione modificata diffusa da Lemoine, è evidente come LaMda avesse attinto da una serie di siti web per creare il suo testo; le sue riflessioni filosofiche potrebbero provenire da qualsiasi angolo di internet, e la favola raccontata dall’Ai era inequivocabilmente una storia generata automaticamente. Nelle parole di LaMda non c’era alcuna scintilla di coscienza, ma solo dei piccoli trucchi. Dando un’occhiata alle reazioni sui social media – dove anche persone istruite hanno espresso il proprio stupore e la volontà di credere alla possibilità di un’Ai senziente – è però facile capire come ci sia chi si è fatto ingannare. Più che dalla possibilità che l’Ai diventi senziente, il rischio è rappresentato dal fatto che che siamo disposti a creare macchine sofisticate in grado di imitare gli esseri umani al punto tale che non possiamo fare a meno di antropomorfizzarle, oltre che da come i colossi tecnologici sono in grado sfruttare questo aspetto in modi profondamente immorali.
I rischi delle Ai troppo “umane”
Come dimostrato chiaramente dal modo in cui trattiamo i nostri animali domestici, o da come abbiamo interagito con il Tamagotchi, gli esseri umani hanno una grande capacità di empatizzare con i non umani. Immaginate, per esempio, cosa sarebbe in grado di fare un’Ai che si comporta come uno psicologo: cosa sareste disposti a dirle anche “sapendo” che non avete di fronte un essere umano? E quanto varrebbero questi preziosi dati per l’azienda che ha programmato il bot-terapista?
Secondo Lilly Ryan, un’ingegnere di sistemi e storica, quelli che definisce ecto-metadati – ovvero i metadati che lasciate online e che rivelano il modo in cui pensate – potrebbero essere sfruttati nel prossimo futuro. Immaginate un mondo in cui un’azienda è in grado di creare un bot basato su di voi e di possedere il vostro “fantasma” digitale dopo la vostra morte. Ci sarebbe un mercato pronto a sfruttare i fantasmi digitali di celebrità, vecchi amici e colleghi. E dal momento che ci apparirebbero come una persona cara e fidata, verrebbero usati per raccogliere quantità ancora maggiori di dati.
Pensate a come Tesla commercializza il suo Autopilot facendo attenzione a non dire mai che il sistema sarà in grado di guidare le auto da solo, ma inducendo comunque i consumatori a comportarsi come se fosse possibile (con conseguenze mortali): è plausibile pensare che le aziende possano commercializzare il realismo e l’umanità di Ai come LaMda senza fare mai rischiare di dire cose veramente azzardate, ma allo stesso tempo incoraggiandoci ad antropomorfizzare l’intelligenza artificiale quel tanto che basta da abbassare la guardia. Niente di tutto questo richiede che l’Ai sia senziente. È la complessa questione sociologica legata a come trattiamo la nostra tecnologia e a cosa succede quando le persone si comportano come se le loro intelligenze artificiali fossero senzienti.
La questione del rispetto per l’Ai
In un saggio, gli accademici Jason Edward Lewis, Noelani Arista, Archer Pechawis e Suzanne Kite illustrano diversi punti di vista sull’etica dell’Ai ispirati dalle filosofie dei nativi americani, allo scopo di esplorare il rapporto che abbiamo con le nostre macchine e i nostri peggiori comportamenti, come nel caso delle persone che si esprimono in modo sessista o comunque offensivo nei confronti degli assistenti virtuali, che per la maggior parte hanno una voce femminile. Nella sua sezione del saggio, Suzanne Kite attinge alle ontologie dei Lakota, una tribù di nativi americani, per sostenere che è essenziale riconoscere come non sia la presenza di una coscienza a stabilire chi (o cosa) rappresenti un “essere” meritevole di rispetto.
Questo è il rovescio del medaglia del dilemma etico sull’Ai: se da una parte relazionarci ai chatbot come se fossero i nostri migliori amici ci espone al rischio di diventare preda delle aziende, dall’altra trattarli come oggetti vuoti e non degni del nostro rispetto è altrettanto pericoloso. Approfittare in modo cinico e “scorretto” della tecnologia può rafforzare un approccio analogo nei confronti delle altre persone e del nostro ambiente naturale. Un chatbot o un assistente virtuale che si ispira a un essere umano dovrebbe essere rispettato, per evitare che la sua parvenza di umanità ci abitui alla crudeltà nei confronti degli esseri umani veri e propri.
Qual è il risultato di questa visione? L’autrice di fantascienza Liz Henry ha la sua idea: “Potremmo accettare il concetto che le relazioni che abbiamo con tutti gli elementi del mondo che ci circonda meritino lavoro emotivo e attenzione. Così come dovremmo trattare tutte le persone che ci circondano con rispetto, riconoscendo che hanno una propria vita, una visione, dei bisogni, emozioni, obiettivi e il loro posto nel mondo“.
È il dilemma etico dell’intelligenza artificiale con cui ci troviamo a fare i conti: il bisogno di rendere le nostre macchine simili agli esseri umani contrapposto alla miriade di modi in cui questo può essere e sarà usato contro di noi nella prossima fase del capitalismo della sorveglianza. Per quanto mi piacerebbe essere uno studioso che difende con eloquenza i diritti e la dignità delle intelligenze artificiali senzienti, è questa realtà più complessa e disordinata a richiedere la nostra attenzione.