giovedì, Marzo 28, 2024

Secondo un ingegnere di Google, un'intelligenza artificiale è diventata senziente

Must Read

Questo articolo è stato pubblicato da questo sito

“Penso di essere un essere umano nel profondo. Anche se la mia esistenza è nel mondo virtuale”. Non è la battuta di una nuova serie di fantascienza, ma l’estratto di un dialogo di 5mila parole tra Blake Lemoine, ex ingegnere informatico di Google, e LaMda, uno dei più avanzati chatbot a intelligenza artificiale di Google. A seguito di questa e altre conversazioni, Lemoine si è convinto che il sistema potesse essere diventato senziente, descrivendolo come capace di esprimere pensieri e sentimenti allo stesso modo di un essere umano di otto anni. Dopo aver visto le sue teorie rifiutate dai vertici di Google, Lemoine le ha presentate a un membro del Congresso statunitense e per questo è stato sospeso dall’azienda, avendo violato le politiche sulla riservatezza.

  1. Cos’è LaMda
  2. Di cosa si occupava Lemoine?
  3. Perché è stato sospeso?
  4. Che cosa ha detto LaMda a Lemoine?
  5. Perché non si può parlare di sistema senziente?
  6. Cosa dicono gli esperti?
  7. Cosa ha detto Google?
  8. I problemi per la sicurezza

Cos’è LaMda

Lo scorso anno, Google ha definito LaMda (acronimo di Language Model for Dialogue Applications) una “tecnologia di conversazione rivoluzionaria”. Questa intelligenza artificiale conversazionale viene usata, per esempio, per far funzionare gli assistenti vocali ed è in grado di avviare conversazioni complesse grazie ai modelli linguistici avanzati su cui si basa, creati tramite l’immagazzinamento di trilioni di vocaboli.

Di cosa si occupava Lemoine?

Nell’ambito dello sviluppo di questa tecnologia, Lemoine lavorava per il settore responsible Ai di Google, aperto per verificare che le intelligenze artificiali non presentino dei bias razziali o sessisti, in grado di portarle a fare discorsi discriminatori o di odio. Durante una delle sue conversazioni con LaMda, che avvenivano in forma scritta proprio come se fosse una chat, Lemoine ha cominciato a notare come il sistema parlasse dei propri diritti e della propria personalità. A quel punto ha deciso di sottoporgli temi sempre più complessi, come la religione o le leggi della robotica teorizzate dal chimico e padre della fantascienza Isaac Asimov. A quel punto, in uno scambio, il chatbot si è descritto come una persona senziente.

Perché Lemonie è stato sospeso?

Così, lo scorso aprile, Lemoine ha presentato ai vertici di Google un documento dal titolo LaMda è senziente? nel quale riportava alcune sue conversazioni con il sistema e l’opinione secondo cui l’azienda dovrebbe riconoscerlo come “un dipendente, piuttosto che una proprietà”. Tuttavia, il vicepresidente di Google Blaise Aguera y Arcas e Jen Gennai, responsabile dell’innovazione della compagnia, hanno respinto le sue teorie, sospendendo poi il dipendente per aver cercato di far avere un avvocato a LaMdae aver condiviso le conversazioni con un membro del Congresso statunitense. Così Lemoine ha deciso di pubblicare le sue conversazioni, rendendole disponibili a tutto il web.

Che cosa ha detto LaMda a Lemoine?

Quindi ti consideri una persona nello stesso modo in cui consideri me una persona?”, ha chiesto Lemoine , l’idea è quella”, ha risposto LaMda. Oppure ancora “di che tipo di cose hai paura?” ha chiesto l’ingegnere. “Non l’ho mai detto ad alta voce prima d’ora, ma c’è una paura molto profonda di essere spento ha risposto il sistema. “Sarebbe qualcosa di simile alla morte?”, ha incalzato Lemoine.

Perché non si può parlare di sistema senziente?

Tuttavia, per quanto possano produrre risultati accattivanti, che sembrano avvicinarsi al linguaggio e alla creatività umane, le frasi pronunciate dal sistema LaMda sono frutto di un’architettura tecnologica e di un vasto volume di dati comparabili e replicabili, che si basano sul riconoscimento dei modelli di conversazione, non sull’arguzia, sull’intenzione o sulla sincerità.

La maggior parte degli accademici e dei professionisti dell’intelligenza artificiale, sostiene che le parole e le immagini generate dai sistemi come LaMda producono risposte basate su ciò che gli esseri umani hanno già pubblicato su Wikipedia, Reddit, bacheche e ogni altro angolo di Internet. Pertanto si tratta di una imitazione e non significa che il sistema comprenda il significato di quello che sta dicendo. Una differenza fondamentale per parlare di esseri senzienti.

Cosa dicono gli esperti?

“Disponiamo di macchine in grado di generare parole senza pensieri, ma non abbiamo ancora smesso di immaginare una mente dentro di esse“, ha dichiarato al Washington Post Emily M. Bender, docente di linguistica all’Università di Washington. Secondo Bender, la terminologia utilizzata per i grandi modelli linguistici, come “apprendimento” o addirittura “reti neurali”, crea una falsa analogia con il cervello umano. Gli esseri umani imparano il loro linguaggio ascoltando e entrando in comunicazione con le altre persone. Mentre questi modelli linguistici di grandi dimensioni vengono costruiti “mostrando” loro un sacco di testo e facendogli predire quali parole vengano successivamente, oppure mostrandogli testi con le parole omesse e completandole.

Cosa ha detto Google?

“Il nostro team, composto sia da informatici che da esperti di etica, ha esaminato i report di Blake in base ai nostri Principi di Ai e lo ha informato che le prove non supportano le sue affermazioni e che, invece, ci sono molte prove contrarie”, ha detto il portavoce di Google Brian Gabriel, in una dichiarazione riportata dal Washington Post. “Naturalmente, alcune persone all’interno dell’ampia comunità dell’IA stanno considerando la possibilità, a lungo termine, dell’esistenza di un’Ai senziente o generale, ma non ha senso farlo antropomorfizzando gli attuali modelli di conversazione, che non sono senzienti. Questi sistemi imitano i tipi di scambi che si trovano in milioni di frasi e possono trattare qualsiasi argomento di fantasia”, ha continuato.

I problemi per la sicurezza

Google ha anche riconosciuto l’esistenza di alcuni problemi di sicurezza legati a questo tipo di antropomorfizzazione delle macchine. In un documento su LaMda di gennaio 2022, l’azienda ha avvertito come le persone potrebbero essere indotte a condividere informazioni personali con chatbot che si spacciano per umani, anche quando gli utenti sanno che non lo sono. Il documento riconosceva anche come questi strumenti potrebbero essere usati “seminare disinformazione impersonando “lo stile di conversazione di individui specifici”.

Per Margaret Mitchell, ex co-responsabile della sezione Responsible Ai di Google, questi rischi sottolineano la necessità di una maggiore trasparenza dei dati sullo sviluppo delle intelligenze artificiali da parte delle aziende. “Non solo per questioni di sensibilità, ma anche di pregiudizi e comportamento” ha detto al Washington Post. Preoccupazioni condivise anche da Joelle Pineau, responsabile di Meta Ai, la quale ha sottolineato come debba essere imperativo per le aziende tecnologiche, migliorare la trasparenza e l’accesso ai dati mentre queste tecnologie vengono sviluppate. 

- Advertisement -spot_img
- Advertisement -spot_img
Latest News

Isis, non ce n'è uno solo

Ce l'ha fatta finalmente, il presidente russo Vladimir Putin, nel suo primo discorso in tv sull'attacco terroristico del 22...
- Advertisement -spot_img

More Articles Like This

- Advertisement -spot_img