Questo articolo è stato pubblicato da questo sito
Quando si parla di intelligenza artificiale una delle nostre principali preoccupazioni riguarda proprio la possibilità che questa possa sostituirci sul luogo di lavoro. Ma non per tutti vale lo stesso. L’avvocato Steven Schwartz dello studio legale Levidow, Levidow e Oberman, per esempio, ha trovato in ChatGpt un fedele alleato per la stesura di un documento legale a difesa del cliente Roberto Mata, che ha citato in giudizio la compagnia aerea colombiana Avianca per essere stato ferito al ginocchio da un carrello di servizio durante un volo di linea. Un caso d’uso dell’AI apparentemente esemplare, se non fosse che il documento conteneva informazioni fasulle, inventate di sana pianta dal chatbot di OpenAI.
Twitter content
This content can also be viewed on the site it originates from.
Per convincere il giudice federale a non archiviare il caso di Mata, infatti, Schwartz ha utilizzato ChatGpt per effettuare una ricerca approfondita su casi simili a quello del suo cliente. Il risultato è stato un documento contenente almeno una dozzina di esempi, come “Varghese v. China Southern Airlines”, “Martinez v. Delta Airlines” e “Miller v. United Airlines”. Ma nessuno di questi è risultato veritiero, nonostante l’avvocato abbia ammesso in una dichiarazione giurata di aver chiesto al chatbot se stesse mentendo. Di tutta risposta, il chatbot ha affermato che i casi erano tutti reali, tanto da essere presenti in “database legali affidabili” come Westlaw e LexisNexis. Eppure, l’avvocato della difesa è riuscito a dimostrare il contrario. Il caso “Varghese v. China Southern Airlines Co”, per esempio, è chiaramente inesistente, nonostante faccia riferimento al caso reale “Zicherman v. Korean Air Lines Co”.
È molto probabile, quindi, che ChatGpt abbia rilasciato informazioni false e tendenziose, costringendo così il povero Steven Schwartz a imbattersi in possibili sanzioni legali per quanto accaduto. Dal canto suo, l’avvocato ha cercato di giustificarsi affermando di non essere “a conoscenza della possibilità che il contenuto [di ChatGpt] potesse essere falso”, ma senza convincere il giudice che si occupa del caso. Al di là di questo, quello che conta è che la vicenda di Schwartz mette in evidenza come l’intelligenza artificiale non sia ancora pronta per lavorare in completa autonomia. Il chatbot di OpenAI ha ancora bisogno della supervisione dell’uomo per funzionare correttamente. E questa storia ne è la dimostrazione perfetta.