La legge al tempo degli algoritmi

0
221
Questo post è stato pubblicato da this site

L’intelligenza artificiale s’inserisce, lo abbiamo visto più volte, anche in ambiti all’apparenza più distanti. Anche quelli popolati da colletti bianchi ben qualificati (e retribuiti) solo che con una modalità in parte diverse rispetto ad altri settori lavorativi. Se alcuni lavoratori dovranno riqualificarsi perché algoritmi e soluzioni di machine learning o di automazione avranno loro rubato il posto, altri – come quelli legali – vedranno nell’analisi dei big data un clamoroso aiuto. Potranno così spostare il proprio impegno su altri fronti, quelli nei quali è richiesta una capacità interpretativa, comparativa e umana di cui le macchine non disporranno mai.

Niente da temere. Anche per opinione di chi ci lavora l’intelligenza artificiale negli studi legali – e ancora di più nei tribunali – sarà protagonista di un percorso lento e che, per l’appunto, si imporrà compito su compito, mansione su mansione. Affiancando i professionisti. Sembra una distinzione da poco, spesso si tende a cestinarla distrattamente, eppure è una differenza sostanziale: il fatto che il proprio lavoro possa essere parzialmente automatizzato o sollevato da alcune incombenze non significa per forza che sparirà. Molti dei rapporti più pessimisti degli ultimi anni hanno tirato questa equazione, in modo un po’ arbitrario. Vedendola dall’altro lato si potrebbe anche dire che un impiego in cui una parte delle mansioni, spesso le più lunghe e noiose, possono essere automatizzate è un impiego migliore, che dà maggiori soddisfazioni a chi lo pratica – a patto di tenersi aggiornati, di fare squadra con l’automazione. Ma questa è un’altra storia.

C’è un punto di vista molto popolare”, ha spiegato qualche mese fa Frank Levy, economista del lavoro al Mit, al New York Times, “se puoi automatizzare una parte del lavoro allora il resto è fritto. Non è affatto vero e se lo è accade di rado”. Vediamo un po’ qual è il pezzettino che l’analisi dei linguaggio naturale ha tirato via dalle scrivanie delle toghe: fondamentalmente analizzare e fornire previsioni su informazioni e numeri rilevanti per un certo caso. Tutto il resto, dal rapporto con i clienti ai pareri legali al lavoro in aula fino all’analisi dei casi e all’impostazione delle strategie rimarrà a lungo fuori dal campo d’azione dei computer. Forse per sempre.

Un’indagine firmata dalla School of Law dell’università della Carolina del Nord spiega che se ogni studio legale applicasse contemporaneamente tutte le tecnologie legali già disponibili le ore lavorate diminuirebbero del 13%. Se invece l’analisi si facesse più ragionevole il declino sarebbe del 2,5% annuo su un quinquennio. Anche in questo caso, come in altri già analizzati, certo non una rivoluzione. Se poi in quel 13% ci sta principalmente la revisione di base della documentazione, che ormai tutti i grandi studi hanno dato in appalto a società come Thomson Reuters, Elevate o Axiom o automatizzato, è forse perfino una notizia neutrale se non positiva. E molti studi usano già software come Lex Machina e Ravel Law per indagare nelle sentenze e attraverso i profili dei giudici (elemento di maggiore peso ovviamente nei sistemi di common law).

Tuttavia si creerebbe l’enorme problema d’ingresso: gli avvocati che fanno praticantato passano anche da quel genere di gavetta per costruirsi un percorso. Più che i grandi nomi saranno loro a subire la concorrenza dei software d’analisi che pure dovranno per forza essere inquadrati, secondo Michael Mills della startup Neota Logic, come parte di una squadra.

Di esempi concreti attraverso i quali questo processo sta avvenendo, tenendo da parte il chiacchierato caso del chatbot per le multe DoNotPay che in parte si distanzia da questo scenario,  ce ne sono molti. Ravn è forse quello più dirompente. Si tratta di una startup di East London messa alla prova su un campo molto delicato e da poco acquistata dalla società iManage: lo scandalo che lo scorso anno ha coinvolto il gigante britannico Rolls Royce, accusato dal Serious Fraud Office britannico di aver pagato tangenti in 12 Paesi del mondo per aggiudicarsi forniture di motori di aerei e navi. Bene, l’investigazione quadriennale ha prodotto qualcosa come 30 milioni di documenti, dai fogli di lavoro alle e-mail scambiate dallo staff e dal management. Andavano divise quanto meno in file a cui dare attenzione e cose da scartare. Per farlo Ravn ha mescolato tecniche di intelligenza artificiale con metodi più tradizionali di gestione dei database trovandosi così in grado di analizzare non solo i documenti presentati in modo formale ma anche quelli più disorganizzati. Dando una grande mano agli inquirenti.

Lo scorso luglio la startup ha addestrato un algoritmo e, con l’approvazione di entrambe le parti in causa, l’ha messo al lavoro. Se gli avvocati erano in grado di analizzare 3mila documenti al giorno, il loro collega automatizzato ne processava 600mila per circa 50mila dollari. E con meno errori.

Ha tagliato l’80% del lavoro” , ha spiegato Ben Denison, Cto del Serious Fraud Office, “e ci ha fatto risparmiare un sacco di soldi”. A Rolls Royce è andata male: lo scorso gennaio ha pagato una multa di 671 milioni di sterline, riconoscendo lo scandalo. Secondo il fondatore di Ravn, Peter Wallqvist, il loro sistema può spingersi oltre, passando dall’analisi alle previsioni. Ed è proprio in quel passaggio che, ovviamente, si dispiega il problema morale e giuridico: fino a che punto è giusto automatizzare un processo di garanzia che può incidere sulla vita delle persone (o su quella delle società)? Ci basta sapere che la big data analysis sbaglia meno degli esseri umani? E se proprio una carta decisiva sfuggisse alle macchine ma non agli occhi di un avvocato o un giudice?

Detto questo il settore sta rispondendo in modo vivace alle sfide. Adattandosi e modificando il proprio lavoro. Se il colosso Dentons, studio internazionale da 7mila dipendenti, ha fondato il suo braccio armato tech (Nextlaw Labs) già due anni fa e ha investito nelle startup del settore, un altro studio come Baker McKenzie ha lanciato un comitato per l’innovazione. Chi scommette su questo erreno sembra attrarre investimenti. Certo non alla pari di altri ma in modo comunque consistente: 757 milioni di dollari in cinque anni, spiega Cb Insights, sono finiti a 280 startup legali.

Un fronte, quello delle previsioni, su cui la ricerca lancia però dei segnali piuttosto chiari. Uno studio pubblicato su Plos One lo scorso aprile e firmato da Daniel Katz, docente di legge all’Illinois Institute of Technology di Chicago, Michael J. Bommarito II e Josh Blackman ha dimostrato come questi sistemi possano svolgere un lavoro migliore dei giuristi nel prevedere le decisioni della Corte Suprema statunitense, perfino con meno informazioni a disposizione. Qualche altra indagine passata era già giunta a risultati simili ma l’ultima, che ha attinto al database della più alta corte federale, contenente sentenze risalenti al 1791, pur costruire un algoritmi in grado di prevedere il voto di ciascun giudice in ogni momento considerato.

Per gli anni fra 1816 e 2015 l’algoritmo ha correttamente previsto il 70,2% dei 28mila voti della corte e il 71,9% dei 240mila voti espressi dei diversi componenti nel corso dei secoli. Per un’indagine del 2004 i migliori esperti di diritto statunitense sfiorano il 66%. Un altro esperimento simile è stato messo a segno da un gruppo di ricercatori britannici dello University College di Londra. In questo caso l’algoritmo ha esaminato i documenti (in inglese) di 584 casi su tortura e trattamenti degradanti, privacy e processi irregolari discussi dalla Corte europea dei diritti dell’uomo. Nel 79% dei casi il giudizio è stato il medesimo delle toghe di Strasburgo. Ma il problema vero, a ribaltare il quadro, si nasconde nel restante 21%: perché intelligenza artificiale e giudici hanno deciso in modo diverso?

Leggi anche

Vuoi ricevere aggiornamenti su questo argomento?

Segui