Perché l’intelligenza artificiale non sostituisce le competenze mediche ma si integra ad esse

0
60
Questo post è stato pubblicato qui

Titoli di giornale altisonanti come “L’intelligenza artificiale batte i medici in carne e ossa” o “L’intelligenza artificiale supera i radiologi” fanno sicuramente molta presa sull’immaginario pubblico e mettono l’accento sulle impressionanti potenzialità degli algoritmi di intelligenza artificiale in operazioni potenzialmente salvavita come la diagnosi di un tumore al seno o la previsione di un problema cardiaco. Se da una parte non si negano gli esaltanti progressi fatti fin qui nel campo dell’AI (sigla che sta per Artificial Intelligence) dall’altro lato restano pur sempre titoli fuorvianti perché suggeriscono una falsa dicotomia.

intelligenza artificiale
(immagine: Getty Images)

È vero infatti che — per poter essere di aiuto in ambito sanitario — un algoritmo di AI deve garantire prestazioni pari o superiori a quelle di un essere umano nei compiti specifici che gli vengono assegnati. Molte delle decisioni che i medici prendono quotidianamente, però, sono incredibilmente difficili e richiedono un approccio ben più complesso rispetto a quello offerto dall’utilizzo dell’intelligenza artificiale nell’elaborazione dei dati. Sia i medici in carne e ossa che l’AI infatti possono commettere degli errori ma è la somma delle loro intelligenze che conta, se vogliamo fare davvero la differenza nella cura dei pazienti.
Ecco perché.

La necessità della supervisione umana. Sappiamo bene che anche al più esperto dei medici può sfuggire qualcosa di quando in quando. Diagnosi mancate o sbagliate non sono certo un problema del passato, anzi: uno studio della National Academy of Sciences del 2015 ha dimostrato che la maggior parte delle persone ha subito o subirà un giorno le conseguenze di un errore di questo genere almeno una volta nel corso della sua vita.

GalaxyAI
La realtà però è che neppure gli algoritmi di intelligenza artificiale si potranno mai considerare infallibili, e anche loro possono sbagliare — fosse anche in 1 caso su 100. Ovviamente si tratta di un rischio che è fondamentale ridurre al minimo quando viene utilizzato un algoritmo per valutare se un paziente rischia di sviluppare un tumore maligno oppure no.

È per questo che la supervisione umana è fondamentale, anche quando un algoritmo si può ritenere altamente accurato: indirizzare due paia di occhi sulla stessa immagine — uno in carne e ossa e uno sintetico — crea una sorta di rete di sicurezza, un sistema in cui il medico competente e l’intelligenza artificiale compensano per ciò che al collega può sfuggire. Uno studio recentemente apparso su Nature mostra come una partnership di questo tipo tra umani e intelligenze artificiali possa funzionare particolarmente nella diagnosi precoce del tumore al seno.

Il tumore al seno è la seconda causa di morte per cancro nelle donne, ma fortunatamente la diagnosi precoce e il conseguente trattamento possono migliorare drasticamente le prognosi; l’interpretazione delle mammografie resta però problematica e i medici competenti mostrano in questo compito un grado di accuratezza variabile da specialista a specialista.

Per questo motivo nel Regno Unito e in molti Paesi europei è diventata pratica comune mostrare una singola mammografia a due radiologi diversi e compararne le letture, ottenendo così risultati migliori rispetto a quanto avverrebbe con la lettura da parte di un solo specialista. Un approccio simile non è però privo di punti deboli, perché — è stato obiettato — richiede un ingente impiego di risorse che nei centri diagnostici già scarseggiano. E se invece di affidarsi a due tecnici esperti in carne e ossa se ne sostituisse uno con l’intelligenza artificiale, lasciando il secondo a supervisionare l’attività del software?

Secondo i risultati della ricerca pubblicata su Nature, un approccio simile non peggiorerebbe l’accuratezza delle analisi rispetto al paradigma della doppia lettura. Questo significa che il carico di lavoro dei radiologi potrebbe essere significativamente ridotto con l’aiuto dell’intelligenza artificiale, il tutto mantenendo la valutazione di un esperto in carne e ossa come parte della procedura, per rilevare neoplasie delle quali l’algoritmo potrebbe non essersi accorto.

È un esempio intrigante del potenziale insito nella collaborazione tra intelligenza umana e artificiale, ma ci sono altri modelli di collaborazione che si basano sul medesimo principio dei quattro occhi. L’AI può funzionare come prima o come seconda lettura, ma anche come strumento di triage che aiuta ad assegnare priorità alle procedure in programma basandosi sulla potenziale gravità dei risultati delle analisi.

Eppure per capire davvero perché non possiamo affidarci esclusivamente agli algoritmi quando si tratta di prendere decisioni in ambito clinico dobbiamo addentrarci nella questione più a fondo — gettando luce sui loro punti deboli

The post Perché l’intelligenza artificiale non sostituisce le competenze mediche ma si integra ad esse appeared first on Wired.