martedì, Aprile 22, 2025

Se l’intelligenza artificiale ci aiuta a prevenire i suicidi

Must Read

Questo articolo è stato pubblicato da questo sito

suicidi1La cronaca ci ricorda ogni giorno di come le infinite sfumature della realtà trovino spazio e mutino perfino dna nel loro rispecchiarsi sulle piattaforme digitali. L’omicidio in diretta su Facebook Live a Cleveland, così come il caso ormai scolastico dell’uccisione di Philando Castile in Minnesota l’estate scorsa stanno a testimoniarlo. Un altro aspetto che ha assunto un’inquietante rilevanza è quello dei suicidi sui social network. L’ultimo caso in ordine di tempo è quello di una 14enne che si è impiccata a Miami lo scorso gennaio. Poco prima, a dicembre, era stato il caso della 12enne Katelyn Nicole Davis.

In tutti questi casi, o in molti di essi, le accuse rivolte alle piattaforme sono di due ordini. Uno preventivo e uno successivo. Il primo si interroga sulle possibilità di individuare degli schemi ricorrenti negli atteggiamenti e nei contenuti degli utenti propensi all’autolesionismo o al suicidio per tentare di intervenire prima che compiano qualche gesto senza rimedio.

Il secondo mette di solito sotto accusa Facebook & co per non aver rimosso presto e bene i contenuti video che immortalano quelle drammatiche gesta. Nel caso dell’omicidio in Ohio la diretta è rimasta visibile per tre ore

È ovviamente il primo aspetto quello più interessante sotto il profilo delle ricerche e delle potenzialità dell’intelligenza artificiale. Alcune settimane fa proprio Facebook ha diffuso i primi strumenti orientati alla prevenzione dei suicidi e per così dire alimentati dall’AI. Un sistema consentirà di riconoscere automaticamente, in qualche modo di annusare, i messaggi che potrebbero segnalare certe tendenze e che saranno poi girati a un team composto da operatori in carne ed ossa. Un meccanismo che presto dovrebbe espandersi anche a quello che sembra diventato il palcoscenico ideale per questo genere di fatti: proprio la trasmissione in diretta. A cui, per il momento, è stata estesa la possibilità – per gli utenti – di segnalare i post che non promettono nulla di buono.

Non ci sono solo giganti come Facebook, Instagram e la cinese Live.me a impegnarsi su questo fronte. Diversi enti, più o meno noti, stanno lavorando a braccetto con gli strumenti dell’intelligenza artificiale per prevenire i suicidi. Dalla ricerca medica al dipartimento che negli Stati Uniti si occupa dei veterani di guerra, categoria di solito tristemente falcidiata dal fenomeno. Soggetti diversi che marciano tuttavia verso un unico obiettivo: capire i modelli, farsi aiutare dalla capacità di analisi di algoritmi sempre più sofisticati e che imparano col tempo per individuare gli atteggiamenti comuni. E intervenire in tempo. La prevenzione, d’altronde, è il miglior rimedio.

Insomma, la convinzione è che l’intelligenza artificiale offra la possibilità di identificare le persone con tendenze suicide più accuratamente rispetto al passato. Lo confermerebbero anche alcuni esperimenti: uno studio pubblicato di recente dalla Florida State University è per esempio riuscito a identificare con un’accuratezza spaventosa, fra l’80 e il 90%, se un soggetto avrebbe tentato il suicidio nei due anni seguenti. Il test si è “nutrito”, per così dire, di dati sanitari anonimizzati provenienti da due milioni di pazienti del Tennessee. Come è stato possibile? I ricercatori hanno allenato gli algoritmi a capire quali combinazioni di fattori, dalla prescrizione di certi medicinali al numero di visite ogni anno, conducessero su quel drammatico fronte.

Ovviamente sulle piattaforme digitali il tasso di difficoltà per il machine learning si alza. Non sono disponibili dati sanitari di alcun tipo e gli algoritmi devono osservare e interpretare esclusivamente ci che gli utenti pubblicano. Devono cioè fare text e (più avanti) content mining, andando a osservare le bacheche degli utenti, i commenti degli amici e altri elementi. Anche se, a dire il vero, spesso si tratta di contenuti piuttosto chiari ed espliciti negli obiettivi. Un po’ come i ricercatori della Florida, gli ingegneri sull’altra costa statunitense hanno allenato i nuovi sistemi di Facebook con le segnalazioni effettuate dagli utenti. Concretamente parlando, se un contenuto viene pescato dall’algoritmo psicologo, chiamiamolo così, la piattaforma renderà più evidente la possibilità di segnalarlo. Tentando insomma di innescare un circolo virtuoso di autoaiuto digitale.

Non c’è ovviamente solo Facebook. Altre società stanno tentando di intervenire ancora prima, attingendo a tipologie di dati piuttosto diverse. Si tratta per esempio di Cogito, uno spin-off del Mit finanziato dalla Darpa statunitense, che sta testando un’applicazione, battezzata Companion, che parte dalla voce e arriva a disegnare una sorta di mappa della salute mentale. È un territorio ben più scivoloso – anche in termini di privacy – che si basa sulla raccolta delle conversazioni quotidiane tentando di isolare i momenti in cui sembriamo più depressi. Insomma, è l’altro lato di Facebook: non si bada al contenuto ma a elementi come energia, tono di voce, livelli di coinvolgimento e fluidità dell’eloquio. Pescando informazioni anche dall’accelerometro del telefono. È una strada che si sta testando su alcune centinaia di veterani di guerra americani così come su alcuni pazienti affetti da disordini comportamentali al Brigham and Women’s Hospital di Boston.

Si tratta, nel caso dei social network così come delle applicazioni terze, di approcci tutti utili in sostanza a monitorare atteggiamenti e contenuti delle nostre interazioni quotidiane. Dando così alla tecnologia – e all’intelligenza artificiale – un ruolo di sicurezza e controllo. Quasi parentale. “La comunità è in una posizione unica per aiutare le persone a prevenire autolesionismo, per assisterle durante le crisi o per sostenerle nelle fasi successive” ha scritto settimane fa nel suo lungo manifesto Mark Zuckerberg. Peccato che senza la potenza dell’intelligenza artificiale ogni sforzo risulti inutile: “L’uso dell’AI porta la questione su un altro livello – aveva commentato all’epoca Daniel J. Reidenberg, capo della no profit Save.org – porta la tecnologia a uno step successivo nella possibilità di salvare vite umane”.

Leggi anche

Vuoi ricevere aggiornamenti su questo argomento?

Segui

- Advertisement -spot_img
- Advertisement -spot_img
Latest News

Pixel 9a contro Pixel 9, cosa cambia tra i due smartphone Google

Anche quest'anno con il suo Pixel 9a Google ha completato la sua offerta di smartphone inaugurata l'anno precedente con...
- Advertisement -spot_img

More Articles Like This

- Advertisement -spot_img