Tonia Samela
pubblicato 1 settimana fa in Everyday tips

Può un algoritmo salvarci la vita?

Articolo serio su alcuni interessanti risvolti dell’applicazione dell’AI nel prevenire il suicidio

Può un algoritmo salvarci la vita?

Ogni qualvolta un nostro dispositivo elettronico viene connesso alla rete e ogni volta un utente cerca, scarica, carica, condivide, ascolta, compra su qualsiasi piattaforma on-line, vengono prodotti dei dati.
Gran parte delle azioni quotidiane di tutti gli esseri umani contemporanei creano dati, i quali possono essere raccolti, memorizzati e monetizzati.

Uno dei maggiori interessi di molte aziende che lavorano anche on-line è scoprire come produrre profitto su questi dati. Chiaramente, il guadagno non sembra essere previsto solo per l’azienda che viene a conoscenza di questi dati, ma anche dell’utente che li immette in rete.

Ogni qualvolta infatti noi accettiamo le condizioni di una liberatoria che compare come finestra di dialogo mentre usiamo un social network o il sito di e-shop di un’azienda, stiamo -la maggior parte delle volte- acconsentendo o al trattamento dei dati personali che abbiamo immesso in rete per completare il nostro log-in o il nostro acquisto, oppure stiamo “migliorando la nostra esperienza di navigazione”. Per “miglioramento della nostra esperienza di navigazione”, in soldoni, si intende che l’algoritmo della piattaforma su cui navighiamo, in base a una serie di dati che vengono ricavati dalle nostre solite azioni su quel sito, ci mostrerà dei contenuti che è più probabile che apprezzeremo, che ci interesseranno o che, al contrario, ci faranno irritare, piuttosto di che contenuti neutri, i quali è più probabile che passino inosservati.

Tutte le informazioni che passano dalle comuni azioni che ogni utente compie on-line e dagli accordi tra azienda e utente prendono il nome di Big Data.

Di questo discorso, non troppo esente da una serie di problemi legati alla privacy in generale e, in particolare, alla migrazione inconsapevole (da parte dell’utente) di dati ad aziende terze, se ne stanno occupando non solo gli esperti, ma anche i giornali e la politica, conferendo a questo argomento una scottante attualità.

Proprio grazie ai Big Data e all’intelligenza artificiale (AI) che è in grado di scandagliarli e gestirli, però, arrivano delle importanti novità sul fronte della cura e della gestione del benessere delle persone.

Nel 2017 infatti tre ricercatori del Vanderbilt University Medical Center, Walsh, Ribeiro, e Franklin, hanno pubblicato un articolo su “Clinical Psychological Science” intitolato: “Predicting risk of suicide attempts over time through machine learning” .

All’interno di questo articolo, i ricercatori ci riferiscono di aver testato un tipo particolare di AI che sarebbe in grado di scandagliare l’infinità di dati dei social network e gli smisurati database di cliniche e ospedali, per individuare i soggetti a rischio suicidio.

Gli stessi autori fanno notare come il suicidio sia un gravissimo problema di salute pubblica; si calcola infatti che, nel mondo, 25 milioni di persone tentano di togliersi la vita ogni anno (OMS, 2016). I tentativi suicidari non fatali sono però anche uno dei più importanti predittori a medio e lungo termine per i comportamenti suicidari completi e rappresentano una delle maggiori cause di morte in tutto il mondo (Ribeiro et al., 2016). Da questi dati balza subito all’occhio l’importanza e la necessità di conoscere le azioni parasuicidarie dei pazienti a rischio, poiché rappresenterebbero un ottimo indicatore di allerta per tutti coloro i quali possono prendersi cura della persona che sta cercando di mettere fine alla sua vita; eppure la capacità da parte degli operatori della salute di prevedere gli atti parasuicidari rimane appena sopra ai livelli di probabilità statistica (Bentley et al., 2016; Chang et al., 2016; Franklin et al., 2016; Ribeiro et al., 2016). Da tutte queste premesse, Walsh e colleghi si sono proposti di valutare l’accuratezza e la sensibilità di una intelligenza artificiale (AI) nell’analizzare i profili di 5167 soggetti a rischio di comportamenti suicidari o di autolesionismo presenti nel database del Vanderbilt University Medical Center, setacciando le loro vecchie conversazioni sui social e incrociandole con lo storico delle informazioni mediche legate a cure o ricoveri. L’obiettivo di questa analisi di dati era quello di fornire all’AI dati storici per capire quanto sarebbe stata precisa nell’identificare le persone che poi effettivamente hanno tentato di togliersi la vita. Il risultato di questa prova è stato molto rilevante: l’AI di Walsh e colleghi ha identificato 3250 soggetti ad alto rischio, con un grado di accuratezza dell’80-90% per tentativi di suicidio nell’arco di due anni e del 92% nell’arco della settimana successiva; il grado di accuratezza dell’AI nel predire un comportamento parasuicidario aumentava dunque nel breve termine, ma rimaneva comunque estremamente alto anche a medio termine. Gli autori insistono dunque sulla necessità e sull’importanza di avere a disposizione uno strumento in grado di valutare in maniera precisa e ripetibile se esiste la possibilità che qualcuno possa attentare alla sua vita, in modo da agire tempestivamente.

Chiaramente, anche questo discorso apre molteplici piani di discussione:

tutte le persone che vogliono togliersi la vita mandano dei segnali? È lecito “inserirsi” nelle conversazioni sui social di una persona con una storia clinica rilevante da questo punto di vista allo scopo di proteggerla? Come garantire il diritto alla privacy e, allo stesso modo, garantire un aiuto? Quanto effettivamente i segnali che le persone mandano attraverso i social sono vere richieste di aiuto? È possibile prendersi gioco di un algoritmo e creare un allarme non reale attraverso la pubblicazione o la condivisione di contenuti allarmanti ma che non celano una reale intenzione autolesionista, come differenziarli da malesseri reali e pericolosi? Quanto la mobilitazone di un algoritmo e la predizione del tempo che statisticamente rimane alla persona prima di compiere un atto parasuicidario può fungere da rinforzo per la persona che sta tentando di mettere in atto un gesto potenzialmente lesivo, piuttosto che incoraggiarla a cercare aiuto? Come avviene la comunicazione tra algoritmo e persona che soffre, allo scopo di dissuadere quest’ultimo dalla sua intenzione autolesiva?

Tutti questi interrogativi però non sono di competenza esclusiva della psicologia clinica; inoltre sarebbe oltremodo ambizioso credere che all’interno di un solo studio e di una singola pubblicazione possano venir sciolti tutti questi nodi, tuttavia l’interesse per questo tipo di tecnologie è molto alto e, stavolta, non solo allo scopo di farci comprare un articolo in più nel marketplace.

L’immagine in evidenza proviene da: https://www.quantamagazine.org/best-ever-algorithm-found-for-huge-streams-of-data-20171024/