di Mario Perini.
La digitalizzazione in sanità – accanto ad alcune non irrilevanti zone d’ombra di cui ho parlato in un precedente lavoro – ha comportato indubbi vantaggi e grandi opportunità per migliorare la qualità e l’efficienza delle prestazioni diagnostiche, terapeutiche e riabilitative.
Ma ora, all’interno del più ampio capitolo della e-health, la sanità digitale, vorrei occuparmi di un capitolo specifico, l’impiego dell’intelligenza artificiale nel lavoro di assistenza e di cura.
Incomincerei con rilevare alcuni aspetti positivi dell’IA sanitaria, uno dei quali è la democratizzazione delle cure, che riguarda la possibilità di rendere la tecnologia di intelligenza artificiale più accessibile e user-friendly per una più ampia gamma di persone, compresi quelli senza competenze tecniche specializzate. L’obiettivo è consentire a individui e organizzazioni sanitarie di sfruttare l’IA per i compiti di cura senza dover fare affidamento su esperti o grandi aziende.
Ad esempio strumenti di diagnosi basati sull’IA e sull’impiego di algoritmi di machine learning possono consentire ai non esperti di utilizzarli per diagnosticare i pazienti e selezionarli con un triage o per fornire loro consulenze virtuali, anche in assenza di specialisti o in contesti dove le risorse sanitarie sono molto limitate, come aree remote o scarsamente servite. Così le piattaforme di medicina personalizzate, in grado di analizzare i dati dei pazienti, tra cui la genetica, la storia medica e lo stile di vita, consentono loro di accedere a raccomandazioni basate sull’IA per i loro piani individuali di trattamento.
Nel complesso l’IA ha il potenziale per rivoluzionare l’assistenza sanitaria automatizzando molte attività di routine, consentendo diagnosi più rapide e accurate, migliorando i risultati per i pazienti e riducendo i tempi d’attesa e i costi sanitari. Tuttavia ci sono motivi che ci consigliano di non cedere a troppo facili entusiasmi.
Francesco Gabbrielli, direttore del Centro nazionale per la telemedicina e le nuove tecnologie assistenziali dell’Istituto Superiore di Sanità scrive in un articolo recente
L’intelligenza artificiale per la sanità digitale è un’opportunità, una risorsa straordinaria, ma dobbiamo ancora capirla in modo approfondito e studiare come addestrare le macchine. Il punto è che studiare le applicazioni in medicina delle tecnologie digitali è qualcosa di nuovo per l’intera storia dell’uomo. Big tech come Google e Facebook, ma anche Amazon, continuano a investire su tentativi di creare sistemi sanitari totalmente virtuali per gestire la salute di milioni di persone in molte parti del mondo, ma ad oggi hanno sempre fallito. Ciò probabilmente perché la sanità è un sistema a sé, cioè che vive di regole e modalità di interazione tra persone del tutto proprie, e poi siamo solo all’inizio della rivoluzione digitale.
Ci sono moltissimi lavori scientifici in corso, decine stanno indagando come funzionano le reti neurali, struttura alla base dell’intelligenza artificiale, in grado di apprendere in base ai dati che riceve. Altre ricerche sono in corso in alcune applicazioni cliniche. Ci vuole del tempo. Tutti siamo convinti che l’IA sia una straordinaria risorsa, ma dobbiamo imparare a conoscerla e a usarla. Dobbiamo considerare che non è mai successo prima, nella storia, che in così tanti possano avere così tanti dati di una sola persona. È il cambiamento di paradigma nel modo di fare medicina. (…)
L’ambito sanitario è un settore produttivo diverso, ha regole sue, ha sistemi di evoluzione organizzativa e di accoglimento delle nuove tecnologie diversi dagli altri comparti perché ha a che fare con la salute, con la condizione di malattia, con la sofferenza, con la paura e il coraggio, con le relazioni umane, con la natura, con le molte cose che ancora non sappiamo di noi stessi. Non succederà mai che un professionista sanitario usi una tecnologia che non abbia validazione scientifica, perché il rischio è troppo alto: è inaccettabile per tutti che succeda qualcosa al paziente senza capirne il motivo
In medicina, una delle applicazioni più avanzate dell’intelligenza artificiale è nella diagnostica radiologica, come Tac e Risonanza magnetica, dove alcuni risultati incoraggianti sono stati raggiunti. La maggior parte sono però esperienze preliminari che vanno ancora verificate sperimentalmente. Un altro settore medico in cui l’applicazione dell’AI è più avanzata riguarda la diagnosi e il trattamento delle malattie oncologiche. Negli altri ambiti clinici, ci sono poche evidenze che ne dimostrino l’utilità anche se moltissimi studi sono in corso.
La cosa importante, in medicina – sottolinea ancora Gabbrielli – è non correre dietro alle mode. Ciò che è fattibile tecnologicamente non è detto che sia utile al paziente. All’atto pratico si deve capire se un’applicazione ha un senso. Alle volte ci sono soluzioni tecnologiche che non hanno significato, oppure altre il cui uso non fornisce i risultati sperati.
L’Organizzazione Mondiale della Sanità, pur riconoscendone le grandi potenzialità, ha raccomandato cautela nell’utilizzare l’intelligenza artificiale per la sanità pubblica, affermando che i dati utilizzati per addestrarla a prendere decisioni e a costruire modelli di cura potrebbero essere parziali, risultare influenzati da pregiudizi e generare informazioni fuorvianti o inesatte. E ha ribadito come per proteggere e promuovere il benessere umano e la salute pubblica sia “imperativo” valutare i rischi dell’utilizzo di sistemi di intelligenza artificiale generativa e di “large language models”, come ChatGPT.
E veniamo a lui, ChatGPT, creazione di OpenAI ed eroe del giorno, chatbot liberamente accessibile a tutti anche se recentemente bandito dal nostro Garante della Privacy, bando che poco dopo è stato ritirato, il che ci induce ad avere qualche dubbio e qualche perplessità sul suo impiego in medicina.
Alcuni mesi fa negli Stati Uniti ChatGPT ha superato l’esame di abilitazione alla medicina, che è richiesto a tutti i medici per avere la licenza di praticare la professione. Ricercatori della Harvard School of Medicine di Boston hanno affermato che “i risultati in ultima analisi dimostrano come i large language models, sui quali è stato addestrato ChatGPT, abbiano il potenziale per aiutare nella formazione medica e persino nelle decisioni cliniche” e in effetti in moltissime occasioni ChatGPT ha fornito a quesiti di tipo diagnostico o terapeutico risposte perfettamente adeguate. Queste prestazioni tuttavia ci fanno dimenticare rapidamente che l’intelligenza artificiale non è intelligenza nel senso usuale della parola, ma è piuttosto il riconoscimento di modelli linguistici, compila delle frasi sulla base di calcoli delle probabilità. Di conseguenza, ChatGPT ha evidenti limitazioni e la stessa OpenAI ha sottolineato come possa generare risposte che suonano plausibili ma che sono false o insensate; inoltre spesso risponde in modalità a corto circuito, utilizza certe formulazioni troppo frequentemente, e gli piace usare luoghi comuni. “Queste sono tutte cose che non vogliamo in medicina”, ha detto Jens Kleesiek, medico e informatico tedesco, che pure prevede molte potenzialità nell’applicazione di ChatGPT in sanità, meglio se integrata con altri algoritmi di IA.
A propositi dei limiti dei modelli linguistici in sanità egli sottolinea i seguenti:
- I fatti devono essere presentati in modo conciso e affidabile
- Per la sicurezza del paziente i farmaci suggeriti e i loro dosaggi devono essere corretti
- L’uso di ChatGPT deve fare risparmiare tempo ed essere ben integrato nei processi lavorativi
- Vanno risolti i problemi relativi alle responsabilità, alla protezione dei dati e al copyright
In definitiva Kleesiek osserva che per come funziona attualmente ChatGPT non è ancora pronto per un impiego nella pratica clinica.
E comunque, come la mettiamo con l’”umanizzazione” delle cure? Dobbiamo pensare che il medico possa essere tranquillamente sostituito da una chatbot, così come la robotica operatoria ha già in molti casi preso proficuamente il posto della manualità del chirurgo?
Per certi versi ci aspettiamo che un robot finisca per superare le capacità dei professionisti nel fornire risposte di elevata qualità tecnica e nell’evitare errori o incidenti di percorso, e in effetti le ricerche più recenti ci dicono che le cose già stanno così, ma siamo ben convinti che l’IA non possa competere con gli umani in termini di empatia, compassione e rapporto con il paziente. Purtroppo alcune indagini affidabili che hanno confrontato le risposte di ChatGPT con quelle dei medici ad una serie di domande poste dai pazienti su un social network di tipo sanitario sembrano dimostrare una marcata superiorità dei chatbot sugli umani sia in termini qualitativi ma anche sul piano dell’empatia e della relazione col paziente.
Il primato nella qualità delle risposte ci può ancora permettere di pensare a un’integrazione tra robot e umano, dove il primo può diventare per il secondo uno strumento per migliorare l’efficacia delle cure offerte al paziente. Ma la superiorità di ChatGPT nelle capacità empatiche apre uno scenario inquietante, dove qualcuno prima o poi si chiederà: “Ehi, ma invece di pagare i medici perché non usiamo questi robot che sono gratuiti?”.
A questa domanda non può che affiancarsene un’altra: “Ma voi vi fareste curare da ChatGPT?”
Vuoi partecipare alla prossima conversazione? Scrivici a [email protected] e saremo felici di condividere anche con te!
Immagine di Freepik.