IA Order per l’Assistenza Sanitaria Potrebbe Avvicinare Pazienti e Medici

IA Ordine per l'Assistenza Sanitaria Potrebbe Promuovere L'avvicinamento tra Pazienti e Medici

10 Novembre 2023 – Potresti aver utilizzato ChatGPT-4 o uno degli altri nuovi chatbot di intelligenza artificiale per fare domande sulla tua salute. Oppure forse il tuo medico sta utilizzando ChatGPT-4 per generare un riassunto di quanto accaduto nella tua ultima visita. Magari il tuo medico ha persino un chatbot che controlla nuovamente la sua diagnosi sulla tua condizione.

Ma in questa fase dello sviluppo di questa nuova tecnologia, gli esperti dicono che sia i consumatori che i medici dovrebbero procedere con cautela. Nonostante la fiducia con cui un chatbot di intelligenza artificiale fornisce le informazioni richieste, non è sempre accurato.

Mentre l’uso dei chatbot di intelligenza artificiale si diffonde rapidamente, sia nell’ambito della salute che altrove, si è sollevata la necessità di una regolamentazione governativa per proteggere il pubblico dalle possibili conseguenze non volute dell’intelligenza artificiale. 

Recentemente il governo federale ha compiuto un primo passo in questa direzione quando il Presidente Joe Biden ha emanato un decreto esecutivo che richiede alle agenzie governative di individuare modi per governare l’uso dell’intelligenza artificiale. Nell’ambito dell’assistenza sanitaria, il decreto ordina al Dipartimento della Salute e dei Servizi Umani di promuovere un’innovazione dell’intelligenza artificiale responsabile che “favorisce il benessere dei pazienti e degli operatori nel settore sanitario”.

Tra le altre cose, l’agenzia dovrebbe istituire entro un anno un gruppo di lavoro sull’intelligenza artificiale nell’assistenza sanitaria. Questo gruppo di lavoro svilupperà un piano per regolamentare l’uso dell’intelligenza artificiale e delle applicazioni abilitate dall’intelligenza artificiale nella fornitura di assistenza sanitaria, nella sanità pubblica e nella ricerca e sviluppo di farmaci e dispositivi medici, nonché per garantire la sicurezza.

Il piano strategico affronterà anche “la sicurezza a lungo termine e il monitoraggio delle prestazioni nel mondo reale delle tecnologie abilitate dall’intelligenza artificiale”. Il dipartimento dovrà inoltre sviluppare un metodo per determinare se le tecnologie abilitate dall’intelligenza artificiale “mantengono livelli appropriati di qualità”. E, in collaborazione con altre agenzie e organizzazioni per la sicurezza dei pazienti, il Dipartimento della Salute e dei Servizi Umani dovrà istituire un sistema per identificare gli errori “derivanti dall’uso dell’intelligenza artificiale in contesti clinici”.

Il decreto di Biden è “un buon primo passo”, ha dichiarato Ida Sim, MD, PhD, professore di medicina e salute di precisione computazionale e dirigente responsabile della ricerca presso l’Università della California, San Francisco.

John W. Ayers, PhD, direttore aggiunto dell’informatica presso l’Istituto di ricerca clinica e traslazionale Altman dell’Università della California a San Diego, è d’accordo. Ha affermato che, sebbene l’industria dell’assistenza sanitaria sia soggetta a rigorosi controlli, non ci sono regolamenti specifici sull’uso dell’intelligenza artificiale nell’assistenza sanitaria.

“Questa situazione unica deriva dal fatto che l’intelligenza artificiale si muove rapidamente e i regolatori non riescono a starle dietro”, ha detto. Tuttavia, è importante procedere con attenzione in questo campo, altrimenti le nuove regolamentazioni potrebbero ostacolare il progresso medico, ha aggiunto.

Problema della “hallucinazione” che perseguita l’IA

Nell’anno successivo all’emergere di ChatGPT-4, che ha sorpreso gli esperti con le sue conversazioni simili a quelle umane e la sua conoscenza in molte materie, il chatbot e altri simili si sono ben consolidati nell’assistenza sanitaria. Secondo un sondaggio, il 14% dei medici sta già utilizzando questi “agenti conversazionali” per aiutare a diagnosticare i pazienti, creare piani di trattamento e comunicare con i pazienti online. I chatbot vengono anche utilizzati per raccogliere informazioni dalle cartelle cliniche dei pazienti prima delle visite e per riassumere le note delle visite per i pazienti.

I consumatori hanno iniziato anche ad utilizzare i chatbot per cercare informazioni sull’assistenza sanitaria, capire le comunicazioni delle assicurazioni sanitarie, e analizzare i dati dei test di laboratorio.

Il problema principale in tutto ciò è che i chatbot di intelligenza artificiale non sono sempre corretti. A volte inventano informazioni che non esistono, si “hallucinano”, come dicono alcuni osservatori. Secondo uno studio recente di Vectara, una startup fondata da ex dipendenti di Google, i chatbot inventano informazioni almeno il 3% delle volte, e talvolta fino al 27% delle volte, a seconda del chatbot. Un altro rapporto ha tratto conclusioni simili.

Ciò non significa che i chatbot non siano straordinariamente bravi nel dare la risposta corretta nella maggior parte dei casi. In un esperimento, 33 medici di 17 specialità hanno posto 284 domande mediche di varia complessità ai chatbot e hanno valutato le risposte. Più della metà delle risposte sono state valutate come quasi corrette o completamente corrette. Ma le risposte a 15 domande sono risultate completamente errate.

Google ha creato un chatbot chiamato Med-PaLM che è specificamente progettato per conoscenze mediche. Questo chatbot, che ha superato un esame di licenza medica, ha un tasso di precisione del 92,6% nel rispondere alle domande mediche, circa lo stesso dei medici, secondo uno studio di Google.

Ayers e i suoi colleghi hanno condotto uno studio confrontando le risposte dei chatbot e dei medici alle domande poste dai pazienti online. Gli operatori sanitari hanno valutato le risposte e hanno preferito la risposta del chatbot nel quasi 80% degli scambi. Le risposte dei medici sono state valutate più basse sia per qualità che per empatia. I ricercatori hanno suggerito che i medici potrebbero essere stati meno empatici a causa dello stress della pratica.

Rifiuto e Rifiuto

I chatbot possono essere utilizzati per identificare diagnosi rare o spiegare sintomi insoliti, e possono anche essere consultati per assicurarsi che i medici non trascurino possibilità diagnostiche ovvie. Per essere disponibili a tali scopi, dovrebbero essere incorporati nel sistema di registrazione elettronica della salute di una clinica. Microsoft ha già incorporato ChatGPT-4 nel sistema di registrazione sanitaria più diffuso, di Epic Systems.

Una sfida per qualsiasi chatbot è che i record contengono informazioni errate e spesso mancano di dati. Molti errori diagnostici sono legati a storie cliniche mal raccolte e a esami fisici sommari documentati nelle registrazioni elettroniche della salute. E queste registrazioni di solito non includono molte o alcune informazioni dalle registrazioni degli altri medici che hanno visto il paziente. Basandosi esclusivamente sui dati inadeguati del record del paziente, potrebbe essere difficile per un essere umano o un’intelligenza artificiale trarre la giusta conclusione in un caso specifico, ha detto Ayers. È qui che l’esperienza e la conoscenza del paziente da parte di un medico possono essere preziose.

Ma i chatbot sono piuttosto bravi a comunicare con i pazienti, come ha dimostrato lo studio di Ayers. Con la supervisione umana, ha detto, sembra probabile che questi agenti di conversazione possano aiutare a alleviare il carico dei medici nella messaggistica online con i pazienti. E, ha detto, questo potrebbe migliorare la qualità delle cure.

“Un agente di conversazione non è solo qualcosa che può gestire la tua casella di posta o il tuo carico di posta in arrivo. Può trasformare la tua casella di posta in una casella di posta in uscita attraverso messaggi proattivi ai pazienti”, ha detto Ayers.

I chatbot possono inviare messaggi personali ai pazienti, personalizzati in base ai loro record e alle necessità che i medici ritengono avranno. “Cosa farebbe ciò per i pazienti?” Ha detto Ayers. “C’è un enorme potenziale qui per cambiare il modo in cui i pazienti interagiscono con i loro fornitori di assistenza sanitaria.”

Vantaggi e Svantaggi dei Chatbot

Se i chatbot possono essere utilizzati per generare messaggi ai pazienti, possono anche svolgere un ruolo chiave nella gestione delle malattie croniche, che colpiscono fino al 60% di tutti gli americani.

Sim, che è anche medico di famiglia, lo spiega così: “La malattia cronica è qualcosa che hai 24 ore su 24. Vedo i miei pazienti più malati per 20 minuti ogni mese, in media, quindi non sono io a gestire la maggior parte della cura delle malattie croniche.”

Le dice ai suoi pazienti di fare esercizio, gestire il loro peso e prendere i farmaci come indicato. “Ma non fornisco alcun supporto a casa”, ha detto Sim. “I chatbot basati sull’intelligenza artificiale, grazie alla loro capacità di utilizzare il linguaggio naturale, possono essere presenti con i pazienti in modi in cui noi medici non possiamo.”

Oltre a consigliare i pazienti e i loro caregiver, ha detto, gli agenti di conversazione possono anche analizzare i dati provenienti da sensori di monitoraggio e fare domande sulle condizioni di un paziente di giorno in giorno. Mentre nulla di tutto ciò accadrà nel prossimo futuro, ha detto, rappresenta una “enorme opportunità”.

Ayers è d’accordo, ma ha avvertito che devono essere condotti studi clinici controllati randomizzati per stabilire se un servizio di messaggistica assistito dall’intelligenza artificiale può effettivamente migliorare gli esiti dei pazienti.

“Se non svolgiamo una rigorosa scienza pubblica su questi agenti di conversazione, posso immaginare scenari in cui verranno implementati e causeranno danni”, ha detto.

In generale, ha detto Ayers, la strategia nazionale sull’intelligenza artificiale dovrebbe essere centrata sul paziente, piuttosto che sul modo in cui i chatbot aiutano i medici o riducono i costi amministrativi.

Dalla prospettiva del consumatore, Ayers ha detto di essere preoccupato per i programmi di intelligenza artificiale che danno “raccomandazioni universali ai pazienti che potrebbero essere immateriali o persino sbagliate”.

Sim ha anche sottolineato che i consumatori non dovrebbero fare affidamento sulle risposte che i chatbot danno alle domande sulla salute.

“Deve essere trattato con molta cautela. Queste cose sono così convincenti nel modo in cui usano il linguaggio naturale. Penso sia un rischio enorme. Almeno, al pubblico dovrebbe essere detto: ‘C’è un chatbot dietro questo, e potrebbe essere sbagliato'”.