Internet

L'IA generativa sta arrivando per la sanità e non tutti ne sono entusiasti

L'IA generativa, che può creare e analizzare immagini, testi, audio, video e altro, sta facendo sempre più ingresso nel settore sanitario, spinto sia da grandi aziende tecnologiche che da start-up.

Google Cloud, la divisione dei servizi e prodotti cloud di Google, sta collaborando con Highmark Health, un'azienda sanitaria no profit con sede a Pittsburgh, per sviluppare strumenti di IA generativa progettati per personalizzare l'esperienza di accettazione dei pazienti. La divisione AWS di Amazon afferma di lavorare con clienti non nominati su un modo per utilizzare l'IA generativa per analizzare database medici per i "determinanti sociali della salute". E Microsoft Azure sta aiutando a costruire un sistema di IA generativa per Providence, la rete sanitaria no profit, per instradare automaticamente i messaggi ai fornitori di cure inviati dai pazienti.

Le start-up più famose di IA generativa nel settore sanitario includono Ambience Healthcare, che sta sviluppando un'app di IA generativa per i clinici; Nabla, un assistente di IA ambientale per i professionisti medici; e Abridge, che crea strumenti di analisi per la documentazione medica.

L'entusiasmo diffuso per l'IA generativa è riflesso negli investimenti dedicati agli sforzi di IA generativa nel settore sanitario. Collettivamente, le start-up di IA generativa nel settore sanitario hanno raccolto decine di milioni di dollari di venture capital fino ad oggi, e la stragrande maggioranza degli investitori nel settore sanitario afferma che l'IA generativa ha influenzato significativamente le loro strategie di investimento.

Ma sia i professionisti che i pazienti sono divisi sul fatto che l'IA generativa focalizzata sulla sanità sia pronta per il grande pubblico.

L'IA generativa potrebbe non essere ciò che le persone desiderano

In un recente sondaggio Deloitte, solo circa la metà (53%) dei consumatori statunitensi ha affermato di ritenere che l'IA generativa potesse migliorare la sanità, ad esempio rendendola più accessibile o riducendo i tempi di attesa per gli appuntamenti. Meno della metà ha detto di aspettarsi che l'IA generativa renda l'assistenza medica più abbordabile.

Andrew Borkowski, chief AI officer della VA Sunshine Healthcare Network, il più grande sistema sanitario del Dipartimento degli Affari dei Veterani degli Stati Uniti, non ritiene che il cinismo sia ingiustificato. Borkowski ha avvertito che il dispiegamento dell'IA generativa potrebbe essere prematuro a causa dei suoi "significativi" limiti e dei dubbi sulla sua efficacia.

"Uno dei principali problemi con l'IA generativa è la sua incapacità di affrontare query o emergenze mediche complesse", ha detto a TechCrunch. "La sua base di conoscenza finita, cioè l'assenza di informazioni cliniche aggiornate, e la mancanza di competenza umana rendono inadatto il modello a fornire consigli medici completi o raccomandazioni di trattamento".

Diverse ricerche suggeriscono che ci sia fondamento in quei punti.

In un articolo pubblicato sulla rivista JAMA Pediatrics, il chatbot di IA generativa di OpenAI, ChatGPT, che alcuni enti sanitari hanno testato per casi d'uso limitati, è stato trovato a commettere errori nella diagnosi di malattie pediatriche nell'83% dei casi. E nel test di OpenAI's GPT-4 come assistente diagnostico, i medici del Beth Israel Deaconess Medical Center di Boston hanno osservato che il modello ha classificato erroneamente la diagnosi principale quasi due volte su tre.

Oggi, l'IA generativa fatica anche con compiti amministrativi medici che fanno parte delle attività quotidiane dei clinici. Nel benchmark MedAlign per valutare quanto bene l'IA generativa possa svolgere attività come riassumere le cartelle cliniche dei pazienti e cercare tra le note, GPT-4 ha fallito nel 35% dei casi.

OpenAI e molti altri fornitori di IA generativa mettono in guardia contro il fare affidamento sui loro modelli per consigli medici. Ma Borkowski e altri dicono che potrebbero fare di più. "Fare affidamento esclusivamente sull'IA generativa per la sanità potrebbe portare a diagnosi errate, trattamenti inappropriati o addirittura situazioni pericolose per la vita", ha detto Borkowski.

Jan Egger, responsabile delle terapie guidate dall'AI presso l'Istituto per l'AI in Medicina dell'Università di Duisburg-Essen, che studia le applicazioni delle tecnologie emergenti per l'assistenza ai pazienti, condivide le preoccupazioni di Borkowski. Egger ritiene che l'unico modo sicuro per utilizzare attualmente l'IA generativa in ambito sanitario sia sotto il controllo attento e vigile di un medico.

"I risultati possono essere completamente sbagliati, ed è sempre più difficile mantenere consapevolezza di questo", ha detto Egger. "Certamente, l'IA generativa può essere utilizzata, ad esempio, per la predisposizione di lettere di dimissioni. Ma i medici hanno la responsabilità di controllarle e prendere la decisione finale".

L'IA generativa può perpetuare gli stereotipi

Un modo particolarmente dannoso in cui l'IA generativa nel settore sanitario può sbagliare è continuando a perpetuare stereotipi.

In uno studio del 2023 pubblicato su Stanford Medicine, un gruppo di ricercatori ha testato ChatGPT e altri chatbot basati su IA generativa su domande riguardanti la funzione renale, la capacità polmonare e lo spessore della pelle. Non solo le risposte di ChatGPT erano spesso sbagliate, hanno scoperto gli autori condivisi, ma le risposte includevano diversi convinzioni errate che ci siano differenze biologiche tra persone di colore e bianchi, falsità che si sa hanno portato i fornitori di cure a fare diagnosi errate dei problemi di salute.

L'ironia è che i pazienti più inclini a essere discriminati dall'IA generativa per la sanità sono anche quelli più propensi a utilizzarla.

Le persone prive di copertura sanitaria — per lo più persone di colore, secondo uno studio del KFF — sono più inclini a provare l'IA generativa per cose come trovare un medico o supporto per la salute mentale, ha mostrato il sondaggio Deloitte. Se le raccomandazioni dell'IA sono compromesse dal pregiudizio, potrebbero esacerbare le disuguaglianze nel trattamento.

Tuttavia, alcuni esperti sostengono che l'IA generativa stia migliorando in questo senso.

In uno studio di Microsoft pubblicato alla fine del 2023, i ricercatori hanno dichiarato di aver raggiunto un'accuratezza del 90,2% su quattro difficili indicatori medici utilizzando GPT-4. GPT-4 vanilla non poteva raggiungere questo punteggio. Ma, dicono i ricercatori, attraverso l'ingegneria delle prompt — progettando prompt per far sì che GPT-4 produca determinate uscite — sono stati in grado di aumentare il punteggio del modello fino al 16,2 percento. (È degno di nota che Microsoft è un importante investitore in OpenAI.)

Oltre ai chatbot

Ma fare una domanda a un chatbot non è l'unico modo in cui l'IA generativa è utile. Alcuni ricercatori ritengono che l'elaborazione di immagini mediche potrebbe beneficiare notevolmente del potere dell'IA generativa.

A luglio, un gruppo di scienziati ha presentato un sistema chiamato complementarity-driven deferral to clinical workflow (CoDoC), in uno studio pubblicato su Nature. Il sistema è progettato per capire quando gli specialisti di imaging medico dovrebbero fare affidamento sull'IA per le diagnosi rispetto alle tecniche tradizionali. Secondo gli autori, CoDoC ha superato gli specialisti riducendo i flussi di lavoro clinici del 66%.

A novembre, un team di ricerca cinese ha presentato Panda, un modello di IA utilizzato per rilevare lesioni pancreatiche potenziali nelle lastre radiografiche. Uno studio ha mostrato che Panda è molto accurato nella classificazione di queste lesioni, che spesso vengono rilevate troppo tardi per l'intervento chirurgico.

In effetti, Arun Thirunavukarasu, fellow di ricerca clinica presso l'Università di Oxford, ha detto che non c'è nulla di unico nell'IA generativa che impedisca il suo utilizzo in ambienti sanitari.

"Sono fattibili applicazioni più banali della tecnologia di IA generativa a breve e medio termine, e includono correzione testuale, documentazione automatica di note e lettere e funzionalità di ricerca migliorate per ottimizzare le cartelle cliniche elettroniche", ha detto. "Non c'è motivo per cui la tecnologia di IA generativa — se efficace — non possa essere impiegata in questi ruoli immediatamente".

"Scienza rigorosa"

Ma mentre l'IA generativa mostra promesse in specifici e ristretti settori della medicina, esperti come Borkowski sottolineano gli ostacoli tecnici e di conformità che devono essere superati prima che l'IA generativa possa essere utile — e affidabile — come strumento di assistenza sanitaria.

"Significative preoccupazioni sulla privacy e sulla sicurezza circondano l'utilizzo dell'IA generativa nel settore sanitario", ha detto Borkowski. "La natura sensibile dei dati medici e il potenziale per un uso improprio o un accesso non autorizzato pongono gravi rischi alla riservatezza dei pazienti e alla fiducia nel sistema sanitario. Inoltre, il panorama regolatorio e legale attorno all'utilizzo dell'IA generativa nel settore sanitario è ancora in evoluzione, con questioni riguardanti la responsabilità, la protezione dei dati e la pratica della medicina da parte di entità non umane che devono ancora essere risolte".

Anche Thirunavukarasu, seppur ottimista sull'IA generativa nel settore sanitario, dice che ci deve essere "scienza rigorosa" dietro gli strumenti rivolti ai pazienti.

"In particolare senza una supervisione diretta del medico, dovrebbero esserci pragmatici trial controllati randomizzati che dimostrino il beneficio clinico per giustificare la messa in funzione dell'IA generativa rivolta ai pazienti", ha detto. "Una corretta governance futura è essenziale per catturare eventuali danni non previsti dopo la messa in funzione su larga scala".

Recentemente, l'Organizzazione Mondiale della Sanità ha pubblicato linee guida che promuovono questo tipo di scienza e supervisione umana dell'IA generativa nel settore sanitario così come l'introduzione di audit, trasparenza e valutazioni dell'impatto su questa IA da parte di terze parti indipendenti. L'obiettivo, l'OMS lo spiega nelle sue linee guida, sarebbe quello di incoraggiare la partecipazione di un'ampia varietà di persone nello sviluppo dell'IA generativa per la sanità e di avere l'opportunità di esprimere preoccupazioni e fornire contributi lungo tutto il processo.

"Fino a quando le preoccupazioni non sono affrontate adeguatamente e le salvaguardie adeguate non sono messe in atto", ha detto Borkowski, "l'implementazione diffusa dell'IA generativa medica potrebbe essere... potenzialmente dannosa per i pazienti e per l'industria sanitaria nel suo complesso".

Related Articles

Back to top button Back to top button