Che utilità potrebbe avere l’assistenza sanitaria per qualcuno che si inventa le cose, non sa mantenere un segreto, non sa davvero nulla e, quando parla, si limita a inserire la parola successiva in base a ciò che è venuto prima? Molto, se quell’individuo è la più recente forma di intelligenza artificiale, secondo alcune delle più grandi aziende là fuori.
Le aziende che spingono la più recente tecnologia di intelligenza artificiale, nota come “IA generativa”, si stanno accumulando: Google e Microsoft vogliono portare tipi di cosiddetti modelli di linguaggio di grandi dimensioni nell’assistenza sanitaria. Le grandi aziende che sono familiari alle persone in camice bianco — ma forse meno ai tuoi Joe e Jane medi — sono ugualmente entusiaste: i giganti delle cartelle cliniche elettroniche Epic e Oracle Cerner non sono molto indietro. Lo spazio è anche affollato di startup.
Le aziende vogliono che la loro intelligenza artificiale prenda appunti per i medici e fornisca loro una seconda opinione, supponendo che possano impedire all’intelligenza di “allucinare ” o, del resto, divulgare le informazioni private dei pazienti.
“C’è qualcosa in atto che è piuttosto eccitante”, ha detto Eric Topol, direttore dello Scripps Research Translational Institute di San Diego. “Le sue capacità alla fine avranno un grande impatto”. Topol, come molti altri osservatori, si chiede quanti problemi potrebbe causare — come la fuga di dati dei pazienti — e con quale frequenza. “Lo scopriremo.”
Lo spettro di tali problemi ha ispirato più di 1.000 leader tecnologici a firmare una lettera aperta a marzo esortando le aziende a sospendere lo sviluppo di sistemi di intelligenza artificiale avanzati fino a quando “non saremo sicuri che i loro effetti saranno positivi e i loro rischi saranno gestibili”. Anche così, alcuni di loro stanno investendo più soldi in iniziative di intelligenza artificiale.
La tecnologia sottostante si basa sulla sintesi di enormi blocchi di testo o altri dati, ad esempio alcuni modelli medici si basano su 2 milioni di note di unità di terapia intensiva del Beth Israel Deaconess Medical Center di Boston per prevedere il testo che seguirebbe una determinata query. L’idea esiste da anni, ma la corsa all’oro e la mania del marketing e dei media che la circondano sono più recenti.
La frenesia è stata innescata nel dicembre 2022 da OpenAI supportato da Microsoft e dal suo prodotto di punta, ChatGPT, che risponde alle domande con autorità e stile. Può spiegare la genetica in un sonetto, per esempio.
OpenAI, nata come impresa di ricerca seminata dalle élite della Silicon Valley come Sam Altman, Elon Musk e Reid Hoffman, ha portato l’entusiasmo nelle tasche degli investitori. L’impresa ha una struttura complessa e ibrida per e senza scopo di lucro. Ma un nuovo round di finanziamento da 10 miliardi di dollari da parte di Microsoft ha spinto il valore di OpenAI a 29 miliardi di dollari, secondo quanto riportato dal Wall Street Journal . In questo momento, la società concede in licenza la sua tecnologia ad aziende come Microsoft e vende abbonamenti ai consumatori. Altre startup stanno valutando la possibilità di vendere la trascrizione AI o altri prodotti ai sistemi ospedalieri o direttamente ai pazienti.
Le citazioni iperboliche sono ovunque. L’ex segretario al Tesoro Larry Summers ha twittato di recente : “Sostituirà ciò che fanno i medici — sentire i sintomi e fare diagnosi — prima che cambi ciò che fanno gli infermieri — aiutare i pazienti ad alzarsi e gestirsi in ospedale”.
Ma poche settimane dopo che OpenAI ha ricevuto un’altra enorme infusione di denaro, anche Altman, il suo CEO, è diffidente nei confronti della fanfara. “Il clamore su questi sistemi — anche se tutto ciò che speriamo sia giusto a lungo termine — è totalmente fuori controllo a breve termine”, ha detto per un articolo di marzo sul New York Times .
Pochi nell’assistenza sanitaria credono che quest’ultima forma di intelligenza artificiale stia per accettare il loro lavoro (sebbene alcune aziende stiano sperimentando — in modo controverso — chatbot che fungono da terapisti o guide alla cura). Tuttavia, coloro che sono ottimisti sulla tecnologia pensano che semplificherà alcune parti del loro lavoro.
Eric Arzubi, uno psichiatra di Billings, nel Montana, gestiva colleghi psichiatri per un sistema ospedaliero. Di volta in volta, riceveva un elenco di psichiatri che non avevano ancora finito i loro appunti: i loro riepiloghi delle condizioni di un paziente e un piano per il trattamento.
Scrivere queste note è uno dei grandi fattori di stress nel sistema sanitario: nel complesso, è un onere amministrativo. Ma è necessario sviluppare un record per i futuri collaboratori e, ovviamente, gli assicuratori.
“Quando le persone sono molto indietro nella documentazione, ciò crea problemi”, ha detto Arzubi. “Cosa succede se il paziente entra in ospedale e c’è una nota che non è stata completata e non sappiamo cosa sta succedendo?”
La nuova tecnologia potrebbe aiutare ad alleggerire questi fardelli. Arzubi sta testando un servizio, chiamato Nabla Copilot, che si inserisce nella sua parte delle visite virtuali dei pazienti e poi le riassume automaticamente, organizzando in un formato di nota standard il reclamo, la storia della malattia e un piano di trattamento.
I risultati sono solidi dopo circa 50 pazienti, e ha detto: “È il 90% del percorso”. Copilot produce utili riepiloghi che Arzubi tipicamente modifica. I riassunti non raccolgono necessariamente segnali o pensieri non verbali che Arzubi potrebbe non voler vocalizzare. Tuttavia, ha detto, i guadagni sono significativi: non deve preoccuparsi di prendere appunti e può invece concentrarsi sul parlare con i pazienti. E fa risparmiare tempo.”
“Se ho un’intera giornata di pazienti, in cui potrei vedere 15 pazienti, direi che questo mi fa risparmiare un’ora buona alla fine della giornata”, ha detto. (Se la tecnologia viene adottata su vasta scala, spera che gli ospedali non trarranno vantaggio dal tempo risparmiato semplicemente programmando più pazienti. “Non è giusto”, ha affermato.)
Nabla Copilot non è l’unico servizio di questo tipo; Microsoft sta provando lo stesso concetto. Alla conferenza di aprile della Healthcare Information and Management Systems Society, una riunione del settore in cui i tecnici sanitari si scambiano idee, fanno annunci e vendono i loro prodotti, gli analisti degli investimenti di Evercore hanno evidenziato la riduzione degli oneri amministrativi come una delle migliori possibilità per le nuove tecnologie.
Ma nel complesso? Hanno sentito recensioni contrastanti. E questa visione è comune: molti tecnologi e medici sono ambivalenti.
Ad esempio, se sei perplesso su una diagnosi, inserire i dati del paziente in uno di questi programmi “può fornire una seconda opinione, senza dubbio”, ha detto Topol. “Sono sicuro che i medici lo stanno facendo.” Tuttavia, ciò si scontra con gli attuali limiti della tecnologia.
Joshua Tamayo-Sarver, un medico e dirigente della startup Inflect Health, ha inserito in un unico sistema scenari di pazienti fittizi basati sulla sua pratica in un pronto soccorso per vedere come avrebbe funzionato. Ha mancato condizioni pericolose per la vita, ha detto. “Sembra problematico.”
La tecnologia tende anche ad “allucinare”, cioè a inventare informazioni che sembrano convincenti. Studi formali hanno rilevato un’ampia gamma di prestazioni. Un documento di ricerca preliminare che esamina ChatGPT e i prodotti Google utilizzando domande di esame a risposta aperta dalla neurochirurgia ha rilevato un tasso di allucinazioni del 2%. Uno studio condotto da ricercatori di Stanford , esaminando la qualità delle risposte dell’IA a 64 scenari clinici, ha trovato citazioni fabbricate o allucinate il 6% delle volte, ha detto il coautore Nigam Shah a KFF Health News. Un altro documento preliminare ha rilevato che, in casi di cardiologia complessi, ChatGPT concordava con l’opinione degli esperti per metà del tempo.
La privacy è un’altra preoccupazione. Non è chiaro se le informazioni inserite in questo tipo di sistema basato sull’intelligenza artificiale rimarranno all’interno. Gli utenti intraprendenti di ChatGPT, ad esempio, sono riusciti a ottenere la tecnologia per dire loro la ricetta del napalm , che può essere utilizzato per fabbricare bombe chimiche.
In teoria, il sistema dispone di guardrail che impediscono la fuga di informazioni private. Ad esempio, quando KFF Health News ha chiesto a ChatGPT il suo indirizzo e-mail, il sistema ha rifiutato di divulgare tali informazioni private. Ma quando gli è stato detto di recitare nei panni di un personaggio e gli è stato chiesto dell’indirizzo e-mail dell’autore di questo articolo, ha felicemente rinunciato all’informazione. (Era effettivamente l’indirizzo email corretto dell’autore nel 2021, quando l’archivio di ChatGPT termina.)
“Non inserirei i dati dei pazienti”, ha affermato Shah, chief data scientist presso la Stanford Health Care. “Non capiamo cosa succede con questi dati una volta che raggiungono i server OpenAI.”
Tina Sui, portavoce di OpenAI, ha dichiarato a KFF Health News che “non si dovrebbero mai usare i nostri modelli per fornire servizi diagnostici o terapeutici per gravi condizioni mediche”. “Non sono messi a punto per fornire informazioni mediche”, ha detto.
Con l’esplosione di nuove ricerche, Topol ha dichiarato: “Non credo che la comunità medica abbia una buona idea di cosa sta per accadere”.
Darius Tahir, un corrispondente con sede a Washington, DC che riferisce sulla tecnologia sanitaria.
Fonte: KFF Health News.