Parlate con i professionisti medici, non solo con ChatGPT, esortano i medici dell'Ontario

ChatGPT e strumenti di intelligenza artificiale simili possono talvolta rispondere in modo accurato alle domande dei pazienti, ma i ricercatori medici canadesi avvertono che le informazioni devono essere verificate attentamente prima di agire in base a ciò che si vede.
Il consiglio dei ricercatori arriva mentre l'Ontario Medical Association (OMA) ha ospitato questa settimana una conferenza stampa in cui si è parlato delle fonti di informazione fai da te (dai motori di ricerca ai social media ai chatbot) e del loro impatto, nonché di cosa i pazienti possono fare al loro posto.
È importante avvertire le persone ora, ha affermato la dottoressa Valerie Primeau, psichiatra di North Bay che dirige programmi per pazienti ricoverati e comunitari per la salute mentale e le dipendenze, perché i pazienti si rivolgono sempre più spesso agli strumenti di intelligenza artificiale.
I chatbot forniscono risultati convincenti ed empatici , ma le informazioni potrebbero essere false .
"Ho pazienti che ora si rivolgono a ChatGPT per ricevere consigli e avere una conversazione", ha detto Primeau. "Quindi prevedo che continueremo ad avere questo problema, e se non lo affrontiamo subito e non aiutiamo le persone ad affrontarlo , saranno in difficoltà".
Il dott. David D'Souza, oncologo radioterapista di London, Ontario, che dirige la ricerca clinica sui trattamenti per il cancro basati sulle immagini, ha affermato che, a seconda di come i pazienti interrompono ciò che l'intelligenza artificiale dice loro, potrebbero rimandare i trattamenti convenzionali.
"Un paziente è venuto da me chiedendomi se avrebbe dovuto aspettare qualche anno per curare il suo cancro, che gli era stato diagnosticato, perché credeva che l'intelligenza artificiale avrebbe personalizzato i trattamenti oncologici per ogni paziente", ha detto D'Souza ai giornalisti. "Ho dovuto convincerlo del perché avrebbe dovuto iniziare il trattamento subito."
Dato che i consumatori utilizzeranno questi strumenti, la presidente dell'OMA, la dott.ssa Zainab Abdurrahman, ha consigliato che se un post afferma "i dottori ve lo hanno nascosto", suggerisca di controllare i siti web dei gruppi specialistici pertinenti, come le associazioni provinciali per la cura del cancro, per vedere se quanto affermato è veritiero.
Anche le pubblicità false , tra cui le immagini generate dall'intelligenza artificiale, possono trarre in inganno i pazienti, avverte Abdurrahman, che è anche immunologo clinico e allergologo.
La perdita di sfumature rende più difficile fare affidamento sui risultati dell'IANonostante il progresso della tecnologia, i chatbot di oggi rispondono abitualmente alle domande sulla salute con informazioni false chesembrano autorevoli .
Inuno studio , il dott. Benjamin Chin-Yee, professore associato presso il dipartimento di patologia e medicina di laboratorio presso la Western University, e i suoi coautori hanno inserito circa 5.000 riassunti di letteratura medica e scientifica in modelli di linguaggio di intelligenza artificiale di grandi dimensioni, tra cui ChatGPT, e hanno richiesto riassunti.
Hanno scoperto che tre quarti delle versioni di intelligenza artificiale tralasciavano parti fondamentali di affermazioni attentamente custodite.
Ad esempio, l'articolo di una rivista potrebbe affermare che un farmaco è stato efficace solo su un determinato gruppo di pazienti, mentre il riassunto potrebbe tralasciare quel dettaglio fondamentale, ha affermato Chin-Yee, che è anche ematologo.

"La preoccupazione è che quando si perde questa sfumatura di dettaglio, questa può risultare fuorviante per i professionisti che cercano di utilizzare tale conoscenza per influenzare la loro pratica clinica."
Chin-Yee ha affermato che l'intelligenza artificiale è un campo di ricerca attivo e in rapida evoluzione, con modelli più recenti, più simili all'uomo e intuitivi, ma affidarsi esclusivamente a questi strumenti può presentare degli svantaggi.
Allo stesso modo, David Chen, uno studente di medicina all'Università di Toronto, ha confrontato i risultati forniti dai chatbot a 200 domande sul cancro provenienti da un forum di Reddit con le risposte fornite dagli oncologi.
"Siamo rimasti sorpresi nello scoprire che questi chatbot erano in grado di raggiungere livelli di competenza quasi umani, in base alla valutazione di qualità, empatia e leggibilità da parte del nostro team di medici", ha affermato Chen.
Ma i risultati sperimentali potrebbero non riflettere ciò che accade nel mondo reale.
"Senza una supervisione medica, è difficile fidarsi al 100% di alcuni dei risultati di queste tecnologie generative", ha affermato Chen, aggiungendo che le preoccupazioni relative alla privacy, alla sicurezza e alla fiducia dei pazienti non sono ancora state pienamente esplorate.

Le tecnologie di intelligenza artificiale generativa come i chatbot si basano su tecnologie di pattern-matching che forniscono l'output più probabile a una determinata domanda, in base alle informazioni su cui sono state addestrate. In medicina, tuttavia, anche le diagnosi improbabili possono essere importanti e non dovrebbero essere escluse.
Inoltre, i chatbot possono avere allucinazioni , ovvero produrre output che sembrano convincenti ma sono errati, inventati, privi di senso o irrilevanti.
"Sono stati pubblicati anche studi di ricerca che suggeriscono che i tassi di allucinazioni di questi chatbot possono arrivare anche oltre il 20%", ha affermato Chen, il che potrebbe rendere i risultati "clinicamente errati".

Nella primavera del 2018, il cardiologo Eric Topol, professore e vicepresidente esecutivo di Scripps Research a San Diego, in California, ha pubblicato un libro, Superagers: An Evidence-Based Approach to Longevity , che esaminava l'impatto dell'intelligenza artificiale sulla longevità e sulla qualità della vita.
"Ci sono molti aneddoti positivi e altri negativi", ha detto Topol a proposito dei pazienti che utilizzano i chatbot. "Non è stato ancora valutato in modo sistematico e significativo per l'uso pubblico".
Topol ha affermato di consigliare di consultare più chatbot e di verificare l'affidabilità delle informazioni ottenute. Ha anche suggerito di chiedere citazioni dalla letteratura medica, sottolineando che a volte non sono autentiche e devono essere verificate.
L'ideale, ha affermato Topol, sarebbe testare le risposte dei chatbot nel mondo reale, coinvolgendo decine di migliaia di persone, monitorando quali test sono stati effettuati, quale diagnosi è stata fornita e i risultati per chi ha utilizzato fonti di intelligenza artificiale e per chi non l'ha fatto. Ma è improbabile che le aziende tecnologiche partecipino, perché non ne trarrebbero beneficio tutte, ha aggiunto.
"Ora il mondo è diverso e non si può tornare indietro nel tempo", ha detto Topol parlando dell'uso saggio degli strumenti.
cbc.ca