È di esperienza quotidiana la difficoltà delle persone a comprendere le risposte degli esami e la sempre maggiore tendenza a ricercare le informazioni su internet, tanto che è stato coniato il termine Dr. Google. La disponibilità per i pazienti di un software validato a cui chiedere spiegazione in prima istanza con parole semplici potrebbe essere sicuramente utile. Il quesito principale è la valutazione, con una metodologia validata, dell’effettivo valore aggiunto dello strumento digitale nell’ambito della, comunque, indispensabile consulenza del medico.

Il gruppo di lavoro sull’intelligenza artificiale (WG-AI) della Federazione europea di chimica clinica e medicina di laboratorio (EFLM) ha testato l’efficacia del sistema di AI nell’eseguire questo compito.

I ricercatori hanno dapprima stabilito i parametri di laboratorio da utilizzare poi definito 10 scenari clinici simulati ma “realistici” e li hanno sottoposti a ChatGPT (Chat Generative Pre-trained Transformer, cioè “trasformatore pre-istruito generatore di conversazioni”), un chatbot specializzato nella conversazione con utenti umani basato sulla intelligenza artificiale (sistema di large language model, cioè modello linguistico su larga scala), potente strumento per sequenziare statisticamente il linguaggio naturale umano, che offre diverse grandi potenziali applicazioni in ogni ambito della medicina.

Lo strumento è stato in grado di riconoscere tutti i test di laboratorio, evidenziare i risultati anormali e fornire una interpretazione complessiva, peraltro superficiale, non sempre corretta e, solo in alcuni casi, valutata in maniera coerente con il contesto. In pratica il sistema, nella sua forma attuale, non essendo specificatamente addestrato su dati medici o di laboratorio, può soltanto interpretare singoli referti di esami emato-chimici, ma non quadri diagnostici complessi. Ciò richiede infatti esperienza clinica, capacità intuitive, di associazione e contestualizzazione, al momento non alla portata di una “intelligenza” non umana.

ChatGPT è peraltro risultato sicuro, nel senso che non fornisce raccomandazioni sbagliate, ma nel complesso è risultato di scarsa utilità clinica, perché i suggerimenti forniti non hanno la qualità di quelli dei medici e sollevano il paziente dal bisogno di rivolgersi a loro solo nei casi più semplici. Gli autori fanno l’esempio di alcune risposte come: «l’ematocrito è basso, ciò suggerisce che la proporzione di volume ematico composta da globuli rossi è più bassa del normale» oppure: «il glucosio è basso, ciò potrebbe indicare ipoglicemia». Queste frasi sono sicuramente corrette, rilevanti e sicure ma non veramente utili, perché non consentono al paziente di capire il reale significato dei referti e in alcuni casi potrebbero provocare reazioni ansiose o timori ingiustificati.

La semplice lettura dei dati senza riflessione critica può infatti soddisfare soggetti ansiosi o perfezionisti, ma aumentare fenomeni negativi quali la sovradiagnosi, il falso senso di fiducia dei pazienti oppure, all’opposto, la preoccupazione, fino a fenomeni di vera e propria ipocondria digitale, con secondario sovraccarico dei servizi sanitari, che rischiano di essere travolti da una enorme massa di informazioni e da nuove responsabilità.

I ricercatori dello studio riconoscono che questi strumenti non sono ancora pronti per una valida implementazione, ma le generazioni future di AI simili, addestrate con dati di maggiore qualità, potranno sicuramente rivoluzionare la pratica medica.

Importante è ricordare che la medicina digitale non deve sostituire la medicina tradizionale, può essere peraltro molto utile in quanto complementare per il medico, che potrà delegare alle macchine le operazioni sui dati e avere più tempo per prendere in carico i bisogni assistenziali dei pazienti. Il ruolo medico di guida/supervisione, utilizzando la propria intelligenza e le “vecchie” skills (intuizione, empatia, flessibilità), restano aspetti della professione che un algoritmo non saprà mai riprodurre.

In tempi di cambiamento, chi continua ad imparare erediterà la terra:
chi ha smesso di farlo sarà preparato per agire in un mondo che non esiste più.

(E. Hoffer, scrittore e filosofo americano)

Bibliografia

Cadamuro J., Cabitza F., Debeljak Z. et al., Potentials and pitfalls of ChatGPT and natural-language artificial intelligence models for the understanding of laboratory medicine test results. An assessment by the European Federation of Clinical Chemistry and Laboratory Medicine (EFLM) Working Group on Artificial Intelligence (WG-AI). Clin Chem Lab Med 2023; 61(7): 1158-1166.