Si sente spesso affermare che i dati sono il nuovo petrolio, in realtà non è vero. Infatti, mentre quest’ultimo è una risorsa limitata, i dati sono rinnovabili all’infinito, destinati a crescere rapidamente e ininterrottamente, dal momento che gli stessi dispositivi di gestione sono tra le principali fonti di nuovi dati, in un ciclo che si autoalimenta. Ogni giorno viene prodotta una enorme quantità di informazioni digitali, stimata intorno ai 2,5 esabyte (1018 bytes). In 1-2 anni verrebbero prodotti un numero di dati maggiore di quelli accumulati nel corso della storia dell’umanità, con un volume complessivo pari a 4,4 zettabytes (1021 bytes) nel 2014 e a 44 zettabytes secondo stime di proiezione riferibili ai primi anni del 20201.

Questo è il cosiddetto “datanami”, tsunami dei dati, che ha e avrà un forte impatto in medicina, ad esempio, in ambiti di fondamentale rilevanza quali la predittività, la diagnostica, la relazione medico-paziente. Ciò si può realizzare mediante l’elaborazione dei dati per mezzo dell’intelligenza artificiale (IA) che, ormai con diversi decenni alle spalle, da quando nel 1940 Alan Turing ne ha posto le basi, ha subito un’evoluzione radicale nel suo significato e nelle applicazioni, diventando uno strumento contemporaneo, che ci supporta quotidianamente in numerose attività (assistenti telefonici, motori di ricerca, social network, filtri anti-spam, profilazioni commerciali).

I recenti progressi della tecnologia informatica computazionale hanno permesso la messa a punto di una nuova generazione di sistemi capaci di rivaleggiare/superare le capacità umane in determinati domini o in compiti specifici. Questi sistemi sono inoltre in grado di imparare dalle loro stesse esperienze e intraprendere azioni spesso non contemplate dai progettisti. Non è più vero che “i computer fanno solo quello che sono programmati a fare” 2.

Glossario

Big data: raccolta di dati così enorme per volume, velocità e varietà, da richiedere tecnologie specifiche e complesse in grado di elaborare analisi e da cui ricavare informazioni utili.
Algoritmo: procedimento di risoluzione di un determinato problema attraverso un insieme di istruzioni (dal latino medievale algoritmus o algorismus, a sua volta derivato dal nome del matematico arabo Muhammad Ibn Musa Al-Khwarizmi).
Machine Learning: realizzazione di sistemi di intelligenza artificiale a supporto delle decisioni in cui buona parte della ottimizzazione dei modelli decisionali è affidata all’apprendimento automatico.
Deep Learning: metodica di machine learning, traducibile come apprendimento profondo, basata su reti neurali artificiali multistrato.
Reti neurali artificiali: sistemi di elaborazione dell’informazione che cercano di simulare, all’interno di un sistema informatico, il funzionamento dei sistemi nervosi biologici, costituiti da un gran numero di neuroni.
Intelligenza artificiale ristretta: macchina in grado di simulare l’intelligenza umana (in grado di agire come se fosse effettivamente intelligente, simulando la mente umana.
Intelligenza artificiale generale: macchina in grado di emulare e perfino superare l’intelligenza umana (effettivamente e coscientemente intelligente).
Singolarità tecnologica: idea che, ad un certo punto, le macchine saranno sufficientemente intelligenti da programmarsi e migliorarsi da sole, fino al punto da rendersi indipendenti.

Intelligenza artificiale e medicina

Una delle principali applicazioni pratiche del Machine Learning (ML) in medicina (vedi glossario) è l’interpretazione dei dati clinici, radiologici, istologici, dermatologici, in maniera più accurata e rapida che con la metodologia classica. La biologia umana è, infatti, talmente complessa e l’espansione delle conoscenze così rapida che nessuna intelligenza naturale può competere con l’IA in termini di velocità e capacità di elaborazione delle informazioni.

In pratica, i sistemi basati sul ML vengono “addestrati” attraverso la presentazione di enormi data sets, costituiti da milioni di immagini digitalizzate (ad esempio, radiografie, fotografie, elettrocardiogrammi), già classificate sulla base di un gold standard (in genere una diagnosi definita a maggioranza da un gruppo di specialisti). Dopo questo periodo di “apprendimento supervisionato”, segue una fase in cui al modello vengono presentate immagini nuove, sempre ordinate dagli esperti, ma senza che al sistema sia mostrata la classificazione “corretta”. Viene pertanto osservata la sua capacità predittiva e l’accuratezza diagnostica autonoma rispetto ai casi già classificati correttamente. Questo processo può essere ripetuto fino a che non raggiunge livelli di accuratezza predittiva molto elevati.

Anche se la diagnostica supportata dal computer non è una novità, il cambiamento profondo risiede nello sviluppo del Deep Learning (DL), sistema di algoritmi in grado non di seguire regole predefinite ma di “imparare” dai dati stessi, in maniera autonoma, rilevando pattern “nascosti” tra i dati, che spesso nemmeno gli addetti ai lavori sono in grado di spiegare. In pratica, spiegano Rasoini e coll., nel momento in cui un modello di deep learning predice l’indicazione a una indagine bioptica di una lesione cutanea poiché, con elevata probabilità, si tratta di un melanoma, nessuno può stabilire sulla base di quali caratteristiche della lesione la macchina abbia elaborato questa predizione, tanto che la modalità operativa di questi sistemi è stata definita come black box, ovvero scatola nera3.

I sistemi di supporto decisionale basati sul DL si sono dimostrati validi in vari ambiti, in particolare nella diagnostica della retinopatia diabetica e dell’edema maculare4 e dei tumori cutanei5, riportando un livello di accuratezza pari a quello di specialisti esperti.

L’applicazione della IA in contesti reali può determinare numerosi potenziali vantaggi, come la velocità di esecuzione, i costi potenzialmente ridotti, sia diretti che indiretti, la migliore accuratezza diagnostica, la maggiore efficienza clinica e operativa (“gli algoritmi non dormono”), la possibilità di accesso agli accertamenti anche a persone che non possono beneficiarne altrimenti per cause geografiche, politiche ed economiche6.

Il dato (non) è “dato”

Gi ostacoli per un utilizzo dell’IA nella pratica medica, potenzialmente utile anche per ovviare alla imminente carenza di professionisti e ottenere teoricamente una riduzione dei costi della sanità, sono peraltro diversi.

Il primo problema è la disponibilità di dati digitali validi a disposizione degli algoritmi. Un grande volume di informazioni non corrisponde infatti automaticamente a una migliore qualità delle inferenze e delle applicazioni che da queste derivano. I dati di per sé sono inutili. Affinché possano essere realmente utili, devono essere selezionati, strutturati e interpretati7. Non sono pertanto le tecnologie ad essere decisive ma la capacità di estrarre valore dal loro uso. Il dato non è un’entità chiusa, “data”, ma un costrutto sociale, risultato di specifiche scelte culturali, sociali, tecniche ed economiche messe in campo da individui, istituzioni o società per raccogliere, analizzare e utilizzare informazione e conoscenza.

Le grandi aspettative nei confronti dell’IA rischiano di sottovalutare i rischi relativi a una accettazione acritica delle tecnologie correlate, in particolare dei sistemi decisionali. Ad esempio, i dati necessari all’addestramento degli algoritmi di ML per elaborare i modelli predittivi sono in genere di qualità non ottimale, perché non sottoposti a quel processo di “ripulitura” e di rielaborazione che sarebbe insostenibile nella pratica clinica quotidiana8 e quindi possono non essere in grado di fornire risposte implementabili per decisioni e trattamenti clinici, anche perché, talvolta, potrebbero “imparare” gli errori delle intelligenze naturali.

Oltre che non strutturati, i dati del cosiddetto real world, ad esempio, i registri o le cartelle cliniche elettroniche, non sempre sono disponibili, non lo sono ovunque e il loro valore è inoltre limitato al setting di raccolta. Gli aspetti di contesto, difficilmente esplicitabili in termini quantitativi, possono pertanto essere sottovalutati e sotto-rappresentati, basti pensare alle condizioni non ben definibili in termini di patologia, la “fragilità”, le condizioni di disagio extra-cliniche, i fattori psicologici, sociali, familiari, le condizioni di svantaggio economico o culturale, logistico, che influiscono sempre sulla gestione clinica del paziente. Ad esempio, i dati clinici da soli hanno limitato potere predittivo nel caso di pazienti il cui rischio di re-ospedalizzazione sia dipendente soprattutto da determinanti sociali9.

Un altro limite all’attendibilità dei dati è legato all’incertezza, variabile inevitabile in medicina, caratterizzata da ampie aree grigie di conoscenza, per il dominio incompleto del sapere disponibile e i limiti intrinseci del sapere medico. Nel caso degli studi su nuovi test diagnostici, ad esempio, il “gold standard” di riferimento può essere multiplo e comunque sottoposto al rischio di incertezza nell’interpretazione. A seconda della scelta di quale utilizzare per la profilazione algoritmica, i livelli di accuratezza possono essere differenti.

Conclusioni

L’IA sta cambiando il paradigma culturale della medicina: le sue applicazioni potrebbero diventare sempre più indispensabili per fornire risposte in contesti ad elevata complessità e incertezza e consentire ai medici di avere più tempo per prendere in carico i bisogni assistenziali del proprio paziente. I dati peraltro non sono valori, qualunque intervento basato su di essi deve essere personalizzato, tenendo anche conto della frequente contraddittorietà delle conoscenze fornite dalla letteratura.

La IA sarà utile essenzialmente in quanto complementare per il medico, che potrà delegare alle macchine le operazioni algoritmiche ma tenere per sé l’interpretazione dei fenomeni complessi e le conseguenti possibili soluzioni.

I sistemi di IA devono essere considerati uno strumento, come il microscopio, il fonendoscopio, l’elettrocardiografo, sviluppati nel tempo per sopperire alla limitata capacità percettiva dei medici. I risultati migliori sono attesi quando l’IA lavora di supporto al personale sanitario, “secondo set di occhi”, modalità di integrazione culturale tra umani e macchine smart10, evitando di enfatizzare dispute, in fondo abbastanza irrilevanti, su quale sistema cognitivo, umano o artificiale, sia più “intelligente”. Come affermato da A. Verghese: “I clinici dovrebbero ricercare un’alleanza in cui le macchine predicono (con una accuratezza significativamente maggiore) e gli esseri umani spiegano, decidono e agiscono”11.

I medici devono pertanto svolgere un ruolo di guida, supervisione e monitoraggio, utilizzando la propria intelligenza e le capacità che li rendono superiori alle macchine, in particolare l’astrazione, l’intuizione, la flessibilità e l’empatia, le cosiddette soft skills, per esercitare un approccio conservativo e costruttivamente critico, evidenziandone le enormi potenzialità, spesso enfatizzate acriticamente per motivi commerciali, ma anche i limiti (e le possibili minacce, come la distopia fantascientifica delle macchine al potere !). Ciò significa, ad esempio, rilevare la mancanza di studi sull’efficacia della IA in rapporto ad esiti clinici importanti, come la riduzione della morbilità/mortalità o il miglioramento della qualità di vita dei pazienti.

Gli obiettivi dovrebbero comprendere anche il livello di soddisfazione, sia dei medici che dei pazienti, nel nuovo contesto relazionale di integrazione del mondo digitale con quello reale.

1 Rizzati L. Digital Data Storage is Undergoing Mind-Boggling Growth. EETimes 2018.
2 Kaplan J. Intelligenza artificiale. Guida al futuro prossimo. Roma: LUISS, 2017.
3 Rasoini R et al. Intelligenza artificiale in medicina: tra hype, incertezza e scatole nere. Toscana Medica 2017; 11:18-20.
4 Gulshan V et al. Development and validation of a deep learning algorithm for detection of diabetic retinopathy in retinal fundus photographs. JAMA 2016; 316: 2402-10.
5 Esteva A et al. Dermatologist-level classification of skin cancer with deep neural networks. Nature 2017; 54: 115-18.
6 Obermeyer Z et al. Predicting the future: big data, machine learning, and clinical medicine. N Engl J Med 2016; 375: 1216-9.
7 Obermeyer Z, Emanuel EJ. Predicting the future – big data, machine learning, and clinical medicine. New Engl J Med 2016; 375: 1216-1219.
8 Cabitza et al. Potenziali conseguenze inattese dell’uso di sistemi di intelligenza artificiale oracolari in medicina. Recenti Prog Med 2017; 108: 397-401.
9 Chen JH et al. Machine learning and prediction in medicine – Beyond the peak of inflated expectations. N Engl J Med 2017; 376: 2507-2509.
10 Davenport TH. Artificial intelligence and the augmentation of health care decision-making. N Engl J Med Catalyst 2018.
11 Verghese A et al. What this computer needs is a physician. Humanism and artificial intelligence. JAMA 2017; 319: 19-20.