In un precedente articolo abbiamo descritto “l’opacità” della Intelligenza Artificiale (IA), il cosiddetto modello black box, cioè la difficile comprensione, anche da parte degli esperti che li hanno generati, del funzionamento e delle motivazioni in base alle quali modelli di apprendimento sempre più diffusi e complessi forniscono input (decisioni, previsioni) in ambiti rilevanti e critici della nostra società come la salute, l’assistenza, la guida autonoma, le tecnologie militari, l’economia, la finanza, la giustizia, le assicurazioni.

Ciò determina un forte impatto in termini di rendicontabilità, sicurezza e responsabilità. Inoltre, se da un lato può provocare uno sgravio di responsabilità, in realtà solo apparente, dall’altro si viene a creare, per il professionista umano, un crescente senso di impotenza a causa del ridimensionamento del proprio potere di controllo per l’avanzare di un altro soggetto agente, con sempre maggiore capacità di autoregolazione e autonomia.

Il problema dell’inesplicabilità è intrinseco alla struttura stessa dei sistemi che, anche quando non sono “opachi” risultano spesso estremamente complessi, soprattutto le reti neurali, composte da centinaia di strati nascosti che trasmettono milioni di segnali con modalità estremamente difficili da ricostruire a posteriori.

La necessità di maggiore chiarezza e trasparenza è stata colta da varie istituzioni. La Commissione Europea ha prodotto un libro bianco volto alla creazione di un quadro normativo per un ecosistema digitale di fiducia in una IA affidabile, tra i cui requisiti etici fondamentali individuati vi è la trasparenza e la spiegabilità. Anche nel documento Orientamenti etici per una IA affidabile, redatto dal gruppo di esperti ad alto livello sull’IA dell’Unione Europea, si afferma il diritto di “richiedere una spiegazione adeguata del processo decisionale” ogni volta che l’IA “influisce considerevolmente sulla vita delle persone”.

Si tratta In pratica di realizzare modelli che consentano agli umani di capire, di fidarsi e quindi di governare effettivamente la generazione emergente di macchine dotate di IA, mantenendo un alto livello di performance1. Sta per questo emergendo una nuova disciplina, la eXplainable AI (XAI), intelligenza artificiale spiegabile, definibile sinteticamente come un insieme di strumenti e di tecniche utilizzate per rendere sempre più trasparente e facile da capire il funzionamento dei sistemi di IA, la loro “logica” interna.

Gli studi riguardanti la XAI hanno sviluppato diverse dimensioni concettuali, con punti di osservazione e obiettivi differenti, anche se connaturati al concetto generale di spiegabilità: interpretabilità, affidabilità, accuratezza, causalità, trasferibilità, informatività, fiducia, equità, accessibilità, interattività, privacy.

A tale complessa concettualizzazione corrisponde una ancora più complessa realizzazione pratica. I metodi utilizzati per svelare il processo di funzionamento della IA black box, dall’inserimento dei dati all’esito finale, variano infatti in funzione di molteplici fattori, quali la tipologia di input, la scelta degli algoritmi, il livello di spiegazione richiesto (parziale o totale). Secondo alcuni esperti, i modelli esplicabili dovrebbero essere evitati, mentre in alcuni ambiti, per esempio nella giustizia, nell’assistenza sanitaria e nella computer vision, potrebbero sostituire quelli a scatola nera.

La spiegabilità deve essere inoltre modulabile in funzione del target, dell’utilizzatore, che può variare dall’esperto data scientist al medico al comune cittadino. Ognuno di questi soggetti è infatti dotato di competenze ed interessi molto differenti, in funzione del livello di interazione nei confronti della tecnologia e degli obiettivi del suo utilizzo2.

Una modalità efficace per “aprire” le scatole nere è infine quella di lavorare in modo interdisciplinare, combinando le competenze di ambiti diversi, dalle tecnologie informatiche e ingegneristiche alle cosiddette “humanities” antropologiche, sociali, psicologiche.

Riflessioni conclusive

Stiamo passando da un tempo in cui l’intelligenza umana codificava gli algoritmi ed era responsabile della validità e affidabilità dei risultati ad uno in cui l’IA impara autonomamente e fornisce risposte con modalità non comprensibili nemmeno per i progettisti. È per questo fondamentale che gli algoritmi black box diventino spiegabili in termini umani, per valutare la loro efficacia e sicurezza ed allinearli al sistema valoriale umano e per preservare l’autonomia e la consapevolezza nelle decisioni in ambiti critici come la salute, la giustizia e la sicurezza.

Possiamo concludere che la frase di Andy Rubin, cofondatore di Android: “l’intelligenza artificiale è come il cervello: non si può tagliare la testa e vedere come funziona”3 è in realtà non completamente vera: il cervello si potrà “vedere” e per giunta con modalità meno cruente, anche se non meno inquietanti4. Allo stesso modo anche l’IA, per poter essere considerata affidabile e responsabile, dovrà svelare i suoi segreti, non solo in nome della trasparenza e dell’etica, ma anche, in generale, del progresso e della ricerca scientifica.

L’alternativa è l’affermarsi di una “società black box”, governata da misteriosi algoritmi protetti dal segreto industriale, in grado di rendere invisibili e quindi impossibili da mitigare eventuali errori e discriminazioni, intenzionali o involontarie.

Note

1 Carobene A., Scelte profonde d’intelligenza artificiale. Il Sole 24 Ore 2020, 9 febbraio, pag. 12.
2 La Trofa F., Explainable AI: cos’è, quali sono i principi e gli esempi.
3 Deluzarche C., Deep learning, le grand trou noir de l’intelligence artificielle, Maddyness, 2017.
4 Neurotecnologie: verso la lettura del pensiero?, Wall Street International Magazine, 2 maggio 2021.