di FABRIZIO SILVESTRI (dal Sole 24 Ore)
Ogni giorno, milioni di decisioni vengono prese da sistemi di intelligenza artificiale. E su quali basi queste decisioni vengono prese? In altre parole, quanto sono trasparenti i sistemi predittivi?
Trasparenza significa rendere visibili e comprensibili criteri, dati e logiche che generano le previsioni. Tema cruciale soprattutto nel momento in cui la PA utilizza l’intelligenza artificiale. Questo vale tanto per gli algoritmi predittivi tradizionali quanto per i modelli più attuali quali i Large Language Model (Llm), oggi utilizzati non solo per generare testo, ma anche per sintetizzare diagnosi, consigliare investimenti o automatizzare valutazioni.
Quando questi sistemi incidono su diritti o risorse, la trasparenza non può essere un optional. Senza queste informazioni cittadini, imprese e autorità non possono verificare la correttezza delle scelte automatizzate. Un ecosistema trasparente, al contrario, rafforza la fiducia e permette di correggere tempestivamente imprecisioni o decisioni discriminatorie. Gli strumenti principali utilizzati per rendere trasparenti i sistemi di intelligenza artificiale sono le schede tecniche del modello (model card) che indicano scopo, dati, metriche e limiti del modello descritto; le tecniche di spiegabilità (eXplainable AI – XAI), che mirano a chiarire l’influsso dei diversi fattori che concorrono a produrre la predizione; e gli audit indipendenti, utili a scoprire errori o bias (pregiudizi) prima che producano danni.
Il tema è particolarmente urgente per gli Llm. Questi sistemi, pur sofisticati, possono “confabulare”: cioè produrre affermazioni errate o inventate, spesso con tono sicuro e verosimile.
Senza trasparenza sulle fonti e sui meccanismi decisionali, diventa difficile riconoscere le confabulazioni degli Llm.
La trasparenza non riguarda solo i modelli: anche i dati devono essere tracciabili e verificabili. Le schede tecniche per dataset (datasheet for datasets) aiutano a tracciare il ciclo di vita dell’informazione.
Algoritmi non verificabili possono perpetuare discriminazioni, erodere la fiducia e rendere impossibile attribuire responsabilità. Anche il modello più accurato, se resta una «scatola nera», può produrre effetti sociali inaccettabili e sottrarsi a ogni controllo.
Un esempio: nel 2021 uno studio ha analizzato gli algoritmi di pricing di alcune assicurazioni auto. Pur senza usare dati vietati, correlazioni nei dataset spingevano variabili come residenza o tipo di veicolo a riflettere indirettamente il luogo di nascita o il genere. Il risultato: a parità di condizioni, un conducente nato all’estero pagava fino a mille euro in più.
Senza trasparenza nei criteri, né le compagnie né i clienti hanno potuto accorgersene in tempo. La trasparenza non è solo un requisito tecnico, quindi, ma è un impegno etico e politico.
È ormai anche un obbligo regolatorio, che garantisce che l’intelligenza artificiale resti al servizio della società.
In un mondo sempre più automatizzato, rendere leggibili e giustificabili le decisioni delle macchine non è solo una sfida tecnica, ma una condizione per la tenuta della democrazia digitale.
* Articolo integrale pubblicato su Il Sole 24 Ore del 19 maggio 2025 (In collaborazione con Mimesi s.r.l)
Intelligenza artificiale: la sfida della trasparenza per l’utilizzo nella PA
Innovazione nei servizi pubblici: indispensabili le schede tecniche condivise su modelli e dati per verificare informazioni, metriche e scopi che influenzano le risposte
Il Sole 24 Ore
Scrivi un commento
Accedi per poter inserire un commento