Intelligenza artificiale: la sfida della trasparenza per l’utilizzo nella PA

Innovazione nei servizi pubblici: indispensabili le schede tecniche condivise su modelli e dati per verificare informazioni, metriche e scopi che influenzano le risposte

Il Sole 24 Ore
19 Maggio 2025
Modifica zoom
100%

di FABRIZIO SILVESTRI (dal Sole 24 Ore)

Ogni giorno, milioni di decisioni vengono prese da sistemi di intelligenza artificiale. E su quali basi queste decisioni vengono prese? In altre parole, quanto sono trasparenti i sistemi predittivi?
Trasparenza significa rendere visibili e comprensibili criteri, dati e logiche che generano le previsioni. Tema cruciale soprattutto nel momento in cui la PA utilizza l’intelligenza artificiale. Questo vale tanto per gli algoritmi predittivi tradizionali quanto per i modelli più attuali quali i Large Language Model (Llm), oggi utilizzati non solo per generare testo, ma anche per sintetizzare diagnosi, consigliare investimenti o automatizzare valutazioni.

Quando questi sistemi incidono su diritti o risorse, la trasparenza non può essere un optional. Senza queste informazioni cittadini, imprese e autorità non possono verificare la correttezza delle scelte automatizzate. Un ecosistema trasparente, al contrario, rafforza la fiducia e permette di correggere tempestivamente imprecisioni o decisioni discriminatorie. Gli strumenti principali utilizzati per rendere trasparenti i sistemi di intelligenza artificiale sono le schede tecniche del modello (model card) che indicano scopo, dati, metriche e limiti del modello descritto; le tecniche di spiegabilità (eXplainable AI – XAI), che mirano a chiarire l’influsso dei diversi fattori che concorrono a produrre la predizione; e gli audit indipendenti, utili a scoprire errori o bias (pregiudizi) prima che producano danni.
Il tema è particolarmente urgente per gli Llm. Questi sistemi, pur sofisticati, possono “confabulare”: cioè produrre affermazioni errate o inventate, spesso con tono sicuro e verosimile.
Senza trasparenza sulle fonti e sui meccanismi decisionali, diventa difficile riconoscere le confabulazioni degli Llm.

La trasparenza non riguarda solo i modelli: anche i dati devono essere tracciabili e verificabili. Le schede tecniche per dataset (datasheet for datasets) aiutano a tracciare il ciclo di vita dell’informazione.
Algoritmi non verificabili possono perpetuare discriminazioni, erodere la fiducia e rendere impossibile attribuire responsabilità. Anche il modello più accurato, se resta una «scatola nera», può produrre effetti sociali inaccettabili e sottrarsi a ogni controllo.
Un esempio: nel 2021 uno studio ha analizzato gli algoritmi di pricing di alcune assicurazioni auto. Pur senza usare dati vietati, correlazioni nei dataset spingevano variabili come residenza o tipo di veicolo a riflettere indirettamente il luogo di nascita o il genere. Il risultato: a parità di condizioni, un conducente nato all’estero pagava fino a mille euro in più.

Senza trasparenza nei criteri, né le compagnie né i clienti hanno potuto accorgersene in tempo. La trasparenza non è solo un requisito tecnico, quindi, ma è un impegno etico e politico.
È ormai anche un obbligo regolatorio, che garantisce che l’intelligenza artificiale resti al servizio della società.
In un mondo sempre più automatizzato, rendere leggibili e giustificabili le decisioni delle macchine non è solo una sfida tecnica, ma una condizione per la tenuta della democrazia digitale.

Articolo integrale pubblicato su Il Sole 24 Ore del 19 maggio 2025 (In collaborazione con Mimesi s.r.l)

Scrivi un commento

Accedi per poter inserire un commento