Giornale on-line fondato nel 2004

Lunedì, 27 Apr 2026

I modelli di Intelligenza Artificiale Generativa, come ChatGPT, non vengono programmati riga per riga, come si fa con i software tradizionali. Imparano da soli analizzando grandi quantità di dati, testi e informazioni.

In pratica, non eseguono istruzioni precise scritte da un programmatore, ma si addestrano a riconoscere schemi e a generare risposte basandosi su ciò che hanno imparato. È un cambiamento importante: si passa da una logica “programmata” a una logica “addestrata”. Questo li rende straordinariamente potenti, ma anche difficili da decifrare.

Il risultato?

Sistemi che si comportano come vere e proprie “black box” (scatole nere) producono risposte, ma senza che sia chiaro come ci siano arrivati o perché abbiano scelto proprio quelle.

Con milioni – spesso miliardi – di parametri che interagiscono in modi opachi anche agli esperti, comprendere davvero cosa accade “dentro” questi modelli è una delle sfide più urgenti della tecnologia contemporanea.

Cos’è una “black box” riferita a un sistema di IA ?

Un sistema è considerato una scatola nera quando:
• le sue decisioni non sono spiegabili in modo comprensibile.
• il suo funzionamento interno non è accessibile o interpretabile da esseri umani,
• l’output non può essere ricondotto a regole chiare e trasparenti.

Perché dovremmo preoccuparcene?

• Fiducia e trasparenza: se non capiamo come funziona l’IA, è difficile fidarsi delle sue decisioni.
• Responsabilità: in settori delicati come medicina, giustizia o finanza, sapere chi o cosa ha preso una decisione è fondamentale.
• Bias e discriminazioni: se i modelli apprendono dai dati, rischiano di replicarne (o amplificarne) i pregiudizi. E senza trasparenza, accorgersene o correggerli diventa quasi impossibile.

Alcuni esempi concreti

• Colloqui di lavoro: un algoritmo seleziona i candidati, ma non è chiaro in base a quali criteri → rischio di esclusioni ingiustificate.
• Veicoli autonomi: in caso di incidente, può risultare impossibile ricostruire il processo decisionale del sistema.
• Credito bancario: un prestito viene rifiutato, ma il cliente non riceve spiegazioni comprensibili → mancanza di tutela e diritto di replica.

Verso un’Intelligenza Artificiale spiegabile (XAI)

Per affrontare il problema della black box, la ricerca sta sviluppando tecniche di Explainable AI (XAI), volte a rendere interpretabili anche i modelli più complessi.
Anche le istituzioni si stanno muovendo:
• AI Act (UE): impone requisiti di trasparenza per i sistemi ad alto rischio.
• GDPR: garantisce il diritto a ottenere spiegazioni significative per decisioni automatizzate.
• Linee guida etiche (OCSE, UNESCO): promuovono tracciabilità, auditabilità e responsabilità.

Conclusioni

La “black box” dell’IA generativa è uno degli ostacoli principali a un’adozione consapevole e responsabile dell’intelligenza artificiale.

Rendere questi sistemi più trasparenti non è solo un obiettivo tecnologico: è una priorità etica e sociale. Solo così potremo usare l’IA con maggiore sicurezza, equità e consapevolezza.

Sara Sesti
Matematica, ricercatrice in storia della scienza
Collabora con l'Università delle donne di Milano
facebook.com/scienziateneltempo/
Questo indirizzo email è protetto dagli spambots. È necessario abilitare JavaScript per vederlo.

Ti piace l'informazione del Foglietto?

Se ti piace quello che leggi, puoi aiutarci a continuare il nostro lavoro sostenendoci con quanto pensi valga l'informazione che hai ricevuto. Anche il costo di un caffè!

SOSTIENICI

empty alt

Bevagna omaggia Francesco d'Assisi, a 800 anni dalla morte

Dal 30 aprile al 3 maggio, storici, docenti universitari, ricercatori, musicisti, giocolieri e...
empty alt

26 aprile 1986: il disastro nucleare di Chernobyl

Quarant’anni fa, in Ucraina, la mattina del 26 aprile 1986 segnò uno spartiacque nella storia...
empty alt

Cosa caratterizza la folle corsa alla spesa militare?

Gli anni Venti del XXI faranno storia, sicuramente. Non tanto per le loro innumerevoli crisi, che...
empty alt

Ricerca: grazie a una molecola, l’immunoterapia potrebbe curare anche i tumori 'freddi'

L'immunoterapia rappresenta una delle rivoluzioni più importanti dell’oncologia moderna perché non...
empty alt

“Bancarotta idrica globale”, il dramma del 75% della popolazione mondiale

L'interruzione dell'erogazione idrica potabile che abbiamo avuto per quattro giorni in Valpescara...
empty alt

"Nino", opera prima di Pauline Loquès, ricco di sfumature e di sottili trovate narrative

Nino, regia di Pauline Loquès, con Théodore Pellerin (Nino), Jeanne Balibar (La mère de Nino),...
Back To Top