Frammenti > Assicurare l'incertezza
Dicembre 2025
L’evoluzione verso soluzioni informatiche permeate da un uso intenso di intelligenza artificiale porta ad importanti riflessioni su come sia possibile mantenere un controllo efficace sulla qualità del software.
Il passaggio da algoritmi deterministici (se x, allora y) a modelli probabilistici (se x, allora probabilmente y con una confidenza del z%) non è solo un cambiamento tecnico, ma culturale.
La Rottura con il Paradigma Deterministico
Di norma siamo abituati a porre sotto rigoroso collaudo le soluzioni informatiche attraverso processi che permettono di verificare in modo preciso il comportamento di un algoritmo deterministico. In questo le soluzioni di mercato garantiscono un elevato livello di qualità per i processi strutturati di testing delle soluzioni informatiche.
Una patch di sistema è tipicamente caratterizzata da prospetto di aggiornamento che permette di determinare in modo puntuale e deterministico l’impatto della modifica sul comportamento del sistema.
Può essere ancora valido questo modello di testing e governo delle modifiche anche in caso di soluzioni software che presentano intrinsecamente un comportamento non deterministico?
Un algoritmo deterministico richiede una verifica puntuale per ogni ramo di comportamento implementato. La complessità, l’effort e quindi il costo complessivo, di una fase di test è funzione dei rami di comportamento che si ritiene di dover verificare. Identificati i rami critici è univocamente determinato anche l’impatto, il rischio, e quindi il costo di una eventuale mancata verifica su un comportamento specifico. Identificati i casi di test il loro superamento è di tipo binario non lasciando adito ad alcuna considerazione soggettiva.
L'evoluzione a soluzioni basate su algoritmi statistici richiede un cambio di paradigma nel modo in cui concepiamo la qualità, il testing e il controllo delle modifiche.
Il test può essere superato se l'accuratezza è sufficientemente alta, ma non è perfetto. Questa accettazione di un certo grado di incertezza statistica, estranea al testing deterministico, diventa l’elemento centrale nella verifica di qualità e quindi di “exit criteria” di un test di collaudo. Una soluzione non è più giusta o sbagliata, il suo risultato è uno dei tanti possibili risultati accettabili o non accettabili.
Il rischio della deriva
Il comportamento del sistema in produzione, dove i dati reali nel tempo si discostano dai dati di addestramento, potrebbe inoltre derivare rispetto al comportamento inizialmente atteso.
L'osservabilità si evolve dal monitoraggio di funzionamento di una macchina ad uno strumento di analisi continua dell’affidabilità della sua capacità di continuare ad eseguire i task assegnati.
Per questi motivi l’evoluzione verso soluzioni basate su AI richiede profonde revisioni della fase di collaudo ma soprattutto un rafforzamento dell’osservabilità al fine di rilevare eventuali derive che nel tempo potrebbero portare le soluzioni fuori dai livelli di accettabilità con conseguente impatto sul business.
Il collaudo non è più sufficiente, il modello deve evolvere verso sistemi di supervisione adattiva.