L’impiego dei più avanzati sistemi di intelligenza artificiale da parte dell’Amministrazione Finanziaria per combattere l’evasione e l’elusione fiscale segna un importante progresso tecnologico, ma pone anche una sfida significativa nel garantire la tutela della trasparenza e dei diritti dei contribuenti.
Uno dei principali problemi riguarda l’opacità degli algoritmi utilizzati. I modelli di intelligenza artificiale, specialmente quelli più avanzati, come il machine learning, spesso funzionano come “scatole nere”, il che significa che il loro processo decisionale non è facilmente comprensibile.
Questo potrebbe tradursi nell’estrema facilità per l’Amministrazione Finanziaria di prendere determinate decisioni amministrative, come emettere un accertamento o una verifica fiscale ingiustificata o senza che vi sia l’effettiva necessità.
Inoltre, i sistemi di intelligenza artificiale si basano sull’elaborazione di grandi quantità di dati, inclusi quelli personali e sensibili. Il rischio è che, nella ricerca di correlazioni e anomalie, vengano analizzati dati non pertinenti o raccolti in modo sproporzionato rispetto agli scopi prefissati. Questo potrebbe violare il diritto alla privacy dei contribuenti, compromettendo il principio di minimizzazione dei dati sancito dal Regolamento Generale sulla Protezione dei Dati (GDPR).
Un altro aspetto critico è rappresentato dalla possibilità di discriminazioni o errori sistematici. Gli algoritmi di intelligenza artificiale, infatti, apprendono dai dati storici, che potrebbero contenere “bias” preesistenti.
Se non correttamente monitorati e aggiornati, i sistemi di intelligenza artificiale utilizzati potrebbero perpetuare o amplificare queste distorsioni, penalizzando ingiustamente determinate categorie di contribuenti o settori economici. Tali errori non solo ledono il diritto dei cittadini a un trattamento equo, ma potrebbero anche minare la fiducia nell’Amministrazione Finanziaria.
L’integrazione di strumenti di intelligenza artificiale nel potere di accertamento comporta poi vari rischi, tra cui quello per il quale l’automatismo dell’algoritmo possa portare a ricostruzioni del reddito dei contribuenti, non allineate con il principio di capacità contributiva.
Infine, l’utilizzo dell’Intelligenza Artificiale potrebbe portare a un ridimensionamento del controllo umano nelle decisioni fiscali. Un’eccessiva automatizzazione, senza controllo umano, potrebbe ridurre la possibilità di un’analisi qualitativa da parte degli operatori, che sono in grado di considerare circostanze particolari o fattori umani non rilevabili da un algoritmo. Questo potrebbe creare situazioni di rigidità eccessiva, in contrasto con i principi di proporzionalità e ragionevolezza.
Per queste ragioni, qualche giorno fa, è arrivata la proposta del Consiglio Nazionale dei Dottori Commercialisti congiuntamente alla Fondazione Nazionale di Ricerca dei Commercialisti di costituire un organismo tecnico nazionale al fine di verificare e attestare l’affidabilità dei sistemi di intelligenza artificiale impiegati dall’Agenzia delle Entrate negli accertamenti.
Con il documento dello scorso 18 novembre 2024 dal titolo “Intelligenza artificiale e accertamento tributario” i commercialisti evidenziano che l’Agenzia delle Entrate sta procedendo rapidamente nell’integrare sistemi di intelligenza artificiale per combattere la frode fiscale e l’elusione.
Nel documento viene evidenziato che sebbene tali strumenti siano essenziali per combattere l’evasione e l’elusione fiscale, un processo di controllo completamente automatizzato non è ritenuto del tutto legale, dal momento che gli algoritmi in uso attualmente non sono, o non possono essere del tutto trasparenti.
Da qui, l’idea di rendere accessibili tali algoritmi per assicurare che i criteri, le premesse e i risultati del processo automatizzato rispettino le direttive e gli scopi definiti nella fase legislativa e amministrativa.
L’istituzione di un organismo tecnico nazionale che certifichi il livello di attendibilità dei sistemi di intelligenza artificiale utilizzati dall’Agenzia delle Entrate consentirebbe di assicurare che l’algoritmo rispetti le leggi fondamentali e assicuri che l’operato sia conforme ai regolamenti che stabiliscono quelli che sono i confini delle indagini dell’Agenzia delle Entrate.
Antonino Salvaggio – Centro Studi CGN