L’utilizzo dell’Intelligenza Artificiale (di seguito, per comodità, “IA”) si è ormai diffuso nella vita di tutti i giorni per andare incontro alle più disparate esigenze dell’uomo. Di fronte al suo rapido dilagare, tuttavia, è apparsa sin da subito necessaria una precipua regolamentazione per evitare il più possibile danni e portare, invece, a quanti più possibili benefici.
In tale contesto, l’esigenza di disciplinare l’uso di tale importante strumento ha spinto l’Unione Europea ad emanare il Regolamento (UE) n. 1689/2024, detto “AI Act”: trattasi della prima legge al mondo in assoluto sull’IA volta ad affrontarne i rischi, stabilendone limiti e obblighi chiari circa l’uso specifico e mirando allo stesso tempo alla riduzione degli oneri amministrativi e finanziari per le imprese. Invero, Tale Regolamento fa parte di un corpus normativo più ampio contenente misure volte a garantire la sicurezza e i diritti fondamentali di persone fisiche e giuridiche in ambito IA.
La ratio di tale nuova disciplina, con un approccio eminentemente basato sul rischio, sta nel regolare il corretto utilizzo dello strumento, proprio perché talvolta (specie nel caso dei modelli più potenti e indirizzati a platee più ampie di destinatari) ci è difficile comprendere perché un sistema di IA ha preso una decisione, ha fatto una previsione o ha intrapreso una particolare azione[1]. Il volume “Ai Act – Principi, regole ed applicazioni pratiche del Reg. UE 1689/2024” si propone di rispondere proprio a queste sfide, offrendo ai professionisti del diritto un quadro completo e aggiornato delle nuove responsabilità giuridiche legate all’uso dell’Intelligenza Artificiale.
Indice
1. Le procedure di controllo e accertamento tributario
Oggetto di specifico interesse è la rapida estensione dell’utilizzo dell’IA alle procedure di accertamento tributario, quale mezzo di supporto utile a valutare e quantificare la capacità contributiva delle persone fisiche e giuridiche.
Giusto per fare un rapido richiamo alla disciplina che ci interessa, l’Agenzia delle Entrate dispone di numerosi metodi per svolgere le attività di controllo inerenti ai redditi delle persone fisiche e giuridiche: si parla, in questo senso, di “accertamento” come “attività” dell’Amministrazione Finanziaria, e non come “atto” (che può esserne il prodotto, quale provvedimento amministrativo tipico). Tale attività si estrinseca in controlli meramente “cartolari”, volti a verificare la mera correttezza e corrispondenza dei dati inseriti in dichiarazione (ad esempio, nelle procedure di controllo formale e automatico[2]), fino ad arrivare ai controlli più “sostanziali”, che hanno ad oggetto la vera e propria fedeltà e veridicità della dichiarazione dei redditi (come nel caso degli accertamenti analitici ed induttivi, spesso con l’utilizzo di mezzi quali il “redditometro”[3]).
In parole povere, la ratio sottesa alle varie tipologie di controllo è quella secondo cui il Fisco agisce con mano tanto più dura quanto più ostile nei suoi confronti si pone il contribuente e, quindi, quanto più offuscata appaia la sua capacità contributiva, per arrivare all’extrema ratio dell’accertamento d’ufficio.
Principi chiave il cui rispetto è sotteso a questa attività sono quello di capacità contributiva e di tutela della buona fede del contribuente.
Ai sensi dell’Art. 53 della Costituzione, “Tutti sono tenuti a concorrere alle spese pubbliche in ragione della loro capacità contributiva”, chiarendo poi che il sistema tributario si ispira a criteri di progressività. Per “capacità contributiva”, quindi, si intende il grado di possibilità e mezzi (misurato principalmente in base al reddito) del contribuente di concorrere alla spesa pubblica, ossia lo sforzo compiuto dallo Stato per procurare ai suoi cittadini beni e servizi, tradotto poi in tributi. In base al principio di progressività, inoltre la capacità contributiva cresce in base al crescere del reddito, non in misura proporzionale, ma secondo altri parametri quali scaglioni o livelli[4].
Il principio di capacità contributiva si collega all’Art. 2 della Costituzione (ne rappresenta, invero, una specifica applicazione in campo tributario), secondo cui a tutti i membri della collettività è demandato il rispetto “dei doveri inderogabili di solidarietà politica, economica e sociale”[5].
Quanto alla buona fede del contribuente, detta anche “legittimo affidamento” ai sensi dell’Art. 10 della L. n. 212/2000 (Statuto dei diritti del contribuente), essa si pone come principio “ambivalente” in quanto funge sia da diritto che da canone di comportamento.
È un diritto, poiché il soggetto passivo d’imposta può non vedersi applicati interessi e sanzioni (e, a seguito della riforma introdotta con D.Lgs. n. 219/2023, finanche il tributo in caso di imposte comunitarie) nel caso in cui risulti evasore a seguito del repentino cambio di orientamento dell’Amministrazione Finanziaria o, ad esempio, risulti particolarmente incerta la normativa tributaria. Allo stesso modo, è un canone di comportamento in quanto la P.A., in ossequio all’Art. 97 della Costituzione (principio di imparzialità e buon andamento dell’Amministrazione), deve orientare il proprio operato secondo criteri di buona fede e imparzialità[6]. Il volume “Ai Act – Principi, regole ed applicazioni pratiche del Reg. UE 1689/2024” si propone di rispondere proprio a queste sfide, offrendo ai professionisti del diritto un quadro completo e aggiornato delle nuove responsabilità giuridiche legate all’uso dell’Intelligenza Artificiale.
Ai Act
Quale impatto avrà l’intelligenza artificiale sulla nostra società e soprattutto sul diritto? Il testo esplora questa complessa intersezione, offrendo una guida dettagliata e completa.L’opera approfondisce l’evoluzione dell’AI, dalle sue umili origini nei primi sistemi esperti alle avanzate reti neurali e all’AI generativa di oggi.Analizza in modo critico il panorama normativo europeo, come il recente Regolamento n. 1689/2024, delineando il percorso legislativo e le regolamentazioni che cercano di gestire e governare questa tecnologia in rapida evoluzione.Gli autori affrontano temi fondamentali come l’etica dell’AI, la responsabilità legale, la sicurezza dei dati e la protezione della privacy.Il libro non si limita alla teoria: esplora anche le applicazioni pratiche dell’AI in vari settori, tra cui la giustizia, il settore finanziario, la pubblica amministrazione e la medicina.Attraverso casi di studio e analisi dettagliate, il libro mostra come l’AI stia trasformando questi ambiti e quali questioni giuridiche stiano emergendo.Inoltre, viene esaminato l’impatto dell’AI sul mondo del lavoro, evidenziando come l’automazione e le nuove tecnologie stiano cambiando le dinamiche lavorative e quali siano le implicazioni legali di queste trasformazioni.L’opera vuole essere una lettura essenziale per avvocati, giuristi, professionisti IT e tutti coloro che desiderano comprendere le complesse relazioni tra tecnologia e diritto, offrendo una visione completa e aggiornata, ricca di analisi critiche e riflessioni pratiche, per navigare nel futuro della tecnologia e del diritto con consapevolezza e competenza.Michele IaselliAvvocato, docente di Diritto digitale e tutela dei dati alla LUISS e di informatica giuridica all’Università di Cassino. Direttore del comitato scientifico di ANDIP e coordinatore del comitato scientifico di Feder-privacy. Funzionario del Ministero della Difesa ed esperto dell’Ufficio Generale Innovazione Difesa, è membro del Comitato di presidenza dell’ENIA (Ente Nazionale Intelligenza Artificiale).
Michele Iaselli | Maggioli Editore 2024
43.70 €
2. Intelligenza Artificiale nei controlli fiscali: rischi e diritti dei contribuenti
L’utilizzo dell’IA nelle procedure di controllo e accertamento fiscale: profili di rischio tra conoscibilità dell’algoritmo, sproporzione delle parti, buona fede dei contribuenti, diritto di difesa e protezione dei dati personali
Orbene, come anticipato, in sempre più paesi del mondo è stato autorizzato l’uso massiccio dell’Intelligenza Artificiale nella lotta all’evasione fiscale. In tale contesto, l’IA permette di svolgere controlli molto più efficienti, essendo in grado di svolgere analisi finanziarie e bancarie su larghissima scala, oltre a garantire (almeno in teoria) una maggiore imparzialità dell’azione amministrativa.
A livello globale, ad esempio, nell’ottobre 2023 l’Internal Revenue Service (abbreviato “I.R.S.”, ossia l’Amministrazione Finanziaria degli Stati Uniti d’America) ha avviato sperimentalmente l’uso dell’IA per analizzare i dati finanziari e bancari di circa 1600 milionari e 75 strutture societarie complesse. Parallelamente, nel Vecchio Continente, l’Unione Europea da tempo incoraggia i governi nazionali a implementare soluzioni tecnologiche all’avanguardia nella lotta all’evasione[7].
È per tale ragione che, in Italia, specie dietro spinta della Legge Delega di riforma fiscale 9 agosto 2023 n. 111, l’Ente Impositore sta investendo i finanziamenti comunitari in un importante progetto, denominato “A data driven approach to tax evasion risk analysis in Italy”: strumenti quali “Network science” o “Network analysis”, “Machine Learning” e “Data visualization” faranno parte del “metodo 4.0” dell’Agenzia delle Entrate, che al momento figura tra le amministrazioni finanziarie più avanzate del mondo dal punto di vista tecnologico[8].
I rischi, però, non sono pochi, soprattutto circa il rispetto dei principi fondamentali, e non è sempre detto che l’AI Act europeo giunga in aiuto.
L’utilizzo dell’IA, infatti, garantisce promettenti risultati ma rischia di effettuare delle analisi e delle ricostruzioni fattuali non sempre allineate con il principio di capacità contributiva. A tale scopo, la Fondazione Nazionale di Ricerca dei Commercialisti ha già redatto un documento atto a illustrare le potenzialità e i limiti dell’uso dell’IA nell’ambito dell’accertamento fiscale[9].
Tra i primi profili critici figura quello della sproporzione tra le parti del procedimento tributario.
Si pensi, infatti, ad un “Fisco 4.0” che può avvalersi di un potente strumento quale l’IA per analizzare gigantesche quantità di dati finanziari e bancari, al punto da sostituirsi potenzialmente all’attività dei funzionari. Il principale rischio è quello di porre il contribuente in una posizione di netto svantaggio circa la conoscibilità dei metodi usati, senza contare l’estrema difficoltà a ricostruire la situazione di fatto così come presentata dall’IA e le problematicità nell’approntare una congrua difesa in sede contenziosa[10].
Non a caso, il Legislatore Delegante ha in via preventiva raccomandato di utilizzare tali strumenti nel pieno rispetto di principi fondamentali quali la tutela del legittimo affidamento, l’obbligo del contraddittorio preventivo, l’obbligo di motivazione e di certezza degli atti, nonché la conoscibilità dei metodi di accertamento[11].
Dalla menzionata sproporzione nasce, poi, un secondo potenziale problema.
Anzitutto, occorre chiarire un presupposto fondamentale: l’IA prende le proprie decisioni sulla base di un criterio logico-matematico (e non umano) chiamato “algoritmo”. Ebbene, demandare l’integrale attività dell’Ente Impositore a un algoritmo sarebbe pressoché innaturale oltre che dannoso, poiché la decisione finale sulle singole situazioni dei contribuenti, per essere adeguatamente motivata, dovrebbe (si auspica) essere presa da funzionari umani.
In tal senso, la giurisprudenza amministrativa giunge in aiuto: in tema di assegnazione dei posti vacanti nelle sedi scolastiche, che avviene tramite un sistema algoritmico, il TAR Lazio (Sez. III-bis, sentenza 10 settembre 2018, n. 9224) ha chiarito che mai e poi mai l’utilizzo di tale sistema debba sostituirsi integralmente all’attività dei funzionari, bensì esserne meramente strumentale e asservita. Altrimenti, i provvedimenti amministrativi si baserebbero non più su presupposti giuridici, bensì su presupposti algoritmici. Ne rimarrebbero irrimediabilmente danneggiate la buona fede dei cittadini nonché il loro diritto di difesa e la conoscibilità dei metodi[12].
In tal senso, è auspicabile l’implementazione di un sistema di “traduzione” dell’algoritmo in termini di “conoscibilità giuridica”, di modo da capire che la decisione presa si basa su presupposti normativi e non meramente logici. Sennonché, tale attività non può certo essere compiuta da sola, ma è sempre necessario l’intervento di funzionari umani[13].
Quanto al rispetto del principio di buona fede, ci si limita a dire qui che L’AI Act non dice nulla sul punto né, d’altronde, avrebbe supporto per farlo, considerato che manca nel settore fiscale comunitario una regola generale codificata di tutela della buona fede con l’esclusione di sanzioni e tributi in caso di violazione delle norme[14].
Altra problematica nascente dall’uso massiccio dell’IA in ambito fiscale è quella della protezione dei dati personali, quali sono quelli utilizzati e raccolti nei procedimenti tributari, secondo consolidata giurisprudenza comunitaria e internazionale (vedasi caso L.B. contro Ungheria n. 36345/2016 – Corte EDU – sentenza del 12 gennaio 2021[15]).
Ebbene, implementare l’uso dei sistemi di Intelligenza Artificiale nella lotta all’evasione, con l’analisi macroscopica dei più disparati dati finanziari e bancari, espone infatti al rischio di un’ingente ed eccessiva proliferazione ed archiviazione di informazioni personali dei contribuenti, spesso futili ai fini tributari. In tal senso, l’AI Act non fornisce adeguato supporto, tenuto conto che:
- il Considerando n. 9, tra le varie, si limita ad affermare che “Le norme armonizzate stabilite nel presente regolamento dovrebbero applicarsi in tutti i settori e, in linea con il nuovo quadro legislativo, non dovrebbero pregiudicare il vigente diritto dell’Unione, in particolare in materia di protezione dei dati, tutela dei consumatori, diritti fondamentali (…)”;
- a mente del Considerando n. 59 “I sistemi di IA specificamente destinati a essere utilizzati per procedimenti amministrativi dalle autorità fiscali e doganali, come pure dalle unità di informazione finanziaria che svolgono compiti amministrativi di analisi delle informazioni conformemente al diritto dell’Unione in materia di antiriciclaggio, non dovrebbero essere classificati come sistemi di IA ad alto rischio utilizzati dalle autorità di contrasto a fini di prevenzione, accertamento, indagine e perseguimento di reati”[16].
È auspicabile, quindi, un’implementazione degli strumenti di tutela e delle accortezze previste in questo senso.
Potrebbero interessarti anche:
3. Considerazioni conclusive
Da quanto esposto nel paragrafo che precede, sono evidenti le potenzialità dell’Intelligenza Artificiale applicata al mondo degli accertamenti fiscali, ma non sono pochi, sotto molteplici profili, i rischi che ne derivano.
Può davvero l’Intelligenza Artificiale, ancora agli albori del suo utilizzo in queste complesse tematiche, ottemperare al rispetto dei principi fondamentali dei contribuenti? Forse è ancora troppo presto per dirlo, il sistema andrà valutato al lato pratico negli anni a venire.
Note
[1] Cfr. https://digital-strategy.ec.europa.eu/it/policies/regulatory-framework-ai
[2] Cfr. https://www.agenziaentrate.gov.it/portale/documents/20143/2214760/Guida_Comunicazioni_sui_controlli_delle_dichiarazioni.pdf/800a2478-84dd-21d6-bb11-712ad1b2a6ce#:~:text=L’attivit%C3%A0%20di%20controllo%20sulle,due%20tipi%3A%20automatico%20e%20formale.
[3] Cfr. https://www.ipsoa.it/wkpedia/accertamento-fiscale
[4] Cfr. https://web.unica.it/unica/protected/377294/0/def/ref/MAT377252/
[5] Cfr. https://web.unica.it/unica/protected/377294/0/def/ref/MAT377252/ cit.
[6] Cfr. https://www.rivistadirittotributario.it/2024/04/16/la-valorizzazione-dellaffidamento-del-contribuente/
[7] Cfr. https://www.giustizia-tributaria.it/allegati/Relazione%20dott.%20Michele%20ANCONA(1).pdf
[8] Cfr. https://www.giustizia-tributaria.it/allegati/Relazione%20dott.%20Michele%20ANCONA(1).pdf cit.
[9] Cfr. https://www.fondazionenazionalecommercialisti.it/node/1800
[10] Cfr. https://www.giustizia-tributaria.it/allegati/Relazione%20dott.%20Michele%20ANCONA(1).pdf cit.
[11] Cfr. https://www.giustizia-tributaria.it/allegati/Relazione%20dott.%20Michele%20ANCONA(1).pdf cit.
[12] Cfr. https://www.rivistadirittotributario.it/2024/12/05/lutilizzo-dellintelligenza-artificiale-da-parte-del-fisco-limiti-e-prospettive-anche-alla-luce-dellartificial-intelligence-act-dellunione-europea/
[13] Cfr. https://www.rivistadirittotributario.it/2024/12/05/lutilizzo-dellintelligenza-artificiale-da-parte-del-fisco-limiti-e-prospettive-anche-alla-luce-dellartificial-intelligence-act-dellunione-europea/ cit.
[14] V. M. Logozzo, Relazione Legittimo affidamento e buona fede nei rapporti tra contribuente e amministrazione, Università LUISS Guido Carli di Roma, 19 dicembre 2012, p. 4-5
[15] Cfr. https://www.giustiziainsieme.it/it/diritto-tributario/1716-la-pubblicazione-della-lista-di-evasori-caso-l-b-c-ungheria-il-fine-giustifica-sempre-i-mezzi
[16] Cfr. https://www.rivistadirittotributario.it/2024/12/05/lutilizzo-dellintelligenza-artificiale-da-parte-del-fisco-limiti-e-prospettive-anche-alla-luce-dellartificial-intelligence-act-dellunione-europea/ cit.
Scrivi un commento
Accedi per poter inserire un commento