Intelligenza artificiale e crisi d’impresa: la formula dell’INPS per la prevenzione

Scarica PDF Stampa

Che l’INPS voglia diventare una sentinella delle crisi d’impresa attraverso l’intelligenza artificiale può apparire, a prima vista, quasi distopico. L’ente previdenziale per eccellenza, storicamente associato a flussi documentali cartacei e code interminabili, sembra oggi pronto a governare gli algoritmi. E non per automatizzare processi interni, ma per predire, con pretesa di precisione, le difficoltà economiche delle aziende.
Siamo davanti a un cambio di paradigma, in cui la pubblica amministrazione evolve da soggetto ricettore delle informazioni a soggetto proattivo, capace di inferenze e valutazioni predittive. Ma come ogni rivoluzione, anche questa solleva interrogativi non banali: giuridici, etici e sistemici.
Il volume “Intelligenza artificiale e responsabilità dei professionisti – Etica, diligenza e algoritmi”, disponibile sullo Shop Maggioli e su Amazon, offre, in modo pratico, un’analisi sistematica e comparativa dei diversi regimi risarcitori e sanzionatori operanti tra professionisti con riferimenti normativi, dottrinali e giurisprudenziali. Per approfondire il tema, abbiamo preparato il Master in Intelligenza Artificiale per imprese, professionisti e avvocati – II edizione

Indice

1. Il progetto: Intelligenza Artificiale e prevenzione delle crisi d’impresa


L’iniziativa si colloca nell’ambito della riforma del Codice della crisi d’impresa e dell’insolvenza (d.lgs. 14/2019), che mira a istituire un sistema di allerta precoce per prevenire fallimenti e salvaguardare posti di lavoro. L’INPS, nel suo ruolo istituzionale, dispone di un patrimonio informativo notevole: dati contributivi, posizioni assicurative, variazioni occupazionali, flussi Uniemens.
L’idea è quindi utilizzare l’intelligenza artificiale per analizzare questi dati e anticipare segnali deboli di crisi, sviluppando un sistema capace di evidenziare anomalie e profili a rischio, così da attivare strumenti di prevenzione.
Un algoritmo che, in sintesi, prova a “capire” quando un’impresa sta per cadere, prima ancora che lo sappia l’impresa stessa. Il volume “Intelligenza artificiale e responsabilità dei professionisti – Etica, diligenza e algoritmi”, disponibile sullo Shop Maggioli e su Amazon, offre, in modo pratico, un’analisi sistematica e comparativa dei diversi regimi risarcitori e sanzionatori operanti tra professionisti con riferimenti normativi, dottrinali e giurisprudenziali.

VOLUME

Intelligenza artificiale e responsabilità dei professionisti

Il volume analizza le principali figure di professionisti in senso stretto (avvocati, notai, medici, commercialisti, ingegneri), unitamente a quelle di soggetti pubblici che, di regola, giudicano le loro condotte (magistrati) e di alcuni ausiliari del giudice (CTU) o soggetti preposti alla deflazione del contenzioso (mediatori).Ogni capitolo è dedicato ad una figura professionale specifica ed il filo conduttore, che li attraversa, è dato dalla fiducia e dall’affidamento sottesi al rapporto interumano da cui origina il rapporto professionale.Gli algoritmi e le istruzioni di condotta impartite agli strumenti di Intelligenza Artificiale sono la frontiera su cui si misura la profonda trasformazione delle professioni, che è in atto. Per tutte le figure analizzate, l’Altro è innanzitutto il Cliente, il Paziente, l’Assistito, oltre che naturalmente il Collega, la Controparte, il Consulente Tecnico d’Ufficio, l’Ausiliario e così via.La reciprocità è indicata come il faro, con cui illuminare il percorso delle professioni in un momento di cambiamento e ridefinizione.L’opera offre, in modo pratico, un’analisi sistematica e comparativa dei diversi regimi risarcitori e sanzionatori operanti tra professionisti con riferimenti normativi, dottrinali e giurisprudenziali. Francesca ToppettiEsperta in responsabilità professionale e diritto sanitario, avvocato cassazionista, è coordinatrice del Dipartimento Intelligenza Artificiale e Responsabilità in Sanità della UMEM. Membro del Consiglio Direttivo dell’Unione Europea per la Tutela dei Diritti dell’Uomo e componente della Commissione Responsabilità Professionale Sanitaria istituita presso il Consiglio dell’Ordine degli Avvocati di Roma. Autrice di numerose pubblicazioni e volumi, è relatrice in convegni e congressi in materia di responsabilità civile, tutela dei diritti della persona e conciliazione stragiudiziale delle liti. Si occupa di filantropia ed è Direttore Generale di Emergenza Sorrisi ETS.

 

Francesca Toppetti | Maggioli Editore 2025

2. I dati (e i dubbi): di che cosa stiamo parlando?


Se il fine è condivisibile – prevenire crisi, tutelare i lavoratori, proteggere la stabilità economica – il mezzo merita attenzione. I dati trattati sono infatti dati personali, in alcuni casi potenzialmente anche particolari o giudiziari, qualora si incrocino con informazioni relative a contenziosi o procedimenti sanzionatori.
Il trattamento si fonda su basi giuridiche quali l’adempimento di obblighi legali e l’esecuzione di compiti di interesse pubblico, ma ciò non solleva l’amministrazione da obblighi stringenti in tema di proporzionalità, minimizzazione, trasparenza e accountability.
L’art. 5, par. 1, lett. c) del GDPR impone che i dati siano “adeguati, pertinenti e limitati a quanto necessario”, ma quando un algoritmo inferisce comportamenti o classifica le imprese in categorie di rischio, il confine tra trattamento lecito e trattamento eccessivo si fa labile.

3. IA e trasparenza: chi sorveglia i sorveglianti?


Il cuore critico del progetto è rappresentato dall’opacità algoritmica. Il Regolamento (UE) 2016/679 dedica l’art. 22 alla “decisione basata unicamente su un trattamento automatizzato, compresa la profilazione”, prevedendo tutele specifiche quando tale decisione produce effetti giuridici significativi.
Sebbene l’INPS dichiari che l’algoritmo servirà solo per segnalazioni interne e non per adottare misure dirette verso le imprese, il rischio di un uso strumentale o evolutivo del sistema è concreto.
Come sarà garantita la trasparenza dei criteri? Quali audit sono previsti? Le imprese potranno conoscere la propria “etichetta” algoritmica? E soprattutto: esiste un controllo umano efficace e continuo, o la macchina verrà considerata “più obiettiva” degli operatori?
Il principio di explainability (articolato nella proposta di AI Act come obbligo per i sistemi ad alto rischio) impone che l’output del sistema sia comprensibile e contestabile. Un’esigenza che nella prassi pubblica è ancora lontana dall’essere soddisfatta.

Potrebbero interessarti anche:

4. La prevenzione è meglio della cura… ma a che prezzo?


Il principio di prevenzione è una delle stelle polari del diritto pubblico, specie quando si tratta di crisi aziendali e lavoro. Ma introdurre l’intelligenza artificiale in questo contesto apre scenari ambivalenti.
Da un lato, la possibilità di agire prima che la situazione degeneri è indubbiamente utile: anticipare il default può salvare aziende e famiglie. Dall’altro, l’adozione di tecnologie predittive rischia di creare un effetto chilling: le imprese potrebbero sentirsi costantemente monitorate e quindi frenare investimenti, assunzioni, decisioni strategiche.
Non va dimenticato che un’errata segnalazione (falso positivo) può incidere sul rapporto fiduciario con banche, clienti e partner commerciali. Inoltre, il “profilo di rischio” prodotto da un algoritmo tende a fossilizzarsi: anche se non ha valore formale, può influenzare decisioni amministrative o valutazioni future.
La prevenzione, insomma, non deve trasformarsi in sorveglianza preventiva di massa.

5. Un precedente importante (e un laboratorio normativo)


L’Italia non è la sola ad aver intrapreso questa strada. In Francia, il sistema Alerte Précoce utilizza indicatori finanziari per suggerire situazioni a rischio, ma con un livello di trasparenza e partecipazione più avanzato.
L’intelligenza artificiale nella PA, se ben governata, può rappresentare un volano di efficienza, ma richiede regole chiare, accountability, audit esterni, meccanismi di reclamo efficaci.
La proposta di Regolamento AI dell’Unione Europea (AI Act), in fase di attuazione, classifica come sistemi ad alto rischio proprio quelli utilizzati da enti pubblici in ambito occupazionale, economico e creditizio. L’iniziativa dell’INPS rientrerebbe pienamente in tale categoria, con tutti gli obblighi che ne conseguono: registrazione, documentazione, valutazione di conformità, trasparenza, supervisione.
In questo senso, il caso italiano potrebbe divenire un precedente giurisprudenziale e normativo su scala europea.

6. Conclusione: l’algoritmo previdente o l’occhio di Sauron?


La tecnologia può e deve essere uno strumento al servizio dell’interesse generale. Ma, per quanto avanzata, per quanto “intelligente”, resta uno strumento: non un oracolo infallibile, non un giudice imparziale, e tantomeno un sorvegliante silenzioso legittimato a operare nell’ombra.
L’iniziativa dell’INPS rappresenta senza dubbio una svolta culturale: una pubblica amministrazione che sceglie di anticipare i segnali di crisi invece di subirli; che mira a prevenire invece di rincorrere; che vuole utilizzare i dati non solo per raccogliere contributi, ma per proteggere occupazione e tenuta sociale.
Ma proprio per questo, occorre essere ancora più esigenti, ancora più trasparenti, ancora più rigorosi.
Perché quando un algoritmo inizia a profilare le imprese e a prevederne il destino, il rischio è che si sposti il baricentro del potere decisionale. E se non vi è sufficiente chiarezza su come vengono trattati i dati, quali sono le logiche sottostanti, quali i margini di errore, quali i diritti di contestazione e revisione, allora l’algoritmo non è più uno strumento: diventa un attore occulto del processo decisionale pubblico.
Ecco perché non basta affermare che l’obiettivo — prevenire le crisi, proteggere i lavoratori, migliorare l’efficienza — sia nobile. Occorre dimostrare che i mezzi sono legittimi, che i criteri sono verificabili, che il processo è controllabile e contestabile.
Serve una documentazione chiara, un audit indipendente, un ruolo attivo delle autorità di vigilanza. Serve, soprattutto, che ci sia sempre una persona responsabile dietro ogni decisione automatizzata.
Perché, se l’algoritmo deve guardarci e forse anche guidarci, è fondamentale che non si limiti a osservare, ma sappia rendere conto di ciò che vede, giustificare ciò che conclude e rispondere di ciò che innesca.
In definitiva, l’algoritmo potrà anche prevedere il futuro. Ma solo la democrazia, la trasparenza e la responsabilità possono renderlo un futuro degno di essere abitato.

Formazione per professionisti


Master in Intelligenza Artificiale per imprese, professionisti e avvocati – II edizione
Il Master in Intelligenza Artificiale per Imprese, Professionisti e Avvocati è un percorso formativo avanzato, progettato per fornire alle aziende e ai professionisti del settore legale le conoscenze e le competenze necessarie per orientarsi e utilizzare al meglio le potenzialità dell’AI generativa. Attraverso un approccio pratico, il corso illustrerà i principali tool di AI in uso e mostrerà ai partecipanti come integrare l’AI nei processi lavorativi, migliorando l’efficienza, riducendo i costi e innovando i servizi offerti.
Il corso ha una durata totale di 21 ore, articolate in sette incontri da tre ore ciascuno, e include dimostrazioni pratiche in cui verranno illustrate tecniche per la creazione di Prompt efficaci e un framework per la creazione di un GPT personalizzato, focalizzato sulle esigenze del settore legale.
Grazie all’utilizzo dei più innovativi tool di AI generativa da parte dei docenti, i partecipanti, in aggiunta alle tradizionali dispense e slide, avranno accesso a un kit di risorse interattive basate su AI: GPT conversazionali, notebook di studio su NotebookLM, mappe concettuali dinamiche, framework operativi e strumenti specialistici.
Prenotazione servizio di consulenza
Puoi prenotare un servizio di consulenza personalizzato sulle tue esigenze con il docente Claudio Gionti compilando il modulo disponibile al seguente link: 
https://docs.google.com/forms/d/e/1FAIpQLScnwEL4P3B76WZRaoW9FnpcwT9Uh570ZAQfisMgTaDVsOzEMg/viewform
Per assistenza sulle richieste di prenotazione contattare l’indirizzo mail: servizioclienti@maggioli.it
Attestato
Al termine del Master verrà rilasciato un attestato di partecipazione, valido per l’ottenimento dei crediti formativi per avvocati.  L’attestato di partecipazione sarà rilasciato solamente agli iscritti che frequenteranno almeno l’80% delle ore a programma. 
>>>Per info ed iscrizioni<<<

Ti interessano questi contenuti?


Salva questa pagina nella tua Area riservata di Diritto.it e riceverai le notifiche per tutte le pubblicazioni in materia. Inoltre, con le nostre Newsletter riceverai settimanalmente tutte le novità normative e giurisprudenziali!
Iscriviti!

Iscriviti alla newsletter
Iscrizione completata

Grazie per esserti iscritto alla newsletter.

Seguici sui social


Avv. Luisa Di Giacomo

Laureata in giurisprudenza a pieni voti nel 2001, avvocato dal 2005, ho studiato e lavorato nel Principato di Monaco e a New York.
Dal 2012 mi occupo di compliance e protezione dati, nel 2016 ho conseguito il Master come Consulente Privacy e nel 2020 ho conseguito il titolo…Continua a leggere

Scrivi un commento

Accedi per poter inserire un commento