Il Tribunale di Torino Sez Lavoro, con sentenza del 16 settembre 2025, ha rigettato in toto l’opposizione presentata da una parte privata contro alcuni avvisi di addebito. La notizia non sarebbe di per sé particolarmente rilevante, se non fosse per un dettaglio che spicca, anzi, rimbomba nel dispositivo: il giudice ha sottolineato che il ricorso era stato redatto con l’ausilio dell’intelligenza artificiale e che questo ha avuto un ruolo nel determinare il carattere generico, inconferente e formalistico delle allegazioni.
Fin qui, nulla di nuovo sotto il sole. Che l’uso dell’IA generativa nel mondo legale stia prendendo piede è cosa nota. Ma questa decisione sposta l’ago della bilancia verso un punto che fino a ieri era solo oggetto di convegni e tweet ironici: se un atto processuale è scritto in gran parte da un assistente artificiale, e risulta privo di concretezza e rilevanza, chi ne risponde? E ancora: l’uso dell’IA può influenzare la valutazione giudiziale dell’atto stesso?
Pare di sì. E con conseguenze anche economiche. Per approfondire il tema, ti consigliamo i corsi Maggioli Legal Prompting – Dal prompting ai workflow pratici: nuovi modelli di AI per lo studio legale, e il Master in Intelligenza Artificiale per imprese, professionisti e avvocati – II edizione. Inoltre, abbiamo pubblicato in materia il volume Intelligenza artificiale – Essere avvocati nell’era dell’AI generativa, disponibile su Shop Maggioli e su Amazon,
Indice
- 1. La vicenda
- 2. L’art. 96 c.p.c. applicato all’uso scorretto dell’IA: una novità?
- 3. L’intelligenza artificiale non è (ancora) un soggetto giuridico
- 4. Verso linee guida per l’uso forense dell’IA?
- 5. Conclusioni. Tra responsabilità umana, illusioni digitali e una giustizia ancora troppo analogica
- Formazione per professionisti in materia
- Ti interessano questi contenuti?
1. La vicenda
La vicenda.
L’opponente aveva presentato un ricorso al Tribunale del lavoro, impugnando alcuni avvisi di addebito con una serie di doglianze – decadenza, nullità, prescrizione, silenzio-assenso – che nel merito sono state integralmente respinte, con conseguente condanna al pagamento delle spese processuali.
Il Tribunale, tuttavia, si è spinto oltre, condannando la parte attrice al pagamento della sanzione prevista dall’art. 96 commi 3 e 4 per responsabilità aggravata, così motivando: “Ai sensi dell’art. 96, comma 3, c.p.c., si ritiene altresì necessario condannare parte attrice al pagamento della somma di euro 500 in favore di ciascuna delle parti convenute. La ricorrente ha infatti agito in giudizio con malafede o, quantomeno con colpa grave, dal momento che ha proposto opposizione nei confronti di avvisi di addebito che le erano stati tutti notificati in precedenza, già oggetto di plurimi atti di esecuzione anch’essi tutti regolarmente notificati ed ha svolto – tramite un ricorso redatto “col supporto dell’intelligenza artificiale” , costituito da un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e in larga parte inconferenti, senza allegazioni concretamente riferibili alla situazione oggetto del giudizio – eccezioni tutte manifestamente infondate. A tale statuizione consegue, ai sensi dell’art. 96, c. 4, c.p.c. la condanna ad una somma in favore della cassa delle ammende che si determina equitativamente in € 500”.
Ora, ritenendo che sia stato il ricorrente a dichiarare esplicitamente di aver redatto il ricorso con l’ausilio dell’intelligenza artificiale, il giudice nel prenderne atto ne ha tratto la conseguenza che l’uso dell’IA, per quanto non vietato, non solleva dalla responsabilità, ma anzi può essere indice di superficialità se mal gestito. Abbiamo pubblicato in materia il volume Intelligenza artificiale – Essere avvocati nell’era dell’AI generativa, disponibile su Shop Maggioli e su Amazon.
Intelligenza artificiale
Con l’avvento dell’Intelligenza artificiale generativa, la legal industry italiana è entrata in una fase di trasformazione profonda e irreversibile.Il diritto e la GenAI hanno in comune, infatti, un elemento strategico: il linguaggio.Il linguaggio come tecnologia attraverso cui si esprime il diritto, il linguaggio come insieme di dati con cui l’AI genera nuovi contenuti. Nell’azzardare una lista di elementi in comune tra i due ambiti, potremmo anche giungere ad una vera e propria provocazione: l’intelligenza artificiale generativa conquisterà facoltà di ragionamento tali da mettere in crisi il lavoro di interpretazione dello stesso diritto a cura dei giuristi in carne ed ossa? Una cosa è certa: non è più possibile trascurare l’impatto dell’AI nel settore legale; si è reso necessario studiarne gli effetti, immaginare nuovi percorsi del giurista 4.0 e prepararsi alla valutazione e alla tutela dei diritti delle persone in chiave digitale.Attraverso il racconto dei fatti e l’analisi puntuale di progetti istituzionali in essere, esperienze delle legaltech italiane e sfide regolatorie, il volume offre una fotografia aggiornata e viva di una rivoluzione in atto: una “life photo” che cattura il momento storico in cui diritto e tecnologia si intrecciano, tra opportunità, rischi e incertezze.Ma questo non è solo un libro per tecnici. È una riflessione utile a giuristi, professionisti del diritto, policy maker e cittadini: sulla necessità di costruire un’AI “affidabile”, sui nuovi equilibri democratici messi alla prova, sulla tutela dei diritti fondamentali in un ecosistema digitale dominato da logiche algoritmiche. Claudia MorelliGiornalista professionista, specializzata nei temi della legal industry e della digital transformation della giustizia, esperta di comunicazione legale e Legal Marketing. Professoressa a con- tratto presso l’Università di Bologna, dove insegna Comunicazione del Giurista, già responsabile della Comunicazione del Consiglio Nazionale Forense. Il presente volume, giunto alla seconda edizione aggiornata, è la sua prima riflessione organica sui temi della trasformazione digitale della professione forense.
Claudia Morelli | Maggioli Editore 2025
24.70 €
2. L’art. 96 c.p.c. applicato all’uso scorretto dell’IA: una novità?
L’art. 96, comma 3, del Codice di procedura civile – introdotto con la riforma del 2009 – prevede una condanna automatica al pagamento di una somma equitativamente determinata dal giudice in caso di lite temeraria, cioè se la parte agisce o resiste in giudizio con malafede o colpa grave.
In passato, tale norma è stata applicata nei casi di ricorsi manifestamente infondati, strumentali o dilatori. Ma qui il punto è diverso: il ricorso non è stato giudicato manifestamente infondato solo nel merito, ma anche nella forma e struttura, giudicate inconsistenti e artificiose.
Il Tribunale ha implicitamente fatto discendere la colpa grave non dal contenuto delle eccezioni sollevate (che potevano anche avere fondamento teorico), ma dal modo in cui erano state presentate, prive di legame logico con i fatti del caso.
E l’origine “intelligente” – cioè redatta con l’ausilio di IA – viene messa a verbale quasi come elemento di contorno aggravante: non perché l’IA sia vietata, ma perché l’uso disinvolto di uno strumento potente senza controllo umano può generare effetti processualmente sanzionabili.
3. L’intelligenza artificiale non è (ancora) un soggetto giuridico
Chiariamo subito un punto: non esiste una responsabilità autonoma dell’intelligenza artificiale. L’IA generativa, come GPT, Claude, Gemini, ecc., è uno strumento. Può sbagliare, può generare contenuti privi di logica o coerenza, ma non è imputabile. La responsabilità resta, oggi e per il prossimo futuro, integralmente in capo a chi la utilizza.
Nel caso di un atto giudiziario, questo è ancora più evidente: chi deposita un ricorso lo fa assumendosi la responsabilità (professionale, deontologica, talvolta anche penale) del contenuto. L’IA può essere un assistente nella fase di redazione, un praticante molto ben addestrato, ma non può sostituire il giudizio critico dell’avvocato o della parte, né può garantire la pertinenza dell’argomentazione al caso concreto.
Potrebbero interessarti anche:
4. Verso linee guida per l’uso forense dell’IA?
La pronuncia solleva un tema che la dottrina comincia ad affrontare, ma che ancora non ha trovato risposte normative: serve una disciplina sull’uso dell’IA negli atti processuali?
Al momento, non esistono vincoli espliciti. Né il Codice di procedura civile, né i codici deontologici degli avvocati o dei magistrati trattano l’argomento. Eppure, l’uso dell’IA sta diventando prassi comune, soprattutto tra professionisti che operano in ambiti contenziosi ad alto volume (es. recupero crediti, previdenza, esecuzioni).
Nel silenzio normativo, questa sentenza può essere letta come una prima traccia giurisprudenziale: non vieta l’uso dell’IA, ma ne sottolinea i rischi quando lo strumento viene usato in modo automatico, acritico, superficiale.
5. Conclusioni. Tra responsabilità umana, illusioni digitali e una giustizia ancora troppo analogica
La sentenza del Tribunale di Torino del 16 settembre 2025 è una cartina di tornasole del momento storico che stiamo attraversando come professionisti del diritto, come sistema giudiziario e, più in generale, come società.
Viviamo in un momento storico e sociale in cui l’intelligenza artificiale sembra promettere risposte a tutto: scrive testi, riassume contratti, commenta sentenze, redige e-mail più brillanti di quelle dei praticanti e scrive ricorsi. L’illusione tecnologica è potente: ci fa credere che basti un prompt ben formulato per generare un contenuto efficace, logico, argomentato, spendibile nel contesto più formale che esista — quello processuale, quello dove la forma è sempre sostanza.
Ma questa vicenda giudiziaria ci restituisce un principio essenziale: l’atto giuridico non è un documento decorativo, bensì un ponte tra il fatto e il diritto, una costruzione logica che pretende cura, consapevolezza, conoscenza dei fatti, e — soprattutto — responsabilità.
L’IA non è la scorciatoia, è una cassetta degli attrezzi
Il fascino delle scorciatoie non è nuovo: lo sanno gli studenti sotto esame, gli avvocati oberati di fascicoli, e persino certi consulenti che millantano efficienza a colpi di copia-incolla. Ma la scorciatoia digitale, se presa senza mappa, porta dritto in un burrone.
L’intelligenza artificiale può e deve essere utilizzata come strumento di supporto alla riflessione giuridica: può aiutare a individuare argomenti, sollevare domande, suggerire collegamenti normativi. Ma non potrà mai — e ripeto: mai — sostituire la funzione interpretativa, strategica e valutativa dell’avvocato. Chi pretende di delegare alla macchina il compito di decidere cosa scrivere in un atto processuale confonde l’IA con una sorta di giurista automatico. E rischia di trasformare il diritto in fuffa generativa.
Serve (anche) una riflessione deontologica e normativa
Questa sentenza — senza volerle attribuire il peso della rivoluzione — apre uno spazio di riflessione che il legislatore e le istituzioni forensi farebbero bene ad abitare. Se il trend attuale continuerà, nei prossimi anni aumenteranno gli atti redatti, in tutto o in parte, con l’ausilio di IA generativa.
Che cosa comporta questo?
- Serve trasparenza? Andrà dichiarato nei fascicoli che l’atto è stato assistito da IA?
- Serve una forma di valutazione ex ante della qualità tecnica di questi atti, magari da parte degli ordini professionali?
- La responsabilità deontologica dell’avvocato potrà essere aggravata in caso di uso negligente dell’IA?
- I magistrati avranno a disposizione strumenti per identificare più agevolmente contenuti generativi, che mancano di pertinenza logica?
Sono domande che non possono restare sulla soglia del dibattito accademico, ma devono entrare nel cuore pulsante delle riforme giuridiche in corso. A maggior ragione ora che l’Unione Europea ha approvato l’AI Act, che include disposizioni etiche e regolatorie su trasparenza, tracciabilità e supervisione umana.
Il diritto non si automatizza, si interpreta
C’è un errore di fondo in molte narrazioni sull’uso dell’IA nel diritto: l’idea che il diritto sia una scienza esatta, dove a un dato fatto corrisponde una norma e a una norma una decisione. È un approccio computazionale, deterministico, che ignora la dimensione interpretativa, valoriale e strategica dell’attività giuridica.
Scrivere un ricorso non è come compilare un modulo fiscale: è un atto creativo, riflessivo, argomentativo. Richiede contesto, sensibilità giuridica, consapevolezza delle ricadute processuali. In una parola: richiede umanità.
L’intelligenza artificiale, per quanto sofisticata, non possiede intenzionalità, né finalismo, né capacità strategica. Genera parole, non significati. Propone connessioni, non scelte difensive. E, soprattutto, non sarà mai condannata ex art. 96 c.p.c.: a rispondere, davanti al giudice e davanti al cliente, sarà sempre l’umano.
L’avvocatura del futuro? Umana, formata, e con IA in tasca (ma non in aula)
Non si tratta di demonizzare l’innovazione, ma di governarla. L’avvocatura del futuro non potrà fare a meno dell’intelligenza artificiale, così come non può più fare a meno del digitale. Ma dovrà saperla usare con criterio, competenza, metodo. E su questo la formazione professionale obbligatoria ha una responsabilità decisiva.
Non servono corsi di prompt engineering per avvocati ansiosi. Serve, piuttosto, una cultura giuridica che non abdichi al pensiero critico, anche quando l’assistente virtuale è brillante, veloce e apparentemente competente. La tentazione dell’outsourcing cognitivo è forte, ma la professione forense non può essere ridotta a revisione di bozze scritte da algoritmi.
In un’aula di tribunale, quello che conta non è la bellezza dell’atto, ma la forza dell’argomentazione. E quella, l’IA non la possiede.
L’intelligenza artificiale nel diritto è qui per restare. Ma non per sostituire chi il diritto lo conosce, lo pratica e lo vive ogni giorno. È un alleato, non un delegato. Un supporto, non un surrogato.
Chi pensa che basti un prompt per vincere una causa finirà per perdere anche la faccia.
E magari, come in questo caso, pagherà pure 500 euro.
Formazione per professionisti in materia
Il corso Legal Prompting -Dal prompting ai workflow pratici: nuovi modelli di AI per lo studio legale offre strumenti concreti per usare in modo consapevole e sicuro strumenti di AI generativa nella vita professionale di tutti i giorni. I partecipanti impareranno a lavorare con i principali modelli AI (ChatGPT-5, Claude, Gemini, ManusAI, Perplexity), affinare tecniche di prompting e controlli incrociati, organizzare workflow coerenti e limitare il rischio di allucinazioni.
Verrà presentato il Metodo dei 5 Progetti, con applicazioni concrete alla professione forense, e si lavorerà sulla scelta del modello più sicuro e adeguato, la protezione di dati e dispositivi, il rispetto delle regole deontologiche e la protezione di GPT personalizzati da prompt injection e altri rischi di sicurezza.
Il corso combina dimostrazioni pratiche, checklist operative e casi d’uso concreti, garantendo un approccio immediatamente applicabile nella pratica professionale.
>>>Per info ed iscrizioni<<<
Il Master in Intelligenza Artificiale per Imprese, Professionisti e Avvocati è un percorso formativo avanzato, progettato per fornire alle aziende e ai professionisti del settore legale le conoscenze e le competenze necessarie per orientarsi e utilizzare al meglio le potenzialità dell’AI generativa. Attraverso un approccio pratico, il corso illustrerà i principali tool di AI in uso e mostrerà ai partecipanti come integrare l’AI nei processi lavorativi, migliorando l’efficienza, riducendo i costi e innovando i servizi offerti.
Il corso ha una durata totale di 21 ore, articolate in sette incontri da tre ore ciascuno, e include dimostrazioni pratiche in cui verranno illustrate tecniche per la creazione di Prompt efficaci e un framework per la creazione di un GPT personalizzato, focalizzato sulle esigenze del settore legale.
Grazie all’utilizzo dei più innovativi tool di AI generativa da parte dei docenti, i partecipanti, in aggiunta alle tradizionali dispense e slide, avranno accesso a un kit di risorse interattive basate su AI: GPT conversazionali, notebook di studio su NotebookLM, mappe concettuali dinamiche, framework operativi e strumenti specialistici.
>>>Per info ed iscrizioni<<<
Ti interessano questi contenuti?
Salva questa pagina nella tua Area riservata di Diritto.it e riceverai le notifiche per tutte le pubblicazioni in materia. Inoltre, con le nostre Newsletter riceverai settimanalmente tutte le novità normative e giurisprudenziali!
Iscriviti!
Scrivi un commento
Accedi per poter inserire un commento