Pochi giorni dopo le sentenze “gemelle” del Tribunale di Torino e del Tribunale di Latina, che hanno condannato per lite temeraria ex art. 96 c.p.c. le parti di due processi per utilizzo a sproposito dell’intelligenza artificiale negli atti giudiziari, un altro caso di utilizzo distorto di AI è balzato agli onori della cronaca.
È successo alla branch australiana di Deloitte, la grande e conosciuta società di consulenza, che ha utilizzato un modello di AI generativa per compilare un report destinato al Ministero del Lavoro australiano, finendo per produrre un documento zeppo di errori, citazioni inventate e sentenze apocrife: uno di quei casi che meriterebbero di stare appesi ai muri delle sale riunioni di ogni studio, società di consulenza, pubblica amministrazione o startup che abbia anche solo pensato di affidare all’intelligenza artificiale una relazione ufficiale. Per approfondire sulle novità in materia introdotte dalla nuova legge sull’Intelligenza Artificiale, abbiamo pubblicato il volume “La legge Italiana sull’Intelligenza Artificiale – Commento alla Legge 23 settembre 2025, n. 132”, disponibile su Shop Maggioli e su Amazon. Per approfondire il tema, ti consigliamo i corsi Maggioli Legal Prompting – Dal prompting ai workflow pratici: nuovi modelli di AI per lo studio legale.
Indice
- 1. Il report parzialmente generato con AI, il pasticcio e la toppa
- 2. Che insegnamento dovremmo trarre da questo episodio
- 3. Il nuovo analfabetismo: sapere usare GPT, ma non sapere cosa sta facendo
- 4. Il nodo giuridico: dov’era il contratto? E la trasparenza? E l’accountability?
- 5. L’AI non è una scorciatoia. È una responsabilità.
- 6. Oltre l’entusiasmo cieco: serve un’alleanza nuova (e matura)
- Formazione per professionisti in materia
- Ti interessano questi contenuti?
1. Il report parzialmente generato con AI, il pasticcio e la toppa
Per chi si fosse perso la storia: Deloitte Australia ha consegnato al Dipartimento australiano per l’Occupazione un report da quasi mezzo milione di dollari, in parte generato con GPT‑4 tramite Azure OpenAI, nel quale compaiono riferimenti a testi inesistenti, decisioni giudiziarie mai emesse, e persino giudici inventati. E per aggiungere un ulteriore profilo di danno, l’uso dell’AI non è stato dichiarato nella prima versione del report.
Solo dopo le critiche pubbliche e un’ispezione parlamentare, Deloitte ha riconosciuto l’accaduto, pubblicando una nuova versione “ripulita” e restituendo, correttamente, parte del compenso.
IN questo, come nei casi dei Tribunali di Torino e Latina, il punto non è né l’utilizzo di AI in un report ufficiale, e nemmeno l’errore (o per lo meno non solo).
Il punto è che questo episodio è paradigmatico di un approccio completamente fuorviato all’uso dell’intelligenza artificiale nei contesti professionali. Un approccio che mescola entusiasmo cieco, ignoranza dello strumento e una buona dose di wishful thinking. E che, inevitabilmente, prima o poi esplode. Per approfondire sulle novità in materia introdotte dalla nuova legge sull’Intelligenza Artificiale, abbiamo pubblicato il volume “La legge Italiana sull’Intelligenza Artificiale – Commento alla Legge 23 settembre 2025, n. 132”, disponibile su Shop Maggioli e su Amazon.
La legge Italiana sull’Intelligenza Artificiale
Il volume presenta il primo articolato commento dedicato alla Legge 23 settembre 2025, n. 132, che detta le norme che consentono di disciplinare in ambito italiano il fenomeno dell’intelligenza artificiale e il settore giuridico degli algoritmi avanzati.Il testo offre una panoramica completa delle principali questioni giuridiche affrontate dal legislatore italiano, tra cui la tutela del diritto d’autore e la disciplina della protezione dei dati personali raccolti per l’addestramento dei modelli e per il funzionamento dei sistemi di intelligenza artificiale.Sono analizzate tutte le modifiche normative previste dalla nuova legge, che è intervenuta anche sul codice civile, sul codice di procedura civile e sul codice penale, introducendo nuove fattispecie di reato. La puntuale analisi della riforma e il confronto con le fonti europee (l’AI Act e il GDPR) sono accompagnati da schemi e tabelle, e da un agile glossario giuridico. Vincenzo FranceschelliCome professore straordinario prima, e poi come ordinario, ha insegnato nelle Università di Trieste, Siena, Parma, Milano e Milano Bicocca. È Vicepresidente del CNU – Consiglio Nazionale degli Utenti presso l’AGCom Autorità per le garanzie nelle comunicazioni. È stato Visiting Professor presso la Seton Hall University Law School di New Jersey, USA. Direttore responsabile della Rivista di Diritto Industriale e autore di numerose monografie e contributi scientifici in varie riviste.Andrea Sirotti GaudenziAvvocato e docente universitario. Svolge attività di insegnamento presso Atenei e centri di formazione in Italia e all’estero. È responsabile scientifico di vari enti, tra cui l’Istituto nazionale per la formazione continua di Roma. Direttore di collane e trattati giuridici, è autore di numerosi volumi, tra cui “Manuale pratico dei marchi e brevetti”, “Il nuovo diritto d’autore” e “Codice della proprietà industriale”. I suoi articoli vengono pubblicati su varie testate giuridiche.
Vincenzo Franceschelli, Andrea Sirotti Gaudenzi | Maggioli Editore 2025
23.75 €
2. Che insegnamento dovremmo trarre da questo episodio
Se c’è una cosa che questo caso dovrebbe aver insegnato a chiunque lavori con l’AI – o voglia farlo – è che i modelli generativi non sono fonti affidabili. Sono predittori linguistici, non biblioteche verificate. Producono frasi plausibili, non verità. Generano coerenza sintattica, non accuratezza epistemologica.
E quando si trovano davanti a una lacuna? Inventano. Perché l’algoritmo è presuntuoso e piuttosto che ammettere candidamente e socraticamente di non sapere, produce risultati frutto di allucinazioni.
Non è un bug. È il loro mestiere.
Quando chiedi a un LLM di colmare un vuoto, lui lo fa con quello che secondo lui ci starebbe bene, non sempre con quello che è vero. È una differenza sottile, ma sostanziale. È come chiedere a un attore di improvvisare un processo penale: magari ha la retorica da Tribunale, ma potrebbe non conoscere a menadito procedura e articoli del codice.
3. Il nuovo analfabetismo: sapere usare GPT, ma non sapere cosa sta facendo
Siamo nel pieno della seconda ondata di “AI enthusiast”: quelli che, dopo aver fatto due prompt e aver visto comparire un paragrafo intero, pensano di aver trovato il Sacro Graal della produttività.
Solo che c’è una cosa che manca: la cultura del linguaggio, della verifica, del contesto, della responsabilità.
Deloitte non è un piccolo studio legale di provincia. È una delle big four della consulenza. E se può capitare a loro, che sono tra i migliori, può capitare a tutti quelli che non hanno fatto i compiti a casa.
Perché delegare all’AI la redazione di documenti destinati alla pubblica amministrazione, senza verifica seria, senza disclosure, senza tracciamento delle fonti, non è “sperimentazione”. È un errore da principiante.
Potrebbero interessarti anche:
4. Il nodo giuridico: dov’era il contratto? E la trasparenza? E l’accountability?
In tutto questo, la questione legale è non solo centrale, ma urgente.
- Contrattualmente, quel report conteneva prestazioni non svolte da professionisti, bensì da un sistema automatizzato. Il cliente sapeva? C’era una clausola che lo prevedeva? O si potrebbe configurare un caso di parziale inadempimento mascherato da “innovazione”?
- Sul piano della trasparenza, non dichiarare l’uso di AI in un documento ufficiale che si presume basato su analisi esperte potrebbe equivalere, di fatto, a un’omissione rilevante. In certi casi, potrebbe costituire una violazione del dovere di informazione nei confronti della controparte contrattuale.
- E poi c’è l’accountability. Chi risponde dei contenuti generati? Chi verifica? Chi firma?
Siamo ancora convinti che basti “leggere prima dell’invio” per garantire il controllo umano? Se il revisore finale è anch’esso ignaro dell’uso dell’AI, che tipo di controllo possiamo ritenere esercitato?
Domande che, oggi, hanno una risposta normativa parziale. Ma domani – con l’entrata a regime dell’AI Act (Reg. UE 2024/1689) – dovranno trovare fondamento in policy, contratti, audit interni. E anche in assicurazioni professionali, perché le richieste di risarcimento da contenuti allucinati stanno già bussando alle porte dei legali aziendali.
5. L’AI non è una scorciatoia. È una responsabilità.
Il punto, alla fine, è culturale. Ed è qui che ci metto la riflessione personale.
Da consulente, da formatrice, da giurista, da persona che legge (e corregge) decine di documenti scritti con l’AI ogni settimana, ho capito una cosa banale, ma fondamentale.
L’AI non sostituisce il pensiero. Lo esige.
L’uso dell’AI nei contesti professionali non è un’opzione da baraccone, non è uno show‑off da workshop, e non è una stampella da usare quando siamo in ritardo. È una leva potentissima, ma anche una trappola perfetta. Se la si usa per riempire spazi vuoti, quei vuoti si trasformano in crateri di credibilità.
L’intelligenza artificiale non ci solleva dalla responsabilità. La moltiplica.
6. Oltre l’entusiasmo cieco: serve un’alleanza nuova (e matura)
L’intelligenza artificiale è entrata nel nostro lessico professionale con una rapidità che non ha precedenti. L’abbiamo accolta con entusiasmo, con meraviglia, con quella sensazione a metà tra il sollievo e la fascinazione che si prova davanti a qualcosa che finalmente “ci alleggerisce”.
Ma nel farlo, abbiamo dimenticato una cosa fondamentale: l’AI non è qui per sostituirci, è qui per integrarci.
Ci pone interrogativi seri, su come pensiamo, su come lavoriamo, su cosa consideriamo “accurato”, “vero”, “professionale”. Ci costringe a ripensare i ruoli, le responsabilità, i flussi.
Ci chiede – brutalmente – se siamo ancora in grado di esercitare un pensiero critico, o se preferiamo affidarci a un output ben confezionato purché sembri credibile a prima vista.
L’episodio di Deloitte, in questo senso, è una parabola perfetta. Non è un incidente. È uno specchio. Riflette il punto esatto in cui ci troviamo: a cavallo tra l’uso e l’abuso, tra l’adozione strategica e la delega deresponsabilizzata, tra la governance e il far west.
E allora la questione diventa politica, giuridica, professionale, ma prima ancora culturale.
Serve un’alleanza nuova. Un’alleanza consapevole, in cui le macchine siano strumenti e non surrogati. In cui l’automazione sia messa al servizio del giudizio umano, non al suo posto. In cui la competenza non venga svuotata, ma rilanciata, potenziata, messa alla prova.
Un’alleanza che preveda:
- policy interne chiare sull’uso dell’AI, che distinguano tra assistenza alla scrittura e generazione autonoma di contenuti;
- formazione vera, non webinar motivazionali, ma percorsi per imparare a usare i modelli, capirne i limiti, verificarne gli output, rielaborarli criticamente;
- nuove figure professionali ibride, capaci di stare nel mezzo: tra diritto e tecnologia, tra governance e operatività;
- meccanismi di verifica robusti, perché tutto ciò che viene prodotto da sistemi generativi ha bisogno di essere controllato, interpretato, firmato da persone in carne, ossa e neuroni funzionanti;
- e infine, una rivoluzione dell’accountability: non possiamo continuare a chiamarla “innovazione” se non siamo pronti a risponderne.
L’AI Act, in questo senso, rappresenta un punto di partenza, non un punto di arrivo. Ci chiede di disegnare architetture di fiducia, di distinguere tra rischio basso, alto e inaccettabile. Ma soprattutto ci chiede un salto culturale.
E quel salto – inutile illudersi – non potrà essere fatto da chi vede l’AI come un tappabuchi produttivo, come un dipendente a costo bassissimo. Sarà fatto da chi, con pazienza, fatica e visione, saprà costruire un ecosistema dove la tecnologia potenzia, ma non sostituisce. Dove la velocità è accompagnata da rigore. Dove l’efficienza non uccide la verità. Perché, alla fine, di una cosa possiamo essere certi: i contenuti creati con l’AI possono essere eccellenti. Ma la responsabilità resta umana. Sempre.
Formazione per professionisti in materia
Il corso Legal Prompting -Dal prompting ai workflow pratici: nuovi modelli di AI per lo studio legale offre strumenti concreti per usare in modo consapevole e sicuro strumenti di AI generativa nella vita professionale di tutti i giorni. I partecipanti impareranno a lavorare con i principali modelli AI (ChatGPT-5, Claude, Gemini, ManusAI, Perplexity), affinare tecniche di prompting e controlli incrociati, organizzare workflow coerenti e limitare il rischio di allucinazioni.
Verrà presentato il Metodo dei 5 Progetti, con applicazioni concrete alla professione forense, e si lavorerà sulla scelta del modello più sicuro e adeguato, la protezione di dati e dispositivi, il rispetto delle regole deontologiche e la protezione di GPT personalizzati da prompt injection e altri rischi di sicurezza.
Il corso combina dimostrazioni pratiche, checklist operative e casi d’uso concreti, garantendo un approccio immediatamente applicabile nella pratica professionale.
>>>Per info ed iscrizioni<<<
Ti interessano questi contenuti?
Salva questa pagina nella tua Area riservata di Diritto.it e riceverai le notifiche per tutte le pubblicazioni in materia. Inoltre, con le nostre Newsletter riceverai settimanalmente tutte le novità normative e giurisprudenziali!
Iscriviti!
Scrivi un commento
Accedi per poter inserire un commento