Il 9 agosto 2025 il Ministero dell’Istruzione e del Merito (MIM) ha adottato con il Decreto n. 166 le Linee guida per l’introduzione dell’intelligenza artificiale nelle istituzioni scolastiche, approvate con il parere favorevole del Garante Privacy e pubblicate il 29 agosto.
Un documento atteso, che si inserisce in un quadro europeo in rapida evoluzione: il Regolamento (UE) 2024/1689 sull’intelligenza artificiale (AI Act), entrato in vigore il 1° agosto 2024 ed applicabile in via graduale, definisce infatti cornici chiare su rischi, trasparenza e utilizzo dei sistemi AI.
Il MIM, nel solco di questa normativa, ha scelto di “preparare il terreno” scolastico con un documento che prova a conciliare etica, diritto e innovazione. Ma se i principi ci sono, quello che manca è la sostanza: tanta teoria, poca pratica, come hanno notato osservatori e operatori della scuola. Per approfondire il tema, ti consigliamo il volume “Educazione ai Social Media – Dai Boomer alla generazione Alfa”, disponibile su Shop Maggioli e su Amazon. Sulla nuova legge sull’Intelligenza Artificiale abbiamo pubblicato il volume “La legge Italiana sull’Intelligenza Artificiale – Commento alla Legge 23 settembre 2025, n. 132”, disponibile su Shop Maggioli e Amazon. Per approfondire il tema, ti consigliamo i corsi Maggioli Legal Prompting – Dal prompting ai workflow pratici: nuovi modelli di AI per lo studio legale, e il Master in Intelligenza Artificiale per imprese, professionisti e avvocati – II edizione
Indice
- 1. I quattro pilastri delle Linee guida
- 2. Autonomia scolastica o deresponsabilizzazione?
- 3. Il nodo giuridico: privacy e rischio
- 4. La grande assente: la didattica
- 5. Cosa fanno gli altri Paesi
- 6. Consigli operativi: dal documento alla vita reale
- 7. Conclusioni: tra il rischio dell’ennesima circolare e l’occasione di un salto culturale
1. I quattro pilastri delle Linee guida
Il documento ministeriale si articola in quattro sezioni principali:
- Principi di riferimento: inclusione, trasparenza, equità, centralità della persona, non discriminazione. Sono i valori già ribaditi nelle raccomandazioni UNESCO del 2021 e recepiti dall’AI Act.
- Requisiti di base: garanzie tecniche, etiche e giuridiche. Forte richiamo al GDPR e al Codice Privacy, soprattutto per i sistemi che raccolgono e trattano dati degli studenti.
- Framework di implementazione: dal design all’uso, passando per il monitoraggio dei risultati. Una cornice astratta, più che un manuale operativo.
- Comunicazione e governance: la piattaforma UNICA diventa punto di riferimento per supporto e coordinamento, ma senza strumenti concreti di accompagnamento quotidiano per docenti e dirigenti.
Il risultato? Un documento equilibrato, ma che somiglia più a una carta di principi etici che a una guida di navigazione. Per approfondire il tema, ti consigliamo il volume “Educazione ai Social Media – Dai Boomer alla generazione Alfa”, disponibile su Shop Maggioli e su Amazon.
2. Autonomia scolastica o deresponsabilizzazione?
Le Linee guida lasciano alle singole scuole la libertà (o meglio, la responsabilità) di decidere come e quando introdurre l’AI nella didattica.
In teoria, un riconoscimento all’autonomia scolastica sancita dall’art. 21 della Costituzione e dalla normativa nazionale. In pratica, però, significa assenza di regia centrale: ogni scuola dovrà arrangiarsi, spesso con risorse economiche e competenze limitate.
Il MIM promette un monitoraggio ex post, ma non fornisce né modelli didattici pronti né toolkit operativi. In molte scuole, alcuni docenti faticano ancora con i registri elettronici, delegare integralmente l’uso dell’IA senza fornire strumenti pratici rischia di produrre il classico risultato all’italiana: punte di eccellenza in poche scuole e deserti digitali nella maggioranza.
3. Il nodo giuridico: privacy e rischio
Il parere positivo del Garante per la protezione dei dati personali è un passaggio fondamentale.
Le Linee guida ribadiscono l’obbligo di garantire:
- Protezione dei dati by design e by default (art. 25 GDPR).
- Trasparenza nelle informative agli studenti e alle famiglie.
- Limitazioni all’uso di sistemi IA ad alto rischio (AI Act, art. 6 e ss.), come quelli che profilano o valutano studenti.
Sul piano giuridico, il documento è robusto: richiama le basi normative corrette e insiste su un approccio di cautela. Ma il problema resta pratico: quanti dirigenti scolastici hanno gli strumenti per verificare la conformità tecnica di un algoritmo fornito da una multinazionale? Senza supporto centralizzato, la compliance rischia di restare un esercizio teorico.
Potrebbero interessarti anche:
4. La grande assente: la didattica
La parte più debole è quella più attesa: l’uso dell’AI in classe. Solo un capitolo affronta il tema, e lo fa con formulazioni generiche: l’AI “supporta la personalizzazione dell’apprendimento”, “riduce il digital divide”, “assiste i docenti nelle attività ripetitive”.
Tutto vero, ma senza esempi, senza linee di applicazione concreta, senza casi studio.
Manca, ad esempio:
- un modello su come usare strumenti di generazione automatica di testo in una lezione di italiano;
- indicazioni per laboratori STEM con AI generativa di codice;
- riferimenti a rubriche valutative costruite con supporto algoritmico;
- sperimentazioni per studenti con bisogni educativi speciali (BES).
In sintesi: nessuna “cassetta degli attrezzi”, solo un manuale di aerodinamica.
5. Cosa fanno gli altri Paesi
Il confronto con l’estero è impietoso:
- Francia: progetti pilota con tutor AI integrati nei curricula.
- Spagna: programmi regionali di apprendimento adattivo già in uso nelle scuole.
- Germania: toolkit federali con checklist pratiche per insegnanti.
- Stati Uniti: linee guida distrettuali con esempi concreti, policy trasparenti e casi studio.
L’Italia, ancora una volta, rischia di restare indietro: un’ottima riflessione teorica, ma senza pratica immediata.
6. Consigli operativi: dal documento alla vita reale
Per trasformare le Linee guida in strumenti utili, ecco una roadmap:
- Formazione pratica dei docenti: Non con conferenze generiche, ma con laboratori: come usare un chatbot in classe, come creare quiz adattivi, come costruire mappe concettuali automatiche.
- Task force scolastiche: Gruppi di lavoro interni (docenti, studenti, genitori) che sperimentano e documentano. Serve creare comunità di pratica, non solo ricevere documenti.
- Coinvolgimento degli studenti: Non fruitori passivi, ma co-progettisti. Gli studenti devono imparare a usare l’AI con spirito critico, diventando parte attiva della governance digitale.
- Trasparenza e dialogo con le famiglie: Informative chiare, spiegazione delle finalità, possibilità di opt-out. La fiducia è la base della legittimazione sociale.
- Progetti pilota e valutazione agile: Piccoli esperimenti, valutazione degli impatti, scaling solo se funzionano. Il metodo “test and learn” è l’unico sostenibile.
- Partnership istituzionali: Coinvolgere università, centri di ricerca, enti territoriali per colmare il gap di competenze tecniche e legali.
7. Conclusioni: tra il rischio dell’ennesima circolare e l’occasione di un salto culturale
Le Linee guida del MIM sono un primo passo. Hanno il pregio di riconoscere l’urgenza, di richiamare i principi fondamentali, di collocarsi in linea con l’AI Act e con il GDPR. Ma, nella loro forma attuale, rischiano di restare una cornice vuota.
Tre i nodi critici:
- La distanza tra teoria e pratica: senza esempi concreti, i docenti non sapranno come tradurre i principi in attività didattiche quotidiane.
- La delega totale alle scuole: che senza formazione e risorse rischia di trasformarsi in deresponsabilizzazione.
- Il divario con l’Europa: mentre altri Paesi sperimentano sul campo, noi restiamo fermi al glossario.
Eppure, il potenziale c’è. Se accompagnate da formazione mirata e da un piano nazionale di supporto, queste Linee guida potrebbero diventare l’occasione per:
- sviluppare competenze critiche negli studenti,
- innovare davvero la didattica,
- ridurre le disuguaglianze digitali,
- preparare la scuola italiana al mondo del lavoro che verrà.
L’IA è già nelle mani degli studenti: usarla o ignorarla non è più un’opzione, ma una scelta strategica. Le istituzioni possono decidere se governare il fenomeno o lasciarlo esplodere nelle chat dei ragazzi.
In fondo, il paradosso è questo: il MIM ha acceso il razzo, ma senza addestrare gli astronauti. Ora tocca alle scuole decidere se restare a terra a leggere il manuale, o se salire a bordo e imparare a pilotare in volo.
E qui entra in gioco il nostro mestiere: giuristi, DPO, esperti di AI possiamo essere i “navigatori” di questa missione. Perché una cosa è certa: il decollo è iniziato. Decidere la rotta, però, spetta a noi.
Scrivi un commento
Accedi per poter inserire un commento