Nuove linee guida: definizione di intelligenza artificiale nell’AI Act

La Commissione Europea ha pubblicato le attese linee guida sulla definizione di “sistema di intelligenza artificiale” (IA) nell’ambito dell’AI Act.

Il 6 febbraio 2025 la Commissione Europea ha pubblicato le attese linee guida sulla definizione di “sistema di intelligenza artificiale” (IA) nell’ambito dell’AI Act, il Regolamento Europeo sull’Intelligenza Artificiale. Queste linee guida, sebbene non vincolanti, rivestono un ruolo cruciale nel chiarire l’ambito di applicazione del Regolamento, definendo in modo preciso quali sistemi rientrano sotto la disciplina dell’AI Act e quali ne sono esclusi. La corretta definizione di IA è infatti il punto di partenza imprescindibile per garantire un’applicazione uniforme e coerente della normativa, assicurando che i requisiti di conformità e trasparenza siano indirizzati esclusivamente ai sistemi che comportano specifici rischi etici e legali. Per approfondire i temi dell’intelligenza artificiale, abbiamo organizzato il “Master in Intelligenza artificiale per avvocati e imprese – Come utilizzare l’AI generativa per un vantaggio competitivo nel settore legale”. Il volume “Il Regolamento Europeo sull’intelligenza artificiale” curato da Giuseppe Cassano ed Enzo Maria Tripodi si propone di rispondere proprio a queste sfide, offrendo ai professionisti del diritto un quadro completo e aggiornato delle nuove responsabilità giuridiche legate all’uso dell’Intelligenza Artificiale.

Indice

1. La definizione di sistema di IA: i sette pilastri della qualificazione normativa


Le Linee guida individuano sette elementi chiave che definiscono un “sistema di intelligenza artificiale” ai sensi dell’AI Act:

  • Sistema basato su macchina: per essere considerato IA, un sistema deve operare tramite macchine, includendo non solo i componenti hardware tradizionali (come unità di elaborazione e memoria), ma anche sistemi avanzati come il calcolo quantistico e persino sistemi biologici o organici con capacità computazionale.
  • Autonomia: il sistema deve poter operare con vari livelli di indipendenza dall’intervento umano. L’autonomia non significa necessariamente assenza di controllo umano, ma piuttosto la capacità del sistema di generare output senza una continua supervisione manuale.
  • Adattabilità: un sistema di IA può modificare il proprio comportamento sulla base dell’esperienza acquisita. Questa caratteristica è tipica dei sistemi che utilizzano l’apprendimento automatico (machine learning) o altre forme di intelligenza adattativa, sebbene non sia un requisito obbligatorio per la qualificazione come IA.
  • Obiettivi espliciti o impliciti: i sistemi di IA operano perseguendo obiettivi definiti direttamente dal programmatore o dedotti in modo implicito dal comportamento del sistema. Questa flessibilità negli obiettivi è una delle caratteristiche distintive rispetto ai software tradizionali.
  • Capacità di inferenza: l’inferenza è ciò che distingue un sistema di IA da un software tradizionale. Un sistema di IA è in grado di elaborare gli input ricevuti e generare output attraverso processi decisionali autonomi, utilizzando tecniche di apprendimento automatico o approcci logico-simbolici.
  • Output: i sistemi di IA possono generare diversi tipi di output, tra cui previsioni, contenuti (ad esempio testi o immagini), raccomandazioni o decisioni. Ogni tipo di output può avere implicazioni legali e operative differenti, a seconda del contesto applicativo.
  • Influenza su ambienti fisici o virtuali: l’ultimo criterio prevede che il sistema di IA abbia un impatto tangibile sugli ambienti in cui opera, sia esso un contesto fisico (come nel caso della robotica) o virtuale (come nei sistemi di raccomandazione online).

Il volume “Il Regolamento Europeo sull’intelligenza artificiale” curato da Giuseppe Cassano ed Enzo Maria Tripodi si propone di rispondere proprio a queste sfide, offrendo ai professionisti del diritto un quadro completo e aggiornato delle nuove responsabilità giuridiche legate all’uso dell’Intelligenza Artificiale

FORMATO CARTACEO

Il Regolamento Europeo sull’Intelligenza Artificiale

Con la diffusione inarrestabile dell’Intelligenza Artificiale nella quotidianità, gli operatori del diritto sono chiamati a interrogarsi sulla capacità dell’attuale tessuto normativo – nazionale, europeo e internazionale – di reggere la forza d’urto dell’IA garantendo al tempo stesso la tutela dei diritti fondamentali a singoli e collettività o, piuttosto, sulla indispensabilità di un nuovo approccio normativo.Il Legislatore europeo è intervenuto dettando la nuova normativa dell’AI ACT, il Regolamento n. 1689/2024, che si muove lungo più direttrici: raggiungere un mercato unico dell’IA, aumentare la fiducia dei consociati, prevenire e mitigarne i rischi e, infine, sostenere anche l’innovazione della medesima IA. In un contesto di così ampio respiro, e in continuo divenire, qual è il ruolo del giurista?Il volume offre al lettore un primo strumento organico approfondito ed esaustivo per mettere a fuoco l’oggetto delle questioni e la soluzione alle stesse come poste dalla normativaeurounionale, dallo stato dell’arte tecnico e giuridico alle problematiche in campo: la proprietà intellettuale, le pratiche di IA proibite, il rapporto con il GDPR e la compliance per l’IA in base al rischio, i nuovi obblighi a carico di imprese, fornitori e utenti. Giuseppe CassanoDirettore del Dipartimento di Scienze Giuridiche della European School of Economics di Roma e Milano, ha insegnato Istituzioni di Diritto Privato presso l’Università Luiss di Roma. Avvocato cassazionista, studioso dei diritti della persona, del diritto di famiglia, della responsabilità civile e del diritto di Internet, ha pubblicato numerosissimi contributi in tema, fra volumi, trattati, voci enciclopediche, note e saggi.Enzo Maria TripodiGiurista specializzato nella contrattua listica d’impresa, nella disciplina della distribuzione commerciale, nel diritto delle nuove tecnologie e della privacy e la tutela dei consumatori. Già docente presso la LUISS Business School e professore a contratto di Diritto Privato presso la facoltà di Economia della Luiss Guido Carli di Roma. Ha insegnato in numerosi Master post-laurea ed è autore di numerose pubblicazioni con le più importanti case editrici. 

 

Giuseppe Cassano, Enzo Maria Tripodi | Maggioli Editore 2024

2. Differenze fondamentali tra IA e software tradizionali


Una delle questioni centrali affrontate dalle linee guida è la distinzione tra sistemi di intelligenza artificiale e software tradizionali. Mentre questi ultimi operano sulla base di regole predefinite e deterministiche, i sistemi di IA possiedono una capacità di inferenza e adattamento che consente loro di apprendere dai dati e modificare il proprio comportamento in modo autonomo.
Ad esempio, un software tradizionale per la gestione del traffico utilizzerà algoritmi statici per regolare i semafori, mentre un sistema di IA potrebbe analizzare in tempo reale i flussi di traffico e adattare le tempistiche dei semafori in modo dinamico, migliorando l’efficienza della circolazione stradale.

Potrebbero interessarti anche:

3. Implicazioni pratiche per l’applicazione dell’AI Act


La definizione di sistema di IA non è una semplice esercitazione teorica, ma ha conseguenze dirette sull’applicazione del Regolamento Europeo. Solo i sistemi che soddisfano i requisiti delle Linee guida saranno soggetti agli obblighi normativi dell’AI Act, tra cui:

  • Valutazione del rischio: i sistemi di IA ad alto rischio devono sottoporsi a valutazioni specifiche per garantire sicurezza, trasparenza e non discriminazione.
  • Obblighi di trasparenza: alcuni sistemi, come i chatbot, devono informare chiaramente gli utenti sulla loro natura non umana.
  • Conformità normativa: i fornitori e gli utilizzatori di sistemi di IA devono implementare processi interni per garantire il rispetto delle normative europee, pena sanzioni economiche significative.

4. Conclusione: la definizione dell’IA nell’AI Act come strumento di governance strategica


Le Linee guida della Commissione Europea del 6 febbraio 2025 rappresentano un importante strumento interpretativo per l’applicazione coerente e uniforme dell’AI Act. La chiarezza nella definizione di “sistema di intelligenza artificiale” non è un esercizio formale, ma una necessità sostanziale per evitare che tecnologie non pertinenti siano erroneamente incluse nel perimetro normativo, o viceversa, che sistemi di IA potenzialmente rischiosi sfuggano alla regolamentazione.
La definizione articolata attraverso i sette elementi chiave permette di:

  • Ridurre le incertezze giuridiche, offrendo a sviluppatori, fornitori e utilizzatori di sistemi di IA un quadro normativo chiaro entro cui operare.
  • Evitare eccessi regolatori, che potrebbero rallentare l’innovazione tecnologica e aumentare inutilmente i costi di conformità per le imprese tecnologiche europee.
  • Promuovere un mercato digitale sicuro e trasparente, dove gli utenti possano beneficiare dei vantaggi dell’IA senza rischiare violazioni dei propri diritti fondamentali.

 
Dal punto di vista delle pubbliche amministrazioni e delle aziende, le linee guida costituiscono un riferimento operativo per l’adozione di pratiche conformi al GDPR e all’AI Act, riducendo il rischio di sanzioni e responsabilità legali. Per il legislatore e le autorità di controllo, queste indicazioni offrono un supporto pratico per sviluppare politiche di vigilanza basate sul rischio, focalizzando le risorse su quei sistemi che presentano le criticità maggiori.
In un contesto globale caratterizzato da un’intensa competizione tecnologica, l’Unione Europea ha scelto di seguire una strada autonoma e responsabile, bilanciando innovazione e tutela dei diritti. Le linee guida non solo rafforzano la posizione dell’Europa come leader nella regolamentazione dell’intelligenza artificiale, ma stabiliscono anche uno standard di riferimento internazionale per la governance dell’IA.
Il prossimo passo sarà monitorare l’applicazione pratica dell’AI Act e delle linee guida, valutando l’impatto effettivo sul mercato e sugli utenti finali. Solo attraverso un’applicazione pragmatica e flessibile della normativa sarà possibile garantire che l’intelligenza artificiale possa esprimere il suo potenziale, contribuendo alla crescita economica e al benessere sociale, senza compromettere i principi fondamentali su cui si basa l’ordinamento europeo.

Formazione in materia


Per approfondire i temi dell’intelligenza artificiale, abbiamo organizzato il “Master in Intelligenza artificiale per avvocati e imprese – Come utilizzare l’AI generativa per un vantaggio competitivo nel settore legale”
Il Master in Intelligenza Artificiale per Avvocati e Imprese è un percorso formativo avanzato, progettato per fornire a professionisti del settore legale e imprese le conoscenze e le competenze necessarie per orientarsi e utilizzare al meglio le potenzialità dell’AI generativa. Attraverso un approccio pratico, il corso illustrerà i principali tool di AI in uso e mostrerà ai partecipanti come integrare l’AI nei processi lavorativi, migliorando l’efficienza, riducendo i costi e innovando i servizi offerti. Il corso ha una durata totale di 21 ore, articolate in sette incontri da tre ore ciascuno, e include dimostrazioni pratiche in cui verranno illustrate tecniche per la creazione di Prompt efficaci e un framework per la creazione di un GPT personalizzato, focalizzato sulle esigenze del settore legale.
Prenotazione servizio di consulenza
Puoi prenotare un servizio di consulenza personalizzato sulle specifiche esigenze della tua impresa o professione con il docente Claudio Gionti, compilando il modulo disponibile al seguente link: https://docs.google.com/forms/d/e/1FAIpQLScnwEL4P3B76WZRaoW9FnpcwT9Uh570ZAQfisMgTaDVsOzEMg/viewform
>>>Per info ed iscrizioni<<<

Avv. Luisa Di Giacomo

Scrivi un commento

Accedi per poter inserire un commento