Intelligenza Artificiale e responsabilità: profili comunitari

di Antonio Tipaldi, Dott.
PDF

Indice:

  1. Nascita ed evoluzione del sintagma Intelligenza Artificiale
  2. Etica e diritto nell’intelligenza artificiale: il quadro europeo
  3. Profili giuridici interni e comunitari della responsabilità nell’uso di sistemi di IA
  4. L’esperienza statunitense: cenni

Nascita ed evoluzione del sintagma Intelligenza Artificiale

L’Intelligenza Artificiale viene definita, in linea generale, come “l’insieme di studi e tecniche che tendono alla realizzazione di macchine, specialmente calcolatori elettronici, in grado di risolvere problemi e riprodurre attività proprie dell’intelligenza umana”[1]. Essa studia lo sviluppo di sistemi hardware e software capaci, simia hominis, di perseguire in modo autonomo una finalità definita, assumendo delle decisioni che, fino a quel momento, erano affidate agli esseri umani[2].

Diversamente dai software tradizionali, un sistema di dispositivo/macchina dotato di I.A. è basato su tecniche di apprendimento (machine learning e deep learning)[3]; vengono cioè definiti degli algoritmi che consentono ad un sistema automatico di elaborare un’enorme quantità di dati dai quali imparare per costruire un modello del problema oggetto di indagine e risoluzione.

La velleità di assegnare al dispositivo\macchina la capacità di poter svolgere funzioni legate all’intelletto dell’uomo è da sempre esistita[4], ma gli effettivi sviluppi di questa semplice intuizione trovano il loro compimento intorno agli anni 50, decennio attraversato da grande fermento scientifico sullo studio del calcolatore e sul suo utilizzo per sistemi intelligenti.

La prima opera generalmente riconosciuta come Intelligenza Artificiale viene ricondotta ai due studiosi statunitensi, Warren Mc Culloch e Walter Pitts, che, nel 1943, proposero il primo modello di rete neurale ispirato al funzionamento del cervello umano.

I due ricercatori dimostrarono che con esso era possibile implementare tutti i blocchi fondamentali della logica booleana[5] ed inoltre ipotizzavano che queste reti fossero in grado di apprendere[6].

Sulla scorta di tale rivoluzionario modello, qualche anno dopo, Donald Hebb, nel 1949, ideò una regola di modifica dei pesi delle sinapsi[7], che rese possibile l’ipotizzato apprendimento delle reti neurali; di fondamentale importanza risultò poi anche il primo computer a rete neurale, sviluppato da Marvin Minsky nel 1950, detto SNARC, che simulava una rete di 40 neuroni.

Ruolo cruciale in tale periodo ebbero gli studi condotti da Alan Turing, considerato uno dei padri dell’informatica moderna, il quale per la prima volta, nel 1950, in un articolo pubblicato sulla rivista Mind, formalizza il concetto di “algoritmo”, ed elabora il c.d. “test di Turing”, un criterio per determinare se una macchina sia in grado di esibire un comportamento intelligente e di poter sviluppare l’autoapprendimento[8].

Nel 1956, muovendo dalla proposta di Dartmouth[9], prese avvio il “Dartmouth Summer Research Project on Artificial Intelligence”, convegno tenutosi nell’omonimo college, che vide riuniti i maggiori esponenti dell’informatica. In questa occasione il dibattito non portò alla elaborazione di nuovi modelli, ma venne coniata la locuzione “intelligenza artificiale”, ora riconsiderata come scienza autonoma.

Da qui in avanti, il tema dell’Intelligenza Artificiale acquisisce una forte attenzione da parte della comunità scientifica e, con il tempo, crescono le aspettative circa le sue, possibili e svariate applicazioni. Nel 1957, Herbert Simon stimò che nel giro di dieci anni la comunità scientifica avrebbe sviluppato un’intelligenza artificiale in grado di competere con i campioni di scacchi, cosa che accadde qualche anno più tardi, nel 1996/1997, quando il super computer DeepBlue di IBM[10] inizia a vincere qualche partita contro il campione mondiale Kasparov.

A partire dal test di Turing, la ricerca sull’IA è proseguita lungo due direzioni: la prima, basata sull’approccio originale della “emulazione”, che consiste nel mimare comportamenti intelligenti osservabili dall’esterno; la seconda, più innovativa, incentrata sul concetto di “simulazione”, in base al quale, per ottenere una macchina realmente intelligente, bisogna studiare e riprodurre la struttura fondamentale del sistema nervoso umano[11].

Il dibattito odierno oscilla tra quanti, come Minsky e McCharty, affermano che le IA debbano essere ricondotte al proprio ruolo iniziale, di “macchine che pensano, imparano e creano”, e quanti, all’opposto, sono alla ricerca dell’algoritmo universale che permetta lo sviluppo della AGI (Artificial General Intelligence), di una macchina, cioè, in grado di funzionare in qualsiasi contesto economico-sociale[12]. Al riguardo molti ricercatori hanno tentato di sviluppare sistemi in grado di replicare la totalità dei comportamenti umani, ma, ad oggi, l’unico esempio di “intelligenza generale (AGI)” è rappresentato dagli esseri umani in quanto le macchine sono ancora lontane dal riuscire a replicare in toto l’intelligenza di questi ultimi.

Studiosi ed esperti del settore hanno suggerito l’utilizzo di sistemi-IA più ristretti, c.d. “narrow AI-enabled systems”, già ampiamente sviluppati perché basati sulla collaborazione uomo-macchina, che permette all’individuo non solo di portare a termine dei “tasks” impossibili da realizzare in via autonoma, ma anche di assisterlo nella vita quotidiana. Invero, se inizialmente l’IA si basava su modelli dettagliatamente creati e regolati da esperti, ora, grazie al processo di machine learning, essa è dotata di modelli statistici con la capacità di essere allenata per risolvere problemi specifici sulla base di dati esemplificativi come immagini o dati sensibili o interazioni simulate[13].

Le moderne tecnologie si basano, infatti, su sistemi innovativi di machine learning noti come “deep learning (DL)”[14], calibrati su un set di dati che permettono di generare output, calcolare errori e riadattare i parametri interni fino a che il sistema di DL raggiunge un livello accettabile di affidabilità.

Posto che la capacità di apprendere dai dati permette ai sistemi “Deep Neural Networks (DNN)”[15] di risolvere problemi in maniera di gran lunga migliore e più efficace degli altri sistemi di IA, è pur vero che, trattandosi di data-driven[16], anche un piccolo cambiamento negli input potrebbe provocare risultati indesiderati o addirittura errati, oltre al rischio di essere esposti ad attacchi cibernetici.

L’evoluzione dell’ IA può essere ricondotta a tre distinte “ondate” [17]: una prima, contraddistinta dalla creazione di “knowledge-based systems”, di sistemi “esperti”, basati su un insieme di regole; la seconda si avvale di “sistemi statistici”, ad apprendimento supervisionato, fondati su dati strutturati e non strutturati; la terza, oggetto degli ultimi grandi investimenti statunitensi, è imperniata su sistemi dotati di intelligenze artificiali in grado di ragionare sulla base del contesto circostante.

Per ragioni di completezza, non si possono sottacere, poi, i più recenti studi sulla cd. l’Artificial Super Intelligence (ASI)[18]; formula che designa un’intelligenza uguale o, addirittura, superiore a quella umana[19].

Etica e diritto nell’intelligenza artificiale: il quadro europeo

Le odierne tecnologie volte allo sviluppo dell’intelligenza artificiale incidono sempre più sulla società e sui costumi, sollevando il problema della elaborazione di strumenti a protezione dei diritti fondamentali, della sicurezza e della protezione delle risorse conoscitive che si estraggono dai dati.

I tradizionali paradigmi che caratterizzano i diversi ambiti del diritto sono rimessi in gioco per poter meglio svolgere una funzione volta a neutralizzare gli eventuali rischi derivanti dalle attività che si compiono in un ambiente interconnesso.

A tal proposito, le istituzioni europee hanno rivolto la propria attenzione precipuamente alle forme di IA in grado di operare in modo autonomo, le quali mimano e riproducono l’intelligenza umana, senza la pretesa tuttavia di superarla. Oggetto di intervento sono stati i narrow enabled-systems, sistemi di IA più “limitati” che, grazie alla loro capacità di apprendimento, basata sull’analisi di enormi quantità di dati[20], pongono delicate questioni in tema di sicurezza, di privacy e, soprattutto, di responsabilità per danni causati a terzi.

Il grado di autonomia del sistema IA è, infatti, uno dei punti chiave dell’analisi sulla responsabilità civile, cosi come confermato dalla Risoluzione del Parlamento Europeo che definisce l’autonomia dell’Intelligenza artificiale di un robot (dispositivo/macchina) come “la capacità di prendere decisioni e metterle in atto nel mondo esterno, indipendentemente da un controllo o un’influenza esterna”; precisato che “tale autonomia è di natura puramente tecnologica e il suo livello dipende dal grado di complessità con cui è stata progettata l’interazione di un robot con l’ambiente”[21].

I primi spunti regolatori in tema di Intelligenza artificiale non possono essere considerati alla stregua di vere e proprie norme, bensì una semplice, primordiale risposta all’esigenza di controllare i dispositivi/macchine basati su sistemi di IA, senza reprimere o limitare le loro azioni, evitando che queste possano prendere il sopravvento sull’essere umano. Le note “tre leggi”[22] della robotica formulate dallo scrittore e biochimico russo Isaac Asimov rappresentano un primo tentativo volto a minimizzare il rischio di danni causati dai dispositivi\macchine dotate di IA attraverso una programmazione delle macchine compatibile con il rispetto della legge e con un codice etico[23].

Per quanto futuristiche, vaghe e poco adatte ad essere definite tout court delle leggi, le formulazioni di Asimov contengono importanti spunti di riflessione circa la relazione tra etica e diritto, particolarmente avvertita in materia di nuove tecnologie e di sviluppo dei sistemi IA. Numerosi sono, invero, i documenti elaborati nel contesto europeo e mondiale in tale direzione. Tra questi si annoverano la Risoluzione del Parlamento europeo del 16 febbraio del 2017, che dedica una specifica sezione ai principi etici ed il documento “Orientamenti etici per un’IA affidabile”[24], che promuove la realizzazione di sistemi IA “antropocentrici”, ideati e strutturati quali strumenti nelle mani dell’uomo e al servizio del bene comune, per aiutarlo a migliorare il proprio stato di benessere[25]. La centralità dell’essere umano assume, in questa prospettiva, una prioritaria rilevanza rispetto al profilo tecnico dell’affidabilità e del buon funzionamento del dispositivo/macchina. Prospettiva, peraltro, condivisa dalla santa Sede, come emerge dal documento “Call for AI Ethics”[26], varato dalla Pontificia Accademia per la Vita nel 2020, ove si pone l’accento sulla necessità che sia l’uomo a guidare la tecnologia, e non viceversa.

A testimonianza della nevralgica importanza che i profili etici dispiegano in materia di nuove tecnologie, non è superfluo precisare che, anche fuori dai confini europei, il dibattito scientifico si è contraddistinto per l’opportunità di stabilire delle linee guida e di indirizzo. In California, ad esempio, la conferenza Beneficial AI 2017[27], promossa dall’Istituto Future of life[28], è culminata nell’approvazione di ventitrè principi (di Asilomar)[29], i quali, benché non vincolanti, denotano l’urgenza di definire, in qualche misura, i confini di un tema complesso e sfaccettato.

Il profilo che accomuna i documenti e le proposte sopra citati è, all’evidenza, il timore di un uso improprio e distorto dei sistemi di IA, sebbene sia (ancora) radicata la convinzione che i dispositivi non possano essere definiti soggetti autonomi di diritti e doveri. Nella cultura giuridica occidentale non è infatti la tecnologia in sé a sollevare questioni di ordine etico e giuridico, quanto il suo (cattivo) utilizzo. Di qui la urgenza – già sottolineata dalla Risoluzione del Parlamento europeo del 2017 – di addivenire ad una standardizzazione della materia nel contesto europeo, con particolare riguardo ai profili della responsabilità, della protezione dei dati personali e della prevenzione dalla pirateria informatica. Il Parlamento europeo ha esaudito le richieste volte a delineare un quadro uniforme in materia di robotica, approvando, nell’ottobre del 2020, tre importanti Risoluzioni[30]: la prima (A9–0186/2020) affronta il tema “costituzionale” dei presìdi etici che le applicazioni di Intelligenza artificiale dovranno garantire per assicurare sicurezza, trasparenza e presa di responsabilità, evitare la creazione di pregiudizi e di discriminazioni, stimolare la responsabilità sociale e ambientale ed assicurare il rispetto dei diritti fondamentali; la seconda (A9-0178/2020) riguarda il regime della responsabilità civile per danni e pregiudizi arrecati da sistemi di IA; la terza (A9-0176/2020) concerne i diritti di proprietà intellettuale, con particolare riferimento al rilascio di licenze ed ai processi creativi. A conferma della nevralgica importanza che le istituzioni europee annettono al tema dell’intelligenza artificiale, considerata uno snodo cruciale nella futura trasformazione digitale della società, nel Green Deal europeo e nel rilancio dell’economia post COVID-19, il Parlamento ha, altresì, emanato una ulteriore risoluzione, avente ad oggetto “questioni relative all’interpretazione e applicazione del diritto internazionale nella misura in cui l’UE è interessata relativamente agli impieghi civili e militari e all’autorità dello Stato al di fuori dell’ambito della giustizia penale”[31] e, insieme al Consiglio, ha avanzato una proposta di Regolamento della materia (21 aprile 2021[32]), la quale aspira alla creazione di un mercato europeo dell’IA rispettoso dei valori dell’Unione[33]. Tale proposta fa parte di un più ampio pacchetto di misure destinate ad affrontare i problemi posti dallo sviluppo e dall’utilizzo dell’IA in Europa. La Commissione ha, di recente, elaborato un “Piano coordinato di revisione dell’intelligenza artificiale 2021”[34], che promuove azioni congiunte degli stati membri volte ad eliminare la frammentazione dei programmi di finanziamento, mentre Parlamento e Consiglio  un regolamento in materia di macchine[35] (21 aprile 2001), che dovrebbe sostituire la direttiva 2006/42/CE del 17 maggio 2006, che garantisce la libera circolazione delle macchine all’interno del mercato UE ed assicura un alto livello di protezione per gli utenti e altre persone esposte. Queste iniziative sono il risultato di un vivace dibattito circa la necessità di costruire un mercato europeo dell’IA affidabile, sicuro e rispettoso dei diritti fondamentali. Uno dei temi di maggior interesse, attiene alla possibilità di prefigurare una responsabilità civile del robot (si pensi ai danni prodotti dai veicoli a guida autonoma), tema che pone delicati problemi interpretativi ed applicativi alla luce dei criteri di imputazione (colpa e dolo) e delle consolidate categorie dogmatiche (responsabilità aquiliana, danno ingiusto) che connotano la nostra tradizione giuridica.

Leggi anche:

La responsabilità civile nell’uso dei sistemi di IA

Robot, androidi ed altre forme di Intelligenza artificiale convivono, oggi, con l’essere umano, conformando e modificando lo stile di vita di quest’ultimo. L’inarrestabile processo tecnologico, che non è azzardato definire in termini di autentica “rivoluzione”, pone il giurista dinanzi a sfide inedite e lo obbliga a fornire risposte a problemi di ordine teorico, etico e pratico.

Consapevole di questa urgenza, il Parlamento europeo ha, a più riprese, evidenziato che i moderni robot non solo sono in grado di svolgere attività tipicamente affidate alla manualità dell’essere umano, ma possiedono anche peculiari caratteristiche cognitive come la capacità di apprendere dall’esperienza e di assumere decisioni in totale autonomia; ciò li rende sempre più connessi all’ambiente circostante ed anche, potenzialmente, in grado di alterarlo in modo significativo.

Tali capacità inducono, inevitabilmente, ad interrogarsi sulla risarcibilità dei danni causati a terzi per effetti della condotta, commissiva o omissiva, del robot. A tal riguardo, la già citata Risoluzione del 2017 definisce l’autonomia di una macchina/robot come «la capacità di prendere decisioni e metterle in atto nel mondo esterno, indipendentemente da un controllo o un’influenza esterna»[36]. Da tale assunto sembrerebbe discendere, a mo’ di logico corollario, che più i robot sono autonomi, meno essi potranno essere considerati alla stregua di semplici strumenti operativi nelle mani di altri soggetti come il fabbricante, l’operante, il proprietario, l’utilizzatore, etc.[37] In particolare, il punto 59, lett. F) del documento prevede «l’istituzione di uno status giuridico specifico per i Robot nel lungo termine, di modo che almeno i Robot autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qualsiasi danno da loro causato nonché eventualmente il riconoscimento della personalità elettronica dei Robot che prendono decisioni autonome o che interagiscono in modo indipendente con terzi». Previsione che condurrebbe, in prospettiva, ad identificare, accanto alle tradizionali figure della persona fisica e della persona giuridica, una nuova categoria, ovvero quella della “persona elettronica”, titolare di diritti e doveri. Tale previsione presta, all’evidenza, il fianco a numerosi rilievi critici.

In primo luogo, considerare i robot quali persone elettroniche postula il riconoscimento in capo ad essi di una autonomia patrimoniale perfetta, tale da consentire loro di assolvere ad eventuali obbligazioni pecuniarie e da essere passibili di procedure, anche di carattere coercitivo, volte ad ottenere il risarcimento dei danni patiti da terzi. Una simile scelta, inoltre, potrebbe incentivare una deresponsabilizzazione degli ideatori e dei produttori di I.A., i quali, agendo su scala globale e speculando sulle divergenze ad oggi esistenti tra i diversi ordinamenti giuridici, potrebbero non essere chiamati a rispondere personalmente dei danni occorsi.

Nel maggio del 2017, pochi mesi dopo la pubblicazione della Risoluzione, il Comitato economico e sociale europeo (CESE), nel parere C-238[38], ha espresso una serie di perplessità riguardo la proposta avanzata dal Parlamento europeo, in particolare per quanto concerne l’attribuzione della soggettività giuridica a dispositivi/macchine intelligenti. Il Comitato ha, nello specifico, espresso opinione contraria all’introduzione di una forma di personalità giuridica per i robot o i sistemi di I.A., in quanto, a suo avviso, ciò comporterebbe un rischio inaccettabile sul piano morale: “dirottare” la responsabilità civile sul robot significa disattendere la funzione di prevenzione (e di disincentivo) dei comportamenti illeciti o eccessivamente rischiosi, che compete all’illecito aquiliano.

Sulla questione si è espressa anche la Commissione degli episcopati della Comunità europea (COMECE), con un’ampia riflessione intitolata “Robotization of life–Ethics in view of new challenges” (gennaio 2019), frutto del lavoro di gruppo di esperti per i quali la costruzione di uno statuto legale per i robot non è da ritenersi attuabile, cosi come non è percorribile la via che porta a collocarli allo stesso livello delle persone umane in quanto ciò si porrebbe in insanabile contrasto con l’art. 6 della Dichiarazione universale sui diritti umani, che afferma l’uguaglianza di ogni persona davanti alla legge. La possibilità di estensione della personalità giuridica a macchine autonome[39], dotate di intelligenza artificiale, andrebbe a stravolgere il concetto di responsabilità radicata nella personalità giuridica che può essere esercitata solo laddove esista la “capacità di libertà”, che è concetto differente da quello di autonomia.

Tali censure sono state solo in parte superate dal Parlamento europeo, che ha, in qualche misura, corretto il tiro, discorrendo di una sub-specie di personalità giuridica, la c.d. personalità elettronica (o anche artificiale), ma ciò non è valso a fugare i diffusi dubbi, sì che il dibattito è, sul punto, tutt’oggi aperto sia nel contesto europeo, sia negli ordinamenti interni. La stessa Commissione europea si riserva di verificare se i tradizionali strumenti giuridici presenti nelle tradizioni dei singoli paesi membri siano adatti a regolare i rapporti civili nel mondo dell’intelligenza artificiale e si interroga sull’opportunità di introdurre nuove categorie atte a disciplinare il fenomeno.

Al pari del diritto del mare, non disciplinabile con il nomos della terra[40], è diffusa la sensazione che le tecnologie digitali mal si prestino ad essere regolate dagli istituti che presiedono alla responsabiltà civile, materia che, peraltro, nel contesto europeo, presenta caratteristiche differenti da sistema a sistema. Gli interventi del legislatore comunitario sono stati, come di consueto, frammentati, avendo egli agito step by step per conferire uniformità a specifici settori: si pensi alla responsabilità dell’internet provider o alla responsabilità da prodotti difettosi (85/374/CEE). Ed è proprio alla direttiva 85/374/CEE che i commentatori hanno rivolto la propria attenzione, interrogandosi sulla possibilità di considerare il robot o il sistema basato su IA quale “prodotto”, gravando il danneggiato dell’onere di provare il difetto del prodotto, il danno subito ed il nesso di causalità fra difetto e danno (art. 4)[41], lasciando tuttavia impregiudicati “i diritti che il danneggiato può esercitare in base al diritto relativo alla responsabilità contrattuale o extracontrattuale o in base ad un regime speciale di responsabilità esistente al momento della notifica della direttiva” (art. 13). È appena il caso di precisare, come si evince del resto dai “considerando” che precedono il testo della direttiva, che il regime di responsabilità del produttore prescinde dalla sua colpa. Il criterio di imputazione del fatto illecito avviene sulla scorta di parametri oggettivi[42].

La no fault liability è la soluzione – condivisa peraltro dalla Commissione – caldeggiata  da un Gruppo di esperti[43] sulla responsabilità delle nuove tecnologie, attraverso la quale si suggerisce un adeguamento delle disposizioni nazionali mediante l’introduzione di regole meno gravose per la vittima circa l’onere della prova. In questa prospettiva, l’operatore è tenuto a dimostrare l’osservanza di cogenti regole sulla sicurezza nel processo di creazione di un sistema IA, la cui inosservanza esonera la vittima dall’onus probandi circa l’esistenza di un nesso causale tra prodotto e danno.

Dal quadro sin qui sinteticamente illustrato sembra emergere il favor per una valutazione della responsabilità imperniata sulla capacità dell’operatore di gestire e di minimizzare il rischio, e non sul criterio psicologico della colpa. La questione che residua è quella della scelta dello strumento più idoneo a disciplinare la materia dello sviluppo e dell’utilizzo dei robot e dell’Intelligenza artificiale. La Commissione ha, inizialmente, optato per strumenti di soft law, quali linee guida e codici di condotta. Le sollecitazioni rivoltele dal Parlamento si sono, infatti, concretizzate nella Comunicazione “Intelligenza artificiale per l’Europa”[44], nella quale si rimarca la necessità di contemperare il mondo dell’IA con il rispetto dei diritti fondamentali dell’uomo, soprattutto alla luce dell’entrata in vigore del GDPR sulla protezione dei dati, nella Comunicazione “Creare fiducia nell’Intelligenza artificiale antropocentrica”[45] in cui trovano accoglimento i sette requisiti fondamentali individuati dal Gruppo Indipendente di esperti: intervento e sorveglianza a cura dell’uomo; robustezza tecnica e sicurezza; riservatezza e governance dei dati; trasparenza; diversità, non discriminazione ed equità; benessere sociale ambientale nonché nel Libro bianco[46] sull’Intelligenza artificiale.

Nell’aprile 2021, La Commissione ha, poi, presentato una proposta[47] di regolamento volta a stabilire un quadro giuridico uniforme in materia di intelligenza artificiale ed a creare un mercato europeo per lo sviluppo, la commercializzazione e l’uso dell’intelligenza artificiale, conformemente ai valori dell’Unione. A corredo della proposta, la Commissione ha varato un “Piano coordinato di revisione dell’intelligenza artificiale” (2021) che stimola azioni congiunte volte ad eliminare la frammentazione dei programmi di finanziamento, delle iniziative e delle azioni intraprese a livello dell’UE e dei singoli Stati membri.

Ad oggi, la regolamentazione esistente, sia a livello nazionale che comunitario, in tema di responsabilità appare non in linea con il progressivo sviluppo delle ultime tecnologie in tema di IA. Per questo motivo, a parere di chi scrive è auspicabile un intervento normativo, pensato ed elaborato per regolamentare l’utilizzo dei sistemi implementati da IA. Lo sviluppo giuridico non riesce a seguire il passo di quello tecnologico come ci rammenta la prima legge di Moore[48]la complessità di un microcircuito […] raddoppia ogni 18 mesi e quadruplica ogni 3 anni, oggi si è in grado di costruire un processore con una potenza raddoppiata rispetto ad uno costruito solamente un anno e mezzo prima; pertanto il legislatore non dovrà commettere di basarsi esclusivamente sul presente. Indubbiamente non è possibile prevedere quanto impiegherà l’IA a superare il test di Turing, né tra quanto tempo essa farà completamente parte della nostra vita, ma è lecito pensare che ciò accadrà e il diritto avrà l’onere di farsi trovare pronto.

L’esperienza statunitense: cenni

Volgendo lo sguardo oltre il panorama europeo, significativa è l’esperienza statunitense, dove la Pricewaterhouse Coopers, uno dei più importanti network internazionali che si occupa di consulenza e strategia nel settore legale e fiscale, nonché quinta più grande azienda privata, ha stimato che il guadagno potenziale a livello mondiale derivante dal mercato dell’Intelligenza artificiale in termini di PIL sarà pari a quasi sedici trilioni di dollari entro il 2030. Principale competitor dei nordamericani è la Cina, paese che investe ingentemente nel tech; si pensi a colossi quali Alibaba e Huawei. La superpotenza orientale ha, infatti, lanciato nel maggio del 2015 un piano strategico d’investimento[49] che vede il governo di Pechino testa a testa con gli Stati Uniti nella lotta alla leadership sul mercato dell’Intelligenza artificiale e, più in generale, delle nuove tecnologie.

Diversamente dall’Europa, dove il tema è fortemente condizionato dall’elaborazione in materia di privacy[50], i giganti della Silicon Valley – pur senza raggiungere gli epigoni del modello cinese -, mostrano un atteggiamento più disinvolto rispetto ai profili della sfera intima dell’individuo. Durante la presidenza Trump, si è delineato un quadro operativo in materia dell’Intelligenza artificiale, dal quale emerge una particolare attenzione per la politica degli investimenti. Conformemente alle Linee guida dell’amministrazione federale sull’Intelligenza artificiale, l’OSTP, ufficio delle politiche sulla scienza e sulla tecnologia della Casa Bianca, ha pubblicato nel 2016 un’iniziativa nel solco già tracciato dai cugini britannici, che nel 2014 individuavano nel settore RAS (Robotics and autonomous system) una delle otto “buone tecnologie” su cui il Regno Unito avrebbe dovuto concentrarsi ed investire.

Il documento dell’OSTP[51], pubblicato durante la presidenza di Obama, consisteva nella richiesta di informazioni alla società civile circa la sua visione sullo sviluppo delle nuove tecnologie. Gli interlocutori non sono le istituzioni governative, ma i portatori di interessi quali consumatori, accademici e ricercatori industriali, nonché società private e fondazioni di beneficenza. All’azione dell’OSTP si è affiancata quella del NSTC (National Science and Technology Council) che, nel medesimo anno, ha pubblicato un Report ufficiale[52] in cui, muovendo proprio dalle risultanze dell’OSTP, si sottolineava l’opportunità di sviluppare dei sistemi IA ispirati a principi di apertura, trasparenza e comprensibilità, compatibili con l’essere umano e rispettosi dei suoi diritti.

Sulla scia di tali indicazioni, il governo statunitense ha veicolato grandi risorse economiche nella National Robotics Initiative 2.0, proposta dalla National Science Foundation in collaborazione con la NASA, al fine di supportare la ricerca nello sviluppo e nell’utilizzo del c.d “robot collaborativo”[53]. Il progetto, la cui data di ultima sottomissione per le proposte risulta scaduta nel febbraio del 2020, mirava a ricevere proposte dalla società civile – con esclusivo riferimento agli istituti di educazione superiori ed alle organizzazioni ed enti no-profit, su quattro settori di ricerca principali, tra cui quello dell’impatto sociale e, di conseguenza, della sicurezza, nonché dei profili etici e legali dell’utilizzo dei cd “robot collaborativi”.

L’amministrazione Trump, succeduta a quella Obama, ha proseguito la linea d’interventi legislativi in materia di Intelligenza artificiale e, nel febbraio del 2019, ha emanato un Executive Order (EO)[54] volto a promuovere una strategia coordinata a livello federale nel campo dell’Intelligenza artificiale. Gli Stati Uniti con tale atto tentano di allineare la strategia americana nel settore dell’IA a quelle già adottate da alcuni paesi come Giappone, Svezia e Italia con l’adozione di Libri Bianchi contenenti linee guida specifiche per le future scelte politico-economiche in materia.

Target primario della strategia americana è quello di consolidare la propria leadership nel settore dell’Intelligenza artificiale, conferendo alle agenzie federali il potere di progredire nel campo della ricerca e dello sviluppo. L’Executive Order mira a massimizzare gli investimenti nel settore, mediante l’adozione di standard tecnologici in grado di supportare un utilizzo dell’Intelligenza artificiale corretto e affidabile, che allo stesso tempo non crei nuove barriere e tenti di ridurre quelle esistenti per la sua innovativa applicazione. Nel novembre 2019, la Camera bassa del Congresso degli Stati Uniti ha sottoposto al Senato una proposta di legge[55], che, a dispetto della sua non vincolatività, rappresenta il primo tentativo di introduzione di una legislazione a livello federale, che, come è noto, prevale sulla legislazione statale già esistente[56], la quale aspira a conferire unitarietà a questa materia, almeno nei suoi aspetti fondamentali. Emblematico è il profilo della responsabilità degli automated decision systems, ovvero dei processi computazionali – ivi inclusi quelli che derivano da machine learning, statistiche ed altri processori di dati o tecniche di intelligenza artificiale – in grado di assumere decisioni autonome o di assistere l’uomo nel processo decisionale.

La proposta di legge suggerisce, in particolare, di valutare preventivamente l’impatto che le decisioni automatizzate possono avere sui diritti dei consumatori, tenuto conto di taluni requisiti minimi, quali la descrizione dettagliata del processo decisionale, l’accesso dei consumatori al risultato finale del processo decisionale, con la possibilità di correggere e/o contestare tale risultato, la valutazione dei rischi riguardante la privacy e la sicurezza delle informazioni personali dei consumatori.

Il progetto di legge, pur rappresentando un primo e timido passo verso la concezione di un’Intelligenza artificiale controllata, soggiace a critiche laddove, nel rivolgersi esclusivamente alle grandi imprese, omette di considerare che i sistemi di decisione automatizzati possono ledere la sfera individuale anche nel circuito delle piccole e medie imprese. La scelta, lungi dall’essere addebitabile a negligenza dell’aspirante legislatore, sembrerebbe la necessitata conseguenza della articolazione del modello nord-americano, all’interno del quale i poteri riservati al legislatore federale dalla Costituzione, che è fonte primaria, vanno interpretati in modo restrittivo e sono solo quelli esplicitamente riconosciutigli dall’art. 2, che delimita i confini della legge federale stessa.

Rimane, quindi, nelle mani dei singoli stati federati un’ampia discrezionalità nei più disparati settori giuridici, avendo gli stessi potere legislativo pieno ed illimitato, nel rispetto dei principi fondamentali contenuti nella Costituzione stessa.

Nell’ordinamento americano, in tema di “product liability” la richiesta di risarcimento veniva riconosciuta solamente in presenza dello stato soggettivo della colpa (negligence) e nello specifico caso in cui il diritto di agire fosse “subordinato alla sussistenza di un rapporto contrattuale intercorrente tra la parte danneggiata ed il produttore e/o il venditore[57].

Con il mutare della società, il requisito della colpa lentamente perde la sua incisività fino al punto di essere superato.

Agli inizi degli anni sessanta, nel pieno dello sviluppo industriale e della crescita della produzione a livello nazionale e internazionale, gli Stati Uniti avvertono la necessità di dotarsi di un nuovo sistema di responsabilità, una forma di “modern (or new) product liability”; tale passaggio è segnato da una pronuncia della Suprema Corte della California, con la quale il produttore di un bene difettoso viene dichiarato “strictly liable” per i danni arrecati ai terzi: “in these cases strict liability has usually been based on the theory of an express or implied warranty running from the manufacturer to the plaintiff, the abandonment of the requirement of a contract between them, the recognition that the liability is not assumed by agreement but imposed by law”[58]

Occorre, inoltre, considerare il ruolo nevralgico che, all’interno di questo sistema, assume lo strumento del Restatement[59], che favorisce l’attività legislativa dei singoli stati federati nel segno dell’uniformità di una data materia. In tema di danni provocati da sistemi automatizzati, occorre interrogarsi sulla natura della responsabilità ed in particolare sul criterio di imputazione. A tal fine vengono in soccorso le previsioni del Restatement of Torts[60] e quelle del Consumer Product Safety Act, adottato nel 1972 per disciplinare la materia della sicurezza dei prodotti difettosi: il primo, come è noto, legato ad una responsabilità per colpa; il secondo invece ad una responsabilità di tipo oggettivo (cd. strict liability[61]), laddove alla “vittima” si richiede di provare esclusivamente il danno subito e la violazione volontaria di una norma dello United States Code[62], ovvero di uno standard di condotta stabilito dalla Commissione. Il case law in materia di sistemi di IA denota la propensione delle corti nordamericane per la rivalutazione del criterio della colpa, reputato un ottimale strumento di controllo delle tecniche di produzione e di prevenzione di eventi dannosi, anche in considerazione delle ripercussioni sul sistema assicurativo cui conduce la rigida applicazione del principio della strict liability.

Non è un caso che il Restatement of Torts (Second)[63] che propendeva per una responsabilità di tipo oggettivo sia stato del tutto rivisitato; sull’onda del cambiamento si scivola, poi, verso la formulazione del Restatement of Torts (Third) che nel rivalutare il criterio di responsabilità, non più esclusivamente di tipo oggettivo, suddivide il regime di quest’ultima in tre categorie; una, in particolare, concerne le regole generali della responsabilità del produttore e stabilisce che una causa di responsabilità da prodotto deve essere basata sulla prova, alternativa, del difetto di fabbricazione, di progettazione ovvero di inadeguati adempimenti.

In sostanza l’unica forma di responsabilità oggettiva prevista al suo interno è quella che sancisce che “un soggetto è responsabile se il prodotto non è conforme a come era stato ideato anche se è stata utilizzata tutta la diligenza necessaria durante il processo di preparazione e commercializzazione del prodotto[64]; di tanto, il produttore di un cd. “prodotto difettoso” non sarà ritenuto responsabile per i danni arrecati al consumatore o ad altri, eccezion fatta per l’ipotesi in cui “il rischio del danno del prodotto fosse prevedibile e dunque avrebbe dovuto essere ridotto o eliminato mediante l’adozione di un progetto alternativo ragionevole, l’omissione del quale rende il prodotto non ragionevolmente sicuro”[65].

Emblematico il caso che ha visto coinvolto un paziente e la Intuitive Surgical Inc., società specializzata nella produzione di robot chirurgici, il quale lamentando un danno permanente dovuto al malfunzionamento di un robot durante l’operazione, avanzava una richiesta di risarcimento per responsabilità da prodotto difettoso[66].

La Corte, pur riconoscendo l’esistenza del danno, negò il risarcimento al paziente poiché egli non riuscì a provare la causa diretta tra il difetto nel sistema del robot ed il danno subito[67].

Come in Europa anche in America le ipotesi dei danni causati da una azione od omissione di un dispositivo/macchina, sia esso un articolato e complesso sistema di Intelligenza artificiale o un più basilare bene di consumo, vanno ricomprese nella disciplina generale dei danni da prodotto difettoso nonostante le difficoltà che l’applicazione della product liability law possa incontrare rispetto alla prova del nesso causale, che spetta sempre al danneggiato.

 Volume consigliato:

Giusto processo e intelligenza artificiale

Giusto processo e intelligenza artificiale

Claudio Castelli - Daniela Piana, 2019, Maggioli Editore

Il volume coniuga l’analisi normativa e l’analisi funzionale della trasformazione indotta dalla tecnologia, verificando la possibilità che la giustizia sia amministrata con l’ausilio di dispositivi computazionali automatizzati, quali gli algoritmi. Si parla dunque di ricerca e sviluppo...



[1] S. RUSSELL, P. NORVIG, Artificial intelligence: a modern approach, New Jersey, Pearson Education, 2010, III^ ed.

[2] A.B. SUMAN, Intelligenza artificiale e soggettività giuridica: quali diritti (e doveri) dei robot, in Diritto ed Intelligenza artificiale, a cura di G. ALPA, Pacini Giuridica, 2020, 254 e ss..

[3] Cfr. S. WEIDMAN, Deep learning. Dalle basi alle architetture avanzate con Python, Tecniche Nuove, 2020, Cap. III; R. MARMO, Algoritmi per l’intelligenza artificiale. Progettazione dell’algoritmo, dati e machine learning, neural network, deep learning, HOEPLI, 2020, Cap. VIII.

[4] P. MELLO, Intelligenza Artificiale, in Documentazione Interdisciplinare di Scienza & Fede, 2002; l’autrice fa riferimento ad esempio, alle operazioni matematiche svolte con l’abaco, strumento inventato, probabilmente dai cinesi intorno al 5000 a.c., ma anche al primordiale meccanismo di controllo automatico realizzato sempre dai cinesi volto a regolare il livello dell’acqua nelle risaie attraverso un galleggiante che muoveva una paratoia, la quale lasciava defluire l’acqua in caso di eccessivo innalzamento del livello di quest’ultima.

[5] Tipologia di calcolo logico del tutto analogo alla logica dei circuiti binari dei moderni computer, sviluppata dal matematico inglese George Boole nel 1847 all’University College e pubblicata nel suo libro “The Mathematical Analysis of Logic”, che oggi va sotto il nome di logica o “aritmetica booleana in tema si veda G. BOOLE, L’analisi matematica della logica, Bollati Boringhieri, 1993.

[6] W.S. McCULLOCH, W. PITTS, A logical calculus of the ideas immanent in nervous activity, in Bulletin of Mathematical Biophysics, 5/1943, 15–133.

[7] La legge di Hebb sostiene che l’attivazione simultanea di due neuroni o di gruppi di neuroni produce un rafforzamento permanente delle connessioni sinaptiche, in breve “What fires together, wires together” in tema si veda P.DE PINTO, F.E. LAURIA, M. SETTE, On the hebb rule and unlimited precision arithmetic in a mc culloch and pitts network, Rolf Eckmiller Advanced Neural Computers, 1990, 121-128.

[8] Alan M. Turing, Computing machinery and intelligence, in Mind, 59, 1950, 433-460.

[9] Documento informale di 17 pagine redatto nell’agosto del 1955 da John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon, che  introduce per la prima volta il termine di intelligenza artificiale, che motiva la necessità della conferenza nei seguenti termini: «Lo studio procederà sulla base della congettura per cui, in linea di principio, ogni aspetto dell’apprendimento o una qualsiasi altra caratteristica dell’intelligenza possano essere descritte così precisamente da poter costruire una macchina che le simuli».

[10] V. SABADIN, Deep Blue vs. Kasparov scacco matto all’intelligenza umana, in https: //www.lastampa.it/cultura/2017/09/13/news/deep-blue-vs-kasparov-scacco-matto-all-intelligenza-umana.

[11] J. BUYERS, Artificial Intelligence. The Practical Legal Issues, Law Brief Publishing, 2018.

[12] B. GOERTZEL, C. PENNACHIN, Artificial General Intelligence, Springer, 2007.

[13] Per questi rilievi cfr. National Security Commission on Artificial Intelligence, Interim Report, Appendix I: Technical Discussion: What is AI?, November 2019.

[14] In senso tecnico, la caratteristica essenziale di un modello deep learning è il  “deep network”, o “multilayer perceptron (MLP)”, ossia una funzione matematica complessa, composta da una serie di funzioni piu semplici, in grado di mappare una serie di input e output. In tema si veda F. CHOLLET, Deep learning con Python. Imparare a implementare algoritmi di apprendimento profondo, Apogeo, 2020.

[15] I DNN rappresentano una particolare rete neuronale che si differenzia dalle altre per l’elevato numero di strati nascosti all’interno di ogni neurone. In tema si veda AA. VV., Artificial Intelligence: Short Histoy, Present Developments, and Future Outlook, Final Report, Project Report, MIT Lincoln Laboratory, 2019.

[16] In senso tecnico essere data-driven significa farsi guidare dai numeri, avere un approccio basato sui dati, per prendere decisioni informate, basate su fatti oggettivi e non su sensazioni personali. In tema si veda F.BRANCALE, Data-driven marketing. Lasciati guidare dai dati e crea strategie vincenti per il tuo business, Flaccovio Dario, 2018, pp. 151 e ss

[17]  In tema cfr. P. R. DAUGHERTY, H. J. WILSON, Human + machine. Ripensare il lavoro nell’età dell’intelligenza artificiale, Guerini Next, 2019; A. F. URICCHIO, G. RICCIO, U. RUFFOLO, Intelligenza Artificiale tra etica e diritti. Prime riflessioni a seguito del libro bianco dell’Unione europea, Cacucci, 2020.

[18] N. BOSTROM, Superintelligence: Paths, Dangers, Strategies, OUP Oxford, 2014.

[19] In tal senso si veda N. BOSTROM, op. ult. Cit.; M. TEGMARK, Vita 3.0. Essere umani nell’era dell’intelligenza artificiale, Cortina Raffaello, 2018; J. BARRAT, La nostra invenzione finale. L’intelligenza artificiale e la fine dell’età dell’uomo, Nutrimenti, 2019.

[20] Cfr. nota 11

[21] Risoluzione 2015/2013 INL del 16/02/2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica; con essa il Parlamento Europeo ha emanato le proprie linee guida per regolare il fenomeno della robotica e le relative norme di diritto civile sulla materia e costituisce uno dei primi interventi normativi sull’Intelligenza Artificiale e, nello specifico, sui profili civilistici della stessa.

[22] 1. Un robot non può recar danno ad un essere umano, né permettere che, a causa della propria negligenza, un essere umano patisca danno. 2. Un robot deve sempre obbedire agli ordini degli esseri umani, a meno che contrastino con la Prima Legge. 3. Un robot deve proteggere la propria esistenza purché questo non contrasti con la Prima o la Seconda Legge. Cfr. I. ASIMOV, Runaround, in Astounding Science-Fiction, Marzo, 1942.

[23] P. COMANDUCCI, Le tre leggi della robotica e l’insegnamento della filosofia del diritto, in Materiali per una storia della cultura giuridica, 2006, 191-198; G. LEMME, Gli smart contracts e le tre leggi della robotica, in Analisi Giuridica dell’Economia, Studi e discussioni sul diritto dell’impresa, 1/2019, 29-152.

[24] Commissione europea, Direzione generale delle Reti di comunicazione, dei contenuti e delle tecnologie, Orientamenti etici per un’IA affidabile, Ufficio delle pubblicazioni, 2019, in  https://data.europa.eu/doi/10.2759/317045.

[25] In tema si veda paragrafo 153 del documento Orientamenti etici per un’IA affidabile: “L’approccio antropocentrico all’IA e volto a garantire che i valori umani rivestano un ruolo centrale nelle modalità di sviluppo, distribuzione, utilizzo e monitoraggio dei sistemi di IA, garantendo il rispetto dei diritti fondamentali, tra cui quelli sanciti nei trattati dell’Unione europea e nella Carta dei diritti fondamentali dell’Unione europea, accomunati dal riferimento a un fondamento condiviso radicato nel rispetto della dignità umana, nei quali l’essere umano gode di uno status morale unico e inalienabile. Ciò implica anche il rispetto dell’ambiente naturale e di altri esseri viventi che fanno parte dell’ecosistema umano e un approccio sostenibile che consenta alle generazioni future di prosperare”, in https://promositalia.camcom.it/kdocs/1984514/ethicsguidelinesfortrustworthyai-itpdf-1.pdf.

[26] Documento elaborato dalla Pontificia Accademia per la Vita in collaborazione con Ibm e Microsoft, volto a sostenere un approccio etico all’Intelligenza Artificiale e promuovere tra organizzazioni, governi e istituzioni un senso di responsabilità condivisa con l’obiettivo di garantire un futuro in cui l’innovazione digitale e il progresso tecnologico siano al servizio del genio e della creatività umana e non la loro graduale sostituzione.

[27] La Conferenza prevedeva tre sezioni Ricerca, Etica e Valori e Problemi di scenario nelle quali sono state oggetto di trattazione svariate tematiche che spaziano da problemi più concreti come la prospettiva di arricchire la prosperità dell’essere umano attraverso l’automazione, la sicurezza e la privacy a problematiche più astratte e futuristiche come quelle inerenti la “super intelligenza artificiale”.

[28] Ente no profit operante nell’area di Boston volto a catalizzare e sostenere la ricerca e le iniziative per salvaguardare la vita e sviluppare visioni ottimistiche del futuro, con un focus particolare sull’intelligenza artificiale. Approfondimenti sulla mission in https://futureoflife.org/.

[29] La “Asilomar Conference on Beneficial AI”, organizzata dal Future of Life Institute, tenutasi dal 5 all’8 gennaio 2017, presso l’Asilomar Conference Grounds in California ha riunito studiosi e ricercatori in economia, diritto, etica e filosofia per affrontare e formulare principi etici in tema di intelligenza artificiale. Il suo esito è stata la creazione di una serie di linee guida per la ricerca sull’IA, i c.d. ventitrè Principi Asilomar; fra i promotori e firmatari di tali principi si possono menzionare il CEO di Tesla, Elon Musk, e l’astrofisico Stephen Hawking, oltre ad altri duemila ricercatori ed esperti di AI e robotica. Di articolare interesse è il ventitreesimo principio che riguarda la Super-Intelligenza Artificiale, il quale recita che esa “dovrebbe essere sviluppata esclusivamente al servizio di ideali etici ampiamente condivisi e a beneficio di tutta l’umanità, anziché di un solo paese o organizzazione” (cf. https://futureoflife.org/ai-principles).

[30] Risoluzione A9 – 0186/2020 del 20/10/2020  recante raccomandazioni alla Commissione concernenti il quadro relativo agli aspetti etici dell’intelligenza artificiale, della robotica e delle tecnologie correlate; Risoluzione A9- 0176/2020 del 20/10/2020 recante disposizioni sui diritti di proprietà intellettuale per lo sviluppo di tecnologie di intelligenza artificiale; Risoluzione A9-0178/2020 del 20/10/2020 recante raccomandazioni alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale.

[31] Risoluzione del Parlamento europeo del 20 gennaio 2021 sull’intelligenza artificiale: questioni relative all’interpretazione e applicazione del diritto internazionale nella misura in cui l’UE è interessata relativamente agli impieghi civili e militari e all’autorità dello Stato al di fuori dell’ambito della giustizia penale (2020/2013(INI)).

[32] Proposta del 21/04/2021 dal titolo “The Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (artificial intelligence act) and amending certain union legislative acts”.

[33]  Recita il primo considerando della proposta “[t]he purpose of this the Regulation is to improve the functioning of the internal market by laying down a uniform legal framework in particular for the development, marketing and use of artificial intelligence in conformity with Union values”

[34]  “Coordinated plan on artificial intelligence 2021 review” del 21/04/2021.

[35] “Regulation of the European Parliament and of the Council on machinery product” del 21/04/2021.

[36] Risoluzione 2015/2013 INL del 16/02/2017, Sez. “Responsabilità”, punto AA.

[37] Risoluzione 2015/2013 INL del 16/02/2017, Sez. “Responsabilità”, punto AB.

[38] Parere del CESE nella 526.ma sessione plenaria del 31/05 e 01/06 del 2017.

[39] In tema cfr U. RUFFOLO, Il problema della “personalità elettronica, in Journal of Ethics and Legal Technologies – Vol. 2, 2020; F. SBARBARO, Algoritmi, intelligenza artificiale e personalità giuridica: prime note sul recente dibattito in tema di autonomous entity, in Il nuovo diritto delle società, 7/2020; G. COMANDE’, Intelligenza artificiale e responsabilità tra liability e accountability. Il carattere trasformativo dell’IA e il problema della responsabilità, in Analisi Giuridica dell’Economia, Fascicolo 1, 2019.

[40] C. SCHMITT, Il nomos della terra, Adelphi, 1991.

[41] Art. 4, Direttiva 85/374/CEE relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati Membri in materia di responsabilità per danno da prodotti difettosi.

[42] Identico regime è previsto dal sistema nordamericano dal Consumer Product Safety Act del 1972.

[43]Responsabilità dell’Intelligenza Artificiale e delle altre tecnologie emergenti”, 2019, Lussemburgo, Gruppo di esperti sulla responsabilità delle nuove tecnologie, Report.

[44] Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo ed al Comitato delle regioni, “L’intelligenza artificiale per l’Europa”, COM(2018).

[45]Creare fiducia nell’Intelligenza artificiale antropocentrica”, COM (2019), Bruxelles, 168 Final.

[46]Libro bianco sull’Intelligenza artificiale – Un approccio europeo all’eccellenza e alla fiducia”, COM (2020), Bruxelles pubblicato il 19/02/2020.

[47] Trattato sul Funzionamento dell’Unione Europea, art. 225: “A maggioranza dei membri che lo compongono, il Parlamento europeo può chiedere alla Commissione di presentare adeguate proposte sulle questioni per le quali reputa necessaria l’elaborazione di un atto dell’Unione ai fini dell’attuazione dei trattati. Se la Commissione non presenta una proposta, essa ne comunica le motivazioni al Parlamento europeo”. L’art. 114 regola la procedura legislativa ordinaria seguita dal Parlamento europeo; inoltre, al para. 3 specifica che: “La Commissione, nelle sue proposte di cui al paragrafo 1 in materia di sanità, sicurezza, protezione dell’ambiente e protezione dei consumatori, si basa su un livello di protezione elevato, tenuto conto, in particolare, degli eventuali nuovi sviluppi fondati su riscontri scientifici. Anche il Parlamento europeo ed il Consiglio, nell’ambito delle rispettive competenze, cercheranno di conseguire tale obiettivo”.

[48] In tema si veda R. SARRACCO, Il futuro della legge di Moore, Apogeo, 2002, 1-3.

[49] Piano “Made in China 2025” proposto dal gabinetto del Premier Li Keqiang nel maggio del 2015, con cui la Cina mira a raggiungere l’indipendenza dai fornitori stranieri di prodotti e servizi in alcuni settori strategici, tra cui quello dell’high tech; il piano identifica l’obiettivo di aumentare il contenuto interno di componenti e materiali di base al 40% entro il

2020 e al 70% entro il 2025.

[50] In particolare il GDPR (General Data Protection Regulation), regolamento europeo che disciplina il modo in cui le aziende e le altre organizzazioni trattano i dati personali; risulta essere il provvedimento più significativo degli ultimi 20 anni in materia di protezione dei dati e ha implicazioni importanti per qualsiasi organizzazione al mondo che si rivolga ai cittadini dell’Unione Europea.

[51] “Richiesta di informazioni: Preparazione per il futuro dell’Intelligenza artificiale”, 2016, Ufficio delle politiche sulla scienza e sulla tecnologia, in https://obamawhitehouse.archives.gov/webform/request-information-preparing-futureartificial- intelligence-0.

[52] Report “Preparing for the future of Artificial Intelligence”, 2016, Ufficio esecutivo del Presidente in collaborazione con il Consiglio Nazionale sulla Scienza e la Tecnologia e la Commissione sulla Tecnologia, consultabile in https://obamawhitehouse.archives.gov/sites/default/files/whitehouse_files/microsites/ostp/NSTC/preparing_for_the_future_of_ai.

[53] Dispositivo/macchina da utilizzare nel compimento del lavoro di gruppo, cooperando con altri robot e con gli esseri umani, per il raggiungimento di uno specifico scopo, sostanzialmente trattasi di un’integrazione senza interruzioni tra la tecnologia e l’essere umano, volta a supportare quest’ultimo in ogni aspetto della sua vita.

[54] Exec. Order No. 13859, “Maintaining American Leadership in Artificial Intelligence”, 84 Fed. Reg. 3967 (Feb. 11, 2019).

[55]Algorithmic Accountability Act of 2019”, H.R.2231, 116° Congresso (2019-2020), Camera dei Rappresentanti.

[56] A riguardo ad esempio molti Stati in America hanno già adottato dei propri impianti regolatori sul settore dei veicoli a guida autonoma, ma non solo.

[57] L. PASSARINI, Responsabilità del produttore per danni da prodotto difettoso: cenni alla normativa in USA e Cina, 2020 in https://giuricivile.it/responsabilita-danni-prodotto-difettoso-usa-cina/.

[58] Supreme Court Of California, 59 Cal. 2d 57; 377 P.2d 897, 1963, in www.newpaltz.edu/~zuckerpr/cases/green1.htm.

[59]  Come è noto, i Restatements svolgono nel modello americano la medesima funzione che nel modello continentale pertiene alle consolidazioni. Trattasi, in particolare, di raccolte ragionate e sistematiche di precedenti giurisprudenziali in date materia (contratti, torts, ecc), che si propongono di conferire uniformità ad una data materia. I Restatements, pur essendo compilazioni private, a cura dell’American Law Institute, e dunque fonti non “ufficiali”, sono circondate di grande autorevolezza e sono costantemente utilizzate dai giuristi. In tema si veda A. SOMMA, Introduzione al diritto comparato, Torino, 2019, 122-126; G.AJANI, D. FRANCAVILLA, B. PASA, Diritto comparato. Lezioni e materiali, Torino, 2018; F. GALGANO, Atlante di diritto privato comparato, 2011, 55 e ss; V. VARANO, V. BARSOTTI, La tradizione giuridica occidentale, Torino, 2014, 366 e ss..

[60] In tema cfr. Op. cit., V. VARANO, V. BARSOTTI, 2014, 366-367.

[61] Per uno sguardo più approfondito sull’istituto della responsabilità civile nei sistemi di common law si veda V. ZENO ZENCOVICH, La responsabilità civile, in G. ALPA, Diritto privato comparato, Istituti e problemi, Laterza, 1999.

[62] Le leggi di natura pubblica (public law) che ovviamente non attengono ai diritti della persona, dei suoi familiari e dei piccoli gruppi, bensì, contengono le regole di funzionamento della comunità e dell’amministrazione pubblica, sono ordinate nel United States Code, un vero e proprio testo unico generale di tutte le leggi pubbliche federali, diviso in 52 titoli che per il suo ordine e sistematicità, può ricordare il nostro codice civile ed ha lo scopo è di rendere più semplice e univoca la lettura del “public law”. Ciò viene ottenuto assumendo in modo sistematico a tale codice tutti gli Act (o meglio Statutes) via, via emanati dal Congresso USA con una sua implementazione annuale; si procede, poi, ogni sei anni alla riscrittura completa di tale codice generale ed in caso di contestazioni e/o contenzioso sul testo dello U.S. Code, prevarrà quanto contenuto nello “United States statutes at large”, una sorta di Gazzetta ufficiale curata dal Governo federale, che è la raccolta annuale degli “act” approvati dal Congresso.

[63] Restatement of Torts, Second; esso riassume i principi generali del diritto comune degli Stati Uniti sulla responsabilità civile; in tema L. NAVA, Dalla regola di strict liability in tort all’attuale Restatement (third) of Torts, in Diritto & Diritti, 2002.

[64] Op. cit L. NAVA, 2002.

[65] Op. cit L. NAVA, 2002.

[66] O’Brien vs. Intuitive Surgical, Inc. in https://casetext.com/case/obrien-v-intuitive-surgical.

Diventa autore di Diritto.it

© RIPRODUZIONE RISERVATA


Per la tua pubblicità sui nostri Media:
maggioliadv@maggioli.it  |  www.maggioliadv.it

Gruppo Maggioli
www.maggioli.it

  • Rimani aggiornato sulle novità del mondo del diritto
  • Leggi i commenti alle ultime sentenze in materia civile, penale, amministrativo
  • Acquista con lo sconto le novità editoriali – ebook, libri e corsi di formazione

Rimani sempre aggiornato iscrivendoti alle nostre newsletter!

Iscriviti alla newsletter di Diritto.it e