La transizione digitale della pubblica Amministrazione

di Pietro Cucumile

Sommario

La transizione digitale della pubblica Amministrazione. 1

Abstact. 1

  1. La definizione delle linee evolutive della digitalizzazione. 1
  2. Il processo di adeguamento nel contesto nazionale e nello scenario europeo. 2
  3. Sulla data economy e sul Piano triennale per l’informatica. 4
  4. Le tecnologie e i processi digitali. 7
  5. L’Open source nella legge Italiana. 9
  6. Sull’intelligenza artificiale. 9
  7. Su Blockchain e sicurezza. 15
  8. Sul cloud computing. 16
  9. Le nuove figure professionali 17
  10. L’algor etica. 19
  11. Conclusioni. 19

Sitografia. 22

Bibliografia. 23

 

Abstact.

Il presente lavoro si pone l’obiettivo di affrontare, in maniera trasversale, le tematiche di maggiore interesse ed attualità che riguardano la transizione digitale della pubblica Amministrazione. L’approfondimento è condotto con un taglio che, sebbene entri nel dettaglio e nel merito delle questioni, rimanga nella immediata comprensione di ogni tipo di utenza interessata alla tematica.

 

1. La definizione delle linee evolutive della digitalizzazione.

Da un’Amministrazione guidata dal governo a un’altra user driven cioè incentrata sulle esigenze degli utenti e sulle aspettative dei cittadini: questo è la prima sfida futura che interesserà gli uffici pubblici nel prossimo futuro. Il governo dovrà adottare un approccio all’erogazione dei servizi caratterizzato da una cultura “aperta per difetto” e dalle ambizioni di “digital by design” per fornire ai cittadini e alle imprese il modo di comunicare le loro esigenze e alle Amministrazioni di includerle, per poi essere guidati da esse nello sviluppo di politiche e servizi pubblici.

Un altro sforzo tendenziale sarà il passaggio dal governo come fornitore di servizi al government as platform per la co-creazione del valore pubblico. I governi costruiscono, quindi, ecosistemi a supporto dei funzionari pubblici per progettare politiche efficaci e fornire servizi di qualità. Questo ecosistema consente la collaborazione con e tra cittadini, imprese, società civile e altri soggetti per sfruttare la loro creatività, le loro conoscenze e competenze nell’affrontare le sfide che un paese deve affrontare.

Un altro obiettivo sarà quello di transitare dall’elaborazione di politiche reattive a quelle proattive e alla fornitura di servizi.

Con ciò si vuole dire che i governi che riflettono le prospettate dimensioni possono anticipare e rispondere rapidamente alle esigenze dei loro cittadini prima che venga presentata una richiesta. Essi rilasciano, inoltre, in modo proattivo i dati come aperti piuttosto che rispondere ad una richiesta di accesso alle informazioni del settore pubblico. Un governo trasformato, proattivo che riesce ad affrontare i problemi end to end anziché in modo frammentato e reattivo.

Sotto un’altra prospettiva si ricordi che siamo nell’era della convergenza: è un bisogno culturale e un effetto delle pratiche adottate, oltre che un «dato di fatto» tecnologico.

Siamo, inoltre, nell’era della disuguaglianza: non tutti siamo uguali di fronte alla tecnologia ed alla digitalizzazione: tra “nativi” e “immigrati” dell’era digitale (e partecipativa) esistono attitudini differenti e approcci diversi e di tale stato di fatto occorre tenerne conto.

Il messaggio più innovativo che ne possiamo trarre è che il fattore umano conta più di quello tecnico[1] per cui occorre colmare il gap.

2. Il processo di adeguamento nel contesto nazionale e nello scenario europeo.

Di e-democracy si inizia a parlare dagli anni Ottanta, negli Stati Uniti, per indicare le tecnologie che favoriscono la nascita di istituti di partecipazione dei cittadini, utili all’espansione e reinvenzione della sfera pubblica, uno spazio partecipativo che si nutre di sinergie tra pubblico e privato.

L’e-government rappresenta, invece, l’applicazione delle tecnologie alle transazioni fra cittadini e pubblica Amministrazione allo scopo di renderle più rapide ed efficienti; tale opzione può favorire alcuni aspetti del processo democratico[2] ma la sua origine è da ricercare principalmente negli studi sull’organizzazione e i processi aziendali.

Nel tempo, la dimensione dell’e-democracy ha perso centralità a favore dell’e-government, sia per l’urgenza di ammodernare una pubblica Amministrazione troppo burocratica ed inefficiente, sia per gli insuccessi di alcuni esperimenti nella prima dimensione[3].

Il minimo comune denominatore è la trasparenza, vale a dire rendere disponibili le informazioni di interesse pubblico grazie alle tecnologie telematiche.

Si tratta, comunque, di obiettivi che possono trovare varie declinazioni e diverse combinazioni. Alcuni tra i principali interventi normativi sulla pubblica Amministrazione hanno provato a integrare questi obiettivi: già la Legge 8 giugno 1990, n. 142 e la Legge 7 agosto 1990, n. 241 miravano al miglioramento degli istituti di partecipazione, dell’efficienza e della trasparenza.

Si ricordi, inoltre, che l’art.1 della legge 124 del 2015, rubricato “carta della cittadinanza digitale”, alla lettera b) dispone che occorre “ridefinire e semplificare i procedimenti amministrativi, in relazione  alle esigenze di celerità, certezza dei tempi e trasparenza nei confronti dei cittadini e delle imprese, mediante una disciplina basata sulla loro digitalizzazione e per la piena realizzazione del principio innanzitutto digitale (digital first), nonché l’organizzazione e le procedure interne a ciascuna amministrazione”. Siffatta norma, che si pone nell’ambito di una generale riforma della pubblica Amministrazione, introduce il noto principio “digital first[4].

Molti passi sono stati compiuti per definire una visione di lungo termine di e-government ma il rischio è, tuttavia, che le iniziative di democrazia elettronica diventino solo accessorie.

Le raccomandazioni, sul punto, sono che l’e-government sia attento a bilanciare servizi telematici e forme di partecipazione elettronica e che l’e-democracy sia presente sin dall’inizio in tutte le strategie di e-government[5]

Ebbene, i pilastri dell’e-government possono essere così riassunti:

  • il riconoscimento digitale del cittadino e delle imprese[6];
  • le tecnologie di front office costituite da molteplici canali di accesso[7];
  • le tecnologie di back office costituite principalmente da banche dati sempre più integrate[8];
  • le tecnologie infrastrutturali che permettano il trasporto in sicurezza dei dati[9].

Sul tema, il Codice per l’amministrazione digitale, D.lgs. 7 marzo 2005, n. 82[10], è lo strumento normativo che impegna la pubblica Amministrazione a uniformarsi a questi pilastri, obbligandole a scambiarsi online i dati relativi alle pratiche dei cittadini, organizzare i propri siti internet garantendo standard minimi, scambiarsi informazioni e documenti attraverso posta elettronica, oltre a dare a cittadini e imprese la possibilità di accedere al procedimento amministrativo attraverso strumenti telematici e a riconoscere valore probatorio al documento informatico.

Per altro verso, lo sviluppo dei servizi digitali usabili è promosso dal Piano triennale per l’Informatica nella pubblica Amministrazione.

A tal proposito, il Codice dell’Amministrazione Digitale (C.A.D.) disciplina “l’open data by default” e l’articolo 52, comma 2, impone la disponibilità dei dati delle pubbliche amministrazioni[11].

Inoltre, le Linee Guida nazionali per la valorizzazione del patrimonio informativo pubblico previste dal comma 2-bis dell’art 50 C.A.D. forniscono indicazioni utili alle Amministrazioni pubbliche impegnate nel processo di gestione dei dati aperti.

Entro il decorso 2020 le pubbliche Amministrazioni e le istituzioni europee avrebbero dovuto essere accessibili, efficienti e inclusive. La trasformazione del governo sarebbe dovuta avvenire e avverrà adottando un approccio innovativo alla progettazione e alla fornitura di servizi internazionali, facile da usare e in grado di soddisfare le esigenze e i requisiti dei cittadini e delle imprese dell’Unione europea.

Le pubbliche Amministrazioni devono sfruttare appieno il nuovo paradigma digitale per semplificare e incoraggiare l’interazione con le parti interessate.

La tecnologia digitale sta cambiando la vita delle persone e, a tal proposito, la strategia digitale dell’Unione europea mira a far funzionare questa trasformazione per le persone e le imprese, contribuendo, al contempo, a raggiungere l’obiettivo di un’Europa climaticamente neutra entro il 2050.

Sul punto, la Commissione europea è determinata a scandire un “decennio digitale” dell’Europa, attraverso il rafforzamento della sua sovranità digitale e la fissazione di standard, piuttosto che seguire quelli degli altri, con un chiaro focus su dati, tecnologia e infrastrutture.

La direttiva sui dati aperti e sul riutilizzo delle informazioni del settore pubblico, nota anche come “direttiva sui dati aperti”[12] è entrata in vigore il 16 luglio 2019. Essa sostituisce la direttiva sull’informazione del settore pubblico, nota anche come “Direttiva PSI”[13] che risale al 2003 ed è stata successivamente modificata dalla direttiva 2013/37/UE[14].

Inoltre, il Decreto Legge 14 dicembre 2018 n° 135[15] apporta consistenti modifiche sulla governance della trasformazione digitale e dei progetti. Infatti, le competenze del Commissario Straordinario vengono trasferite al Presidente del Consiglio, “pagoPA” viene trasferito alla Presidenza del Consiglio e viene creata una nuova società per azioni con lo scopo di industrializzare “pagoPA” sotto la vigilanza della Presidenza del Consiglio dei Ministri. La menzionata società si occuperà di “pagoPA”, “Progetto IO”, Piattaforma Digitale Nazionale Dati e Intelligenza artificiale.

 

3. Sulla data economy e sul Piano triennale per l’informatica.

La limitazione nell’utilizzo dei dati pubblici crea un danno in termini di minore trasparenza e dibattito pubblico, minore impatto sul mercato privato e minori entrate fiscali.

La maggiore disponibilità di dati costituisce, infatti, il motore di crescita di molti prodotti e servizi digitali e si stima che il valore economico diretto e totale delle informazioni del settore pubblico e dei dati provenienti dalle imprese pubbliche passerà dai 52 miliardi di euro nel 2018 a 194 miliardi di euro entro il 2030.

A tal proposito, il Piano Triennale per l’informatica nella pubblica Amministrazione è uno strumento essenziale per promuovere la trasformazione digitale del Paese e, in particolare, quella della pubblica Amministrazione italiana.

Il Piano Triennale 2020-2022 rappresenta la naturale evoluzione dei due Piani precedenti. Laddove la prima edizione poneva l’accento sull’introduzione del modello strategico dell’informatica nella pubblica Amministrazione e la seconda edizione si proponeva di dettagliare l’implementazione del modello, il nuovo Piano si focalizza sulla realizzazione delle azioni previste.

La strategia è volta a:

  • favorire lo sviluppo di una società digitale, dove i servizi mettono al centro i cittadini e le imprese, attraverso la digitalizzazione della pubblica Amministrazione che costituisce il motore di sviluppo per tutto il Paese;
  • promuovere lo sviluppo sostenibile, etico ed inclusivo, attraverso l’innovazione e la digitalizzazione al servizio delle persone, delle comunità e dei territori, nel rispetto della sostenibilità ambientale;
  • contribuire alla diffusione delle nuove tecnologie digitali nel tessuto produttivo italiano, incentivando la standardizzazione, l’innovazione e la sperimentazione nell’ambito dei servizi pubblici.

Pur nella continuità con quello precedente, il Piano Triennale 2020-2022 introduce un’importante innovazione con riferimento ai destinatari degli obiettivi individuati per ciascuna delle tematiche affrontate.  Saranno, infatti, le singole Amministrazioni a dover realizzare le azioni per il raggiungimento degli obiettivi contenuti nel Piano.

Il Piano si caratterizza, inoltre, per un forte accento sulla misurazione dei risultati. La cultura della misurazione e, conseguentemente, della qualità dei dati diventa uno dei motivi portanti di questo approccio.

I principi guida del Piano sono:

  • digital and mobile first per i servizi, che devono essere accessibili in via esclusiva con sistemi di identità digitale definiti dalla normativa, assicurando almeno l’accesso tramite SPID[16];
  • cloud first (cloud come prima opzione): le pubbliche amministrazioni, in fase di definizione di un nuovo progetto e di sviluppo di nuovi servizi, adottano primariamente il paradigma cloud, tenendo conto della necessità di prevenire il rischio di lock-in;
  • servizi inclusivi e accessibili che vengano incontro alle diverse esigenze delle persone e dei singoli territori e siano interoperabili by design in modo da poter funzionare in modalità integrata e senza interruzioni in tutto il mercato unico esponendo le opportune API (application programming interface);
  • sicurezza e privacy by design: i servizi digitali devono essere progettati ed erogati in modo sicuro e garantire la protezione dei dati personali;
  • user-centric, data driven e agile: le amministrazioni sviluppano i servizi digitali, prevedendo modalità agili di miglioramento continuo, partendo dall’esperienza dell’utente, basandosi sulla continua misurazione di prestazioni e utilizzo, oltre a rendere disponibili, a livello transfrontaliero, i servizi pubblici digitali rilevanti secondo il principio transfrontaliero by design;
  • once only: le pubbliche amministrazioni devono evitare di chiedere ai cittadini e alle imprese informazioni già fornite;
  • dati pubblici un bene comune: il patrimonio informativo della pubblica amministrazione è un bene fondamentale per lo sviluppo del Paese e deve essere valorizzato e reso disponibile ai cittadini e alle imprese, in forma aperta e interoperabile;
  • codice aperto: le pubbliche amministrazioni devono prediligere l’utilizzo di software con codice aperto e, nel caso di applicativo sviluppato per loro conto, deve essere reso disponibile il codice sorgente.

Gli obiettivi del Piano sono basati sulle indicazioni che emergono dalla nuova programmazione europea 2021-2027, sui principi dell’eGovernment Action Plan 2016-2020 e sulle azioni previste dalla eGovernment Declaration di Tallinn (2017-2021), i cui indicatori misurano il livello di digitalizzazione in tutta l’Unione europea e rilevano l’effettiva presenza e l’uso dei servizi digitali da parte dei cittadini e imprese[17].

Detto in altri termini, la direzione da seguire è favorire lo sviluppo di una società digitale, dove i servizi mettono al centro i cittadini e le imprese, attraverso la digitalizzazione della pubblica Amministrazione che costituisce il motore di sviluppo per tutto il Paese.

Sul punto, si segnala la rilevanza del Digital Economy Society Index che misura lo stato di avanzamento degli Stati membri dell’Unione europea verso un’economia e una società digitali. È uno strumento per valutare il confronto delle performance digitali tra i Paesi europei, focalizzare le priorità da attuare per ridurre i gap tra i vari Paesi, per convergere progressivamente verso un unico mercato digitale e per verificare lo sviluppo digitale dei Paesi Unione europea nel tempo.

4. Le tecnologie e i processi digitali.

La transizione digitale passa attraverso la cultura dell’innovazione ossia la predisposizione della pubblica

Amministrazione ad utilizzare nuovi approcci e nuove tecnologie offerte dal mercato per rispondere alle sfide della nostra società in campi diversi come la mobilità, la medicina e altro. Per tale motivo, la norma del “decreto Semplificazioni”[18] sul “diritto a innovare” prevede procedure semplificate di cui beneficeranno imprese, start up e centri di ricerca per sperimentare progetti innovativi per lo sviluppo.

La trasformazione digitale è intesa come tutti quei cambiamenti basati su tecnologia digitale, in tutti gli aspetti della società umana, per tutti i domini.

Sotto un altro punto di vista, la trasformazione digitale può essere pensata come il terzo stadio nell’abbracciare le tecnologie digitali: dalla competenza digitale, alla creazione di progetti e servizi digitali, fino alla trasformazione digitale.

Sul punto, stadio della trasformazione significa che l’utilizzo digitale abilita nuovi tipi di innovazione e creatività in un particolare dominio, invece che semplicemente supportare i metodi tradizionali.

Occorre precisare, comunque, che le tecnologie sono solo uno strumento necessario ma non sufficiente per realizzare progetti di reale valore per il cittadino.

La trasformazione digitale non è più un’opzione. È ormai l’imperativo per ogni realtà aziendale grande, media o piccola, sia privata che pubblica. Ogni ente deve essere toccato da questa trasformazione, agendo come protagonista.

Non si tratta soltanto di adottare nuove tecnologie o muoversi sul cloud. La trasformazione digitale è prima di tutto un cambiamento della cultura e del modo di concepire il funzionamento dell’organizzazione.

I limiti sono proprio nella carenza delle competenze, nella resistenza e nella complessità dei processi che devono essere trasformati da “manuali” a “digitali”.

Per sfruttarne pienamente i vantaggi bisogna:

  • costruire nuovi asset e nuove competenze;
  • utilizzare gli asset costruiti, presenti come le piattaforme abilitanti presenti nel menzionato Piano Triennale;
  • costruire o comprare le future capability tenendo conto che l’agilità è fondamentale;
  • trarre vantaggio dai nuovi modelli di innovazione e abbracciare l’innovazione aperta e collaborativa coinvolgendo tutta l’organizzazione, i partner, gli altri enti;
  • puntare su agilità e sull’apprendimento. In un mondo in rapido cambiamento l’agilità è più critica degli esercizi sulle previsioni a lungo termine.

La digital transformation è, quindi, oggi uno dei fattori cui le imprese di tutto il mondo guardano con più interesse per innovare.

Molto spesso questa trasformazione ha un impatto importante in termini di efficacia e comunicazione anche sull’andamento dei processi interni e della team collaboration.

I country manager sono sempre di più “digitale-first”: in qualsiasi campo si tratta di un trend irreversibile. Questo vuol dire che, se non lo si vuole subire, è un trend che va governato e anche cavalcato con vantaggio.

Il digitale sta, poi, cambiando il modo di lavorare in team: si pensi solo a quanti modi si hanno, oggi, per comunicare tra i dipendenti della pubblica Amministrazione[19]. Si pensi a quanto si sono velocizzate le comunicazioni e alla mole di informazioni che muoviamo ogni volta.

Anche la cultura e l’evoluzione della società stanno cambiando la team collaboration. Per fare un esempio, si pensi a tutto il tema agile e come stia dilagando anche in Italia: questo va, di pari passo, con l’evoluzione delle organizzazioni sempre più fluide, sempre più tecnologicamente avanzate e sempre più culture-driven, con livelli elevati di autonomia decisionale sui vari gruppi.

In questo contesto si sono diffuse le tecnologie disruptive ovvero un tipo dirompente che sostituisce una tecnologia consolidata e scuote un mercato attraverso un prodotto innovativo che crea un mercato completamente nuovo[20].

Le tecnologie dirompenti sono dette anche esponenziali quando crescono in capacità e ad una velocità maggiore rispetto alle altre. Queste tecnologie hanno avuto negli ultimi anni un impatto incredibile nella nostra vita e nella nostra società, modificando in maniera profonda il modo in cui si fanno affari, si interagisce e anche il modo in cui si vive e si affrontano le malattie.

Come approccio, è bene sottolineare gli interventi digitali nascono dall’analisi della situazione corrente dell’organizzazione, dai processi e dalla successiva progettazione di un percorso di change management personalizzato, volto al miglioramento delle procedure e dei processi che alimentano le sue attività.

Al riguardo, alcuni punti chiave per il successo sono:

  • il miglioramento continuo. Non è pensabile raggiungere l’eccellenza “al primo colpo”, in una prima stesura del sistema: vanno fissati obiettivi crescenti e, soprattutto, va misurato quanto ci si avvicina al risultato. Inserire alcune metriche nei processi e misurarli è essenziale.
  • La condivisione del risultato. È importante che siano chiari gli obiettivi e si condividano tutti i risultati, dai traguardi più importanti ai momenti più difficili; questo per creare il giusto clima di affiatamento e per arrivare ad avere una cultura ed un’esperienza aziendale condivisa.
  • Lo shared mindset, ovvero il costruire una mentalità condivisa, basata su pratiche comuni condivise nel day-by-day. Per poter arrivare a questo risultato bisogna anche sottolineare che la responsabilità ultima di processi di cambiamento così incisivi appartiene al top management, che deve diventare il primo depositario e promotore di questa nuova mentalità.
  • Una struttura organizzativa fluida. Non più muri tra i team, ma interconnessioni, perché i team devono essere sempre più cross-funzione.

A tal proposito, l’abilitatore tecnologico fa la differenza. È fondamentale “scaricare a terra la tensione” dei processi digitali con i prodotti più adatti. Questo perché si hanno, da un lato, utenti sempre più esigenti e, dall’altro, l’obiettivo di velocizzare e semplificare, non sicuramente appesantire. Per tale motivo, sono strategici tool integrati e intuitivi che non stravolgono il modo di lavorare dei team ma che li aiutino a esprimere al meglio il loro potenziale.

5. L’Open source nella legge Italiana.

Le pubbliche Amministrazioni, in forza degli art. 68 e 69 del CAD, hanno l’obbligo di rendere disponibile il codice sorgente di soluzioni e programmi informatici realizzati, completo della documentazione e rilasciato in repertorio pubblico, sotto licenza aperta, in uso gratuito ad altre pubbliche Amministrazioni o ai soggetti giuridici che intendano adattarli alle proprie esigenze.

Inoltre, le pubbliche Amministrazioni hanno l’obbligo di considerare prima il riuso di software di altri soggetti pubblici o di software open source per soddisfare le proprie esigenze.

L’interazione tra Amministrazione e utenti richiede una rivoluzione parallela nel modo in cui si opera. I reali benefici cominceranno davvero a materializzarsi solo quando si introdurrà un approccio sistemico che non consideri i singoli progetti separatamente ma come parte di un unico programma di trasformazione digitale.

Dal punto di vista tecnologico bisognerebbe, quindi, muovere dai tradizionali progetti “IT silos” a strutture orizzontali, capaci di trascendere i singoli enti della pubblica Amministrazione, ovvero valorizzando piattaforme supportate da dati e informazioni comuni, il cosiddetto “government as a platform”, così come sperimentato anche dal Governo britannico.

6. Sull’intelligenza artificiale.

L’Intelligenza Artificiale (IA), come materia fortemente interdisciplinare, coinvolge diversi ambiti del sapere umano, quali filosofia, matematica, fisica, economia, neuroscienze, psicologia, informatica, cibernetica e linguistica.

In conseguenza di ciò, nel tempo, è stata oggetto di molteplici definizioni a seconda del punto di vista o della sensibilità dell’autore.

Di seguito, vengono riportate alcune di queste, tra le tante che si possono reperire in letteratura:

  • l’automazione di attività che associamo con il pensiero umano, come prendere decisioni, risolvere problemi, imparare[21];
  • lo studio delle facoltà mentali attraverso l’uso di modelli computazionali[22];
  • l’arte di creare macchine che svolgono funzioni che richiedono intelligenza, quando svolte da esseri umani[23];
  • lo studio delle computazioni che rendono possibili percezioni, ragionamenti e azioni[24];
  • il ramo della scienza dei calcolatori che si occupa dell’automazione del comportamento intelligente[25];
  • l’impresa di costruire artefatti intelligenti[26].

Con il progredire della ricerca, le definizioni di cosa sia l’IA sono andate via via affinandosi.

Una definizione più attuale è stata fornita, nel 1996, dallo Strategic Directions in Computing Research AI Working Group[27].

Il settore dell’IA consiste nell’indagine tecnologica ed intellettuale, a lungo termine, che mira al raggiungimento dei seguenti obiettivi scientifici e pratici:

  • la costruzione di macchine intelligenti in grado di operare come l’uomo, oppure di operare in maniera alternativa ed indistinguibile dall’azione umana;
  • la formalizzazione della conoscenza e la meccanizzazione del ragionamento, ovvero automatizzazione del ragionamento, compreso il buon senso, in ogni settore nel quale l’uomo opera;
  • la realizzazione di modelli computazionali per la comprensione della psicologia e del comportamento degli esseri umani, degli animali e degli agenti artificiali;
  • la realizzazione di ambienti nei quali il lavoro prodotto con l’ausilio di artefatti derivanti dall’IA sia altrettanto facile ed utile quanto il lavoro prodotto attraverso l’interazione con persone, capaci, cooperative ed esperte.

I temi aperti dallo studio e dall’applicazione pratica dell’IA hanno portato la stessa presidenza degli U.S.A. ad approfondire l’argomento.

Infatti, nel documento Preparing for the Future of Artificial Intelligence, rilasciato nell’ottobre 2016, non esiste un unico modo di definire cosa effettivamente sia l’IA si sono riscontrate tre differenti prospettive per un’adeguata definizione.

Sul piano puramente formativo i sistemi di IA sono sistemi che pensano e/o che agiscono come le persone, oppure sistemi che pensano e/o che agiscono razionalmente.

Sul piano definito dai venture capital, l’IA viene segmentata in cinque diverse categorie: ragionamento logico, rappresentazione della conoscenza, pianificazione e navigazione, elaborazione del linguaggio naturale, percezione.

Sul piano della ricerca l’IA, invece, è descrivibile secondo cinque differenti comunità ristrette (tribes): simbolisti (che utilizzano il ragionamento logico basato sull’astrazione dei simboli), connessionisti (che sviluppano strutture ispirate al cervello umano), evoluzionisti (che usano metodi di evoluzione darwiniana), bayesiani (che utilizzano di base l’inferenza probabilistica), analogisti (che estrapolano comportamenti partendo da casi simili precedentemente osservati).

Parlando, oggi, di Intelligenza Artificiale[28] è necessaria, da subito, una precisazione.

Esiste una I.A. debole (Narrow AI), ovvero un’intelligenza artificiale che agisce come se pensasse ed avesse una mente.

Esiste, poi, una I.A. forte (General AI, o Artificial General Intelligence), ovvero un’intelligenza artificiale che può pensare ed avere una mente.

La distinzione dei due approcci è basilare ed è estremamente istruttivo segnalare quanto riportato dal documento della presidenza U.S.A., Preparing for the Future of Artificial Intelligence[29].

L’I.A. debole (Narrow AI) riguarda specifiche aree applicative (giochi strategici, traduzione automatica, veicoli auto-guidati, riconoscimento di immagini, ecc.) alla base di trip planning, raccomandazioni (shopping), profilazione, diagnosi mediche, formazione, reputazione e così via.

L’I.A. forte (General AI), nozione futura dell’Intelligenza Artificiale, si riferisce a sistemi in grado di esibire comportamenti intelligenti avanzati come lo sono quelli di una persona, su tutta la gamma dei compiti cognitivi.

Non prima del 2030 e, più probabilmente, solo tra un secolo, sarà possibile vedere le prime soluzioni di I.A. forte[30].

Sul punto, occorre aggiungere che dai fallimenti segue un insegnamento generale ovvero non è corretto ipotizzare che una macchina possa mostrare comportamenti intelligenti avanzati (come quelli di una persona) generalizzando le capacità di risolvere compiti specifici. La sfida consiste nel generalizzare un comportamento intelligente mostrato da una macchina.

A cavallo tra il 1931 ed il 1936 si assiste prima alla scoperta dei limiti dell’Intelligenza Artificiale e poi alla nascita dell’Intelligenza Artificiale come rimasta nota nei decenni successivi.

Apparentemente, sembra una contraddizione ma occorre tener presente che lo sviluppo dell’Intelligenza Artificiale, nella sua accezione costitutiva legata al ragionamento logico, passa attraverso la soluzione dei 23 problemi posti dal matematico Davide Hilbert nel 1900.

I problemi di Hilbert hanno avuto un impatto impressionante nella scienza matematica e, come ricaduta, su una vasta serie di problemi connessi con altre discipline. Nel 1931 Kurt Gödel diede risposta a due di questi problemi (problema della completezza e problema della coerenza) mentre Alan Turing risolvette l’ultimo nel 1936 (problema della decidibilità).

Sebbene nasca prima il limite di un nuovo ramo della scienza – quello segnato, per l’appunto, dall’IA – che il ramo stesso, è bene partire dalla nascita dell’IA, seguendo l’opera di Turing, per poi passare alla rassegna che limita lo sviluppo dell’IA, confinandola nell’ambito della semplice emulazione della mente umana e, dunque, nello sviluppo della odierna IA debole.

La soluzione del problema posto da Hilbert indusse Turing a realizzare una macchina ideale, la cui costruzione non è necessaria. Immaginare che esista, aver pensato le sue caratteristiche, dedotto le sue proprietà, fornisce la soluzione al problema di Hilbert.

Il desiderio di creare artificialmente intelligenze simili a quelle umane è un’idea ricorsiva nella storia.

Aristotele, nel 300 a.C. scriveva: “Se ogni strumento riuscisse a compiere la sua funzione o dietro un comando o prevedendolo in anticipo e, come dicono facciano le statue di Dedalo o i tripodi di Efesto i quali, a sentire il poeta, ‘entran di proprio impulso nel consesso divino’, così anche le spole tessessero da sé e i plettri toccassero la cetra, i capi artigiani non avrebbero davvero bisogno di subordinati, né i padroni di schiavi[31].

Con un salto di un paio di migliaia di anni troviamo Karel Čapek e la sua opera del 1921, “R.U.R. – Rossumovi univerzální roboti”, cioè “I lavoratori universali di Rossum”, romanzo ormai entrato nella leggenda e tra i capostipiti nel filone di certa fantascienza[32].

Il tema ricorrente è l’uomo che genera un essere simile a sé, ovvero si tratta di costruire, artificialmente, la parte nobile dell’uomo, l’intelligenza e le funzioni cognitive[33].

Parallelamente a questa produzione fantastica o fantascientifica, si sviluppa, nel tempo, l’idea di costruire, materialmente, macchine che aiutino l’uomo nello svolgimento delle proprie azioni a cominciare da quelle di più elevato contenuto intellettuale, come il calcolo.

In modo del tutto parallelo alla produzione letteraria ed alchimistica di creare un essere pensante, si è evoluta negli anni l’idea di calcolatore e dei metodi automatici di calcolo.

Tale idea nasce nell’antichità e la sua origine è dovuta all’esigenza degli uomini di essere aiutati da strumenti automatici di calcolo nelle loro attività quotidiane. Per questo motivo, viene riconosciuto l’abaco (IV sec. a.C.) come primo strumento di calcolo assimilabile all’idea di computer.

Nel 1643 Blaise Pascal, filosofo, matematico e fisico francese, a venti anni realizza una celebre macchina per eseguire addizioni e sottrazioni automaticamente, la pascalina, prendendo spunto da una realizzazione del 1623 del tedesco William Schickard.

La pascalina viene resa possibile con la scoperta dei logaritmi[34], strumento per eccellenza per eseguire e semplificare calcoli complessi.

L’apprendimento meccanico delle macchine a regole, offrono il grande vantaggio di produrre regole umanamente comprensibili, ciò facilita la qualità dell’interazione uomo macchina.

Tali sistemi possono essere considerati non come sostitutivi degli scienziati ma come nuovi strumenti che gli scienziati possono usare.

I modelli connessionisti che ne discendono offrono prestazioni migliori dei modelli a regole, in alcuni campi, senza però fornire spiegazioni dei loro ragionamenti impliciti.

A volte, però, non è necessario conoscere le motivazioni esplicite che inducono un sistema a giungere a determinate conclusioni, salvo poi verificarle nella prova pratica[35].

Come si è già accennato, lo sviluppo dell’Intelligenza Artificiale, nella sua accezione costitutiva legata al ragionamento logico, passa attraverso la soluzione dei ventitre problemi posti dal matematico David Hilbert nel 1900[36].

Nel 1931 Kurt Gödel dimostrò che la matematica, in tutte le sue forme e teorie presenti e future, è necessariamente incompleta, ovvero esisteranno sempre enunciati matematici la cui verità non potrà essere stabilita con certezza attraverso una dimostrazione, per quanto complessa essa sia.

In sostanza, ogni sistema formale è incoerente, ovvero non permette di dimostrare frasi false, oppure è incompleto, ovvero non è capace di dimostrare la verità o la falsità di alcuni teoremi.

L’attacco all’IA venne portato da John Lucas e Roger Penrose nel seguente modo: immaginiamo di costruire un algoritmo o una macchina, complicata quanto si vuole e che pretenda di simulare alla perfezione i meccanismi del pensiero umano. Comunque venga realizzata, tale macchina si baserà su un sistema formale e potrebbe essere sottoposta alla procedura di Gödel per trovare una proposizione indecidibile in quel sistema.

La macchina, quindi, si troverebbe nella situazione nella quale non è in grado di stabilire se la proposizione sia vero oppure falsa, mentre una mente umana è in grado di sancirne la verità.

Infatti, la mente umana può produrre motivazioni informali, intuitive, ma pur sempre persuasive, per supporre che la proposizione sia vera, mentre la macchina deve affidarsi obbligatoriamente a dimostrazioni formali, cadendo inevitabilmente nel problema della incompletezza e problema della incoerenza.

Esiste un movimento di pensiero che teorizza come l’invenzione dell’Intelligenza Artificiale, da parte dell’uomo, sia l’ultima invenzione umana, nel senso che l’IA forte, attraverso un’attività ricorsiva di tipo automatico, sarà in grado di sostituire il pensiero umano.

La tesi – dal classico gusto apocalittico – viene proposta da James Barrat nel suo libro del 2013, Our Final Invention: Artificial Intelligence and the End of the Human Era. Il testo non è di tipo fantascientifico, non si inquadra, tanto per capirsi, nella poietica azimoviana e, anzi, viene condivisa da ricercatori, quali Eliezer Yudkowsky e Ray Kurzweil. Evidentemente, l’autore deve aver trovato una risposta valida ai limiti dell’IA imposte dalle tesi di Donald Gillies e, ancor più, da quelle di Kurt Gödel.

Ovviamente, questa tesi appare un po’ estrema; tuttavia, è indispensabile porsi una domanda, tanto più che tale quesito viene sempre più posto con insistenza da diversi soggetti nella società civile: l’Intelligenza Artificiale è etica? La domanda sull’etica coinvolge già oggi ambiti dove IA debole opera con successo.

Un altro problema di base è se una mappa possa essere una copia esatta della realtà.

Le Intelligenze Artificiali lavorano sui dati[37] che sono una descrizione elementare (codificata) di un’entità. In quanto codifica, il dato è una riduzione della realtà analoga a quello che fa una mappa geografica, che è una rappresentazione semplificata dello spazio.

Una mappa di dati, comunque, non può essere una copia esatta della realtà. Per rappresentare la realtà in forma completa sono necessari troppi dati.

L’IA necessariamente utilizza alcuni dati per prendere alcune decisioni sulla base di mappe che sono riduzioni della realtà e mediante strumenti che hanno un fattore interno di fallibilità.

In ultima analisi, l’IA opera in un contesto in cui i dati non descrivono perfettamente la realtà cui essa si colloca, ma una sua rappresentazione approssimata.

La questione etica di base, dunque, si riduce ad accettare o meno l’inevitabile semplificazione.

Persino i sentimenti vengono considerati traducibili in algoritmi.

Gli algoritmi potrebbero sostituire il ruolo che attribuiamo oggi ai sentimenti e acquisire l’autorità di giudicarci nelle decisioni più importanti della nostra vita[38].

7. Su Blockchain e sicurezza.

La blockchain, nella sua concezione originale, prevede un’architettura complessa che fa uso di differenti moduli tra loro integrati per adempiere ai compiti di sicurezza richiesta. Si tratta di una catena di blocchi collegati in sequenza l’uno all’altro da appositi codici crittografici, detti hash.

La soluzione utilizza chiave pubblica e pubblica privata dei soggetti che partecipano alla rete; una parte della soluzione prevede anche che ogni blocco che conserva una transazione debba contenere una risposta a un problema matematico particolare (proof of work). I computer passano l’intero testo di un blocco più un numero casuale a una funzione hash crittografica e ripetono l’operazione fino a quando il risultato della funzione non è inferiore ad un certo valore. L’output di questo processo è completamente imprevedibile, per cui l’unico modo per trovare un particolare valore è quello di eseguire prove casuali. Per le applicazioni bitcoin, utilizzando i nodi della rete, sono necessari, in media, dieci minuti affinché venga determinata una soluzione al problema. La prima entità che risolve il problema trasmette il blocco, ed il suo gruppo di transazioni viene accettato come il successivo nella catena che forma la blockchain.

L’intero impianto conferisce, complessivamente, maggior sicurezza alla soluzione. Tuttavia, il problema evidenziato dalle analisi ad oggi condotte è il seguente: se anziché utilizzare una soluzione blockchain nativa, ritagliata appositamente per bitcoin, si passa ad una soluzione D.L.T. (Distributed Ledger Technology), uno degli elementi basilari dell’intero impianto, il proof of work, verrebbe ad essere sostituito con altri meccanismi (proof of stake, practical byzantine fault tolerance e così via) ove le catene di blocchi non sono pubblici, aperti e decentrati; l’introduzione di questi meccanismi non chiarisce il vantaggio in termini di sicurezza.

Un’architettura blockchain like, cioè blocklist o, semplicemente, distributed ledger ha il vantaggio di rendere disponibile in maniera (quasi) istantanea un registro contabile allineato tra tutti i componenti della rete.

Tuttavia, per raggiungere tale scopo, alcuni nodi della rete[39] devono essere deputati a processi elaborativi previsti dalla fase di proof of work, proof of stake e così via[40].

La scelta tra i due modelli architetturali dipende inevitabilmente dai rispettivi vantaggi che le soluzioni sono in grado di arrecare e non possono prescindere dallo specifico problema applicativo trattato.

Un’architettura blockchain like prevede l’adozione di un processo tra i componenti della rete, dove l’attività di un supervisore o di un mediatore o di un garante è superflua. I processi basati su Distributed Ledger Tecnology sono semplicemente autoconsistenti.

Simili modalità operative, indipendentemente dal particolare processo implementato od implementabile da una tecnologia D.L.T., implica una riscrittura di metodi e flussi consolidati[41].

Dunque, tecnologie che fanno uso di D.L.T. richiedono la valutazione dell’impatto sui processi consolidati e la valutazione delle implicazioni sullo scenario teso a normare gli ambiti di intervento di potenziale interesse; ciò in particolar modo se tali processi si sviluppano in ambienti entro i quali agisce l’Amministrazione pubblica.

Si aggiunga che le Organizzazioni Autonome Decentralizzate (Decentralized Autonomous Organization, D.A.O.) sono organizzazioni dove le attività ed il potere esecutivo sono ottenuti e gestiti attraverso regole codificate, come programmi per computer, all’interno di smart contract.

Ebbene, le transazioni finanziarie delle DAO e le regole del programma sono conservate in una blockchain.

Storicamente, la rete bitcoin è stata considerata la prima vera D.A.O., poiché è stata coordinata esclusivamente attraverso un protocollo di consenso distribuito che chiunque è libero di adottare. Le organizzazioni D.A.O. realizzano una forma organizzativa completamente virtualizzata, ottenuta tramite un software.

8. Sul cloud computing.

Il cloud computing è un modello di infrastrutture informatiche che consente di disporre, tramite internet, di un insieme di risorse di calcolo[42] che possono essere rapidamente erogate come servizio.

Questo modello consente di semplificare drasticamente la gestione dei sistemi informativi, eliminando la gestione delle applicazioni fruibili direttamente online e trasformando le infrastrutture fisiche in servizi virtuali fruibili in base al consumo di risorse.

Rispetto alle tradizionali soluzioni hardware, il modello cloud consente di:

  • usufruire delle applicazioni da qualsiasi dispositivo e in qualsiasi luogo tramite l’accesso internet;
  • avere importanti vantaggi di costo nell’utilizzo del software, in quanto consente di pagare le risorse come servizi in base al consumo (“pay per use”), evitando investimenti iniziali nell’infrastruttura e costi legati alle licenze di utilizzo;
  • ridurre i costi complessivi collegati alla location dei data center (affitti, consumi elettrici, personale non I.C.T.);
  • avere maggiore flessibilità nel provare nuovi servizi o apportare modifiche, con costi accessibili;
  • effettuare in maniera continua gli aggiornamenti dell’infrastruttura e delle applicazioni;
  • ridurre i rischi legati alla gestione della sicurezza, fisica e logica, delle infrastrutture IT infrastructure-as-a-service (IaaS), infrastruttura distribuita come servizio[43], servizi cloud che permettono di allocare risorse infrastrutturali fisiche e virtuali[44] su richiesta mediante interfacce grafiche o mediante con pagamento in base al consumo e immediata scalabilità in caso di necessità.

Il software-as-a-service (SaaS)[45], software come servizio, è un metodo per la distribuzione di applicativi software tramite internet, su richiesta ed in base a una sottoscrizione. I provider di servizi cloud SaaS ospitano e gestiscono il software e l’infrastruttura sottostante e si occupano delle attività di manutenzione, come gli aggiornamenti. Gli utenti si connettono all’applicazione tramite internet e possono accedervi da diverse tipologie di dispositivi (desktop, mobile, tablet).

Una soluzione PaaS[46] è progettata per consentire agli sviluppatori di progettare e creare concentrandosi sulle funzionalità dell’applicativo, lasciando al fornitore del servizio aspetti come la configurazione, la gestione dell’ambiente di esecuzione dell’archiviazione o dei database.

La strategia per il cloud prevista dal Piano Triennale per l’informatica nella pubblica Amministrazione individua tre elementi principali che caratterizzano il percorso di trasformazione:

  • il principio cloud first secondo il quale le pubbliche Amministrazioni devono, in via prioritaria, adottare il paradigma cloud (in particolare, i servizi SaaS) prima di qualsiasi altra opzione tecnologica per la definizione di nuovi progetti e per la progettazione dei nuovi servizi nell’ambito di nuove iniziative da avviare;
  • il modello cloud della pubblica Amministrazione è di tipo strategico e si compone di infrastrutture e servizi qualificati da AgID sulla base di un insieme di requisiti volti a garantire elevati standard di qualità per la pubblica Amministrazione;
  • il programma di abilitazione al cloud (cloud enablement program) è l’insieme di attività, risorse, metodologie da mettere in campo per rendere le pubbliche amministrazioni capaci di migrare e mantenere in efficienza i propri servizi informatici (infrastrutture e applicazioni) all’interno del modello cloud della pubblica Amministrazione.

9. Le nuove figure professionali

Il data scientist è a tutti gli effetti una figura professionale in via di definizione. Alcuni aspetti di questa professione appaiono già molto chiari e definiti, altri sono e saranno un derivato di esperienze e sperimentazioni.

La certezza, oggi più solida, riguarda il fatto che il data scientist non può non avere forti competenze interdisciplinari, deve padroneggiare gli advanced analytics e i big data e, dunque, deve dimostrare solide competenze informatiche; deve, però, saper leggere oltre il dato, individuare i pattern con competenze a livello di statistica e di matematica. Deve, poi, saper dialogare con le aree di interesse e avere un quadro dei modelli di business attuali e potenziali che si “appoggiano” sui dati.

In particolare, questa figura deve possedere una conoscenza approfondita su:

  • informatica, linguaggi di programmazione e strumenti per la gestione dei big data;
  • project management, capacità di gestione dei progetti, di coordinamento e di controllo di tutte le attività finalizzate al raggiungimento di specifici obiettivi;
  • matematica e analisi, capacità di analisi dei dati e di creazione di modelli unitamente alla capacità di interpretazione dei risultati;
  • statistica, da intendere come attività di lavoro sui dati stessi, validazione e data cleaning, data profiling,

utilizzo di strumenti e di linguaggi statistici e conoscenza delle tecniche statistiche come regressione, clustering;

  • business intesa come conoscenza del core business aziendale, dei mercati nei quali opera e delle criticità e opportunità che rappresentano le principali dinamiche dell’impresa;
  • comunicazione e rappresentazione grafica, capacità di rappresentazione dei risultati in forma grafica, per favorire la comprensione e l’interpretazione dei risultati in particolare alle figure di business;
  • capacità di gestire le relazioni (molto importante soprattutto nella logica interdisciplinare del ruolo e delle competenze) e dunque anche di

In sintesi, una pubblica Amministrazione, per acquisire un software, deve effettuare una valutazione comparativa tra le soluzioni disponibili (sviluppo, riuso, open source di terzi, SaaS, licenze, combinazione); se decide di acquisire software in licenza o di svilupparne di nuovo deve motivarlo.

Deve, inoltre, rilasciare in, open source, tutto il software da essa commissionato o sviluppato.

Una licenza aperta garantisce la libertà di eseguire, studiare, modificare, ridistribuire un software senza oneri e senza contattare l’autore. La distribuzione del codice sorgente del software è, poi, un prerequisito per garantire le libertà espresse sopra.

L’adempimento dell’art 69 del C.A.D., relativamente alla scelta della licenza, deve essere effettuato scegliendola tra quelle certificate da Open Source Initiative[47].

Ogni pubblica Amministrazione deve poi scegliere uno strumento di code hosting che abbia i requisiti indicati nelle pertinenti Linee Guida: molti sono gratuiti e alcuni commerciali. Una volta eletto uno strumento per il code hosting, l’Amministrazione deve dare adeguata visibilità a questa nella propria pagina istituzionale, come dettagliato nelle Linee Guida di design per i servizi web della pubblica Amministrazione.

 

10. L’algor etica

Gli algoritmi interpretano il passato tramite i dati, proiettando sul futuro i risultati di una visione spesso ristretta. In questo modo si perpetua uno status quo dannoso a qualsiasi processo di cambiamento, proprio ciò che le tecnologie legate ai Big Data vorrebbero evitare.

Se si vuole che la macchina sia di supporto all’uomo, allora gli algoritmi devono includere valori etici e non solo numerici.

L’illusione è che i problemi siano risolvibili al computer; infatti, se con un computer possiamo trasformare i problemi umani in statistiche, grafici ed equazioni, si crea l’illusione che questi siano risolvibili con le macchine.

L’integrazione tra uomo e macchina genera problemi finora impensati: la macchina si umanizza mentre l’uomo si macchinizza.

L’etica, caratteristica squisitamente umana, ci rende, invece, unici e si fonda sui valori.

Anche la macchina sceglie su alcuni valori ma si tratta dei valori numerici dei dati. Se si vuole che la macchina sia di supporto all’uomo e al bene comune, senza mai sostituirsi all’essere umano, allora gli algoritmi devono includere valori etici e non solo numerici.

L’etica, in altre parole, ha bisogno di contaminare l’informatica.

In sostanza, si ha bisogno di poter indicare i valori etici attraverso i valori numerici che nutrono l’algoritmo; l’etica ha la necessità di contaminare l’informatica. Si sente il bisogno di un’algor-etica, ovvero di un modo che renda computabili le valutazioni di bene e di male. Solo in questo modo si potranno creare macchine che possono farsi strumenti di umanizzazione del mondo. Si avverte la necessità di codificare principi e norme etiche in un linguaggio comprensibile e utilizzabile dalle macchine. Perché quella delle AI sia una rivoluzione che porti a un autentico sviluppo, è tempo di pensare un’algor-etica.

11. Conclusioni.

La trasformazione digitale non è solamente uno shift tecnologico.

Sebbene la definizione sembra limitarne l’ampiezza, la trasformazione digitale abbraccia l’organizzazione in tutti i suoi aspetti principali: competenze digitali, business model, user experience, processi operativi.

Come si è visto, in punto definitorio, la trasformazione digitale si riferisce al cambiamento di business attraverso l’applicazione delle tecnologie digitali, oltre l’ingegnerizzazione dei processi.

La trasformazione digitale richiede, infatti, un cambiamento radicale della strutturazione di un’azienda e dei suoi

processi operativi.

Per una efficace ristrutturazione è necessario partire da tre key point: i reali bisogni dell’utilizzatore (interno o esterno), le potenzialità delle tecnologie digitali, network di stakeholder e risorse.

Trasformazione digitale significa anche change management, design-collaborativo e team working.

L’ampiezza del cambiamento abbraccia l’intera organizzazione ed anche i principali stakeholder, per questo è importante che il cambiamento sia gestito seguendo le best-practice di change management.

È necessario, però, sperimentare il cambiamento in piccole porzioni, formare ed educare tutti gli attori coinvolti per essere pronti ad abbracciare il nuovo sistema, creare e monitorare metriche efficaci per tener traccia del progetto di cambiamento, portare risultati sostenibili nel tempo.

Quando una trasformazione digitale dei processi viene efficacemente applicata, l’intero servizio erogato viene ristrutturato sfruttando le potenzialità insite nelle tecnologie digitali.

Si tratta di ri-creare ex-novo l’intero processo, non ricamare un abito digitale ai processi analogici.

L’obiettivo principe è di ripensare i processi produttivi, tenendo presente un chiaro scopo: efficienza, efficacia, qualità e così via.

Ciò che contraddistingue questo tipo di attività risiede nel fatto che la maggior parte dei sistemi produttivi e lo schema di produzione in sé non vengono cambiati, ma viene ridisegnato il loro utilizzo insieme alle metodologie di lavoro.

Ciò detto, la trasformazione digitale non deve intendersi come un progetto one-off: è un processo continuo in cui competenze e tecnologie continuano ad evolversi.

Le barriere più grandi alla trasformazione digitale non sono né tecnologiche né legali: “good intentions do not work, mechanisms do”, il cambiamento deve essere culturale ma soprattutto operativo.

Occorre poi guardare alla transizione digitale sotto un altro punto di vista. Si pensi, infatti, a una possibile classificazione delle funzioni dei social media[48]:

  • creazione di contenuti generati dall’utenza ai quali altri possono accedere;
  • costruzione di reti dove gli utenti possono scambiare idee, informazioni, prodotti;
  • cooperazione attraverso la creazione di tipo collaborativo di contenuti e l’azione collettiva;
  • condivisione di dati.

Queste funzioni possono essere utilizzate dalle Amministrazioni pubbliche per favorire il coinvolgimento dei cittadini nella creazione e valutazione di contenuti e il problem-solving di tipo cooperativo, processi che agevolano la trasparenza e la governance partecipata[49].

La sfida è trasformare l’Amministrazione in un agente con un principale diffuso (utenza) con il quale interagire in diretta, in un recettore delle istanze dei cittadini, ai quali far seguire azioni e provvedimenti che incontrino la domanda e in un erogatore di informazioni e servizi attraverso la rete.

La sfida è stata raccolta e attuata in maniera più ambiziosa in alcuni paesi[50] e meno in altri[51] secondo che siano stati valorizzati tutti i punti o solo il terzo[52].

Sitografia

https://ec.europa.eu/info/strategy/priorities-2019-2024/

https://ec.europa.eu/info/sites/info/files/communication-shaping-europes-digital-future-feb2020_en_4.pdf

https://docs.italia.it/italia/piano-triennale-ict/pianotriennale-ict-doc/it/2019-2021/02_contesto-normativo-europeo-e-nazionale.html?highlight=tallin#strategie-europee

https://www.agid.gov.it/sites/default/files/repository_files/piano_triennale_per_linformatica_nella_pubblica_amministrazione_2020_2022.pdf

https://www.normattiva.it/atto/caricaDettaglioAtto?atto.dataPubblicazioneGazzetta=2020-07-16&atto.codiceRedazionale=20G00096&tipoDettaglio=originario&qId=&tabID=0.11496899138049588&title=Atto%20originario&bloccoAggiornamentoBreadCrumb=true

https://cloud.italia.it/marketplace/

https://www.agid.gov.it/it/infrastrutture/cloud-pa

https://docs.italia.it/italia/piano-triennale-ict/cloud-docs/it/stabile/cloud-della-pa.html

https://www.agendadigitale.eu/infrastrutture/cloud-first-nelle-pa-italiane-cosi-cambia-tutto-col-piano-triennale-agid/

Bibliografia

Aristotele, La Politica

Barrat J., Our Final Invention: Artificial Intelligence and the End of the Human Era, 2013

Bellman R., An Introduction to Artificial Intelligence: Can Computers Think? Thomson Course Technology 1978

Čapek K., “R.U.R. – Rossumovi univerzální roboti”, 1921

Charniak E., McDermott D., Introduction to Artificial Intelligence, Addison-Wesley 1985

Ginsberg M. L., Dynamic Backtracking; Journal of Artificial Intelligence Research, v. 1, 1993

Kurzweil, R., The Age of Intelligent Machines, MIT Press 1990

Luger G. F., Stubblefield W.A., Artificial Intelligence Structures and Strategies for Complex Problem-solving; Benjamin Cummings Publ. 1993

Winston P. H., Artificial Intelligence, Addison-Wesley, 1992

[1] Amministrare 2.0 contro Tecnologie 3.0

[2] Si pensi al voto elettronico

[3] I forum pubblici online non si traducono automaticamente in una significativa comunicazione fra amministrazione e cittadini; funziona meglio quando comunità o gruppi esistenti dotati di una propria massa critica utilizzano la rete e ne stimolano l’uso a fini politici

[4] In argomento cfr. E. Carloni, Tendenze recenti e nuovi principi della digitalizzazione pubblica, in Giornale Dir. Amm., 2015, 148; B. Carotti, La riforma della pubblica amministrazione- L’amministrazione digitale e la trasparenza amministrativa, in Giornale Dir. Amm., 2015, 621; G. Mattarella, La riforma della pubblica amministrazione- il contesto e gli obiettivi delle riforma, in Giornale Dir. Amm., 2015, 621; G. Vesperini, La riforma della pubblica amministrazione – le norme generali sulla semplificazione, in Giornale Dir. Amm., 2015, 629.

[5] Cfr. Balanced e-Government, Fondazione Bertelsmann, 2002

[6] Firma digitale, carta d’identità elettronica, carta nazionale dei servizi

[7] Siti internet e portali, call centre, sportello unico, tecnologia mobile e così via.

[8] Interoperabilità e cooperazione tra le amministrazioni

[9] Sistema pubblico di connettività che colleghi tutte le amministrazioni

[10] Emerge dal documento Strategia per la crescita digitale 2014-2020 (che si può leggere in www.agid.gov.it)., che il ritardo italiano è un problema culturale fortemente generazionale e geografico: la popolazione italiana, di cui una grande percentuale è anziana, non utilizza i servizi internet e nel Mezzogiorno, i cittadini hanno competenze digitali più carenti rispetto al resto del Paese. Pertanto, la strategia vuole affrontare siffatto deficit, che compromette la competitività del nostro Paese, “sia con opportune politiche di coesione per lo sviluppo delle eskills in grado di livellare le disparità, sia mediante soluzioni come il progressivo switch-off dei tradizionali canali di interlocuzione con la PA, per andare verso un percorso di innovation by law. Un’unica piattaforma che sostituisca l’eterogeneità dell’offerta attuale e sappia integrare i piani verticali avviati (sanità, scuola, giustizia,ecc.) in un’unica piattaforma di accesso, attraverso il Servizio Pubblico d’Identità Digitale e l’anagrafe nazionale della popolazione residente, che abiliterà la profilazione. I luoghi della PA devono cambiare forma, devono essere un luogo di accesso al mondo digitale sia attraverso i servizi che, se offerti solo in modalità online portano inevitabilmente tutta la popolazione ad utilizzare il canale digitale, sia favorendo l’accesso a internet in wifi in tutti gli spazi pubblici, partendo da scuole e ospedali. Una misura capace di trasformare il luogo pubblico in un luogo di facilitazione e accompagnamento al digitale. Una Pubblica amministrazione che diventa accessibile e trasparente, grazie al rilancio degli open data offerti dalla PA ai cittadini e alle imprese, anche come occasione di nuova imprenditoria. La Strategia vuole rappresentare un nuovo modo di concepire il ruolo del pubblico come volano del mercato e al servizio del cittadino, sapendo che il digitale è sinonimo di efficienza, trasparenza, crescita, lotta all’evasione, ma che è soprattutto la porta per il futuro”.

[11] Articolo 50 comma 1 del d.lgs. n° 102/2015 di recepimento della direttiva 2013/37/UE relativa al riutilizzo dell’informazione del settore pubblico

[12] Direttiva UE 2019/1024

[13] Direttiva 2003/98/CE

[14] Il processo di revisione che ha portato all’adozione della direttiva sui dati aperti è stato avviato nel 2017, quando la Commissione europea ha avviato una consultazione pubblica online sulla revisione della direttiva 2013/37/UE, adempiendo l’obbligo di revisione periodica previsto dalla direttiva stessa. Sulla base dei risultati della consultazione, insieme ad un’ampia valutazione della direttiva e ad una valutazione d’ impatto, il 25 aprile 2018 la Commissione europea ha adottato una proposta di revisione della direttiva. Il 22 gennaio 2019 i negoziatori del Parlamento europeo, del Consiglio dell’U.E. e della Commissione hanno raggiunto un accordo sulla revisione proposta dalla Commissione. Una volta adottata nel giugno 2019, la direttiva è stata rinominata direttiva sui dati aperti e sull’informazione del settore pubblico e renderà riutilizzabili i dati del settore pubblico e quelli finanziati con fondi pubblici.

La direttiva PSI si concentra sugli aspetti economici del riutilizzo delle informazioni piuttosto che sull’accesso alle informazioni da parte dei cittadini. Incoraggia gli Stati membri a mettere a disposizione il maggior numero possibile di informazioni per il riutilizzo. Esso riguarda i materiali detenuti da organismi pubblici degli Stati membri, a livello nazionale, regionale e locale, quali ministeri, agenzie statali e comuni, nonché organizzazioni finanziate per lo più da autorità pubbliche o sotto il controllo di enti pubblici (ad es. istituti meteorologici).

A partire dalla sua revisione del 2013, anche i contenuti detenuti da musei, biblioteche e archivi rientrano nell’ambito di applicazione della direttiva.

La direttiva riguarda testi scritti, banche dati, file audio e frammenti di film; non si applica ai settori dell’istruzione, della scienza e della radiodiffusione.

[15] Convertito con modificazioni dalla L. 11 febbraio 2019, n. 12

[16] Decreto del Presidente del Consiglio dei Ministri, 24 ottobre 2014. Definizione delle caratteristiche del sistema pubblico per la gestione dell’identità digitale di cittadini e imprese (S.P.I.D.), nonché dei tempi e delle modalità di adozione del sistema S.P.I.D.spc4 da parte delle pubbliche amministrazioni e delle imprese, pubblicato sulla Gazzetta ufficiale del 9 dicembre 2014, serie generale n. 285.

[17] Il Piano Triennale 2020-2022, licenziato dal Ministro per l’innovazione tecnologica e la digitalizzazione, è stato redatto da un ampio gruppo di lavoro formato da personale di AgID e del Dipartimento per la trasformazione digitale e ha visto il contributo di molte amministrazioni centrali, regioni e città metropolitane. Https://www.agid.gov.it/it/agenzia/piano-triennale

[18] Art. 36 del Decreto Semplificazione e Innovazione digitale (D.L. n. 76 del 2020), che, al Titolo III, contiene le previsioni normative per velocizzare il processo di trasformazione digitale del Paese.  Con la pubblicazione in Gazzetta ufficiale della legge di conversione (Legge n. 120 del 2020) diviene operativo l’insieme di norme che ha il fine di ridisegnare la governance del digitale, accelerare la digitalizzazione dei servizi pubblici e semplificare i rapporti tra cittadini e pubblica amministrazione anche in ottica di diffusione della cultura dell’innovazione e superamento del divario digitale, con un’attenzione anche all’accesso agli strumenti informatici delle persone con disabilità.

[19] Email, chat, PEC, slack, tramite portali di collaborazione, tendenzialmente portato su dispositivi mobile

[20] Clayton M. Christensen, 1997

[21] Bellman R.: An Introduction to Artificial Intelligence: Can Computers Think? Thomson Course Technology 1978

[22] Charniak, E., McDermott, D.: Introduction to Artificial Intelligence; Addison-Wesley 1985

[23] Kurzweil, R.: The Age of Intelligent Machines, MIT Press 1990

[24] Winston P. H.: Artificial Intelligence, Addison-Wesley, 1992

[25] Luger G. F., Stubblefield W.A.: Artificial Intelligence Structures and Strategies for Complex Problem-solving; Benjamin Cummings Publ. 1993

[26] Ginsberg M. L.: Dynamic Backtracking; Journal of Artificial Intelligence Research, v. 1, 1993

[27] ACM Computing Surveys 28(4), December 1996

[28] Termine coniato da John McCarthy nel 1956 durante il leggendario Dartmouth Summer Research Conference on Artificial Intelligence

[29] Ottobre 2016

[30] Herbert Simon, 1957: in pochi anni il computer sarà in grado di battere i campioni di scacchi. Stessa cosa per i traduttori automatici, per il riconoscimento della scrittura olografa e così via

 

[31] Aristotele, La Politica

[32] Da questo lavoro segue Metropolis, il film muto di Fritz Lang del 1927, ispiratore di Balde Runner e Guerre Stellari.

[33] Il Golem, gigante di argilla della tradizione della Qabbalah;

Le Teste parlanti (sufflator) del Medioevo (da Vitruvio a Papa Silvestro II);

l’Homunculus, forma di vita creata attraverso l’alchimia, molto cara a Philippus Aureolus Theophrastus Bombastus von Hohenheim detto Paracelso;

Il Faust di Johann Wolfgang von Goethe;

Il Frankenstein di Mary Shelley;

Gli Androidi del ‘700 di Jacques de Vaucanson e di Pierre e Henri-Louis Jaquet- Droz;

Le Bambole di carne di Ernst Theodor Amadeus Hoffmann.

[34] John Napier – Nepero – nel 1612

[35] Ad esempio, robot in una catena di montaggio

[36] I problemi di Hilbert hanno avuto un impatto impressionante nella scienza matematica e, come ricaduta, su una vasta serie di problemi connessi con altre discipline. Nel 1931 Kurt Gödel diede risposta a due di questi problemi (problema della completezza e problema della coerenza) mentre Alan Turing risolvette l’ultimo nel 1936 (problema della decidibilità).

[37] Da latino datum che significa dono, cosa data

[38] Nella religione dei dati, fede e fiducia potrebbero essere attribuite a un gigante delle tecnologie informative: «Hello Sistema, mi piacciono sia Roberta(o) che Maria(o), partendo da tutto ciò che sai su di me, che mi consigli di fare?»

«Ti conosco da quando sei nato, conosco, tutti i tuoi messaggi, il tuo DNA, i film preferiti, ogni chiamata che hai fatto, la tua storia biometrica, la pressione, il ritmo cardiaco, la gamba che ti sei rotto, le patologie, le tendenze, i vizi (p.e. fumi) e le virtù (p.e. fai volontariato), e ovviamente conosco tutto ciò sia per Roberta(o) che per Maria(o). Dunque ti consiglio di optare per Roberta(o) poiché all’86% ti renderà più soddisfatto nel lungo periodo»

Stessa cosa per scelta scolastica, impiego, hobby, ecc.

I dati, scrutati dai nuovi sacerdoti, i server, ci diranno chi va bene per cosa

[39] Almeno il 50% dei nodi più uno

[40] Inoltre, il progressivo allungamento della Blockchain e/o Blocklist, richiede memoria di massa valutabile oggi, per bitcoin, in circa 10 GB/mese per nodo come limite superiore.

La risorsa di calcolo richiesta, insieme allo spazio di memoria necessario per conservare il registro su ogni nodo, caratterizzano un costo non sottovalutabile e che deve essere confrontato con il costo per la messa in opera di una classica architettura centralizzata supervisionata da una Authority, in grado di fornire soluzioni concettualmente identiche a quanto realizzabile da una Blocklist.

[41] Per esempio, un passaggio di proprietà di una vettura potrebbe vedere l’Ente Motorizzazione come semplice spettatore passivo e non più attivo, essendo definito, magari, uno smart contract in maniera specifica per una simile operazione tra utenti. Però, un tale impatto organizzativo non avverrebbe a costo zero e richiederebbe, in ogni caso, un intervento del legislatore per dettare adeguate norme di comportamento.

[42] Ad esempio reti, server, risorse di archiviazione, applicazioni

[43] Esempi di IaaS sono: Google Compute Engine, AWS EC2, AzureInstance

[44] Server, macchine virtuali, risorse di archiviazione e networking

[45] Esempi di SaaS sono: Microsoft Office 365, tutte le app di Google, iCloud

[46] Esempi di PaaS sono: Google AppEngine, AWS Beanstalk, AzureAppService, Heroku

[47] Un’organizzazione internazionale riconosciuta a livello mondiale per il processo di certificazione delle licenze

[48] Davis e Mintz, 2009

[49] E-government, e-democracy. I più diffusi social media sono:

  • Social network (es: Facebook, LinkedIn);
  • Blog e Microblog (es. Twitter);
  • Comunicazione via web (chat, gruppi);
  • Wiki, la condivisione di documenti ipertestuali generati dagli utenti (es. Wikipedia);
  • Condivisione di immagini (es. Flickr);
  • Condivisione di video (es. YouTube);
  • Condivisione di audio (es. Podcast).

[50] Es. Open Government initiative negli Stati Uniti

[51] Es. Codice per l’Amministrazione digitale in Italia

[52] Erogazione di informazione e servizi in rete

Diventa autore di Diritto.it

© RIPRODUZIONE RISERVATA


Per la tua pubblicità sui nostri Media:
maggioliadv@maggioli.it  |  www.maggioliadv.it

Gruppo Maggioli
www.maggioli.it

Ricevi tutte le novità di Diritto.it attraverso le nostre newsletter. 

Non abbandonare Diritto.it
senza iscriverti alle newsletter!