Sulle fisiologiche debolezze degli schemi prototipici del diritto antitrust al cospetto delle rivoluzioni digitali

Scarica PDF Stampa

Prospettive e rischi giuridici sottesi all’utilizzo di strumenti algoritmici da parte dell’agcm.

Sommario: 1. Premessa. Delimitazione del tema di indagine; 2. Lo stato dell’arte: l’assetto regolatorio antitrust al vaglio dei big data; 2.1. Breve studio delle problematiche emerse: vuoti di tutela vs. discriminazione degli outsider innovativi; 3. Verso una nuova idea di public enforcement: l’algoritmo quale strumento di regolazione e vigilanza nelle mani dell’AGCM? Quali i limiti e le conseguenze giuridiche ascrivibili all’automazione dei controlli?; 4. Riferimenti bibliografici.

Volume consigliato

1. Premessa. Delimitazione del tema di indagine.

L’input dell’indagine prospettanda è rintracciabile nelle sfide pioneristiche poste al centro di un costante dibattito condotto nel corso dei tavoli tecnici tra le Istituzioni euro-unitarie[1], tra le Autorità amministrative indipendenti nazionali[2], tra i regolatori dei diversi Stati membri dell’Unione. Nel coacervo di interrogativi ancor oggi inevasi risalta quello riguardante l’effettiva adeguatezza (o meno) del diritto antitrust, per come tradizionalmente concepito e strutturato, a replicare in modo satisfattivo ed esauriente alle implicazioni che promanano – sotto il profilo del corretto dispiegamento pro-concorrenziale dei mercati – dalla diffusione delle intelligenze artificiali. Costituisce un dato pacificamente acquisito quello secondo cui il tratto maggiormente qualificante l’odierna economia di mercato è rappresentato dalla capacità di produrre innovazione, nel quadro della “economia sociale di mercato altamente competitiva”, di cui parla l’art. 3 Tue.  In tale scenario, non a caso, il potere di un’impresa si misura in relazione, non già, alla sua efficienza statica, produttiva ed allocativa, bensì sulla base della sua efficienza dinamica. Del resto, è stato anche convincentemente dimostrato dalla più illuminata letteratura economica che l’odierno assetto mercatuale possiede una connotazione sempre più marcatamente “digitale”; difatti, i suoi principali players (i.e. le imprese e i consumatori) interagiscono ed operano fruendo di rinnovati paradigmi di circolazione ed accesso alla conoscenza, di creazione e redistribuzione della ricchezza: i cc.dd. meta-dati o big data. Mutuando l’espressione saggiamente adoperata da certa dottrina, questi sarebbero definibili come «qualunque aggregazione di dati prodotti, conservati e utilizzati dalle imprese sia direttamente (per assumere decisioni gestionali proprie) sia indirettamente (ponendoli in circolazione), dai quali si possa trarre un valore economico», tramite un processo di analisi basato su algoritmi. Altrettanto granitico è l’approdo secondo cui i sofisticati algoritmi attraverso cui le imprese elaborano l’immensa mole di dati raccolti, allo scopo di orientare le relative strategie di mercato e ottimizzare così i risultati commerciali, consentono loro di conseguire il più delle volte posizioni di equilibrio “collusive”, a scapito di altri operatori che invece non posseggono analoghe capacità di accesso a quelle informazioni digitalizzate o di analisi delle stesse. Per dirla con altre parole, i big data sono suscettivi di costituire, ad un tempo, il veicolo facilitatore del conseguimento di vantaggi competitivi e lo strumento in grado di distorcere le logiche concorrenziali, creando forti disparità tra gli agenti. A ben vedere, si tratterebbe di questioni tramandate da studi lontanissimi, la cui paternità risale già ai profetici maestri Rodotà[3], Frosini[4] e, più di recente, Galgano[5], Irti, Severino[6], precursori di quei dialoghi giuridici sulle fisiologiche debolezze degli schemi prototipici del diritto classico al cospetto delle rivoluzioni digitali. Ciò che invece si ammanta di ineludibili aspetti di novità a proposito dei big data e che, ad oggi, può obiettarsi sia stato un aspetto scarsamente esplorato, in dottrina così come in giurisprudenza, è l’opportunità di ripensare le finalità del diritto antitrust e, corrispondentemente, di rimodulare le funzioni di controllo attribuibili agli organi preposti a correggere eventuali disfunzioni al processo concorrenziale. Tutto ciò proprio in ragione delle crescenti preoccupazioni che il fenomeno descritto ha, da ultimo, suscitato nel panorama del diritto europeo e nazionale, anche in considerazione delle relative proiezioni multisettoriali. Difatti, accanto ai profili concorrenziali stricto sensu considerati, il rinnovato modus operandi attraverso cui le imprese conseguono inedite forme di potere economico, disvela anche una certa contiguità con i piani della tutela della privacy dei fruitori dei dati (ex multis, caso Cambridge Analytica), con la protezione del pluralismo informativo e di altri diritti fondamentali, sino ad intersecare problematicamente la stessa tenuta democratica degli Stati, rendendo ipotizzabile la necessità di un approccio sinergico. Siffatte riflessioni, come anticipato, non possono che calarsi nel contesto giuridico eurounitario, nel cui “patrimonio genetico” sono iscritti obiettivi quali la creazione di un Internal Market autenticamente senza frontiere, la libertà di circolazione transfrontaliera di beni e servizi, il progresso economico e concorrenziale e la tutela dei diritti dell’individuo; al contempo, dette considerazioni impongono di prediligere un angolo prospettico di stampo comparatistico, incentrato sul raffronto con l’ordinamento statunitense, stante la completa eterogeneità del background di regole ivi dettate a tutela della concorrenza rispetto a quelle facenti parte delle architetture ordinamentali europee[7]. Prima di addentrarsi nel merito delle criticità sollevate dall’impiego anticoncorrenziale degli algoritmi, per esigenze di comodità argomentativa, è opportuno premettere che la disamina oggetto delle pagine che seguono si compone di due macro-aree di studio: la prima di esse si propone di sondare l’adeguatezza dell’odierno assetto regolatorio antitrust, e gli obiettivi con lo stesso perseguiti e perseguibili, in futuro, rispetto ai problemi suscitati dall’economia digitalizzata; nella seconda fase, strettamente interconnessa con la prima, si intende vagliare la praticabilità di differenti metodi di public enforcement da parte delle Autorità amministrative indipendenti, al fine di consentire loro di assolvere efficacemente ai propri compiti. In particolare, assume rilievo l’opportunità per l’Autorità antitrust nazionale e per le omologhe Autorità europee di avvalersi, a loro volta, di metodi algoritmici quale strumento di supervisione tempestiva delle dinamiche concorrenziali e, di conseguenza, il quomodo dell’atteggiarsi di tali potenziali strumenti di vigilanza proattiva nonché le possibili conseguenze giuridiche imputabili all’automazione di siffatti controlli. Sulla questione si tornerà, più dettagliatamente, nelle pagine finali.

2. Lo stato dell’arte: l’assetto regolatorio antitrust al vaglio dei big data.

Il caposaldo della riflessione attorno alla prima fase d’analisi fa perno su un dato che sembra chiaramente potersi evincere dalla recente esperienza della Commissione europea, maturata in rapporto di sinergia con le competenti Autorità nazionali degli Stati membri dell’Unione (ANC), che insieme considerati formano la c.d. «rete europea della concorrenza». Come già noto, gli sforzi correttivi di detti organi – la cui giustificazione risiede nella verificazione dei c.d. fallimenti di mercato, che impongono loro di porre argini ai liberi comportamenti degli operatori economici, laddove realizzativi di risultati socialmente indesiderati – si sono appuntati, prevalentemente, su pratiche commerciali dilaganti tra gli operatori digitali. In particolare, la recente casistica riporta la segnalazione di rischi di concentrazioni tra imprese (vicenda Microsoft/Linkedin, Facebook/WhatsApp e, da ultimo, Apple/ Shazam) [8], di abuso di posizione dominante (caso Google Shopping)[9], di frapposizione di barriere all’ingresso del mercato e di condotte escludenti in danno di potenziali nuovi entranti, così come di creazione di accordi di cartello. Tratterebbesi, prima facie, di un agere sussumibile senza difficoltà nel solco delle fattispecie tradizionalmente contestate dalla disciplina antitrust. Tuttavia, a ben guardare, le condotte suesposte – ove costituiscano il risultato o meglio l’output di elaborazioni algoritmiche – assumono connotazioni tali da non essere sempre riconducibili all’interno del perimetro applicativo dell’addentellato normativo a tutela della concorrenza, costituito dal diritto UE (in particolare, il TFUE) e dalle corrispondenti norme del diritto interno (in particolare, gli artt. 2-3 della legge n. 287/90). Il rischio, tutt’altro che remoto, è quello che l’inadeguatezza dell’assetto regolatorio già esistente possa lasciare scoperti pericolosi vuoti di tutela. A ciò si aggiunga, inoltre, che già la sola astratta possibilità che determinate pratiche anticoncorrenziali non vengano perseguite disincentiverebbe le altre imprese ad accedere a tali mercati, a esercitarvi il diritto di stabilimento e ad offrire i relativi beni e servizi, minando, in definitiva, lo stesso obiettivo europeo di realizzare mercati più equi e aperti.

2.1. Breve studio delle problematiche emerse: vuoti di tutela vs. discriminazione degli outsider innovativi.

La più eloquente concretizzazione delle problematiche suesposte si rinviene ponendo mente all’esempio dei meccanismi operativi insiti negli algoritmi di prezzo (c.d. algorithmic pricing), a mezzo dei quali le imprese sono capaci di monitorare le condizioni del mercato e di reagire “in tempo reale” alle variazioni di prezzo praticate dai concorrenti, in maniera molto più semplice e veloce di quanto avveniva nei mercati analogici, con l’intuibile effetto di rendere possibile un allineamento dei prezzi ad un livello sovracompetitivo. Il cuore del problema trae origine dal fatto che tali forme di intelligenza artificiale, il più delle volte, non sono state programmate con l’obiettivo di realizzare intese illecite tra le imprese che se ne avvalgono, quanto piuttosto nell’ottica, del tutto legittima, di reagire nel modo più intelligente possibile ad azioni da parte dei concorrenti e, con ciò, di massimizzarne i profitti, in omaggio al principio della libertà di iniziativa economica, consacrato anche dalla nostra Carta Costituzionale a tenore dell’art. 41. In definitiva, le decisioni che assumono le imprese – per quanto preoccupanti in punto di diritto antitrust – costituiscono il risultato di calcoli asettici e del tutto autonomi (c.d. ‘‘algorithmic accountability’’) rispetto alle istruzioni originariamente impartite a monte dal programmatore. Si ritiene, generalmente, che andrebbero inquadrate in termini di collusione c.d. tacita, perciò fuoriuscendo dall’ambito applicativo delle norme, altrimenti invocabili, nelle tradizionali ipotesi di «pratiche concordate» (art. 101 T.F.U.E.) o di «sfruttamento abusivo di posizione dominante» (art. 102 T.F.U.E.); norme, queste, intese a proteggere i consumatori e le imprese da strategie commerciali volte a mantenere i prezzi di beni e servizi artificialmente elevati e a consentire loro di godere di una più ampia scelta degli strumenti innovativi. Esigenze di completezza argomentativa certamente non consentono di trascurare l’approccio privilegiato in via pretoria e proteso a contrastare l’allargamento delle zone di immunità di cui i big data beneficerebbero rispetto alla normativa antitrust. Tali impostazioni si sono concentrate prevalentemente sull’assunto della irrilevanza dell’elemento psicologico (rectius, della sua assenza), atteso che la responsabilità ex artt. 101-102 TFUE ha natura quasi oggettiva[10] (cfr. CGUE, T-Mobile Netherlands[11]), ovvero sull’opportunità di adattare le soluzioni coniate dalla giurisprudenza in tema di responsabilità per violazione di regole concorrenziali nei gruppi di imprese (c.d. parental liability) agli illeciti algoritmici (rinviando a CGUE, Akzo Nobel NV/Commissione[12]). Tuttavia, la carenza di decise risposte antitrust e la precarietà delle conclusioni raggiunte, nel giugno del 2018, hanno imposto alle Autorità di settore, francese e tedesca (l’Autorité de la Concurrence e del Bundeskartellamt), di approfondire, attraverso un progetto congiunto, lo studio degli effetti anticoncorrenziali riconducibili agli algoritmi di prezzo. Un ulteriore esempio dell’obsolescenza regolatoria della normativa antitrust è limpidamente offerto dal noto caso Uber, intriso di significative ricadute giurisprudenziali non soltanto in relazione ai temi della concorrenza e della tutela dei consumatori (riguardo la qualità dei servizi offerti), ma anche a proposito della questione prettamente civilistica involgente la responsabilità da inadempimento e per danni a persone o cose. Al riguardo i giudici nazionali hanno pressoché concordemente qualificato gli accorgimenti e le capacità tecnologiche utilizzate dalle società gestrici della piattaforma digitale in questione come non ripetibili, né altrimenti fruibili, da parte dei tradizionali agenti nel settore dei trasporti e, perciò, tali da configurare atti di concorrenza sleale, in spregio al divieto di cui all’art. 2598 co. 3 c.c. L’esperienza del software in parola ha testimoniato come l’attuale “campo di gioco” – entro le cui regole concorrono i vari operatori – risulta oggi costruito in modo tale che se, per un verso, una valutazione in termini di non illiceità dell’impiego di algoritmi, quand’anche sia stata accertata una distorsione della concorrenza, rischierebbe di svilire le funzioni e l’efficacia stessa del diritto antitrust, per un altro, assoggettare in ogni caso a sanzione gli agenti che – ricorrendo alle nuove tecnologie – si avvantaggino dei corrispondenti effetti anticoncorrenziali, recherebbe con sé l’effetto non soltanto di neutralizzare i numerosi vantaggi connessi in re ipsa alle intelligenze artificiali, ma anche di minare la stessa struttura concorrenziale del mercato. In altri termini, in quanto il vigente assetto regolatorio è stato costruito in funzione delle esigenze sottese alle conoscenze tecniche antecedenti l’innovazione, è chiaro che possa rivelarsi inadeguato rispetto ai settori di mercato (nell’ultimo esempio riportato, quello della mobilità non di linea, taxi e ncc) attraversati da dirompenti fenomeni di innovazione tecnologica o, in alternativa, sfociare in esiti iniqui per gli «outsider innovativi»  (per usare una dicotomia cara agli economisti).

3. Verso una nuova idea di public enforcement: l’algoritmo quale strumento di regolazione e vigilanza nelle mani dell’AGCM? Quali i limiti e le conseguenze giuridiche ascrivibili all’automazione dei controlli?

Gli scenari aperti dai mercati digitali e la comprovata crisi della normativa antitrust pongono l’imperativo di ricercare nuovi equilibri tra le contrapposte istanze rappresentate dal pericolo di frenare i processi innovativi e dal rischio di under-enforcement. La questione si polarizza principalmente attorno ai mercati di per sé scarsamente contendibili in quanto governati da piattaforme digitali, che costituiscono indubbiamente la rappresentazione più emblematica del consolidarsi di posizioni di potere di mercato attraverso processi di crescita interna ed esterna. Cionondimeno, analoghi vantaggi competitivi, distorsivi della concorrenza, sono registrabili, come visto, anche in rapporto ai settori tradizionali, laddove caratterizzati da rilevanti asimmetrie informative determinate dalle nuove tecnologie ed esposti al rischio di una rapida obsolescenza regolatoria. L’uso capillare degli algoritmi – che non conoscono confini merceologici né geografici – impone certamente agli interpreti di riconsiderare criticamente l’infrastruttura dei mercati, tanto da aver indotto taluni di essi a dubitare del tradizionale modello basato sul prezzo[13], che «semplicemente non esiste(rebbe)» più, in considerazione della dimensione algoritmica (e quindi automatica) di fissazione dello stesso. Ciò varrebbe tanto più sul versante delle grandi piattaforme digitali, in cui il rapporto tra fornitore del servizio e utenti non prevede una transazione economica ma, piuttosto, una sorta di «baratto» con i dati personali di questi ultimi. Partendo da tali premesse, lo snodo centrale da approfondire riguarda l’improcratinabile e necessitata “riforma” delle modalità e dello strumentario di public enforcement a disposizione delle Autorità indipendenti. È del tutto ragionevole ritenere che la delimitazione dei compiti di vigilanza e degli spazi di intervento deferibili in capo all’AGCM saranno inevitabilmente condizionati dalla latitudine degli obiettivi che si intenderà perseguire attraverso la tutela antitrust[14]. In proposito, vengono in evidenza «compartimenti stagni nell’applicazione del diritto della concorrenza», che potrebbero condurre a veri e propri conflitti tra le autorità. Così, ad esempio, laddove la stessa tutela fosse concepita nella sua accezione soggettiva, quale libertà del singolo (individuo o impresa) di accedere e di operare nei mercati, si finirebbe per rendere la protezione dei dati personali uno strumento del diritto antitrust (c.d. consumer welfare)[15]. Viceversa, seguendo i fautori dell’area più conservatrice della dottrina che intende preservare le funzioni dell’antitrust, si esclude la possibilità che la tutela della concorrenza sia dismessa dall’obiettivo autentico di preservare un ambiente concorrenziale e contendibile e che venga deviata, perciò, verso un ulteriore risultato specifico (i.e. migliore efficienza allocativa e, in particolar modo, un miglior benessere del consumatore). Infatti, il pericolo paventato dalla tesi restrittiva in parola sarebbe quello di qualificare come lecite quelle condotte che, seppur in grado di alterare il processo concorrenziale, generano efficienze tali da bilanciare le perdite subite dai consumatori. Sempre in senso prospettico-costruttivo, non è mancata una linea di pensiero più progressista (è il caso della dottrina americana del c.d. hipster antitrust), che percepisce la concentrazione del potere di mercato in capo ad alcune grandi imprese nel contesto dei nuovi mercati digitali non solo come foriera di per sé di distorsioni concorrenziali, ma anche come minaccia per l’esercizio del potere politico, per gli equilibri e la tenuta della democrazia americana e, prima ancora, come fonte di diseguaglianze sociali (obiettivi non economici, c.d. di public policy)[16]. In questo senso, si ritiene che alla rigida applicazione della disciplina della concorrenza andrebbero affiancate politiche pubbliche «volte ad accompagnare l’uscita dal mercato delle imprese meno efficienti, senza che ciò determini traumi sproporzionati per le categorie di lavoratori a rischio e alimenti le resistenze politiche e culturali al cambiamento». In ogni caso, se le Autorità antitrust sono oggi chiamate ad una delicata opera di «contestualizzazione delle norme»[17] ed è assegnato loro il compito di garantire la piena esplicazione del contraddittorio economico e dunque la parità delle armi nel mercato, sarebbe interessante esaminare l’opportunità di ampliare il novero degli strumenti a disposizione delle stesse ai fini di valutare ex ante le condotte anti-competitive estendendo l’indagine, in particolare, alla c.d. concorrenza nella innovazione. In tale direzione spinge anche la direttiva (Ue) n. 1/2019 (ECN+), del Parlamento europeo e del Consiglio, attraverso una maggiore uniformazione del panorama concorrenziale eurounitario ed il rafforzamento degli strumenti di repressione a disposizione delle ANC[18]. Ciò che le Istituzioni europee hanno trascurato di considerare, a proposito dell’ampliamento dei poteri d’indagine delle autorità preposte, è la possibilità da parte delle stesse di adoperare algoritmi predittivi, atteso che le indagini conoscitive (congiuntamente realizzate dalle autorità indipendenti) mostrano che ciò che oggi contraddistingue maggiormente il modus operandi delle imprese digitali è l’interesse sempre crescente, dalle stesse manifestato, per l’acquisto di altri operatori  che possiedono un consistente ammontare di dati personali di utenti (caso delle concentrazioni c.d. conglomerali, di cui è stato riportato qualche esempio nelle pagine iniziali). Difatti, per valutare correttamente tali peculiari operazioni economiche, sotto il profilo concorrenziale, non ci si può più limitare all’analisi classica, volta a verificare la mera produzione o distribuzione di prodotti e servizi: occorrerà, invero, spingersi a valutare le stesse potenzialità di tali soggetti nel realizzare illeciti antitrust, che la stessa detenzione di personal dataset può incoraggiare. Del resto, l’esperienza più recente reca evidenza del fatto che, già in ambito amministrativo come in quello penale, i procedimenti sanzionatori sono spesso condotti prescindendo da oggettive inferenze probatorie riguardanti la circolazione e l’utilizzo di informazioni privilegiate, ricorrendosi piuttosto a prove indiziarie. In questi ambiti, il ricorso agli algoritmi potrebbe coadiuvare l’attività di vigilanza e, per quel che interessa maggiormente ai fini della presente disamina, con riferimento alle zone d’ombra lasciate scoperte dal diritto antitrust, consentire di inquadrare più specificamente le condotte anticoncorrenziali poste in essere attraverso l’omogeneizzazione dei dati. In proposito, si potrebbe argomentare altresì che il ricorso a trattamenti algoritmici per finalità di previsione e/o decisione, se ben congegnato, è in grado di apportare notevoli vantaggi in termini di uniformità, affidabilità e sindacabilità delle decisioni stesse, che si ammantano così di un’aura di obiettività. A fortiori, detto ragionamento si dovrebbe attagliare alle istanze di calcolabilità delle relazioni di mercato ed alle stesse funzioni assolte dalle Autorità indipendenti che, come noto, devono improntare la relativa condotta non già al semplice canone dell’imparzialità (proprio di ogni Amministrazione, ex art. 97 Cost.), quanto a quello della neutralità. A ben vedere, però, tali considerazioni non valgono a fugare in toto i rischi[19] che si celano dietro l’utilizzo, sin qui astrattamente ipotizzato, delle tecniche di big data analytics da parte dell’Autorità garante nel settore della concorrenza. Non può escludersi che, nel cennato contesto della concorrenza digitale, l’espletamento in chiave automatizzata delle funzioni tipiche dell’Autorità di settore possa rivelarsi controproducente giacché, ad esempio, suscettivo di condurre a scelte discriminatorie nei confronti degli operatori che ne siano attinti[20] o perché foriero di conseguenze nocive sul piano dell’innovazione tecnologica. Nel panorama europeo, la tematica sinora è stata approfondita unicamente con riguardo alla salvaguardia dei dati personali (cfr. artt. 15-22 del GDPR). Tuttavia, nella prospettiva di promuovere investimenti in strumenti algoritmici nell’ambito della regolazione del mercato dei valori mobiliari si è mossa, di recente, anche la Consob[21]. In definitiva, alla luce di tutte le considerazioni suesposte, resta da dirimere la questione, ad oggi solamente “lambita” dai giuristi (il più delle volte in contesti d’analisi contigui a quello della tutela della concorrenza), del se ed in quale misura gli algoritmi potranno assurgere a strumento di regolazione e vigilanza nelle mani dell’autorità incaricata di presidiare il contraddittorio paritario nel mercato, specie in ambiente digitale, non senza soppesare nel contempo – secondo una logica in termini di costi/ricavi – le insidie (e le incognite) frapposte da tali strumenti matematici.

Volume consigliato

4. Riferimenti bibliografici.

Agcom, Agcm e Garante privacy, Big Data. Linee guida e raccomandazioni di policy. Indagine conoscitiva congiunta, luglio 2019, «https://www.agcm.it/dotcmsdoc/allegati-news/Big_Data_Lineeguida_Raccomandazioni_di_policy.pdf».

ALPA G., Fintech: un laboratorio per i giuristi in Contratto e impresa, n. 2, 2019.

BERNHARDT L. – DEWENTER R., Collusion by code or algorithmic collusion? When pricing algorithms take over, in European Competition Journal, 2020.

Bundeskartellamt, B6-22/16, Facebook Inc. i.a. – The use of abusive business terms pursuant to Section 19 (1) GWB, 6 febbraio 2019. «https://www.bundeskartellamt.de/SharedDocs/Entscheidung/DE/Fallberichte/Missbrauchsaufsicht/2019/B6-22-16.html».

CALVANO E., CALZOLARI G., DENICOLÒ V. et al., Algorithmic Pricing What Implications for Competition Policy?. in Review of Industrial Organ. 55, 155–171, 2019.

CALZOLARI L., La collusione fra algoritmi nell’era dei big data: l’imputabilità alle imprese delle “intese 4.0” ai sensi dell’art. 101 TFUE in Rivista di diritto dei media, n. 3, 2018.

CATALANO F., Diritto alla portabilità dei dati tra interessi individuali e prospettiva concorrenziale in Europa e diritto privato, n. 3, 2019.

COLAPS A., Big Data: Is EU Competition Law Ripe Enough to Meet the Challenge?, consultabile su www.ssrn.com, luglio 2017.

COLOMBO S. – PIGNATARO A., Raccolta e condivisione di big data: quali effetti sulla collusione?, in Mercato Concorrenza Regole, n. 2, 2019.

COMUNICAZIONE DELLA COMMISSIONE AL PARLAMENTO EUROPEO, AL CONSIGLIO, AL COMITATO ECONOMICO E SOCIALE EUROPEO E AL COMITATO DELLE REGIONI, Bruxelles, 8.4.2019, Creare fiducia nell’intelligenza artificiale antropocentrica – COM/2019/168 final, «https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX:52019DC0168».

CONSOB (Gruppo di lavoro), La digitalizzazione della consulenza in materia di investimenti finanziari, in Quaderni FinTech, n. 3, gennaio 2019.

CONSOB, Piano strategico triennale 2019-2021 «http://www.consob.it/documents/46180/46181/ps1921.pdf/3a2f91c1-7541-4c2c-b281-a21854f4e159»

COSTANTINO F., Lampi. Nuove frontiere delle decisioni amministrative tra open e big data in Diritto Amministrativo, n. 4, 2017.

COSTANTINO F., Rischi e opportunità del ricorso delle amministrazioni alle predizioni dei big data in Diritto Pubblico, n. 1, 2019.

CRÉMER J. – DE MONTJOYE Y.A.- SCHWEITZER H., Competition Policy for the Digital Era, Rapporto finale per la Commissione Europea, 2019.

D’ALESSANDRI F., Procedimento amministrativo: l’importanza del ricorso agli algoritmi, in Quotidiano Giuridico, marzo 2020.

DELMASTRO M. – NICITA A., Big data. Come stanno cambiando il nostro mondo, il Mulino, Bologna 2019.

DIRETTIVA (UE) 2019/1 DEL PARLAMENTO EUROPEO E DEL CONSIGLIO, 11.12.2018, «https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32019L0001&from=EN»

FALCE V. – GHIDINI G. – OLIVIERI G., Informazione e big data tra innovazione e concorrenza, Milano, Giuffré, 2018.

FALCE V., FINOCCHIARO G., La digital revolution nel settore finanziario. Una nota di metodo in Analisi Giuridica dell’Economia, n. 1, 2019.

FROSINI V., Attribuzioni delle Autorità e fondamento costituzionale, in www.giustamm.it, gennaio 2012.

GAMBINO A.M. – MANZI M., Intelligenza artificiale e tutela della concorrenza, in Giurisprudenza italiana, 2019.

GAROFOLI R. – FERRARI G., Manuale di diritto amministrativo (parte generale e speciale), Neldiritto, 2019.

GHEZZI F. – BOTTA M., Standard di valutazione, interessi nazionali ed operazioni di concentrazione in Europa e negli Stati membri, tra spinte centrifughe ed effetti di spill-over in Rivista delle società, n. 4, 2018.

GUAN ZHENG, HONG WU, Collusive Algorithms as Mere Tools, Super-tools or Legal Persons, in Journal of Competition Law & Economics, Vol. 15, n. 2-3, 2019, pp. 123–158.

MAGGIOLINO M., I Big Data e il diritto antitrust, Egea, Milano, 2018.

MANNONI S. – STAZI G., Is competition a click away? Sfida al monopolio nell’era digitale, Napoli, Editoriale Scientifica, 2018.

MANZINI P., Algoritmi collusivi e diritto antitrust europeo in Mercato Concorrenza Regole, n. 1, 2019.

MASTRORILLI A., Algoritmo scellerato? in Mercato Concorrenza Regole, n. 2, 2019.

MATTIUZZO M., Algorithms and big data: considerations on algorithmic governance and its consequences for antitrust analysis. Rev. econ. contemp. [online], vol. 23, n. 2, 2019.

MINUTO RIZZO A., I profili antitrust del nuovo web e della nuova economia digitale in il Diritto industriale n. 2, 2019.

O’NEIL C., Weapons of Math Destruction. How Big Data Increases Inequality and Threatens Democracy, Bompiani, Milano, 2017.

OECD, Algorithms and Collusion – Background Note by the Secretariat, giugno 2017 «https://one.oecd.org/document/DAF/COMP(2017)4/en/pdf».

OECD, Algorithms and Collusion – Note from the European Union, giugno 2017 «https://one.oecd.org/document/DAF/COMP/WD(2017)12/en/pdf».

OREFICE M., I big data. Regole e concorrenza in Politica del diritto, n. 4, 2016.

OTTOLIA A., Big data e innovazione computazionale, Torino, Giappichelli ed., 2017.

PATRONI GRIFFI F., La decisione robotica e il giudice amministrativo, in www.giustamm.it, agosto 2018.

PELINO E., Decisioni interamente automatizzate nella P.A.: lecite alla luce del GDPR?, in Quotidiano Giuridico, giugno 2019.

PERRUCCI A., Dai Big Data all’ecosistema digitale. Dinamiche tecnologiche e di mercato e ruolo delle politiche pubbliche in Analisi Giuridica dell’Economia, n. 1, 2019.

PEZZOLI A. – TONAZZI A., Discriminazione e collusione tacita tra lessico, intelligenza artificiale e algoritmi in Analisi Giuridica dell’Economia, n. 1, 2019.

PEZZOLI A., “With a little help from my friends”: quale politica della concorrenza per l’economia digitale?, in Economia Italiana, n. 1, 2019.

PITRUZZELLA G., Presentazione alla Relazione annuale dell’Autorità Garante della Concorrenza e del Mercato del 2017, 2018.

PRETA A. – ZOBOLI L., Intelligenza artificiale ed economia dei dati. Profili regolatori e concorrenziali in tema di accesso e condivisione dei dati in Analisi giuridica dell’economia, n.1, 2019.

RESTA G., Governare l’innovazione tecnologica: decisioni algoritmiche, diritti digitali e principio di uguaglianza in Politica del diritto, 2019.

REZZANI A, Big Data Analytics, Maggioli, Santarcangelo di Romagna, 2017.

SCALZINI S., L’estrazione di dati e di testo per finalità commerciali dai contenuti degli utenti. Algoritmi, proprietà intellettuale e autonomia negoziale in Analisi Giuridica dell’Economia, n. 1, 2019.

SIMONCINI A., Profili costituzionali dell’amministrazione algoritmica in Rivista trimestrale di diritto pubblico, n. 4, 2019.

URSO A., Algoritmi di ricerca e limiti dell’antitrust in Mercato Concorrenza Regole, n. 1, 2013.

VESSIA F., Big data: dai vantaggi competitivi alle pratiche abusive, in AA. VV., Studi per Luigi Carlo Ubertazzi, Giuffré, Milano, 2019.

ZOPPINI A., Il ruolo e le funzioni delle Authorities nel trattamento algoritmico dei dati, su «http://andrea-zoppini.blogspot.com/2019/11/il-ruolo-e-le-funzioni-delle.html?m=0», del 6 novembre 2019.

Note

[1] cfr., tra tutti, in particolare, Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni, Creare fiducia nell’intelligenza artificiale antropocentrica, Bruxelles, 8.4.2019, COM (2019) 168 final.

[2] Si v., da ultimo, Big Data. Linee guida e raccomandazioni di policy. Indagine conoscitiva congiunta di Agcom, Agcm e Garante privacy, luglio 2019 reperibile sul sito web «https://www.agcm.it/dotcmsdoc/allegati-news/Big_Data_Lineeguida_Raccomandazioni_di_policy.pdf».

[3] RODOTA’, Elaboratori elettronici e controllo sociale, Bologna, 1973, rist. inalt., Roma, 2019.

[4] V. FROSINI, Cibernetica: diritto e società, 1968.

[5] GALGANO, Il diritto e le altre arti. Una sfida alla divisione fra culture, Bologna, 2009.

[6] IRTI e SEVERINO, Dialogo tra diritto e tecnica, Roma-Bari, 2001.

[7] cfr. Algorithms and Collusion–Note by the United States, OECD Roundtable on Algorithms and Collusion, 2017, § 6.

[8] Cfr. Commissione Europea (2014; 2016; 2018).

[9] Cfr. Commissione Europea (2018).

[10] tant’è vero che le norme de quibus non contemplano alcun riferimento alla colpa, né tantomeno al grado di diligenza richiesto agli operatori sul mercato.

[11] «l’intenzione delle parti non rappresenta un elemento necessario al fine di determinare la natura restrittiva di una pratica concordata» (§ 27), sul presupposto che il diritto della concorrenza persegue l’obiettivo di preservare la struttura dei mercati e di migliorarne l’efficienza, ma non si occupa di moralità. .

[12] Cfr. CGUE, 10 settembre 2009, C-97/08 P, Akzo Nobel NV/Commissione, § 60, occasione in cui i giudici di Lussemburgo hanno affermato la possibilità di fondare a carico della società capogruppo – in quanto detentrice del 100% del capitale della controllata, qualora quest’ultima si sia resa responsabile di un comportamento illecito – una presunzione semplice riguardo al fatto che la controllante eserciterebbe un’influenza dominante sul comportamento della sua controllata. Quindi la capogruppo, responsabile iuris tantum dell’illecito commesso dalla società minore, avrebbe l’onere di fornire la prova negativa (c.d. prova liberatoria) idonea a dimostrare l’autonomia della sua controllata, desumibile dal fatto che quest’ultima non abbia ricevuto istruzioni dalla prima. Negli stessi termini, un siffatto principio giurisprudenziale è stato traslato nell’ambito degli illeciti ascrivibili all’operato degli algoritmi, ritenendo che – per quanto la decisione collusiva promani dal naturale funzionamento di simili strumenti e che gli stessi non siano stati programmati per violare l’art. 101 TFUE – tuttavia, permane in capo all’impresa il dovere di supervisionarne l’attività, onde prevenire pregiudizi in danno dei consumatori e della concorrenza.

[13] inteso nell’accezione tradizionale di incontro tra domanda spontanea e offerta da parte delle imprese.

[14]A riprova, basti pensare al recente caso Facebook, sull’acquisizione dei dati degli utenti, affrontato dalle ANC di tre Stati europei; la sola Germania, ravvisandovi un abuso di posizione dominante, ha scelto di ricorrere agli strumenti antitrust. Cfr. Bundeskartellamt (2019), mentre l’AGCM ha privilegiato l’applicazione della disciplina a tutela del consumatore.

[15] efficace per l’emersione e la repressione delle più diverse pratiche abusive celate dietro le mentite spoglie della libertà partecipativa della rete e dei social network. In tale accezione la libertà di concorrenza trova collocazione all’interno dell’impianto normativo tedesco, a seguito della recente introduzione della nona novella, c.d. GWB-Novelle; e nelle pronunce dei giudici di Lussemburgo in cui si parla di «prevenire danni al consumatore».

[16] Di particolare interesse si mostrano al riguardo le parole di

[17] cioè, di specificazione dei parametri normativi, cfr. R. Garofoli-G. Ferrari, 2019.

[18] https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32019L0001&from=EN. Tra le molteplici soluzioni dettate dall’intento di potenziare ed efficientare il ruolo delle ANC figurano l’ampliamento dei poteri di indagine (tramite, ad esempio, il riconoscimento di appositi poteri di acquisizione delle informazioni anche al di fuori dei procedimenti istruttori, all’interno di indagini conoscitive o di attività pre-istruttoria o di accertamenti ispettivi con il consenso dei soggetti che vi sono sottoposti) e, del pari, il rafforzamento del potere di irrogare sanzioni (tramite il riconoscimento di poteri supplementari, quale l’irrogazione di ammende a persone fisiche ovvero l’innalzamento del limite edittale dei relativi importi ed il riconoscimento della possibilità di adottare misure cautelari in presenza di un rischio di danno grave ed irreparabile alla concorrenza).

[19] cfr. G. Resta, 2019, che ne evidenzia i limiti con riferimento al diverso caso, di matrice penalistica, del software Compas, in uso nell’ambito di diverse giurisdizioni Usa, ai fini del calcolo del rischio di recidiva e della pericolosità sociale di un soggetto sottoposto a procedimento penale, e quindi della determinazione dell’entità e della tipologia di pena irrogabile.

[20] problema dei c.d. bias, v. in generale sul tema A. Chander, 2017.

[21] cfr. Consob, Piano strategico 2019-2021; Gruppo di lavoro Consob, «La digitalizzazione della consulenza in materia di investimenti finanziari», gennaio 2019.

Dott. Gianpiero Gaudiosi

Scrivi un commento

Accedi per poter inserire un commento