Bias dell’algoritmo: responsabilità e innovazione nell’AI

Scarica PDF Stampa

Tutti ne parlano, è lei la grande protagonista del 2024 e probabilmente lo sarà anche negli anni a venire: l’intelligenza artificiale, la grande rivoluzione di questo tempo, che ha il potere di ridisegnare il tessuto della società e il nostro futuro.
Ci affascina e ci spaventa, ma sentiamo di non poterne più fare a meno e tuttavia senza una bussola etica che non solo detti regole precise da un punto di vista giuridico, ma altresì che segni un preciso limite sul piano etico (fino a qui, e oltre non si va) il rischio è di navigare in acque turbolente, dove il progresso tecnologico potrebbe superare la nostra capacità di gestirlo responsabilmente. Il Regolamento europeo in via di approvazione segnerà un solido punto di partenza giuridico, ma dagli algoritmi che influenzano le decisioni giudiziarie ai sistemi che filtrano le opportunità di lavoro, l’urgente necessità di affrontare questioni etiche è evidente.

Indice

1. Il bias algoritmico


Il bias algoritmico rappresenta una delle sfide più insidiose nell’attuale panorama tecnologico. Di che cosa si tratta, che cosa intendiamo quando parliamo di bias in intelligenza artificiale? Un bias è una distorsione nel nostro sistema di conoscenza, basata su stereotipi e pregiudizi. Sono errori comuni, in cui tutti noi incappiamo quotidianamente senza rendercene conto, pregiudizi mentali inconsci, distorsioni della realtà che possono influenzare il nostro sistema decisionale in maniera anche significativa, ad esempio molto sfruttati nel marketing o nella diffusione di trend e notizie che diventano virali online.
Questo stesso meccanismo si può verificare nei processi di addestramento degli algoritmi di AI in caso di machine learning, dando luogo pertanto ad algoritmi distorti da queste stesse percezioni stereotipate della realtà. Gli algoritmi, infatti, vengono addestrati con moltissimi esempi di comportamento input-output, in modo che possano generalizzare rispetto agli esempi forniti e sviluppare la capacità di prevedere un output in corrispondenza di un input qualunque.
Per loro natura intrinseca, quindi, questi algoritmi possono portare a decisioni non corrette, che possono discriminare alcuni gruppi rispetto ad altri. Moltissime applicazioni sono affette da bias.
Non si tratta un semplice errore di programmazione, ma piuttosto l’espressione di pregiudizi intrinseci alla società che si infiltrano nel codice degli algoritmi di AI. Questi pregiudizi possono derivare dai dati su cui l’AI viene addestrata, dalle assunzioni fatte dagli sviluppatori, o da una combinazione di entrambi. Esaminiamo più da vicino come questo fenomeno si manifesta e le sue implicazioni.

2. Origini del bias algoritmico


Dati preesistenti: gli algoritmi di apprendimento automatico imparano da grandi set di dati. Se questi dati contengono pregiudizi storici o sociali, l’algoritmo li apprenderà e li replicherà. Ad esempio, se un sistema di AI per la selezione del personale viene addestrato su dati storici in cui le posizioni di leadership sono state prevalentemente occupate da uomini, potrebbe sviluppare una preferenza per i candidati maschi.
Pregiudizi degli sviluppatori: gli sviluppatori possono, involontariamente, incorporare i propri pregiudizi nella progettazione degli algoritmi. Questo può avvenire nella scelta delle variabili da considerare importanti o nella ponderazione di certe caratteristiche rispetto ad altre.
Le conseguenze del bias algoritmico sono vaste e possono influenzare ogni aspetto della società, dagli stereotipi di genere a quelli etnici, fino ad arrivare ai casi più gravi di errori giudiziari (esistono casi documentati in cui sistemi di AI utilizzati per valutare il rischio di recidiva hanno mostrato bias contro minoranze etniche, influenzando le decisioni sui rilasci su cauzione o le sentenze).
Ancora, le decisioni automatizzate rappresentano una delle aree più promettenti ma contemporaneamente problematiche dell’intelligenza artificiale. Quando gli algoritmi vengono utilizzati per prendere decisioni che influenzano aspetti critici della vita delle persone, come l’idoneità al credito o le decisioni giudiziarie, le questioni di equità, trasparenza e giustizia diventano di primaria importanza. Un esempio significativo del potenziale problema rappresentato dalle decisioni automatizzate è stato evidenziato da un’inchiesta di ProPublica (un’organizzazione americana indipendente che si occupa di giornalismo investigativo e di inchieste di interesse pubblico) che ha rivelato come negli, Stati Uniti, gli algoritmi utilizzati per valutare il rischio di recidiva nei condannati potessero manifestare bias razziali. Questi algoritmi, progettati per aiutare i giudici nelle decisioni di cauzione e sentenza, tendevano a sovrastimare il rischio presentato dai detenuti neri rispetto a quelli bianchi. Questa disparità non solo solleva questioni etiche profonde, ma evidenzia anche come il bias nei dati o nelle metodologie algoritmiche possa avere conseguenze reali, spesso devastanti, sulle vite delle persone.

Potrebbero interessarti anche:

3. Verso un’intelligenza artificiale imparziale: strategie di mitigazione


Affrontare il bias algoritmico richiede un approccio sfaccettato e potremmo quasi dire olistico (termine che va molto di moda ultimamente, che non c’entra con il condimento, ma che deriva dal greco holos, che significa “interezza, il tutto” e che indica pertanto un approccio per affrontare un problema nella sua interezza e non solo come composto da singole parti). Innanzi tutto, è opportuno partire da una diversificazione dei set di dati che si utilizzano per addestrare gli algoritmi, in modo da rappresentare campioni il più possibile vasti ed eterogenei, includendo una vasta gamma di prospettive e esperienze.
Inoltre, trasparenza, accountability e formazione continua sull’addestramento per gli sviluppatori e i team dovrebbero essere imperativi in qualsiasi processo di addestramento machine learning, così come l’inclusione di audit indipendenti periodici per testare la funzionalità e l’imparzialità dell’intelligenza artificiale.
Infine, spetterà al legislatore stabilire normative chiare e linee guida etiche per l’uso delle decisioni automatizzate, garantendo che siano impiegate in modo responsabile e giusto.

4. Conclusioni e riflessioni finali


Il cammino verso un’intelligenza artificiale responsabile ci pone di fronte a una serie di sfide complesse che riflettono le profonde questioni etiche, sociali e tecnologiche del nostro tempo. Queste sfide, tuttavia, non sono insormontabili; rappresentano piuttosto opportunità per plasmare un futuro in cui l’intelligenza artificiale si allinea e promuove i valori umani fondamentali, come l’equità, la giustizia e il rispetto della privacy (altra tematica legata all’etica AI di grande attualità).
Gli sforzi intrapresi da aziende leader nel settore tecnologico e dall’Unione Europea evidenziano un impegno crescente verso l’adozione di principi etici che guidano lo sviluppo e l’impiego dell’AI. Questi principi non solo mirano a prevenire danni o abusi potenziali ma anche a garantire che le innovazioni nell’AI contribuiscano positivamente alla società, riducendo le disuguaglianze e promuovendo l’inclusione.
Tuttavia, l’adozione di un’AI eticamente responsabile richiede più di mere dichiarazioni d’intenti o regolamenti. Richiede una collaborazione attiva tra sviluppatori, governi, organizzazioni della società civile e il pubblico per creare un dialogo aperto e sostenere iniziative che promuovano la trasparenza, l’accountability e l’equità. Questo processo include la realizzazione di audit indipendenti, la partecipazione a revisioni etiche e lo sviluppo di tecnologie che siano intrinsecamente progettate per essere imparziali e giuste.
Inoltre, educare e sensibilizzare il pubblico sull’AI e le sue implicazioni etiche gioca un ruolo cruciale nel garantire che le persone non siano solo consumatori passivi di tecnologia ma partecipanti attivi nella definizione del suo impatto sulla società.
Mentre procediamo ulteriormente nell’era dell’intelligenza artificiale, la chiave per il successo non risiede solo nell’innovazione tecnologica ma anche nel nostro impegno collettivo a costruire un futuro in cui l’AI sia uno strumento di progresso equo e responsabile. È attraverso questo impegno condiviso che possiamo sperare di navigare le acque complesse dell’AI, assicurando che le sue vastissime potenzialità siano sfruttate in modo che beneficino l’umanità nel suo complesso, rispettando e promuovendo i diritti e le libertà fondamentali.

Iscriviti alla newsletter
Iscrizione completata

Grazie per esserti iscritto alla newsletter.

Seguici sui social


Vuoi ricevere aggiornamenti costanti?

Salva questa pagina nella tua Area riservata di Diritto.it e riceverai le notifiche per tutte le pubblicazioni in materia.
Inoltre, con le nostre Newsletter riceverai settimanalmente tutte le novità normative e giurisprudenziali!
Iscriviti!

Avv. Luisa Di Giacomo

Scrivi un commento

Accedi per poter inserire un commento