AI recruiting: il tuo futuro lavorativo dipende da te o da un algoritmo?

Il mondo del lavoro cambia. Molte aziende abbandonano il fattore umano e affidano le assunzioni all’AI. Evoluzione o rischio per i candidati?

Scarica PDF Stampa

Negli ultimi anni, l’intelligenza artificiale ha ridefinito le dinamiche del mercato del lavoro, influenzando profondamente i processi di selezione del personale. Se in passato la valutazione di un candidato era affidata interamente a recruiter in carne e ossa, oggi un numero crescente di aziende si affida a sistemi di AI recruiting per selezionare, scremare e persino decidere chi assumere. Secondo un report della Commissione Europea, nel 2024 oltre il 40% delle aziende europee ha adottato strumenti di AI per la selezione del personale[1]. A cosa è dovuta questa scelta? Sicuramente l’innovazione offre vantaggi innegabili: riduzione dei tempi di selezione, valutazioni più rapide e obiettive, costi operativi più bassi. Ma cosa succede quando l’intelligenza artificiale prende il sopravvento? I candidati sono davvero giudicati solo per le loro competenze, o rischiano di essere esclusi da un algoritmo opaco e non verificabile? Il volume “Ai Act – Principi, regole ed applicazioni pratiche del Reg. UE 1689/2024”, disponibile sullo Shop Maggioli e su Amazon, si propone di rispondere proprio a queste sfide, offrendo ai professionisti del diritto un quadro completo e aggiornato delle nuove responsabilità giuridiche legate all’uso dell’Intelligenza Artificiale. Per approfondire il tema, ti consigliamo il Master in Intelligenza Artificiale per imprese, professionisti e avvocati – II edizione.

Indice

1. AI recruiting: il futuro del lavoro?


L’AI recruiting non è un concetto astratto, si basa su machine learning e analisi dei dati, che vengono impiegati in maniera diversa a seconda delle diverse fasi del recruiting. La prima fase è definita job analysis, l’azienda interessata dalla ricerca di nuovo personale si occupa di analizzare la posizione che dovrà essere ricoperta dal candidato ideale, al fine di definire in maniera chiara le competenze richieste, gli obiettivi del ruolo e le responsabilità. Successivamente si procede alla seconda fase di job description, dove l’annuncio di lavoro viene redatto e pubblicato sui vari canali, piattaforme di recruiting e social media aziendali. A questo punto entra in gioco l’AI, difatti l’azienda può ottimizzare la diffusione dell’annuncio, stabilendo target specifici di gruppi professionali in linea con il profilo cercato, che visualizzeranno l’annuncio di lavoro in maniera del tutto causale. Solo in apparenza.
L’azienda tramite l’utilizzo di un sistema di applicant tracking system (ATS), può effettuare una prima scrematura dei CV inoltrati. Questo sistema permette di analizzare migliaia di candidature in pochi secondi, identificando quelle più idonee in base a parole chiave, esperienze pregresse e formazione accademica. Una volta conclusasi la prima scrematura dei candidati, l’AI permette di mettere da parte tutti i test più usati e conosciuti per verificare le competenze tecniche e le soft skilss degli idonei. L’azienda selezionatrice tramite video-interviste dei candidati può ottenere una meticolosa analisi comportamentale: Il software utilizzato è in grado di valutare toni di voce, espressioni facciali e linguaggio del corpo per determinare il livello di affidabilità e compatibilità di un candidato. Al termine l’AI analizza i risultati ottenuti, confrontandoli con profili di successo già presenti in azienda, per identificare i candidati più promettenti. La penultima fase è quella dell’analisi della personalità, attraverso strumenti implementati dall’AI come Pymetrics e HireVue si effettuano test logici e psicometrici per prevedere la futura performance lavorativa di un candidato. In ultimo si passa alla fase di decision-making automatizzato, ovvero si decide chi sarà il candidato selezionato definitivamente senza alcun intervento umano, scartando automaticamente i profili che non raggiungono un determinato punteggio.
Un primo e celebre caso di AI recruiting è quello avvenuto nel 2022 da Amazon[2] che ha utilizzato un software per rendere le proprie assunzioni più veloci ed efficienti. Il software utilizzato venne addestrato su dati storici che riflettevano un forte squilibrio di genere nel settore tecnologico. Di conseguenza, il sistema attribuiva punteggi più bassi ai candidati con curriculum femminili, escludendoli automaticamente dalle selezioni. Motivo per cui è stato prontamente ritirato e l’AI recruiting dichiarata un fallimento.
Affidare le selezioni del personale ad un processo di AI recruiting sicuramente garantirebbe una maggiore efficienza in termini di costi-benefici. Usare un processo automatizzato che viene costantemente addestrato in base alle diverse selezioni e scelte che si susseguono nel tempo, potrebbe portare alla creazione di una macchina di assunzione perfetta, dove l’elemento soggettivo e l’errore umano vengono completamente cancellati, facendo posto a selezioni prettamente oggettive ed efficaci.
Sembra tutto perfetto, ma così non è. L’algoritmo che governa tutte le fasi dell’AI recruiting dipende dai vari dati che vengono inseriti. Amazon è l’esempio di come l’aver addestrato il proprio AI recruiting con un database fallato, ha comportato una perdita per l’azienda in termini di costi, tempo e perdita di candidati che sarebbe stati probabilmente adatti per il ruolo da ricoprire.  Il volume “Ai Act – Principi, regole ed applicazioni pratiche del Reg. UE 1689/2024”, disponibile sullo Shop Maggioli e su Amazon, si propone di rispondere proprio a queste sfide, offrendo ai professionisti del diritto un quadro completo e aggiornato delle nuove responsabilità giuridiche legate all’uso dell’Intelligenza Artificiale.

VOLUME

Ai Act

Quale impatto avrà l’intelligenza artificiale sulla nostra società e soprattutto sul diritto? Il testo esplora questa complessa intersezione, offrendo una guida dettagliata e completa.L’opera approfondisce l’evoluzione dell’AI, dalle sue umili origini nei primi sistemi esperti alle avanzate reti neurali e all’AI generativa di oggi.Analizza in modo critico il panorama normativo europeo, come il recente Regolamento n. 1689/2024, delineando il percorso legislativo e le regolamentazioni che cercano di gestire e governare questa tecnologia in rapida evoluzione.Gli autori affrontano temi fondamentali come l’etica dell’AI, la responsabilità legale, la sicurezza dei dati e la protezione della privacy.Il libro non si limita alla teoria: esplora anche le applicazioni pratiche dell’AI in vari settori, tra cui la giustizia, il settore finanziario, la pubblica amministrazione e la medicina.Attraverso casi di studio e analisi dettagliate, il libro mostra come l’AI stia trasformando questi ambiti e quali questioni giuridiche stiano emergendo.Inoltre, viene esaminato l’impatto dell’AI sul mondo del lavoro, evidenziando come l’automazione e le nuove tecnologie stiano cambiando le dinamiche lavorative e quali siano le implicazioni legali di queste trasformazioni.L’opera vuole essere una lettura essenziale per avvocati, giuristi, professionisti IT e tutti coloro che desiderano comprendere le complesse relazioni tra tecnologia e diritto, offrendo una visione completa e aggiornata, ricca di analisi critiche e riflessioni pratiche, per navigare nel futuro della tecnologia e del diritto con consapevolezza e competenza.Michele IaselliAvvocato, docente di Diritto digitale e tutela dei dati alla LUISS e di informatica giuridica all’Università di Cassino. Direttore del comitato scientifico di ANDIP e coordinatore del comitato scientifico di Feder-privacy. Funzionario del Ministero della Difesa ed esperto dell’Ufficio Generale Innovazione Difesa, è membro del Comitato di presidenza dell’ENIA (Ente Nazionale Intelligenza Artificiale).

 

Michele Iaselli | Maggioli Editore 2024

2. I rischi legali dell’AI Recruiting: cosa dice il GDPR?


L’uso dell’intelligenza artificiale nel reclutamento deve necessariamente confrontarsi con il GDPR (Reg. UE 2016/679)[3], che impone stringenti limiti e obblighi alle aziende. Gli aspetti critici individuati dal Regolamento sono diversi, il primo verte sul problema della trasparenza e consenso informato, spesso i candidati non sono neanche a conoscenza del fatto che un algoritmo stia analizzando i loro CV o le loro performance nei test attitudinali.  L’art. 13 del GDPR stabilisce che “Il titolare del trattamento fornisce all’interessato, al momento della raccolta dei dati personali, informazioni chiare e trasparenti sulle finalità del trattamento e sulla base giuridica”. Appare chiaro come i candidati devono essere informati in maniera trasparente sull’uso di sistemi automatizzati nei processi di selezione. Se un’azienda utilizza un ATS per lo screening delle candidature, deve comunicarlo espressamente ai candidati prima di raccogliere i loro dati personali. Senza un’adeguata informazione, i candidati non hanno la possibilità di contestare eventuali decisioni prese in modo automatico. La mancata osservanza di quanto previsto dal GDPR ha comportato che nel 2023, il Garante della Privacy francese (CNIL)[4] ha sanzionato un’importante multinazionale per aver utilizzato sistemi di AI Recruiting senza informare adeguatamente i candidati, violando così il principio di trasparenza.
Le decisioni automatizzate previste nell’AI recruiting devono sottostare al diritto alla revisione umana, si può essere scartati da una selezione senza che nessuno ci abbia valutato?. Immaginiamo che un algoritmo escluda automaticamente un candidato perché il suo CV non contiene alcune parole chiave predefinite, oppure perché ha ottenuto un punteggio basso in un test psicometrico, decretando di fatto il suo destino professionale. L’art. 22 del GDPR prevede che “L’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente su un trattamento automatizzato, compresa la profilazione, che produca effetti giuridici su di lui o lo influenzi significativamente”. Sul nostro territorio nazionale è emblematico il caso di un’azienda del settore finanziario che ha adottato un sistema di AI Recruiting per lo screening iniziale dei candidati, ma il software penalizzava automaticamente chi non aveva esperienza specifica nel settore bancario, scartando candidati che, pur provenendo da altri ambiti, avevano competenze trasferibili e capacità analitiche di alto livello. Senza un controllo umano, questi candidati non hanno mai avuto la possibilità di essere valutati nel merito. Motivo per cui il Garante della Privacy ha avviato un’indagine su alcune aziende che scartavano automaticamente i candidati in base a punteggi attribuiti da software di selezione, senza dare loro la possibilità di contestare la decisione o di interfacciarsi con un recruiter umano.
In ultimo sorge il problema della profilazione e trattamento dei dati sensibili. L’AI non garantisce che si svolgano valutazioni neutrali sui candidati, ignorando la loro etnia o religione, generando atteggiamenti discriminatori e pregiudizievoli. In base all’art. 9 GDPR “Il trattamento di dati personali che rivelino l’origine razziale o etnica, le opinioni politiche, le convinzioni religiose o filosofiche, l’appartenenza sindacale, dati genetici, dati biometrici, dati relativi alla salute o alla vita sessuale è vietato, salvo specifiche eccezioni”.
Con l’entrata in vigore dell’AI Act regolamento (UE) 2024/1689[5], è stata redatta una normativa ancora più rigorosa, introducendo una disciplina specifica per gli algoritmi decisionali applicati alla gestione delle risorse umane. Basti considerare l’art. 4 dell’AI Act che impone alle aziende di garantire un adeguato livello di alfabetizzazione sull’AI per il proprio personale[6], affinché chi utilizza questi sistemi comprenda i criteri di selezione applicati dagli algoritmi e possa intervenire in caso di anomalie o errori. In questo modo le aziende italiane che usano processi di AI recruiting non potranno più affidarsi ciecamente agli algoritmi, ma dovranno conoscere i loro limiti e possibili distorsioni e le aziende dovranno garantire che i loro dipendenti siano in grado di supervisionare il processo, evitando che l’AI prenda decisioni senza controllo umano.
L’art. 6 dell’AI Act classifica i sistemi di AI recruiting tra quelli ad alto rischio, poiché impattano direttamente sulla vita e sui diritti fondamentali delle persone. Secondo questa disposizione, le aziende che impiegano software di selezione automatizzata dovranno informare i candidati in modo chiaro sull’uso dell’AI nel processo di selezione, assicurare la verificabilità dell’algoritmo che non deve generare discriminazioni indirette, ed effettuare audit obbligatori sottoponendo i sistemi di IA a controlli periodici per valutarne l’impatto e l’affidabilità.

Potrebbero interessarti anche:

3. AI recruiting in Italia


Negli ultimi mesi, il Garante della Privacy italiano ha intensificato i controlli sulle aziende che utilizzano sistemi di AI Recruiting[7]. Dal report pubblicato emerge che molte aziende operano indiscriminatamente senza un’adeguata giustificazione legale. Le violazioni più comuni includono: mancata informativa ai candidati, utilizzo di algoritmi non verificabili, raccolta e conservazione indebita di dati biometrici. Per l’assenza di un’informativa trasparente rivolta ai candidati, il GDPR impone che gli interessati siano adeguatamente informati sulle modalità e finalità del trattamento dei loro dati personali. Tuttavia, numerose aziende omettono di comunicare chiaramente l’utilizzo di algoritmi di intelligenza artificiale nei processi di selezione, impedendo ai candidati di comprendere come e perché i loro dati vengano trattati. Questa mancanza di trasparenza non solo viola i diritti degli interessati, ma mina anche la fiducia nei confronti delle procedure di recruiting adottate. L’utilizzo di algoritmi “black box“, ossia sistemi di intelligenza artificiale la cui logica decisionale risulta opaca e non verificabile, solleva dubbi sulla correttezza e sull’imparzialità del processo di recruiting. Inoltre, l’impossibilità di auditare tali algoritmi rende difficile per le autorità competenti verificare la conformità alle normative vigenti, e per gli stessi candidati contestare eventuali decisioni discriminatorie o ingiuste. L’adozione di tecnologie avanzate per l’AI recruiting ha portato alcune aziende a raccogliere dati biometrici, come registrazioni audio e video, durante le fasi di selezione. Il GDPR stabilisce che tali dati devono essere trattati con estrema cautela e conservati solo per il tempo strettamente necessario al conseguimento delle finalità per le quali sono stati raccolti. In diversi casi, il Garante ha rilevato che questi dati erano conservati negli archivi aziendali per periodi superiori ai cinque anni, senza una giustificazione legale adeguata. 

4. Conclusioni: il futuro è davvero già scritto?


L’intelligenza artificiale sta ridefinendo il mondo del lavoro, ma con essa sorgono nuove sfide legali ed etiche. Se da un lato gli algoritmi promettono selezioni più efficienti e obiettive, dall’altro si corre il rischio di trasformare la ricerca del lavoro in un processo impersonale e discriminatorio. La selezione del personale tramite AI da un lato garantirebbe una maggiore efficienza per il datore di lavoro in termini di velocità, razionalità e rispetto degli obiettivi lavorativi richiesti. Dall’altro sorge il rischio che la valutazione dei candidati pecchi in termini di completezza e inclusività. Dietro questa patina di progresso si nasconde un grosso rischio: cosa succede quando un candidato viene escluso senza mai essere stato davvero valutato? Un tempo, trovare lavoro significava raccontare la propria storia, dimostrare talento e ambizione, avere la possibilità di sorprendere, convincere e far ricredere il selezionatore. Oggi, è sufficiente non avere la parola chiave giusta nel CV per essere scartati in una frazione di secondo, senza appello. Anche se il Regolamento AI Act 2025 cerca di rispondere a queste preoccupazioni introducendo standard più elevati di trasparenza e controllo sugli algoritmi utilizzati per il recruiting, questi non potranno mai conoscere il vero valore di una persona ed il suo potenziale nascosto. Il lavoro è ancora un’opportunità da conquistare o è diventato un codice da decifrare?

Formazione per professionisti


Il Master in Intelligenza Artificiale per Imprese, Professionisti e Avvocati è un percorso formativo avanzato, progettato per fornire alle aziende e ai professionisti del settore legale le conoscenze e le competenze necessarie per orientarsi e utilizzare al meglio le potenzialità dell’AI generativa. Attraverso un approccio pratico, il corso illustrerà i principali tool di AI in uso e mostrerà ai partecipanti come integrare l’AI nei processi lavorativi, migliorando l’efficienza, riducendo i costi e innovando i servizi offerti.
Il corso ha una durata totale di 21 ore, articolate in sette incontri da tre ore ciascuno, e include dimostrazioni pratiche in cui verranno illustrate tecniche per la creazione di Prompt efficaci e un framework per la creazione di un GPT personalizzato, focalizzato sulle esigenze del settore legale.
Grazie all’utilizzo dei più innovativi tool di AI generativa da parte dei docenti, i partecipanti, in aggiunta alle tradizionali dispense e slide, avranno accesso a un kit di risorse interattive basate su AI: GPT conversazionali, notebook di studio su NotebookLM, mappe concettuali dinamiche, framework operativi e strumenti specialistici.
>>>Per info ed iscrizioni<<<

Vuoi ricevere aggiornamenti costanti?


Salva questa pagina nella tua Area riservata di Diritto.it e riceverai le notifiche per tutte le pubblicazioni in materia. Inoltre, con le nostre Newsletter riceverai settimanalmente tutte le novità normative e giurisprudenziali!

Iscriviti alla newsletter
Iscrizione completata

Grazie per esserti iscritto alla newsletter.

Seguici sui social


MARIANGELA DI CUIA

Scrivi un commento

Accedi per poter inserire un commento