Salta al contenuto
AI & Machine Learning

Quello che credevi automatico nel recruiting non lo è più

L'EU AI Act (Regolamento UE 2024/1689) classifica i sistemi di selezione e valutazione del personale come alto rischio. Agosto 2026 è la data limite. Ecco cosa significa per chi recruta e cosa fare da oggi.

Panoramica in 20 secondi

Italy Soft

Vuoi approfondire?

30 minuti di analisi gratuita, senza impegno.

Prenota Audit Gratuito — 30 min

italysoft.it

0:15 / 0:18

Perché HR e Recruiting sono nella lista nera dell'AI Act

L'Allegato III del Regolamento UE 2024/1689 identifica in modo esplicito quattro categorie di sistemi AI utilizzati nel recruiting come ad alto rischio: lo screening automatico dei curriculum vitae e la valutazione iniziale dei candidati, il calcolo di scoring per promozioni e avanzamenti di carriera, il monitoraggio continuo delle performance lavorative tramite sistemi biometrici o comportamentali, e infine le decisioni di licenziamento o riduzione del personale basate su valutazioni algoritmiche. La logica dietro questa classificazione è semplice e solida: questi sistemi influenzano direttamente le opportunità di vita e di reddito delle persone. Una decisione sbagliata di uno strumento AI non comporta solo perdita di candidati talentosi, ma può escludere professionisti da opportunità per discriminazione nascosta, bias di genere, origine, età o disabilità. Nel 2024, l'EEOC (agenzia americana per le pari opportunità) ha avviato indagini su aziende Fortune 500 proprio per l'uso di sistemi di screening AI potenzialmente discriminatori. In Italia non siamo ancora a quel punto, ma la conformità all'AI Act diventa il punto di non ritorno: non è più opzionale, è legge.

Chi ha obblighi specifici? Sia i datori di lavoro che utilizzano questi sistemi, sia i fornitori di piattaforme di recruiting (ATS, HR Tech, sistemi di e-recruiting). Se usi un software di recruiting che contiene funzionalità AI – e la maggior parte oggi ne contiene – sei responsabile della conformità. Se sei un fornitore di software HR, sei altrettanto responsabile di documentare e mettere a disposizione i tuoi clienti gli strumenti per rispettare l'AI Act. La timeline è decisivo: il Titolo III del Regolamento (dedicato ai sistemi ad alto rischio) entra in vigore il 2 agosto 2026. Non è una linea guida, non è una best practice suggerita: è un obbligo legale. Le sanzioni vanno da 15 a 40 milioni di euro o dal 4 al 10% del fatturato globale per le imprese di grandi dimensioni. Per le PMI italiane, l'impatto è diverso ma non meno serio: una multa di 100mila euro su un'azienda da 2-3 milioni di ricavi è sostanzialmente proibitiva.

La chiave per capire il perché di questa severità sta nel concetto di 'diritti chiave'. L'AI Act non è un regolamento tecnico come il GDPR (anche se ne riprende la struttura sanzionatoria). È una norma che protegge il diritto al lavoro, alla dignità umana, all'uguaglianza di opportunità. Un sistema AI nel recruiting che non è trasparente, che non è sottoposto a supervisione umana adeguata, che non è stato testato per bias di genere e origine etnica, rappresenta un rischio sistemico per il diritto delle persone al lavoro. Per questo l'UE ha deciso che non basta il GDPR: serve un quadro normativo specifico che obblighi aziende e fornitori a documentare, testare e controllare attivamente questi sistemi. Se sei un responsabile IT o HR di un'azienda italiana media, non puoi più dire 'il nostro ATS fa screening automatico ed è fatto così, non lo so'. Devi sapere come funziona, con quali dati è stato addestrato, come viene testato, e dove interviene un umano.

Come adeguarsi entro agosto 2026: adempimenti concreti

L'Articolo 11 del Regolamento obbliga chi utilizza o fornisce sistemi AI ad alto rischio a documentare in dettaglio: descrizione dell'architettura tecnica del sistema (come è costruito, quali algoritmi usa), i dati di training utilizzati (da dove vengono, quanti sono, che caratteristiche hanno), le metriche di performance e i risultati dei test effettuati (accuratezza, precision, recall), e soprattutto una valutazione di bias con risultati espliciti. Questa documentazione non è un file PDF da tenere nel cassetto: deve essere accessibile e comprensibile ai clienti (se sei un vendor), agli audit interni, e potenzialmente alle autorità di controllo. Per chi oggi usa un ATS con screening AI – pensiamo a Zoho Recruit con funzionalità di resume parsing intelligente, o a HubSpot con qualification scoring automatico – il primo passo è chiedere al fornitore se quella funzionalità è documentata secondo l'AI Act. Se la risposta è vaga o assente, devi pianificare una migrazione verso una soluzione conforme, oppure disabilitare quella funzionalità di IA entro agosto 2026. Non c'è zona grigia.

Il secondo adempimento critico è la supervisione umana significativa. L'AI Act non dice che le decisioni di selezione devono essere prese da esseri umani (anche se è la pratica consigliata): dice che nessuna decisione finale e vincolante può essere presa in modo completamente automatizzato senza una review umana documentata. Concretamente: se il tuo sistema AI scarta automaticamente il 90% dei CV sulla base di keyword matching o scoring, stai violando il regolamento. Devi introdurre un punto di revisione umana che sia obbligatorio, documentato e tracciabile. Un responsabile HR deve revisionare almeno i candidati scartati dal sistema con score borderline (ad esempio, tra 4 e 6 su 10), o deve revisionare il 100% dei candidati che avanzano al colloquio. Questo significa ripensare il flusso di recruiting: non è più un imbuto dove la macchina parla e basta, è un imbuto dove la macchina suggerisce e l'uomo decide consapevolmente.

Il terzo adempimento riguarda i diritti dei candidati. Chi riceve un rifiuto basato anche parzialmente su una decisione di un sistema AI ha diritto a una spiegazione comprensibile e non tecnica. Non puoi dire 'il nostro algoritmo ha assegnato 3,2 punti', devi dire 'il sistema ha evidenziato che l'esperienza richiesta non corrisponde completamente, il vostro background in Java era assente, e il nostro team ha confermato questa valutazione'. Inoltre, devi informare i candidati prima della valutazione che un sistema AI è coinvolto. Una checklist concreta per adeguarsi entro agosto 2026: (1) mappare tutti i sistemi HR che contengono IA, (2) ottenere documentazione tecnica dal fornitore per ciascuno, (3) valutare se quella documentazione rispetta l'Art. 11, (4) identificare i punti di supervisione umana nel flusso e formalizzarli, (5) creare un template di comunicazione ai candidati che spiega l'uso di IA, (6) testare il sistema su un campione di dati per verificare bias di genere, (7) documentare i risultati di questi test, (8) formare il team HR su come usare il sistema in modo conforme, (9) creare un audit trail che traccia ogni decisione e ogni revisione umana, (10) pianificare una revisione trimestrale dei bias del sistema, (11) nominare un responsabile interno per la conformità AI, (12) contattare il fornitore se la versione attuale non è conforme e negoziare un upgrade o una disattivazione della funzionalità. Italy Soft ha progettato un sistema di AI Recruiting che integra nativamente documentazione tecnica conforme all'Art. 11 e punti di supervisione umana significativa all'interno del flusso di selezione, riducendo il carico di retrofitting per chi lo implementa.

Punti chiave

Documentazione tecnica obbligatoria per l'Art. 11

Ogni sistema AI ad alto rischio deve documentare architettura, dati di training, metriche di performance e risultati di bias assessment. Se il tuo fornitore non fornisce questa documentazione, il sistema non è conforme all'AI Act. Richiedi accesso immediato e valuta se è sufficiente prima di agosto 2026.

Supervisione umana significativa non negoziabile

Nessuna decisione di selezione o avanzamento può essere presa interamente dal sistema senza review umana documentata. Ripensa il tuo flusso di recruiting: aggiungi checkpoint di revisione obbligatori, traccia ogni decisione, forma il team su come usare lo strumento in modo consapevole e documentato.

Diritti dei candidati e trasparenza

Chi riceve rifiuto basato su AI ha diritto a spiegazione comprensibile. Devi informare i candidati prima della valutazione che un sistema AI è coinvolto. Crea template chiari di comunicazione, evita tecnicismi, spiega in modo accessibile come è stato valutato il profilo.

Testing e monitoraggio continuo del bias

Testa il sistema su campioni di dati per identificare bias di genere, origine, età e disabilità. Italy Soft integra nel suo sistema di recruiting funzionalità di monitoring continuo dei bias e reportistica periodica, riducendo il rischio di discriminazione nascosta e semplificando la conformità.

Domande frequenti

Se il mio ATS attuale non è conforme all'AI Act, cosa devo fare?

Cosa significa esattamente 'supervisione umana significativa'?

Quali sanzioni rischio se non sono conforme entro agosto 2026?

Come faccio a testare se il mio sistema AI ha bias di genere o origine?

Se sono un vendor di software HR, come posso rendere il mio prodotto conforme?

Approfondimenti correlati

Altro in questa categoria

Italy Soft

Vuoi i numeri reali per la tua azienda?

In 30 minuti di audit gratuito analizziamo i tuoi processi e calcoliamo il ROI concreto. Nessun impegno.