lavoro-ai

Algoritmi al lavoro, diritti in prima linea: le nuove regole su AI, trasparenza e controlli

Advertisement

L’intelligenza artificiale sta entrando nelle aziende con la promessa di rendere più efficienti i processi e più rapide le decisioni. Ma quando gli algoritmi incidono su assunzioni, turni, valutazioni e persino licenziamenti, la questione non è più solo tecnologica: diventa diritto del lavoro.

Ed è qui che l’Italia prova a mettere un argine, introducendo un principio semplice: se un sistema automatizzato può influire sulla vita professionale di una persona, deve essere comprensibile, verificabile e governato da responsabilità umane.

La legge 132/2025: tre pilastri per “domare” l’AI sul lavoro

Il perno è l’articolo 11 della legge 132/2025, entrata in vigore il 10 ottobre 2025, che disegna per la prima volta un quadro organico sull’uso dell’AI nel lavoro. La norma è costruita su tre pilastri:

  • promuovere l’innovazione migliorando condizioni di lavoro, salute e dignità;
  • imporre trasparenza e sicurezza, con sistemi affidabili e tracciabili, vietando sorveglianza occulta o decisioni lesive della dignità;
  • fissare il principio di non discriminazione, prevedendo controlli e garanzie umane efficaci.

In concreto, il messaggio al datore di lavoro è netto: l’AI può essere usata, ma non può diventare una “scatola nera” che decide al posto delle persone (o senza che le persone lo sappiano).

Dalla teoria alla pratica: l’obbligo di informare (bene) lavoratori e sindacati

La parte davvero operativa arriva tramite il rinvio al decreto Trasparenza (Dlgs 104/2022), che ha inserito nel Dlgs 152/1997 l’articolo 1-bis sui sistemi decisionali o di monitoraggio automatizzati. Qui si stabilisce che, quando un algoritmo incide su assunzione, gestione o cessazione del rapporto, su assegnazione dei compiti o valutazione delle prestazioni, il datore deve consegnare un’informativa scritta, preventiva e completa.

Questa informativa non può essere generica. Deve chiarire almeno:

  • quali aspetti del rapporto vengono toccati dal sistema;
  • la logica e le finalità del trattamento;
  • le categorie di dati impiegate;
  • le metriche usate per misurare produttività o performance;
  • le misure di controllo umano previste;
  • chi è responsabile della qualità del sistema, il livello di accuratezza e i rischi discriminatori.

In più: se l’azienda cambia in modo significativo il sistema o il suo funzionamento, deve avvisare almeno 24 ore prima. E le informazioni vanno fornite anche alle rappresentanze sindacali (aziendali o territoriali, se in azienda non ci sono RSA/RSU).

C’è anche un diritto “di approfondimento”: il lavoratore può chiedere chiarimenti e ottenere entro 30 giorni una risposta scritta con informazioni supplementari sui dati trattati e sul funzionamento dell’algoritmo. Il tutto con un confine importante: resta fermo l’articolo 4 dello Statuto dei lavoratori sui limiti ai controlli a distanza.

Le sanzioni: multe a chi viola gli obblighi sull’AI

La trasparenza non è un invito: è un obbligo con conseguenze. Le violazioni degli obblighi informativi portano a sanzioni che possono arrivare a 1.500 euro per ciascun lavoratore coinvolto, con aggravamenti mensili in caso di informazione mancante o incompleta sugli algoritmi e ulteriori importi se l’omissione riguarda i sindacati.

L’accertamento e l’irrogazione competono all’Ispettorato nazionale del lavoro. E attenzione: l’omissione può aprire anche un fronte privacy, se i trattamenti automatizzati non sono conformi al GDPR.

Controllo umano e rischio discriminazioni nella AI

La legge non si limita alla trasparenza: punta al rischio più insidioso, quello delle discriminazioni “automatiche”. L’AI può riprodurre o amplificare bias presenti nei dati, nelle metriche o nelle regole di calcolo: esclusione sistematica di alcune candidature, penalizzazioni indirette legate a età o maternità, valutazioni basate su segnali non pertinenti.

Per questo il controllo umano non è un accessorio, ma l’antidoto operativo: leggere il contesto, correggere errori, documentare perché una decisione è stata presa. Non a caso, l’impianto richiamato è ampio: dai principi costituzionali di uguaglianza alle norme antidiscriminatorie già in vigore, fino al consolidamento europeo che guarda sempre più agli esiti (non alle intenzioni). L’idea di fondo è chiara: se un algoritmo produce un effetto discriminatorio, l’azienda deve accorgersene e intervenire, anche quando nessuno “voleva” discriminare.

L’Europa: l’AI Act classifica il lavoro come “alto rischio”

Sul piano europeo, il riferimento è l’AI Act (Reg. UE 2024/1689): i sistemi usati in ambito occupazionale (reclutamento, gestione, valutazioni, monitoraggio delle prestazioni) rientrano tra le applicazioni ad alto rischio, con requisiti stringenti su qualità dei dati, tracciabilità e supervisione umana.

Ma c’è un punto critico che incide anche sulla tutela concreta dei lavoratori: la distanza tra regole e capacità operativa. Un’analisi pubblicata a fine 2025 evidenzia il nodo degli standard tecnici ancora in sviluppo e la carenza di soggetti pronti a svolgere le valutazioni di conformità dove servono organismi terzi. In questo scenario, la Commissione valuta correttivi per riallineare obblighi e disponibilità di standard/linee guida (con proposte di semplificazione e sincronizzazione, nel pacchetto “Digital Omnibus”).

Tradotto: il rischio è una fase di transizione confusa, in cui la norma c’è ma l’infrastruttura per applicarla pienamente arriva in ritardo. Per i lavoratori questa “zona grigia” può essere pericolosa: proprio mentre aumentano gli strumenti automatizzati, la certezza su controlli, audit e verifiche potrebbe procedere a velocità diverse nei vari Paesi e settori.

Dal monitoraggio delle prestazioni alla sorveglianza: come l’AI sta cambiando il lavoro

C’è poi un tema parallelo, che aiuta a capire perché la trasparenza sul lavoro è diventata urgente: la crescita di ecosistemi digitali capaci di osservare, riconoscere e profilare. Un approfondimento sul “nuovo paradigma digitale” descrive un mondo di videocamere, sistemi di recognition, architetture ibride edge-cloud e un settore security sempre più alimentato dall’AI. Il punto non è solo la sicurezza: è l’uso dei dati per costruire profili e prendere decisioni, spesso senza consapevolezza delle persone coinvolte.

Nel dibattito internazionale pesano esempi di sorveglianza su larga scala e l’uso di riconoscimento facciale; nel contesto europeo, invece, la traiettoria è più vincolata: l’AI Act limita o vieta alcune applicazioni biometriche ad alto impatto e il GDPR continua a rappresentare la cornice di protezione (pur con difficoltà pratiche). Anche qui il filo conduttore è identico a quello del lavoro: ridurre l’opacità e impedire che la tecnologia diventi un potere invisibile.

Un segnale dai mercati: l’AI vale ma conta come è governata

Persino le valutazioni economiche cominciano a ragionare su questi temi: l’AI genera aspettative e un “premio” nelle quotazioni, ma introduce anche nuovi rischi (normativi, operativi, legali) che devono essere pesati con prudenza. In altre parole: non basta “fare AI”, bisogna farla in modo sostenibile e conforme, perché la fiducia—anche nel rapporto di lavoro—diventa parte del valore.

La posta in gioco: potere decisionale e responsabilità

La novità dell’ultimo anno è che la discussione sull’intelligenza artificiale in azienda smette di essere astratta. Il baricentro si sposta su domande molto concrete: chi decide davvero, con quali dati, secondo quali metriche, con quale possibilità di contestazione. La legge 132/2025 e il decreto Trasparenza provano a rispondere così: se l’algoritmo entra nelle scelte che contano, deve entrare anche il diritto—e soprattutto deve restare in campo l’umano, come garanzia e come responsabilità.

  Condividi:

Lascia un commento

*