Il Regolamento Europeo sull’Intelligenza Artificiale (AI Act) è entrato in vigore nel 2024 ed è in applicazione progressiva fino al 2026. Con sanzioni che possono raggiungere i 35 milioni di euro o il 7% del fatturato globale per le violazioni più gravi, non è un tema che le aziende italiane possono permettersi di ignorare. Questa guida sintetizza gli elementi essenziali che ogni impresa deve conoscere.

Il sistema di classificazione del rischio

L’AI Act classifica i sistemi AI in quattro categorie di rischio:

  • Rischio inaccettabile (vietati): manipolazione subliminale, social scoring governativo, riconoscimento biometrico in tempo reale negli spazi pubblici (con eccezioni). Questi sistemi non possono essere usati nell’UE.
  • Alto rischio (obblighi stringenti): AI per selezione del personale, credito, istruzione, infrastrutture critiche, dispositivi medici, giudiziari. Richiedono documentazione, trasparenza, supervisione umana e registrazione in un database UE.
  • Rischio limitato (obblighi di trasparenza): chatbot, deepfake, sistemi di generazione contenuti. Devono dichiarare di essere AI.
  • Rischio minimo: la grande maggioranza delle applicazioni AI aziendali. Nessun obbligo specifico.

Chi è coinvolto: fornitori, deployer, importatori

L’AI Act distingue tra fornitori (chi sviluppa il sistema AI), deployer (chi lo usa in azienda), importatori e distributori. Come azienda italiana che usa strumenti AI di terze parti (ChatGPT, Copilot, sistemi HR AI), sei tipicamente un “deployer” e hai obblighi specifici: garantire che il sistema sia usato secondo le istruzioni del fornitore, formare il personale, nominare un responsabile AI per i sistemi ad alto rischio, e condurre una valutazione dell’impatto sui diritti fondamentali.

Le scadenze da tenere presente

Le disposizioni sui sistemi AI vietati sono in vigore da agosto 2024. Gli obblighi per i sistemi ad alto rischio scattano dal 2025. L’obbligo di literacy AI (formazione di base per tutti i dipendenti che usano AI) è già in vigore. È consigliabile avviare subito una mappatura dei sistemi AI usati in azienda e una valutazione del livello di rischio.

Come prepararsi: i passi pratici

1) Mappa tutti i sistemi AI usati in azienda. 2) Valuta il livello di rischio di ciascuno. 3) Per i sistemi ad alto rischio, avvia le procedure di compliance (documentazione, supervisione, registro). 4) Forma tutti i dipendenti sulla literacy AI (già obbligatoria). 5) Aggiorna i contratti con i fornitori AI per includere le garanzie richieste dall’AI Act.

DigiAi eroga formazione sull’AI Act e affianca le aziende nella compliance. Sessione di orientamento gratuita disponibile. Prenota la tua sessione AI Act.