top of page

AI Literacy (AI Act): l’obbligo di formazione sull’Intelligenza Artificiale per le aziende che usano l’IA

  • Immagine del redattore: F. T.
    F. T.
  • 18 feb
  • Tempo di lettura: 3 min

L’AI Act (Regolamento europeo sull’Intelligenza Artificiale 2024/1689) non riguarda solo chi sviluppa sistemi complessi: introduce anche un obbligo generale spesso ignorato, ma già centrale per la compliance aziendale. Si tratta dell’AI literacy prevista dall'art. 4 , cioè l’obbligo per le organizzazioni di garantire che chi usa l’IA abbia un livello adeguato di competenza.


Cos’è l’AI literacy prevista dall’AI Act

L’AI literacy è la capacità, per chi lavora in azienda, di usare strumenti di Intelligenza Artificiale in modo:

  • consapevole

  • corretto

  • sicuro

  • conforme alle regole

  • proporzionato al rischio

Non significa “sapere cos’è ChatGPT”: significa capire limiti, rischi, obblighi e responsabilità collegati all’uso dell’IA.


AI Act e AI literacy: l’obbligo è già vigente?

Sì: l’AI Act è un Regolamento UE, quindi è direttamente applicabile e non richiede una legge italiana per esistere.

L’obbligo di AI literacy è tra quelli che incidono da subito sulla governance interna, perché riguarda l’organizzazione e la gestione dei rischi, non solo i sistemi “ad alto rischio”.


A chi si rivolge l’obbligo di AI literacy

Aziende che usano IA (anche tramite fornitori)

L’obbligo riguarda tutte le aziende che:

  • adottano strumenti di IA in processi interni

  • acquistano software con funzioni di IA integrate

  • usano piattaforme che automatizzano decisioni o analisi

  • offrono servizi al pubblico basati su IA

È quindi un obbligo che si applica anche quando l’azienda non “sviluppa IA”, ma la utilizza come utente.

Pubbliche amministrazioni e enti

L’obbligo vale anche per PA e enti pubblici che impiegano IA in attività amministrative, selezione, gestione utenti o servizi digitali.


Chi deve formarsi in azienda: non solo IT

Persone che usano l’IA nei processi operativi

Devono formarsi tutti coloro che utilizzano sistemi IA, ad esempio:

  • HR (selezione e valutazione candidati)

  • customer care (chatbot e assistenza automatizzata)

  • marketing (profilazione, segmentazione, contenuti)

  • amministrazione (automazione documentale)

  • ufficio legale (analisi testi, supporto contrattuale)

Manager e responsabili che decidono come usare l’IA

Sono coinvolti anche:

  • dirigenti

  • responsabili di funzione

  • project manager

  • procurement (scelta fornitori e piattaforme)

Funzioni di controllo e compliance

Devono essere formati anche:

  • DPO e team privacy

  • compliance e risk management

  • cybersecurity

  • audit interno


Cosa deve includere una formazione corretta (tecnica + legale)

Formazione tecnica minima (per capire cosa fa davvero l’IA)

Una AI literacy efficace deve includere almeno:

  • differenza tra IA generativa e sistemi decisionali

  • limiti dell’IA (errori, bias, allucinazioni)

  • controllo umano e verifica degli output

  • gestione corretta dei prompt

  • rischi legati ai dati inseriti nei tool

Formazione giuridica e organizzativa (AI Act + GDPR + responsabilità)

Serve anche una parte dedicata a:

  • obblighi dell’AI Act per aziende utilizzatrici

  • rischi privacy e GDPR (dati personali e dati sensibili)

  • discriminazione e bias nei processi HR e decisionali

  • trasparenza verso clienti, utenti e dipendenti

  • responsabilità aziendale e accountability

  • regole interne e policy di utilizzo


Rischi e conseguenze se la formazione è assente o insufficiente

L’errore più comune è trattare l’AI literacy come un adempimento “di facciata”.In realtà la formazione è parte integrante della gestione del rischio.

Una formazione insufficiente può portare a:

  • uso improprio dell’IA in processi delicati (HR, scoring, selezione)

  • trattamento illecito di dati personali (anche solo copiandoli in un tool)

  • output discriminatori o non verificati

  • decisioni aziendali basate su risultati inattendibili

  • contestazioni, audit e responsabilità organizzativa

In caso di problemi, la mancanza di AI literacy diventa un elemento chiave:non formare significa non aver gestito correttamente il rischio.


Come rendere l’azienda conforme: percorso pratico

1) Mappatura degli strumenti IA utilizzati

Inclusi:

  • strumenti “ufficiali”

  • strumenti usati informalmente dai dipendenti

2) Identificazione dei ruoli coinvolti e del livello di rischio

Non tutti devono avere la stessa formazione: serve un approccio per livelli.

3) Piano formativo differenziato per funzioni

Esempio:

  • base per tutti

  • avanzato per HR / compliance / IT

  • specialistico per chi gestisce fornitori o sistemi critici

4) Policy interna sull’uso dell’IA

La formazione deve essere accompagnata da:

  • regole operative

  • divieti chiari

  • procedure di escalation e controllo

5) Aggiornamento periodico

L’AI literacy non è “una volta e basta”: strumenti e rischi cambiano continuamente.


Conclusione: AI literacy come obbligo e come protezione aziendale

L’AI literacy prevista dall’AI Act è un obbligo che riguarda tutte le aziende che usano Intelligenza Artificiale, anche in modo non “tecnico”.Una formazione corretta deve unire:

  • comprensione tecnologica

  • consapevolezza giuridica

  • gestione organizzativa del rischio

Per le aziende, non è solo compliance: è anche il modo più efficace per evitare errori, incidenti, contestazioni e danni reputazionali.


Nota sugli sviluppi futuri: Digital Omnibus e D.O. AI

È utile segnalare che, a livello europeo, sono in discussione alcuni progetti (tra cui il Digital Omnibus e il D.O. AI) che potrebbero portare nei prossimi mesi novità, razionalizzazioni e possibili semplificazioni del quadro normativo UE in materia digitale e di intelligenza artificiale.Al momento, però, si tratta solo di proposte/progetti: fino a quando non saranno approvati e pubblicati in forma definitiva, l’AI Act resta il riferimento pienamente vigente e operativo.


 
 
 

Post recenti

Mostra tutti
E-evidence: cosa cambia con i Dlgs 215 e 216 del 2025

Abstract: Con i decreti legislativi 215 e 216 del 2025, l’Italia recepisce il nuovo pacchetto europeo sull’e-evidence, cioè la disciplina che permette alle autorità giudiziarie di ottenere e usare pro

 
 
 
NIS2 - Dicembre 2025: le indicazioni operative di ACN

Per molti mesi la NIS2 è stata percepita come una riforma ancora “in costruzione”. Il decreto di recepimento c’era, il perimetro si stava definendo, ma per molte organizzazioni mancava ancora un eleme

 
 
 

Commenti


bottom of page