• 1000

L’intelligenza artificiale (AI) offre nuovi vantaggi alla società e alle imprese, ma anche la possibilità di rimodellare completamente i luoghi di lavoro e le industrie.

Se da un lato è forte la spinta per sfruttare il potenziale di trasformazione dell’intelligenza artificiale e dell’automazione, dall’altro emergono preoccupazioni sull’uso etico e sui rischi.

L’AI Act, promosso dall’Unione Europea, è una prima risposta alla domanda di regolamentazione sull’uso dell’AI che proviene da cittadini e imprese. Questa importante piattaforma normativa sarà approvata nei prossimi mesi e diventerà vincolante entro il 2026, ma occorre già adesso iniziare a prendere consapevolezza di questo framework e dei suoi potenziali impatti sul business.

L’intento dell’accordo è quello di trovare un delicato equilibrio, promuovendo l’adozione dell’AI e tutelando al tempo stesso i diritti degli individui per un uso responsabile, etico e affidabile di questa tecnologia. 

EU AI Act Overview


La legge sull’intelligenza artificiale mira a garantire che i sistemi di intelligenza artificiale siano sicuri, rispettino i diritti fondamentali, promuovano gli investimenti nell’intelligenza artificiale, migliorino la governance e incoraggino un mercato unico armonizzato dell’UE per l’intelligenza artificiale.




Si prevede che la definizione di intelligenza artificiale contenuta nell'AI Act sarà ampia e includerà varie tecnologie e sistemi. Di conseguenza, è probabile che le organizzazioni subiscano un impatto significativo a causa dell’AI Act. La maggior parte degli obblighi entrerà in vigore presumibilmente all’inizio del 2026.




La legge sull’intelligenza artificiale applica un approccio basato sul rischio, dividendo i sistemi di intelligenza artificiale in diversi livelli di rischio: inaccettabile, alto, limitato e minimo.


I sistemi di AI ad alto rischio sono consentiti ma soggetti agli obblighi più rigorosi. Tali obblighi riguarderanno non solo gli utenti ma anche i cosiddetti ‘fornitori’.


I fornitori dovranno probabilmente garantire il rispetto di standard rigorosi in materia di gestione del rischio, qualità dei dati, trasparenza, supervisione umana e robustezza.


Gli utenti sono responsabili del funzionamento di questi sistemi AI entro i limiti legali della legge e secondo le istruzioni specifiche del fornitore.




Sono state aggiunte nuove disposizioni per affrontare i recenti progressi nei modelli di intelligenza artificiale per scopi generali (GPAI), compresi i modelli di intelligenza artificiale generativa di grandi dimensioni.




Continuano ad applicarsi le leggi dell’Unione esistenti, ad esempio, sui dati personali, sulla sicurezza dei prodotti, sulla tutela dei consumatori, sulla politica sociale e sul diritto e sulle pratiche nazionali del lavoro, così come gli atti legislativi settoriali dell’Unione relativi alla sicurezza dei prodotti. Il rispetto della legge sull’AI non solleverà le organizzazioni dai loro obblighi legali preesistenti in questi ambiti.




Le organizzazioni dovrebbero prendersi il tempo necessario per creare una mappa dei sistemi di intelligenza artificiale che sviluppano e utilizzano e classificare i propri livelli di rischio come definito nella legge sull’intelligenza artificiale. Se uno qualsiasi dei loro sistemi di intelligenza artificiale rientra nella categoria di rischio limitato, elevato o inaccettabile, dovranno valutare l’impatto dell’AI Act sulla propria organizzazione. È fondamentale comprendere questo impatto il prima possibile.