AI Act: Le nuove regole sull’Intelligenza Artificiale entrano in vigore
- Home
- Intelligenza Artificiale
- AI Act: Le nuove regole sull’Intelligenza Artificiale entrano in vigore
Ai Act: le nuove regole sull'Intelligenza Artificiale entrano in vigore
Dal 2 febbraio 2025, l’AI Act è ufficialmente operativo nell’Unione Europea, introducendo i primi obblighi per chi sviluppa, commercializza o utilizza sistemi di intelligenza artificiale.
Questa nuova normativa segna una svolta significativa poiché stabilisce un quadro giuridico uniforme per tutti gli Stati membri, eliminando le discrepanze normative tra Paesi e garantendo una tutela rafforzata dei diritti fondamentali sanciti dalla Carta di Nizza.
Chi è coinvolto dall’AI Act?
I destinatari principali della normativa sono:
– Sviluppatori e fornitori di sistemi di IA, che dovranno assicurarsi che i loro prodotti rispettino i criteri stabiliti prima di immetterli sul mercato.
– Aziende e organizzazioni che utilizzano sistemi di IA in settori regolamentati, con particolare attenzione alle applicazioni considerate ad alto rischio.
Obblighi in vigore dal 2 febbraio 2025
Con l’entrata in vigore dell’AI Act, le imprese e gli enti pubblici coinvolti nell’uso dell’intelligenza artificiale devono rispettare due obblighi fondamentali:
DIVIETO DELLE PRATICHE DI IA A RISCHIO INACCETTABILE
L’AI Act adotta un approccio basato sul rischio (risk-based approach) e identifica specifiche pratiche di intelligenza artificiale che sono vietate in quanto considerate pericolose per la sicurezza e i diritti fondamentali.
Tra le pratiche vietate rientrano:
– Manipolazione subliminale: sistemi che influenzano inconsapevolmente il comportamento delle persone.
– Sfruttamento delle vulnerabilità: IA progettata per approfittare di debolezze cognitive, psicologiche o sociali, specialmente nei confronti di minori o persone fragili.
– Social scoring: sistemi che valutano l’affidabilità di una persona in base a comportamenti sociali o caratteristiche personali.
– Riconoscimento biometrico in tempo reale in spazi pubblici, salvo specifiche eccezioni.
– Riconoscimento delle emozioni in contesti sensibili, come scuole o ambienti di lavoro.
– Creazione di database biometrici tramite scraping online senza consenso.
Le violazioni di questi divieti comportano sanzioni severe, che possono arrivare fino a 35 milioni di euro o al 7% del fatturato annuo globale dell’azienda coinvolta.
OBBLIGO DI FORMAZIONE SULL’IA (AI LITERACY)
Un altro aspetto innovativo dell’AI Act è l’introduzione di un obbligo formativo che riguarda non solo le aziende tecnologiche, ma anche pubbliche amministrazioni e realtà che, pur non operando nel settore dell’IA, ne utilizzano i sistemi.
Le organizzazioni dovranno:
– Formare il personale sui rischi e le opportunità legate all’intelligenza artificiale.
– Adottare linee guida interne che definiscano un utilizzo etico e responsabile dell’IA.
– Sensibilizzare il personale sugli impatti legali ed etici derivanti dall’uso delle nuove tecnologie.
PROSSIME SCADENZE E NUOVI OBBLIGHI
L’AI Act prevede un’applicazione graduale delle sue disposizioni. Le principali date da segnare in calendario sono:
📅 Agosto 2025 – Entrano in vigore le norme sulla governance dell’IA e gli obblighi specifici per i modelli di IA di uso generale. Le aziende dovranno:
– Documentare le fasi di sviluppo e test dei sistemi di IA.
– Seguire procedure standardizzate per garantire la sicurezza dei sistemi di IA.
– Effettuare valutazioni periodiche per monitorare la conformità dei sistemi alle norme vigenti.
📅 Agosto 2026 – Applicazione completa dell’AI Act per tutte le soluzioni di IA, comprese quelle ad alto rischio. In questo caso, i soggetti coinvolti dovranno adottare:
– Valutazioni d’impatto per identificare e mitigare i rischi.
– Monitoraggio continuo delle prestazioni dei sistemi di IA, per garantire la tempestiva individuazione di anomalie e criticità.
L’AI Act segna una tappa fondamentale nell’evoluzione del panorama giuridico europeo in materia di intelligenza artificiale. Adottare fin da ora un approccio proattivo nella compliance è essenziale per evitare sanzioni e garantire un utilizzo etico e sicuro delle nuove tecnologie.
Se la tua azienda ha bisogno di supporto per adeguarsi agli obblighi previsti dall’AI Act o per comprendere come implementare correttamente i sistemi di intelligenza artificiale, il nostro studio legale è a disposizione per offrirti consulenza specializzata.
Richiedi subito una consulenza
Affidati al nostro studio per una consulenza chiara, riservata e orientata alla soluzione, con un approccio professionale attento alle tue specifiche esigenze.
Mappa del sito
CONTATTI
- 0984.28922
- +39 347 215 2316
- +39 335 408 622
- Info@studiolegalebisceglia.com
- Via Dalmazia, 18, 87100 Cosenza CS
- Via chioggia n. 2 00182 Roma