Dopo l’introduzione della versione definitiva del codice di condotta per le buone pratiche nell’ambito dell’intelligenza artificiale, si è resa necessaria una chiarificazione da parte della Commissione Europea riguardo agli obblighi stabiliti dall’AI Act. Le linee guida recentemente pubblicate si concentrano su quattro tematiche centrali.
In primo luogo, viene fornita una definizione dei modelli di intelligenza artificiale di uso generale. In secondo luogo, viene precisata l’identificazione dei fornitori che mettono sul mercato questi modelli. Terzo, è prevista un’esenzione per i fornitori che rilasciano modelli di IA per uso generale con licenze gratuite o open-source, a condizione che rispettino specifici requisiti di trasparenza. Infine, le linee guida affrontano la questione del rispetto degli obblighi da parte dei fornitori di modelli di IA per uso generale.
Queste linee guida hanno lo scopo di chiarire le responsabilità di tutti gli attori coinvolti, integrando il codice di condotta già menzionato. Inoltre, la Commissione si impegna a supportare le aziende fornendo indicazioni pratiche che includono la creazione di una documentazione tecnica completa per il modello, politiche per la compliance al copyright e la pubblicazione di un riassunto pubblico dei contenuti impiegati per il training.
Particolare attenzione viene rivolta ai modelli a rischio sistemico, con l’accento sulla necessità di effettuare valutazioni continue, segnalazione di incidenti e protezione dei dati, prestando particolare attenzione agli aspetti di cybersecurity. È importante notare che queste linee guida, pur essendo fortemente raccomandate, non hanno carattere giuridico vincolante.
Sotto la supervisione dell’AI Office, sarà adottato un approccio collaborativo, anche se i poteri di enforcement non entreranno in vigore prima del 2 agosto 2026, dando così un margine di tempo ulteriore per garantire la compliance al sistema normativo.
Quando si parla di modelli di intelligenza artificiale di uso generale (GPAI), i fornitori di modelli che presentano un rischio sistemico devono costantemente “valutare e mitigare i rischi sistemici”. Devono anche garantire un adeguato livello di sicurezza informatica per il modello lungo tutto il suo ciclo di vita.
Il concetto di “ciclo di vita” del modello diventa cruciale per comprendere le responsabilità dei fornitori. Gli obblighi previsti dall’AI Act comprendono la redazione della documentazione tecnica sul modello e la fornitura di informazioni ai fornitori a valle, affinché possano comprendere le capacità e i limiti del modello. È necessaria anche un’adeguata politica di rispetto del diritto d’autore.
I fornitori di modelli GPAI a licenza libera possono beneficiare di esenzioni a certe condizioni, ma quelli con rischio sistemico devono certamente affrontare requisiti aggiuntivi, incluso quello di informare le autorità competenti quando un modello presenta un rischio sistemico.
Per capire se un’azienda deve rispettare questi obblighi, la Commissione ha istituito alcuni parametri da considerare, come la tipologia del modello e il fatto che si tratti di un produttore che immette il modello nel mercato europeo. Le linee guida forniscono esempi per identificare il fornitore in vari scenari.
I modelli GPAI possono comportare “rischi sistemici”, i quali si riferiscono agli impatti significativi che tali modelli possono avere sul mercato europeo, in termini di salute pubblica, sicurezza e diritti fondamentali, dovuti alla loro grande diffusione. Questi rischi sono associati a modelli che utilizzano un’elevata quantità di risorse computazionali.
I fornitori di tali modelli devono svolgere ulteriori obblighi, tra cui effettuare valutazioni dei modelli e garantire la sicurezza informatica. La classificazione del rischio viene stabilita in base a criteri specifici, e i fornitori devono notificare alla Commissione quando un modello soddisfa determinate condizioni già note.
La notifica è prioritaria e deve avvenire entro due settimane dal momento in cui ci si rende conto che il modello potrebbe avere capacità ad alto impatto. L’importanza della pianificazione e dell’allocazione anticipata delle risorse di calcolo sono elementi fondamentali per una corretta gestione del processo di formazione dei modelli.
In questo contesto, i modelli di IA di uso generale giocano un ruolo cruciale nel promuovere l’innovazione all’interno dell’Unione Europea. Questi modelli possono essere utilizz

