La Commissione Europea ha recentemente pubblicato una versione definitiva del codice di condotta per le buone pratiche in merito all’intelligenza artificiale (IA), offrendo chiarimenti significativi sui requisiti previsti dall’AI Act. Le nuove linee guida affrontano quattro aspetti fondamentali: la definizione di modelli di IA di uso generale, i fornitori responsabili dell’immissione di tali modelli sul mercato, le esenzioni per i modelli rilasciati con licenza gratuita o open-source che rispettano determinati criteri di trasparenza, e la necessità per i fornitori di garantire il rispetto degli obblighi previsti.
Queste linee guida intendono fornire chiarezza agli attori della filiera dell’intelligenza artificiale, integrando il codice di condotta menzionato. La Commissione si propone di supportare le aziende con suggerimenti pratici per attuare documentazione tecnica completa, politiche di compliance al copyright, e sintesi pubbliche sui contenuti utilizzati per l’addestramento.
Un aspetto cruciale riguarda i modelli di IA considerati a rischio sistemico. In tal senso, è fondamentale realizzare valutazioni costanti, effettuare reporting di incidenti, e garantire la tutela dei dati, con un focus sulla cybersecurity. È importante notare che queste linee guida, sebbene non siano giuridicamente vincolanti, sono fortemente raccomandate.
Alla supervisione di queste pratiche sarà preposto un ufficio che adotterà un approccio collaborativo, benché i poteri di enforcement entreranno in vigore solo il 2 agosto 2026, dando così alle aziende il tempo necessario per adeguarsi.
I fornitori di modelli di IA a uso generale con rischio sistemico sono tenuti a valutare e mitigare costantemente i rischi associati, adottando misure preventivi durante l’intero ciclo di vita del modello. Questo implica anche garantire un adeguato livello di protezione dalla cybersecurity.
Le responsabilità giuridiche per i fornitori di modelli di IA comprendono la redazione di documentazione tecnica dettagliata relativa ai processi di sviluppo, la fornitura di informazioni utili ai fornitori a valle e l’adozione di politiche di conformità ai diritti d’autore. Essi sono inoltre tenuti a pubblicare una sintesi dei contenuti usati per l’addestramento e, nel caso di modelli sviluppati al di fuori dell’Unione Europea, a nominare un rappresentante autorizzato prima della loro immissione sul mercato.
I fornitori di modelli a uso generale rilasciati con licenza libera o open-source possono beneficiare di alcune esenzioni, ma devono comunque affrontare obblighi aggiuntivi se il modello in questione è considerato ad alto rischio. A partire dal 2 agosto 2025, la Commissione, attraverso il proprio ufficio, garantirà il rispetto di tali requisiti di compliance.
Per le aziende coinvolte nella produzione di intelligenza artificiale, è fondamentale capire se devono rispettare gli obblighi relativi ai modelli a uso generale. A tale scopo, la Commissione ha stabilito criteri specifici che indicano se il modello è considerato di uso generale, se il fornitore sta immettendo il modello sul mercato, e se ci sono eventuali esenzioni applicabili.
Un elemento chiave da considerare è la classificazione dei “rischi sistemici” associati ai modelli di IA. I rischi sistemici devono essere intesi come quelli che possono avere un impatto significativo sul mercato europeo, sebbene non siano limitati a settori specifici, come la salute pubblica o i diritti fondamentali. Tali rischi si manifestano in modelli addestrati con una quantità di risorse computazionali che supera un certo limite stabilito.
Per garantire la sicurezza, i fornitori di modelli di IA a uso generale devono effettuare valutazioni continuative e segnalare eventuali incidenti gravi. La Commissione ha definito i criteri di classificazione, specificando che un modello di AI è considerato a rischio sistemico se ha “capacità ad alto impatto” o se un’apposita valutazione ne determina tale classificazione.
La notifica alla Commissione diventa fondamentale quando un modello soddisfa i criteri di alto impatto. I fornitori devono comunicare tempestivamente, entro due settimane, dalla verifica di tale conformità o dal momento in cui hanno motivo di credere che sarà raggiunta. Questa fase di avviso è cruciale e può avvenire anche prima della conclusione del processo di addestramento.
Anche se i requisiti e gli

