L’AI Act dell’Unione Europea rappresenta una pietra miliare nella regolamentazione dell’Intelligenza Artificiale, ponendosi come la legislazione più ambiziosa e completa in questo campo a livello globale. Questo provvedimento si distingue per l’approccio orientato al rischio, che implica requisiti rigorosi per le applicazioni che rientrano nella categoria “ad alto rischio”, come quelle impiegate nella selezione del personale, nella concessione di prestiti o nella diagnostica medica. Oltre a questo, l’AI Act stabilisce anche obblighi di trasparenza per altre applicazioni. Mentre il testo legislativo si prepara a entrare in vigore gradualmente, una domanda si pone con insistenza in tutte le direzioni aziendali: “Quali misure adotteremo per dimostrare, in maniera pratica e verificabile, la nostra conformità?”.
La risposta a questa domanda fondamentale è l’ISO/IEC 42001. Nell’ambito del contesto normativo europeo, gli standard tecnici armonizzati sono sempre stati cruciali. Sebbene non possano sostituire la legge, offrono una cosiddetta “presunzione di conformità”. Ciò significa che, se un’impresa attua un processo o un prodotto in conformità a uno standard armonizzato, le autorità regolatorie presumeranno che essa soddisfi i requisiti fondamentali previsti dalla legislazione pertinente.
Ci aspettiamo un riconoscimento della ISO 42001 come standard armonizzato in supporto all’AI Act. Questo riconoscimento porterà il suo utilizzo da una prassi volontaria a un componente essenziale per garantire la conformità. Ecco perché.
L’AI Act richiede per i sistemi considerati ad alto rischio diversi elementi, tra cui un sistema di gestione della qualità, una robusta gestione del rischio, una governance dei dati, una documentazione tecnica, una trasparenza nei confronti degli utenti e la possibilità di supervisione umana. La ISO 42001, con la sua struttura dedicata al Sistema di Gestione dell’Intelligenza Artificiale (AIMS), offre un framework metodologico utile per attuare, documentare e mantenere operativi tutti questi requisiti in modo sistematico.
L’AI Act richiede un sistema di gestione del rischio; in tal senso, la ISO 42001 impone l’adozione di un processo formale per la valutazione e il trattamento del rischio legato ai sistemi di Intelligenza Artificiale. Inoltre, l’AI Act richiede una governance dei dati; la ISO 42001 detta invece la necessità di definire con chiarezza i processi per la raccolta, la preparazione e la gestione dei dati impiegati nell’addestramento e nel collaudo dei modelli. Infine, vi è l’esigenza di garantire trasparenza e supervisione umana; la ISO 42001 stabilisce l’importanza di determinare obiettivi e criteri per l’uso dell’Intelligenza Artificiale, assicurando che i processi siano comprensibili e monitorabili.
Pertanto, decidere di adottare la ISO 42001 in questo momento significa anticipare i tempi. Vuol dire smettere di percepire l’AI Act come una minaccia all’orizzonte e iniziare a costruire fin da ora solide fondamenta operative per una conformità sicura e dimostrabile. La certificazione ISO 42001 rilasciata da un ente terzo accreditato diventerà il metodo più efficace per attestare a clienti, partner e autorità regolatorie che la propria organizzazione non si limita a utilizzare l’Intelligenza Artificiale, ma la gestisce in modo responsabile, etico e conforme alla legge.
Non aspettate che l’atto normativo diventi pienamente operativo prima di iniziare a muovervi. La strada verso la conformità è già tracciata e aspettare non farà che complicare le cose.
Se desiderate rimanere aggiornati su ulteriori sviluppi e approfondimenti riguardo alla regolamentazione dell’Intelligenza Artificiale e sulla nostra attività, vi invitiamo a seguirci sui nostri profili social. La vostra partecipazione è fondamentale per costruire un futuro dove l’Intelligenza Artificiale possa essere utilizzata in maniera sicura ed efficace.

