L'AI Act, approvato dal Parlamento Europeo, stabilisce un quadro normativo dettagliato per l'uso e lo sviluppo di sistemi di intelligenza artificiale nell'Unione Europea. Per un'azienda che desidera adeguarsi a questo regolamento, è essenziale comprendere e implementare una serie di misure e procedure specifiche. Di seguito, vengono delineati i principali aspetti a cui prestare attenzione e le misure da adottare.
Classificazione dei Sistemi di IA
L'azienda deve innanzitutto determinare se i suoi sistemi di IA rientrano nella categoria di "alto rischio" o meno. I sistemi di AI ad alto rischio sono soggetti a requisiti più stringenti rispetto a quelli non ad alto rischio (AI ACT / Articolo 1)(AI ACT / Premessa 64).
Per i sistemi di AI ad alto rischio, l'azienda deve istituire un sistema di gestione della qualità che garantisca la conformità al regolamento. Questo sistema deve essere documentato in modo sistematico e ordinato e deve includere politiche, procedure e istruzioni scritte che coprano vari aspetti come la progettazione, lo sviluppo, il controllo della qualità, la gestione dei dati e la gestione dei rischi (AI ACT / Articolo 17).
L'azienda deve implementare un sistema di gestione dei rischi per identificare, valutare e gestire i rischi connessi all'uso dei sistemi di AI ad alto rischio.
Questo processo deve essere iterativo e continuo, coprendo l'intero ciclo di vita del sistema di AI. Le misure di gestione dei rischi devono considerare le conoscenze tecniche, l'esperienza, l'istruzione e la formazione del deployer, nonché il contesto di utilizzo del sistema (AI ACT / Articolo 9).
Prima di utilizzare un sistema di AI ad alto rischio, l'azienda deve effettuare una valutazione dell'impatto sui diritti fondamentali. Questa valutazione deve includere una descrizione dei processi, del periodo di utilizzo, delle categorie di persone interessate, dei rischi specifici e delle misure da adottare in caso di rischi concretizzati. I risultati della valutazione devono essere notificati all'autorità di vigilanza del mercato e aggiornati se necessario (AI ACT / Articolo 27)(AI ACT / Premessa 96).
I sistemi di AI ad alto rischio devono essere progettati e sviluppati in modo tale da poter essere efficacemente supervisionati da persone fisiche durante il periodo in cui sono in uso. Le persone fisiche incaricate della sorveglianza devono avere le competenze, la formazione e l'autorità necessarie per svolgere tale ruolo. Devono essere in grado di comprendere le capacità e i limiti del sistema, monitorarne il funzionamento, interpretare correttamente l'output e intervenire se necessario (AI ACT / Articolo 14)(AI ACT / Premessa 73).
L'azienda deve garantire che i sistemi di AI destinati a interagire direttamente con le persone fisiche siano progettati in modo tale che le persone siano informate del fatto di stare interagendo con un sistema di AI. Inoltre, gli output generati artificialmente devono essere marcati come tali.
Le informazioni devono essere fornite in maniera chiara e accessibile alle persone interessate (AI ACT / Articolo 50)(AI ACT / Premessa 132).
L'azienda dovrebbe partecipare all'elaborazione e all'adozione di codici di buone pratiche, che possono aiutare a garantire la conformità al regolamento. Questi codici dovrebbero definire chiaramente gli obiettivi specifici e contenere impegni o misure per assicurare il conseguimento di tali obiettivi (AI ACT / Articolo 56)(AI ACT / Premessa 116).
L'azienda deve monitorare continuamente il funzionamento dei sistemi di AI ad alto rischio e informare i fornitori in caso di problemi. Deve inoltre conservare i log generati automaticamente dai sistemi di AI per un periodo adeguato e cooperare con le autorità competenti per l'attuazione del regolamento (AI ACT / Articolo 26).
Se un sistema di AI ad alto rischio rappresenta un pericolo per la salute, la sicurezza delle persone o i diritti fondamentali, l'azienda deve adottare misure correttive nei confronti di tutti i sistemi di IA interessati. Queste misure devono essere adottate entro il termine prescritto dall'autorità di vigilanza del mercato (AI ACT / Articolo 82)(AI ACT / Articolo 79).
L'azienda deve garantire che il trattamento dei dati personali sia conforme ai regolamenti UE sulla protezione dei dati personali, come il GDPR. Questo include la gestione dei dati utilizzati per l'addestramento, la convalida e la prova dei sistemi di AI, nonché la protezione della riservatezza delle informazioni (AI ACT / Premessa 10)(AI ACT / Articolo 78)(AI ACT / Articolo 10).
Spazi di sperimentazione normativa
L'azienda può partecipare agli spazi di sperimentazione normativa per l'AI, che offrono un ambiente controllato per la sperimentazione e la prova dei sistemi di AI innovativi. Questi spazi aiutano a garantire la conformità ai regolamenti vigenti e a promuovere l'innovazione (AI ACT / Premessa 139)(AI ACT / Premessa 138).
Il Regolamento sull'Intelligenza Artificiale dell'Unione Europea stabilisce una serie di norme e tempistiche per la loro entrata in vigore. In base alle fonti disponibili, le prime norme che entreranno in vigore anche in Italia a partire dal 2 agosto 2024 sono le seguenti:
A causa dei rischi inaccettabili associati all'uso dell'AI in determinati contesti, i divieti e le disposizioni generali del regolamento dovrebbero applicarsi già a partire da sei mesi dalla data di entrata in vigore del regolamento, ovvero dal 2 agosto 2024 (AI ACT / Premessa 179).
Queste disposizioni includono il divieto di pratiche di AI che presentano rischi inaccettabili per la sicurezza, i diritti fondamentali e i valori dell'Unione Europea.
I capi I e II del regolamento si applicano a decorrere dal 2 agosto 2024 (AI ACT / Articolo 113). Questi capitoli riguardano le disposizioni generali e le definizioni, nonché le norme sull'ambito di applicazione del regolamento.
Gli obblighi per i fornitori di modelli di AI per finalità generali dovrebbero applicarsi a partire da 12 mesi dalla data di entrata in vigore del regolamento, ma le disposizioni generali e i divieti specifici per i rischi inaccettabili anticipano questa scadenza, rendendo alcune norme applicabili già dal 2 agosto 2024 (AI ACT / Premessa 179).
I codici di buone pratiche dovrebbero essere pronti entro nove mesi dalla data di entrata in vigore del regolamento, ma è importante che i fornitori inizino a dimostrare la conformità in tempo utile. Pertanto, anche se non obbligatoriamente in vigore dal 2 agosto 2024, i fornitori dovrebbero già iniziare a prepararsi per l'adozione di tali codici (AI ACT / Premessa 179).
I sistemi di AI ad alto rischio o i modelli di AI per finalità generali che sono conformi alle norme armonizzate dell'Unione Europea si presumono conformi ai requisiti del regolamento. La Commissione Europea presenta richieste di normazione senza indebito ritardo per garantire che tali sistemi soddisfino i requisiti del regolamento (AI ACT / Articolo 40).
Anche se la piena applicazione di queste norme potrebbe richiedere più tempo, le disposizioni generali e i divieti specifici per i rischi inaccettabili anticipano alcune di queste norme.
Le aziende che utilizzano sistemi di intelligenza artificiale devono adottare una serie di misure per garantire la conformità al Regolamento sull'Intelligenza Artificiale dell'Unione Europea. Queste misure includono:
Analizzare e classificare i sistemi di AI utilizzati per determinare se rientrano nella categoria di alto rischio.
Implementare sistemi di gestione della qualità per garantire che i sistemi di AI ad alto rischio rispettino i requisiti del regolamento.
Implementare un sistema di gestione dei rischi per identificare, valutare e gestire i rischi connessi all'uso dei sistemi di AI ad alto rischio.
Effettuare valutazioni dell'impatto sui diritti fondamentali per i sistemi di AI ad alto rischio e notificare i risultati alle autorità di vigilanza del mercato.
Garantire che i sistemi di AI ad alto rischio possano essere supervisionati da persone fisiche qualificate durante il loro utilizzo.
Informare le persone che interagiscono con i sistemi di AI del fatto che stanno interagendo con un sistema di AI e garantire la trasparenza degli output generati artificialmente.
Partecipare all'elaborazione e all'adozione di codici di buone pratiche per garantire la conformità al regolamento.
Monitorare continuamente il funzionamento dei sistemi di AI ad alto rischio e informare i fornitori in caso di problemi.
Garantire che il trattamento dei dati personali sia conforme ai regolamenti UE sulla protezione dei dati personali, come il GDPR.
Partecipare agli spazi di sperimentazione normativa per l'AI, che offrono un ambiente controllato per la sperimentazione e la prova dei sistemi di AI innovativi.
Adeguarsi all'AI Act non sarà un compito semplice, ma rappresenta un passo fondamentale per garantire l'uso responsabile e sicuro dell'intelligenza artificiale in Europa.
Le aziende che adotteranno tempestivamente queste misure saranno meglio preparate per affrontare le sfide e cogliere le opportunità offerte da questa rivoluzione tecnologica.
Dir. Responsabile Gigi Beltrame - Dir. Editoriale Claudio Gandolfo
Il magazine ha cadenza settimanale, esce online il mercoledì mattina alle 7. La redazione posta alcune notizie quotidianamente, senza alcuna cadenza fissa.
Inoltre BusinessCommunity.it realizza la miglior rassegna economico finanziaria sul web, aggiornata in tempo reale.
© 2009-2025 BusinessCommunity.it. Tutti i Diritti Riservati. P.I 10498360154