La legge dell'Unione europea sull'intelligenza artificiale ha creato quattro diversi livelli di rischio per definire l'uso dei sistemi di IA. Scopri di più su ciascuno di questi livelli e su come possono influire sull'uso dell'IA nella tua organizzazione
Laurence McNally
Responsabile del prodotto, AI Governance di OneTrust
La legge dell'Unione europea sull'intelligenza artificiale adotta un approccio globale alla regolamentazione dell'intelligenza artificiale, ponendo obblighi per fornitori e deployer nel tentativo di garantire un uso sicuro ed etico di questa tecnologia. A tal fine, l'UE ha proposto il primo quadro normativo sull'intelligenza artificiale, che include anche la classificazione dei livelli di rischio per sistemi diversi.
La legge dell'Unione europea sull'intelligenza artificiale suddivide i rischi per i sistemi di IA in quattro diverse categorie:
Questa categoria vieta i sistemi di IA che rappresentano chiare minacce per la sicurezza o i diritti umani. Ad esempio, sono considerati inaccettabili i giocattoli ad attivazione vocale che incoraggiano comportamenti pericolosi o le valutazioni sociali dei governi che potrebbero portare alla discriminazione.
La legge dell'Unione europea sull'intelligenza artificiale considera ad alto rischio i sistemi di IA che rappresentano una minaccia per la sicurezza degli esseri umani o i diritti fondamentali. Ciò può includere i sistemi utilizzati nei giocattoli, nell'aviazione, nelle automobili, nei dispositivi medici e negli ascensori, tutti prodotti coperti dalle norme UE sulla sicurezza dei prodotti.
I sistemi ad alto rischio possono anche includere infrastrutture critiche, come ad esempio i sistemi di trasporto, in cui un malfunzionamento potrebbe mettere in pericolo vite umane. Ma al di là della sicurezza fisica, questi livelli di rischio sono pensati anche per proteggere i diritti umani e la qualità della vita. Ad esempio, l'utilizzo dell'intelligenza artificiale per correggere gli esami o selezionare i CV è considerato un sistema ad alto rischio perché potrebbe influire sulla carriera e sul futuro di una persona.
Anche diverse attività di applicazione della legge sono considerate ad alto rischio, come la valutazione dell'affidabilità delle prove, la verifica dei documenti di viaggio al controllo dell'immigrazione e l'identificazione biometrica a distanza.
Questo livello è rivolto ai sistemi di intelligenza artificiale con esigenze specifiche in termini di trasparenza, come l'utilizzo di un chatbot per il servizio clienti. Gli utenti devono essere consapevoli che stanno interagendo con una macchina e avere l'opportunità di rifiutare questa opzione e parlare con un essere umano. I sistemi a rischio limitato si basano sulla trasparenza e sul consenso informato degli utenti e sulla possibilità di dare loro l'opzione di ritirare il consenso in tutta facilità.
Il rischio minimo è il livello più basso stabilito dalla legge e si riferisce ad applicazioni come videogiochi basati sull'intelligenza artificiale o filtri anti-spam per e-mail.
Il Parlamento europeo ha recentemente introdotto modifiche che riguardano l'intelligenza artificiale generativa e impongono ulteriori regole di trasparenza per quanto riguarda il suo utilizzo. I negoziati tra il Parlamento europeo, il Consiglio e la Commissione si sono concentrati anche sulla suddivisione dei modelli di fondazione, per cui potremmo assistere a ulteriori chiarimenti sul loro utilizzo.
Gli strumenti di intelligenza artificiale come i chatbot supportati da modelli di linguaggio di grandi dimensioni, si pensi ad esempio a ChatGPT, potrebbero dover seguire regole aggiuntive come la divulgazione del fatto che il contenuto è stato creato utilizzando l'IA, la garanzia che il modello non crei contenuti illegali e la pubblicazione di sintesi dei dati protetti da copyright utilizzati per l'addestramento del modello.
Una cosa è vedere i livelli di rischio delineati dalla legge dell'Unione europea sull'intelligenza artificiale, un'altra è capire come si adattano alle tue operazioni quotidiane.
Come suggerisce il nome, i sistemi di rischio inaccettabili sono vietati dalla legge dell'Unione europea sull'intelligenza artificiale e pertanto non possono essere utilizzati da nessuno all'interno della tua organizzazione. Un prodotto come AI Governance di OneTrust segnala e rifiuta in modo automatico qualsiasi sistema appartenente a questo livello di rischio, il che protegge la tua organizzazione e fa risparmiare tempo al tuo team che può quindi concentrarsi su altre revisioni.
I sistemi a rischio limitato e minimo possono essere invece approvati automaticamente dal tuo sistema di governance dell'IA, consentendo a tutti i team di portare avanti i loro progetti e continuare a innovare utilizzando l'intelligenza artificiale.
In entrambi questi casi, la decisione di approvare o meno l'utilizzo di un sistema può essere presa automaticamente dallo strumento, in quanto le linee guida sono in ogni modo chiare. Per quanto riguarda i sistemi ad alto rischio, le cose sono meno chiare.
Ai sensi della legge dell'Unione europea sull'intelligenza artificiale, i sistemi ritenuti ad alto rischio non sono automaticamente vietati, ma hanno più requisiti da soddisfare prima che possano essere implementati. Questi requisiti devono dimostrare che la tecnologia e il suo utilizzo non rappresentino una minaccia significativa per la salute, la sicurezza e i diritti umani fondamentali.
Gli sviluppatori di sistemi di IA determinano la categoria di rischio del proprio sistema utilizzando gli standard stabiliti dall'UE. Una volta che i sistemi identificati come ad alto rischio sono in uso, gli operatori sono responsabili della conformità continua, del monitoraggio, della supervisione umana e degli obblighi di trasparenza se decidono di utilizzare un sistema di questo tipo.
Assicurare una conformità e un monitoraggio continui può richiedere molto lavoro manuale, quindi trovare modi per automatizzare queste revisioni fa risparmiare molto tempo. OneTrust segnala i sistemi ad alto rischio per una revisione manuale, in modo che non vengano automaticamente rifiutati, ma il team addetto alla conformità deve prendersi il tempo necessario per la due diligence e decidere se vale la pena utilizzare il sistema, e quindi assumersi la responsabilità operativa aggiuntiva, o se invece sarebbe meglio perseguire un altro sistema.
Per vedere come potrebbe procedere un progetto reale utilizzando un sistema di intelligenza artificiale e uno strumento di governance dell'IA, ecco un esempio pratico.
Supponiamo che il tuo team di marketing desideri utilizzare GPT-4 di OpenAI per creare e-mail di marketing personalizzate. Questa è la fase di inizializzazione del progetto, in cui un team identifica un caso d'uso per un sistema di IA e deve farlo approvare.
Il team addetto alla conformità deve quindi condurre una valutazione per determinare se il sistema è appropriato e sicuro da utilizzare. OneTrust fornisce valutazioni accessibili e concise in cui il responsabile del progetto può delineare i propri obiettivi e le proprie intenzioni.
A questo punto, deve essere assegnata una categoria di rischio al progetto. OneTrust automatizza questo processo valutando il progetto e assegnando automaticamente un livello di rischio.
A seconda del livello di rischio assegnato, il team può quindi accelerare la distribuzione del progetto. In questo caso, l'uso di GPT-4 è stato considerato a basso rischio da AI Governance e approvato automaticamente affinché il team di marketing possa procedere con il progetto.
AI Governance di OneTrust va al di là della semplice conformità con la legge dell'Unione europea sull'intelligenza artificiale. È una soluzione completa per supervisionare le attività che comportano l'utilizzo dell'intelligenza artificiale all'interno della tua organizzazione.
Possiamo aiutarti a innovare più velocemente senza compromettere la sicurezza, sia che tu abbia a che fare con le normative dell'Unione europea o con altre sfide di governance.
Richiedi subito una demo per scoprire come OneTrust può svolgere un ruolo fondamentale nel tuo percorso nel mondo dell'intelligenza artificiale.
Report
Report di Gartner® ''Getting Ready for the EU AI Act, Phase 1: Discover & Catalog''
White Paper
Una guida pratica per fornitore e deployer dell'intelligenza artificiale