L'intelligenza artificiale (IA) è ovunque. L'IA alimenta la tecnologia che ci circonda già da un po' di tempo: ad esempio, viene utilizzata nella navigazione per offrire suggerimenti in tempo reale sul percorso, nelle app di ride-sharing per fornire informazioni sul tempo stimato di arrivo, nella tecnologia di trascrizione elettrica e nel filtraggio delle e-mail per evitare migliaia di messaggi di spam. Tuttavia, viene utilizzata anche per tecnologie più ad alto rischio, come i veicoli autonomi e il rilevamento delle frodi.
La diffusione di qualsiasi tecnologia comporta dei rischi e questa non fa eccezione. Dopo l'introduzione delle automobili, è stata creata la National Highway Safety Administration. I nuovi farmaci vengono sottoposti a prove approfondite prima di essere approvati dalla Food and Drug Administration (FDA) per l'uso nella popolazione generale. E ora lo stesso si sta verificando per l'intelligenza artificiale, con richieste di regolamentazione sempre più forti da parte delle voci più importanti del mondo della tecnologia e della politica. L'Information Commissioner's Office del Regno Unito ha recentemente rilasciato una dichiarazione sull'adozione sempre più diffusa dell'intelligenza artificiale in cui esorta le aziende a non immettere sul mercato alcun prodotto senza aver prima valutato adeguatamente i rischi per la tutela della privacy. Inoltre, i leader del settore hanno riconosciuto la rapidità con cui questa tecnologia si sta sviluppando, come dimostra il patto volontario sviluppato tra Alphabet e l'Unione Europea, che contribuisce a regolamentare l'utilizzo dell'intelligenza artificiale in vece di una legislazione formale.
Per la maggior parte delle aziende stipulare un patto volontario con l'Unione europea non è un'opzione verosimile, il che significa che devi ricorrere a misure alternative. Quindi, come puoi affrontare lo sviluppo di nuove tecnologie con un approccio basato sul rischio? Attualmente sono disponibili diversi quadri di riferimento per la creazione di prodotti e soluzioni di intelligenza artificiale. Tali quadri possono farti da guida e fornire consigli pratici per affrontare lo sviluppo di queste nuove tecnologie in modo etico e consapevole. Organismi industriali come il National Institute of Standards and Technology (NIST) e l'International Standards Organisation (ISO) sono solo alcune delle organizzazioni che hanno fornito quadri di riferimento per l'intelligenza artificiale e le tecnologie correlate. In questo articolo daremo un'occhiata più da vicino al quadro dell'Organizzazione per la cooperazione e lo sviluppo economico (Organisation for Economic Co-operation and Developmen, OCSE) per la classificazione dei sistemi di intelligenza artificiale e alla relativa lista di controllo, al modo in cui si confronta con i quadri NIST e ISO omologhi e a come affrontare la sua adozione.
Che cos'è il quadro di riferimento dell'OCSE per la classificazione dei sistemi di intelligenza artificiale?
Il quadro dell'OCSE per la classificazione dei sistemi di intelligenza artificiale è una guida rivolta ai responsabili delle policy che definisce diverse dimensioni per la caratterizzazione dei sistemi di IA, collegando queste caratteristiche ai principi dell'OCSE. Il quadro definisce una serie di obiettivi chiari e mira a stabilire una comprensione comune dei sistemi di intelligenza artificiale, orientare gli inventari dei dati, supportare quadri settoriali specifici, assistere la gestione e la valutazione del rischio e a contribuire a una migliore comprensione dei rischi tipici di questa tecnologia, come la parzialità, la spiegabilità e la robustezza.
I principi sull'intelligenza artificiale dell'OCSE stabiliscono una serie di standard pratici e flessibili. Di seguito ne sono riportati alcuni.
Crescita all'insegna dell'inclusività, sviluppo sostenibile e benessere: questo principio riconosce l'intelligenza artificiale come una tecnologia con un grande potenziale. Pertanto, può e deve essere utilizzata per contribuire a fare progressi per quanto riguarda alcuni degli obiettivi più critici per l’umanità, la società e in termini di sostenibilità. Tuttavia, è fondamentale attenuare il potenziale dell'IA di perpetuare o addirittura esacerbare i pregiudizi sociali esistenti o gli squilibri di rischio/impatto negativo basati sulla ricchezza o sul territorio. L'intelligenza artificiale dovrebbe aiutare tutti.
Correttezza e valori incentrati sull'essere umano: questo principio mira a porre i diritti umani, l'uguaglianza, la correttezza, lo stato di diritto, la giustizia sociale e la privacy al centro dello sviluppo e del funzionamento dei sistemi di intelligenza artificiale. Come il concetto di Privacy by Design, assicura che questi elementi siano presi in considerazione in ogni fase del ciclo di vita dell'IA, ma in particolare nelle fasi di progettazione. Se questo principio non viene mantenuto, può portare alla violazione di diritti umani fondamentali, alla discriminazione e può minare la fiducia delle persone nell'intelligenza artificiale in generale.
Trasparenza e spiegabilità: questo principio si basa sulla divulgazione dei casi di utilizzo dell'intelligenza artificiale, in modo che le persone possano capire come vengono costruiti i sistemi di IA, come funzionano e quali informazioni vengono inserite. Il concetto di trasparenza corrisponde alla definizione comunemente intesa di informare le persone sui dettagli delle attività di trattamento in modo che possano prendere scelte informate. La spiegabilità invece consente ai soggetti interessati di comprendere come il sistema ha raggiunto il risultato. Fornendo informazioni trasparenti e accessibili, le persone possono contestare più facilmente i risultati.
Robustezza, sicurezza e protezione: questo principio garantisce che i sistemi di intelligenza artificiale siano progettati per resistere ai rischi di sicurezza digitale e che i sistemi non comportino rischi eccessivi per la sicurezza dei consumatori quando vengono utilizzati. Le considerazioni chiave per la conformità a questo principio includono la tracciabilità, che si concentra sul mantenimento di registrazioni delle caratteristiche dei dati, delle fonti dei dati e della pulizia dei dati, e l'applicazione di un approccio alla gestione del rischio insieme a un'adeguata documentazione delle decisioni basate sul rischio.
Responsabilizzazione: questo principio è conosciuto dalla maggior parte dei professionisti del settore della privacy. Il principio di responsabilizzazione è alla base del ciclo di vita dei sistemi di intelligenza artificiale per garantire che funzionino correttamente e che siano chiaramente allineati con gli altri principi.
Come si colloca rispetto agli altri quadri di riferimento?
Il quadro dell'OCSE per la classificazione dei sistemi di intelligenza artificiale non è l'unico che si concentra sulla creazione di processi di governance per l'utilizzo affidabile e responsabile dell'IA e di tecnologie simili. Negli ultimi anni, diversi organismi del settore hanno sviluppato e rilasciato quadri di riferimento volti ad aiutare le aziende a creare programmi per la gestione dei sistemi di intelligenza artificiale. Nel valutare quale sia l'approccio giusto per te, ci sono diversi quadri di riferimento da prendere in considerazione e, sebbene quello dell'OCSE possa essere utilizzato per supportare il tuo approccio, la sua portata fa in modo che possa facilmente integrare altri quadri di riferimento disponibili. Ciò significa che non devi prendere una decisione tra OCSE, NIST o ISO su come far convivere in armonia questi quadri. Di seguito è riportato un confronto tra i quadri normativi NIST e ISO.
Quadro NIST di gestione dei rischi correlati all'intelligenza artificiale
Il 26 gennaio 2023, il NIST ha pubblicato l'Artificial Intelligence Risk Management Framework (AI RMF), un documento di orientamento che può essere utilizzato su base volontaria dalle organizzazioni che progettano, sviluppano o utilizzano sistemi di intelligenza artificiale. Questo documento mira a fornire un quadro pratico per rilevare i potenziali danni posti dai sistemi di intelligenza artificiale e offrire protezioni mitigando i rischi, sbloccando opportunità e aumentando l'affidabilità di questi sistemi. Il NIST ha delineato le seguenti caratteristiche in base alle quali le organizzazioni possono misurare l'affidabilità dei propri sistemi:
validità e affidabilità;
sicurezza e resilienza;
responsabilizzazione e trasparenza;
spiegabilità e interpretabilità;
privacy avanzata;
correttezza e gestione dei pregiudizi.
Inoltre, il quadro del NIST fornisce una guida pratica in quattro fasi: goverance, mappatura, rilevazione e gestione. Queste fasi mirano a fornire alle organizzazioni un quadro di riferimento per la comprensione e la valutazione dei rischi e per la gestione di tali rischi utilizzando processi definiti.
Guida ISO sulla gestione dei rischi correlati all'intelligenza artificiale
Il 6 febbraio 2023, l'ISO ha pubblicato ISO/IEC 23894:2023, un documento guida per la gestione dei rischi correlati all'intelligenza artificiale. Come il quadro NIST, la guida ISO mira ad aiutare le organizzazioni che sviluppano, distribuiscono o utilizzano sistemi di intelligenza artificiale a introdurre le migliori prassi possibili in termini di gestione dei rischi. Questo documento illustra una serie di principi guida secondo cui la gestione dei rischi deve essere:
integrata;
strutturata e completa;
personalizzata;
inclusiva;
dinamica;
basata sule migliori informazioni disponibili;
consapevole dei fattori umani e culturali;
migliorata continuamente.
Anche in questo caso, proprio come il quadro NIST, la guida ISO definisce i processi e le politiche per l'applicazione della gestione dei rischi correlati all'intelligenza artificiale. Ciò comprende la comunicazione e la consultazione, la contestualizzazione, la valutazione, la gestione, il monitoraggio, la revisione, la registrazione dei rischi associati allo sviluppo e all'utilizzo dei sistemi di IA, tenendo conto del loro ciclo di vita.
Come si collocano questi quadri rispetto a quello dell'OCSE?
L'applicazione del quadro di riferimento dell'OCSE è intesa come più ampia rispetto agli altri e mira ad aiutare le organizzazioni a comprendere e valutare i sistemi di intelligenza artificiale in molteplici contesti o, come vengono chiamati nel quadro dell'OCSE, dimensioni, tra cui:
pianete e persone;
contesto economico;
dati;
modello IA;
attività.
A differenza del quadro NIST e ISO, quello dell'OCSE mira a sviluppare una comprensione di base dell'intelligenza artificiale e del relativo linguaggio per contribuire a orientare le policy in ogni contesto definito. Il quadro dell'OCSE supporta anche quadri settoriali specifici e può essere utilizzato in concomitanza con normative o linee guida finanziarie o sanitarie relative all'utilizzo dell'intelligenza artificiale. Inoltre, favorisce anche lo sviluppo di valutazioni dei rischi e di policy di governance per la gestione continua dei rischi correlati all'IA.
Sia il quadro NIST che quello ISO pongono una maggiore attenzione ai controlli e ai requisiti specifici per il rischio di audit. Di conseguenza, possono aiutare le organizzazioni a migliorare e a rendere operativo il loro approccio allo sviluppo e all'utilizzo dei sistemi di intelligenza artificiale, integrando le parti del quadro OCSE più ''incentrate sulle policy''.
In che modo le organizzazioni possono implementare il quadro OCSE per la classificazione dei sistemi di IA?
OneTrust ha aggiunto un modello di controllo basato sul quadro di riferimento dell'OCSE per la classificazione dei sistemi di intelligenza artificiale alla soluzione AI Governance introdotta di recente. Questo modello mira ad di aiutarti a valutare i sistemi di intelligenza artificiale dal punto di vista delle policy e può essere applicato a una serie di sistemi di IA nelle dimensioni delineate nel quadro OCSE.
Inoltre, la lista di controllo garantisce che all'interno della tua organizzazione siano in atto politiche e triage efficaci per affrontare l'ampia gamma di aree e di potenziali problemi associati all'utilizzo dei sistemi di intelligenza artificiale. In breve, puoi utilizzare la lista di controllo per verificare se la tua organizzazione dispone del giusto insieme di policy per affrontare le lacune dei sistemi di intelligenza artificiale in base a ciascuno dei principi, se esiste un'organizzazione e il giusto insieme di proprietari per aiutare a gestire e supervisionare la mitigazione dei rischi identificati attraverso questa lista di controllo o se tutte queste aree sono correttamente rappresentate all'interno del ciclo di vita dello sviluppo e/o dell'utilizzo dei sistemi di IA.
Per garantire che le aziende sviluppino e distribuiscano i sistemi di IA in modo responsabile, OneTrust ha creato un modello di valutazione completo all'interno della soluzione AI Governance che include il quadro OCSE per la classificazione dei sistemi di intelligenza artificiale. La soluzione AI Governance di OneTrust è un ampio strumento progettato per aiutare le aziende a inventariare, valutare e monitorare l'ampia gamma di rischi associati all'intelligenza artificiale.
Parla subito con un esperto per ottenere maggiori informazioni su come OneTrust può aiutare le tue organizzazioni a gestire i sistemi di intelligenza artificiale e i rischi associati a questo tipo di tecnologia.