Negli ultimi mesi, l'intelligenza artificiale è diventata uno dei temi più caldi del dibattito attuale. L'interesse generale si è concentrato sui contenuti generati dall'intelligenza artificiale, i suoi rischi e i suoi benefici a causa della crescita di chatbot e generatori di immagini gratuiti basati sull'IA. Infatti, l'utilizzo di queste tecnologie sta diventando così diffuso che al Global Privacy Summit di IAPP Nina Schick, esperta di IA generativa, ha previsto che, entro il 2025, il 90% dei contenuti online sarà generato dall'intelligenza artificiale.
Prevedibilmente, le reazioni alla rapida adozione di questa tecnologia sono state contrastanti. In Italia, il Garante per la protezione dei dati personali ha recentemente vietato ChatGPT a causa di problemi relativi alla privacy, mentre negli Stati Uniti, il Center for AI and Digital Policy ha presentato un reclamo alla Commissione federale del commercio (Federal Trade Commission, FTC) sul modello linguistico per chatbot. Ma tutto ciò non ha impedito a questa piattaforma di attirare oltre 100 milioni di utenti in poco più di sei mesi. Questo è solo uno di tanti esempi, ma gli sviluppatori di software di tutto il mondo creano ogni giorno nuove tecnologie di intelligenza artificiale e di apprendimento automatico che, in assenza di regolamentazione, potrebbero mettere a rischio la privacy delle persone.
Non c'è dubbio che i sistemi di IA stiano rivoluzionando interi settori e creando opportunità di crescita senza precedenti. Tuttavia, con questi vantaggi si presentano anche rischi e sfide che richiedono un solido approccio alla gestione di tali rischi. Il 26 gennaio 2023, il National Institute of Standards and Technology (NIST) ha introdotto il proprio quadro di gestione dei rischi correlati all'intelligenza artificiale (Risk Management Framework, RMF), il che ha aiutato le aziende a sviluppare tecnologie basate sull'IA in modo responsabile e a gestire i rischi che questa comporta per le persone e la società. Continua a leggere per saperne di più sul NIST AI RMF e su come puoi applicarlo ai tuoi sistemi di IA.
Che cos'è il NIST AI RMF?
L'AI RMF è stato sviluppato dal NIST in collaborazione con altre importanti parti interessate e in accordo con altri sforzi normativi per fornire alle organizzazioni che sviluppano sistemi e tecnologie di IA un quadro pratico e adattabile per misurare e proteggere da potenziali danni alle persone e alla società. L'approccio descritto in questo quadro ha lo scopo di aiutare le aziende a mitigare i rischi, cogliere le opportunità e aumentare l'affidabilità dei loro sistemi di intelligenza artificiale, dalla progettazione alla distribuzione.
Il quadro è diviso in due parti. La prima si concentra sulla pianificazione e sulla comprensione e guida le organizzazioni ad analizzare i rischi e i benefici dell'intelligenza artificiale e a stabilire l'affidabilità dei sistemi di IA. Il NIST ha delineato le seguenti caratteristiche in base alle quali le organizzazioni possono misurare l'affidabilità dei propri sistemi:
La seconda parte è una guida pratica su ciò che il NIST descrive come il fulcro del quadro e delinea quattro fasi fondamentali, ovvero ''Goverance'', ''Mappatura'', ''Misurazione'' e ''Gestione'', che le aziende possono implementare nello sviluppo dei loro sistemi di IA. La fase ''Goverance'' è fondamentale in quanto si pone come sforzo continuo per creare una cultura di gestione del rischio. La fase ''Mappatura'' mira a riconoscere il contesto in cui i rischi possono essere identificati e mappati. La fase ''Misurazione'' analizza, valuta e tiene traccia dei rischi identificati. Infine, la fase ''Gestione'' dà priorità ai rischi in base al loro impatto affinché vengano applicate le misure di mitigazione appropriate.
In che modo le organizzazioni possono affrontare il NIST AI RMF?
Per garantire che le aziende sviluppino e distribuiscano i sistemi di IA in modo responsabile, OneTrust ha creato un modello di valutazione completo all'interno della soluzione AI Governance. Questo modello si basa sul playbook del NIST AI Risk Management Framework (RMF), una risorsa complementare al NIST AI RMF. In pratica, il modello mira ad aiutarti ad affrontare un aspetto critico della gestione dei rischi correlati all'intelligenza artificiale. Diamo uno sguardo più dettagliato a ciascuna fase.
Raccolta di informazioni
Il primo passo nella gestione dei rischi correlati all'intelligenza artificiale è comprendere i dati e il contesto dei sistemi di IA. In questa fase, le aziende raccolgono informazioni cruciali sui loro sistemi di IA, come l'ID e la descrizione dei progetti e le relative scadenze.
Governance
Una gestione efficace dei rischi correlati all'intelligenza artificiale richiede una forte cultura di governance all'interno della gerarchia di un'organizzazione e durante l'intero ciclo di vita dei sistemi di IA. Questa fase sottolinea l'importanza di stabilire una cultura di gestione del rischio per supportare le altre funzioni dell'AI RMF.
Mappatura
Il contesto è fondamentale per identificare e gestire i rischi correlati all'intelligenza artificiale. Questa fase stabilisce il contesto per inquadrare i rischi correlati a un sistema di IA. Comprendendo i fattori determinanti più ampi, le organizzazioni possono migliorare la loro capacità di identificare il rischio e costruire una solida base per le fasi ''Misurazione'' e ''Gestione''.
Misurazione
In questa fase, le aziende sfruttano strumenti quantitativi, qualitativi o misti per analizzare, valutare, confrontare e monitorare i rischi correlati all'intelligenza artificiale e il loro relativo impatto. Sfruttando la conoscenza dei rischi identificati nella fase precedente, le organizzazioni possono informare meglio i loro sforzi di monitoraggio e risposta ai rischi nella fase ''Gestione''.
Gestione
In questa fase, vengono utilizzate pratiche di documentazione sistematiche stabilite nella fase ''Governance'', informazioni contestuali dalla fase ''Mappatura'' e dati empirici dalla fase ''Misurazione'' per affrontare i rischi identificati e ridurre la probabilità di guasti del sistema e impatti negativi. Questa fase si concentra sul trattamento del rischio, compresi i programmi di risposta, recupero e comunicazione di incidenti o eventi.
Il nostro nuovo modello di valutazione basato sul quadro del NIST consente alle aziende di esplorare la gestione dei rischi correlati all'intelligenza artificiale in tutta sicurezza. Seguendo tale modello, le organizzazioni possono acquisire una comprensione più approfondita dei loro sistemi di IA, identificare i potenziali rischi e sviluppare strategie per mitigarli. Un approccio di questo tipo contribuirà a uno sviluppo e una distribuzione più responsabili dell'intelligenza artificiale.
Parla subito con un esperto per scoprire come la piattaforma Trust Intelligence di OneTrsut possa aiutarti a mettere al centro della tua attività il bene delle persone e del pianeta.