Skip to main content

Webinar su richiesta in arrivo…

Blog

Esplorare la legge dell'UE sull'IA

Il Parlamento europeo ha approvato la legge sull'intelligenza artificiale per garantire la sicurezza e il rispetto dei diritti fondamentali e favorire l'innovazione

Param Gopalasamy
Specialista del marketing dei contenuti, CIPP/E, CIPP/US, CIPM

EU flags in front of the EU Commission Building

Impostazione orizzontale: distinguersi dalla competizione nel panorama internazionale

L'Unione europea ha optato per un quadro giuridico orizzontale nel suo approccio alla legislazione sull'intelligenza artificiale. Il quadro giuridico dell'Unione europea in materia di intelligenza artificiale adotta una prospettiva intersettoriale ed è meticolosamente concepito, con quasi un centinaio di articoli.

Nel presente articolo scoprirai maggiori informazioni sulla legge dell'Unione europea sull'intelligenza artificiale. Questa legislazione non è solo la prima del suo genere, ma anche un punto di riferimento per la regolamentazione internazionale dell'intelligenza artificiale, progettata per creare un precedente in un panorama dell'IA in rapida evoluzione.

Proteggere i valori e favorire l'innovazione

La legge dell'Unione europea sull'intelligenza artificiale è attentamente equilibrata. Non si tratta solo di creare una rete di sicurezza per la società, l'economia, i valori e i diritti fondamentali europei che potrebbero essere minacciati dai sistemi di IA, ma è anche un chiaro segno del potere e del potenziale dell'innovazione dell'IA, con salvaguardie integrate per incoraggiare e proteggere i suoi progressi. Il testo cerca di trovare un equilibrio tra la gestione del rischio e la protezione delle infrastrutture critiche da potenziali pericoli, incoraggiando allo stesso l'innovazione che l'intelligenza artificiale per finalità generali può apportare.

La creazione di questa legge è stata tutt'altro che facile e la definizione di ''intelligenza artificiale'' è stata uno degli aspetti più controversi. Da quando è stata proposta per la prima volta nell'aprile del 2021, la legge è ha subito numerose iterazioni, dove ogni emendamento rifletteva la fluidità del dibattito sull'intelligenza artificiale e il suo impatto sulla società.

Al trilogo di dicembre, Francia, Germania e Italia hanno sollevato preoccupazioni sulle limitazioni poste a potenti modelli di IA e hanno provato a proporre un regime normativo più leggero per modelli come GPT-4 di OpenAI.  

Dopo molte discussioni, il compromesso raggiunto dalla Commissione UE è stato quello di adottare un approccio graduale, con regole di trasparenza orizzontali per tutti i modelli e obblighi aggiuntivi per i modelli a rischio sistemico. 

 

A che punto è la legge?

Il 2 febbraio 2024, il Comitato dei rappresentanti permanenti ha votato per sostenere l'accordo politico raggiunto nel dicembre 2023. Il 13 marzo, il Parlamento ha votato per approvare la legge, con 523 voti a favore, 46 contro e 49 astensioni.

La legge sull'intelligenza artificiale è entrata in vigore 20 giorni dopo la sua pubblicazione sulla Gazzetta ufficiale dell'Unione europea. Le disposizioni sui sistemi vietati sono stati applicati dopo sei mesi e gli obblighi per i fornitori di IA per finalità generali devono essere applicati dopo 12 mesi. La maggior parte degli altri requisiti verrà applicata dopo due anni.

I sistemi ad alto rischio destinati a essere utilizzati come componenti di sicurezza di un prodotto o coperti da altre normative nell'UE hanno 36 mesi di tempo per conformarsi alla legge. 

 

Analisi del concetto di ''intelligenza artificiale''

Originariamente, la legge definiva l'apprendimento automatico, la base dei sistemi di IA, come comprendente ''l'apprendimento supervisionato, non supervisionato e per rinforzo, utilizzando una varietà di metodi, compreso l'apprendimento profondo''. Il testo ora include una definizione aggiornata che definisce i sistemi di IA come ''sistemi basati su macchine che sono progettati per operare con vari gradi di autonomia e che possono mostrare capacità di adattamento dopo l'implementazione, e che, per scopi espliciti o impliciti, ragionano a partire da input per produrre output come previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali''.

La complessità dei sistemi di IA è una scala progressiva, con sistemi più complessi che richiedono una potenza di calcolo e dati di input significativi. L'output di questi sistemi può essere semplice o estremamente complesso, a seconda della sofisticazione dell'IA in questione.

Questa ampia definizione copre una vasta gamma di tecnologie, dai chatbot più comuni ai modelli di IA generativa altamente sofisticati. Tuttavia, è importante sottolineare il fatto che non tutti i sistemi di IA che rientrano in questa definizione verranno regolamentati. La legge utilizza un approccio basato sul rischio, includendo nel proprio quadro normativo solo i sistemi associati a rischi specifici. Calibrata in base al rischio

 

Regolamentazione dell'IA: calibrata in base al rischio

Qui le cose si fanno interessanti. La legge dell'Unione europea sull'intelligenza artificiale ha diversi ''contenitori'' per diversi sistemi di IA. Alcuni sono considerati come un rischio inaccettabile per i valori europei, il che comporta il loro divieto. I sistemi ad alto rischio, anche se non vietati, devono rispettare regolamenti più rigorosi. È fondamentale ricordare che queste categorie di rischio non sono statiche. Infatti, la legge è ancora soggetta a modifiche e pertanto anche queste categorie potrebbero cambiare.
 

Livelli di rischio della legge dell'UE sull'IA

La legge dell'Unione europea sull'intelligenza artificiale definisce più livelli di rischio ammissibile: alto, limitato e rischio. 

Questi sono i livelli di ''rischio accettabile'' che le organizzazioni possono tollerare, mentre il ''rischio inaccettabile'' è un livello di rischio che non può essere accettato e le organizzazioni devono modificare i loro modelli di conseguenza.

 

  • Rischio inaccettabile: sistemi che attribuiscono un ''punteggio sociale'' o che compiono verifiche biometriche remote in tempo reale.

  • Alto rischio: sistemi di valutazione del credito, richieste di risarcimento assicurative automatizzate. 

    Per i processi che rientrano in questo ''contenitore'', le aziende devono condurre una valutazione della conformità e registrarla con un database UE prima che il modello diventi disponibile al pubblico. 

    Oltre a questo, i processi ad alto rischio richiedono anche registri dettagliati e la supervisione umana.  

  • Rischio limitato: chatbot, personalizzazione. 

    Per i processi a rischio limitato, le aziende devono assicurarsi di essere completamente trasparenti con i propri clienti su ciò per cui viene utilizzata l'intelligenza artificiale e sui dati coinvolti.  

  • Rischio minimo: per tutti i processi che le aziende utilizzano e che rientrano in questo ''contenitore'', la legge dell'Unione europea sull'intelligenza artificiale incoraggia i fornitori ad adottare un codice di condotta che garantisca che l'IA venga utilizzata in modo etico. 

Pyramid graphic showing the levels of permissable AI risk areas defined by the EU AI Act and what the act requires organizations to do to address these areas of risk. Starting from the lowest level: Minimal risk areas require a code of conduct; limited risk areas need transparency; high risk areas need conformity assessments; and at the top level are areas that are considered unacceptable.

 

Valutazioni della conformità

Tra questi livelli di rischio, i sistemi ad alto rischio comportano il maggior onere in termini di conformità per le organizzazioni, che devono comunque soddisfare gli obblighi che riguardano la valutazione della conformità. Le valutazioni della conformità (Conformity Assessment, CA) richiedono alle aziende di garantire che i loro sistemi ''ad alto rischio'' soddisfino i seguenti parametri:

  • la qualità dei set di dati utilizzati per addestrare, convalidare e testare i sistemi IA. I set di dati devono essere ''rilevanti, rappresentativi, privi di errori e completi'';
  • documentazione tecnica dettagliata;

  • conservazione dei registri automatici degli eventi;

  • trasparenza e fornitura di informazioni agli utenti;

  • supervisione umana.

È obbligatorio condurre questo tipo di valutazione prima che un sistema di IA ad alto rischio sia reso disponibile o utilizzato nel mercato UE in quanto assicura che i sistemi di IA siano conformi agli standard UE, in particolare se vi sono modifiche significative o cambiamenti nell'uso previsto. Il principale soggetto responsabile delle valutazioni della conformità è il ''fornitore'', ovvero l'entità che immette il sistema sul mercato. Tuttavia, in determinate circostanze, la responsabilità può essere affidata al produttore, al distributore o all'importatore, specialmente quando questi modificano il sistema o la sua finalità. 
 

Da chi vengono eseguite le valutazioni della conformità? 

Le valutazioni della conformità possono essere eseguite internamente o da un ''organismo notificato'' esterno. Quelle interne sono comuni in quanto i fornitori sono tenuti ad avere le relative competenze necessarie. Gli organismi notificati entrano in gioco in particolare quando un sistema di IA viene utilizzato per applicazioni sensibili come l'identificazione biometrica in tempo reale e non aderisce a standard predefiniti.

Durante una valutazione della conformità interna, il fornitore verifica la conformità agli standard di gestione della qualità, valuta la documentazione tecnica e assicura che la progettazione e il monitoraggio del sistema di IA siano in accordo con i requisiti esistenti. Il risultato positivo di una valutazione si traduce in una dichiarazione di conformità UE e in un marchio CE, che deve essere conservato per dieci anni e reso disponibile alle autorità nazionali su richiesta.

Per quanto riguarda invece le valutazioni della conformità di terze parti, gli organismi notificati esaminano il sistema e la relativa documentazione. Nel caso in cui una terza parte dovesse essere conforme, viene rilasciato un certificato. In caso contrario, gli organismi notificati richiedono al fornitore di intraprendere azioni correttive. 
 

Con quale frequenza dovresti eseguire le valutazioni della conformità? 

Le valutazioni della conformità non sono un processo una tantum. Infatti, dopo aver immesso sul mercato i propri sistemi di IA, i fornitori devono monitorarli continuamente al fine di garantire che rimangano conformi alla legge dell'Unione europea sull'intelligenza artificiale. Quando viene coinvolto un organismo notificato, questo deve condurre regolari audit per verificare il rispetto del sistema di gestione della qualità. 
 

Coinvolgere tutte le parti interessate nel contesto dell'IA 

La legge dell'Unione europea sull'intelligenza artificiale non si limita a distribuire le responsabilità ai fornitori di IA, ma amplia la sua rete per includere vari attori nel ciclo di vita dell'IA, dagli utenti ai deployer. Oltretutto, il suo raggio d'azione non si limita all'UE, ma interessa anche entità al di fuori dell'Unione, quindi ha implicazioni globali. 
 

Multe: un deterrente significativo

Le recenti modifiche apportate dal Parlamento europeo alla legge sull'intelligenza artificiale hanno aumentato le multe per la mancata conformità a un massimo di 35 milioni di euro o fino al 7% del fatturato globale. Per contestualizzare, queste multe sono superiori del 50% rispetto al GDPR, che prevede un'ammenda massima di 20 milioni di dollari o del 4% del fatturato globale, sottolineando l'impegno dell'UE a garantire una rigorosa conformità alla legge sull'intelligenza artificiale. 

 

Tracciare il percorso verso l'IA regolamentata

La legge sull'intelligenza artificiale è una dichiarazione coraggiosa da parte dell'UE, che bilancia attentamente la necessità di promuovere l'innovazione dell'IA garantendo allo stesso tempo che i valori e i diritti fondamentali della società non vengano compromessi. È di fondamentale importanza che tutti gli operatori dell'IA tengano d'occhio gli sviluppi di questa legge.

A prescindere dal fatto che tu sia un fornitore, un utente o un soggetto coinvolto nell'implementazione dell'IA, devi prepararti a un futuro in cui l'IA non è solo una meraviglia tecnologica, ma anche oggetto di limiti e responsabilità legali definiti. Questa introduzione fornisce una panoramica dell'evoluzione e del potenziale impatto della legislazione europea sull'IA, ponendo le basi per un'analisi più approfondita nelle sezioni successive. Continua a leggere per ottenere maggiori informazioni sulle varie sfumature e sulle implicazioni della legge dell'Unione europea sull'intelligenza artificiale.
 

Una visione completa sui quadri normativi sull'IA

Un paesaggio in evoluzione: la mappatura termica globale dei quadri normativi sull'IA

Il panorama internazionale dei quadri normativi sull'intelligenza artificiale sottolinea la necessità imprescindibile di regole e standard internazionali relativi all'IA più coerenti. La proliferazione di quadri normativi sull'IA è innegabile e richiede una maggiore cooperazione internazionale per allinearsi almeno su aspetti fondamentali, come il raggiungimento di una definizione universalmente accettata di ''intelligenza artificiale''. 
 

Global map showing the different AI regulations and proposals from various major countries.

 

All'interno del contesto giuridico dell'Unione europea, la legge sull'intelligenza artificiale è un aspetto significativo. Allo stesso tempo, c'è un mosaico di iniziative a livello di Stati membri, con organismi autorevoli in vari Paesi che emanano linee guida non vincolanti, kit di strumenti e risorse per fornire indicazioni sull'uso e l'impiego efficace dell'IA. 
 

Processi futuri efficienti attraverso l'IA

L'intelligenza artificiale promette processi più rapidi, efficienti e accurati in vari settori. Ad esempio, nel settore assicurativo, l'intelligenza artificiale ha semplificato il processo di valutazione degli incidenti automobilistici, ottimizzando un processo che un tempo era lungo e manuale. Questo esempio dimostra il potenziale dell'IA nel migliorare significativamente molti aspetti della vita quotidiana e degli affari.

Ma la gestione dell'IA è un'operazione ricca di sfumature, un attento gioco di equilibri tra lo sfruttamento del suo impareggiabile potenziale e la gestione dei rischi che ne derivano. Con le sue capacità rivoluzionarie e innovative, l'intelligenza artificiale comporta un impegno cauto e consapevole.

Riconoscere il suo potere di trasformazione, e allo stesso tempo prepararsi alle sfide che presenta, è essenziale sia per gli individui che per le organizzazioni che devono orientarsi all'interno del dinamico panorama dell'intelligenza artificiale.
 

Considerare i pro e i contro dell'IA

Rischi: trasparenza, precisione e pregiudizi

Nonostante i numerosi vantaggi, l'intelligenza artificiale non è priva di sfide e rischi considerevoli. In primo luogo, alcuni sistemi di IA, che possono essere percepiti come ''scatole nere'', sono stati oggetto di intensi esami e dibattiti per quanto riguarda la loro trasparenza. Questa preoccupazione è particolarmente sentita per i sistemi di intelligenza artificiale più grandi, come i modelli linguistici su larga scala, per i quali manca la chiarezza sui dati di addestramento utilizzati. Tutto ciò solleva preoccupazioni significative sul copyright e sulla privacy, che devono essere affrontate in modo diretto.

Inoltre, la lotta per garantire l'accuratezza dei sistemi di IA continua, con diversi casi documentati di risposte e previsioni errate dell'IA. In particolare, i pregiudizi che possono insorgere nei sistemi di IA, derivanti dai dati distorti su cui possono essere addestrati, rappresentano un rischio di discriminazione che richiede un monitoraggio vigile e sforzi di rimedio da parte delle parti interessate. 
 

IA come soluzione: trasformare i rischi in opportunità

È interessante notare che l'intelligenza artificiale non è solo una sfida, ma anche una possibile soluzione a questi problemi. Ad esempio, l'IA può essere sfruttata per identificare e mitigare i pregiudizi all'interno dei set di dati. Una volta individuati questi pregiudizi, è possibile adottare misure strategiche per correggerli, garantendo che l'IA possa essere sfruttata in modo ottimale per massimizzare i suoi benefici riducendo al minimo i rischi associati. 
 

Il percorso da seguire per sviluppare la governance dell'IA

Porre le basi per la governance dell'IA 

Con la rapida evoluzione del dinamico e complesso panorama dell'intelligenza artificiale, è fondamentale che i professionisti del settore legale e della privacy pongano le basi per solidi programmi di governance e conformità dell'IA. Le numerose linee guida esistenti forniscono una tabella di marcia preliminare per i requisiti essenziali di tali programmi e l'accettazione da parte dell'alta dirigenza è il primo passo fondamentale in questa impresa. 

Coinvolgere i funzionari C-level e assicurarsi che comprendano la portata e le sfumature dell'impatto dell'intelligenza artificiale è fondamentale per promuovere una cultura di gestione dell'IA in tutta l'organizzazione. Questa iniziativa va oltre la semplice conformità e si estende alla creazione di fiducia nelle applicazioni di IA, elemento fondamentale delle operazioni aziendali di successo.
 

Passaggi pratici verso un quadro di governance dell'IA 

Dal punto di vista dei materiali, le organizzazioni possono utilizzare linee guida pratiche per l'uso etico dell'IA. Queste linee guida seguono i principi relativi all'intelligenza artificiale dell'Organizzazione per la cooperazione e lo sviluppo economico (OCSE).

 

  1. Trasparenza: occorre impegnarsi per demistificare le applicazioni di IA, rendendo le loro operazioni e decisioni comprensibili e spiegabili agli utenti e alle parti interessate. 

  2. Rispetto della privacy: le applicazioni di IA devono rispettare e tutelare la privacy degli utenti, trattando i dati personali con giudizio e in conformità con le leggi e le normative sulla privacy pertinenti. 

  3. Controllo umano: soprattutto nelle aree ad alto rischio, devono esistere meccanismi per la supervisione e il controllo da parte di esseri umani sulle applicazioni di IA per garantire che siano in linea con le aspettative e i valori umani.

  4. Applicazione corretta: devono essere implementate strategie per rilevare e mitigare i pregiudizi nelle applicazioni di IA, promuovendo la correttezza ed evitando la discriminazione.

  5. Responsabilizzazione: deve essere disponibile una documentazione completa e una registrazione delle operazioni di IA che consenta l'esame, la responsabilizzazione e le correzioni necessarie.

 

Policy etiche di IA: un elemento fondamentale

La definizione di policy etiche di IA, basate su valutazioni di impatto etico, è essenziale per affrontare le difficoltà e prendere decisioni etiche e informate sull'uso dell'intelligenza artificiale. Ad esempio, piuttosto che bloccare completamente alcune applicazioni di IA, le valutazioni dell'impatto etico possono guidare le organizzazioni nell'implementazione di policy d'uso responsabili e articolate, soprattutto per i dati sensibili. Le considerazioni etiche devono caratterizzare ogni fase dell'implementazione dell'intelligenza artificiale, ovvero le prime fasi iniziali, lo sviluppo, la distribuzione e il monitoraggio. 
 

Governance inclusiva dell'IA: un elemento essenziale a prescindere dalle dimensioni

È importante sottolineare che la governance dell'IA non è un aspetto che si applica esclusivamente alle grandi aziende con ampie risorse. Con l'aumento esponenziale dei casi d'uso dell'IA in svariati settori, le organizzazioni di qualsiasi dimensione dovranno inevitabilmente avere a che fare con l'intelligenza artificiale, rendendo necessari quadri di governance dell'IA adeguati alle loro esigenze e capacità specifiche.

Alcuni principi universali si applicano indipendentemente dalle dimensioni delle aziende. In primo luogo, per un'implementazione di successo della governance dell'IA è essenziale assicurarsi il consenso dei dirigenti e adottare un approccio multidisciplinare.

In secondo luogo, le organizzazioni devono partire da principi di alto livello come punto di partenza, anche se sono piccole o se si limitano ad acquistare modelli di IA già pronti. Anche la formazione e l'aggiornamento dei dipendenti in tutte le funzioni è fondamentale per comprendere e mitigare i rischi associati agli strumenti e alle applicazioni di IA.
 

Integrare i principi fondamentali di governance 

Nei programmi di governance dell'IA devono essere integrati sei principi fondamentali.

  1. Governance e responsabilizzazione: è essenziale stabilire una struttura di responsabilizzazione, possibilmente attraverso comitati di vigilanza sull'intelligenza artificiale o comitati di revisione dell'etica. La governance deve essere applicata durante tutto il ciclo di vita dell'IA, dalle fasi iniziali fino alla fase operativa.

  2. Supervisione umana: l'adozione di un approccio antropocentrico, con revisori umani addestrati in varie fasi, è fondamentale per un'applicazione etica dell'intelligenza artificiale.

  3. Correttezza ed etica: gli output dell'IA devono essere in linea con gli standard etici e di correttezza e riflettere la cultura e i valori di un'organizzazione.

  4. Gestione dei dati: l'implementazione di solidi processi di gestione dei dati, il monitoraggio delle modifiche ai set di dati e la mappatura delle origini dati sono fondamentali per sistemi di IA affidabili. 

  5. Miglioramento della trasparenza: garantire che i processi decisionali relativi all'IA siano trasparenti e comprensibili è necessario per costruire fiducia e conformità. 

  6. Privacy e sicurezza informatica: per fare in modo che le applicazioni dell'intelligenza artificiale siano sicure e conformi è fondamentale affrontare i requisiti legali relativi al trattamento dei dati, condurre valutazioni d'impatto sulla privacy e mitigare i rischi informatici specifici dell'IA.

Dato il ritmo con cui l'intelligenza artificiale si sta evolvendo e le sue profonde implicazioni, le organizzazioni devono sviluppare e implementare attivamente programmi di governance dell'IA. Adottando una serie di principi e pratiche di governance fondamentali, le organizzazioni possono muoversi all'interno del panorama dell'IA in modo responsabile, etico ed efficace. Questi principi, basati su considerazioni in termini di etica, conformità legale, trasparenza e responsabilità, guideranno le organizzazioni a sfruttare i vantaggi dell'IA e a mitigarne i rischi, favorendo in ultima analisi la fiducia e il successo in un futuro guidato dall'IA. 
 

Governance dell'IA basata sul valore 

Man mano che le organizzazioni si addentrano nel mondo dell'intelligenza artificiale, lo sviluppo e l'implementazione di un programma di governance dell'IA che sia in linea con i loro valori è fondamentale. Questi quadri di governance non devono solo garantire la conformità agli standard legali, ma anche riflettere gli impegni etici e i valori dell'organizzazione.

Sia che si tratti di fare compromessi difficili tra trasparenza e sicurezza, sia che si tratti di decidere sull'uso etico dei dati, un approccio alla governance dell'IA basato sui valori fornisce una bussola affidabile per guidare le organizzazioni nel complicato panorama delle applicazioni e dell'etica dell'IA. 
 

Considerazioni e suggerimenti finali sulla governance dell'IA

Intelligenza artificiale, GDPR e privacy dei dati 

Quando prendi in considerazione l'interazione tra l'intelligenza artificiale, la legge dell'Unione europea sull'intelligenza artificiale e il GDPR, è fondamentale riconoscere le linee guida esistenti sull'utilizzo dell'IA in linea con il GDPR. Risorse degne di nota includono il kit di risorse fornito dall'Information Commissioner's Office (ICO) del Regno Unito e la guida completa e l'autovalutazione offerta dalla CNIL francese. Questi strumenti offrono preziosi controlli e liste di controllo, aiutando le aziende a garantire la conformità del loro utilizzo dell'IA ai requisiti del GDPR.

Un punto di partenza per allineare l'uso dei dati all'interno dei quadri normativi di IA ai principi del GDPR è quello di condurre accurate valutazioni d'impatto sulla protezione dei dati (DPIA), per garantire che tutti questi processi rimangano conformi.  

Punto di partenza della governance dell'IA: i professionisti della privacy sono ben posizionati per agire come coordinatori, riunendo diverse funzioni e competenze all'interno delle organizzazioni per affrontare la governance dell'IA in modo completo. Questo approccio collaborativo non solo assicura la conformità, ma funge anche da fattore di business, promuovendo un approccio attivo e informato alle difficoltà e alle opportunità emergenti nel panorama dell'intelligenza artificiale.

Approccio all'IA equilibrato: accogli gli sviluppi tecnologici con calma e curiosità. Impegnarsi nel campo dell'intelligenza artificiale richiede la volontà di imparare e adattarsi, riconoscendo che la comprensione e la gestione dei rischi e delle opportunità dell'IA sono una meta da raggiungere.

Evoluzione dei ruoli professionali: con i continui cambiamenti nella tecnologia e nel trattamento dei dati, il ruolo ''Responsabile della protezione dei dati'' si sta evolvendo e potenzialmente passando a ''Responsabile della fiducia dei dati''. L'aspetto essenziale per i professionisti del settore è essere aperti ad assumere nuovi ruoli e responsabilità man mano che il panorama tecnologico e normativo si trasforma.

 

Per fornire alla tua organizzazione un piano in cinque fasi: 

  1. coinvolgi immediatamente i programmi di governance dell'IA. Un approccio attivo in questo senso è fondamentale;

  2. assicurati il coinvolgimento della dirigenza, in quanto la governance dell'IA richiede un approccio a livello aziendale con più parti in causa;

  3. costruisci un team diversificato e competente che comprenda esperti legali, di conformità, di data science, di risorse umane, di sicurezza informatica ed eventualmente esterni;

  4. assegna priorità, stabilisci obiettivi realistici e raggiungibili e prendi in considerazione l'adozione di un approccio graduale alla governance dell'IA;

  5. non perderti gli ultimi sviluppi sulll'IA, interagisci attivamente con i colleghi del settore e partecipa alle iniziative di governance dell'IA per promuovere una comunità collaborativa e informata. 

Il panorama dell'IA è in continua evoluzione: pertanto, le organizzazioni devono affrontare la governance dell'IA in modo attivo e dinamico. Per affrontare le complesse sfide e opportunità presentate dall'IA, è necessario un approccio collaborativo che coinvolga più parti interessate.

 

Richiedi subito una demo per ottenere maggiori informazioni su come la governance dell'IA può aiutare la tua organizzazione.


Altre risorse che potrebbero interessarti

Report

Uso responsabile dell'intelligenza artificiale

Report di Gartner® ''Getting Ready for the EU AI Act, Phase 1: Discover & Catalog''

Report di Gartner® ''Getting Ready for the EU AI Act, Phase 1: Discover & Catalog''

gennaio 23, 2025

Scopri di più

White Paper

AI Governance

Playbook sull'intelligenza artificiale

Una guida pratica per fornitore e deployer dell'intelligenza artificiale 

Scopri di più

Video

AI Governance

Navigare il Panorama Normativo dell’AI: EU AI Act e Soluzioni di AI Governance

Durante il webinar, analizzeremo le principali disposizioni dell'EU AI Act, inclusi i requisiti per la trasparenza, la valutazione dei rischi e gli obblighi di conformità dei sistemi AI, e discuteremo le sfide e le opportunità che queste rappresentano per le aziende.

Scopri di più

Webinar

AI Governance

AI Governance & Compliance: strategie per un’implementazione efficace

OneTrust, in partnership con Protivi, vi invita a questo webinar, in cui saranno approfondite le opportunità e le sfide che l’AI pone per le organizzazioni che cercano di innovare, garantendo al contempo un uso responsabile dei dati.

Scopri di più