La Ley de IA de la UE ha creado cuatro niveles de riesgo diferentes según el uso de los sistemas de IA. Obtén más información sobre cada uno de estos niveles y sobre cómo pueden afectar al uso de la IA en tu organización.
Laurence McNally
Responsable de productos, Gobernanza de la IA de OneTrust
30 de noviembre de 2023
La Ley de IA de la UE adopta un enfoque integral a la hora de regular la inteligencia artificial y establece obligaciones para los proveedores e implementadores en un esfuerzo por garantizar el uso seguro y ético de la tecnología de IA. Para ello, la UE ha propuesto el primer marco normativo para la IA, donde se incluye la categorización de los niveles de riesgo para diferentes sistemas.
El borrador de la Ley de IA de la UE desglosa el riesgo de los sistemas de IA en cuatro categorías diferentes:
Esta categoría prohíbe los sistemas de IA que sean amenazas claras para la seguridad o los derechos humanos. Por ejemplo, se consideran inaceptables los juguetes con asistencia de voz que promuevan comportamientos peligrosos o puntuación social por parte de gobiernos que puedan conducir a discriminación.
El borrador de la Ley de IA de la UE considera que los sistemas de IA que representan una amenaza para la seguridad humana o para los derechos fundamentales son de alto riesgo. Esto puede incluir sistemas que se utilicen en juguetes, aviación, automóviles, dispositivos médicos y ascensores; es decir, cualquier producto que encaje en la normativa de seguridad de productos de la UE.
Los sistemas de riesgo alto también pueden incluir cosas como infraestructuras críticas (como sistemas de transporte) donde un mal funcionamiento podría poner en peligro vidas. Pero además de la seguridad física, estos niveles de riesgo también están diseñados para ayudar a proteger los derechos humanos y la calidad de vida. Por ejemplo, la puntuación de exámenes o la clasificación de currículums a partir de IA se considera un sistema de alto riesgo, puesto que puede afectar a la trayectoria profesional y al futuro de los individuos.
Varias actividades de aplicación de la ley también se consideran de alto riesgo como, p. ej., evaluar la fiabilidad de pruebas, verificar documentos de viaje en el control de inmigración y la identificación biométrica en remoto.
Estos niveles se dirige a sistemas de IA con necesidades de transparencia específicas, como el uso de un chatbot para el servicio de atención al cliente. Tus usuarios deben ser conscientes de que están interactuando con una máquina y tener la oportunidad de optar por excluirse si prefieren hablar con una persona en su lugar. Los sistemas de riesgo limitado dependen de la transparencia y el consentimiento informado del usuario, así como de ofrecer la opción fácil de retirarse.
El riesgo mínimo es el nivel de riesgo más bajo de acuerdo con la Ley de IA y hace referencia a aplicaciones, como videojuegos con tecnología de IA o filtros para emails no deseados.
Recientemente, el Parlamento Europeo introdujo enmiendas que abordan la IA generativa e imponen normas de transparencia adicionales para su uso. Las negociaciones entre el Parlamento, el Consejo y la Comisión de la UE también se han centrado en la clasificación de los modelos fundacionales, por lo que podemos ver aclaraciones adicionales sobre su uso.
Es posible que herramientas de IA como los chatbots que están respaldados por modelos de lenguaje de tamaño considerable (como ChatGPT) tengan que seguir reglas adicionales como aclarar que el contenido se produjo mediante IA, garantizar que el modelo no crea contenido ilegal y publicar resúmenes de los datos con derechos de autor que utilizan para su entrenamiento.
Una cosa es ver los niveles de riesgo que establece la Ley de IA de la UE y otra es comprender cómo encajan en tus operaciones comerciales diarias.
Los sistemas de riesgo inaceptables, como su nombre indica, están prohibidos por la Ley de IA y, por tanto, nadie puede utilizarlos dentro de tu organización. Una herramienta como OneTrust AI Governance marcará y rechazará de forma automática cualquier sistema que se clasifique dentro de este nivel de riesgo, lo que protege a tu organización y libera tiempo para que tu equipo pueda revisar otras cosas.
En el otro extremo del espectro de los riesgos, los sistemas de riesgo limitado y mínimo pueden aprobarse de forma automática mediante el producto AI Governance, lo que permite que una red más amplia dentro de tu equipo pueda avanzar con su proyecto y continuar innovando de la mano de la IA.
En ambos tipos de riesgo, la decisión de aprobar o denegar el uso del sistema puede tomarse automáticamente a partir de tu herramienta, puesto que las directrices son claras en cualquier caso. Cuando se trata de sistemas de alto riesgo, la situación se ve con menos claridad.
Los sistemas que se consideran de alto riesgo no están prohibidos de forma automática según lo dispuesto en el borrador de la Ley de IA de la UE; sin embargo, sí que tienen más requisitos que deben cumplirse antes de que dicho sistema se pueda implementar. Estos requisitos demuestran que la tecnología y su uso no suponen una amenaza significativa para la salud, la seguridad y los derechos humanos fundamentales.
Los desarrolladores de sistemas de IA determinan la categoría de riesgo de su sistema utilizando los estándares establecidos por la UE. En lo que respecta a los sistemas de alto riesgo, los implementadores tienen responsabilidades continuas de cumplimiento normativo, monitorización, supervisión humana y transparencia en cuanto se pongan en uso.
Esta supervisión y cumplimiento normativo de carácter continuo pueden requerir mucho trabajo manual, por lo que encontrar formas de automatizar estas revisiones ahorrará mucho tiempo a tu equipo. OneTrust marca los sistemas de alto riesgo para su revisión manual, por lo que no se rechazan de forma automática. Sin embargo, tu equipo de cumplimiento normativo necesita tomarse el tiempo para efectuar las diligencias debidas con el fin de decidir si merece la pena utilizar el sistema (y asumir la responsabilidad adicional de las operaciones) o si sería mejor utilizar otro sistema en su lugar.
Este es un ejemplo práctico para ver cómo un proyecto real puede avanzar con el uso de un sistema de IA y del producto AI Governance.
Supongamos que tu equipo de marketing quiere utilizar GPT-4 de OpenAI para crear emails de marketing personalizados. Esta sería la fase de inicialización del proyecto, donde un equipo identifica un caso práctico para un sistema de IA y necesita que se apruebe.
Tu equipo de cumplimiento normativo tendría que realizar una evaluación para determinar si el sistema es útil y seguro de usar. OneTrust ofrece estas evaluaciones accesibles y concisas, donde el responsable del proyecto puede establecer sus objetivos y sus propósitos.
A partir de ahí, se debe asignar al proyecto un nivel de riesgo. OneTrust automatiza este proceso evaluando el proyecto y asignando automáticamente un nivel de riesgo, tal y como se explicó anteriormente.
Dependiendo del nivel de riesgo asignado, tu equipo podría acelerar la implementación de su proyecto. En este caso, el uso de GPT-4 se ha considerado de bajo riesgo por la herramienta AI Governance y se aprueba de forma automática para que el equipo de marketing pueda avanzar con su proyecto.
La solución OneTrust AI Governance va mucho más allá del mero cumplimiento de la Ley de IA de la UE. Se trata de una solución completa para monitorizar las actividades de IA dentro de tu organización.
OneTrust te ayuda a innovar más rápido sin descuidar la seguridad, tanto si te enfrentas a las normativas europeas como a otros desafíos de gobierno de datos.
Solicita una demostración hoy mismo para ver cómo OneTrust puede jugar un papel integral a la hora de trabajar y experimentar con la IA.
Seminario web
Acompáñanos en este webinar para explorar juntos el panorama normativo actual de la inteligencia artificial, con especial atención a la Ley de IA de la UE que entró en vigor el pasado 1 de agosto. Además, durante el webinar se hará una demostración práctica de nuestra solución AI Governance, que mostrará cómo puedes ayudar a tu organización a optimizar tus procesos de gestión, documentación y análisis.
Documento técnico
¿Cómo puede tu organización crear un equipo de gobernanza de la IA que aborde las cuestiones de privacidad y, al mismo tiempo, desarrolle políticas y procedimientos que sigan cumpliendo la normativa mundial y los marcos de la IA? Nuestro guía práctica responde a esta pregunta y a otras más.