Puntos clave de la primera legislación mundial que regula la inteligencia artificial
Ya te contamos en el anterior artículo sobre la lei de inteligencia artificial (IA) de la Unión Europea (UE), la primera en todo el mundo que regula esta tecnología, que establece una clasificación de sistemas basada en el nivel de riesgo que pueden suponer para los derechos y libertades de la ciudadanía. Esta clasificación es crucial para determinar las obligaciones que tienen que cumplir los desarrolladores y usuarios de la IA. Por tanto, si la manera como el reglamento cataloga el riesgo es tan importante, ¿te parece bien si ahondamos en ello?
¿Qué niveles de riesgo fija la ley?
1. Riesgo inaceptable: Los sistemas de IA considerados como de riesgo inaceptable están prohibidos porque suponen una amenaza clara para los derechos fundamentales. Éstos incluyen tecnologías como la vigilancia masiva sin control judicial o el uso de técnicas de manipulación subliminal que pueden causar daños físicos o psicológicos.
Ejemplo: Un sistema de reconocimiento facial usado para monitorizar continuamente las actividades de los ciudadanos en espacios públicos sin su consentimiento explícito y sin una autorización legal adecuada.
2. Riesgo alto: Los sistemas de IA de alto riesgo tienen potencial de afectar gravemente los derechos y libertades individuales, de ahí que tengan que cumplir estrictos requisitos de transparencia, seguridad y supervisión. Estos sistemas se usan en sectores críticos como la salud, educación, seguridad o el sistema judicial.
Ejemplo: Algoritmos que se usan para evaluar las solicitudes de préstamos bancarios o las evaluaciones de riesgo de reincidencia en el sistema judicial. Estos sistemas tienen que ser objeto de evaluaciones independientes para asegurar que no sean discriminatorios y que funcionen correctamente.
3. Riesgo limitado: Los sistemas de riesgo limitado tienen menos potencial para causar daños, pero todavía requieren cierta supervisión y medidas de transparencia. Deben proporcionar información clara a los usuarios sobre su naturaleza y función, así como asegurar que los resultados sean comprensibles y auditables.
Ejemplo: Aplicaciones de IA utilizadas en atención al cliente que proporcionen respuestas automáticas a preguntas frecuentes. Aunque no tomen decisiones críticas, deben informar claramente a los usuarios cuando están interactuando con una IA.
4. Riesgo mínimo o negligible: Los sistemas de IA que suponen un riesgo mínimo o negligible tienen menos requisitos normativos, ya que su uso no presenta una amenaza significativa per los derechos y libertades de les personas. Estos sistemas a menudo están sujetos a las normativas generales de seguridad y privacidad.
Ejemplo: Algoritmos de recomendación en plataformas de streaming de música o vídeo, que sugieren contenido basado en las preferencias de los usuarios. Aunque sean importantes para la experiencia de usuario, no representan un riesgo para sus derechos fundamentales.
A pesar de que las leyes vigentes hasta el momento ya ofrecían cierto grado de protección, resultaban insuficientes para encarar los retos de futuro y la UE esta vez se puso las pilas para evitar que la normativa fuese cien pasos por detrás de la tecnología. Así, la Ley de la IA garantiza que la ciudadanía europea pueda confiar en todo lo que la IA nos puede ofrecer. Aunque la mayoría de sistemas de IA tengan un riesgo limitado o nulo, hay algunos que comportan peligros que pueden derivar en resultados indeseados. Es justamente lo que normativa quiere evitar.
Te invitamos a leer el texto entero para saber hasta el último detalle.
¿Y a partir de ahora qué?
Todos sabemos que el primer reglamento en el mundo que regula la IA es vigente desde el pasado 1 de agosto y que se aplicará progresivamente durante los próximos dos años. ¿Pero qué significa esto? ¡Repasémoslo!
Los estados miembros de la UE tienen un año (hasta el 2 de agosto de 2025) para designar a las autoridades nacionales competentes que supervisaran la aplicación de la normativa. A nivel europeo, la Oficina de IA de la Comisión será el principal organismo de aplicación de la Ley de IA, así como la autoridad responsable de la aplicación de las normas relativas a los modelos de IA de uso general. A su vez, también habrá otros órganos consultivos que la asesorarán.
Para superar el período transitorio antes de su plena aplicación de aquí a dos años, la Comisión ha puesto en marcha el Pacto sobre la IA, que invita a los desarrolladores de IA a adoptar voluntariamente las obligaciones clave de la Ley de IA antes de los plazos legales. ¿Creus que darán el paso?
Para más información sobre la ley, te recomendamos las siguientes lecturas: