EU AI ACT

Ley de Inteligencia Artificial

Cumple con la Ley que regula el desarrollo y uso de la IA en la Unión Europea.

  • Obligatoria para todos los participantes en la cadena de valor de la IA.

  • Somos consultores expertos en Tecnologías de la Información

¿Qué es la EU AI ACT?

La Unión Europea está liderando el camino hacia una IA responsable con la Ley de Inteligencia Artificial, también conocida como EU AI ACT, el primer marco legal integral del mundo para regular el desarrollo y uso de esta tecnología.

Esta ley pionera establece un enfoque basado en el riesgo, adaptando las normas a los diferentes niveles de peligro que la IA puede presentar.

¿Qué significa esto en la práctica?

  • Prohibición de usos de alto riesgo: La Ley de IA de la UE prohíbe directamente ciertas aplicaciones de la IA que se consideran inaceptables, como la manipulación subliminal o la puntuación social.
  • Requisitos estrictos para IA de alto riesgo: Sistemas de IA utilizados en áreas críticas como la salud, la seguridad o la justicia estarán sujetos a rigurosos requisitos de gobernanza, gestión de riesgos y transparencia.
  • Regulación de modelos de IA de propósito general: Modelos como Granite de IBM o Llama 3 de Meta, con su amplio abanico de aplicaciones, también se rigen por esta ley.
  • Sanciones significativas por incumplimiento: Las empresas que no cumplan con la Ley de IA de la UE se enfrentan a multas considerables, que pueden llegar hasta los 35 millones de euros o el 7% de su facturación anual global.

El Parlamento Europeo aprobó la Ley de Inteligencia Artificial (AI Act) el 13 de marzo de 2024.
Posteriormente, el Consejo de la Unión Europea la adoptó formalmente el 21 de mayo de 2024.
Finalmente la Ley entró en vigor el 1 de agosto de 2024.

Empresas afectadas

La Ley de IA de la UE afecta a toda la cadena de valor de la IA, incluyendo a proveedores, implementadores, importadores, distribuidores, fabricantes y representantes autorizados. Estos, son definidos según la propia Ley de IA:

Los «proveedores» son personas y organizaciones que crean o encargan la creación de sistemas de IA, incluyendo los modelos de IA de propósito general (como los modelos base), y los comercializan o ponen en servicio bajo su propia marca.

Ley de IA de la UE también se aplica a proveedores de fuera de la UE si su IA, o los resultados de la IA, se utilizan en la UE.

Los proveedores fuera de la UE que ofrecen servicios de IA en la UE deben designar representantes autorizados en la UE para coordinar los esfuerzos de cumplimiento en su nombre.

Los «implementadores» son personas u organizaciones que utilizan sistemas de IA. Por ejemplo, una organización que utiliza un chatbot de IA de terceros para gestionar consultas de servicio al cliente sería un implementador.

Ley de IA de la UE también se aplica a implementadores de fuera de la UE si su IA, o los resultados de la IA, se utilizan en la UE.

Los «importadores» son personas y organizaciones ubicadas o establecidas en la UE que llevan al mercado de la UE sistemas de IA de una persona o empresa establecida fuera de la UE.

Los «distribuidores» son personas u organizaciones que ponen a disposición sistemas de IA o modelos de IA de propósito general en el mercado de la Unión Europea.

 

Los «fabricantes» son personas u organizaciones que incorporan sistemas de IA en sus productos y los comercializan bajo su propio nombre o marca.

Los «representantes autorizados» son personas u organizaciones designadas por proveedores no establecidos en la Unión Europea para actuar en su nombre en relación con las obligaciones de la Ley de IA.

 

Niveles de Riesgo

La Ley de IA de la UE establece cuatro niveles de riesgo para los sistemas de IA. Además, clasificarlos en un nivel u otro dependerá de su uso previsto y de las circunstancias en las que se utiliza.

Son sistemas de IA que se consideran una amenaza para la seguridad, los medios de subsistencia y los derechos de las personas.

Como por ejemplo los sistemas de puntuación social, manipulación cognitiva subliminal, explotación de vulnerabilidades de grupos específicos.

Estos sistemas estarán prohibidos.

Son sistemas de IA utilizados en áreas críticas con un alto potencial de daño significativo.

Como por ejemplo los dispositivos médicos, sistemas de transporte, sistemas de justicia penal, sistemas de gestión de infraestructuras críticas.

Estos sistemas tienen requisitos estrictos de conformidad antes de su puesta en el mercado, incluyendo:

  • Evaluaciones de riesgos.
  • Alta calidad de los conjuntos de datos.
  • Supervisión humana.
  • Registro en una base de datos de la UE.

Son sistemas de IA con obligaciones específicas de transparencia.

Como por ejemplo chatbots, sistemas de reconocimiento de emociones, sistemas de generación de contenido (deepfakes).

Para el uso de estos sistemas, los usuarios deben ser conscientes de que están interactuando con un sistema de IA.

La mayoría de los sistemas de IA actuales entran en esta categoría.

Como por ejemplo filtros de spam, videojuegos con IA.

No están sujetos a obligaciones específicas bajo la Ley de IA, pero deben cumplir con otras leyes existentes.

Requisitos de la EU AI ACT

La Ley de IA de la UE establece una serie de requisitos para los sistemas de IA, especialmente aquellos clasificados como de alto riesgo. Estos requisitos se centran en garantizar que los sistemas de IA sean seguros, fiables y respetuosos con los derechos fundamentales. Algunos de los requisitos más importantes son:

  • Evaluación de la conformidad.
  • Gestión de riesgos.
  • Calidad y protección de los datos.
  • Transparencia y trazabilidad.

  • Supervisión humana.
  • Documentación técnica.
  • Ciberseguridad.
  • No discriminación.

¿Qué podemos hacer por tu empresa?

Proceso Online

Consultores Expertos

Auditoría Interna

Certificación Asegurada

Precio Justo

Pide tu PRESUPUESTO

Completa el formulario y te contactaremos lo más pronto posible