En noviembre de 2024, la Comisión Europea publicó el primer borrador del Código de Prácticas para la Inteligencia Artificial (IA) de Propósito General, cuyo fin es que grandes empresas a nivel mundial cumplan con los establecido en la Ley de IA.

Es una guía voluntaria desarrollada por la Comisión Europea junto con empresas y organizaciones, y detalla requisitos, normas y mecanismos que han de cumplir las empresas tecnológicas para estar de acuerdo con la Ley de Inteligencia Artificial.

El primer borrador del documento ha sido elaborado gracias a la colaboración de la Oficina Europea de IA, con base en información proporcionada por los principales proveedores de modelos de inteligencia artificial de propósito general (GPAI). Éste será revisado en los próximos meses a la espera de su versión definitiva antes del 1 de mayo de 2025.

Por lo pronto, la Comisión Europea afirma que “La versión final establecerá objetivos, medidas y, cuando sea pertinente, indicadores clave de desempeño (KPI). Desempeñará un papel crucial en la orientación del desarrollo y la implementación futura de GPAI seguros y confiables. Deberá detallar reglas relacionadas con los derechos de autor y definir los riesgos sistémicos así como medidas de evaluación y de mitigación”

¿Qué propone el Código de Prácticas para la IA?

El nuevo Código de Prácticas de Inteligencia Artificial considera cuatro aspectos fundamentales para garantizar la seguridad en el desarrollo de sistemas de IA: transparenciacumplimiento de los derechos de autor, identificación de riesgos y la moderación de peligros técnicos y de gobernanza.

Está vinculado a Ley de Servicios Digitales (DSA) y busca prevenir desinformación mediante IA. Por esta razón, exige a empresas que trabajan con grandes modelos de IA de propósito general, que informen sobre los rastreadores web, fuentes de información y bases de datos que han utilizado para entrenar, probar y verificar los algoritmos. Además, tendrán que exponer los términos de los acuerdos de licencia que les permiten acceder a contenidos protegidos e implementar un punto de contacto único para gestionar las quejas y comentarios de los titulares de la propiedad intelectual.

En cuanto a las posibles amenazas como uso indebido de la IA, delitos cibernéticos o manipulación de datos, las empresas afectadas por la normativa han de comprometerse a considerar y abordar estas amenazas como riesgos sistemáticos.

Por otro lado, los creadores de modelos de inteligencia artificial de propósito general (GPAI) adoptarán un Marco de Seguridad y Protección (SSF) para garantizar la seguridad y la responsabilidad en el desarrollo de IA. Será necesario que los proveedores desglosen sus protocolos de gestión y mitigación de contingencias, considerando aspectos técnicos, de manejo de datos, de detección de fallas y de evaluación de la eficiencia de sus productos.

El Código de Prácticas para la IA no tiene carácter obligatorio aunque exige a las entidades tecnológicas relacionadas con la IA entregar informes periódicos sobre sus lineamientos de gobernanza internos, realizar análisis continuos sobre las posibles amenazas de sus sistemas y la incorporación de evaluadores externos cuando sea necesario.

¿Quieres sumar tu empresa al cumplimiento normativo?

El equipo de consultores expertos en Ciberseguridad y Seguridad de la Información de Grupo Ingertec, pueden ayudarte en la certificación de tu Sistema de Gestión de Inteligencia Artificial (IA), según ISO 42001, así como al cumplimiento del Código de Prácticas para la IA.

Con más de 20 años en el mercado, contamos con la experiencia y el mejor equipo consultor, quienes te apoyarán en todo momento.

¡No lo dudes más y contáctanos!

¿Necesitas más información?

¿Qué ofrecer a tu empresa?

Proceso Online

Consultores Expertos

Auditoría Interna

Certificación Asegurada

Precio Justo

¡Suscríbete a nuestra Newsletter!

¿Qué ofrecer a tu empresa?

Proceso Online

Consultores Expertos

Auditoría Interna

Certificación Asegurada

Precio Justo

¡Suscríbete a nuestra Newsletter!