En noviembre de 2024, la Comisión Europea publicó el primer borrador del Código de Prácticas para la Inteligencia Artificial (IA) de Propósito General, cuyo fin es que grandes empresas a nivel mundial cumplan con los establecido en la Ley de IA.
El Código de Prácticas es un instrumento de cumplimiento propuesto por la UE que detalla requisitos, normas y mecanismos que han de cumplir las empresas tecnológicas para estar de acuerdo con la Ley de Inteligencia Artificial.
El primer borrador del documento ha sido elaborado gracias a la colaboración de la Oficina Europea de IA, con base en información proporcionada por los principales proveedores de modelos de inteligencia artificial de propósito general (GPAI). Éste será revisado en los próximos meses a la espera de su versión definitiva antes del 1 de mayo de 2025.
Por lo pronto, la Comisión Europea afirma que “La versión final establecerá objetivos, medidas y, cuando sea pertinente, indicadores clave de desempeño (KPI). Desempeñará un papel crucial en la orientación del desarrollo y la implementación futura de GPAI seguros y confiables. Deberá detallar reglas relacionadas con los derechos de autor y definir los riesgos sistémicos así como medidas de evaluación y de mitigación”
¿Qué propone el Código de Prácticas de IA?
El nuevo Código de Prácticas de Inteligencia Artificial, propuesto por la Unión Europea, considera cuatro aspectos fundamentales para garantizar la seguridad en el desarrollo de sistemas de IA: transparencia, cumplimiento de los derechos de autor, identificación de riesgos y la moderación de peligros técnicos y de gobernanza.
Enfatiza que empresas que trabajen con grandes modelos de IA de propósito general deberán de informar sobre los rastreadores web, fuentes de información y bases de datos que han utilizado para entrenar, probar y verificar los algoritmos. Además, tendrán que exponer los términos de los acuerdos de licencia que les permiten acceder a contenidos protegidos e implementar un punto de contacto único para gestionar las quejas y comentarios de los titulares de la propiedad intelectual.
En cuanto a las posibles amenazas como uso indebido de la IA, delitos cibernéticos o manipulación de datos, las empresas afectadas por la normativa han de comprometerse a considerar y abordar estas amenazas como riesgos sistemáticos.
Por otro lado, los creadores de modelos de inteligencia artificial de propósito general (GPAI) adoptarán un Marco de Seguridad y Protección (SSF) para garantizar la seguridad y la responsabilidad en el desarrollo de IA. Será necesario que los proveedores desglosen sus protocolos de gestión y mitigación de contingencias, considerando aspectos técnicos, de manejo de datos, de detección de fallas y de evaluación de la eficiencia de sus productos.
El Código de Prácticas no tiene carácter obligatorio aunque exige a las entidades tecnológicas relacionadas con la IA entregar informes periódicos sobre sus lineamientos de gobernanza internos, realizar análisis continuos sobre las posibles amenazas de sus sistemas y la incorporación de evaluadores externos cuando sea necesario.
¿Quieres certificar tu Sistema de Inteligencia Artificial?
El equipo de consultores expertos en Ciberseguridad y Seguridad de la Información de Grupo Ingertec, te ayudará a certificarte en ISO 42001. Sistema de Gestión de Inteligencia Artificial (IA).
Con más de 20 años en el mercado, contamos con la experiencia y el mejor equipo consultor, quienes te apoyarán en todo momento.
¡No lo dudes más y contáctanos!