Libera tu mente y alcanza tus metas
Borrador del código de buenas prácticas de Inteligencia Artificial de uso general
Borrador del código de buenas prácticas de Inteligencia Artificial de uso general

Borrador del código de buenas prácticas de Inteligencia Artificial de uso general

Expertos independientes presentaron el segundo borrador del Código de Prácticas de IA de propósito general, basado en los comentarios recibidos sobre el primer borrador, publicado el 14 de noviembre de 2024.

Cada borrador es un trabajo en progreso y refleja las opiniones de las partes interesadas que participan en los grupos de trabajo del Código de prácticas y los talleres de proveedores, que constan de alrededor de 1.000 interesados, incluidos representantes de los Estados miembros de la UE y observadores europeos e internacionales.

El contenido del segundo borrador se basó en las reuniones del Grupo de trabajo que se celebraron durante la semana del 18 de noviembre de 2024. Los participantes tuvieron la oportunidad de proporcionar comentarios verbales, hacer preguntas a los presidentes y responder a las preguntas de los presidentes a través de encuestas interactivas.

Se presentó en el Plenario un resumen del contenido discutido en estas reuniones del Grupo de trabajo. Los presidentes también recibieron 354 presentaciones de comentarios por escrito sobre el primer borrador a través de una plataforma dedicada, y consideraron los comentarios de los proveedores de modelos de IA de propósito general presentados en talleres dedicados, donde se tomaron actas que se compartirán con todos los participantes del plenario para mantener la transparencia. Los presidentes y vicepresidentes también fueron invitados a una serie de reuniones interinstitucionales:

Estado del segundo borrador

El Código es un documento de orientación para los proveedores de modelos de IA de uso general que demuestren el cumplimiento de la Ley de IA a lo largo de todo el ciclo de vida de los modelos.

El segundo borrador se basa en trabajos anteriores y tiene como objetivo proporcionar un Código "a prueba de futuro"; será especialmente relevante para los modelos que se publiquen después del 2 de agosto de 2025, cuando comiencen a aplicarse las nuevas normas sobre modelos de IA de uso general.

La primera parte del borrador del Código detalla las obligaciones de transparencia y derechos de autor para todos los proveedores de modelos de IA de uso general, con notables exenciones para los proveedores de ciertos modelos de código abierto de acuerdo con la Ley de IA. En cuanto a la plantilla para un resumen adecuado del contenido de los datos de entrenamiento, se puede esperar una propuesta de la Oficina de IA a principios del próximo año. La Oficina de IA tiene como objetivo tener en cuenta los comentarios de los participantes del Código de Prácticas antes de que la Comisión adopte oficialmente la plantilla.

La segunda parte del Código solo es relevante para un pequeño número de proveedores de los modelos de IA de uso general más avanzados que podrían plantear riesgos sistémicos, de conformidad con los criterios de clasificación del artículo 51 de la Ley de IA. En este punto, el Código describe las medidas para la evaluación y mitigación de riesgos sistémicos, incluidas las evaluaciones de modelos, la notificación de incidentes y las obligaciones en materia de ciberseguridad. La estructura del Código se adaptó para describir los objetivos, los compromisos y las medidas (reemplazando la estructura del borrador anterior, que consistía en objetivos, medidas y submedidas), e incluir ejemplos preliminares de indicadores clave de desempeño (KPI).

También se intentó señalar claramente las obligaciones derivadas de la Ley de IA, que el Código pretende especificar más a través de medidas concretas que los signatarios se comprometen a adoptar para cumplir eficazmente con estas obligaciones.

Según el REGLAMENTO EUROPEO DE IA (UE 2024/1689) (Guía práctica [PDF]), publicado en junio de 2024, el enfoque de la UE con respecto a la inteligencia artificial se centra en la excelencia y la confianza, con el objetivo de impulsar la investigación y la capacidad industrial, garantizando al mismo tiempo la seguridad y los derechos fundamentales.

  1. ACCIÓN Y SUPERVISIÓN HUMANA. Se entiende que los sistemas de IA se desarrollan y utilizan como herramienta al servicio de las personas, que respeta la dignidad humana y la autonomía personal, y que funciona de manera que pueda ser controlada y vigilada adecuadamente por seres humanos.
  2. SOLIDEZ TÉCNICA Y SEGURIDAD. Los sistemas de IA se desarrollan y utilizan de manera que sean sólidos en caso de problemas y resilientes frente a los intentos de alterar el uso o el funcionamiento del sistema de IA para permitir su uso ilícito por terceros y reducir al mínimo los daños no deseados.
  3. GESTIÓN DE LA PRIVACIDAD Y DE LOS DATOS. Los sistemas de IA se desarrollan y utilizan de conformidad con normas en materia de protección de la intimidad y de los datos, al tiempo que tratan datos que cumplen normas estrictas en términos de calidad e integridad.
  4. TRANSPARENCIA. Los sistemas de IA se desarrollan y utilizan de un modo que permita una trazabilidad y explicabilidad adecuadas, y que, al mismo tiempo, haga que las personas sean conscientes de que se comunican o interactúan con un sistema de IA e informe debidamente a los responsables del despliegue acerca de las capacidades y limitaciones de dicho sistema de IA y a las personas afectadas acerca de sus derechos.
  5. 5. DIVERSIDAD, NO DISCRIMINACIÓN Y EQUIDAD. Los sistemas de IA se desarrollan y utilizan de un modo que incluya a diversos agentes y promueve la igualdad de acceso, la igualdad de género y la diversidad cultural, al tiempo que se evitan los efectos discriminatorios y los sesgos injustos prohibidos por el Derecho nacional o de la Unión.
  6. BIENESTAR SOCIAL Y AMBIENTAL. Los sistemas de IA se desarrollan y utilizan de manera sostenible y respetuosa con el medio ambiente, así como en beneficio de todos los seres humanos.
  7. RENDICIÓN DE CUENTAS. Supervisión y evaluación de los efectos a largo plazo en las personas, la sociedad y la democracia.

Fuente: Digital Strategy