Actualidad

Áreas de trabajo
Las iniciativas intergubernamentales para la gobernanza de la Inteligencia Artificial ganan impulso
10 noviembre, 2023

En el dinámico mundo tecnológico actual, la Inteligencia Artificial (IA) se ha erigido como una fuerza impulsora de la transformación digital, que impacta profundamente en la sociedad y en todos los sectores económicos. A medida que la IA avanza, varios países e instituciones intergubernamentales están tratando de definir un marco de gobernanza que oriente su desarrollo e implementación. Los últimos meses de 2023 han sido especialmente prolíficos en este sentido. En los últimos días, se han sucedido avances normativos, como la tramitación del AI Act, que ya encara su recta final; cumbres internacionales, como la organizada por el Reino Unido; o acuerdos de mínimos globales, como el anunciado por el G7, en el marco del proceso de Hiroshima.

Todas estas iniciativas comparten una premisa común: encontrar el adecuado equilibrio entre el fomento de la innovación y la salvaguarda de la responsabilidad, a la hora de regular la IA. Y es que la transparencia, la explicabilidad y la ética, deben ser los pilares sobre los que desarrollar esta tecnología para asegurar el respeto de los derechos fundamentales. Al mismo tiempo, cualquier regulación debe tener en cuenta y preservar la innovación, la eficiencia y la competitividad que comporta. Especialmente, cuando la inteligencia artificial y la autonomía estratégica abierta están intrínsecamente relacionadas, siendo la capacidad de desarrollar y utilizar tecnologías de IA clave para la competitividad de los países. A todo ello se suma la necesidad de regular su desarrollo de forma colectiva.

Por tanto, las naciones que busquen liderar en este campo deben abrazar la innovación, la ética y la cooperación internacional para aprovechar al máximo el potencial de la IA en beneficio de todos. A continuación, profundizamos en las iniciativas más destacadas:

UNIÓN EUROPEA: Propuesta de Reglamento de Inteligencia Artificial

Presentada por la Comisión Europea en abril de 2021, la propuesta de reglamento de Inteligencia Artificial (AI Act) apunta a ser la primera regulación del mundo en esta materia. El texto ha suscitado un acalorado debate entre los responsables políticos, la sociedad civil y la comunidad empresarial. El auge de determinadas tecnologías y usos de IA, como la IA de propósito general (GPAI) y los Modelos Fundacionales han añadido mayor complejidad al debate.

El texto se encuentra actualmente en negociaciones en trílogos entre la Comisión Europea, el Parlamento Europeo y el Consejo de la UE. España, que preside este último, se ha marcado como prioridad llegar a un acuerdo sobre la propuesta de Reglamento antes de que finalice su mandato el 31 de diciembre de 2023. El quinto trílogo está previsto para el 6 de diciembre, donde muy previsiblemente, el centro de debate girará en torno al artículo 6, los GPAI y los modelos fundacionales. 

ESPAÑA: Sandbox de IA y AESIA

El entorno controlado de pruebas del Reglamento Europeo de Inteligencia Artificial (Sanbox de IA) es una iniciativa impulsada por el Gobierno de España en colaboración con la Comisión Europea. Su misión es conectar a las autoridades competentes con las compañías desarrolladoras de IA para definir de forma conjunta buenas prácticas a la hora de implementar la futura regulación europea. Para ello se generarán directrices y guías que preparen y sensibilicen a las empresas de cara a la posterior entrada en vigor del Reglamento de IA.

El 7 de noviembre el Consejo de Ministros anunció la aprobación del  Real Decreto que abre la convocatoria a empresas para participar en el Sandbox. Podrán participar entidades públicas y privadas y administraciones públicas, y se seleccionarán aquellos sistemas de IA que estén comercializados o en fase de pruebas. El texto también prevé la creación de un comité asesor de expertos integrado por profesionales independientes de reconocido prestigio y experiencia técnica en campos afines.

Asimismo, España ha creado la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) en La Coruña, adelantándose al resto de países europeos en la creación de una autoridad de supervisión de la IA, que el Reglamento de IA establecerá como obligatorio. La legislación al respecto será de obligado cumplimiento a lo largo del 2024. También recientemente se anunció la puesta en marcha del Centro de Transparencia Algorítmica de la Comisión Europea en Sevilla.

PROCESO DE HIROSHIMA DEL G7: Principios Rectores Internacionales

El pasado 30 de octubre, los miembros del G7 presentaron los Principios Rectores Internacionales para Organizaciones que Desarrollan Sistemas Avanzados de Inteligencia Artificial. El documento es el resultado del denominado Proceso de Hiroshima del G7 y busca promover una IA segura y confiable en todo el mundo y orientar a las organizaciones que desarrollan y utilizan sistemas de IA avanzados, incluidos los modelos fundacionales y la IA generativa. Estos principios incluyen:

  • Identificar, evaluar y mitigar los riesgos a lo largo del ciclo de vida de la IA;
  • Informar sobre las capacidades, limitaciones y usos apropiados e inapropiados de los sistemas avanzados de IA;
  • Compartir información y reportar incidentes entre las organizaciones que desarrollan estos sistemas, así como con la industria, gobiernos, sociedad civil y academia;
  • Desarrollar, implementar y divulgar políticas de gestión de riesgos y gobernanza de la IA, con un enfoque basado en el riesgo;
  • Desarrollar mecanismos que permitan a los usuarios identificar contenido generado por IA;
  • Priorizar el desarrollo de sistemas avanzados de IA para abordar los grandes desafíos globales, como la crisis climática;
  • Avanzar en el desarrollo y adopción de normas técnicas internacionales;
  • Implementar medidas de protección de datos personales y propiedad intelectual.

En paralelo, el G7 ha publicado el Código de Conducta para Organizaciones que Desarrollan Sistemas Avanzados de IA, de carácter voluntario, que desarrolla el listado de principios con acciones más específicas para orientar la actuación de las organizaciones. Las organizaciones pueden suscribir este acuerdo de manera voluntaria, en cuyo caso publicarán informes públicos sobre las capacidades, limitaciones y el uso y mal uso de los sistemas de IA. De hecho, el G7 ha anunciado que próximamente se darán a conocer a los primeros firmantes. Dicho código de conducta voluntario representa un hito en la manera en que estos países gobiernan la IA.

REINO UNIDO: Declaración de Bletchley

El AI Safety Summit, la cumbre organizada del 1 al 2 de noviembre de 2023  por Reino Unido, y centrada en la seguridad de la inteligencia artificial, ha concluido con la firma del Acuerdo de Bletchley. Entre sus firmantes se encuentran, además de Reino Unido, Estados Unidos, China, Brasil, India, Indonesia, Japón, Kenia, Turquía, Ruanda, Singapur, seis países de la UE (Francia, Italia, Alemania, Irlanda, Países Bajos y España), y la propia Unión Europea.

La declaración de Bletchley, publicada el 1 de noviembre, reconoce, en primer lugar, el potencial relativo a la inteligencia artificial como una herramienta capaz de «mejorar el bienestar humano, la paz y la prosperidad». Aún así, precisa que, para avanzar en este camino, es necesario que la IA se desarrolle de forma segura, con una perspectiva humanista y responsable, especialmente en sectores críticos como la salud o la educación.

Los signatarios se han comprometido a colaborar en la promoción de acciones a nivel nacional e internacional relacionadas con los riesgos de la IA de frontera, que se entiende como modelos de IA de propósito general altamente capaces. Concretamente, han acordado: (i) identificar los riesgos de seguridad de la IA que sean de interés común y con un enfoque global; y (ii) desarrollar políticas nacionales basadas en la evaluación de riesgos, reconociendo que los enfoques pueden variar según las circunstancias internas y los marcos legales aplicables.

La próxima AI Safety Summit tendrá lugar en Corea del Sur dentro de seis meses, y a finales de 2024 se celebrará una tercera cumbre en Francia.

ESTADOS UNIDOS: Orden Ejecutiva de IA

El 30 de octubre, el presidente de Estados Unidos, Joe Biden, firmó una Orden Ejecutiva sobre el desarrollo y uso seguro y confiable de la inteligencia artificial. La orden obliga a las empresas que desarrollen cualquier sistema que pueda suponer un riesgo grave para la seguridad nacional, la seguridad económica nacional o la salud públicas a notificar a la administración cuando vayan a poner a prueba ese modelo.

Al mismo tiempo, la orden ejecutiva tratará de evitar el fraude y el engaño mediante el uso de la IA, en este caso obligando al etiquetado con claridad del contenido generado por la inteligencia artificial. También incorpora cláusulas para proteger la privacidad, mejorar los derechos civiles, resguardar los consumidores, apoyar a los trabajadores y promover la innovación, entre otra

El texto, además, señala que apoya y complementa el liderazgo de Japón en el Proceso de Hiroshima del G-7, la Cumbre del Reino Unido sobre Seguridad de la IA, el liderazgo de la India como Presidente de la Asociación Global sobre IA, y los debates en curso en las Naciones Unidas.

ONU: AI Advisory Board

A finales de octubre se presentó el AI Advisory Body, el consejo asesor sobre inteligencia artificial de la Organización de las Naciones Unidas, que estará co-presidido por Carme Artigas, actual Secretaria de Estado de Digitalización e Inteligencia Artificial del Gobierno de España. Este órgano elaborará recomendaciones para la gobernanza internacional de la IA, y con este fin, abrirá un periodo de consultas a partir del mes de noviembre.