La Comisión Europea lanza su propuesta para regular la Inteligencia Artificial

La Comisión Europea lanza su propuesta para regular la Inteligencia Artificial

26 abril, 2021

Categorías:

Actualidad  |  Policy

Comparte esta noticia:

El pasado miércoles 21 de abril, la Comisión Europea hizo pública su propuesta para regular la Inteligencia Artificial, una iniciativa de vital importancia para una tecnología que aún no cuenta con un marco legal unificado en Europa y que, debido a su potencial de impacto como elemento esencial de la economía del dato, será clave para gobernar la transformación digital de la economía y sociedad europeas.

Con esta propuesta, la Comisión Europea sigue adelante en su objetivo de convertirse en el actor de referencia en materia normativa, liderando el debate global en torno a la regulación digital y buscando además la generación de sinergias positivas hacia otras potencias, como Estados Unidos.

En línea con la legislación europea anterior, el documento pone especial énfasis en la defensa de los derechos fundamentales de los ciudadanos, procurando que los principios y valores fundamentales de la Unión se vean respetados, sin que ello limite el desarrollo y la innovación. La voluntad de garantizar un uso ético de esta tecnología quedó patente en las palabras de la Vicepresidenta y Comisaria para la Era Digital, Margrethe Vestager, que aseguró que “en inteligencia artificial, la confianza es imprescindible, no un lujo”. 

Los objetivos principales de la propuesta son los siguientes: 

  1. Asegurar que los sistemas de IA situados en el mercado de la Unión son seguros y respetan la ley existente sobre derechos fundamentales;
  2. Asegurar la seguridad jurídica para facilitar la inversión y la innovación;
  3. Reforzar la gobernanza y el cumplimiento eficaz de la ley ya existente y de los requerimientos de seguridad; y 
  4. Facilitar el desarrollo de un mercado único para sistemas de IA legales, seguros y fiables, previniendo la fragmentación de mercado. 

Para conseguir estos objetivos, la propuesta establece un marco regulatorio basado en la valoración de riesgo (risk-based approach) de los diferentes sistemas de IA, estableciendo cuatro categorías de riesgo: “riesgo inadmisible”, “alto riesgo”, “riesgo limitado” y “riesgo mínimo”. De este modo, se prohíben ciertos sistemas cuyo riesgo es considerado inaceptable, y se ponen limitaciones y establecen requerimientos especiales en torno a los sistemas que presentan niveles de riesgo alto.

Entre los sistemas de IA prohibidos podemos encontrar aquellos que presentan un gran potencial para manipular a los individuos a través de técnicas subliminales que vayan más allá de sus conciencias o que exploten vulnerabilidades específicas de ciertos grupos, como los niños o las personas con discapacidad, y que pueden distorsionar su comportamiento hasta el punto de generar, en ellos o en otras personas, un daño físico o psíquico. Asimismo, la propuesta también prohíbe cualquier sistema gubernamental de “puntuación social” basado en IA, como los que ya se aplican en China; o los sistemas de identificación biométrica remota en tiempo real en lugares públicos, como el reconocimiento facial (salvo en casos de extrema gravedad, como amenaza terrorista).

Entre los sistemas de alto riesgo, que se someterán a una serie de obligaciones estrictas antes de su posible comercialización, se encuentran tecnologías de IA relacionadas con infraestructuras críticas, como el transporte; aquellas relacionadas con el filtrado de currículums o perfiles profesionales en procesos de selección (susceptibles de replicar sesgos), o los sistemas de calificación crediticia. Todas estas tecnologías deberán acreditar instrumentos de supervisión humana, así como garantías de la calidad de los datos empleados y mecanismos de trazabilidad.

En relación con el uso de algoritmos, la propuesta complementa la legislación europea ya existente con requerimientos específicos en busca de minimizar el riesgo de discriminación algorítmica, particularmente aquella referida al diseño y la calidad de los sets de datos utilizados para el desarrollo de sistemas de IA. Además, todo esto se complementará con obligaciones de testing, gestión de riesgos, documentación y supervisión humana a lo largo de todo el ciclo vital de los sistemas de IA.

La propuesta incluye además la creación de un Consejo Europeo de Inteligencia Artificial, que junto a los organismos supervisores nacionales será la encargada de facilitar la implementación de estas medidas, así como de desarrollar estándares para el uso de la IA. Adicionalmente, se prevé la creación de códigos de conducta voluntarios para aquellas aplicaciones de IA de bajo riesgo, además de sandboxes regulatorios para impulsar la innovación responsable. Es importante destacar, por último, que la propuesta abarca únicamente la IA destinada a usos civiles, dejando al margen el ámbito militar.

La presentación de esta propuesta es el primer paso de un largo camino hasta que sea aprobada y posteriormente implementada en los distintos Estados Miembro. El anuncio se enmarca, además, en un contexto internacional en el que la regulación de la IA se ha vuelto una prioridad: así lo demuestra el reciente anuncio de la Comisión Federal de Comercio de Estados Unidos (FTC), que por primera vez ha declarado su intención de perseguir a aquellas empresas que utilicen o vendan algoritmos sesgados.

En nuestro país, la Secretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas, ha celebrado públicamente la iniciativa, considerando que con esta propuesta se establecen unas “reglas de juego claras”, capaces de generar la confianza necesaria en los usuarios y en los agentes económicos. Ha remarcado el compromiso de España con esta propuesta y su activa participación en el futuro Consejo Europeo de IA, su principal organismo de gobernanza. Ha aprovechado también para recordar el compromiso del Gobierno en su defensa de los derechos fundamentales en la red, como demuestran los trabajos en torno a la Carta de Derechos Digitales, actualmente en tramitación. No debemos olvidar que España es uno de los países europeos que cuenta con su propia Estrategia Nacional de Inteligencia Artificial, que fue presentada por el Gobierno el pasado diciembre.

La propuesta aún debe atravesar un largo proceso de negociación, en el que participarán los Estados Miembros a través del Consejo y el Parlamento Europeo, por lo que aún está por ver qué modificaciones se incorporan a los textos definitivos. No obstante, los documentos presentados por la Comisión Europea sientan una base firme para un modelo de regulación de la IA en el que se observará un cumplimiento prioritario y estricto de los derechos fundamentales de los ciudadanos y los principios y valores de la Unión Europea.

X