Actualidad

Áreas de trabajo
Adigital promueve el Manifiesto para impulsar una inteligencia artificial comprometida con las personas
18 abril, 2024

Adigital ha colaborado en la elaboración del “Manifiesto para impulsar una inteligencia artificial comprometida con las personas” suscrito por las 60 organizaciones que componen el Comité de Impulso del Día de Internet, del que Adigital forma parte. El documento se ha presentado hoy en el encuentro anual de editores organizado por Clabe en Palencia y se integra en las acciones programadas para el Día Mundial de Internet, el próximo 17 de Mayo, que en esta edición tiene como tema central “Por una inteligencia artificial comprometida con las personas”.

La contribución de Adigital en este manifiesto se enmarca en el compromiso de nuestra asociación por impulsar una inteligencia artificial responsable, a través de la transparencia y la explicabilidad, que desarrolle una digitalización humana, sostenible y confiable. En este sentido, Adigital ha desarrollado también la Certificación de Transparencia Algorítmica,  pionera en Europa y ejemplo de gobernanza de las nuevas tecnologías. Se trata de un proyecto con vocación de colaboración público – privada, que ha sido recientemente incluida en el catálogo de Inteligencia Artificial confiable de la OCDE y se ha presentado en el Foro Global sobre la Ética de la IA de la UNESCO.

En su preámbulo, el manifiesto destaca que la inteligencia artificial tiene el potencial de transformar la forma en que interactuamos con el mundo y, a la vez, presenta una serie de retos importantes y grandes oportunidades. Actualmente, ya se utiliza en numerosas aplicaciones comerciales y de producción que abarcan todo tipo de industrias y las ventajas de su utilización son evidentes (automatización y mejora de procesos, productividad, control y optimización de recursos, reducción de errores, etc.). Detrás de estas ventajas se plantean algunos desafíos que el legislador, la industria y los propios ciudadanos no pueden obviar para que esta IA sea social, inclusiva y respetuosa con las personas.

La Unión Europea ha dado un paso significativo en la regulación de los sistemas IA con la reciente aprobación del Reglamento de Inteligencia Artificial (AI ACT). Pero como señala el decálogo, “es necesario velar por que el desarrollo e implementación de la IA esté comprometida con los ciudadanos. De lo contrario, se corre el riesgo de que estas tecnologías sean percibidas como negativas y produzcan un rechazo social, perdiendo la oportunidad de aprovecharse de los beneficios de desplegar la IA en todo su potencial”.

Para lograr este objetivo, el manifiesto propone que el desarrollo de la inteligencia artificial cumpla con este decálogo:

 

  1. Transparencia, comprensión, accesibilidad y control. Los resultados de los modelos utilizados por la IA deben de estar documentados, ser comprensibles y accesibles para todas las personas, independientemente de su capacidad física, sensorial o cognitiva, promoviendo la inclusión y la igualdad de oportunidades en el marco del reglamento de IA (AI ACT). Es necesario impulsar la transparencia y la implementación de normas, procesos y mecanismos de supervisión que permitan comprobar que estos principios se cumplen, poniendo en valor a aquellos modelos de IA que permitan recibir comentarios y apelaciones.
  2. Alfabetización, desarrollo de competencias y empleo. Fomentar la formación de profesionales cualificados que promuevan la calidad y el desarrollo responsable de estos sistemas, impulsando la formación y capacitación sobre IA, así como el acceso a documentación que facilite su entendimiento. Impulsar, asimismo, la formación básica de la ciudadanía en IA, sus posibilidades y las consecuencias derivadas de un uso inadecuado de de forma que puedan tomar decisiones informadas en su relación con esta tecnología con especial foco en la gente joven, para que estén preparados para el acceso a empleos en los que puedan explotar todo el potencial de la IA.
  3. Privacidad por diseño y acceso a los datos. Integrar medidas de privacidad desde la fase inicial del desarrollo de productos y servicios basados en IA, asegurando que la recolección y el procesamiento de datos se realizan conforme a la normativa de protección de datos. Facilitar el acceso a los datos para poder entrenar modelos de IA incentivando su uso en todos los ámbitos.
  4. Ciberseguridad. Implementar medidas robustas de ciberseguridad para concienciar y promover un uso seguro y responsable de la IA. Del mismo modo, utilizar la inteligencia artificial para mejorar la ciberseguridad y resiliencia de productos, servicios, sistemas y, por ende, de las empresas y la sociedad en general.
  5. Equidad y no discriminación. Mitigar sesgos y discriminación en los conjuntos de datos utilizados para el entrenamiento de modelos y asegurar que la IA no perpetúe ni amplifique prejuicios existentes en la sociedad. Luchar contra las brechas sociales que puedan surgir derivadas del uso de la IA.
  6. Propiedad intelectual. Garantizar los derechos de propiedad intelectual en las nuevas situaciones creadas por la IA en esta materia (marcas, diseños, patentes o derechos de autor).
  7. Marco legal y ético. Seguir desarrollando marcos legales y deontológicos específicos que definan claramente las obligaciones y responsabilidades de los desarrolladores, proveedores y usuarios en los sistemas que hagan uso de la IA.
  8. Responsabilidad. Establecer protocolos en colaboración con la industria para el seguimiento y la revisión periódica de los avances de la IA, adaptándolos a los cambios normativos y legales, así como a las innovaciones y desarrollo de la tecnología.
  9. Sostenibilidad e impacto ambiental. El uso de las tecnologías de IA debe evaluarse en función de su impacto en la «sostenibilidad», entendida como un concepto dinámico en constante evolución que incluya los Objetivos de Desarrollo Sostenible (ODS) de Naciones Unidas.
  10. Co-gobernanza y participación ciudadana. La participación de las partes interesadas a lo largo del ciclo de vida de los sistemas de IA es necesaria para el desarrollo de enfoques inclusivos de gobernanza involucrando a la Sociedad Civil en este proceso. Fomentar la colaboración entre expertos en IA, ética y otras disciplinas relevantes para abordar de manera integral los desafíos técnicos y sociales asociados con la IA. Es importante que los gobiernos trabajen en colaboración a nivel internacional para establecer estándares comunes, compartir mejores prácticas y abordar los desafíos transfronterizos asociados con la IA como son la ciberseguridad y la gobernanza de los datos.