
Este fin de semana, durante mis clases sobre Gobierno del Dato en el programa de experto de MBIT, surgió un debate apasionante: ¿es la Ley de Inteligencia Artificial (AI Act) de la Unión Europea una medida necesaria o simplemente "poner puertas al campo"? Las opiniones fueron diversas: algunos argumentaron que una regulación estricta podría retrasar a la UE en la carrera tecnológica, mientras que otros defendieron la necesidad de establecer marcos legales claros para garantizar un desarrollo ético y seguro de la IA. Sin embargo, también surgió la preocupación de que una regulación local para un mundo tan interconectado quizá no tenga sentido, ya que las dinámicas globales de la tecnología trascienden fronteras, y enfoques desalineados podrían limitar la competitividad y la colaboración internacional.
Retos de la regulación en la UE
Y es que las autoridades europeas enfrentan la siguiente paradoja: a pesar de implementar marcos legales estrictos, como el Reglamento General de Protección de Datos (RGPD) y la AI Act, los datos personales de los ciudadanos europeos a menudo se transfieren a países como Estados Unidos, donde las normativas de protección de datos pueden ser menos rigurosas.
Esta situación plantea desafíos significativos:
Transferencias internacionales de datos: Las empresas tecnológicas estadounidenses, que operan globalmente, suelen almacenar y procesar datos en servidores ubicados fuera de la Unión Europea. Aunque existen acuerdos como el EU-U.S. Data Privacy Framework, destinados a garantizar un nivel adecuado de protección de datos, la eficacia de estos acuerdos ha sido objeto de debate y revisión constante.
Aplicación extraterritorial de las leyes europeas: Aunque la UE busca proteger los datos de sus ciudadanos, la capacidad de hacer cumplir sus regulaciones más allá de sus fronteras es limitada. Esto significa que, una vez que los datos se transfieren a jurisdicciones con estándares de protección diferentes, es difícil garantizar su seguridad y privacidad.
Iniciativas globales de gobernanza de la IA
El desafío de la regulación no es exclusivo de la UE. Diversos países y organismos han adoptado estrategias innovadoras para abordar la gobernanza de la IA:
Por ejemplo, Estados Unidos firmó la "Declaración de Bletchley" en 2023 junto con otros 27 países, comprometiéndose a un desarrollo seguro de la IA a nivel global. Además, adoptó una orden ejecutiva en 2023 enfocada en la seguridad y confiabilidad de estas tecnologías, reflejando su intención de equilibrar la innovación con la protección de derechos fundamentales. Mientras tanto, China, además de co-patrocinar en 2024 la primera resolución de la ONU sobre IA orientada a la protección de datos personales y derechos humanos, ha publicado la Guía para la Construcción del Sistema Integral de Estandarización de la Industria de la Inteligencia Artificial (2024), donde establece directrices para la estandarización de la industria de la inteligencia artificial en el país, con el objetivo de liderar el desarrollo global de la inteligencia artificial para el año 2030.
Otros países también han mostrado iniciativas notables. Japón, bajo su presidencia del G7 en 2023, lideró el "Proceso de Hiroshima" para establecer principios internacionales y un código de conducta para desarrolladores de IA, fomentando la cooperación internacional. Canadá, con su Ley de Inteligencia Artificial y Datos (AIDA) (2022) y un código de conducta voluntario para sistemas avanzados de IA generativa (2023), busca construir confianza pública mientras desarrolla legislación nacional. Singapur presentó el Modelo de Marco de Gobernanza de la IA, mientras que Corea del Sur trabaja en una "Ley Integral de IA" para asegurar la confiabilidad de los sistemas.
Estas estrategias internacionales demuestran que la gobernanza de la IA requiere colaboración global.
Organismos internacionales y colaboración global
La Asociación Global sobre Inteligencia Artificial (GPAI), lanzada en junio de 2020, es un ejemplo de colaboración internacional que promueve el desarrollo y uso responsable de la IA en consonancia con los derechos humanos y los valores democráticos.
La Organización para la Cooperación y el Desarrollo Económicos (OCDE) ha adoptado los "Principios de la OCDE sobre IA" (mayo 2024), que promueven el uso responsable de la IA, la transparencia, la seguridad y el respeto a los derechos humanos.
El High Level Advisory Body on Artificial Intelligence (HLAB-AI), establecido por las Naciones Unidas en octubre de 2023 y compuesto por 39 expertos de 33 países, ha sido creado para abordar los desafíos y oportunidades que presenta la inteligencia artificial a nivel global.
Desafíos globales
A pesar de estos avances, no todos los países han adoptado estas medidas con el mismo entusiasmo. Según el informe del HLAB-AI, "Gobernar la IA para la humanidad" (octubre de 2023), solo siete países participan plenamente en todas las iniciativas globales de gobernanza de la inteligencia artificial: Canadá, Francia, Alemania, Italia, Japón, Reino Unido y Estados Unidos. Esto implica que 118 países, en su mayoría en desarrollo, no están involucrados en estas iniciativas. Este informe destaca que, sin una regulación adecuada, las oportunidades que ofrece la IA podrían no distribuirse equitativamente, beneficiando solo a unos pocos países, empresas e individuos. Además, señala riesgos como sesgos en la IA, vigilancia masiva y la posibilidad de que la IA genere información falsa o engañosa. Propone fortalecer la cooperación internacional mediante la creación de un panel científico internacional sobre IA, un diálogo político intergubernamental y un intercambio de estándares de IA. También sugiere establecer una red de desarrollo de capacidades, un fondo global para la IA y un marco global de datos.
La pregunta no es solo cómo regular la IA, sino cómo garantizar que su desarrollo sea inclusivo y beneficie a todos. Esto implica no solo construir marcos legales sólidos, sino también fomentar la cooperación internacional y la participación equitativa de todas las naciones, asegurando que la IA se utilice de manera ética y segura en beneficio de la humanidad.
La UE como referente ético
Aunque algunos consideran que las regulaciones europeas podrían frenar la innovación tecnológica en Europa, es un hecho que éstas han colocado la ética y la seguridad en el centro del debate, obligando a otros países y actores globales a considerar estándares similares. Así, la UE ha actuado como catalizador en la creación de un enfoque más estructurado y responsable hacia la inteligencia artificial a nivel mundial.
La pregunta sigue abierta: ¿debería la UE centrarse en regular o en fomentar la innovación? ¿Es posible encontrar un equilibrio que permita avanzar tecnológicamente sin comprometer la ética y la seguridad?
Comments