Sin embargo, más allá de la cantidad, es crucial evaluar la calidad e impacto de estas innovaciones. China ha logrado reducir notablemente la brecha con Estados Unidos en áreas clave de IA, alcanzando paridad en métricas críticas como la Comprensión Multitarea Masiva del Lenguaje (MMLU) y la Evaluación Humana. Frente a esta realidad, Europa ha optado por una gobernanza ética centrada en la rendición de cuentas y la transparencia algorítmica.
La manifestación más ambiciosa de este enfoque es el Reglamento (UE) 2024/1689 sobre inteligencia artificial, que entró en vigor en agosto de 2024. Esta norma pionera introduce un modelo regulatorio basado en el riesgo y en la protección de los derechos fundamentales.
Su herramienta clave es la Evaluación de Impacto en los Derechos Fundamentales, (recogida en el art. 27 del Reglamento) obligatoria para sistemas considerados de alto riesgo utilizados por entidades públicas. El objetivo es demostrar que es posible innovar sin sacrificar derechos ni equidad.
No obstante, el Reglamento no está exento de críticas. Uno de los principales retos radica en la asimetría entre los Estados miembros en cuanto a capacidades técnicas y financieras para implementar sus disposiciones. Aunque existe un marco normativo común, las diferencias pueden llevar a una aplicación desigual del artículo 27 sobre evaluaciones de impacto, perpetuando así una protección fragmentada según el contexto nacional.
Otra dificultad relevante reside en la complejidad técnica y legislativa del propio Reglamento. Consta de 113 artículos, 180 considerandos y 13 anexos, entre los que se establecen continuas remisiones cruzadas. Para aplicar correctamente el artículo 6 sobre sistemas de IA de alto riesgo, por ejemplo, es necesario consultar simultáneamente el artículo 5 (prohibiciones), el artículo 9 (gestión de riesgos), el artículo 27 (EIDH) y el Anexo III. Esta estructura rompe la linealidad normativa y hace que la norma resulte especialmente inaccesible para pequeños operadores, administraciones locales o juristas no especializados.
Otro aspecto preocupante es el calendario escalonado para su entrada en vigor; muchas disposiciones clave no serán exigibles hasta agosto de 2027. En un entorno donde la IA evoluciona rápidamente, esta dilación genera una ventana crítica durante la cual los riesgos seguirán creciendo sin cobertura normativa adecuada. Existe el temor fundado de que el Reglamento llegue tarde a abordar los desafíos que busca resolver.
Finalmente, se ha criticado la limitada exigibilidad para los actores privados en cuestiones clave como la evaluación de impacto en derechos fundamentales. Mientras que el artículo 27 se aplica de forma obligatoria al sector público, no impone esa misma obligación a las empresas privadas, incluso cuando desarrollan tecnologías con alto potencial lesivo. Este vacío refuerza la idea de que el Reglamento, pese a su ambición ética, aún no ofrece un blindaje normativo completo frente a los usos opacos o discriminatorios de la inteligencia artificial.
Conclusión: El Reglamento sobre Inteligencia Artificial de la UE representa un hito regulador a nivel global; sin embargo, su eficacia dependerá enormemente de su implementación real. Si no se abordan sus debilidades estructurales y técnicas, existe el riesgo tangible de que su promesa de "innovar sin sacrificar derechos" se quede solo como una declaración aspiracional. Europa tiene ante sí el reto monumental de demostrar que un modelo alternativo es viable y que los derechos fundamentales pueden ser motores impulsadores del progreso tecnológico.