El pasado sábado, al filo de la medianoche, el Parlamento Europeo y el Consejo de la UE llegaron a un acuerdo provisional sobre la Ley de Inteligencia Artificial (IA). Era el punto y final a más de 30 horas de negociaciones maratonianas, que culminaron con un pacto histórico que establece el marco para crear la primera normativa sobre IA a nivel mundial. Es el primer paso de un camino que será largo hasta la aprobación definitiva de la norma y su posterior implementación. Pero la legislación ya ha generado muchas dudas, y también algunas críticas. Veamos por qué.

¿Qué recoge la nueva ley?

Es importante aclarar que no se conoce el texto completo de la ley. Hasta el momento sólo se ha hecho público un comunicado de prensa que informaba de las nuevas prohibiciones y de las excepciones, así como de las reglas que deberán cumplir los sistemas de IA calificados de alto riesgo y los GPAI (aquellos que generan audio, texto o imágenes a partir de otros datos, como ChatGPT). Además, se detallaron las ayudas con las que contarán las empresas y las pymes y las multas que deberán pagar aquellos que se salten la normativa.

¿Qué tipo de ley es?

Borja Adsuara, abogado experto en Derecho Digital, explica que esta legislación está confundiendo a mucha gente: "En realidad no es una ley, es un reglamento de aplicación directa para todos los países de la UE. Y hay que entenderlo en ese marco. La gente piensa que va a resolver todos los problemas, pero no es así. Es una normativa que se irá viendo qué limitaciones tiene y cómo afecta a cada sector, y se irá desarrollando conforme la tecnología avance con leyes sustantivas. Por el momento, como no se ha querido matar la innovación, se ha optado por una norma que no sea un corsé, y que se limite a establecer unos principios generales y una lista de riesgos".

¿Cuándo entrará en vigor?

Actualmente la ley está siendo estudiada por los técnicos europeos, que se encargarán de redactar el texto final. Una vez tengamos la versión definitiva, la norma deberá ser aprobada formalmente tanto por el Parlamento como por el Consejo. Y más tarde tendrá que ser traducida a los 24 idiomas oficiales de la UE para poder convertirse en ley. 

Esta previsto que la normativa no entre en vigor hasta, por lo menos, 2026. Hasta entonces, se espera que las compañías desarrolladoras de IA se reúnan con los representantes europeos para ir, paulatinamente y de forma voluntaria, adoptando las obligaciones que la ley recoge. Es una manera de que las empresas vayan autorregulándose, tal y cómo la nueva legislación contempla. Y también de hacer que la transición sea lo más suave posible.

¿Qué papel ha tenido España en las negociaciones?

Ibán García del Blanco, Diputado socialista en el Parlamento Europeo, participó en las negociaciones de la nueva ley. Según explica, alcanzar este acuerdo fue muy "complejo", porque confluían multitud de intereses, de posiciones y de aproximaciones ideológicas. Asegura que sólo fue posible gracias a que todas las partes entendieron la necesidad de no levantarse de la mesa sin un pacto, aunque se muestra convencido de que el papel de España, que ostenta la presidencia del Consejo de la UE, fue clave.

"Muchas veces España no tuvo que actuar en su nombre, y le tocó defender posiciones que no son suyas, sino las de la mayoría. En ese sentido, nuestro país tuvo un papel esencial. Primero, como negociador último, estableciendo hasta donde había que ser flexible y qué cosas eran intocables. Y luego para convencer al resto de miembros del Consejo, porque negociar es ceder. Me cuesta pensar que con otro Gobierno hubiéramos podido alcanzar este éxito", afirma García.

¿Qué pasará con ChatGPT?

La cara visible de la IA, ChatGPT, deberá adaptarse para seguir funcionando en la UE. García detalla que deberán registrarse con una serie de parámetros básicos, y OpenAI, la empresa desarrolladora de esta tecnología, tendrá obligaciones de transparencia como explicar la manera en la que han entrenado al modelo y qué contenidos con propiedad intelectual han utilizado. Y además, en todos los audios, vídeos y textos que genere deberán dejar claro que han sido creados con IA.

¿Afectará está normativa a los derechos humanos?

Como se explicaba antes, a pesar de no tener aún un texto final las críticas no se han hecho esperar. Beatriz Martos, responsable de campañas sobre tecnología en Amnistía Internacional España, admite que la nueva normativa tiene cosas que, a su juicio, son positivas, como la prohibición de los sistemas de puntuación social y la obligación de que los sistemas de alto riesgo realicen una evolución de su impacto sobre los derechos humanos fundamentales. Pero en general considera que la ley está lejos de ser el éxito que asegura la UE.

"Para nosotros es muy decepcionante. Cuando comenzó a hablarse de ella era una normativa fuerte y proteccionista. Pero el Parlamento ha sucumbido a las presiones de los estados miembros y de la Comisión, porque la nueva ley viola los derechos humanos cuando debería ser un ejemplo mundial. Es una grave amenaza que un continente que se proclama defensor de los derechos humanos haya adoptado reglamento así", afirma Martos.

Según explica, tiene dos preocupaciones principales. La primera es que la excepciones que permiten que los sistemas de identificación biométrica puedan utilizarse abren, para ella, la puerta a que los Estados "legalicen y pongan en práctica" estas tecnologías, que asegura que "vulneran los derechos humanos como el de libertad de expresión, asociación o protesta pacífica". Y la segunda es que las empresas europeas podrán seguir fabricando tecnología con IA que estará prohibida en la UE, pero que países de fuera de la Unión podrán seguir comprando. Algo que considera un "doble rasero".

Contra este discurso, García defiende que la identificación biométrica debe poder utilizarse en situaciones muy concretas en las que haya "intereses mayores", como para la búsqueda de un niño desaparecido. Pero asegura que la normativa vela para que se utilice siempre de manera muy rigurosa y en casos excepcionales. Además, recuerda que la UE, aunque ha tratado de amparar el mayor número de casos bajo el paraguas de esta ley, no puede regularlo todo. Y que no son responsables de que lo que hagan otros países de fuera de la Unión con esta tecnología.

¿Quién decidirá si la IA es de alto riesgo?

Martos también denuncia que las negociaciones se han llevado a cabo "a puerta cerrada", sin transparencia y sin contar con las organizaciones de sociedad civil, con las que ni siquiera se compartió el texto aprobado a pesar de que trabajaron activamente en el proceso. Y también se queja de que en borradores anteriores eran las propias empresas las que debían decidir si su tecnología era de alto riesgo o no. Pero como no han podido consultar el texto final no saben si finalmente esto será así.

García ha confirmado a El Independiente que efectivamente serán las empresas las encargadas de decidir qué nivel de riesgo tiene su tecnología, aunque posteriormente se realizarán comprobaciones. "Aquí regirá el principio de autoexamen. Las empresas y desarrolladores tendrán que hacer un análisis y comunicar a la UE o a las instituciones nacionales el resultado, y luego se certificará si es así realmente", comenta el eurodiputado.

¿Quién va a vigilar que se cumpla esta ley?

Adsuara se muestra convencido de que esta ley es histórica, y que a pesar de que algunas empresas desarrolladoras ya la han criticado sentará un precedente. "Tenemos que felicitarnos por haber sido los primeros. Esto no ha hecho más que empezar, pero el enfoque ha sido bueno porque no regula la tecnología, sino los usos que se hace de ella. EEUU nos mira con envidia, y seguro que en Iberoamérica también nos copiarán cosas. Y aunque China seguro que lo aprovechará para sacar ventaja en la carrera de desarrollo de IA, siempre es preferible respetar los derechos humanos", asegura.

Pero, aún así, el abogado tiene una gran preocupación: "Para mí lo importante no es lo que ponga en el reglamento, sino cómo se va a garantizar que se cumpla. En definitiva, quién va a vigilar los que nos vigilen, y que se sancione con inhabilitaciones o incluso cárcel. Porque si no va a ser papel mojado".

Según García, la ejecución de esta ley corresponde a los distintos Estados europeos, que deberán desarrollar estructuras nacionales para que se encarguen de su supervisión. No obstante, por encima de todo habrá una Oficina Europea de IA, que se creará para dar asistencia y ayudar a los distintos reguladores, y que resolverá dudas en la aplicación de la ley.

¿Puede quedarse fuera la UE del liderazgo de la IA?

Otra de las críticas que más se han leído estos días es que con este reglamento la UE se corta sus propias alas en cuanto al desarrollo de la IA, y que la normativa aleja la posibilidad de competir contra EEUU y China. Pero para Adsuara esto no debe ser una preocupación: "Se desarrollarán dos IA a nivel mundial, una que respetará los derechos humanos y otra que no. La IA europea estará a la vanguardia, porque eso será una ventaja competitiva. Y el resto de empresas tendrán que pasar por el aro para poder prestar servicios en la UE".

"Me llama mucho la atención este discurso, porque si uno analiza donde están las inversiones en IA puede ver que EEUU está muy por delante, luego le sigue China y luego Europa muy atrás. Es decir, que hasta ahora sin ninguna ley ya estábamos muy lejos", comenta García. "Nosotros tenemos que acumular recuerdos y hacer inversiones. Pero esta ley va a influir a otros muchos países para regular sus mercados. Porque aquí si tendremos una seguridad jurídica", concluye.