La Unión Europea ha conseguido alcanzar un acuerdo final sobre la regulación en materia de Inteligencia Artificial (IA). Después de tres días de negociaciones sobre el texto final, se ha publicado «The EU’s AI act», la primera regulación a nivel mundial sobre la materia.
Este acuerdo aún tiene mucho recorrido. El texto debe ser ratificado por el Parlamento Europeo y el Consejo; presumiblemente, será objeto de varias modificaciones antes de su entrada en vigor, lo que se producirá, según el propio acuerdo, dos años después de su publicación oficial, previsiblemente en 2026.
Debido al exponencial desarrollo de la IA, este plazo de dos años podría suponer que la regulación se quede «anticuada» antes de su entrada en vigor, como ocurrió con el primer borrador del reglamento. La popularización de la IA generativa como ChatGPT ha complicado el procedimiento.
En todo caso, esta regulación supone un gran paso en la dirección adecuada, iniciada hace más de dos años. En 2018, la Comisión crea un grupo de expertos enfocado en la conciliación entre la tecnología y las normas éticas; dos años más tarde, en octubre de 2020, el Consejo Europeo abre la discusión sobre la transformación digital; finalmente, en abril de 2021, la Comisión emite una propuesta para una regulación armonizada a la que desde ese momento se la denomina como «Ley de Inteligencia Artificial».
La normativa publicada mantiene el foco en señalar los riesgos y obligaciones que entraña este tipo de tecnología, sin cerrarse al progreso tecnológico.
El acuerdo finalmente aprobado se centra en cuatro niveles de riesgos, en estructura piramidal. En la base de la pirámide se encuentran los sistemas que no representan riesgo – como los videojuegos o los filtros de spam –, que no se ven afectados por la regulación. El siguiente escalafón lo componen los sistemas de riesgo limitado, sobre los que se impone una obligación genérica de transparencia, para asegurar que los usuarios conocen que la interacción se produce con una IA. Los denominados como de alto riesgo deberán cumplir con una serie de requisitos previos a su comercialización en la Unión Europea. Finalmente, en la cúspide de la pirámide se prohíben completamente los sistemas de «riesgo inaceptable», donde se incluyen las tecnologías de reconocimiento facial, que generaron divisiones en el Parlamento al inicio de las negociaciones con la Comisión.
La UE ha tomado conciencia de que la IA es una tecnología que ha dejado de ser «futurista», ocupa el presente y tiene potencial para revolucionar y transformar nuestra realidad hoy y ahora. Por ello, la norma no olvida ni pretende poner freno a los avances en el sector, sino prevenir de los «malos usos» que pueda hacerse de esta tecnología por medio de un modelo basado en el riesgo. La entrega al mercado de la oferta y demanda de la IA, a la espera de una posible eficaz autorregulación, no ha llegado. La noción de riesgo como objeto de regulación es una herramienta habitual a la hora de regular.
Se trata de una regulación que abre camino. Cualquier herramienta puede tener tanto un impacto positivo como negativo, pero esto no implica que deba prohibirse su uso por completo. Los cuchillos jamoneros nos permiten disfrutar del exquisito manjar que es el jamón cortado por un maestro: a pesar de su potencial como arma, no se prohíben de manera generalizada. En definitiva, lo que se prohíbe es el uso inapropiado o inadecuado de una herramienta que, en su correcto empleo, puede beneficiar a la población en general.
* Foto de cottonbro studio de Pexels