El Consejo de Ministros ha aprobado hoy el anteproyecto de ley para un uso ético, inclusivo y beneficioso de la inteligencia artificial (IA), que pretende poner orden en la aplicación práctica de esta tecnología. El anteproyecto adapta a nuestra legislación lo establecido en el Reglamento Europeo de Inteligencia Artificial, acordado por las instituciones comunitarias el pasado 8 de diciembre de 2023 y aprobado por el Parlamento Europeo el 13 de marzo del año pasado. “La IA es una herramienta muy poderosa, que puede servir para mejorar nuestras vidas o para difundir bulos y atacar la democracia”, ha dicho en rueda de prensa el ministro de Transformación Digital y de la Función Pública, Óscar López.
Según ha recordado el ministro, la normativa europea “defiende nuestros derechos digitales, identificando prácticas prohibidas”. Por ejemplo, considera infracción grave no cumplir con el etiquetado de textos, vídeos o audios generados con IA. “Todos somos susceptibles de ser objeto de un ataque de este tipo. Se llaman deepfakes y están prohibidos”, ha advertido López.
Sin embargo, el ministro no ha concretado cómo se deberá realizar ese etiquetado. “Cuando se desarrolle la normativa, la Agencia Española de Supervisión de la Inteligencia Artificial (Aesia) pondrá las normas”, ha dicho. ¿Quién controlará que se cumplan? La gestión y tratamiento de datos biométricos será responsabilidad de la Agencia Española de Protección de Datos (AEPD); los sistemas de IA que puedan afectar a la democracia serán competencia de la Junta Electoral Central; y del Consejo General de Poder Judicial los que puedan incidir en la aplicación de la justicia.
El resto de casos los estudiará la Aesia. Constituida el año pasado y con sede en A Coruña, el organismo está dirigido por Ignasi Belda y planea contratar hasta 2026 al menos 80 expertos de varias disciplinas que deberán revisar la adecuación de distintas aplicaciones de IA a la normativa.
López ha recordado que, tal y como establece el Reglamento Europeo de la IA, quienes incumplan la normativa afrontarán multas de hasta 35 millones de euros y/o entre el 5% y el 7% de la facturación mundial.
Adaptación del marco europeo
El Reglamento Europeo de IA, considerado el más avanzado del mundo en este asunto, tiene un enfoque pionero. Con el objetivo de no quedarse obsoleto, el reglamento clasifica las distintas aplicaciones de IA disponibles en función de su riesgo y, en función de ello, establece distintos requisitos y obligaciones. Estos van desde el uso sin restricciones, por ejemplo, un filtro de spam o un recomendador de contenidos, hasta la prohibición total. Estos casos, más graves, se refieren a aquellas aplicaciones “que trasciendan la conciencia de una persona o técnicas deliberadamente manipuladoras”, las que exploten sus vulnerabilidades o las que infieran emociones, raza u opiniones políticas de las personas.
Entre ambos extremos se sitúan las llamadas tecnologías de “alto riesgo”, sujetas a una supervisión permanente. Se encuadran en esta categoría los sistemas de identificación biométrica remota, que un amplio sector del Parlamento quería prohibir terminantemente; los sistemas de categorización biométrica o el reconocimiento de emociones. También los sistemas que afecten a la seguridad de las infraestructuras críticas y los relacionados con la educación (evaluación de comportamientos, sistemas de admisión y exámenes), el empleo (selección de personal) y la prestación de servicios públicos esenciales, la aplicación de la ley o la gestión de la migración.
El Reglamento establece también que se deberán realizar informes periódicos para actualizar esta clasificación, de manera que, cuando surjan nuevas aplicaciones no contempladas en el documento, se determine en qué categoría se encuadra (uso sin restricciones, uso sujeto a restricciones o prohibición).
Eso mismo pasó, por ejemplo, con la IA generativa, la tecnología que está detrás de herramientas como ChatGPT: su irrupción se produjo cuando la negociación del Reglamento estaba ya muy avanzada. Se discutió si hacer mención específica de ella o no. Finalmente, se incluyó y se estableció que los llamados modelos fundacionales tendrán que cumplir criterios de transparencia, como especificar si un texto, una canción o una fotografía se han generado a través de IA, así como garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.
El documento no estableció, sin embargo, cómo se debía llevar a cabo esa señalización de los contenidos elaborados por IA, ni cómo garantizar que respetasen los derechos de autor. Estas dos cuestiones claves tampoco se han concretado en el anteproyecto presentado hoy.