Inoxichel España Noticias El Gobierno aprueba la norma para el buen uso de la IA, que obliga a etiquetar contenidos creados con esta tecnología | Tecnología

El Gobierno aprueba la norma para el buen uso de la IA, que obliga a etiquetar contenidos creados con esta tecnología | Tecnología

El Consejo de Ministros ha aprobado hoy el anteproyecto de ley para un uso ético, inclusivo y beneficioso de la inteligencia artificial (IA), que pretende poner orden en la aplicación práctica de esta tecnología. El anteproyecto adapta a nuestra legislación lo establecido en el Reglamento Europeo de Inteligencia Artificial, acordado por las instituciones comunitarias el pasado 8 de diciembre de 2023 y aprobado por el Parlamento Europeo el 13 de marzo del año pasado. “La IA es una herramienta muy poderosa, que puede servir para mejorar nuestras vidas o para difundir bulos y atacar la democracia”, ha dicho en rueda de prensa el ministro de Transformación Digital y de la Función Pública, Óscar López.

Según ha recordado el ministro, la normativa europea “defiende nuestros derechos digitales, identificando prácticas prohibidas”. Por ejemplo, considera infracción grave no cumplir con el etiquetado de textos, vídeos o audios generados con IA. “Todos somos susceptibles de ser objeto de un ataque de este tipo. Se llaman deepfakes y están prohibidos”, ha advertido López.

Sin embargo, el ministro no ha concretado cómo se deberá realizar ese etiquetado. “Cuando se desarrolle la normativa, la Agencia Española de Supervisión de la Inteligencia Artificial (Aesia) pondrá las normas”, ha dicho. ¿Quién controlará que se cumplan? La gestión y tratamiento de datos biométricos será responsabilidad de la Agencia Española de Protección de Datos (AEPD); los sistemas de IA que puedan afectar a la democracia serán competencia de la Junta Electoral Central; y del Consejo General de Poder Judicial los que puedan incidir en la aplicación de la justicia.

El resto de casos los estudiará la Aesia. Constituida el año pasado y con sede en A Coruña, el organismo está dirigido por Ignasi Belda y planea contratar hasta 2026 al menos 80 expertos de varias disciplinas que deberán revisar la adecuación de distintas aplicaciones de IA a la normativa.

López ha recordado que, tal y como establece el Reglamento Europeo de la IA, quienes incumplan la normativa afrontarán multas de hasta 35 millones de euros y/o entre el 5% y el 7% de la facturación mundial.

Adaptación del marco europeo

El Reglamento Europeo de IA, considerado el más avanzado del mundo en este asunto, tiene un enfoque pionero. Con el objetivo de no quedarse obsoleto, el reglamento clasifica las distintas aplicaciones de IA disponibles en función de su riesgo y, en función de ello, establece distintos requisitos y obligaciones. Estos van desde el uso sin restricciones, por ejemplo, un filtro de spam o un recomendador de contenidos, hasta la prohibición total. Estos casos, más graves, se refieren a aquellas aplicaciones “que trasciendan la conciencia de una persona o técnicas deliberadamente manipuladoras”, las que exploten sus vulnerabilidades o las que infieran emociones, raza u opiniones políticas de las personas.

Entre ambos extremos se sitúan las llamadas tecnologías de “alto riesgo”, sujetas a una supervisión permanente. Se encuadran en esta categoría los sistemas de identificación biométrica remota, que un amplio sector del Parlamento quería prohibir terminantemente; los sistemas de categorización biométrica o el reconocimiento de emociones. También los sistemas que afecten a la seguridad de las infraestructuras críticas y los relacionados con la educación (evaluación de comportamientos, sistemas de admisión y exámenes), el empleo (selección de personal) y la prestación de servicios públicos esenciales, la aplicación de la ley o la gestión de la migración.

El Reglamento establece también que se deberán realizar informes periódicos para actualizar esta clasificación, de manera que, cuando surjan nuevas aplicaciones no contempladas en el documento, se determine en qué categoría se encuadra (uso sin restricciones, uso sujeto a restricciones o prohibición).

Eso mismo pasó, por ejemplo, con la IA generativa, la tecnología que está detrás de herramientas como ChatGPT: su irrupción se produjo cuando la negociación del Reglamento estaba ya muy avanzada. Se discutió si hacer mención específica de ella o no. Finalmente, se incluyó y se estableció que los llamados modelos fundacionales tendrán que cumplir criterios de transparencia, como especificar si un texto, una canción o una fotografía se han generado a través de IA, así como garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.

El documento no estableció, sin embargo, cómo se debía llevar a cabo esa señalización de los contenidos elaborados por IA, ni cómo garantizar que respetasen los derechos de autor. Estas dos cuestiones claves tampoco se han concretado en el anteproyecto presentado hoy.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Related Post

Agua siempre fría con este increíble dispensador portátil de Amazon (te lo puedes llevar donde quieras) | Top reviews | EscaparateAgua siempre fría con este increíble dispensador portátil de Amazon (te lo puedes llevar donde quieras) | Top reviews | Escaparate

En nuestra vida diaria, la tecnología y la innovación juegan un papel fundamental al hacer nuestras tareas cotidianas más fáciles y eficientes. Desde dispositivos automáticos, como los detectores de movimiento,