Martes, 09 de Septiembre de 2025
Diario de Economía de la Región de Murcia
OPINIÓNLa Ley
  • Buscar
Juan Luis Pedreño

La Ley

 

Como se acerca el momento de que la UE publique, en su Diario Oficial, el texto definitivo para esa esperada ley de Inteligencia Artificial, hoy quiero hablar un poco sobre ella. Sin mucho detalle. Directamente a lo que nos afecta o nos puede afectar. Esto va dirigido a las grandes empresas, a todas las pymes y a las personas físicas. Y aquí encontramos a los educadores, los escritores, los músicos, los fabricantes de juguetes, pintores o cocineros. También a los consultores, publicistas y militares. En general, a todo el que esté pensando en utilizar aplicaciones de IA para sus quehaceres profesionales.

 

Y no entraré en detalles por dos motivos. El primero es que esta ley afecta a sistemas, implicando a todo el que participe de su creación, venta y/o distribución, que no son más del 10% de lo que se genera hoy en día con la IA. Y el otro es que, no sabemos, ni siquiera nos imaginamos, todos aquellos sistemas IA que están por inventarse. Por ese motivo, estos 24 meses de moratoria para que todos debamos cumplir la gran Ley, van a ser un experimento en este nuevo tablero de juego que se llama la IA. Especialmente la IA generativa.

 

Como entiendo que es por todos conocido, la ley establece cuatro niveles de riesgo. Y, por consiguiente, asigna una categoría a cada nivel de riesgo. Y en cada categoría se imponen obligaciones a quienes utilicen o desarrollen IA.

 

[Img #4561]

 

A los que quieran cacharrear un poco con la IA, sin mayores pretensiones, quedan ubicados en el primer nivel, llamado Riesgo Mínimo. Aquí poca cosa. Que si ayudarnos con la IA para filtros de correo, para sugerencias o recomendaciones o para uso personal.

 

A los que van a utilizar la IA generativa, les corresponde la segunda categoría. La denominada de Riesgo Específico para la Transparencia. Aquí se ubica la mayoría. Lo importante es no engañar a nadie. Si creamos algo con IA generativa, pues lo decimos y listo. Algún sello de 'Made in AI' y solucionado. De hecho, esto ya lo están poniendo en marcha la mayoría de estos sistemas, tipo ChatGPT, Copilot o Gemini. Y todos los que vienen detrás, tendrán que hacer lo mismo. Que no digo yo que la inteligencia natural sea siempre mejor que la artificial. Pero que sí es un algoritmo y no una mente pensante, que lo sepamos. Aquí son responsables todos. Los que desarrollan los sistemas porque tienen que mostrar credenciales de transparencia y los que lo utilizan mal, porque las sanciones no son cualquier cosa.

 

Para los más malvados, los que pueden alterar la seguridad de las personas con la IA, les ubicamos en los Sistemas de Alto Riesgo. Aquí temas como biometría y cosas así, sólo en casos autorizados. Algo residual.

 

Finalmente los sistemas de Riesgo Inadmisibles son para límites superiores, evitando la clasificación social o inducir a personas a actuaciones contra su seguridad o dañinas. Aquí, no valen autorizaciones, En esta categoría no se puede usar al IA. Nunca.

 

Y es que nos quedan muchas aplicaciones por clasificar aún. Igual cuatro categorías son pocas. O igual demasiadas. El tiempo lo dirá. Mi consejo, aventurarse con la IA y descubrir cómo se pueden cambiar las cosas mucho más rápido. Pero siempre con buen rollito. Nada de hacer daño a los demás. De esta manera conseguiremos ser campeones de la IA en el mundo. Ahí lo dejo.

Publicidad

X
Con tu cuenta registrada

Escribe tu correo y te enviaremos un enlace para que escribas una nueva contraseña.