Domingo, 25 de Enero de 2026
Diario de Economía de la Región de Murcia
OPINIÓNLos tres cerditos
  • Buscar
Juan Luis Pedreño

Los tres cerditos

 

Se veía venir. Y es que no hace mucho tiempo empezamos a usar tímidamente la Inteligencia Artificial Generativa. Casi como en silencio. Sin que nadie supiera que la usábamos para pedirle informes, apuntes, presentaciones, dibujos, esquemas, cuentos y un sinfín de cosas. La usábamos con cierto reparo, de lo fácil que resultaba tener una App de este tipo, de forma tan accesible, en nuestros dispositivos móviles. Recordemos que, en aquellos momentos, ya oíamos hablar de eso de las 'alucinaciones' de la IA. Y nos parecía algo anecdótico. Una posibilidad lejana de alguna respuesta mal dada.

 

[Img #11534]

 

Cómo ha cambiado el cuento. Ahora utilizamos ChtatGPT, Gemini, Copilot o Grok de forma compulsiva. Sin miedo. Sin reparos. Sin miramientos. Y, claro está, de tanto usarla pues vienen las confianzas y nos olvidamos de que aquello de las alucinaciones no es un capricho de nuestros coqueteos iniciales con la IA generativa. Es algo intrínseco a ella. Es su modus vivendi. Lo que ocurre, en realidad, es que las nuevas versiones de estas Apps tienen cada vez mayores iteraciones y datos de aprendizaje, lo que reduce este fenómeno de que se generen soluciones erróneas, por muy razonables que nos parezcan. Y es que, hasta que no entendamos que las famosas alucinaciones no son fallos de la IA sino una consecuencia de los datos de entrenamiento y del proceso de aprendizaje, pues seguirán pasando cosas como las que, de vez en cuando, llegan a nuestros oídos.

 

A mí me llamó la atención que, ya el año pasado, se conociera el caso de un abogado que recurrió a ChatGPT para redactar una querella por un determinado tema, pero que incluía jurisprudencia de otro país como soporte jurídico a dicha querella. O, más recientemente, la de un juez, que emitió resolución con jurisprudencia, directamente, inexistente. De nuevo la IA generativa haciendo lo que sabe, generando documentos razonables, pero sin consistencia jurídica, en un entorno tan trascendental como una querella o una sentencia. Y es que, olvidamos pronto que la IA trabaja en función de cómo se le entrena. Y, claro está, como este aprendizaje y sus algoritmos son transparentes para nosotros, pues no lo vemos venir. A veces la transparencia se torna opaca.

 

Si preguntamos a la IA generativa por el porcentaje de alucinaciones de sus resultados, nos podrá decir cualquier cosa. No es cuestión de sinceridad sino de aprendizaje. A mí me dicen que el valor medio de alucinaciones depende de la versión y del modelo, como es obvio, pero que se encuentra entre el 1% y el 3%. Así, en media y por resumir. Sea cual fuere el dato exacto, podemos sacar dos conclusiones importantes. La primera es que el porcentaje de alucinaciones de la IA generativa nunca será cero. Y la segunda, que de cada cien consultas que hagamos, a día de hoy, una de ellas nos sacará los colores. Ante este escenario, tenemos dos opciones. O nos la jugamos a ese 1% del fallo o revisamos todos los resultados que generemos. La primera nos puede traer algún problema, pero nos quita mucho trabajo. La segunda, justo al contrario. Más trabajo, pero mayor seguridad. Como en el cuento de los tres cerditos ¿se acuerdan?

 

Linkedin: Juan Luis Pedreño

Con tu cuenta registrada

Escribe tu correo y te enviaremos un enlace para que escribas una nueva contraseña.