domingo, 10 de mayo de 2026

Las inteligencias artificiales alucinan

 𝙇𝙖 𝙄𝘼 𝙥𝙪𝙚𝙙𝙚 𝙖𝙘𝙚𝙡𝙚𝙧𝙖𝙧 𝙚𝙡 𝙥𝙚𝙣𝙨𝙖𝙢𝙞𝙚𝙣𝙩𝙤, 𝙥𝙚𝙧𝙤 𝙩𝙤𝙙𝙖𝙫í𝙖 𝙣𝙤 𝙨𝙪𝙨𝙩𝙞𝙩𝙪𝙮𝙚 𝙖𝙡 𝙥𝙚𝙣𝙨𝙖𝙢𝙞𝙚𝙣𝙩𝙤 𝙘𝙧í𝙩𝙞𝙘𝙤 [RJCG].


━━━━━━━━
⚠️ Es una de las razones —entre otras de mayor peso—, por las que tengo ganas de llamar a mi sistema experimental de IA: “𝕃𝕒𝕓𝕠𝕣𝕒𝕥𝕠𝕣𝕚𝕠 𝕕𝕖 𝕀𝔸: 𝔹𝕒𝕔𝕙𝕚𝕝𝕝𝕖𝕣 ℤ𝕖𝕣𝕡𝕒🤔
━━━━━━━━

No me refiero a ciencia ficción. En IA, “alucinación” significa que el sistema responde con seguridad sobre algo… aunque sea falso, incompleto o directamente inventado.

A veces son extravagantes en sus conclusiones, intentan responder aunque no sepan realmente la respuesta, y suelen proyectar una imagen de “omnisciencia”: parecen saber de todo —o al menos pretenden saberlo—. Pero no siempre distinguen bien entre lo probable y lo verdadero.

Además, son susceptibles a problemas bastante humanos: confabulación (rellenar vacíos con información plausible), sesgos, errores de contexto, exceso de confianza, e incluso una especie de “memoria imaginaria”, donde mezclan hechos ciertos con inferencias dudosas.

Lo fascinante es que, aun con esas limitaciones, son extraordinariamente útiles… siempre que se usen con criterio. Una IA no reemplaza el juicio humano: funciona mejor como un copiloto intelectual, no como un oráculo.

La regla de oro sigue siendo la misma: si una respuesta importa de verdad —científica, médica, histórica o técnica—, hay que verificarla.

La IA es extraordinaria condensando y organizando saberes; en eso posee una capacidad difícil de igualar. El problema no es cuánto “sabe”, sino cómo usa e interconecta ese conocimiento: ¿cómo emplea el contexto de lo que conoce para analizar algo nuevo y responder con criterio?

Y es precisamente allí —en el uso del contexto— donde aparece su mayor debilidad: la ausencia de juicio humano.

La IA no siente (al menos todavía no). Sería relativamente sencillo programarle un simulacro de emociones o un “falso sentimiento”, pero eso no equivale a experimentar miedo, duda, empatía o responsabilidad moral.

Le falta algo que, siguiendo el cogito cartesiano (pienso, luego existo), parece esencial en nosotros: la conciencia de sí como sujeto pensante. Las IA no existen —hasta ahora— como entes conscientes que piensan sobre su propio pensamiento; operan más bien como sistemas de inferencia probabilística.

Y aquí hay algo importante: un modelo de lenguaje (la categoría a la que pertenece la mayoría de las IA que usamos) no “sabe” las cosas del modo en que sabe un humano. Por potente que sea, funciona como una especie de sistema con amnesia estructural: conoce muchísimo del mundo… pero solo hasta la fecha de su entrenamiento, salvo que se conecte a fuentes externas.

Los LLM (Large Language Models), en esencia, son compresores estadísticos del lenguaje humano: han aprendido patrones inmensos de texto y calculan cuál es la siguiente idea, frase o relación más probable. Eso los hace brillantes muchas veces… pero también susceptibles a errores, alucinaciones y excesos de confianza.


Foto: Tomada del Facebook de LGGB

No hay comentarios.:

Publicar un comentario

Páginas

Entrada destacada

Las inteligencias artificiales alucinan

  𝙇𝙖 𝙄𝘼 𝙥𝙪𝙚𝙙𝙚 𝙖𝙘𝙚𝙡𝙚𝙧𝙖𝙧 𝙚𝙡 𝙥𝙚𝙣𝙨𝙖𝙢𝙞𝙚𝙣𝙩𝙤, 𝙥𝙚𝙧𝙤 𝙩𝙤𝙙𝙖𝙫í𝙖 𝙣𝙤 𝙨𝙪𝙨𝙩𝙞𝙩𝙪𝙮𝙚 𝙖𝙡 𝙥𝙚𝙣𝙨𝙖𝙢𝙞𝙚𝙣...

Entradas populares

Visitas: