La IA no es inteligente (todavía): no entiende lo que dice, es estadística que parece pensamiento.

La IA no es inteligente (todavía): no entiende lo que dice, es estadística que parece pensamiento.

Por Iñaki Alegría Coll

La IA no es inteligente (todavía): no entiende lo que dice, es estadística que parece pensamiento. actualidad Artículos New Medical Economics

Un momento histórico… y una confusión peligrosa

Vivimos una de las etapas más fascinantes de la historia reciente. La inteligencia artificial ha irrumpido con una velocidad y una capacidad de transformación que recuerdan a la revolución industrial o al nacimiento de internet. Hoy, en cuestión de segundos, puede redactar informes, traducir textos complejos, generar código, proponer diagnósticos o sintetizar conocimiento científico.

La sensación es clara: estamos ante algo que “piensa”.

Sin embargo, esta percepción encierra una confusión de base que conviene abordar con rigor. La inteligencia artificial no es inteligente en el sentido humano del término. No piensa, no comprende, no tiene conciencia ni intención. Y, aun así, es capaz de producir resultados que nos hacen dudar de esta afirmación.

Esa tensión entre lo que parece y lo que realmente es constituye uno de los grandes retos conceptuales de nuestro tiempo.

Qué es realmente la inteligencia artificial

Desde un punto de vista técnico, los sistemas actuales de IA, especialmente los modelos de lenguaje se basan en arquitecturas matemáticas diseñadas para predecir la probabilidad de aparición de una palabra en función del contexto previo.

En esencia, lo que hacen es calcular, a partir de millones de ejemplos, cuál es la secuencia de palabras más probable que debería venir a continuación. Este proceso, repetido millones de veces y optimizado con enormes cantidades de datos, genera resultados sorprendentemente coherentes.

Pero hay que ser claros:
no hay comprensión en sentido humano, no hay experiencia, no hay intención.

La IA no “sabe” lo que dice.
No entiende.
No vive.

Opera en el lenguaje, pero no en la realidad.

Y, sin embargo, logra algo extraordinario: simular con gran precisión comportamientos que asociamos a la inteligencia.

La gran ilusión: cuando la estadística parece pensamiento

Aquí aparece la gran paradoja de la inteligencia artificial.

A partir de modelos puramente estadísticos, somos capaces de generar respuestas que parecen razonadas, estructuradas e incluso creativas. Esto nos lleva a atribuir inteligencia donde en realidad hay predicción probabilística.

El problema no es técnico, sino conceptual. Confundimos:

  • coherencia lingüística con comprensión
  • fluidez con pensamiento
  • precisión formal con conocimiento

La IA puede escribir un texto sobre el sufrimiento humano sin haber sufrido jamás. Puede describir una enfermedad sin haber visto nunca un paciente. Puede explicar una emoción sin haber sentido nada.

Esto no la invalida como herramienta, pero sí nos obliga a situarla correctamente.

No estamos ante una mente, sino ante una simulación altamente sofisticada de lenguaje.

 

El papel decisivo del humano: el arte del “prompt”

Uno de los elementos más reveladores del funcionamiento de la IA es su dependencia del humano.

La calidad de la respuesta depende directamente de la calidad de la pregunta. El prompt no es un detalle técnico menor; es el núcleo del proceso. Es la forma en que el humano introduce intención, contexto, criterio y dirección en un sistema que carece de todo ello.

Cuando el prompt es pobre, la respuesta es pobre.
Cuando es ambiguo, la respuesta lo es también.
Cuando está bien construido, el resultado puede ser extraordinario.

Esto nos lleva a una idea clave:

La inteligencia de la IA es, en gran medida, inteligencia humana proyectada.

La máquina no define el problema. No decide qué es relevante. No establece prioridades. Todo eso lo hace el humano.

El riesgo silencioso: dejar de pensar

A medida que la tecnología mejora, aparece un riesgo menos visible pero más profundo.

Cuanto más confiamos en la IA, más tendemos a delegar. Delegamos análisis, decisiones, redacción e incluso juicio crítico. Esto puede generar una dependencia progresiva que afecte a nuestra capacidad de pensar de forma autónoma.

No es un problema inmediato, pero sí estructural.

Si dejamos de cuestionar, de contrastar, de reflexionar, corremos el riesgo de convertirnos en meros validadores de respuestas generadas por sistemas que no comprenden lo que dicen.

La pregunta, entonces, no es qué puede hacer la IA por nosotros, sino:

qué estamos dejando de hacer nosotros por usarla.

Sigue leyendo el articulo completo:

Haz clic para acceder a politicas-de-calidad.pdf

 

https://www.newmedicaleconomics.es/author/inakialegria/

Deja un comentario

Scroll al inicio

Descubre más desde Cooperación con Alegría

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo