Tecnología y pensamiento
La ilusión del razonamiento artificial

Por Juan Cadile, Fernando Roa y Estanislao Molinas
En los últimos meses, una nueva clase de inteligencia artificial conocida como modelos de razonamiento (LRMs, por su sigla en inglés) ha captado la atención del público. Estos modelos implementan una técnica llamada Chain-of-Thought (cadena de pensamiento), lo que les da una aparente capacidad para razonar paso a paso como un ser humano. Sin embargo, investigaciones recientes muestran que esta capacidad es, en muchos casos, una ilusión peligrosa.
Un estudio reciente de Apple, titulado "The Illusion of Thinking" ("La ilusión del pensamiento", Parshin Shojaee y otros, año 2025), analizó de forma sistemática las capacidades y limitaciones de estos modelos en tareas de razonamiento, utilizando rompecabezas clásicos como la Torre de Hanói, el salto de damas, el cruce del río y el mundo de bloques. Los resultados identificaron tres niveles de complejidad: en los problemas simples, los modelos generales fueron más eficientes que los modelos de razonamiento; en los de dificultad media, los LRMs mostraron cierta ventaja; pero ante los desafíos más complejos, todos colapsaron con niveles de precisión cercanos a cero.
Puede interesarte
Sorprendentemente, los LRMs reducen su esfuerzo de razonamiento -medido en la cantidad de tokens generados- a medida que aumenta la complejidad del problema, lo que sugiere una limitación interna en su capacidad de escalado. Además, tienden a "pensar de más" en los desafíos simples: suelen encontrar la respuesta correcta temprano, pero luego continúan por caminos erróneos; en los problemas intermedios, corrigen sus errores recién al final; frente a los más complejos, directamente fracasan.
Otro hallazgo clave es la incapacidad de estos modelos para ejecutar algoritmos explícitos de forma correcta. Incluso cuando se les proporciona una instrucción precisa -como el pseudocódigo para resolver la Torre de Hanói mediante recursión- fallan de forma sistemática una vez que la complejidad supera cierto umbral. También presentan comportamientos inconsistentes entre distintos tipos de problemas, lo que sugiere que su rendimiento depende más de la familiaridad con los datos de entrenamiento que de una capacidad real para resolver tareas complejas.
Algunos responderán que los humanos también se equivocan. Pero conviene recordar que el propósito fundamental de la tecnología es resolver problemas de manera confiable. Una calculadora que no suma bien es inútil; del mismo modo, una inteligencia artificial que no ofrece soluciones fiables no puede considerarse verdaderamente inteligente. El estudio aquí referido pone en duda si los modelos de lenguaje y razonamiento, a pesar de su notable progreso, son verdaderamente el camino hacia una inteligencia artificial general o superinteligencia. La diferencia entre simular razonamiento y realmente razonar podría definir el futuro de esta tecnología, y en consecuencia, el futuro del trabajo, la sociedad y la humanidad misma.
(*) Juan Cadile es ingeniero en Computación por Iona University y doctorando en Filosofía por Rochester University. Fernando Roa, tecnólogo, director ejecutivo de Agentica Systems. Estanislao Molinas es estudiante de Relaciones Internacionales de la UCSF.