Por Diego San Esteban
¿Realmente Pensamos o Solo Creemos que Pensamos?
Desde hace años —décadas, en realidad— la industria tecnológica nos viene contando un cuento. Un cuento hermoso, bien escrito, con un elenco de CEOs carismáticos, papers con títulos rimbombantes y miles de millones de dólares en efectos especiales. El argumento es simple: las máquinas ya no solo procesan. Piensan. Razonan. Crean.
Y nosotros, encantados, aplaudimos.
Cada nueva conferencia, cada lanzamiento de modelo, cada benchmark inflado con nombres impronunciables refuerza esa narrativa: “la inteligencia artificial está a punto de igualarnos… o superarnos”.
¿Pero y si no fuera cierto?
¿Y si toda esa épica fuera solo una simulación cuidadosamente diseñada para que parezca pensamiento?
¿Y si los sistemas que tanto veneramos no fueran genios digitales… sino apenas autómatas que repiten patrones sin entender nada?
Ahí entra Apple.
Sí, Apple.
Esa empresa que normalmente preferiría romper el silencio para lanzar un nuevo iPhone, esta vez lo hizo para lanzar una bomba. Un paper técnico con nombre de thriller psicológico: “The Illusion of Thinking”. Y no, no es exageración.
Ese estudio no se limita a cuestionar algunos detalles técnicos de los modelos actuales.
Lo que hace es mucho más incómodo: tira abajo el pedestal completo.
Desnuda la arquitectura.
Expone el truco.
Y plantea una pregunta tan básica como devastadora:
¿Estamos confundiendo probabilidad con pensamiento? ¿Autocompletado con inteligencia? ¿Narrativa con verdad?
Lo que sigue no es un debate técnico. Es un llamado de atención. Un cachetazo a tiempo.
Porque si seguimos creyendo que los modelos actuales razonan, tal vez el único que dejó de hacerlo… seamos nosotros.
El Estudio que lo Cambió Todo
Cuando los investigadores de Apple publicaron «The Illusion of Thinking», no solo estaban presentando otro paper académico. Estaban detonando una bomba en el corazón mismo de la narrativa que empresas como OpenAI, Anthropic y Google nos han estado vendiendo.
Sus hallazgos son demoledores: los llamados Modelos de Razonamiento Grande (LRMs) no razonan. Simulan. Aproximan. Imitan. Pero en el momento en que enfrentan problemas que requieren auténtico pensamiento composicional y abstracto, se derrumban como castillos de naipes.
Los Tres Grandes Engaños
Engaño nº1: «Cuanto más complejo, mejor razonan»
Falso. El estudio muestra que ante problemas de alta complejidad, los modelos no solo fallan: se rinden. Reducen su esfuerzo cognitivo (usando menos tokens) precisamente cuando más necesitaríamos que pensaran. Es como un estudiante que ante un examen difícil simplemente entrega la hoja en blanco.
Engaño nº2: «El razonamiento paso a paso es sinónimo de pensamiento»
¿De qué sirve generar páginas de «pensamiento» si al final la respuesta es incorrecta? Los LRMs producen elaboradas trazas de razonamiento llenas de errores acumulativos que no son capaces de detectar ni corregir. Es el equivalente a un político hablando durante horas sin decir nada.
Engaño nº3: «Superan a los humanos en razonamiento»
¿En qué universo? Un humano enfrentado al problema de las Torres de Hanói con 10 discos puede frustrarse, pero al menos comprende la naturaleza del problema. Estos modelos ni siquiera entienden qué están haciendo mal. Simplemente generan secuencias de texto que estadísticamente se parecen al razonamiento.
La Respuesta Patética de la Industria
Cuando Anthropic publicó su contrarréplica titulada «The Illusion of the Illusion of Thinking», muchos pensamos que sería un argumento sólido. ¿Resultado? Una parodia que terminaron admitiendo era… ¡una broma!
¿Es esto lo que vale el debate científico multimillonario que sustenta esta industria? ¿Bromas y marketing disfrazado de ciencia?
Las Preguntas Incómodas que Nadie Quiere Responder
- ¿Estamos financiando espejismos? Las inversiones en IA se cuentan por billones, pero ¿qué estamos construyendo realmente? ¿Sistemas que aparentan pensar o auténticas inteligencias?
- ¿La complejidad como excusa? Cada vez que un modelo falla, la respuesta es siempre la misma: «necesitamos más parámetros, más datos, más potencia». ¿No será que estamos equivocando el camino completamente?
- ¿Benchmarks o teatros? Si los modelos están contaminados con datos de entrenamiento que incluyen hasta las soluciones de los problemas que evalúan, ¿no estamos simplemente midiendo su capacidad de memorización disfrazada?
El Emperador Está Desnudo (Y Apple lo Señaló)
Lo más valiente del estudio de Apple no es solo su rigor metodológico, sino su voluntad de desafiar la narrativa predominante. Mientras otros venden humo, ellos presentaron evidencias concretas:
- Los modelos no pueden seguir algoritmos simples incluso cuando se les proporciona explícitamente
- Su rendimiento colapsa espectacularmente ante problemas novedosos
- Las trazas de razonamiento son often inconsistentes y auto-contradictorias
Hacia Dónde Deberíamos Mirar
Quizás el problema no sea de escala, sino de arquitectura. Papers presentados en NeurIPS 2022 como «Gradient Descent: El optimizador definitivo» y «MABSplit: Forest Training más rápido» apuntan a que necesitamos reinvenciones fundamentales, no más de lo mismo.
La solución podría estar en:
- Arquitecturas híbridas que combinen redes neuronales con sistemas simbólicos
- Benchmarks más rigurosos que realmente midan capacidades de razonamiento
- Transparencia radical sobre los límites y capacidades reales de los modelos
Conclusión: El Rey no Tiene Ropas (Y Tenemos que Decirlo)
Como comunidad tecnológica, tenemos una elección: seguir aplaudiendo al emperador desnudo o tener la valentía de señalar lo obvio. Los modelos actuales son impresionantes en muchas tareas, pero no razonan como nos quieren hacer creer.
El estudio de Apple debería ser una llamada de atención para inversores, desarrolladores y usuarios. Necesitamos menos marketing y más ciencia. Menos ilusiones y más pensamiento crítico.
La verdadera inteligencia artificial aún está por construirse. Y el primer paso para alcanzarla es admitir que lo que tenemos hoy son apenas espejismos sofisticados.
Diego San Esteban es analista crítico de tecnologías emergentes y escepticismo científico
¿Estás de acuerdo o en desacuerdo? Te invito a un debate sin concesiones en @dsaneste_ok. Prometo responder a todos los argumentos, especialmente los más contundentes.
