Representación visual de capas de una red neuronal procesando información

Think Deep, Not Just Long: Midiendo el Esfuerzo Real de Razonamiento en LLMs

Más tokens no significa mejor razonamiento. Este paper demuestra que lo que importa no es cuánto piensa un LLM, sino cómo: introduce los deep-thinking tokens y el DTR como métrica de esfuerzo real, con correlación positiva robusta frente al rendimiento.

February 28, 2026 · Leandro Latorre
Intrinsic Stability Limits of Autoregressive Reasoning

Límites de Estabilidad del Razonamiento Autoregresivo: Por Qué los LLMs Fallan en Cadenas Largas

Este paper demuestra matemáticamente que el razonamiento autoregresivo tiene límites intrínsecos de estabilidad: la precisión decae exponencialmente con la longitud de la cadena, independientemente del tamaño del modelo.

February 14, 2026 · Leandro Latorre