s1 Test-Time Scaling Performance

s1: Escalando el Razonamiento con Solo 1,000 Ejemplos y 'Budget Forcing'

📄 Paper de la Semana: s1 (Simple Test-Time Scaling) Paper: s1: Simple test-time scaling Autores: Muennighoff et al. (simplescaling) Publicación: Enero 2026 GitHub: simplescaling/s1 🎯 ¿Por qué es relevante? Mientras todos persiguen datasets masivos y clusters de entrenamiento gigantescos, s1 llega con una premisa rompedora: puedes lograr capacidades de razonamiento de vanguardia (SOTA) con solo 1,000 ejemplos de entrenamiento cuidadosamente curados. Este paper desafía la noción de que el razonamiento avanzado es una propiedad emergente exclusiva de modelos entrenados con RL a gran escala (como DeepSeek-R1 o OpenAI o1). En su lugar, demuestran que un modelo fuerte (Qwen2.5-32B) puede “desbloquear” estas capacidades mediante: ...

January 31, 2026 · Leandro Latorre
DeepSeek-R1 Benchmark Comparison

DeepSeek-R1: Revolucionando el Razonamiento en LLMs con Reinforcement Learning Puro

📄 Paper Destacado: DeepSeek-R1 Paper: DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning Autores: DeepSeek-AI Publicación: 22 de enero, 2025 GitHub: deepseek-ai/DeepSeek-R1 ⭐ 91.8k stars 🎯 ¿Por qué es importante este paper? DeepSeek-R1 representa un hito fundamental en el desarrollo de modelos de razonamiento. Por primera vez, se demuestra que un LLM puede desarrollar capacidades de razonamiento robustas sin necesidad de supervised fine-tuning inicial, utilizando únicamente reinforcement learning (RL) a gran escala. ...

January 24, 2026 · Leandro Latorre