Paper de la Semana: OpenForecaster
- Paper: Scaling Open-Ended Reasoning to Predict the Future
- Autores: Csaky et al. (Berkeley, JHU, et al.)
- Publicación: 31 de diciembre, 2025 (Trending week of Jan 10)
- GitHub: OpenForecaster/scaling-forecasting-training
¿Por qué es relevante?
Predecir eventos futuros (forecasting) ha sido tradicionalmente territorio de expertos humanos o modelos estadísticos muy específicos. OpenForecaster demuestra que un LLM relativamente pequeño (8B parámetros), si se entrena específicamente para razonar sobre noticias y causalidad, puede superar a modelos propietarios masivos (como GPT-4o sin fine-tuning) en tareas de predicción probabilística. Es un paso gigante para la inteligencia estratégica automatizada.
Detalles Técnicos
La innovación principal reside en cómo transformaron el problema de predicción en un problema de razonamiento y recuperación:
- OpenForesight Dataset: Crearon un dataset masivo extrayendo noticias históricas y sus desenlaces reales. No solo pares (evento, resultado), sino cadenas de razonamiento que conectan ambos.
- Retrieval-Augmented Reasoning: El modelo no predice en el vacío. Ante una pregunta (e.g., “¿Subirá el precio del petróleo la próxima semana?”), primero recupera noticias relevantes del periodo anterior a la fecha objetivo.
- Fine-tuning en Pasos: Entrenaron a Llama-3.1-8B para seguir un proceso estructurado:
- Analizar la relevancia de las noticias recuperadas.
- Generar un razonamiento causal (pros/contras).
- Emitir una probabilidad calibrada final.
El resultado es un modelo que no solo da un número (e.g., “75% probable”), sino que te explica por qué, citando eventos específicos que fundamentan su predicción.
Opinión
OpenForecaster democratiza el “superforecasting”. Lo más interesante no es solo que prediga bien, sino que su razonamiento es transparente. Esto abre la puerta a asistentes de toma de decisiones que actúan como analistas de inteligencia, capaces de digerir el caos de las noticias diarias y convertirlas en probabilidades accionables.
