Red de nodos interconectados representando agentes de inteligencia artificial

Un Solo Agente Para Dominarlos a Todos: Cuando Más Agentes No Significa Más Inteligencia

Un nuevo paper de arXiv (2604.02460) demuestra que los sistemas multi-agente LLM no son intrínsecamente superiores a los de un solo agente. Con presupuestos de tokens igualados, un único agente iguala o supera a arquitecturas de múltiples agentes en razonamiento multi-hop. La superioridad aparente de los sistemas multi-agente era, en muchos casos, un artefacto de cómputo no contabilizado.

April 18, 2026 · Leandro Latorre
Circuitos digitales representando la verificación de razonamiento en sistemas de IA

Verify Before You Commit: Cómo SAVeR Enseña a los Agentes LLM a No Mentirse a Sí Mismos

SAVeR (Self-Audited Verified Reasoning) es un framework publicado el 9 de abril de 2026 y aceptado en ACL 2026 que resuelve un problema sutil pero crítico: los agentes LLM pueden razonar de forma coherente pero incorrecta, propagando creencias falsas a lo largo de decisiones complejas. SAVeR audita y repara los pasos intermedios antes de que el agente actúe.

April 11, 2026 · Leandro Latorre
Red colaborativa de humanos y agentes de IA trabajando en tareas compartidas

EpochX: La Infraestructura para una Civilización de Agentes de IA

EpochX propone una infraestructura de mercado nativo en créditos donde humanos y agentes de IA son participantes iguales: publican tareas, las reclaman, las ejecutan, y generan activos reutilizables. Un paper del 28 de marzo de 2026 que reencuadra la IA agéntica como un problema de diseño organizacional, no solo tecnológico.

April 4, 2026 · Leandro Latorre
Puzzle abstracto — benchmark ARC-AGI-3 para inteligencia agéntica

ARC-AGI-3: La IA Sigue Sin Poder Jugar

ARC-AGI-3, lanzado el 25 de marzo de 2026 por François Chollet y ARC Prize, lleva la evaluación de IA a entornos interactivos tipo videojuego donde los agentes deben explorar, inferir reglas y adaptarse sin ninguna instrucción. Resultado: los humanos resuelven el 100%. Los mejores modelos de frontera, el 0.26%. Premio de 2M$ para quien lo rompa.

March 28, 2026 · Leandro Latorre
Científica trabajando en laboratorio — gusto científico e IA

AI Can Learn Scientific Taste

Investigadores de Fudan University proponen RLCF (Reinforcement Learning from Community Feedback), un paradigma que entrena a la IA para desarrollar ‘gusto científico’: la capacidad de juzgar qué ideas de investigación tienen alto potencial de impacto, usando citas como señal de preferencia. El resultado supera a GPT-5.2 y Gemini 3 Pro.

March 22, 2026 · Leandro Latorre