<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>Faithfulness on Tech &amp; AI</title><link>https://www.leandrolatorre.com/tags/faithfulness/</link><description>Recent content in Faithfulness on Tech &amp; AI</description><generator>Hugo -- 0.146.0</generator><language>es-es</language><lastBuildDate>Sat, 11 Apr 2026 00:01:00 +0200</lastBuildDate><atom:link href="https://www.leandrolatorre.com/tags/faithfulness/index.xml" rel="self" type="application/rss+xml"/><item><title>Verify Before You Commit: Cómo SAVeR Enseña a los Agentes LLM a No Mentirse a Sí Mismos</title><link>https://www.leandrolatorre.com/paper-of-the-week/saver-verified-reasoning-llm-agents/</link><pubDate>Sat, 11 Apr 2026 00:01:00 +0200</pubDate><guid>https://www.leandrolatorre.com/paper-of-the-week/saver-verified-reasoning-llm-agents/</guid><description>SAVeR (Self-Audited Verified Reasoning) es un framework publicado el 9 de abril de 2026 y aceptado en ACL 2026 que resuelve un problema sutil pero crítico: los agentes LLM pueden razonar de forma coherente pero incorrecta, propagando creencias falsas a lo largo de decisiones complejas. SAVeR audita y repara los pasos intermedios antes de que el agente actúe.</description></item></channel></rss>