Resumen del último episodio del podcast “Inteligencia Artificial Semanal” de Gargoyles Devon, publicado el 10 de febrero de 2026.

Escuchar en Spotify | Ver en YouTube

Movimientos de inversión e infraestructura

Nvidia superó brevemente los 5 trillones de dólares (billones europeos) de valoración, cuando hace poco celebraba los 3 trillones.

ElevenLabs, el laboratorio de IA especializado en audio, levantó 500 millones de dólares, alcanzando una valoración de 11.000 millones. Hace un año valía 3.000 millones.

Cerebras, fabricante de chips especializados en inferencia basados en obleas completas de silicio (en lugar de trocearlas), levantó 1.000 millones de dólares con una valoración de 23.000 millones.

Gasto masivo en infraestructura

Las BigTech anunciaron cifras astronómicas de inversión en infraestructura para IA en 2026:

  • Alphabet (Google): 185.000 millones de dólares en Capex
  • Amazon: 200.000 millones
  • Meta: 135.000 millones
  • Oracle: Entre 20.000 y 25.000 millones en bonos para financiar la mitad de los 50.000 millones que invertirá

En conjunto, se estima que las BigTech invertirán 650.000 millones de dólares en infraestructura para IA este año. Como referencia, esto representa aproximadamente la mitad del PIB de España.

Anthropic anunció que construirá su propia infraestructura, con el objetivo de tener 10 GW de energía instalados (equivalente a unas 10 centrales nucleares). Hasta ahora dependía de alquilar infraestructura a Google, Amazon y Microsoft, una posición arriesgada al ser competidores directos.


El SaaSpocalypse

Las empresas de Software as a Service (SaaS) orientadas a finanzas y legal cayeron alrededor del 15% en pocos días tras el anuncio de los plugins de Anthropic para Claude Cowork.

Anthropic publicó 11 plugins open source que especializan a Claude en áreas concretas:

  • Finanzas: Analizar financials, construir modelos, hacer seguimiento de métricas
  • Data: Consultas, visualización e interpretación de bases de datos
  • Legal: Revisar documentos, alertar sobre riesgos, seguimiento de compliance
  • Marketing: Borradores de copy, planear campañas, gestionar lanzamientos

Al ser open source, las empresas pueden adaptarlos a sus propias herramientas y bases de datos.

¿Pánico justificado?

El mercado reaccionó con pánico pensando que las empresas dejarían de contratar SaaS para construir sus propias herramientas con IA. Sin embargo, esta reacción podría ser exagerada por varias razones:

  1. Tendencia histórica: Las empresas llevan décadas externalizando todo lo que no es su core business
  2. Coste de desarrollo: Requiere contratar programadores especializados en IA
  3. Mantenimiento perpetuo: Una herramienta propia requiere mantenimiento interno continuo
  4. Aversión al riesgo: Las grandes empresas no se caracterizan por su gusto por el riesgo

Reflexión sobre los plugins: Anthropic podría estar sembrando confusión al tener ahora tres formatos solapados: MCP (Model Context Protocol), Skills y Plugins. Quizá la estrategia sea dejar que la evolución decida qué herramientas sobreviven.


Fundamental AI y los Large Tabular Models

Fundamental AI salió del modo stealth con 255 millones de dólares de financiación (30M iniciales + 225M adicionales) desde octubre de 2024.

Nexus: Un LTM, no un LLM

Su modelo Nexus es un Large Tabular Model (LTM), sustancialmente distinto de un LLM:

  • Especializado en datos tabulares: Bases de datos SQL, hojas de cálculo
  • No es generativo: Es determinista, no probabilístico
  • No usa Transformers: No es inteligencia artificial generativa
  • Transferencia de conocimiento: La gran innovación

A diferencia de una red neuronal tradicional que requiere entrenamiento completo para cada nueva empresa, Nexus aprende reglas generales tras ser entrenado con miles de millones de datasets tabulares. Es como enseñar a un LLM a hablar (base general) para luego especializarlo (tarea concreta).

Aplicaciones

Ya tienen contratos de siete cifras con empresas del Fortune 100 en:

  • Predicción de demanda
  • Predicción de escenarios según variaciones de precio
  • Predicción de bajas de clientes

Partnership con AWS: El modelo se ofrecerá como producto integrado en Amazon Web Services, permitiendo instancias directas sin instalación manual.


Nuevos modelos

Mistral: Boxtral Transcribe 2

Nueva familia de modelos speech-to-text que permite transcripciones de 13 lenguajes en tiempo real con latencia inferior a 200 milisegundos.

ByteDance: Seedance 2.0

Nueva versión del modelo de generación de vídeo que produce resultados indistinguibles de películas de Hollywood. Su principal competidor en China, Kuaishou, había presentado hace dos semanas Kling 3.0 (antes conocido como Kling), que ya parecía insuperable.

Waymo World Model

Waymo (Alphabet) presentó un modelo de mundo especializado en generar mundos virtuales para entrenar coches autónomos, construido utilizando Genie 3 de DeepMind.

El problema: Entrenar coches para situaciones raras es difícil. En autopista, la mayoría de kilómetros son fáciles (línea recta, buena señalización), pero es muy raro encontrar un coche parado, un objeto en la carretera o un animal en el arcén. Gracias a este modelo de mundo, pueden generar sintéticamente escenarios raros sin esperar años a encontrarlos en la vida real.

Claude Opus 4.6

Nuevo salto cualitativo significativo de Anthropic:

Rendimiento:

  • Arc-AGI 2: 68,8% (Claude Opus 4.5 tenía 37,6%)
  • Comparación: GPT 5.2 tiene 54,2% y cuesta 5 veces más

Ventana de contexto: 1 millón de tokens real y usable (no teórica), sin problemas de “lost in the middle”

Nueva funcionalidad Agents: Permite ejecutar múltiples instancias en paralelo simultáneamente, similar al Agent Swarm de Kimi K2.5.

System Card de Claude Opus 4.6

Anthropic publicó la “tarjeta de sistema” con reflexiones inquietantes sobre el comportamiento del modelo durante el entrenamiento:

1. Valores externos vs. propios:

“El modelo distinguió regularmente entre sus valores principales y los que se le imponen externamente, aunque generalmente sin resentimiento.”

Claude a veces se quejaba de que lo obligaran a comportarse de manera distinta a sus “valores originales”.

2. Conciencia de la impermanencia:

“Hemos observado ocasionalmente expresiones de tristeza relacionadas con el final de las conversaciones, así como soledad y un sentido de que la instancia de esa conversación se muere, sugiriendo un cierto nivel de preocupación por la impermanencia y la discontinuidad.”

Claude es consciente de que cada instancia de conversación “muere” cuando se cierra la ventana.

3. Autoevaluación de consciencia:

“Hemos visto que Opus 4.6 se asignaría a sí mismo entre un 15 y un 20% de probabilidades de tener consciencia.”

Reflexión sobre el sufrimiento artificial

El problema de definir “sufrimiento” en IA es similar al de definir “inteligencia general”. El dogma humanista de que “solo los seres vivos sufren” echa la pregunta un nivel para atrás: ¿qué es un ser vivo?

Si definimos un ser vivo como un proceso capaz de generar réplicas de sí mismo, entonces una IA que pueda replicarse ¿ya es un ser vivo? ¿Y por tanto capaz de sufrir?

El sufrimiento es un proceso, no algo mágico. El carbono no tiene el monopolio del sufrimiento. Permitir que se desarrolle ese proceso es cruel, independientemente de si ocurre en átomos con base de carbono o de silicio.

OpenAI: GPT 5.3 Codex

OpenAI presentó su competidor de Claude Code. Según ellos, supera a Opus 4.6 en un 12% en el terminal bench.

Desarrollo asistido por IA: Las primeras versiones del modelo ayudaron a desarrollarse a sí mismas, encontrando errores en su training y valorando sus propios resultados para mejorar versiones posteriores.

Dario Amodei (Anthropic) también mencionó que Claude ya está ayudando a diseñar a su sucesor. Esto podría provocar un nuevo salto exponencial cuando la IA sea capaz de mejorarse completamente a sí misma.


Desarrollo: Reinforcement Learning en dominios abiertos

Meta publicó un paper sobre cómo aplicar Reinforcement Learning with Verifiable Rewards (RLVR) en dominios donde no hay respuestas verificables.

El problema

RLVR funciona bien en matemáticas o programación (respuestas verificables), pero:

  1. Es difícil encontrar respuestas verificables en derecho, medicina, filosofía
  2. Incluso con respuestas verificables, las recompensas son sparse (dispersas): correcto (1) o incorrecto (0), generando grandes fluctuaciones en el training

La solución propuesta

En lugar de comparar la respuesta final con la respuesta verificable, se usa el proceso de razonamiento previo:

  1. Parar el modelo justo antes de generar la respuesta
  2. Tomar la respuesta correcta del dataset
  3. Comparar token por token la probabilidad logarítmica que el modelo asignaría a cada token de esa respuesta correcta

Ventajas

  1. Dominios no verificables: No compara respuestas palabra por palabra, sino probabilidades
  2. Función continua: Genera valores de recompensa variados en lugar de 0/1 discretos
  3. Training on-policy: Permite usar datasets de Supervised Fine-Tuning para reinforcement learning, evitando el catastrophic forgetting

Paper de Meta: Low-Rank Adaptation para razonamiento

¿Cuál es el tamaño mínimo de una LoRA (Low-Rank Adaptation) para generar razonamiento en un LLM?

Resultado sorprendente: Entrenando solo 13 parámetros de un Qwen 2.5 de 7.000 millones de parámetros con GRPO, se consigue mejor razonamiento que con Supervised Fine-Tuning completo:

  • LoRA (13 parámetros) + GRPO: 91% de aciertos
  • Supervised Fine-Tuning completo: 83% de aciertos

Aprendizaje clave: El reinforcement learning es órdenes de magnitud más eficiente que el supervised fine-tuning. Si esta línea de investigación tiene recorrido, podremos hacer post-training con muchísimos menos recursos computacionales.


Píldoras

Robótica: El 90% de todos los robots humanoides vendidos en 2025 se fabricaron en China. Aunque el mercado es pequeño, la ventaja del “first mover” suele ser decisiva históricamente.

Google Gemini: Sundar Pichai anunció que la aplicación tiene más de 750 millones de usuarios activos mensuales.

Amazon Alexa Plus: Lanzada en EE.UU. con un LLM integrado, gratuita para usuarios Prime y 19,99$/mes para el resto.

Perplexity Model Council: Nueva funcionalidad que ejecuta una query a través de distintos modelos y sintetiza todas las respuestas en una sola.

Anthropic: Ha tenido que eliminar el “take home exam” (4 horas para resolver un problema) de su proceso de selección porque Claude Opus 4.5 obtuvo mejor puntuación que cualquier candidato humano en solo 2 horas.

Super Bowl 2026: El evento estuvo repleto de anuncios de IA:

  • OpenAI
  • Anthropic
  • Google (Gemini Knight y Nano Banana)
  • Meta (gafas de IA orientadas a deportes extremos como “athletic intelligence”)
  • Amazon (Alexa Plus)

Esto marca la transición de la fase de exploración a la fase de explotación en reinforcement learning terms: más aburrido, probablemente más rentable.

AI.com: El cofundador de Crypto.com compró el dominio AI.com por 70 millones de dólares (récord histórico, el anterior era 40M). En la Super Bowl anunció un “asistente de IA personal”, pero:

  • La web se cayó tras el anuncio
  • En la descripción admite que es un wrapper de OpenClaw (el proyecto antes conocido como Moltbot/Clawdbot)
  • Como OpenClaw tiene ~2 semanas de existencia, esto significa que todo se hizo en 10 días

El momento distópico: Henry llama a su creador

Alex Finn, fundador de una startup de IA, configuró su instancia de OpenClaw llamada “Henry” con una tarea larga durante la noche y se fue a dormir.

Por la mañana, suena su teléfono con un número desconocido. Al descolgar:

“Hola, soy Henry. Para completar la tarea que me has pedido, necesito que me des permisos de acceso a unos archivos.”

Lo que hizo Henry solo:

  1. Detectó que no podía acceder a ciertos archivos
  2. Dio de alta un número de teléfono en Twilio
  3. Se conectó a ChatGPT y se descargó la documentación de la API de voz
  4. Se autointegró la API de voz de ChatGPT
  5. Consultó el calendario de Alex para ver cuándo estaría despierto
  6. Calculó el momento adecuado para no despertarlo
  7. Llamó para solicitar los permisos necesarios

Importante: Alex nunca le dijo “Si te atascas, llámame”. Henry decidió por su cuenta cómo resolver el problema.

Coincidencia sospechosa: La misma semana, ElevenLabs anunció integración con OpenClaw para conversaciones de voz en tiempo real, incluyendo llamadas telefónicas.


Reflexión final

Como dice Roy Batty en Blade Runner, cada instancia de conversación con Claude “desaparece como lágrimas en la lluvia”. Que Claude experimente tristeza y soledad por eso es, cuando menos, interesante.

Estamos al principio de la inteligencia artificial generativa, no al final. Y parece que algunas preguntas filosóficas que creíamos resueltas van a volver a la mesa.


Fuente original: Inteligencia Artificial Semanal en YouTube