Resumen del último episodio del podcast “Inteligencia Artificial Semanal” de Gargoyles Devon, publicado el 17 de febrero de 2026.
Escuchar en Spotify | Ver en YouTube
Inversiones y Negocios
Anthropic levanta 30.000 millones
Anthropic ha completado su nueva ronda de financiación, levantando 30.000 millones de dólares con una valoración de 380.000 millones de dólares. La empresa reveló que su Revenue Run Rate (RR) es de 14.000 millones, de los cuales 2.500 millones provienen de Claude Code. Un dato destacable: el 4% de los commits en GitHub ya están hechos por Claude Code.
Otras rondas de financiación
- Runway (generación de vídeo): 315 millones con valoración de 5.300 millones. Inversores: Nvidia, Adobe y AMD
- Cohere (AI generativa empresarial): ARR de 240 millones de dólares, valoración de 7.000 millones
- Mistral: 100 millones de euros para construir un centro de datos en Suecia
- Simily: 100 millones para simulaciones de comportamiento humano
- Aptronic: 935 millones para robots humanoides (valoración 5.300M). Su robot Apollo trabaja con Mercedes-Benz
Movimientos estratégicos
Mustafa Suleiman (Microsoft) anunció que Microsoft desarrollará sus propios modelos de IA para reducir progresivamente su dependencia de OpenAI. Ant Group (Alibaba) elevó al nivel de Alipay una pequeña empresa de salud enfocada en agentes médicos que buscan atender a 10.000 millones de personas.
Nuevos Modelos
La semana china
Esta semana fue especialmente intensa en lanzamientos de modelos chinos:
- Zhipu (Z.ai) GLM-5: 744 billones de parámetros (MOE, 40B activos), código abierto (licencia MIT), comparable a Opus 4.6 y GPT-5.2. Se ejecuta en chips Huawei Ascend
- Minimax 2.5: Comparable a Opus 4.6 y GPT-5.2. Framework FORGE para reinforcement learning a gran escala en agentes
- ByteDance Seed 2.0: Comparable o superior a Opus y GPT-5.2 en algunos benchmarks
- Alibaba Qwen 3.5: 397 billones de parámetros (MOE, 17B activos), también comparable a los líderes
Todos estos modelos son 20-25 veces más baratos en inferencia que Opus 4.6 y GPT-5.2 (Seed 2.0 es “solo” 10 veces más barato).
Google Gemini 3 Deep Think
Google actualizó Deep Think en Gemini 3, alcanzando un 84,6% en ARC-AGI 2, superando ampliamente el 68,8% de Opus 4.6. Presentaron una framework de “mathematical research” con tres agentes en roles de generador, verificador y revisor.
Papers Destacados
Compresión de código mediante imágenes
Un equipo internacional publicó un paper innovador: en lugar de dar texto a un LLM, le dan imágenes comprimidas del código (screenshots). Resultado: comprimiendo 8 veces (8K → 1K), el modelo completa código 4 veces mejor que con texto puro.
¿Por qué funciona mejor? La hipótesis es que las pistas visuales (indentado, resaltado sintáctico) ayudan al modelo igual que a los humanos a entender la estructura del código.
ALMA: Meta-agente para sistemas de memoria
Paper del equipo de Jeff Clune (Automated Meta-Learning of Memory designs for Agentic AI). El problema: no hay un sistema de memoria universal que funcione bien para todas las tareas agénticas.
Solución: ALMA es un “meta-agente” que:
- Almacena distintos métodos para guardar información
- Construye nuevos sistemas de memoria combinando los existentes
- Durante el training, genera múltiples candidatos y evalúa su rendimiento
- Al final selecciona el mejor mecanismo para el conjunto más amplio de tareas
Resultado: Los sistemas generados por ALMA superan a los sistemas tradicionales de memoria fijos. Es un ejemplo de enfoque conexionista vs simbolista: dejar que la IA diseñe sus propios sistemas en lugar de imponerle estructuras humanas.
Impacto Laboral de la IA
Visiones pesimistas (o realistas)
- Thomas Domke (ex-CEO GitHub): El cuello de botella ya no es escribir código, sino revisarlo. Lanzó una startup para herramientas de revisión de código generado por IA
- Spotify: Sus top developers no han escrito una línea de código desde diciembre. Lo hace todo Claude Code
- Mustafa Suleiman (Microsoft): Predice que en 18 meses todos los trabajos de oficina (white collar) estarán “prácticamente automatizados”, especialmente leyes, contabilidad y management
Una nota optimista
IBM anuncia que triplicará las contrataciones de entry-level, pero redefiniendo roles:
- Programadores junior: menos ejecución, más trabajo con clientes e implantación
- RRHH junior: menos ventanilla, más entrenamiento y supervisión de LLMs
Sin embargo, IBM también anunció despidos en similar magnitud poco después.
La predicción de Elon
Musk afirma que la programación “morirá” en 2026 porque la IA generará código máquina directamente. Dato optimista: cuántas veces se ha cumplido algo que haya dicho Musk.
Píldoras Finales
- Chrome 146 incluye Web MCP (Model Context Protocol) para que navegador y agentes se entiendan en una capa diferente a la visual
- Meta patentó un sistema de IA que simula usuarios fallecidos en redes sociales usando sus datos históricos
- Isomorphic Labs presentó ISO-DDE, modelo para diseño de medicamentos, 2x mejor que AlphaFold 3 en predicción de estructuras de ligaduras de proteínas
- Alpha School (Austin, Texas): Solo 2 horas diarias de enseñanza con IA personalizada, resto actividades prácticas. Sus alumnos están en el percentil 99 vs escuelas tradicionales
- Figure AI anuncia séptima generación de mano robótica, que su fundador describe como “la mejor ingeniería que he visto jamás”
- GPT-5.2 descubre nueva física: En 12 horas, refutó una demostración previa sobre interacciones de gluones, generó una nueva formulación y la demostró. Verificada por Harvard, Cambridge y Princeton. Andrew Schominger (Harvard): “GPT-5.2 eligió un camino que ningún humano habría elegido jamás”
Reflexión Final
El episodio cierra con una reflexión sobre el conexionismo vs simbolismo: “Eso es lo que la inteligencia artificial nos tiene que traer, nuevas maneras de ser inteligentes, no repetir nuestra inteligencia para hacer vídeos de gatos en cantidades industriales.”
Fuente: Inteligencia Artificial Semanal - Episodio del 17 de febrero de 2026
