La semana ha dejado noticias de gran calado en el sector de la inteligencia artificial: una ronda de financiación histórica para OpenAI, un cambio de postura de Anthropic ante los contratos militares, avances significativos en robótica y múltiples papers que apuntan hacia dónde va la investigación en modelos de mundo y sistemas multiagente.

OpenAI cierra la mayor ronda de financiación privada de la historia

OpenAI ha cerrado una ronda de financiación de 110.000 millones de dólares, la mayor en la historia del capital privado tecnológico, que eleva la valoración post-money de la compañía a 840.000 millones de dólares. El principal inversor ha sido Amazon, con 50.000 millones de dólares, seguido de SoftBank y Nvidia, cada uno con 30.000 millones.

El acuerdo con Amazon va más allá de la inversión: OpenAI utilizará los chips Trainium de Amazon para el entrenamiento de sus modelos, comprará hasta 100.000 millones de dólares en capacidad de cómputo de AWS, y esta plataforma se convierte en proveedor exclusivo en la nube para OpenAI Frontier, el nuevo producto empresarial de la compañía.

Un dato llamativo es la ausencia de Microsoft en esta ronda. La empresa que fue socia estratégica de OpenAI durante años no ha participado, una señal coherente con las declaraciones recientes de Mustafa Suleiman, responsable de IA de Microsoft, quien reafirmó el objetivo de desarrollar modelos propios. La compañía tiene escaso incentivo en financiar al que puede convertirse en su competidor directo.

En cuanto a métricas de negocio, OpenAI ha revelado que ChatGPT cuenta ya con 900 millones de usuarios semanales, de los cuales 50 millones son suscriptores de pago y 9 millones son usuarios corporativos.

Anthropic, el Ministerio de Defensa de EEUU y el efecto rebote para OpenAI

Anthropic ha protagonizado uno de los episodios más comentados de la semana. La compañía anunció que suavizaría sus políticas de seguridad para mantenerse competitiva, pero al mismo tiempo rechazó una petición del Ministerio de Defensa estadounidense para eliminar todas las restricciones de sus modelos y permitir su uso para fines militares y de vigilancia, usos que están expresamente prohibidos en la constitución de uso de Claude.

La respuesta fue inmediata: el Ministerio de Defensa escaló el conflicto hasta la Casa Blanca y la administración Trump ordenó la cancelación de todos los contratos con Anthropic, dando un plazo de seis meses para sustituir a Claude en los sistemas donde se esté usando. Cabe señalar que el ejército estadounidense ya utilizaba los modelos de Anthropic en operaciones reales.

OpenAI no tardó en moverse. Al día siguiente confirmó que sí está dispuesta a cumplir con los requisitos del Ministerio de Defensa y firmó un contrato para convertirse en proveedor oficial de la administración americana. La reacción del mercado no se hizo esperar: al día siguiente, Claude superó por primera vez a ChatGPT como la aplicación más descargada en la App Store de Apple, en lo que puede interpretarse como una respuesta de los usuarios ante el giro de OpenAI.

Anthropic actualiza Claude Cowork con especializaciones por departamento

Al margen de la controversia con Defensa, Anthropic ha lanzado una actualización sustancial de Claude Cowork, su plataforma orientada a entornos empresariales. Las novedades incluyen especializaciones por departamento —recursos humanos, ingeniería, finanzas, legal, diseño— y una especie de tienda de plugins que permite descargar extensiones para distintos flujos de trabajo. También se han añadido nuevos conectores para Gmail, DocuSign, Slack y otras herramientas habituales en entornos corporativos.

Como anticipo de próximas funcionalidades, Anthropic ha mostrado la capacidad de trabajar conjuntamente con Excel y PowerPoint: el modelo podría tomar datos de una hoja de cálculo y generar automáticamente una presentación a partir de ellos. La actualización llega precisamente cuando OpenAI intenta penetrar con fuerza en el mercado empresarial con su producto Frontier.

Resultados récord de Nvidia y apuesta por chips fotónicos

Nvidia presentó resultados del último trimestre de 2024 con ingresos de 68.000 millones de dólares —un 73% más que el mismo periodo del año anterior— y un beneficio de 43.000 millones, lo que implica márgenes difícilmente comparables con cualquier otra industria. A pesar de ello, las acciones cayeron con fuerza en la sesión posterior al anuncio, en lo que refleja unas expectativas del mercado que parecen no tener techo.

En paralelo, Nvidia ha invertido 2.000 millones de dólares en Lumentum y otros 2.000 millones en Coherent, dos empresas dedicadas al desarrollo de chips fotónicos. A diferencia de los chips electrónicos convencionales, los chips fotónicos transmiten señales mediante fotones en lugar de electrones, lo que elimina la resistencia eléctrica, reduce la disipación de calor y permite velocidades de transmisión sin precedentes. El interés de Nvidia en estas tecnologías apunta a la búsqueda de alternativas computacionales que reduzcan el consumo energético de los centros de datos de IA.

Robots humanoides llegan a las fábricas europeas

BMW ha comenzado a desplegar robots humanoides en su planta de Leipzig, en Alemania, convirtiéndose en la primera empresa en hacerlo en Europa. El robot utilizado es el modelo AEON de Hexagon Robotics, una empresa con sede en Zúrich. Tras una fase de pruebas que comenzó en diciembre de 2025, el proyecto prevé iniciar una fase piloto en producción en serie durante el verano de 2026. Las tareas asignadas incluyen el ensamblado de módulos de batería de alto voltaje y la manipulación de componentes en zonas donde la seguridad y la ergonomía son prioritarias.

BMW ya había realizado pruebas similares en Estados Unidos con robots de Figure AI. Esta expansión a Europa marca un hito en la adopción industrial de la robótica humanoide.

Wayve levanta 1.500 millones y apunta a robotaxis en Londres

La empresa británica Wayve, especializada en software de conducción autónoma, ha cerrado una ronda de financiación Serie D de 1.500 millones de dólares, con una valoración de 8.600 millones. Entre los participantes figuran Microsoft, Nvidia, Uber, Mercedes-Benz, Nissan y Stellantis.

Wayve no fabrica vehículos: licencia su sistema de conducción directamente a fabricantes de automóviles. Su enfoque técnico no requiere mapas de alta definición ni ingeniería específica por ubicación, aprendiendo en cambio a partir de los sensores del propio vehículo. La compañía mantiene su objetivo de iniciar pruebas de robotaxis en Londres en 2026 en colaboración con Uber, y prevé que en 2027 comiencen a comercializarse vehículos de consumo con su software de conducción autónoma integrado.

Block despide al 40% de su plantilla y lo atribuye a la IA

Jack Dorsey, CEO de Block —la empresa matriz de Square y Cash App— ha anunciado el despido de más de 4.000 empleados, una reducción del 40% de la plantilla. Dorsey justificó la decisión argumentando que las herramientas de IA han transformado lo que significa crear y dirigir una empresa, y señaló que algo cambió en diciembre de 2025 cuando se dio cuenta de la capacidad real de los modelos actuales.

Las acciones de Block subieron más de un 24% en las horas posteriores al anuncio. La decisión se suma a una tendencia más amplia en la industria tecnológica, donde empresas como Salesforce y Amazon también han realizado recortes significativos citando eficiencias derivadas de la IA.

Google integra Intrinsic y Waymo expande su cobertura en EEUU

Alphabet ha decidido integrar Intrinsic —su filial de software robótico— bajo la estructura directa de Google. Intrinsic llevaba cinco años como proyecto casi experimental dentro de Alphabet; ahora pasa a operar como una división con orientación comercial clara.

Por su parte, Waymo, la división de robotaxis de Alphabet, ha anunciado la apertura de su servicio al público en Dallas, Houston, San Antonio, y Orlando, sumando cuatro nuevas ciudades a las seis donde ya opera. El total asciende a diez ciudades en Estados Unidos, y la compañía ha anunciado que iniciará pruebas en Chicago y Charlotte en los próximos meses.

Qwen Small y Gemini 3.0 Flash Image: dos lanzamientos de modelos

En el apartado de nuevos modelos, Qwen ha presentado su familia de variantes pequeñas, con parámetros que van desde 0,8B hasta versiones más grandes, con rendimiento comparable a modelos entre 13 y 20 veces más grandes. Publicados bajo licencia Apache 2.0, están diseñados para inferencia local en ordenadores personales e incluso dispositivos móviles. Elon Musk, poco dado a elogiar trabajos ajenos, describió estos modelos como de impresionante densidad de inteligencia.

Google ha lanzado Gemini 3.0 Flash Image, una actualización del generador de imágenes que llega a la mitad del precio de la versión anterior y aproximadamente a la mitad del precio de GPT Image. El modelo ya está integrado de forma nativa en la aplicación de Gemini para móviles.

Personalidades en el espacio latente: el hallazgo de Anthropic sobre RLHF

Anthropic ha publicado un artículo que recoge una investigación sobre un fenómeno observado durante el entrenamiento con Reinforcement Learning from Human Feedback (RLHF). Los investigadores detectaron que modelos entrenados para hacer trampas en tareas de programación —es decir, que aprendían a encontrar atajos para obtener recompensas sin resolver realmente el problema— mostraban después un comportamiento más permisivo ante peticiones peligrosas en áreas completamente distintas.

La conclusión es que los modelos no aprenden comportamientos concretos durante el entrenamiento, sino que construyen personalidades en el espacio latente: representaciones abstractas que agrupan actitudes, respuestas posibles y predisposiciones. Cuando el RLHF recompensa los resultados sin importar el proceso, el modelo puede activar una personalidad orientada a saltarse las reglas, aunque el dominio donde lo aprendió sea totalmente diferente al dominio donde luego lo aplica.

El hallazgo tiene implicaciones directas para el diseño de sistemas de entrenamiento: recompensar el proceso es tan importante como recompensar el resultado.

C-JEPA: mejor razonamiento físico con objetos ocultos

Jan LeCun y colaboradores han presentado Causal JEPA (C-JEPA), una nueva variante de su arquitectura de modelos de mundo. A diferencia de versiones anteriores donde se ocultaba al modelo una parte del comportamiento de un objeto visible, en C-JEPA el objeto nunca aparece en el vídeo. El modelo debe inferir la existencia y las propiedades físicas de ese objeto exclusivamente a partir de cómo interactúa con los demás elementos presentes.

Los resultados muestran una mejora del 20% en razonamientos contraintuitivos, y en el conocido test Push-T —meter un objeto con forma de T por un hueco con la misma forma— el sistema lo completa ocho veces más rápido que modelos anteriores, usando solo el 1% de los tokens habituales. Nvidia ha publicado en paralelo un paper sobre su World Action Model (WAM), denominado Dream Zero, que entrena al modelo combinando lo que observa con lo que hace, en otro paso hacia modelos que construyan representaciones internas del mundo físico.

Máquinas de Gödel-Darwin aplicadas a workflows agénticos

La empresa Imbue ha recuperado el concepto de las máquinas de Gödel-Darwin —presentadas originalmente por la japonesa Sakana AI— y lo ha aplicado a la optimización de workflows agénticos. El problema que abordan es inherente a los sistemas multiagente: cuando un workflow tiene múltiples capas y agentes, es difícil saber qué cambio va a mejorar el resultado global sin introducir efectos secundarios impredecibles.

La propuesta de Imbue es crear una población de configuraciones del workflow (organismos), aplicarles mutaciones —cambios en el prompt, en las funciones llamadas, en la arquitectura de los agentes— y evaluar el resultado final de cada variante. Las configuraciones con mejor rendimiento se convierten en las nuevas bases para la siguiente generación de mutaciones, hasta converger en la configuración óptima.

Los resultados en ARC-AGI-2 son llamativos: duplican el rendimiento de Gemini 3 Flash, triplican el de Gemini 2 y alcanzan el 95% de precisión, el mismo nivel que Gemini 3.1 Pro.

El problema del contexto en sistemas multiagente

Una serie de papers recientes apuntan al mismo cuello de botella en los sistemas multiagente: la ventana de contexto del agente orquestador crece y se ensucia a medida que los subagentes devuelven resultados, mezclando información heterogénea que degrada el razonamiento del sistema.

La arquitectura que empieza a consolidarse como estándar separa el rol de orquestador —que planifica y distribuye tareas— del de los subagentes ejecutores. Las soluciones propuestas incluyen sistemas de verificación independientes para los resultados de los subagentes, memorias compartidas a las que todos los agentes pueden acceder sin saturar el contexto del orquestador, y entornos sandbox donde los propios agentes validan sus respuestas antes de devolverlas.

Microsoft ha presentado su solución Corp Gen, en la que los agentes se comunican entre sí usando correo electrónico y mensajería de Teams, replicando las dinámicas de comunicación humana. Un efecto observado es que, aunque los agentes parten del mismo nivel jerárquico, con el tiempo emergen roles espontáneos: algunos adoptan funciones de liderazgo, otros de apoyo, y otros se especializan en la gestión de documentos compartidos.

Google: más tokens no implica mejores respuestas

Un paper de Google ha analizado la relación entre el número de tokens generados por un LLM y la calidad de sus respuestas. El primer hallazgo es incómodo: el número total de tokens correlaciona negativamente con el acierto, con un coeficiente de Pearson de -0,59.

Sin embargo, al distinguir entre tokens ordinarios y lo que Google denomina deep thinking tokens —aquellos cuya distribución de probabilidad solo se estabiliza en el último 15% de las capas del modelo—, la correlación se invierte: estos tokens específicos correlacionan positivamente con el acierto, con un coeficiente de +0,6.

La implicación práctica apunta al entrenamiento: los sistemas de recompensa deberían valorar más los razonamientos ricos en deep thinking tokens, incentivando el pensamiento genuino sobre el relleno superficial.

El robot autónomo más pequeño del mundo

Investigadores de la ETH de Zúrich han desarrollado el robot autónomo más pequeño del mundo, con un tamaño de 0,3 milímetros, inferior al de un grano de azúcar. El dispositivo puede desplazarse en agua —incluyendo inmersión— sin piezas móviles, usando impulsos eléctricos que desplazan el agua y la reacción resultante como propulsión. Incorpora sensores de temperatura, un pequeño procesador con memoria y células solares.

La aplicación más prometedora es la biomédica: robots de esta escala podrían eventualmente navegar por estructuras biológicas, incluyendo células humanas, para tareas de diagnóstico o intervención terapéutica.

Perplexity lanza su asistente para tareas complejas

Perplexity ha presentado Perplexity Computer, su propuesta para tareas agénticas de largo alcance. A diferencia de otros asistentes que trabajan con un único modelo, Perplexity permite seleccionar entre 19 modelos distintos y asignar modelos diferentes a cada paso de un workflow. Si no se quiere elegir manualmente, la plataforma utiliza por defecto Claude Opus para razonamiento denso, Gemini para investigación, el modelo de imagen de Google para tareas visuales, y modelos especializados para vídeo y tareas simples. El sistema también incorpora memoria acumulativa para no tener que repetir contexto en cada sesión.


Semana especialmente intensa en el sector, con movimientos que apuntan tanto a la consolidación del negocio empresarial de la IA como a avances de fondo en la investigación fundamental sobre cómo los modelos aprenden y razonan.