La semana ha estado marcada por dos grandes movimientos: Anthropic poniendo sobre la mesa su modelo más ambicioso hasta la fecha y un nuevo fenómeno cultural que está redefiniendo cómo se remunera a los ingenieros de IA en Silicon Valley.
Claude Managed Agents: Anthropic simplifica la infraestructura agéntica para empresas
Anthropic ha lanzado en beta pública Claude Managed Agents, una plataforma de ejecución gestionada pensada específicamente para empresas que quieren desplegar agentes sin tener que construir toda la fontanería por debajo.
El problema que resuelve es real: montar un agente agéntico en producción implica gestionar el estado de las sesiones, el sandboxing, las credenciales, la recuperación de errores, los checkpoints y la orquestación entre componentes. Todo eso lo asume ahora Anthropic, dejando a los equipos centrados únicamente en definir la tarea, las herramientas disponibles y los límites de actuación del agente.
El coste es de $0,08 por hora de ejecución más el consumo de tokens del modelo. Empresas como Notion, Rakuten, Asana y Sentry ya están usando la plataforma para flujos de trabajo autónomos como revisión de código, generación de documentos o gestión de tareas de proyecto.
La lectura de fondo es clara: Anthropic ha entendido que el principal freno a la adopción agéntica en las empresas no es el modelo en sí, sino toda la deuda técnica que genera construir y mantener la infraestructura de soporte. Y ha decidido quitársela de encima a sus clientes antes de que lo haga otro.
Claude Mythos y Project Glasswing: cuando un modelo encuentra miles de vulnerabilidades con 50 dólares
El gran titular de la semana es Claude Mythos, el nuevo modelo de Anthropic que no ha llegado al público general —y con razón.
Claude Mythos Preview es un modelo de propósito general con capacidades avanzadas de razonamiento y código agéntico. Pero su característica más impactante es su habilidad en ciberseguridad: durante las pruebas internas, el modelo encontró miles de vulnerabilidades zero-day en infraestructuras críticas, incluyendo una en un fragmento de código de OpenBSD con 27 años de antigüedad que ningún humano había detectado. El coste de encontrar esa vulnerabilidad: el equivalente a 50 dólares en tokens.
El dato es escalofriante. Por ese precio, cualquier persona con una tarjeta de crédito podría buscar agujeros en los sistemas operativos más seguros del mundo.
Anthropic ha tomado una decisión inusual: no publicar el modelo y crear en su lugar Project Glasswing, una iniciativa de ciberseguridad defensiva. Los doce socios principales incluyen Amazon Web Services, Apple, Cisco, CrowdStrike, Google, JPMorgan Chase, la Linux Foundation, Microsoft y NVIDIA, además de más de 40 organizaciones adicionales. El objetivo es que estos actores parcheen primero las vulnerabilidades ya encontradas y piensen cómo van a operar cuando el modelo —o uno similar— esté disponible públicamente. Anthropic ha comprometido hasta 100 millones de dólares en créditos de uso para el proyecto y 4 millones en donaciones a organizaciones de seguridad de código abierto.
Hay que tomar esta historia con matices. Anthropic tiene un historial de comunicación catastrofista, y además está preparando su salida a bolsa este año, lo que añade una capa de PR corporativa a sus comunicados. Pero la naturaleza no lineal del progreso en IA es real: los grandes saltos no se anuncian, simplemente ocurren. Y la reflexión de fondo es válida: los dirigentes, tanto en el ámbito público como en el privado, siguen sin tener un plan para el día en que un modelo así esté al alcance de cualquiera.
Google y la comoditización de la IA de voz
Google ha reducido el precio de sus modelos de voz en tiempo real. El nuevo Gemini 2.5 Flash Native Audio para la Live API se sitúa en precios que permiten operar un agente de voz durante 24 horas por alrededor de 25 dólares al día.
La estrategia de Google es transparente: convertir la IA en una commodity. Si el modelo en sí no es una decisión de compra diferencial, el cliente vuelve a los criterios de siempre —confianza de marca, integración con productos existentes, soporte empresarial— y ahí Google, Microsoft y Amazon llevan décadas de ventaja sobre Anthropic u OpenAI. Bajar los precios agresivamente es una forma de asegurarse de que la competencia no pueda construir una ventaja de marca duradera solo con el modelo.
El software empresarial está cambiando de receptor
Hay un cambio estructural en marcha que merece atención. El software empresarial, el que históricamente se diseñaba para ser operado por personas con interfaces gráficas, está mutando hacia interfaces pensadas para ser consumidas por agentes.
Las implicaciones son profundas. Los proveedores de SaaS tendrán que construir productos cuyo output no sea una pantalla bonita sino APIs, interfaces de línea de comandos o formatos estructurados como JSON. El conocimiento de uso —las reglas internas, las políticas de la empresa, el contexto de negocio— dejará de estar en la cabeza de los empleados y pasará a estar codificado en skills accesibles mediante MCPs o herramientas similares. Los agentes serán los que combinen el software externo con ese conocimiento interno.
El papel humano, de momento, es la orquestación: elegir los modelos adecuados para cada tarea, construir pools de modelos, dirigir el tráfico según el contexto. No es un trabajo menor, pero es radicalmente distinto al que existía hace tres años.
Token maxing: el nuevo medidor de estatus en Silicon Valley
El fenómeno del token maxing ha llegado para quedarse, al menos por ahora. La idea es simple: en los equipos de IA de las grandes tecnológicas, el consumo de tokens —la unidad que mide el uso de modelos de lenguaje como Claude o GPT— está empezando a usarse como indicador de productividad y, lo que es más llamativo, como variable de negociación salarial.
Jensen Huang, CEO de NVIDIA, declaró que un ingeniero con sueldo de medio millón de dólares que no gasta al menos 50.000 dólares en tokens al año le alarmaría. Meta y Shopify ya tienen en cuenta el uso de tokens en las evaluaciones de rendimiento. Se habla de un empleado de OpenAI que consumió 210.000 millones de tokens en una semana, y de un usuario de Claude Code que gastó 150.000 dólares en un mes.
El debate es legítimo. Por un lado, hay una lógica real: quien tiene buenas herramientas disponibles y no las usa probablemente está siendo ineficiente. Por otro, los incentivos perversos son evidentes: si te miden por tokens consumidos, gastas tokens aunque no sea necesario. Edwin Wee, de Cursor, lo resumió bien: “tokenmaxxing without tokenverifying is tokenslopping”.
La ola memética de Silicon Valley llegará a los CFOs, y cuando llegue, la conversación cambiará: el token budget tendrá que justificarse con productividad real, no con cifras de consumo brutas. Hasta entonces, las ofertas de trabajo seguirán incluyendo “presupuesto anual de tokens” junto al salario y las opciones sobre acciones.
Fuentes: