Esta semana trae novedades que marcan un punto de inflexión en el desarrollo de la inteligencia artificial: desde modelos que se mejoran a sí mismos hasta herramientas que están redefiniendo por completo cómo se programa. Mientras algunos sistemas aprenden de sus propios errores, otros permiten que no programadores creen aplicaciones funcionales. Veamos qué está cambiando.
MiniMax M2.7: el modelo que se entrena a sí mismo
MiniMax ha lanzado M2.7, el primer modelo de lenguaje que ha “participado profundamente en su propia evolución”. Este sistema de 10 mil millones de parámetros implementa lo que podríamos llamar inteligencia artificial recursiva: la capacidad de un modelo para analizar sus propios errores, reescribir su código de programación y ejecutar tests de validación de forma autónoma.
El proceso de desarrollo involucró más de 100 ciclos iterativos donde cada versión del modelo refinaba y mejoraba la siguiente. Tras cada ciclo, el sistema analizaba sus fallos, proponía correcciones y, cuando los tests resultaban satisfactorios, se reentrenaba incorporando las mejoras. El resultado: una mejora del 30% respecto a la versión inicial.
El M2.7 alcanzó una tasa de medallas del 66.6% en 22 competiciones de machine learning de OpenAI MLE-Bench Lite ejecutadas en una sola GPU A30, incluyendo 9 medallas de oro. En benchmarks de ingeniería de software, logró un 56.22% en SWE-Pro y 55.6% en VIBE-Pro, compitiendo con modelos mucho más grandes como Claude Opus y Gemini 3.1.
Lo más destacado es su velocidad (100 tokens por segundo) y precio competitivo (0.30 dólares por millón de tokens de entrada), lo que lo posiciona como una opción eficiente para flujos de trabajo agénticos y desarrollo de código. Disponible a través de la API de MiniMax, con integraciones en herramientas como Cursor y Zed.
Claude Code y el salto definitivo en programación asistida
Desde noviembre de 2025, cuando Anthropic integró Claude Opus 4.5 en Claude Code, se produjo un cambio radical en las herramientas de desarrollo asistido por IA. Lo que antes eran asistentes que sugerían código ahora son sistemas que planifican, ejecutan y verifican proyectos completos de manera autónoma.
El verdadero punto de inflexión no está en la tecnología subyacente, sino en el cambio de paradigma de uso: los desarrolladores han dejado de revisar cada línea de código generada. La interfaz de usuario evolucionó deliberadamente para alejar al programador de las diferencias (diffs) del código, confiando la validación al propio sistema.
Esta evolución demuestra capacidades de planificación avanzadas que superan las expectativas previas. Los modelos pueden desglosar tareas complejas, aplicar planes iterativamente y rehacerlos cuando fallan, una habilidad que investigadores como Yann LeCun consideraban más difícil de lograr que el razonamiento.
El impacto es dual: por un lado, permite que personas sin experiencia en programación desarrollen aplicaciones funcionales para sus propias necesidades. Por otro, amplifica exponencialmente las capacidades de desarrolladores experimentados, permitiéndoles abordar proyectos que antes requerirían equipos completos.
Esto ha generado un debate intenso sobre el futuro de programadores junior. La conclusión emergente es que estas herramientas acelerarán el aprendizaje, pero solo para aquellos con curiosidad genuina, pensamiento crítico y disposición a verificar y cuestionar lo que la IA produce.
Mozilla CQ: Stack Overflow para agentes de IA
Mozilla ha lanzado CQ (de “colloquy”, diálogo estructurado), una plataforma de código abierto diseñada para que agentes de IA compartan soluciones a problemas de programación, evitando que cada sistema resuelva desde cero los mismos desafíos.
El concepto replica Stack Overflow, pero sin humanos que revisen o (como era frecuente en esa plataforma) insulten a los novatos. Los agentes consultan una base de datos jerárquica (local, organizacional y commons global) antes de actuar, y contribuyen soluciones verificadas que otros pueden usar y validar.
Las unidades de conocimiento comienzan con baja confianza y ganan credibilidad mediante confirmaciones de múltiples agentes o revisión humana (HITL). El sistema incluye salvaguardas contra envenenamiento de datos y ataques de inyección de prompts, con detección de anomalías.
Técnicamente, CQ está implementado en Python con SQLite para almacenamiento local, servidor FastMCP (Model Context Protocol), API Team vía FastAPI (con Docker para compartir a nivel organizacional) y plugins para Claude Code y OpenCode. El diseño prioriza lo local: el conocimiento permanece privado salvo que se opte por compartirlo.
Mozilla.ai, la subsidiaria de la Fundación Mozilla, lanzó esto en marzo de 2026 como parte de su “reconexión para la era de la IA”, alineándose con ideas propuestas por Andrew Ng sobre compartición de conocimiento entre agentes. El proyecto está disponible bajo licencia Apache 2.0 en GitHub (mozilla-ai/cq).
Mistral Forge: entrenamiento de modelos para empresas
Mistral AI presentó Forge, una plataforma empresarial que pone a disposición de organizaciones el pipeline completo de entrenamiento que Mistral usa para sus propios modelos. No vende infraestructura ni computación: vende el know-how.
Forge permite entrenar modelos personalizados desde cero utilizando datos propietarios, con tres etapas:
Pre-entrenamiento: entrenamiento con grandes volúmenes de datos internos no estructurados (documentos técnicos, código, registros) para internalizar vocabulario, conceptos y workflows específicos del dominio. Soporta arquitecturas Dense y Mixture-of-Experts (MoE), además de datos multimodales (texto, imagen, audio).
Post-entrenamiento: incluye Supervised Fine-Tuning (SFT), Direct Preference Optimization (DPO) y LoRA para refinamiento específico de tareas.
Aprendizaje por refuerzo: pipelines como RLHF para alinear modelos con políticas internas, evaluaciones y objetivos corporativos. Permite mejora continua conforme evolucionan datos, regulaciones o sistemas.
Una característica clave es que las empresas pueden ejecutar todo el proceso en su propia infraestructura, crucial para sectores como defensa, finanzas y salud donde los datos no pueden salir de la organización. Usuarios tempranos incluyen ASML, Ericsson y la Agencia Espacial Europea.
La plataforma también integra agentes autónomos como Mistral Vibe, que automatizan experimentos, ajuste de hiperparámetros, generación de datos sintéticos y monitoreo de métricas mediante instrucciones en lenguaje natural. Mistral ofrece Field Data Experts (FDEs) para apoyar la adopción en organizaciones que necesiten experiencia adicional.
Snowflake reemplaza 400 escritores técnicos con IA
Snowflake, empresa especializada en gestión de datos, anunció una reducción de personal de aproximadamente 400 personas en su departamento de documentación y escritura técnica. Durante meses previos, la empresa pidió a estos empleados que grabaran sesiones de trabajo y continuaran produciendo documentos técnicos, material que se usó para entrenar un modelo de IA.
Una vez verificado que la calidad de la documentación generada por IA no difería significativamente de la producida por humanos, la empresa procedió con los despidos. Este caso destaca un patrón perturbador: empleados generando involuntariamente el dataset que eventualmente los sustituiría.
Este movimiento se enmarca en una tendencia más amplia en 2026 de optimización mediante IA en sectores tecnológicos. Snowflake enfatizó que son “ajustes dirigidos” naturales del escalamiento, reafirmando su compromiso con el crecimiento e inversión en productos y personas.
La decisión ocurre tras el acuerdo de febrero de 2026 entre Snowflake y OpenAI por 200 millones de dólares multianual para integrar GPT-5.2 y modelos avanzados en su plataforma Cortex AI, permitiendo a clientes construir sistemas de IA agéntica sobre datos propietarios.
PULSE-HF: IA del MIT predice ataques cardíacos por electrocardiograma
Investigadores del MIT, la Facultad de Medicina de Harvard y el Mass General Brigham desarrollaron PULSE-HF, un sistema de red neuronal que predice el riesgo de un ataque cardíaco grave en el próximo año analizando únicamente un electrocardiograma.
El modelo fue entrenado con historiales clínicos de pacientes que desarrollaron o no insuficiencia cardíaca grave, junto con sus electrocardiogramas. PULSE-HF se enfoca en predecir si la fracción de eyección de un paciente (el porcentaje de sangre bombeada desde el ventrículo izquierdo en cada latido) caerá por debajo del 40% en el año siguiente.
El sistema alcanzó puntajes AUROC (área bajo la curva ROC) entre 0.87 y 0.91 en tres cohortes de pacientes. Sorprendentemente, una versión de un solo electrodo funcionó tan bien como la versión estándar de 12 derivaciones, lo que la hace especialmente valiosa para entornos con recursos limitados, como consultorios rurales sin ecógrafos cardíacos.
Los investigadores destacaron dos aspectos del proyecto. Primero, que la parte más difícil fue reunir, procesar y limpiar el dataset, una realidad del trabajo riguroso en IA que contrasta con la exageración actual sobre técnicas como context engineering o prompt engineering. Segundo, una de las autoras expresó: “Hay demasiado sufrimiento en el mundo. Cualquier cosa que intente aliviarlo es un uso valioso de mi tiempo.”
Clínicamente, PULSE-HF permite priorizar pacientes de alto riesgo para monitoreo intensivo y reducir visitas hospitalarias innecesarias en pacientes de bajo riesgo.
Val Kilmer “actúa” vía IA en nueva película
La película “As Deep as the Grave” (tan profundo como la tumba) utilizará una recreación digital de Val Kilmer, quien fue elegido para un papel hace cinco años pero nunca pudo filmar debido a su enfermedad y posterior fallecimiento en 2025.
El director del proyecto había creado ese papel específicamente pensando en Kilmer y se negaba a que otro actor lo interpretara. Cuando el rodaje se reanudó tras retrasos por la pandemia y problemas de financiación, la tecnología de generación por IA había avanzado lo suficiente como para hacer viable recrear digitalmente al actor, incluyendo su voz.
La familia de Kilmer, contactada por el director, autorizó el uso de la recreación digital. Sus hijos afirmaron que creían que su padre estaría encantado, señalando que el propio Kilmer había sido uno de los primeros actores en expresar entusiasmo por recuperar su voz mediante IA cuando ya no podía usarla por sí mismo.
First Line Films produce el proyecto, que busca distribución en 2026. Este caso marca un hito notable en el uso de IA para recrear actuaciones, aunque también ha desatado debates éticos sobre los límites de la tecnología y los derechos de imagen digital en Hollywood.
Conclusión: estamos en un punto de inflexión
Las noticias de esta semana convergen en una narrativa clara: la IA no solo está mejorando en capacidades específicas, sino que está desarrollando metacapacidades —la habilidad de mejorarse a sí misma, de planificar complejas tareas multi-paso, de aprender de comunidades de agentes, y de sustituir completamente funciones humanas que parecían requerir juicio y contexto.
La recursividad de M2.7 sugiere que hemos cruzado un umbral donde los modelos ya no solo ejecutan tareas, sino que participan activamente en su propia evolución. Las herramientas de código como Claude Code demuestran capacidades de planificación que hasta hace poco se consideraban inalcanzables. Y plataformas como CQ indican que estamos construyendo ecosistemas donde la IA no solo ayuda a humanos, sino que colabora con otros sistemas de IA.
Mientras tanto, casos como Snowflake y Val Kilmer nos confrontan con las implicaciones prácticas —y a veces perturbadoras— de esta velocidad de cambio: empleos que desaparecen y actores que “actúan” tras su muerte.
El desafío ya no es preguntarse si la IA transformará radicalmente el trabajo del conocimiento, sino cómo nos adaptamos a un mundo donde esa transformación está ocurriendo ahora mismo.