MiniMax M2.7: un modelo orientado a la autoevolución e ingeniería de software
MiniMax presenta M2.7, diseñado para operar agentes autónomos, optimizar su propio entorno de ejecución y alcanzar un 56.22% en el benchmark SWE-Pro.
MiniMax presenta M2.7, diseñado para operar agentes autónomos, optimizar su propio entorno de ejecución y alcanzar un 56.22% en el benchmark SWE-Pro.
Xiaomi lanza tres modelos fundacionales enfocados en la orquestación de agentes: MiMo-V2-Pro (1T parámetros), MiMo-V2-Omni (multimodalidad nativa) y MiMo-V2-TTS. Soportan contextos de 1M de tokens.
Moonshot AI libera Kimi k2.5, entrenado con 15T tokens mixtos y una ventana de contexto de 256k. Introduce Parallel-Agent Reinforcement Learning (PARL) para coordinar hasta 100 sub-agentes, reduciendo la latencia de ejecución en tareas complejas mediante paralelismo masivo.
DeepSeek-AI presenta DeepSeek-OCR 2, que incorpora DeepEncoder V2. Este modelo sustituye a CLIP por una arquitectura de lenguaje compacta que reorganiza los tokens visuales mediante un flujo causal, alcanzando un 91,09 % de precisión en OmniDocBench v1.5.
MiniMax libera M2.1 con arquitectura Mixture of Experts (10B activos). Supera a Claude Sonnet 4.5 en SWE-bench Verified y presenta OctoCodingBench para evaluar cumplimiento de instrucciones de proceso.
Liquid AI presenta LFM2.5, un modelo híbrido de 1.17B parámetros optimizado para inferencia local. Genera trazas de pensamiento, opera con 900 MB de RAM y supera a Qwen3-1.7B en benchmarks matemáticos.
Análisis de la arquitectura de agentes autónomos basada en el paradigma ReAct y la capacidad de Function Calling Se examina la formalización matemática del bucle de razonamiento-acción y la implementación de esquemas JSON para la ejecución determinista de herramientas.
Zhipu AI (z.ai) introduce GLM-4.7, reportando un 73.8% en SWE-bench Verified y un 41.0% en Terminal Bench 2.0. El modelo integra "Preserved Thinking" para mantener el contexto de razonamiento en agentes de codificación y ofrece soporte nativo para despliegue local con vLLM.
DeepSeek-AI libera DeepSeek-V3.2 con arquitectura DSA (DeepSeek Sparse Attention) para eficiencia en contexto largo y mejoras en tool use. La variante Speciale alcanza medalla de oro en IMO y IOI 2025, equiparando a Gemini-3.0-Pro en razonamiento.
Moonshot AI publica los pesos y el reporte técnico de Kimi K2, un modelo Mixture-of-Experts con 32B parámetros activos, y su variante K2 Thinking, que integra razonamiento Chain of Thought con ejecución de herramientas en bucles de hasta 300 pasos.
MiniMax presenta M2, un modelo Mixture of Experts con 230 mil millones de parámetros totales y 10 mil millones activos. Diseñado específicamente para flujos de trabajo de codificación y agentes autónomos, se publica con pesos abiertos y una licencia modificada MIT.
La compañía 1X abre las reservas para NEO, un robot bípedo ligero diseñado para tareas domésticas. El sistema integra modelos de lenguaje para interacción natural, manipulación diestra de 22 grados de libertad y un esquema de precios que inicia en 20.000 dólares para acceso anticipado.
AI
El laboratorio DeepSeek-AI presentó “DeepSeek-OCR”, un modelo que utiliza compresión óptica para reducir hasta veinte veces la cantidad de tokens necesarios en tareas de lectura de documentos.
Inteligencia Artificial
Andrej Karpathy presentó nanochat, un proyecto que condensa todo el ciclo de entrenamiento e inferencia de un modelo tipo ChatGPT en menos de 8.000 líneas de código y con un costo de apenas 100 dólares.
Anthropic
Rahul Patil, ex-CTO de Stripe, asume la dirección de ingeniería y seguridad en Anthropic. El cofundador Sam McCandlish pasa al rol de Chief Architect. La reorganización busca separar la estabilidad operativa de la investigación en modelos fundacionales.
Inteligencia Artificial
El exjefe de inteligencia artificial de Databricks busca recaudar 1.000 millones de dólares para desarrollar una nueva arquitectura de cómputo inspirada en la biología.
AI
La compañía alcanza una valoración de 8.100 millones de dólares tras una ronda liderada por Fidelity y Atreides. Los fondos acelerarán la manufactura del Wafer Scale Engine 3 y la expansión de centros de datos para satisfacer la demanda de cargas de trabajo en inferencia.
Razonamiento IA
Clarifai presenta un nuevo motor de inferencia optimizado para cargas de trabajo de razonamiento. Benchmarks independientes en GPT-OSS 120B reportan un throughput de 544 tokens/s y costos de $0.16 por millón de tokens mediante optimización de software en GPUs estándar.
AI
La ronda de financiación eleva la valoración de la compañía a 6.900 millones de dólares. La inversión, liderada por Disruptive, busca expandir la capacidad de cómputo basada en LPUs ante la demanda de modelos de IA.
Inteligencia Artificial
North permite ejecutar agentes de IA en infraestructura propia (on-premise, VPC) con modelos Command y Compass. Compatible con el Model Context Protocol (MCP) y despliegues air-gapped con un requisito mínimo de dos GPUs.
AI
SixSense asegura inversión liderada por Peak XV para escalar su plataforma de clasificación de defectos y análisis de causa raíz. La startup reporta una reducción del 90% en inspección manual mediante el uso de modelos de visión computacional y aprendizaje autosupervisado.
AI
Sam Altman confirma que el lanzamiento previsto para la próxima semana se pospone sin fecha. El equipo requiere más tiempo para evaluar áreas de alto riesgo antes de liberar los weights, citando la irreversibilidad de su distribución pública.
Inteligencia Artificial
MiniMax libera los pesos de M1-80k y M1-40k bajo licencia Apache 2.0. El modelo implementa atención lineal para escalar la inferencia a 1 millón de tokens y utiliza el nuevo algoritmo de alineación CISPO.
AI
Meta amplía su investigación en “world models” con V-JEPA 2, una IA diseñada para que los agentes comprendan y predigan el funcionamiento físico del entorno.