Multiverse Computing levanta $215 millones

La startup española Multiverse Computing recaudó $215 millones para escalar su tecnología CompactifAI, que reduce el tamaño de modelos de lenguaje hasta en 95% sin pérdida de rendimiento.

Multiverse Computing levanta $215 millones

Multiverse Computing, empresa con sede en San Sebastián, anunció este jueves el cierre de una ronda de financiación Serie B por 189 millones de euros (aproximadamente 215 millones de dólares). La inyección de capital tiene como objetivo escalar CompactifAI, una tecnología de compresión que utiliza principios matemáticos de la computación cuántica para reducir el tamaño de los llms sin sacrificar su rendimiento, facilitando su ejecución en hardware convencional y dispositivos de borde.

Especificaciones de CompactifAI

La tecnología se basa en redes tensoriales (Tensor Networks), un enfoque distinto a la cuantización tradicional. Según los datos técnicos proporcionados por la empresa, el rendimiento de los modelos procesados ("Slim models") presenta las siguientes métricas frente a las versiones originales:

  • Tasa de compresión: Reducción del tamaño del modelo de hasta un 95%.
  • Latencia: Incremento en la velocidad de ejecución de entre 4x y 12x.
  • Costos operativos: Reducción del coste de inference entre un 50% y un 80%.
  • Modelos soportados: Versiones optimizadas de Llama 4 Scout, Llama 3.3 70B, Llama 3.1 8B y Mistral Small 3.1. La compañía confirmó el desarrollo de una versión para DeepSeek R1.
  • Despliegue: Ejecutable en la nube (AWS), centros de datos privados y dispositivos edge como PCs, teléfonos, drones y Raspberry Pi.

En términos de precios, la empresa reporta que el modelo Llama 4 Scout Slim tiene un costo de $0.10 por millón de tokens en AWS, en comparación con los $0.14 del modelo estándar no comprimido.

Enfoque en redes tensoriales

La base técnica de CompactifAI reside en el uso de redes tensoriales, herramientas matemáticas utilizadas habitualmente en física de la materia condensada para representar sistemas cuánticos complejos en ordenadores clásicos. Román Orús, CTO de Multiverse y físico en el Donostia International Physics Center, explica el mecanismo subyacente en el comunicado oficial:

"Por primera vez en la historia, somos capaces de perfilar el funcionamiento interno de una red neuronal para eliminar miles de millones de correlaciones espurias y optimizar verdaderamente todo tipo de modelos de IA. [...] Las técnicas tradicionales de compresión —cuantización y poda— intentan abordar estos desafíos, pero sus modelos resultantes tienen un rendimiento significativamente inferior a los LLMs originales."

Enrique Lizaso Olmos, CEO de la compañía, detalla la propuesta de valor frente a la infraestructura actual:

"La sabiduría predominante es que reducir los LLMs conlleva un coste. Multiverse está cambiando eso. [...] CompactifAI desbloquea nuevas eficiencias en el despliegue de IA [...] permitiendo reducir radicalmente los requisitos de hardware para ejecutar modelos de IA."

Integración y disponibilidad

La tecnología de Multiverse se aplica exclusivamente a modelos open source, ya que requiere acceso a la arquitectura del modelo para realizar la compresión tensorial; por tanto, no soporta modelos propietarios cerrados como los de OpenAI. Las versiones comprimidas están disponibles actualmente a través de Amazon Web Services y mediante licencias para uso local (on-premise).

La ronda de inversión fue liderada por Bullhound Capital, con la participación de HP Tech Ventures, SETT, Forgepoint Capital International, y Toshiba, entre otros. Con esta operación, la empresa acumula cerca de $250 millones recaudados y cuenta con 160 patentes y clientes corporativos como Iberdrola, Bosch y el Banco de Canadá.

Fuentes: