Cerebras Systems levanta 1.100 millones de dólares
La compañía alcanza una valoración de 8.100 millones de dólares tras una ronda liderada por Fidelity y Atreides. Los fondos acelerarán la manufactura del Wafer Scale Engine 3 y la expansión de centros de datos para satisfacer la demanda de cargas de trabajo en inferencia.
Cerebras Systems anunció la finalización de una ronda de financiación Serie G por 1.100 millones de dólares, situando su valoración post-money en 8.100 millones de dólares. La operación fue liderada por Fidelity Management & Research Company y Atreides Management, contando con la participación de firmas como Tiger Global, Valor Equity Partners, 1789 Capital, Altimeter, Alpha Wave Global y Benchmark. El capital recaudado se destinará principalmente a la expansión de la capacidad de manufactura en Estados Unidos y al despliegue de nuevos centros de datos enfocados en servicios de inference y training.
Cerebras is proud to announce our record $𝟭.𝟭𝗕 𝗦𝗲𝗿𝗶𝗲𝘀 𝗚 𝗮𝘁 𝗮𝗻 $𝟴.𝟭𝗕 𝘃𝗮𝗹𝘂𝗮𝘁𝗶𝗼𝗻. As builders of the world’s fastest AI infrastructure, we’re scaling to meet explosive demand.
— Cerebras (@cerebras) September 30, 2025
Funding will accelerate:
🚀 Breakthrough 𝗔𝗜 𝗽𝗿𝗼𝗰𝗲𝘀𝘀𝗼𝗿 𝗱𝗲𝘀𝗶𝗴𝗻,…
Datos técnicos clave
La infraestructura de Cerebras se centra en superar las limitaciones de arquitecturas tradicionales mediante el diseño a escala de oblea (wafer-scale). Los datos reportados incluyen:
- Financiación: 1.100 millones de dólares (Serie G).
- Valoración: 8.100 millones de dólares.
- Hardware: Wafer Scale Engine 3 (WSE-3), un procesador 56 veces más grande que la gpu de mayor tamaño disponible comercialmente.
- Rendimiento reportado: Velocidades de inferencia más de 20 veces superiores a GPUs de Nvidia en modelos de código abierto y cerrado, según mediciones de la firma Artificial Analysis.
- Volumen de operación: La compañía reporta estar sirviendo billones de tokens por mes a través de su propia nube y plataformas de socios.
- Adopción: Proveedor número uno de inferencia en Hugging Face, con más de 5 millones de solicitudes mensuales.
Extractos del reporte oficial
A continuación, se citan las especificaciones técnicas y objetivos descritos por la compañía en su comunicado oficial:
"Nuestra tecnología insignia, el Wafer Scale Engine 3 (WSE-3), es el procesador de IA más grande y rápido del mundo. Siendo 56 veces más grande que la GPU más grande, el WSE utiliza una fracción de la energía por unidad de cómputo mientras ofrece inferencia y entrenamiento más de 20 veces más rápido que la competencia." — Cerebras Systems, Comunicado de Prensa Serie G.
"Como el proveedor de inferencia más rápido del mundo, Cerebras utilizará estos fondos para expandir su portafolio tecnológico pionero con invenciones continuas en diseño de procesadores de IA, empaquetado, diseño de sistemas y superordenadores de IA." — Cerebras Systems, Comunicado de Prensa Serie G.
El anuncio ocurre en un momento donde la demanda de cómputo para inteligencia artificial se ha desplazado significativamente hacia la inferencia, impulsada por aplicaciones en tiempo real como generación de código y agentes autónomos. A diferencia de los clústeres tradicionales de GPUs que requieren interconexiones complejas para manejar modelos grandes, la arquitectura de Cerebras integra memoria y cómputo en una sola oblea de silicio, reduciendo la latencia de comunicación.
La compañía ha establecido centros de datos en ubicaciones como Dallas, Oklahoma City y Santa Clara, y busca competir directamente en el mercado de infraestructura como servicio (IaaS), posicionándose como una alternativa de baja latencia frente al ecosistema de Nvidia.
Implicaciones técnicas
La inyección de capital permitirá a Cerebras escalar su servicio de nube (Cerebras Inference), lo que podría impactar los costos y tiempos de respuesta para desarrolladores que trabajan con llm a gran escala. La capacidad de manufactura en Estados Unidos busca mitigar riesgos en la cadena de suministro global, un factor crítico para la disponibilidad de hardware especializado.
La validación por parte de terceros como Artificial Analysis y la integración en hubs como Hugging Face sugieren una madurez en el stack de software de la empresa, facilitando la migración desde arquitecturas basadas en GPU sin cambios drásticos en el código del modelo.