LLM
Multiverse Computing levanta $215 millones
La startup española Multiverse Computing recaudó $215 millones para escalar su tecnología CompactifAI, que reduce el tamaño de modelos de lenguaje hasta en 95% sin pérdida de rendimiento.
LLM
La startup española Multiverse Computing recaudó $215 millones para escalar su tecnología CompactifAI, que reduce el tamaño de modelos de lenguaje hasta en 95% sin pérdida de rendimiento.
IA
Un enfoque de entrenamiento en dos fases mediante aprendizaje por refuerzo permite a este modelo de 32 mil millones de parámetros obtener resultados similares a modelos con hasta 671 mil millones de parámetros, sugiriendo la importancia del método de entrenamiento frente al tamaño.
Inteligencia Artificial
DeepSeek-AI libera R1, un modelo MoE de 671B parámetros que introduce un pipeline de entrenamiento basado en "Cold Start" y Reinforcement Learning multi-etapa. Incluye variantes destiladas que superan a modelos propietarios en eficiencia.
LLM
Stability AI democratiza la IA con el lanzamiento de StableLM La empresa detrás del revolucionario generador de imágenes Stable Diffusion vuelve a sacudir el mundo de la inteligencia artificial. Stability AI ha anunciado el lanzamiento de StableLM, una suite de modelos de lenguaje de código abierto que promete democratizar el
PaLM
Google acaba de mover el tablero de la inteligencia artificial de una manera que pocos esperaban. Con el lanzamiento de PaLM (Pathways Language Model), no solo estamos ante el modelo de lenguaje más grande jamás creado por Google, sino ante una demostración de capacidades que parecían reservadas para la ciencia