Machine learning - una rama de la inteligencia artificial (IA) que estudia el reconocimiento de patrones y aprendizaje computacional - está en la base de muchos de los productos de Google. Por no decir en todos, desde la búsqueda de voz en Mapas hasta el reconocimiento de imágenes.

Sin embargo, Google también parece decir, "un gran software brilla más con un gran hardware". Es por esto que, en los últimos años, la compañía ha trabajado en un ASIC (circuito integrado de aplicación específica) llamado Tensor Processing Unit (TPU).

El objetivo, según el gigante de las búsquedas es, "Ver lo se podría lograr con aceleradores personalizados para aplicaciones de machine learning".

TensorFlow, ha estado funcionando dentro de los centros de datos de la empresa desde hace más de un año, entregado "procesos más eficientes con el mismo nivel de energía que otros desarrollos basados en inteligencia artificial".

Si eso no suena impresionante, para poner esto en perspectiva Google dice que la mejora es más o menos equivalente a una tecnología avanza en un aproximado de siete años en el futuro, o tres generaciones de la Ley de Moore.

En última instancia, todo se reduce a la optimización, con un menor número de transistores por operación requerida, más operaciones pueden ser ejecutadas, por lo que todas las operaciones basadas en el machine learning son notablemente más rápidas.

La placa en sí también se las arregla para ser compacta y funcional, de modo que una TPU equipada cabe fácilmente en la ranura de un disco duro utilizados en su centros de datos.

El equipo también está orgulloso de la rapidez con que logró convertir esta idea en una realidad; les tomó no más de 22 días contar con una unidad funcional, lo que con conocimiento de causa es realmente impresionante.