Google anunció la semana pasada la unidad de procesamiento Tensor , un circuito integrado de aplicación específica personalizado, en el Google I / O .
Construido para aplicaciones de aprendizaje automático , TPU ha estado funcionando en los centros de datos de Google desde hace más de un año .
AlphaGo de software de Google, que goleó al campeón Ir internacional 18 veces en un partido a principios de este año, corriendo en servidores que utilizan los TPU .
TPU está adaptado para TensorFlow, biblioteca de software de Google para la inteligencia de la máquina, que se entregó a la comunidad de código abierto el año pasado.
Moore todavía gobierna
Para el aprendizaje de máquina, TPU proporcionan un rendimiento de un orden de magnitud más optimizada y por vatio, dijo Google. Es comparable a la tecnología de avance rápido cerca de siete años - tres generaciones de la Ley de Moore.
Esa afirmación es engañosa, de acuerdo con Kevin Krewell, analista principal de Tirias Investigación.
"Sólo funciona en matemáticas de 8 bits", dijo a Ingeniaste. "Es básicamente como un microprocesador Z80 en ese sentido. Todo lo que hablamos de que sea tres generaciones por delante refiere a los procesadores de hace un año, por lo que están comparando con los procesadores de 28 nm."
Taiwan Semiconductor Manufacturing informes, ha estado trabajando en un procesador de 10 nanómetros FinFET para Apple.
"Al eliminar la mayoría de las funciones y utilizando sólo matemáticas es necesario, Google tiene un chip que actúa como si fuera un procesador más compleja a partir de un par de generaciones por venir", dijo Krewell.
La ley de Moore se centra en la densidad de transistores y "tiende a estar atado a las partes que están dirigidos a la velocidad de cálculo", señaló Rob Enderle, analista principal de Enderle Group. El TPU "se centra más en la eficiencia de cálculo, por lo que es probable que no empujará densidad de transistores. Yo no esperamos que tenga un impacto real en la ley de Moore".
Sin embargo, el diseño de la placa "tiene un disipador de calor muy grande, por lo que es un procesador relativamente grande. Si estoy Google y yo estoy construyendo este chip personalizado, voy a construir el más grande que puedo poner en el sobre el poder ", señaló Krewell.
Construido para aplicaciones de aprendizaje automático , TPU ha estado funcionando en los centros de datos de Google desde hace más de un año .
AlphaGo de software de Google, que goleó al campeón Ir internacional 18 veces en un partido a principios de este año, corriendo en servidores que utilizan los TPU .
TPU está adaptado para TensorFlow, biblioteca de software de Google para la inteligencia de la máquina, que se entregó a la comunidad de código abierto el año pasado.
Moore todavía gobierna
Para el aprendizaje de máquina, TPU proporcionan un rendimiento de un orden de magnitud más optimizada y por vatio, dijo Google. Es comparable a la tecnología de avance rápido cerca de siete años - tres generaciones de la Ley de Moore.
Esa afirmación es engañosa, de acuerdo con Kevin Krewell, analista principal de Tirias Investigación.
"Sólo funciona en matemáticas de 8 bits", dijo a Ingeniaste. "Es básicamente como un microprocesador Z80 en ese sentido. Todo lo que hablamos de que sea tres generaciones por delante refiere a los procesadores de hace un año, por lo que están comparando con los procesadores de 28 nm."
Taiwan Semiconductor Manufacturing informes, ha estado trabajando en un procesador de 10 nanómetros FinFET para Apple.
"Al eliminar la mayoría de las funciones y utilizando sólo matemáticas es necesario, Google tiene un chip que actúa como si fuera un procesador más compleja a partir de un par de generaciones por venir", dijo Krewell.
La ley de Moore se centra en la densidad de transistores y "tiende a estar atado a las partes que están dirigidos a la velocidad de cálculo", señaló Rob Enderle, analista principal de Enderle Group. El TPU "se centra más en la eficiencia de cálculo, por lo que es probable que no empujará densidad de transistores. Yo no esperamos que tenga un impacto real en la ley de Moore".
Sin embargo, el diseño de la placa "tiene un disipador de calor muy grande, por lo que es un procesador relativamente grande. Si estoy Google y yo estoy construyendo este chip personalizado, voy a construir el más grande que puedo poner en el sobre el poder ", señaló Krewell.
Impacto potencial
"Claramente, los operadores de la nube hiperescala se están convirtiendo gradualmente más integrados verticalmente, por lo que se mueven más en el diseño de su propio equipo," dijo John Dinsdale, analista jefe de Synergy Research Group.
Eso podría "ayudar a fortalecer su juego", Ingeniaste.
El procesador podría hacer que Google "un jugador mucho más fuerte con los productos basados en IA, pero" podría "y" voluntad "son palabras muy diferentes, y Google ha sido más la compañía de 'podría, pero no' de la tarde", dijo Enderle Ingeniaste.
El TPU le permitirá ampliar su Google motor de consultas de manera significativa, proporcionando para servidores de alta densidad que pueden manejar simultáneamente un mayor volumen de preguntas, dijo. Sin embargo, los esfuerzos de Google "tienden a ser recursos suficientes, por lo que es muy poco probable encontrar su potencial a menos que los cambios en la práctica."
No solamente una
El TPU no es el primer procesador diseñado para el aprendizaje de la máquina.
línea de productos del procesador Intel MIC de Intel es parte del marco del sistema de escalabilidad de esa compañía, que tiene como objetivo llevar el aprendizaje automático y computación de alto rendimiento en la era exascale.
El objetivo de Intel es crear sistemas que convergen HPC, grandes volúmenes de datos, aprendizaje automático y cargas de trabajo de visualización dentro de un marco común que se pueden ejecutar en cualquiera de los centros de datos en la nube o, este último que van desde pequeñas agrupaciones de grupos de trabajo a grandes superordenadores.
Un caso de Overkill ?
Mientras que el TPU " tendrá un gran efecto y el impacto en la investigación intensiva en datos , la mayoría de los problemas de negocio y las tareas se pueden resolver con los enfoques de aprendizaje de máquinas más simples , " Francisco Martín , director general de BigML , señaló . " Sólo unas pocas empresas tienen el volumen de datos que Google maneja . "
Tradicionalmente , los chips personalizados para algoritmos de aprendizaje automático " no resultó ser muy exitoso", Ingeniaste .
" En primer lugar, las arquitecturas personalizadas requieren desarrollos a medida , lo que hace difícil la adopción ", señaló Martin . " En segundo lugar, por la ley de Moore , los chips estándar van a ser más poderoso cada dos años . "
TPU está " adaptado a aplicaciones de aprendizaje automático muy específicas sobre la base de TensorFlow de Google ", dijo . Al igual que otros marcos de aprendizaje profundos , que " requiere toneladas de puesta a punto para ser útil. " Dicho esto , Amazon y Microsoft " es probable que tenga que ofrecer algo similar a competir por los clientes con proyectos de investigación avanzada . "