Sin tĂ­tulo

JD
 
 
Google anunciĂł la semana pasada la unidad de procesamiento Tensor , un circuito integrado de aplicaciĂłn especĂ­fica personalizado, en el Google I / O .

Construido para aplicaciones de aprendizaje automåtico , TPU ha estado funcionando en los centros de datos de Google desde hace mås de un año .

AlphaGo de software de Google, que goleó al campeón Ir internacional 18 veces en un partido a principios de este año, corriendo en servidores que utilizan los TPU .

TPU estå adaptado para TensorFlow, biblioteca de software de Google para la inteligencia de la måquina, que se entregó a la comunidad de código abierto el año pasado.
Moore todavĂ­a gobierna

Para el aprendizaje de måquina, TPU proporcionan un rendimiento de un orden de magnitud mås optimizada y por vatio, dijo Google. Es comparable a la tecnología de avance råpido cerca de siete años - tres generaciones de la Ley de Moore.

Esa afirmación es engañosa, de acuerdo con Kevin Krewell, analista principal de Tirias Investigación.

"Sólo funciona en matemåticas de 8 bits", dijo a Ingeniaste. "Es båsicamente como un microprocesador Z80 en ese sentido. Todo lo que hablamos de que sea tres generaciones por delante refiere a los procesadores de hace un año, por lo que estån comparando con los procesadores de 28 nm."

Taiwan Semiconductor Manufacturing informes, ha estado trabajando en un procesador de 10 nanĂłmetros FinFET para Apple.

"Al eliminar la mayorĂ­a de las funciones y utilizando sĂłlo matemĂĄticas es necesario, Google tiene un chip que actĂșa como si fuera un procesador mĂĄs compleja a partir de un par de generaciones por venir", dijo Krewell.

La ley de Moore se centra en la densidad de transistores y "tiende a estar atado a las partes que estån dirigidos a la velocidad de cålculo", señaló Rob Enderle, analista principal de Enderle Group. El TPU "se centra mås en la eficiencia de cålculo, por lo que es probable que no empujarå densidad de transistores. Yo no esperamos que tenga un impacto real en la ley de Moore".

Sin embargo, el diseño de la placa "tiene un disipador de calor muy grande, por lo que es un procesador relativamente grande. Si estoy Google y yo estoy construyendo este chip personalizado, voy a construir el mås grande que puedo poner en el sobre el poder ", señaló Krewell.

Impacto potencial

"Claramente, los operadores de la nube hiperescala se estån convirtiendo gradualmente mås integrados verticalmente, por lo que se mueven mås en el diseño de su propio equipo," dijo John Dinsdale, analista jefe de Synergy Research Group.

Eso podrĂ­a "ayudar a fortalecer su juego", Ingeniaste.

El procesador podrĂ­a hacer que Google "un jugador mucho mĂĄs fuerte con los productos basados ​​en IA, pero" podrĂ­a "y" voluntad "son palabras muy diferentes, y Google ha sido mĂĄs la compañía de 'podrĂ­a, pero no' de la tarde", dijo Enderle Ingeniaste.

El TPU le permitirĂĄ ampliar su Google motor de consultas de manera significativa, proporcionando para servidores de alta densidad que pueden manejar simultĂĄneamente un mayor volumen de preguntas, dijo. Sin embargo, los esfuerzos de Google "tienden a ser recursos suficientes, por lo que es muy poco probable encontrar su potencial a menos que los cambios en la prĂĄctica."
No solamente una

El TPU no es el primer procesador diseñado para el aprendizaje de la måquina.

línea de productos del procesador Intel MIC de Intel es parte del marco del sistema de escalabilidad de esa compañía, que tiene como objetivo llevar el aprendizaje automåtico y computación de alto rendimiento en la era exascale.

El objetivo de Intel es crear sistemas que convergen HPC, grandes volĂșmenes de datos, aprendizaje automĂĄtico y cargas de trabajo de visualizaciĂłn dentro de un marco comĂșn que se pueden ejecutar en cualquiera de los centros de datos en la nube o, este Ășltimo que van desde pequeñas agrupaciones de grupos de trabajo a grandes superordenadores.

Un caso de Overkill ?

Mientras que el TPU " tendrå un gran efecto y el impacto en la investigación intensiva en datos , la mayoría de los problemas de negocio y las tareas se pueden resolver con los enfoques de aprendizaje de måquinas mås simples , " Francisco Martín , director general de BigML , señaló . " Sólo unas pocas empresas tienen el volumen de datos que Google maneja . "

Tradicionalmente , los chips personalizados para algoritmos de aprendizaje automĂĄtico " no resultĂł ser muy exitoso", Ingeniaste .

" En primer lugar, las arquitecturas personalizadas requieren desarrollos a medida , lo que hace difícil la adopción ", señaló Martin . " En segundo lugar, por la ley de Moore , los chips eståndar van a ser mås poderoso cada dos años . "

TPU estĂĄ " adaptado a aplicaciones de aprendizaje automĂĄtico muy especĂ­ficas sobre la base de TensorFlow de Google ", dijo . Al igual que otros marcos de aprendizaje profundos , que " requiere toneladas de puesta a punto para ser Ăștil. " Dicho esto , Amazon y Microsoft " es probable que tenga que ofrecer algo similar a competir por los clientes con proyectos de investigaciĂłn avanzada . "

#buttons=(Accept !) #days=(20)

Our website uses cookies to enhance your experience. Learn More
Accept !