Google rilascia TPU per l’inference computing

Google ha annunciato una "Edge Tensor Processing Unit" (TPU) per l'edge computing. Gli ASIC (Application-Specific Integrated Circuits) sono adatti per carichi di lavoro di inferenza - non per l'addestramento AI - su "Tensorflow Lite", una versione low-overhead di "Tensorflow", "Tensorflow Lite".

Come spiega Google, non tutti gli ingredienti dell'Edge TPU sono cresciuti sul suo stesso sterco, piuttosto produttori come ARM, Harting, Hitachi Vantara, Nexcom, Nokia e NXP hanno collaborato con Google per sviluppare i kit. Ma ora il momento dovrebbe arrivare presto: In ottobre, le TPU Edge saranno rilasciate su una scheda di riferimento modulare composta dall'ASIC, una CPU di NXP e un modulo Wi-Fi.

Gli ASIC per le macchine di inferenza non sono potenti come le ultime TPU raffreddate a liquido di Google, ma sono progettati per ridurre il carico di lavoro inviato al cloud. Injong Rhee, vicepresidente di Google per l'IoT, ha detto durante la conferenza Cloud Next tenutasi a San Francisco la scorsa settimana: "L'Edge TPU porta un cervello ai dispositivi di bordo". Prima di entrare in Google a febbraio, Rhee è stato CTO alla Samsung.

Uno dei primi clienti, tuttavia, sarà LG. I nuovi dispositivi saranno utilizzati per controllare la qualità del vetro dei pannelli LCD.

Le caratteristiche delle prestazioni del Google Edge TPU

Google non è l'unico fornitore di acceleratori AI. All'inizio dell'anno, Microsoft, per esempio, ha annunciato "Project Brainwave", che si basa su FPGA per l'edge computing e viene utilizzato anche in progetti di clienti iniziali nel settore manifatturiero. Un'ulteriore concorrenza viene da Intel, Nvidia e Xilinx.


Pagine utili:

Informazioni sul formato .enc
Informazioni sul formato .asc

Lascia un commento