Au dernier Google I/O, a été présentée la seconde génération de la puce TPU (Tensor Processor Unit) dédiée au Machine Learning et distribuée via Compute Engine. Elle a été rebaptisée Cloud TPU. On peut atteinde jusqu’à 180 Tflops en virgule flottante, en packageant 4 TPU capables de traiter 45 Tflops chacune. Les supercalculateurs basés sur des TPU sont appelés Pod TPU: 64 TPU de seconde génération et peut traiter jusqu’à 11,53 Petaflops pour entraîner les modèles d’apprentissage automatique.
La première génération de TPU embarquait une puce 8 bits, pour des performances atteignant 92 Tflops. Le Cloud TPU devrait gérer des opérations 16 et 32 bits, estiment les journalistes de Top500, car ce processeur est conçu pour la formation de l’IA et nécessite donc des calculs plus complexes.
On nous dévoile également une nouvelle version de TensorFlow, appelé TensorFlow lite, une bibliothèque de machine learning qui est open source, et qui verra le jour très bientôt. Elle sera optimisée pour les mobiles afin de permettre aux développeurs de concevoir des applications fonctionnant sur des smartphones Android.
0 commentaires