Tensor/Tensorflow: le processeur de Google pour l’Intelligence Artificielle!

Google avait déjà com­mencé à con­stru­ire de nom­breux élé­ments pour ses cen­tres de don­nées.  Il conçoit main­tenant ses pro­pres processeursTen­sor ou plutôt Ten­sor Pro­cess­ing Unit (TPU)  est une puce con­stru­ite spé­ciale­ment pour l’ap­pren­tis­sage. Google n’a pas de besoin de haute pré­ci­sion pour l’in­tel­li­gence arti­fi­cielle, le processeur Ten­sor est axé sur les opéra­tions brutes par sec­onde, c’est à dire des tach­es spé­ci­fiques. Il est plus rapi­de pour l’IA que les processeurs habituels à des niveaux d’én­ergie sim­i­laires. Il est conçu aus­si de petite taille pour pou­voir être inclus dans les baies de dis­ques durs dans les racks des cen­tres de don­nées. Cette puce ne rem­plac­era pas les processeurs habituels, mais par oppo­si­tions aux autres processeurs spé­cial­isés dans l’ap­pren­tis­sage machine, elle est plus économique en énergie.

TPU_main2
Ce processeur a été util­isé pour une com­péti­tion de Go l’an dernier qui a mon­tré la vic­toire de Alpha­Go sur le cham­pi­on humain de Go.

L’apprentissage machine se généralise de la recon­nais­sance vocale à la tra­duc­tion et l’analyse de don­nées, ces tâch­es néces­si­tent des accéléra­tions spé­ci­fiques. La TPU est déjà util­isée en pro­duc­tion sur le cloud de Google. Elle ali­mente aus­si le sys­tème de tri de résul­tats RankBrain, la Google Map et les ser­vices de recon­nais­sance vocale de Google.

Mal­heureuse­ment, Google ne compte pas ven­dre ses TPU, que vous soyez un pro­fes­sion­nel ou non. La firme compte les utilis­er pour amélior­er  tous ses ser­vices néces­si­tant de l’in­tel­li­gence artificielle.

google tpu-1

En fait, ils ne peu­vent pas les ven­dre — Vous savez pourquoi ? regardez la pho­to précé­dente ! Les lanières, c’est pour attach­er la tête de leurs salariés — en fait le TPU suce le cerveau des col­lab­o­ra­teurs de google — ceux avec le T‑Shirt Google Brain — Comme des cit­rons, on presse, et des neu­rones tombent dans le TPU, pis après on évac­ue le reste du col­lab­o­ra­teur… Bon, je déconne, c’est pour sor­tir les blocs de cartes mères, les chang­er au besoin… 🙂 Mais si ce n’est pas lit­téral, c’est quand même en par­tie vrai sur un plan symbolique.

GoogleBrain-570-x-380

Vous pou­vez toute­fois utilis­er Ten­sor­Flow,  bib­lio­thèque de logi­ciels open source de cal­cul numérique qui utilise des graphiques de flux de don­nées. Les nœuds du graphique représen­tent des opéra­tions math­é­ma­tiques, les bor­ds du graphique représen­tent les tableaux de don­nées mul­ti­di­men­sion­nelles. Ten­sor­Flow a été ini­tiale­ment dévelop­pé pour l’ap­pren­tis­sage machine et la recherche sur les réseaux de neurones.

Y‑a encore beau­coup à dire sur Ten­sor­Flow, mais il faut que je teste un peu de mon coté avant de vous en repar­ler. Si vous êtes pressés, allez voir sur le site officiel.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.