Le marché des puces et les fabricants de smartphones, entre autres, s’intéressent de très près aux puces dédiées à l’intelligence artificielle. Le 13 février dernier, le Massachusetts Institute of Technology (MIT) a annoncé avoir conçu un nouveau processeur spécifique. Ce dernier est dédié à l’intelligence artificielle et au machine learning et consomme jusqu’à 95% en moins d’énergie.
Comme l’indique l’institut américain, cette puce est destinée au fonctionnement des réseaux de neurones. Elle pourra être intégrée aux systèmes de reconnaissance visuelle ou encore de traitement et maîtrise du langage. L’un de ses principaux atouts réside dans sa très faible consommation d’énergie puisque qu’elle permettrait d’économiser jusqu’à près de 95% d’électricité. Le processeur du MIT pourrait donc parfaitement être utilisé dans des smartphones et autres supports portatifs connectés. Il a été fabriqué pour être compatible avec les systèmes requérant une grande inter-connectivité et a une vitesse de traitement des données importante, entre 3 et 7 fois plus élevée que les puces actuellement sur le marché.
Avishek Biswas, chercheur ayant travaillé sur le projet a expliqué dans le communiqué du MIT en date du 13 février 2018 :
« Le modèle habituel de processeur fait qu’il y a une mémoire sur une partie de la puce, et un processeur sur l’autre partie, et vous déplacez la donnée entre les deux parties pour faire des calculs ».
« Étant donné que les algorithmes de machine learning ont besoin de beaucoup de traitements, c’est ce va-et-vient de transfert de données qui est la portion la plus importante en terme de consommation d’énergie. Mais le traitement de ces algorithmes peut être simplifié par une opération spécifique, baptisée le ‘dot product‘. Notre approche a été de se demander si on pouvait implémenter cette fonctionnalité ‘dot product‘ au sein de la mémoire afin de ne pas avoir à faire ce va-et-vient de data ».
L’une des premières applications d’une telle puce pourrait concerner l’Internet des objets (IoT) comme l’a indiqué Al Dario Gil, vice-président chez IBM :
« C’est une démonstration prometteuse […] pour les applications deep learning. […] Cela va très certainement étendre les possibilités d’utilisation de réseaux neuronaux convolutifs plus complexes pour la classification d’images et de vidéos dans l’Internet des objets du futur ».