Google dévoile une pré-version de TensorFlow Lite

Couv 11.58.17

L’annonce en mai dernier par Google, lors du Google I/0 d’une nouvelle version de TensorFlow pour une utilisation mobile avait fait grand bruit. L’éditeur vient de proposer une pré-version pour les développeurs de TensorFlow Lite.

Plus légère, plus rapide et multi-plateforme

Cette bibliothèque deep learning est présentée par Google comme une évolution de son TensorFlow Mobile. Elle a notamment été développée pour être embarquée sur des petits (et moins puissants) dispositifs et pour une utilisation mobile. Elle est donc bien plus légère et rapide du fait de la taille du binaire mais aussi du temps de démarrage nécessaire. Disponible actuellement sur Android et iOS app developers, TensorFlow Lite devrait par la suite être multi-plateforme.

“Avec cette pré-version pour les développeurs, nous avons intentionnellement commencé avec une plate-forme limitée pour assurer la performance de certains des modèles les plus importants (…)

Nous prévoyons de prioriser la future expansion fonctionnelle en fonction des besoins de nos utilisateurs. Les objectifs de notre développement constant sont de simplifier l’expérience des développeurs et de permettre le déploiement de modèles pour une gamme d’appareils mobiles et embarqués. “

Conduire localement des opérations sans passer par des serveurs

Il ne s’agit pas d’une version complète mais Google indique que TensorFlow Lite fonctionne avec son API Neural Networks sur Android. Elle a été pré-testée pour MobileNet, Inception V3, Device Smart reply et autres modèles de traitement du langage naturel et de vision artificielle.

La bibliothèque sera très intéressante pour les applications nécessitant la conduite d’opérations de type deep learning en local. TensorFlow Lite permet en effet de ne pas avoir recours aux serveurs. Dans son communiqué, Google explique que:

“TensorFlow Lite dispose d’un nouvel interprète optimisé pour les mobiles, dont les principaux objectifs sont de maintenir les apps à la fois simples et rapides. L’interprète utilise un ordre de graphes statiques et un allocateur de mémoire personnalisé (moins dynamique) pour assurer un temps de chargement, d’initialisation et d’exécution minimal”.

Plus d’informations sur le site de TensorFlow et GitHub.

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.