Facebook AI Research propose Detectron, sa librairie de détection d’objets, en open source

Detectron1

Le FAIR travaillait depuis juillet 2016 sur une librairie implémentant les algorithmes les plus pointus en matière de détection d’objets. Baptisée Detectron, elle est désormais disponible en open source, comme l’a indiqué Ross Girshick, chercheur au sein du FAIR, dans un communiqué.

L’objectif de Detectron est de fournir un code de haute qualité et haute performance pour la recherche en matière de détection d’objets. La librairie a été développée pour être flexible afin de pouvoir être implémentée facilement dans de nouvelles applications. Écrite en Python, elle repose sur le framework deep learning Caffe2.

Ross Girshick a indiqué dans son post sur le site du FAIR :

“Je suis heureux d’annoncer la sortie de Detectron – la plateforme pour la recherche en détection d’objets du Facebook AI Research. J’ai commencé le projet Detectron en juillet 2016 avec pour objectif de créer un système de détection d’objets rapide et flexible construit sur Caffe2, qui était à l’époque en développement alpha.
En un an et demi, le code source a mûri et a été utile à grand nombre de nos projets, dont Mask R-CNN et “Focal Loss for Dense Object Detection”, qui ont respectivement remporté le Prix Marr et le Prix du Best Student Paper au ICCV 2017.

Ces algorithmes, alimentés par Detectron, fournissent des modèles intuitifs pour des tâches de vision par ordinateur, telles que la segmentation d’instance, et ont joué un rôle clé dans le développement sans précédent des systèmes de perception visuelle que notre communauté a connu ces dernières années.”

Detectron / Ross Girshick

Comme l’indiquait le FAIR dans un précédent article, Detectron comprend des implémentations d’algorithmes de détection d’objets tels que:

  • Mask R-CNN
  • RetinaNet
  • Faster R-CNN
  • RPN
  • Fast R-CNN
  • R-FCN

Il utilise les architectures de réseau dorsal (backbone network) suivants mais d’autres architectures peuvent facilement être implémentées:

  • ResNeXt{50,101,152}
  • ResNet{50,101,152}
  • Feature Pyramid Networks (with ResNet/ResNeXt)
  • VGG16

Ross Girshick a également expliqué la décision du FAIR de rendre Detectron disponible sur GitHub:

“Notre but en rendant disponible en open source Detectron est de rendre nos recherches aussi accessibles que possible et de permettre à la recherche d’avancer dans les laboratoires du monde entier. Avec cette sortie, la communauté de chercheurs pourra reproduire nos résultats et avoir accès à la plateforme logicielle que nous utilisons tous les jours.

Au-delà de la recherche, plusieurs équipes de Facebook utilisent Detectron pour entraîner leurs propres modèles ayant des applications importantes et variées, dont la réalité augmentée. Une fois entraînés, ces modèles peuvent être déployés sur le cloud ou sur des appareils mobiles, alimentés par le très efficace moteur de Caffe2.”

Detectron est disponible sur GitHub, sous licence Apache 2.0. Le FAIR a également ajouté les références de performances complètes concernant plus de 70 modèles déjà entraînés, également disponibles en téléchargement.

Les performances de Detectron semblent être à la hauteur des promesses et viendront aisément compléter la panoplie d’outils existants dans le domaine, parmi lesquels l’API proposée par Google.

Le grand public le sait peu mais Facebook consacre une large partie de ses travaux à la recherche fondamentale en intelligence artificielle. Les recherches menées au sein du FAIR (Facebook AI Research), dirigé par Yann LeCun, sont en grande partie accessible à l’ensemble de la communauté scientifique internationale.

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.