Manipulation de l’IA : McAfee dévoile son “model hacking” appliqué au véhicule autonome

McAfee a publier les résultats de ses recherches montrant comment l’intelligence artificielle peut être manipulée par un processus que McAfee appelle le “model hacking”. Un processus qui impacte la sécurité, et donc l’avenir des véhicules autonomes.

Les équipes de recherche McAfee sont parvenues à créer une attaque ciblée en boîte noire sur le système de caméra MobilEye EyeQ3, utilisé aujourd’hui dans de nombreux véhicules. Lors de cette attaque, les chercheurs de McAfee ont réussi à faire accélérer jusqu’à 80 km/h une voiture autonome alors que la limitation de vitesse était de 35km/h.

De cette recherche, ressortent plusieurs constats :

  • Selon Gartner, le nombre de véhicules équipés de fonctionnalités de conduite autonome dans le monde atteindront 745 705 unités d’ici 2023, contre 137 129 unités en 2018.
  • Toutefois, un travail de pédagogie et de sensibilisation sur les dangers potentiels et les problèmes de sécurité associés à l’avancée aussi rapide de cette technologie est nécessaire.
  • Compte tenu de cette croissance prévue, l’industrie automobile et les professionnels de la cybersécurité ont l’opportunité de devancer les cybercriminels en comprenant parfaitement comment les modèles d’IA/machine learning peuvent être exploités afin de développer des technologies de nouvelle génération plus sûres.
Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Sur le même thème
Partager l'article
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.