Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 

Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Véhicules autonomes : comment l’IA peut-elle être manipulée ?

février 2020 par McAfee

McAfee vient de publier les résultats de ses recherches qui montrent comment l’intelligence artificielle peut être manipulée par un processus que McAfee appelle le "model hacking".
Un processus qui impacte la sécurité, et donc l’avenir des véhicules autonomes.

Les équipes de recherche McAfee ont réussi à créer une attaque ciblée en boîte noire sur le système de caméra MobilEye EyeQ3, utilisé aujourd’hui dans de nombreux véhicules.

Lors de cette attaque, les chercheurs de McAfee ont réussi à faire accélérer jusqu’à 80 km/h une voiture autonome alors que la limitation de vitesse était de 35km/h.

De cette recherche, ressortent plusieurs constats :

 Selon Gartner, le nombre de véhicules équipés de fonctionnalités de conduite autonome dans le monde atteindront 745 705 unités d’ici 2023, contre 137 129 unités en 2018.
 Toutefois, un travail de pédagogie et de sensibilisation sur les dangers potentiels et les problèmes de sécurité associés à l’avancée aussi rapide de cette technologie est nécessaire.
 Compte tenu de cette croissance prévue, l’industrie automobile et les professionnels de la cybersécurité ont l’opportunité de devancer les cybercriminels en comprenant parfaitement comment les modèles d’IA/Machine Learning peuvent être exploités afin de développer des technologies de nouvelle génération plus sûres.


Voir les articles précédents

    

Voir les articles suivants