Rendre leur mobilité aux handicapés
Les innovations pour créer et commercialiser des voitures autonomes tirent vers le haut tous les domaines d’application de l’Intelligence Artificielle.
Avant même la commercialisation de la voiture autonome à grande échelle, les innovations bénéficieront aux personnes handicapés via le développement de chaises roulantes autonomes pour personne à mobilité réduite.
En 2012, la première démonstration publique de la voiture autonome a mis en scène un aveugle en train de faire ses courses grâce au premier prototype de Google Car. Steve Mahan, le “pilote”, a trouvé cela incroyable de se déplacer seul pour la première fois depuis qu’il avait perdu la vue.
En 2016, les chercheurs du MIT sont parvenus à installer le kit de conduite autonome d’une voiture sur un fauteuil roulant pour personne à mobilité réduite. En 2017, ce fauteuil roulant autonome a été testé à Singapour dans les hôpitaux.
La même année, Panasonic a également testé des fauteuils roulants autonomes à l’aéroport de Tokyo pour faciliter le transport des passagers à mobilité réduite.
En juillet 2020, l’université de Pittsburgh a lancé une étude nationale sur l’accessibilité des transports autonomes pour les personnes handicapées après avoir reçu une subvention d’un million de dollars du ministère américain des transports.
Pas de voiture autonome sans IA
Google, Nvidia, Baidu, Uber, Tesla qui ont investi le domaine de la voiture autonome sont également des champions de l’Intelligence artificielle. Rien d’étonnant puisque la conduite autonome s’appuie sur l’Intelligence Artificielle qui remplace la vision et le jugement du conducteur.
L’IA est capable d’identifier les objets dans la rue et de déterminer comment la voiture doit se comporter dans différentes situations. Dans une série de courtes vidéos, Nvidia montre comment l’Intelligence Artificielle aide les véhicules autonomes à mieux percevoir les structures d’intersection, à optimiser la détection nocturne des piétons et à anticiper les itinéraires des autres véhicules.
Des algorithmes de plus en plus performants : DeepVO, YOLO, DQN, PoseNet
L’Intelligence Artificielle pour l’implémentation de la conduite autonome doit remplir quatre tâches : la localisation et la cartographie, la compréhension de la scène, la planification du trajet et du comportement du conducteur. Les chercheurs développent des algorithmes de plus en plus performants pour accomplir simultanément ces tâches.
Localisation et cartographie (où suis-je?)
Les modèles SLAM (Visual simultaneous localization and mapping ) sont les modèles par lesquels un robot/véhicule construit une carte de son environnement et utilise cette carte pour naviguer ou déduire sa position à tout moment. Deep VO est un ‘modèle end to end’ plus abouti que les modèles SLAM traditionnels pour exécuter cette tâche. Il repose sur des CNN (Convolutional Neural networks) et RNN (Recurrent Neural Networks).
Compréhension de la scène (qui et où sont les autres?)
Les modèles utilisés pour cette tâche sont des modèles de détection et reconnaissance d’objets et de segmentation d’images. L’algorithme de détection d’objets en temps réel YOLO (You Only Look Once) est un algorithme de détection d’objets efficace, utilisé par les experts pour le développement de la voiture autonome.
Planification du trajet (comment se rendre d’un point A à un point B?)
Pour accomplir cette tâche, les chercheurs utilisent des algorithmes d’apprentissage par renforcement comme le Deep Q-Networks (DQN). Au lieu d’apprendre à partir d’un ensemble de données étiquetées (ou non étiquetées)-apprentissage supervisé ou non-supervisé, l’algorithme apprend des erreurs générées grâce à un système de récompense.
Comportement du conducteur (clignement des yeux, position derrière le volant, humeur du conducteur, etc…)
Ces analyses comportementales et cognitives sont menées avec des algorithmes comme PoseNet qui permet l’étude des pauses du conducteur au volant.
Un déploiement de l’IA à grande échelle
La voiture autonome est un des domaines où l’IA est développée en production à grande échelle. L’approche de la conduite autonome par Tesla ne repose pas sur l’utilisation d’un LIDAR ou de la cartographie HD mais entièrement sur le Computer Vision Machine Learning : l’analyse en temps réel des images collectées par les caméras des voitures Tesla grâce à des réseaux de neurones convolutifs (CNN )et des réseaux de neurones récurrents (RNN).
Andrej Karpathy , directeur de l’IA à Tesla, explique que son équipe a développé 48 réseaux de neurones qui effectuent 1000 prédictions distinctes. Il faut 70 000 heures de GPU pour entrainer ces réseaux de neurones. Tesla utilise Pytorch : un framework de machine learning open source, développé par Facebook, qui accélère le passage du prototypage de recherche au déploiement en production. Les ingénieurs de Tesla ont été obligés de développer leurs propres accélérateurs de calculs pour gagner en efficacité et faire des économies.
Pour aller plus loin au sujet de la voiture autonome
Le MIT a donné un cours spécialisé dans la voiture autonome, en 2018 et 2019, animé par Lex Fridman, qui est également un expert du Deep Learning. Ces cours sont en libre accès sur YouTube.
Lex Fridman anime désormais un AI podcast qui présente les principaux acteurs de l’Intelligence Artificielle. Dans le cadre de son Podcast, il a interviewé de nombreux acteurs de la conduite autonome.
- Kyle Vogt: Cruise Automation | Podcast #14
- Elon Musk: Tesla Autopilot | Podcast #18
- Chris Urmson: Self-Driving Cars at Aurora, Google, CMU, and DARPA | Podcast #28
- George Hotz: Comma.ai, OpenPilot, and Autonomous Vehicles | Podcast #31 & Podcast #132
- Sebastian Thrun: Flying Cars, Autonomous Vehicles, and Education | Podcast #59
Pour aller plus loin au sujet de la voiture autonome Tesla