L’Interview : Tout savoir sur nos capteurs

Pouvez-vous vous présenter en quelques mots ?

Je suis David BOYREL, et je travaille chez AVSimulation depuis 2005, auparavant OKTAL Paris. J’ai commencé en tant que prestataire et j’ai ensuite rejoint l’équipe de développement où j’ai travaillé sur SCANeR autour de nombreux sujets dans le domaine de la 3D : le moteur de rendu visuel SCANeR, la réalité virtuelle et mixte, la simulation d’éclairage, la modélisation des capteurs, ainsi que les simulateurs Cave et les casques de réalité virtuelle. Je suis maintenant TechLead de l’équipe Visual Sensors Unreal Terrain.

Qu’est-ce qu’un capteur ? À quoi sert-il sur un véhicule ?

Un capteur est un dispositif qui transforme une quantité physique observée (comme la température, par exemple) en une quantité utilisable (généralement une tension électrique). Les capteurs sont donc des dispositifs électroniques qui sont placés sur le véhicule. Leur rôle est de détecter et de comprendre leur environnement en traitant le signal qu’ils perçoivent (une image, un signal radar, etc.) pour l’interpréter dans le cadre de l’environnement routier : localiser les panneaux de signalisation ; savoir s’il y a d’autres véhicules autour ; identifier les marquages routiers, etc. Autrement dit, ils ne renvoient plus une simple valeur électrique, mais de l’information. C’est le cas, par exemple, d’une caméra de recul qui est capable de « lire » les panneaux et d’informer l’ordinateur de bord de la voiture que la vitesse doit être réglée à 80 km/h. Sur les véhicules, les capteurs sont utilisés pour concevoir les ADAS (Systèmes d’Aide à la Conduite). Ceux-ci permettent de rendre les véhicules de plus en plus autonomes ou d’améliorer la sécurité. Voici quelques exemples : la caméra de recul, la détection de changement de voie, la détection des angles morts, les systèmes de freinage d’urgence, la conduite assistée dans les embouteillages, etc. Aujourd’hui, le capteur permet d’analyser la scène autour de la voiture et de prendre des décisions dans différentes situations. C’est un système qui nous permet de migrer vers une conduite totalement autonome, où les modèles de conduite autonome seront capables d’analyser des situations de plus en plus complexes, sur la base de données de capteurs de plus en plus riches. Nous assistons donc à une augmentation exponentielle de la complexité des ADAS et de leur développement. C’est pourquoi la simulation, qui permet de prendre des décisions très tôt dans le cycle de conception, est devenue évidente pour tout le monde.

Est-il possible de simuler les capteurs ?

Absolument, et c’est l’un des atouts majeurs de SCANeR. La simulation permet de créer des situations spécifiques (passage piéton, freinage d’urgence, franchissement de ligne, etc.) et de générer les informations de détection qu’un ensemble de capteurs réels pourrait fournir dans ces situations. Ces informations sont envoyées à des modèles de fusion de données mathématiques, qui vont croiser et traiter les données fournies par tous les capteurs afin de reconstruire la situation le plus précisément possible. À cet effet, la majorité des capteurs que nous proposons dans SCANeR sont des capteurs dits « fonctionnels », ou des capteurs de niveau L1 : ils simulent les informations de détection, mais pas la technologie des capteurs. Les capteurs de niveau L3, qui prennent en compte la technologie des capteurs, sont également disponibles dans SCANeR.

Quel est l’objectif des capteurs fonctionnels ? Sont-ils infaillibles ?

Les capteurs fonctionnels sont utilisés pour développer les modèles de conduite. Les ingénieurs s’intéressent aux informations que les capteurs renvoient et qui alimenteront le système d’aide à la conduite qu’ils développent. Si je dois tester le comportement d’un ADAS, j’ai besoin que mon capteur me signale qu’un piéton traverse. Je n’ai pas besoin de savoir comment les lentilles focalisent la lumière sur le CCD de la caméra, ni de connaître la logique du programme de la caméra qui détecte le piéton en question. En utilisant des capteurs fonctionnels et la simulation pour développer les modèles de conduite, l’idée est de réduire le plus possible les tests physiques réels. Ceux-ci sont coûteux et parfois dangereux. Un exemple peut aider à comprendre les enjeux. En plein été, à 15h00, il est tout à fait possible de simuler le brouillard londonien que l’on rencontre à 18h00 en novembre. De plus, comme les phares des véhicules sont de plus en plus considérés comme des ADAS, le retour sur investissement d’un simulateur de phares peut être compté en mois. Les phares peuvent être réglés 24 heures sur 24, 7 jours sur 7. Pas besoin d’envoyer des équipes dans les pays nordiques pour bénéficier de longues nuits. Enfin, les ingénieurs travaillent dans une boucle très courte autour du simulateur, ce qui signifie qu’il est facile et rapide d’intervenir sur le code et la logique de ce dernier. Si nécessaire, il est facile d’inviter d’autres équipes à venir travailler sur les capteurs. Bien sûr, tout ce que j’explique à propos des projecteurs s’applique aux autres capteurs : radar, lidar, caméra… De manière très pratique, lorsqu’un constructeur automobile et les fournisseurs d’équipements conçoivent un capteur, ils l’utilisent pour récupérer des informations sur le trafic environnant, puis conçoivent un modèle de conduite. Ce modèle de conduite fera ralentir le véhicule, le faire dépasser, accélérer, etc., dans une situation donnée. Avec la simulation, il est possible de recréer toutes ces situations. En effet, SCANeR connaît et « dessine » le monde autour du véhicule. Il sait qu’à 50 mètres un piéton traverse en dehors de la voie. Il va donc simuler ce que le capteur est capable de détecter pour que le modèle qui analyse les informations puisse prendre une décision. Si la décision prise n’est pas correcte, les ingénieurs peuvent intervenir rapidement sur le code et redémarrer la simulation. À un stade plus avancé, il y aura probablement des milliers de scénarios à exécuter. Dans ce cas, les simulations sont réalisées la nuit en local ou dans le cloud, et le matin, les ingénieurs peuvent se concentrer sur les scénarios où le modèle de conduite ne répond pas aux exigences : freinage trop tardif, accélération trop brusque, etc. Les capteurs fonctionnels de SCANeR sont effectivement sans défaut car nous ne simulons pas leur technologie. Notre objectif est d’éviter d’introduire des erreurs dues à la simulation qui ne seraient pas présentes dans le capteur réel. Le fait que dans SCANeR nous puissions complètement paramétrer la simulation permet au capteur de détecter exactement ce qui se passe. Nous n’introduisons pas d’erreurs via l’implémentation de l’algorithme de détection, qui renvoie exactement ce que fait la simulation. Si l’utilisateur souhaite introduire des erreurs, il le fait en insérant des modèles d’erreurs statistiques qu’il a préalablement paramétrés. Par exemple, les perturbations de position sont un type d’erreur fréquemment introduit dans SCANeR pour altérer la précision des points sur les différents cibles détectées.

Quels types de capteurs sont disponibles dans SCANeR ?

Tout d’abord, nous avons les capteurs ultrasoniques. L’alarme de recul qui émet un bip lorsque l’on s’approche d’un obstacle en est un exemple.
Les capteurs radar et caméra peuvent détecter des cibles mobiles ou des panneaux de signalisation. Par exemple, un radar captera un panneau sans pouvoir lire ce qui est écrit dessus. La caméra complétera l’information en lisant ce qui est inscrit.
Ensuite, nous avons le capteur lidar, acronyme de « light detection and ranging ». Il s’agit d’un ensemble de lasers qui génère un nuage de points permettant de reconstituer une vue tridimensionnelle de l’environnement entourant le véhicule équipé.
AVSimulation propose également le capteur d’éclairage, ou luxmètre : il est capable d’évaluer la luminosité d’une scène.
Enfin, le GPS, couplé à l’Horizon Électronique, sont des capteurs qui détectent les trajectoires.

Chaque capteur a ses spécificités, et aucun capteur ne peut couvrir tous les usages. Simuler plusieurs capteurs différents ensemble permet de fusionner les informations renvoyées et de développer des ADAS plus résilients plus rapidement.

Combien de capteurs fonctionnels pouvez-vous simuler en même temps ?

Pas de limite ! Plus sérieusement, l’architecture de SCANeR est très modulaire et de nature distribuée, ce qui rend très facile la distribution de la simulation des capteurs sur différents processeurs. Si le simulateur ou la plateforme de simulation dispose de plusieurs machines, l’ingénieur répartit la charge de calcul entre elles. Plus il y a de ressources matérielles disponibles, plus de capteurs peuvent être simulés en parallèle. C’est aussi un état d’esprit. SCANeR ne nécessite pas un investissement lourd dès le départ. Nous comprenons qu’au début, il s’agit de développer un freinage d’urgence avec une station de travail et un capteur. Cependant, au fil du temps, les ADAS deviendront plus sophistiqués. SCANeR accompagnera l’équipe en leur permettant d’ajouter des nœuds de calcul, des capteurs, etc.

Que peuvent offrir les capteurs AVSimulation à nos clients ?

Le premier avantage de SCANeR est son architecture ouverte et ses nombreuses API (interfaces de programmation) qui permettent aux modèles de fusion d’accéder à toutes les données de simulation. Le deuxième avantage est la facilité avec laquelle les capteurs peuvent être couplés avec d’autres aspects de la simulation. Tout est ouvert, modulaire, accessible. C’est un argument décisif pour les utilisateurs. Par exemple, la simulation d’éclairage peut être utilisée pour simuler des matrices LED, des systèmes qui, par exemple, atténuent la lumière pour éviter l’éblouissement. Cela permet au conducteur d’éviter de passer manuellement des feux de route aux feux de croisement. Le capteur joue ici un rôle essentiel en détectant la cible (le véhicule que vous dépassez) et en permettant de baisser la lumière uniquement dans la zone cible pour éviter de l’aveugler.

Pouvez-vous confirmer que les capteurs utilisent le GPU (Unité de Traitement Graphique) s’il est présent ?

En effet, les capteurs les plus exigeants utilisent le GPU car il est essentiel de réaliser un rendu 3D en temps réel et d’évaluer les occlusions des éléments dans la scène. Dès qu’il y a une scène 3D, le GPU est utilisé. Depuis la version 2021.1, SCANeR bénéficie d’un nouveau moteur 3D (UXD) basé sur les technologies et la plateforme Unreal. C’est une excellente opportunité qui élève nos simulations de capteurs à un niveau supérieur (gestion plus fine des matériaux, effets de caméra, etc.). La plateforme Unreal nous permettra également de développer des capteurs complémentaires, tels que des caméras avec des optiques spécifiques.

Quelle est la différence entre les capteurs L1, L2 et L3 ?

Les niveaux L1, L2 et L3 représentent le niveau de traitement du signal brut du capteur : un capteur de niveau L3 fournira le signal brut, non traité, comme un signal Doppler pour un radar ou une image pour une caméra. Un capteur de niveau L1 fournira des données résultant du traitement du signal brut, afin de détecter des véhicules, des panneaux, des lignes, résultant de l’analyse du signal brut. Les capteurs de niveau L3 nécessitent une modélisation plus physique de la scène. Pour les radars de niveau L3, nous utilisons les technologies de notre société partenaire Oktal-SE. OKTAL-SE, qui fait également partie du groupe SOGECLAIR, simule la technologie des capteurs. Ils utilisent une description physique de la scène, où les matériaux sont décrits en fonction de leur réaction à certains stimuli (onde radar, faisceau lumineux). Dans SCANeR, la description de nos matériaux est purement visuelle. Cependant, pour simuler un capteur radar, nous avons besoin d’une description différente dans le domaine électromagnétique, c’est pourquoi OKTAL-SE se charge de cette tâche. Par exemple, pour le radar, nous distinguons 3 niveaux : L1, L2 et L3. Le niveau 1 correspond à un capteur purement fonctionnel, où nous renvoyons des informations traitées en sortie. Le niveau 2 est intermédiaire, c’est un signal brut déjà traité où nous aurons des taches d’intensité, c’est-à-dire un regroupement de points avec un niveau d’intensité de réflexion du signal. Ce regroupement alertera l’utilisateur qu’il y a un obstacle, puis le traitement permettra d’interpréter cette information et ainsi de savoir s’il s’agit d’un panneau, d’un véhicule, d’un piéton ou autre. Le niveau 3 est le signal brut, tel qu’un signal Doppler. [OKTAL-SE est un partenaire de longue date, leurs capteurs simulés sont intégrés dans SCANeR].

Dans le niveau L2, il y a un radar et un lidar, mais pas de caméra ?

Il n’existe pas de niveau intermédiaire pour les caméras. La sortie brute d’une caméra est simplement son image. Contrairement aux radars et lidars, il n’y a pas de niveaux comme pour ces capteurs. D’une part, nous pouvons créer des capteurs de caméra de niveau L1 qui envoient des informations de détection répertoriant les entités présentes dans la scène. D’autre part, il est également possible de simuler la sortie d’image brute d’une caméra en utilisant le rendu 3D. Les utilisateurs de SCANeR peuvent récupérer l’image brute et l’analyser eux-mêmes, puis procéder à leur propre détection. Différents types d’effets peuvent être appliqués sur l’image. Souvent, pour effectuer la détection d’image, nous utilisons la segmentation : des couleurs unies sont appliquées sur différents éléments de la scène pour apprendre à un algorithme d’analyse d’image à détecter, par exemple, un véhicule ou des lignes.

Un mot de conclusion ?

Nous migrons progressivement l’ensemble du moteur 3D vers le nouveau moteur UXD. C’est un outil plus puissant et très intéressant, notamment pour la simulation de lidar, avec les millions de calculs qui doivent être effectués en parallèle. La plateforme Unreal * ouvre également de nombreuses possibilités, en particulier pour la description des matériaux. Avec l’ancien moteur de rendu, nous avions une description artistique des couleurs. Maintenant, avec UXD, nous apportons une description beaucoup plus physique et sommes capables d’identifier véritablement les matériaux dans la scène. Enfin, Unreal est un moteur de rendu basé sur la physique (PBR – Physic Based Rendering). L’implication immédiate pour tous les utilisateurs est que cette information plus physique apporte une richesse inégalée à la détection et à la simulation des capteurs.
Pour en savoir plus sur la plateforme Unreal, lisez l’interview : « Tout ce que vous devez savoir sur l’utilisation du moteur Unreal chez AVSimulation. »

Table of Contents

DEMANDEZ UNE DÉMO AVEC L'UN DE NOS EXPERTS

La solution de simulation automobile la plus complète du marché