{"id":44008,"date":"2021-10-04T12:55:15","date_gmt":"2021-10-04T10:55:15","guid":{"rendered":"https:\/\/www.avsimulation.com\/the-interview-sensors\/"},"modified":"2024-08-28T15:14:41","modified_gmt":"2024-08-28T13:14:41","slug":"linterview-tout-savoir-sur-nos-capteurs","status":"publish","type":"post","link":"https:\/\/www.avsimulation.com\/fr\/linterview-tout-savoir-sur-nos-capteurs\/","title":{"rendered":"L&rsquo;Interview : Tout savoir sur nos capteurs"},"content":{"rendered":"<h4><strong>Pouvez-vous vous pr\u00e9senter en quelques mots ?<\/strong><\/h4>\n<p><strong> <\/strong> Je suis David BOYREL, et je travaille chez <a href=\"https:\/\/www.avsimulation.preprod-machine.net\/\" target=\"_blank\" rel=\"noopener\">AVSimulation <\/a>depuis 2005, auparavant <a href=\"https:\/\/www.oktal-se.fr\/\" target=\"_blank\" rel=\"noopener\">OKTAL<\/a> Paris. J&rsquo;ai commenc\u00e9 en tant que prestataire et j&rsquo;ai ensuite rejoint l&rsquo;\u00e9quipe de d\u00e9veloppement o\u00f9 j&rsquo;ai travaill\u00e9 sur SCANeR autour de nombreux sujets dans le domaine de la 3D : le moteur de rendu visuel <a href=\"https:\/\/www.avsimulation.preprod-machine.net\/introduction-scanerstudio\/\" target=\"_blank\" rel=\"noopener\">SCANeR<\/a>, la r\u00e9alit\u00e9 virtuelle et mixte, la simulation d&rsquo;\u00e9clairage, la mod\u00e9lisation des capteurs, ainsi que les simulateurs Cave et les casques de r\u00e9alit\u00e9 virtuelle. Je suis maintenant TechLead de l&rsquo;\u00e9quipe Visual Sensors Unreal Terrain.   <\/p>\n<h4><strong>Qu&rsquo;est-ce qu&rsquo;un capteur ? \u00c0 quoi sert-il sur un v\u00e9hicule ? <\/strong><\/h4>\n<p><strong> <\/strong>Un capteur est un dispositif qui transforme une quantit\u00e9 physique observ\u00e9e (comme la temp\u00e9rature, par exemple) en une quantit\u00e9 utilisable (g\u00e9n\u00e9ralement une tension \u00e9lectrique). <span style=\"color: #000080;\">Les capteurs sont donc des dispositifs \u00e9lectroniques qui sont plac\u00e9s sur le v\u00e9hicule. <\/span> Leur r\u00f4le est de d\u00e9tecter et de comprendre leur environnement en traitant le signal qu&rsquo;ils per\u00e7oivent (une image, un signal radar, etc.) pour l&rsquo;interpr\u00e9ter dans le cadre de l&rsquo;environnement routier : localiser les panneaux de signalisation ; savoir s&rsquo;il y a d&rsquo;autres v\u00e9hicules autour ; identifier les marquages routiers, etc. Autrement dit, <strong>ils ne renvoient plus une simple valeur \u00e9lectrique, mais de l&rsquo;information<\/strong>. C&rsquo;est le cas, par exemple, d&rsquo;une cam\u00e9ra de recul qui est capable de \u00ab\u00a0lire\u00a0\u00bb les panneaux et d&rsquo;informer l&rsquo;ordinateur de bord de la voiture que la vitesse doit \u00eatre r\u00e9gl\u00e9e \u00e0 80 km\/h. Sur les v\u00e9hicules, les <a href=\"https:\/\/www.avsimulation.preprod-machine.net\/pack-physics-based-sensors\/\" target=\"_blank\" rel=\"noopener\">capteurs <\/a>sont utilis\u00e9s pour concevoir les ADAS (Syst\u00e8mes d&rsquo;Aide \u00e0 la Conduite). Ceux-ci permettent de rendre les v\u00e9hicules de plus en plus autonomes ou d&rsquo;am\u00e9liorer la s\u00e9curit\u00e9. Voici quelques exemples : la cam\u00e9ra de recul, la d\u00e9tection de changement de voie, la d\u00e9tection des angles morts, les syst\u00e8mes de freinage d&rsquo;urgence, la conduite assist\u00e9e dans les embouteillages, etc. Aujourd&rsquo;hui, le capteur permet d&rsquo;analyser la sc\u00e8ne autour de la voiture et de prendre des d\u00e9cisions dans diff\u00e9rentes situations. C&rsquo;est un syst\u00e8me qui nous permet de migrer vers une conduite totalement autonome, o\u00f9 <span style=\"color: #000080;\">les mod\u00e8les de conduite autonome seront capables d&rsquo;analyser des situations de plus en plus complexes, sur la base de donn\u00e9es de capteurs de plus en plus riches<\/span>. Nous assistons donc \u00e0 une augmentation exponentielle de la complexit\u00e9 des <a href=\"https:\/\/www.avsimulation.preprod-machine.net\/introduction-scanerstudio\/\" target=\"_blank\" rel=\"noopener\">ADAS <\/a>et de leur d\u00e9veloppement. C&rsquo;est pourquoi la simulation, qui permet de prendre des d\u00e9cisions tr\u00e8s t\u00f4t dans le cycle de conception, est devenue \u00e9vidente pour tout le monde.          <\/p>\n<h4><strong>Est-il possible de simuler les capteurs ?<\/strong><\/h4>\n<p><strong> <\/strong>Absolument, et c&rsquo;est l&rsquo;un des atouts majeurs de <a href=\"https:\/\/www.avsimulation.preprod-machine.net\/introduction-scanerstudio\/\" target=\"_blank\" rel=\"noopener\">SCANeR<\/a>. La simulation permet de cr\u00e9er des situations sp\u00e9cifiques (passage pi\u00e9ton, freinage d&rsquo;urgence, franchissement de ligne, etc.) et de g\u00e9n\u00e9rer les informations de d\u00e9tection qu&rsquo;un ensemble de capteurs r\u00e9els pourrait fournir dans ces situations. Ces informations sont envoy\u00e9es \u00e0 des mod\u00e8les de fusion de donn\u00e9es math\u00e9matiques, qui vont croiser et traiter les donn\u00e9es fournies par tous les capteurs <strong>afin de reconstruire la situation le plus pr\u00e9cis\u00e9ment possible.<\/strong> \u00c0 cet effet, la majorit\u00e9 des capteurs que nous proposons dans SCANeR sont des capteurs dits \u00ab fonctionnels \u00bb, ou des capteurs de niveau L1 : ils simulent les informations de d\u00e9tection, mais pas la technologie des capteurs. Les capteurs de niveau L3, qui prennent en compte la technologie des capteurs, sont \u00e9galement disponibles dans SCANeR.    <\/p>\n<h4><strong>Quel est l&rsquo;objectif des capteurs fonctionnels ? Sont-ils infaillibles ? <\/strong><\/h4>\n<p> Les capteurs fonctionnels sont utilis\u00e9s pour d\u00e9velopper les mod\u00e8les de conduite. Les ing\u00e9nieurs s&rsquo;int\u00e9ressent aux informations que les capteurs renvoient et qui alimenteront le syst\u00e8me d&rsquo;aide \u00e0 la conduite qu&rsquo;ils d\u00e9veloppent. Si je dois tester le comportement d&rsquo;un <a href=\"https:\/\/www.avsimulation.preprod-machine.net\/pack-ad-adas\/\" target=\"_blank\" rel=\"noopener\">ADAS<\/a>, j&rsquo;ai besoin que mon capteur me signale qu&rsquo;un pi\u00e9ton traverse. Je n&rsquo;ai pas besoin de savoir comment les lentilles focalisent la lumi\u00e8re sur le CCD de la cam\u00e9ra, ni de conna\u00eetre la logique du programme de la cam\u00e9ra qui d\u00e9tecte le pi\u00e9ton en question. En utilisant des capteurs fonctionnels et la simulation pour d\u00e9velopper les mod\u00e8les de conduite, <span style=\"color: #000080;\">l&rsquo;id\u00e9e est de r\u00e9duire le plus possible les tests physiques r\u00e9els<\/span>. Ceux-ci sont co\u00fbteux et parfois dangereux. Un exemple peut aider \u00e0 comprendre les enjeux. En plein \u00e9t\u00e9, \u00e0 15h00, il est tout \u00e0 fait possible de simuler le brouillard londonien que l&rsquo;on rencontre \u00e0 18h00 en novembre. De plus, comme les phares des v\u00e9hicules sont de plus en plus consid\u00e9r\u00e9s comme des ADAS, le retour sur investissement d&rsquo;un simulateur de <a href=\"https:\/\/www.avsimulation.preprod-machine.net\/headlight\/\" target=\"_blank\" rel=\"noopener\">phares <\/a>peut \u00eatre compt\u00e9 en mois. Les phares peuvent \u00eatre r\u00e9gl\u00e9s 24 heures sur 24, 7 jours sur 7. Pas besoin d&rsquo;envoyer des \u00e9quipes dans les pays nordiques pour b\u00e9n\u00e9ficier de longues nuits. Enfin, les ing\u00e9nieurs travaillent dans une boucle tr\u00e8s courte autour du simulateur, ce qui signifie qu&rsquo;il est facile et rapide d&rsquo;intervenir sur le code et la logique de ce dernier. Si n\u00e9cessaire, <strong>il est facile d&rsquo;inviter d&rsquo;autres \u00e9quipes \u00e0 venir travailler sur les capteurs<\/strong>. Bien s\u00fbr, tout ce que j&rsquo;explique \u00e0 propos des projecteurs s&rsquo;applique aux autres capteurs : radar, lidar, cam\u00e9ra&#8230; De mani\u00e8re tr\u00e8s pratique, lorsqu&rsquo;un constructeur automobile et les fournisseurs d&rsquo;\u00e9quipements con\u00e7oivent un capteur, ils l&rsquo;utilisent pour r\u00e9cup\u00e9rer des informations sur le trafic environnant, puis con\u00e7oivent un mod\u00e8le de conduite. Ce mod\u00e8le de conduite fera ralentir le v\u00e9hicule, le faire d\u00e9passer, acc\u00e9l\u00e9rer, etc., dans une situation donn\u00e9e. <span style=\"color: #000080;\">Avec la simulation, il est possible de recr\u00e9er toutes ces situations<\/span>. En effet, SCANeR conna\u00eet et \u00ab dessine \u00bb le monde autour du v\u00e9hicule. Il sait qu&rsquo;\u00e0 50 m\u00e8tres un pi\u00e9ton traverse en dehors de la voie. Il va donc simuler ce que le capteur est capable de d\u00e9tecter pour que le mod\u00e8le qui analyse les informations puisse prendre une d\u00e9cision. Si la d\u00e9cision prise n&rsquo;est pas correcte, les ing\u00e9nieurs peuvent intervenir rapidement sur le code et red\u00e9marrer la simulation. \u00c0 un stade plus avanc\u00e9, il y aura probablement des milliers de <a href=\"https:\/\/www.avsimulation.preprod-machine.net\/scenario\/\" target=\"_blank\" rel=\"noopener\">sc\u00e9narios <\/a>\u00e0 ex\u00e9cuter. Dans ce cas, les simulations sont r\u00e9alis\u00e9es la nuit en local ou dans le cloud, et le matin, les ing\u00e9nieurs peuvent se concentrer sur les sc\u00e9narios o\u00f9 le mod\u00e8le de conduite ne r\u00e9pond pas aux exigences : freinage trop tardif, acc\u00e9l\u00e9ration trop brusque, etc. Les capteurs fonctionnels de SCANeR sont effectivement sans d\u00e9faut car nous ne simulons pas leur technologie. Notre objectif est d&rsquo;\u00e9viter d&rsquo;introduire des erreurs dues \u00e0 la simulation qui ne seraient pas pr\u00e9sentes dans le capteur r\u00e9el. Le fait que dans <a href=\"https:\/\/www.avsimulation.preprod-machine.net\/scaner-studio\/\" target=\"_blank\" rel=\"noopener\">SCANeR<\/a> nous puissions compl\u00e8tement param\u00e9trer la simulation permet au capteur de d\u00e9tecter exactement ce qui se passe. <strong>Nous n&rsquo;introduisons pas d&rsquo;erreurs via l&rsquo;impl\u00e9mentation de l&rsquo;algorithme de d\u00e9tection, qui renvoie exactement ce que fait la simulation.<\/strong> Si l&rsquo;utilisateur souhaite introduire des erreurs, il le fait en ins\u00e9rant des mod\u00e8les d&rsquo;erreurs statistiques qu&rsquo;il a pr\u00e9alablement param\u00e9tr\u00e9s. Par exemple, les perturbations de position sont un type d&rsquo;erreur fr\u00e9quemment introduit dans SCANeR pour alt\u00e9rer la pr\u00e9cision des points sur les diff\u00e9rents cibles d\u00e9tect\u00e9es.                       <\/p>\n<h4><strong>Quels types de capteurs sont disponibles dans SCANeR ?<\/strong><\/h4>\n<table style=\"height: 945px; width: 99.56%; border-collapse: collapse; border-style: none; border-color: #ffffff; background-color: #ffffff;\" border=\"1\">\n<tbody>\n<tr style=\"height: 23px;\">\n<td style=\"width: 21.6531%; height: 23px;\"><a href=\"https:\/\/www.avsimulation.preprod-machine.net\/wp-content\/uploads\/2020\/12\/functional-sensor-l12.jpg\" target=\"_blank\" rel=\"noopener\"><img decoding=\"async\" class=\"wp-image-19607 size-medium alignright\" src=\"https:\/\/www.avsimulation.com\/wp-content\/uploads\/2024\/08\/functional-sensor-l12-300x166-1.jpg\" alt=\"\" width=\"300\" height=\"166\"><\/a><\/td>\n<td style=\"width: 78.3469%; height: 23px;\">Tout d&rsquo;abord, nous avons les capteurs ultrasoniques. L&rsquo;alarme de recul qui \u00e9met un bip lorsque l&rsquo;on s&rsquo;approche d&rsquo;un obstacle en est un exemple. <\/td>\n<\/tr>\n<tr style=\"height: 23px;\">\n<td style=\"width: 21.6531%; height: 23px;\"><a href=\"https:\/\/www.avsimulation.com\/wp-content\/uploads\/2024\/08\/functionnal-sensor-l1-4-1.png\"><img decoding=\"async\" class=\"wp-image-19483 aligncenter\" src=\"https:\/\/www.avsimulation.com\/wp-content\/uploads\/2024\/08\/functionnal-sensor-l1-4-1.png\" alt=\"\" width=\"191\" height=\"193\"><\/a><\/td>\n<td style=\"width: 78.3469%; height: 23px;\">Les capteurs radar et cam\u00e9ra peuvent d\u00e9tecter des cibles mobiles ou des panneaux de signalisation. Par exemple, un radar captera un panneau sans pouvoir lire ce qui est \u00e9crit dessus. La cam\u00e9ra compl\u00e9tera l&rsquo;information en lisant ce qui est inscrit.  <\/td>\n<\/tr>\n<tr style=\"height: 23px;\">\n<td style=\"width: 21.6531%; height: 23px;\"><a href=\"https:\/\/www.avsimulation.preprod-machine.net\/wp-content\/uploads\/2020\/12\/functionnal-sensor-l1-2.png\" target=\"_blank\" rel=\"noopener\"><img fetchpriority=\"high\" decoding=\"async\" class=\"wp-image-19463 size-medium alignright\" src=\"https:\/\/www.avsimulation.com\/wp-content\/uploads\/2024\/08\/functionnal-sensor-l1-2-300x169.png\" alt=\"\" width=\"300\" height=\"169\"><\/a><\/td>\n<td style=\"width: 78.3469%; height: 23px;\">Ensuite, nous avons le capteur lidar, acronyme de \u00ab\u00a0light detection and ranging\u00a0\u00bb. Il s&rsquo;agit d&rsquo;un ensemble de lasers qui g\u00e9n\u00e8re un nuage de points permettant de reconstituer une vue tridimensionnelle de l&rsquo;environnement entourant le v\u00e9hicule \u00e9quip\u00e9. <\/td>\n<\/tr>\n<tr style=\"height: 23px;\">\n<td style=\"width: 21.6531%; height: 23px;\"><a href=\"https:\/\/www.avsimulation.preprod-machine.net\/wp-content\/uploads\/2021\/10\/microsoftteams-image-1.jpg\" target=\"_blank\" rel=\"noopener\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-29900 size-medium alignright\" src=\"https:\/\/www.avsimulation.com\/wp-content\/uploads\/2024\/08\/microsoftteams-image-1-300x169.jpg\" alt=\"\" width=\"300\" height=\"169\"><\/a><\/td>\n<td style=\"width: 78.3469%; height: 23px;\">AVSimulation propose \u00e9galement le capteur d&rsquo;\u00e9clairage, ou luxm\u00e8tre : il est capable d&rsquo;\u00e9valuer la luminosit\u00e9 d&rsquo;une sc\u00e8ne.<\/td>\n<\/tr>\n<tr style=\"height: 23px;\">\n<td style=\"width: 21.6531%; height: 23px;\"><a href=\"https:\/\/www.avsimulation.preprod-machine.net\/wp-content\/uploads\/2020\/06\/gps-sensor.jpg\" target=\"_blank\" rel=\"noopener\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-16650 size-medium alignright\" src=\"https:\/\/www.avsimulation.com\/wp-content\/uploads\/2024\/08\/gps-sensor-300x168.jpg\" alt=\"\" width=\"300\" height=\"168\"><\/a><\/td>\n<td style=\"width: 78.3469%; height: 23px;\">Enfin, le <a href=\"https:\/\/www.avsimulation.preprod-machine.net\/gps-sensor\/\" target=\"_blank\" rel=\"noopener\">GPS<\/a>, coupl\u00e9 \u00e0 l&rsquo;Horizon \u00c9lectronique, sont des capteurs qui d\u00e9tectent les trajectoires.<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<p> Chaque capteur a ses sp\u00e9cificit\u00e9s, et aucun capteur ne peut couvrir tous les usages. Simuler plusieurs capteurs diff\u00e9rents ensemble permet de<strong> fusionner les informations renvoy\u00e9es et de d\u00e9velopper des ADAS<\/strong> plus r\u00e9silients plus rapidement.  <\/p>\n<h4><strong>Combien de capteurs fonctionnels pouvez-vous simuler en m\u00eame temps ?<\/strong><\/h4>\n<p> Pas de limite ! Plus s\u00e9rieusement, l&rsquo;architecture de SCANeR est tr\u00e8s modulaire et de nature distribu\u00e9e, ce qui rend tr\u00e8s facile la distribution de la simulation des capteurs sur diff\u00e9rents processeurs. Si le simulateur ou la plateforme de simulation dispose de plusieurs machines, l&rsquo;ing\u00e9nieur r\u00e9partit la charge de calcul entre elles.  <span style=\"color: #000080;\"> Plus il y a de ressources mat\u00e9rielles disponibles, plus de capteurs peuvent \u00eatre simul\u00e9s en parall\u00e8le.<\/span> C&rsquo;est aussi un \u00e9tat d&rsquo;esprit. SCANeR ne n\u00e9cessite pas un investissement lourd d\u00e8s le d\u00e9part. Nous comprenons qu&rsquo;au d\u00e9but, il s&rsquo;agit de d\u00e9velopper un freinage d&rsquo;urgence avec une station de travail et un capteur. Cependant, au fil du temps, les <a href=\"https:\/\/www.avsimulation.preprod-machine.net\/pack-ad-adas\/\" target=\"_blank\" rel=\"noopener\">ADAS <\/a>deviendront plus sophistiqu\u00e9s. SCANeR accompagnera l&rsquo;\u00e9quipe en leur permettant d&rsquo;ajouter des n\u0153uds de calcul, des capteurs, etc.     <\/p>\n<h4><strong>Que peuvent offrir les capteurs AVSimulation \u00e0 nos clients ?<\/strong><\/h4>\n<p> Le premier avantage de SCANeR est son <span style=\"color: #000080;\">architecture ouverte et ses nombreuses API<\/span> (interfaces de programmation) qui permettent aux mod\u00e8les de fusion d&rsquo;acc\u00e9der \u00e0 toutes les donn\u00e9es de simulation. Le deuxi\u00e8me avantage est la facilit\u00e9 avec laquelle <span style=\"color: #000080;\">les capteurs peuvent \u00eatre coupl\u00e9s avec d&rsquo;autres aspects de la simulation.<\/span> Tout est ouvert, modulaire, accessible. C&rsquo;est un argument d\u00e9cisif pour les utilisateurs. Par exemple, la <a href=\"https:\/\/www.avsimulation.preprod-machine.net\/headlight\/\" target=\"_blank\" rel=\"noopener\">simulation d&rsquo;\u00e9clairage<\/a> peut \u00eatre utilis\u00e9e pour simuler des matrices LED, des syst\u00e8mes qui, par exemple, att\u00e9nuent la lumi\u00e8re pour \u00e9viter l&rsquo;\u00e9blouissement. Cela permet au conducteur d&rsquo;\u00e9viter de passer manuellement des feux de route aux feux de croisement. Le capteur joue ici un r\u00f4le essentiel en d\u00e9tectant la cible (le v\u00e9hicule que vous d\u00e9passez) et en permettant de baisser la lumi\u00e8re uniquement dans la zone cible pour \u00e9viter de l&rsquo;aveugler.      <\/p>\n<h4><strong>Pouvez-vous confirmer que les capteurs utilisent le GPU<\/strong> (Unit\u00e9 de Traitement Graphique) <strong>s&rsquo;il est pr\u00e9sent ?<\/strong><\/h4>\n<p> En effet, les capteurs les plus exigeants utilisent le GPU car il est essentiel de r\u00e9aliser un rendu 3D en temps r\u00e9el et d&rsquo;\u00e9valuer les occlusions des \u00e9l\u00e9ments dans la sc\u00e8ne. D\u00e8s qu&rsquo;il y a une sc\u00e8ne 3D, le GPU est utilis\u00e9. Depuis la version 2021.1, SCANeR b\u00e9n\u00e9ficie d&rsquo;un nouveau moteur 3D (UXD) bas\u00e9 sur les technologies et la plateforme Unreal. C&rsquo;est une excellente opportunit\u00e9 qui \u00e9l\u00e8ve nos simulations de capteurs \u00e0 un niveau sup\u00e9rieur (gestion plus fine des mat\u00e9riaux, effets de cam\u00e9ra, etc.).    <strong>La plateforme Unreal nous permettra \u00e9galement de d\u00e9velopper des capteurs compl\u00e9mentaires, tels que des cam\u00e9ras avec des optiques sp\u00e9cifiques.<\/strong><\/p>\n<h4><strong>Quelle est la diff\u00e9rence entre les capteurs L1, L2 et L3 ? <\/strong><\/h4>\n<p> Les niveaux L1, <a href=\"https:\/\/www.avsimulation.preprod-machine.net\/real-time-physics-based-radard-sensor-l2\/\" target=\"_blank\" rel=\"noopener\">L2 <\/a>et L3 repr\u00e9sentent le niveau de traitement du signal brut du capteur : un capteur de <a href=\"https:\/\/www.avsimulation.preprod-machine.net\/full-physics-radar-sensor-l3\/\" target=\"_blank\" rel=\"noopener\">niveau L3<\/a> fournira le signal brut, non trait\u00e9, comme un signal Doppler pour un radar ou une image pour une cam\u00e9ra. Un capteur de <a href=\"https:\/\/www.avsimulation.preprod-machine.net\/functional-sensor-l1\/\" target=\"_blank\" rel=\"noopener\">niveau L1<\/a> fournira des donn\u00e9es r\u00e9sultant du traitement du signal brut, afin de d\u00e9tecter des v\u00e9hicules, des panneaux, des lignes, r\u00e9sultant de l&rsquo;analyse du signal brut. Les capteurs de niveau L3 n\u00e9cessitent une mod\u00e9lisation plus physique de la sc\u00e8ne. Pour les radars de niveau L3, nous utilisons les technologies de notre soci\u00e9t\u00e9 partenaire Oktal-SE. OKTAL-SE, qui fait \u00e9galement partie du groupe <a href=\"https:\/\/sogeclair.com\/home\" target=\"_blank\" rel=\"noopener\">SOGECLAIR<\/a>, simule la technologie des capteurs. Ils utilisent une description physique de la sc\u00e8ne, o\u00f9 les mat\u00e9riaux sont d\u00e9crits en fonction de leur r\u00e9action \u00e0 certains stimuli (onde radar, faisceau lumineux).<strong> Dans SCANeR, la description de nos mat\u00e9riaux est purement visuelle.<\/strong> Cependant, pour simuler un capteur radar, nous avons besoin d&rsquo;une description diff\u00e9rente dans le domaine \u00e9lectromagn\u00e9tique, c&rsquo;est pourquoi <a href=\"https:\/\/www.oktal-se.fr\/\" target=\"_blank\" rel=\"noopener\">OKTAL-SE<\/a> se charge de cette t\u00e2che. Par exemple, pour le radar, nous distinguons 3 niveaux : L1, L2 et L3. Le niveau 1 correspond \u00e0 un capteur purement fonctionnel, o\u00f9 nous renvoyons des informations trait\u00e9es en sortie. Le niveau 2 est interm\u00e9diaire, c&rsquo;est un signal brut d\u00e9j\u00e0 trait\u00e9 o\u00f9 nous aurons des taches d&rsquo;intensit\u00e9, c&rsquo;est-\u00e0-dire un regroupement de points avec un niveau d&rsquo;intensit\u00e9 de r\u00e9flexion du signal. Ce regroupement alertera l&rsquo;utilisateur qu&rsquo;il y a un obstacle, puis le traitement permettra d&rsquo;interpr\u00e9ter cette information et ainsi de savoir s&rsquo;il s&rsquo;agit d&rsquo;un panneau, d&rsquo;un v\u00e9hicule, d&rsquo;un pi\u00e9ton ou autre. Le niveau 3 est le signal brut, tel qu&rsquo;un signal Doppler. [OKTAL-SE est un partenaire de longue date, leurs capteurs simul\u00e9s sont int\u00e9gr\u00e9s dans <a href=\"https:\/\/www.avsimulation.preprod-machine.net\/scaner-studio\/\" target=\"_blank\" rel=\"noopener\">SCANeR<\/a>].            <\/p>\n<h4><strong>Dans le niveau L2, il y a un radar et un lidar, mais pas de cam\u00e9ra ?<\/strong><\/h4>\n<p> Il n&rsquo;existe pas de niveau interm\u00e9diaire pour les cam\u00e9ras. La sortie brute d&rsquo;une cam\u00e9ra est simplement son image. Contrairement aux radars et lidars, il n&rsquo;y a pas de niveaux comme pour ces capteurs. D&rsquo;une part, nous pouvons cr\u00e9er des capteurs de cam\u00e9ra de niveau L1 qui envoient des informations de d\u00e9tection r\u00e9pertoriant les entit\u00e9s pr\u00e9sentes dans la sc\u00e8ne. D&rsquo;autre part, il est \u00e9galement possible de simuler la sortie d&rsquo;image brute d&rsquo;une cam\u00e9ra en utilisant le rendu 3D.    <span style=\"color: #000080;\"> Les utilisateurs de SCANeR peuvent r\u00e9cup\u00e9rer l&rsquo;image brute et l&rsquo;analyser eux-m\u00eames, puis proc\u00e9der \u00e0 leur propre d\u00e9tection.<\/span> Diff\u00e9rents types d&rsquo;effets peuvent \u00eatre appliqu\u00e9s sur l&rsquo;image. Souvent, pour effectuer la d\u00e9tection d&rsquo;image, nous utilisons la segmentation : des couleurs unies sont appliqu\u00e9es sur diff\u00e9rents \u00e9l\u00e9ments de la sc\u00e8ne pour apprendre \u00e0 un algorithme d&rsquo;analyse d&rsquo;image \u00e0 d\u00e9tecter, par exemple, un v\u00e9hicule ou des lignes.  <\/p>\n<h4><strong>Un mot de conclusion ?<\/strong><\/h4>\n<p> Nous migrons progressivement l&rsquo;ensemble du moteur 3D vers le nouveau moteur UXD. C&rsquo;est un outil plus puissant et tr\u00e8s int\u00e9ressant, notamment pour la simulation de lidar, avec les millions de calculs qui doivent \u00eatre effectu\u00e9s en parall\u00e8le. La plateforme Unreal <span style=\"color: #333399;\"><strong>*<\/strong><\/span> ouvre \u00e9galement de nombreuses possibilit\u00e9s, en particulier pour la description des mat\u00e9riaux. Avec l&rsquo;ancien moteur de rendu, nous avions une description artistique des couleurs. Maintenant, avec UXD, nous apportons une description beaucoup plus physique et sommes capables d&rsquo;identifier v\u00e9ritablement les mat\u00e9riaux dans la sc\u00e8ne. Enfin, Unreal est un moteur de rendu bas\u00e9 sur la physique (PBR &#8211; Physic Based Rendering). L&rsquo;implication imm\u00e9diate pour tous les utilisateurs est que cette information plus physique apporte une richesse in\u00e9gal\u00e9e \u00e0 la d\u00e9tection et \u00e0 la simulation des capteurs.<br \/><span style=\"color: #333333;\"><span style=\"color: #333399;\"><strong><em>Pour en savoir plus sur la plateforme Unreal, lisez l&rsquo;interview :<\/em><\/strong><\/span><\/span> <a href=\"https:\/\/www.avsimulation.preprod-machine.net\/unreal-theinterview\/\" target=\"_blank\" rel=\"noopener\">\u00ab\u00a0Tout ce que vous devez savoir sur l&rsquo;utilisation du moteur Unreal chez AVSimulation.\u00a0\u00bb<\/a>      <\/p>\n","protected":false},"excerpt":{"rendered":"<p>Pouvez-vous vous pr\u00e9senter en quelques mots ? Je suis David BOYREL, et je travaille chez AVSimulation depuis 2005, auparavant OKTAL Paris. J&rsquo;ai commenc\u00e9 en tant que prestataire et j&rsquo;ai ensuite rejoint l&rsquo;\u00e9quipe de d\u00e9veloppement o\u00f9 j&rsquo;ai travaill\u00e9 sur SCANeR autour de nombreux sujets dans le domaine de la 3D : le moteur de rendu visuel [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":1365,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[23],"tags":[],"topics":[],"class_list":["post-44008","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-publications"],"_links":{"self":[{"href":"https:\/\/www.avsimulation.com\/fr\/wp-json\/wp\/v2\/posts\/44008","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.avsimulation.com\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.avsimulation.com\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.avsimulation.com\/fr\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.avsimulation.com\/fr\/wp-json\/wp\/v2\/comments?post=44008"}],"version-history":[{"count":1,"href":"https:\/\/www.avsimulation.com\/fr\/wp-json\/wp\/v2\/posts\/44008\/revisions"}],"predecessor-version":[{"id":44009,"href":"https:\/\/www.avsimulation.com\/fr\/wp-json\/wp\/v2\/posts\/44008\/revisions\/44009"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.avsimulation.com\/fr\/wp-json\/wp\/v2\/media\/1365"}],"wp:attachment":[{"href":"https:\/\/www.avsimulation.com\/fr\/wp-json\/wp\/v2\/media?parent=44008"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.avsimulation.com\/fr\/wp-json\/wp\/v2\/categories?post=44008"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.avsimulation.com\/fr\/wp-json\/wp\/v2\/tags?post=44008"},{"taxonomy":"topics","embeddable":true,"href":"https:\/\/www.avsimulation.com\/fr\/wp-json\/wp\/v2\/topics?post=44008"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}