La voiture autonome c'est pour aujourd'hui ou pour demain ? avec Eloi Zablocki - Valeo.ai
đĄ millefeuille.ai: le media pour comprendre les enjeux de lâIA et les mettre Ă profit dans notre sociĂ©tĂ© et nos mĂ©tiers â par un collectif dâingĂ©nieurs & dâentrepreneurs français.
Hello tout le monde !
On est trĂšs contents de te prĂ©senter â€ïž Au coeur de lâIA, une conversation avec des experts đ
Tu lâas compris lâIA et ses impacts sur la sociĂ©tĂ© et nos mĂ©tiers nous passionnent depuis longtemps. Et depuis quelques mois on discute avec des experts & chercheurs du secteur - quâils travaillent chez Deepmind, Meta, HuggingFace, Farmwise, Mistral et Neuralink.
On est aussi aller interroger des entrepreneurs & des salariés qui utilisent les outils dans leur quotidien pour améliorer leur vie.
On sâest dit quâon allait te partager toutes ces conversations pour aller plus en profondeur sur les sujets et satisfaire ta curiositĂ© - dĂ©mĂȘler le mythe de la rĂ©alitĂ©, le vrai du faux.
NâhĂ©site pas Ă nous donner des feedback - le format et le fond Ă©volueront comme toujours en fonction de ce que tu aimes !
Aujourdâhui on te partage notre conversation avec Eloi Zablocki. Le thĂšme est la voiture autonome !
đ Eloi a obtenu sa thĂšse sur lâapprentissage automatique multi-modal Ă partir de donnĂ©es textuelles et visuelles đ§. Pour son travail il a Ă©tĂ© finaliste du prix de la meilleure thĂšse francaise en IA en 2020. đȘ
đ Eloi a alors rejoint Valeo.ai - laboratoire de recherche en IA de Valeo - il y travaille sur des thĂ©matiques liĂ©es Ă la vision par ordinateur pour la conduite autonome et assistĂ©e. Ses travaux sont publiĂ©s dans des confĂ©rences & des revues spĂ©cialisĂ©es - si tu es intĂ©ressĂ©(e) par le sujet nâhĂ©site pas Ă le contacter !
Au menu aujourdâhui :
đž le cocktail des dĂ©fis de la voiture autonome
đ la voiture autonome pour aujourdâhui ou pour demain ?
đ§Ș les innovations Ă venir pour tous les automobilistes
đ les tendances de recherche
đ oĂč se renseigner - les sources recommandĂ©es par Eloi
Eloi : en vrai Ă gauche, au grand prix de Monaco Ă droite đ (fait avec midjourney)
Si quelquâun tâa transfĂ©rĂ© cette Ă©dition et que tu souhaites tâinscrire Ă millefeuille.ai câest par ici :
đ° MillefeuilleAI : Hello Eloi, peux-tu nous dire ce qui tâa sĂ©duit dans le secteur de la voiture autonome ?
đ Eloi :
Ce qui mâa attirĂ© câest le cocktail de problĂšmes concrets et variĂ©s que lâon trouve dans ce domaine. Imagine par exemple : tu dois faire en sorte que ta voiture prenne en compte un piĂ©ton đ¶đ»ââïž
dâabord pour le dĂ©tecter - il faut fusionner plusieurs informations Ă partir de capteurs (camĂ©ras, LiDAR ou RADAR)
il faut aussi comprendre lâintention du piĂ©ton - via certains indices comme lâorientation de son regard. đ
pour estimer ensuite les trajectoires quâil pourrait emprunter
CĂŽtĂ© modĂšles dâIA pour corser le tout on doit dĂ©velopper des modĂšles lĂ©gers (pour ĂȘtre embarquĂ©s sur des puces dans la voiture), robustes (en cas de dĂ©faillance dâun capteur) et qui gĂ©nĂ©ralisent Ă de nouvelles situations : mĂ©teo, si la personne a des vĂȘtements exotiques ou capables de dĂ©tecter dâĂ©ventuels biais.
VoilĂ typiquement des donnĂ©es quâon manipule - elles proviennent de camĂ©ras qui filment Ă 360, les nuages de points sont acquis Ă partir dâun LiDAR installĂ© sur le toit de la voiture.
âCe qui mâa attirĂ© câest le cocktail de dĂ©fis concrets & variĂ©sâ
đ° MillefeuilleAI : Mettons les pieds dans le plat - la voiture autonome câest pour quand ?
đ Eloi :
Tu sais ca fait 10 ans que certains disent que câest pour lâannĂ©e prochaine, avec un succĂšs mitigĂ© donc je ne te donnerai pas de date prĂ©cise đ.
Pour autant⊠la voiture autonome est déjà en partie une réalité !
đ Dans certaines villes amĂ©ricaines comme San Francisco, Phoenix, Austin il est possible de rĂ©server une course de taxi autonome. Ce nâest quâune Ă©tape :
ces voitures embarquent des capteurs trĂšs puissants dont le coĂ»t total est de lâordre de plusieurs centaines de milliers dâeuros â ce nâest pas viable pour ta propre voiture
elles roulent dans des zones relativement simples Ă gĂ©rer, câest Ă dire : dĂ©jĂ cartographiĂ©es, oĂč il ne pleut quasiment jamais, oĂč les routes sont larges et droites.
Le dĂ©fi est de pouvoir gĂ©nĂ©raliser Ă de nouveaux environnements, non connus Ă lâavance plus complexe dans leur structure ou dans le comportements des agents avec des capteurs bons marchĂ©s. Ce sont les questions de recherche que nous traitons chez Valeo.ai. đȘ
Autrement dit entre les rues du centre dâAustin, Texas et du centre de Paris il y a encore un monde đ.
đȘ Il faut quand mĂȘme avoir en tĂȘte quâon a dĂ©jĂ des voitures âaugmentĂ©esâ avec de lâIA pour le confort ou la sĂ©curitĂ© - les systĂšmes de freinage dâurgence, de dĂ©tection de fatigue, de parking automatique, de rĂ©gulateurs de vitesse adaptatifs.
âLe vrai dĂ©fi, c'est de faire fonctionner ces voitures dans de nouveaux environnements, plus complexes, avec des capteurs plus abordables."
đ° MillefeuilleAI : Ă l'image dâOpenAI qui a rĂ©ussi Ă marketer de nombreux cas dâusages via ChatGPT, quelles sont les prochaines innovations IA dont vont pouvoir bĂ©nĂ©ficier les automobilistes ?
đ Eloi :
Les conditions d'application de conduite autonome qui sont pour lâinstant trĂšs restreintes vont s'Ă©largir grĂące aux avancĂ©es de lâIA.
Les interfaces Ă©volueront Ă©galement pour devenir plus intuitives, notamment grĂące au suivi du regard du conducteur. đ
Lâutilisation du langage aura aussi un rĂŽle essentiel dans la communication entre le vĂ©hicule et les passagers. đŁ
Et puis lâĂ©clairage va connaĂźtre une rĂ©volution. Imagine que les ampoules des phares sont maintenant remplacĂ©es par des sortes de petits vidĂ©o-projecteurs đ„ Ă plusieurs millions de pixels quâon peut contrĂŽler indĂ©pendamment.
Lâimpact câest un Ă©clairage optimal de la route. Mais aussi une meilleure mise en Ă©vidence des obstacles spĂ©cifiques sur la route, ou alors des phares qui sâalignent avec le chemin Ă suivre et peuvent communiquer des intentions de virage aux autres usagers de la route.
Des algorithmes peuvent mĂȘme Ă©teindre les rayons lumineux qui rencontrent les gouttes de pluie đ§ pour rĂ©duire lâĂ©blouissement du conducteur et amĂ©liorer la visibilitĂ©. Ce nâest pas une petite amĂ©lioration sachant que la nuit le risque dâaccident mortel est multipliĂ© par 7 !
Exemple de phares intelligents qui projettent sur la route une zone de sécurité à respecter pour dépasser le cycliste.
đ° MillefeuilleAI : Tu as participĂ© le mois dernier Ă CVPR 2023, la plus grande confĂ©rence de vision par ordinateur, quelles sont les tendances ?
đ Eloi :
CâĂ©tait intense ! Pendant 3 jours, environ 400 papiers de recherche sont prĂ©sentĂ©s chaque demi-journĂ©e đ
.
Sans surprise, les modĂšles dits de âfondationsâ (LLM) y occupaient une large place. Ce sont de larges modĂšles qui voient certaines propriĂ©tĂ©s Ă©merger quand ils sont entraĂźnĂ©s sur de gigantesques bases de donnĂ©es. Avec ce passage Ă lâĂ©chelle, les paradigmes changent. Par exemple, pour faire de la reconnaissance dâobjet, il fallait classiquement annoter une base de donnĂ©es pour entraĂźner un modĂšle qui sera restreint Ă ne reconnaĂźtre que les classes quâil a vu pendant lâapprentissage. Maintenant, les modĂšles de âfondationâ entraĂźnĂ©s sur du texte et des images permettent de pouvoir gĂ©nĂ©raliser Ă la fois au-delĂ des classes dâapprentissage, mais aussi Ă de nouvelles tĂąches grĂące Ă quelques exemples seulement.Â
Dâautres sujets Ă©taient aussi trĂšs reprĂ©sentĂ©s, notamment les modĂšles âNeRFâ (Neural Radiance Field) qui peuvent produire de nouveaux points de vue pour des scĂšnes 3D statiques ou dynamiques depuis des positions de camĂ©ra arbitraires, mais aussi les modĂšles de diffusion pour la gĂ©nĂ©ration dâimages ou de vidĂ©os, ou encore lâestimation de pose dâobjets ou de personnes dans lâespace tridimensionnel, en lien avec des applications AR/VR.
La prochaine a lieu Ă Paris en octobre đđ«đ· - ICCV 2023
đ° MillefeuilleAI : de ton cĂŽtĂ© quâest-ce qui te paraĂźt intĂ©ressant dans ces directions de recherche ?
đ Eloi :
Un des challenges en vision est que certaines situations sont extrĂȘmement rares mais pourtant essentielles. Typiquement, des objets peuvent tomber sur la route (chute de pierres, de branches, de chargement dâun autre vĂ©hicule). On peut croiser un animal sur la route !
Ce n'est pas envisageable dâanticiper toutes ces situations de maniĂšre exhaustive, en les listant, et en collectant des donnĂ©es dâapprentissage pour chacune. Lâutilisation des modĂšles de fondation me semble clĂ© pour raisonner sur ces cas rares, notamment grĂące Ă leur capacitĂ© de gĂ©nĂ©ralisation.
Pour autant, ces modĂšles manquent encore de bon sens. Ils vont requĂ©rir dâĂȘtre plus ancrĂ© dans le monde rĂ©el pour amĂ©liorer leur raisonnement. Par exemple via des images ou des vidĂ©os.
Exemple dâune mĂ©thode dâexplication pour les voitures autonomes, quâon dĂ©veloppe chez Valeo. Ici, lâIA gĂ©nĂšre des explications âcontrefactuellesâ qui sont des situations proches de la rĂ©alitĂ© mais oĂč des dĂ©cisions diffĂ©rentes seraient prises. Cela permet de vĂ©rifier que les dĂ©cisions sont prises pour des raisons logiques.
đ° MillefeuilleAI : merci Eloi ! Est-ce que tu peux nous laisser les sources que tu recommandes si on veut aller plus loin sur le sujet ?
đ Eloi :
đ» un blog - celui de Tristan Rice. Il a hackĂ© sa Tesla pour tester ses propres algorithmes DIY de conduite autonome đ±
đ un chercheur - Andreas Geiger qui dirige le groupe de vision autonome Ă lâuniversitĂ© de TĂŒbingen. Sa chaĂźne youtube est excellente. đ
đ un papier de recherche - UniSim: A Neural Closed-Loop Sensor Simulator de Yang et al. CVPR 2023. Ce papier introduit une mĂ©thode pour rejouer une scĂšne rĂ©elle et Ă©tudier le comportement dâune voiture autonome si les autres agents avaient pris dâautres dĂ©cisions. Les vidĂ©os de dĂ©monstration sur le site sont impressionnantes.
TrĂšs belle semaine Ă tous !
â lâĂ©quipe millefeuille.ai
Si tu as aimĂ© lâĂ©dition, pense Ă cliquer sur le bouton â€ïž et Ă laisser un commentaire pour que plus de personnes puissent dĂ©couvrir millefeuille.ai sur Substack đ.
đ Et câest par ici pour nous suivre sur Linkedin et Twitter đ