Contexte & objectif
Estimer la courbure de la route à partir d’une caméra monoculaire afin d’aider la navigation autonome et les ADAS. L’idée est de transformer l’image en vue zénithale (IPM) pour faciliter la détection des marquages, puis d’en déduire la géométrie de la route (segments droits vs courbes). oai_citation:0‡Inverse_Perspective_Mapping_based_road_c.pdf
Méthode (pipeline)
- Inverse Perspective Mapping (IPM)
- Homographie plan-sol (calibrée avec un damier) pour supprimer la perspective et rendre les marquages parallèles dans l’image IPM. oai_citation:1‡Inverse_Perspective_Mapping_based_road_c.pdf
- Détection des marquages
- Segmentation couleur (blanc/jaune) → Canny → Transformée de Hough (contraintes de verticalité) → RANSAC line fitting → RANSAC spline fitting avec spline de Bézier cubique pour le raffinement. oai_citation:2‡Inverse_Perspective_Mapping_based_road_c.pdf
- Estimation de la courbure
- Hypothèse : chaque voie locale ≈ arc de cercle. Trois points (début, milieu, fin) définissent le cercle ; κ = 1/R. Seuilage pour distinguer droite vs courbe. oai_citation:3‡Inverse_Perspective_Mapping_based_road_c.pdf
Formules clés
- Droite de Hough : ρ = x cosθ + y sinθ (détection de lignes quasi-verticales en IPM). oai_citation:4‡Inverse_Perspective_Mapping_based_road_c.pdf
- Courbure : κ = 1/R (R : rayon du cercle ajusté). oai_citation:5‡Inverse_Perspective_Mapping_based_road_c.pdf
Données & mise en œuvre
- Implémentation C++/OpenCV, Ubuntu 14.04 ; caméra embarquée, 640×512 px. oai_citation:6‡Inverse_Perspective_Mapping_based_road_c.pdf
Résultats
- Détection de marquages : 2 823 marquages sur 1 443 images ; 88,45 % de bonne détection ; 5,41 % de faux positifs. oai_citation:7‡Inverse_Perspective_Mapping_based_road_c.pdf
- Estimation de courbure :
- segments droits : 50,73 % correct,
- courbes : 80 % correct.
Les erreurs viennent d’un ajustement de marquage imparfait et du modèle circulaire parfois insuffisant. oai_citation:8‡Inverse_Perspective_Mapping_based_road_c.pdf
Points forts
- Pipeline simple et temps réel (vision seule), compatible embarqué.
- IPM rend le problème mieux conditionné (marquages parallèles).
- Enchaînement clair : Segmentation → Hough → RANSAC lignes → RANSAC spline Bézier → modèle cercle. oai_citation:9‡Inverse_Perspective_Mapping_based_road_c.pdf
Limites
- Fortes hypothèses : route ≈ arc de cercle local ; IPM basé sur planéité (sensibilité au tangage/roulis). oai_citation:10‡Inverse_Perspective_Mapping_based_road_c.pdf
- Segmentation couleur sensible à l’éclairage et au marquage effacé → faux positifs. oai_citation:11‡Inverse_Perspective_Mapping_based_road_c.pdf
- Précision de courbure limitée (≈ 50 % sur segments droits) ; les auteurs suggèrent d’essayer des modèles paraboliques/cubiques. oai_citation:12‡Inverse_Perspective_Mapping_based_road_c.pdf
Idées d’intégration RS3 / Telemachus
- Baseline vision-seule pour comparer à des approches visuo-inertielles (ajout du yaw-rate IMU comme régularisation de la spline).
- Dans RS3 : simuler textures/marquages + variations d’éclairage pour mesurer la robustesse (taux de faux positifs IPM).
- Évaluation normalisée (Telemachus): exposer
curvature_kappa,radius_m,lane_mark_confidence,method=ipm+hough+ransac_spline. - Ablations : (i) Hough→spline vs (ii) spline directe, (iii) cercle vs parabole vs clothoïde ; mesurer RMSE κ vs vérité terrain.
Reproductibilité minimale
- Calibration homographie avec damier (quatre coins) ; IPM par
cv::warpPerspective. - Chaîne OpenCV standard : HSV thresholding → Canny → Hough (θ≈0,π) → RANSAC ligne → RANSAC spline (Bézier cubique). oai_citation:13‡Inverse_Perspective_Mapping_based_road_c.pdf
Ce qu’on peut mesurer rapidement (plan d’expé)
- Exactitude κ (erreur relative |κ̂−κ|/|κ|) par scénarios RS3 (lignes droites, courbes R = [30, 50, 100] m, bruit/occlusions).
- Taux FP/FN de marquage en fonction de l’éclairage et de l’usure des lignes.
- Temps d’exécution par frame (objectif : ≥30 FPS en 640×512).
Verdict
Bon papier de base (2014) pour une ligne‐de‐base IPM. Utilisable comme benchmark RS3, mais à dépasser par : (i) modèles géométriques plus riches (parabole/clothoïde), (ii) fusion vision+IMU pour stabiliser l’estimation de cap/courbure, (iii) segmentation sémantique moderne (CNN) pour réduire la dépendance à la couleur. oai_citation:14‡Inverse_Perspective_Mapping_based_road_c.pdf