CMI – Cockpit Multimodal Interactif
Descriptif du projet
Evaluation de la pertinence des Interfaces Homme-Machine à plusieurs modalités sensorielles.
L’introduction massive des écrans tactiles a eu pour conséquence de supprimer le retour haptique lié à l’utilisation d’un bouton physique et d’accroître la sollicitation des ressources visuelles. L’intérêt de l’utilisation de plusieurs modalités sensorielles est d’éviter de saturer l’une des modalités, dans la plupart des cas, la vision. Il faut en effet savoir qu’à chaque modalité sensorielle est associé un réservoir attentionnel qui lui est propre. L’enjeu est de définir les meilleures combinaisons d’interfaces homme-véhicule et à les tester dans différents cas d’usages.
Lancé en 2018 pour une durée de trois ans, le projet CMI se focalise sur le cockpit du véhicule autonome. Il s’attache à définir les meilleures combinaisons possibles de solutions d’IHM sollicitant différents sens humains (la vue, l’ouïe, le toucher) pour réduire la charge cognitive du conducteur et améliorer son intuitivité.
Résultats attendus
- Développer et évaluer la pertinence d’applications d’IHM à plusieurs modalités sensorielles contextualisées ;
- Etablir les guidelines justes pour la conception d’IHM ;
- Explorer le potentiel d’un assistant virtuel.
Compétences mises en oeuvre
Interaction homme-machine | |
Ingénierie système et conception logicielle |
Marchés visés
- Automobile
Thèses encadrées dans le cadre du projet
Thèse #1 : Assistant virtuel reconfigurable pour le cockpit multimodal interactif d’une voiture autonome (Université de Bordeaux)
Thèse #2 : Architecture système et analyse de compromis d’un vitrage intelligent pour le cockpit multimodal interactif d’une voiture autonome