Normal view MARC view ISBD view

Guidage Gestuel pour des Robots Mobiles / Florent Taralle ; sous la direction de Philippe Fuchs et de Alexis Paljic

Auteur principal : Taralle, Florent, 1988-...., AuteurAuteur secondaire : : Fuchs, Philippe, Directeur de thèse, Membre du jury;Paljic, Alexis, Directeur de thèse, Membre du jury;Fol Leymarie, Frederic, Président du jury de soutenance;Thouvenin, Indira, 19..-...., Rapporteur de la thèse;Loor, Pierre de, Rapporteur de la thèse;Guettier, Christophe, 19..-...., Informaticien, Membre du juryAuteur secondaire collectivité : Université de Recherche Paris Sciences et Lettres, Organisme de soutenance;École doctorale Sciences des métiers de l'ingénieur, Paris, Ecole doctorale associée à la thèse;Centre de robotique, Paris, Laboratoire associé à la thèse;École nationale supérieure des mines, Paris, Autre partenaire associé à la thèseLangue :de résumé, Français ; de résumé, Anglais.Publication : 2016Dewey: 629.89Classification : 004Résumé : Utiliser une interface visuo-tactile peut être une gêne lorsqu'il est nécessaire de rester mobile et conscient de son environnement. Cela s'avère particulièrement problématique en milieu hostile comme pour la commande d'un drone militaire de contact.Dans ces travaux nous faisons l'hypothèse que le geste est une modalité de commande moins contraignante puisqu'elle n'impose pas de visualiser ni de manipuler une interface physique.Ainsi, différents travaux nous ont permis de confirmer d'une part, les avantages pratiques, et d'autre part, la faisabilité technique de la commande d'un robot mobile par geste.Tout d'abord, l'étude théorique du geste a permis de construire un modèle d'interaction. Celui-ci consiste en l'activation de commandes automatiques par la réalisation de gestes sémaphoriques normalisés. Des messages sonores permettent de renseigner l'opérateur et un mécanisme de confirmation sécurise l'interaction.Ensuite, le dictionnaire des gestes à utiliser a été constitué. Pour cela, une méthodologie a été proposée et appliquée : des utilisateurs proposent puis élisent les gestes les plus pertinents.Notre modèle d'interaction et le vocabulaire gestuel ont ensuite été évalués. Une étude en laboratoire nous a permis de montrer que l'interaction gestuelle telle que proposée est simple à apprendre et utiliser et qu'elle permet de conserver une bonne conscience de l'environnement.Un système interactif complet a ensuite été développé. Son architecture a été déduite du modèle d'interaction et une brique de reconnaissance gestuelle a été mise en oeuvre. En marge des méthodes classiques, la brique proposée utilise un principe de description formelle des gestes avec une grammaire régulière.Finalement, ce système a été évalué lors de tests utilisateurs. L'évaluation par des participants militaires a confirmé notre hypothèse de la pertinence du geste pour une interaction visuellement et physiquement moins contraignante.; Using a visuo-tactil interface may be restrictive when mobility and situation awareness are required. This is particularly problematic in hostile environment as commanding a drone on a battlefield.In the work presented here, we hypothesize that gesture is a less restrictive modaility as it doesn't require to manipulate nor to look at a device.Thus we followed a user-centered approach to confirm practical advantages and technical feasibility of gestural interaction for drones.First, the theoretical study of gestures allowed us to design an interaction model. It consists on activating commands by executing standardized semaphoric gestures. Sound messages inform the user and a confirmation mechanism secure the interaction.Second, a gestural vocabulary has been built. To do so, a methodology has been proposed and used : end users elicited then elected the most appropriate gestures.Then, the interaction model and the selected gestures have been evaluated. A laboratory study showed that they are both easy to learn and use and helps situation awareness.An interactive system as then been developed. It's architecture has been deducted from our interaction model and a gesture recognizer as been buit. Different from usual methods, the recognizer we proposed is based on formal description of gestures using regular expressions.Finaly, we conducted a user testing of the proposed system. The evaluation by end-users confirmed our hypothesis that gestures are a modality less distractive both visualy and physicaly..Thèse : .Sujet - Nom d'actualité : Interaction homme-robot -- Thèses et écrits académiques Ressource en ligneAccès au texte intégral | Accès en ligne | Accès en ligne
Current location Call number Status Date due Barcode
En ligne
https://pastel.archives-ouvertes.fr/tel-01814263 Available

Titre provenant de l'écran-titre

Ecole(s) Doctorale(s) : École doctorale Sciences des métiers de l'ingénieur (Paris)

Partenaire(s) de recherche : Centre de robotique (Paris) (Laboratoire), École nationale supérieure des mines (Paris) (Établissement de préparation de la thèse)

Autre(s) contribution(s) : Frederic Fol Leymarie (Président du jury) ; Philippe Fuchs, Alexis Paljic, Christophe Guettier (Membre(s) du jury) ; Indira Thouvenin, Pierre de Loor (Rapporteur(s))

Thèse de doctorat Informatique temps réel, robotique et automatique Paris Sciences et Lettres 2016

Utiliser une interface visuo-tactile peut être une gêne lorsqu'il est nécessaire de rester mobile et conscient de son environnement. Cela s'avère particulièrement problématique en milieu hostile comme pour la commande d'un drone militaire de contact.Dans ces travaux nous faisons l'hypothèse que le geste est une modalité de commande moins contraignante puisqu'elle n'impose pas de visualiser ni de manipuler une interface physique.Ainsi, différents travaux nous ont permis de confirmer d'une part, les avantages pratiques, et d'autre part, la faisabilité technique de la commande d'un robot mobile par geste.Tout d'abord, l'étude théorique du geste a permis de construire un modèle d'interaction. Celui-ci consiste en l'activation de commandes automatiques par la réalisation de gestes sémaphoriques normalisés. Des messages sonores permettent de renseigner l'opérateur et un mécanisme de confirmation sécurise l'interaction.Ensuite, le dictionnaire des gestes à utiliser a été constitué. Pour cela, une méthodologie a été proposée et appliquée : des utilisateurs proposent puis élisent les gestes les plus pertinents.Notre modèle d'interaction et le vocabulaire gestuel ont ensuite été évalués. Une étude en laboratoire nous a permis de montrer que l'interaction gestuelle telle que proposée est simple à apprendre et utiliser et qu'elle permet de conserver une bonne conscience de l'environnement.Un système interactif complet a ensuite été développé. Son architecture a été déduite du modèle d'interaction et une brique de reconnaissance gestuelle a été mise en oeuvre. En marge des méthodes classiques, la brique proposée utilise un principe de description formelle des gestes avec une grammaire régulière.Finalement, ce système a été évalué lors de tests utilisateurs. L'évaluation par des participants militaires a confirmé notre hypothèse de la pertinence du geste pour une interaction visuellement et physiquement moins contraignante.

Using a visuo-tactil interface may be restrictive when mobility and situation awareness are required. This is particularly problematic in hostile environment as commanding a drone on a battlefield.In the work presented here, we hypothesize that gesture is a less restrictive modaility as it doesn't require to manipulate nor to look at a device.Thus we followed a user-centered approach to confirm practical advantages and technical feasibility of gestural interaction for drones.First, the theoretical study of gestures allowed us to design an interaction model. It consists on activating commands by executing standardized semaphoric gestures. Sound messages inform the user and a confirmation mechanism secure the interaction.Second, a gestural vocabulary has been built. To do so, a methodology has been proposed and used : end users elicited then elected the most appropriate gestures.Then, the interaction model and the selected gestures have been evaluated. A laboratory study showed that they are both easy to learn and use and helps situation awareness.An interactive system as then been developed. It's architecture has been deducted from our interaction model and a gesture recognizer as been buit. Different from usual methods, the recognizer we proposed is based on formal description of gestures using regular expressions.Finaly, we conducted a user testing of the proposed system. The evaluation by end-users confirmed our hypothesis that gestures are a modality less distractive both visualy and physicaly.

Configuration requise : un logiciel capable de lire un fichier au format : PDF

Powered by Koha