You are here

WS ACTION'09

Workshop Action'09

 

Le 25 novembre 2009 s'est tenu à l'Onera Châtillon le troisième workshop du projet Action, ACTION'09 (fichiers .pdf des présentations en bas de page).

50 personnes de la communauté scientifique, représentants de la DGA et industriels ont participé à cette journée dont l'objectif était la présentation scientifique des avancées du PEA.

Programme de la journée (fichier WS_Action09.pdf) :

  • Recherche et Défense : Axes scientifiques prioritaires pour mieux répondre aux missions opérationnelles / Aurélien Godin DGA/ETBS

Le contexte d'intervention actuelle des forces armées, marqué notamment par une prédominance de la zone urbaine, a mis en évidence certaines vulnérabilités et rappelé l'importance des missions relatives à la protection des troupes : protection proprement dite des infrastructures, assistance en phases logistiques, surveillance améliorée des zones d'intervention. Et, parmi les tâches qui pourraient être confiées à des systèmes non habités, nombre d'entre elles tireraient avantage d'une coopération des plates-formes ou, au minimum, d'une coordination de leurs actions. Ainsi, les travaux scientifiques méritent d'être ciblées au regard de ces missions et les priorités réaffirmées, probablement en privilégiant des démarches progressives, qui apporteraient des réponses pragmatiques et rapides dans les premières phases des projets, et introduiraient les grandes ruptures, successivement, dans les étapes suivantes.

  • Présentation du projet / Magali Barbier Onera

L'objectif final du PEA Action est la réalisation de démonstrations scientifiques mettant en oeuvre des véhicules autonomes hétérogènes coopérant pour une mission de contrôle de zones (scénarios aéroterrestres impliquant de 2 à 12 véhicules aériens et terrestres), de blanchiment de chenal et de lutte anti-pollution (scénarios aéromaritimes avec un véhicule aérien, un véhicule sous-marin et un véhicule de surface). Les travaux scientifiques s'organisent autour du développement d'une architecture décisionnelle générique hiérarchisée sur l'équipe de drone et implémentant la fusion de données, le suivi de situation et la décision : planification, supervision et partage d'autorité. Ces fonctions scientifiques s'entrelacent avec l'objectif d'améliorer la localisation des membres de l'équipe, des cibles et des amers utiles au déplacement des véhicules, localisation devant rester robuste à la dégradation des signaux GPS. Ce workshop présente l'état d'avancement du projet du point de vue scientifique (fusion de données et supervision/planification), l'infrastructure de simulation en cours de développement pour l'évaluation de ces recherches et les premières expérimentations de coopération.

  • Session Localisation et modélisation de l'environnement, Fusion de données
    • Introduction / Simon Lacroix Laas

    Le terme "fusion de données" regroupe l'ensemble des travaux de traitement des données acquises par les  véhicules et préalablement disponibles, dans le but principal de localiser les cibles détectées dans l'environnement. L'estimation de la position des cibles dépend naturellement de la localisation propre des véhicules, pour lesquels le GPS n'est considéré que rarement disponible : l'estimation de la position des véhicules est naturellement au coeur du problème.

    • SLAM multivéhicule / Cyril Roussillon Laas

    En l'absence de système de positionnement absolu, l'exploitation de capteurs d'environnement est le seul moyen de corriger la dérive des capteurs de positionnement embarqués. Nous présentons une approche de cartographie et localisation simultanées multi-robots distribuée, qui se base sur la construction de sous-cartes locales d'amers estimées par filtrage de Kalman, et le maintien d'un graphe des transformations entre les cartes par une technique d'optimisation. L'approche peut intégrer l'ensemble des événements de localisation possibles : localisation inter-véhicules, localisation absolue par rapport à un modèle initial, et mise en correspondance de modè les construits indépendamment par chacun des véhicules.

    Les capteurs considérés sont la vision et la télémétrie laser (exclusivement pour les robots terrestres). Afin de pouvoir mettre en correspondance les éléments détectés par les différents véhicules et les différents capteurs, de pouvoir localiser les véhicules par rapport à un éventuel modèle existant et enfin dans le but de permettre la construction de modèles 3D volumiques à destination des fonctions de décision, un gros effort est mis sur la détection d'amers structurés : segments et plans présents dans l'environnement.

    • Pistage multicible / Bemjamin Pannetier Onera

    Dans le cadre du PEA Action, on s'intéresse à la tenue de situation pour des fins de renseignements. Pour assurer cette fonction, nous disposons de plusieurs sources de capteurs embarqués. Chaque capteur doit être capable d'assurer le suivi des cibles non coopératives dans un contexte multicible et riche en fausses alarmes. Après l'introduction des modèles dynamiques (qui peuvent être sous contraintes) des cibles, nous présenterons les algorithmes de pistage multicible de type PHD (Pobability Hypotheses Density)  dans une version labellisée, permettant aux systèmes de pister un ensemble de cibles mobiles. Chaque acteur (si les capacités techniques le permettent) pourra échanger ses propres pistes, par un processus de fusion distribuée, contribuant ainsi à améliorer le résultat du pistage. Une deuxième partie du lot fusion consiste à aborder la problématique de localisation des capteurs. En effet, une des contraintes du PEA impose la coupure des GPS des acteurs engendrant une augmentation de leur erreur de localisation.  Une solution basée sur  le résultat de la fusion  des pistes  est proposée pour estimer les paramètres de correction. 

    • Suivi de cible terrestre par un drone / Yoko Watanabe Onera
    • Lorsque l'on considère la poursuite d'une cible terrestre mobile non coopérative par un drone équipé d'un capteur optique, il existe un couplage fort entre la navigation et l'estimation de position de la cible. Nous présentons ici une méthode de guidage optimal du drone (vitesse, altitude) basée sur un filtre de Kalman étendu à partir de l'estimation simultanée des positions et vitesses du drone dans le repère engin et de la cible. Les données d'entrée sont les mesures fournies par les instruments de bord du drone (centrale, GPS) et les positions de l'image de la cible dans le repère caméra, positions estimées en temps réel par traitement d'image. Simulations puis expérimentations avec le VTOL RMax Ressac ont permis de valider cette approche. Toujours dans l'exploitation des images en temps réel, les travaux actuels concernent l'utilisation de mesures de flot optique pour pallier une perte de GPS durant la poursuite.

  • Session Planification et supervision de mission
    • Introduction / Félix Ingrand Laas

    L'une des fonctionnalités nécessaire dans le cadre d'Action est la planification de missions coordonnées pour les différents véhicules. Ces plans doivent ensuite être exécutés de façon coordonnée entre les robots (avec des rendez vous et éventuellement des actions jointes) tout en prenant en compte les aléas de l'exécution. Plusieurs caractéristiques doivent toutefois être prises en compte dans ce processus de planification/exécution :
    - exécution robuste (soit à partir d'une planification robuste (e.g. MDP), soit avec des mécanismes de réparation/replanification),
    - prise en compte des incertitudes de l'environnement,
    - prise en compte du temps (pour les rendez vous entre robots ou de communication),
    - prise en compte des autres robots/véhicules lors de la planification, l'allocation de tâches, et l'exécution.
    L'une des représentations d'actions/plans qui semble la plus adaptée à ce type de problème est la représentation HTN (Hierachical Task Network). Nous proposons plusieurs déclinaisons et évolutions de cette approche qui prennent  en compte les caractéristiques présentées ci-dessus. Enfin, nous présentons les modèles qui sont utilisés pour la supervision et l'affinement des actions produites par le planificateur.

    • Allocation de tâches / Hung Cao Laas

    Dans le contexte des scénarios aéroterrestres où les différentes fonctions impliquées (détection et localisation des cibles, perception de l'environnement) peuvent être indifféremment réalisées par les deux types de véhicules, nous proposons une approche de la planification des activités basée sur un protocole d'allocation de tâches basée sur des enchères -- approche "market-based".  Ce type d'approche est particulièrement adapté au cas où les nombreuses occurrences d'aléas rendent rapidement caduque la définition d'un plan de mission a priori -- outre la découverte de cibles, ces aléas sont principalement dus au manque de connaissances initiales sur l'environnement. À travers un processus distribué de négociation, elle permet la mise en oeuvre dynamique de plans cohérents entre les différents véhicules. Le contexte du projet, où les contraintes de communication inter-véhicules sont fortes et où les modèles de l'environnement jouent un rôle essentiel pour la définition des tâches, nous a conduit à proposer des extensions à ce protocole.

    • Planification probabiliste / Florent Teichteil-Konigsbuch Onera

    Dans les scénarios du PEA Action, les actions des véhicules autonomes sont hiérarchisées par les opérationnels. Ainsi, nous proposons une modélisation des problèmes de planification des scénarios sous forme de Réseaux de Tâches Hiérarchiques probabilistes, qui sont un ensemble de tâches abstraites devant être décomposées récursivement jusqu'à atteindre des tâches élémentaires pouvant être directement exécutées par le véhicule autonome. Nous avons développé un langage compact basé sur la logique du premier ordre, des expressions régulières permettant d'exprimer des parallélismes ou des séquentialités de tâches de longueur inconnue a priori sans récursivité, et des effets abstraits à tous les niveaux de la hiérarchie. Ces effets permettent d'évaluer rapidement une tâche sans descendre dans la hiérarchie, ce qui permet de réduire le nombre d'états explorés durant la recherche de la solution optimale.

  • Session Développement expérimentaux
    • Introduction / Magali Barbier Onera

    Les développements scientifiques seront principalement validées par simulation ; l'infrastructure générique et modulaire développée dans le projet pour la simulation et l'évaluation de l'architecture décisionnelle sur des scénarios de complexité croissante (de 2 à 12 véhicules, dans un contexte aéroterrestre ou aéromaritime) fait l'objet de la présentation suivante. Le simulateur est conçu pour permettre la simulation hybride (coopération de véhicules réels et de véhicules simulés). Implémenter la coopération sur les véhicules passe également par un premier ensemble d'expérimentations unitaires avec les véhicules Onera et Laas permettant de tester une brique scientifique donnée (cf. la présentation sur le suivi de cible par un drone) ou la faisabilité des démonstrations elles-mêmes (présentation à suivre sur la navigation coopérative d'un drone aérien et d'un drone terrestre).

    • Infrastructure de simulation / Nicolas Lassabe Onera

    Après une brève présentation des spécifications générales de la simulation dans le contexte du PEA Action, nous présenterons l'architecture du simulateur basée sur Blender ainsi que son niveau d'avancement. L'idée générale de l'architecture étant d'avoir plusieurs niveaux de réalismes et des composants réutilisables pour divers robots, nous détaillerons plus particulièrement les aspects modulaires du simulateur. Nous terminerons la présentation par un exemple de suivi de cible simulé sous Blender et interfacé avec Orocos.

    • Navigation coopérative entre drones aérien et terrestre/ Simon Lacroix Laas et Martial Sanfourche Onera

    Un des aspects essentiels du projet est la mise en oeuvre d'expérimentations en grandeur réelle, selon différents scénarios de complexité croissante. Dans cet objectif, des développements expérimentaux préliminaires se sont focalisés sur la réalisation d'un scénario de coopération entre un robot aérien et un robot terrestre : le robot terrestre doit atteindre un but situé à plusieurs centaines de mètres dans un environnement totalement inconnu, et le robot aérien l'informe en lui transmettant des informations sur la traversabilité du terrain déterminées par la vision embarquée. L'exposé présentera les différentes fonctions nécessaires à la réalisation de ce scénario et les premiers résultats obtenus.

 
Présentations ci-dessous.