Groupe de Travail Piétons et Foules Séminaire Piétons et Foules

Séminaire Piétons et Foules - Seminar Pedestrians and Crowds


Le séminaire du groupe de travail "Piétons et Foules" a pour but de réunir des chercheurs de diverses disciplines qui s'intéressent aux foules et aux piétons.
Ce séminaire abordera des thématiques variées: détection automatique de piétons et tracking, modélisation, simulation, expériences, etc.

The seminar of the Working Group "Pedestrians and Crowds" aims at gathering researchers from various domains interested in crowds and pedestrians.
The range of topics that will be discussed will be very large: Automatic detection and tracking, modeling, simulation, experiments, etc.


Organisateurs - Organizers :
Cécile Appert-Rolland (LPT) et Emanuel ALDEA (SATIE)

S'inscrire à la liste de diffusion - Subscribe to our mailing list

Se désinscrire de la liste de diffusion - Unsubscribe


Mercredi 11 Déc 2019: Quoc Cuong PHAM (CEA LIST)

Chef du Laboratoire de Vision et d'Apprentissage pour l'analyse de scène

      Titre - Title:   Détection d'objets et estimation de poses 3D robustes et rapides par réseaux de neurones profonds.
      Lieu - Location:     Auditorium, Bat. 660 DIGITEO, rue Noetzlin 91190 Gif-sur-Yvette
      Heure - Time:     10h
      Abstract   La présentation portera sur des travaux en détection d'objets et estimation de pose 3D réalisés au Laboratoire de Vision et d'Apprentissage pour l'analyse de scène. Nous introduirons d'abord une méthode de reconnaissance d'objets, Deep MANTA, qui traite le problème de détection robuste 2D-3D d'objets dans une seule image par apprentissage profond multi-tâches. Cette approche est construite sur une architecture à plusieurs étages, inspirée de Faster-RCNN. Deep MANTA inclut deux étapes d'extraction de caractéristiques dans des régions d'intérêt, proposant des régions précisément localisées. Le dernier étage est entraîné sur plusieurs tâches simultanées : la classification et la régression des boîtes englobantes, la prédiction de parties caractéristiques des objets, la prédiction de visibilité de ces parties et les transformations 3D géométriques relatives à la pose des objets. Les évaluations de performance réalisées dans le cadre du challenge KITTI, en détection et orientation 3D de véhicules, montrent la pertinence de l'approche proposée. Nous montrerons également comment l'approche a été étendue à la détection multi-classes dans le contexte de la perception basée caméra du véhicule autonome. Dans une deuxième partie, nous nous intéresserons au compromis entre rapidité et performance de détection, de première importance pour les applications temps réel. Dans cette optique, nous présenterons une nouvelle architecture de réseau de neurones, LapNet, permettant de détecter des objets en une seule passe de manière dense. LapNet est entraîné de bout en bout et se différentie des autres méthodes basées sur des ancres : (1) une association entre vérité terrain et ancre plus fiable grâce à une normalisation locale du critère de superposition et à la modélisation des ambiguïtés d'association, (2) une meilleure gestion du déséquilibre de représentation entre les classes et les différentes tailles d'objets dans l'image par l'ajout de méta-paramètres de pondération à optimiser. Les performances de LapNet le placent parmi les meilleures méthodes rapides de détection . Enfin, nous présenterons une extension de LapNet à l'estimation de pose 3D multi-personnes. A la différence des méthodes d'estimation de pose 3D multi-personnes à une passe qui combinent une prédiction de carte de chaleurs pour détecter les articulations et une étape de regroupement explicite de ces articulations, notre approche se base sur un système d'ancres et permet la détection, l'estimation de pose 2D et 3D par régression dans chaque boîte 2D. Une stratégie de sélection des ancres basée sur la superposition des poses permet de constituer des associations plus fiables entre vérités terrain et ancres candidates. L'optimisation des paramètres de pondérations est étendue au niveau des types d'articulations. Les résultats obtenus sur plusieurs datasets montrent que notre approche d'estimation de pose 3D de personnes est capable de gérer des situations de forte densité et d'occultation et des taille de personnes très variables dans l'image, surpassant les méthodes rapides de l'état de l'art.
         



Vendredi 28 Nov 2019: Présentations courtes


      Titre - Title:   Tour de table des sujets en cours / Questions ouvertes
      Lieu - Location:     salle 2P8 au 2ème étage du bâtiment 307
      Heure - Time:     10h



Vendredi 17 Mai 2019: François Bremond



      Titre - Title:   Activity recognition to monitor human behavior
      Lieu - Location:     Auditorium, Bat. 660 DIGITEO, rue Noetzlin 91190 Gif-sur-Yvette
      Heure - Time:     10h30
      Abstract   In this talk, we will discuss how Video Analytics can be applied to human monitoring in general and more specifically to Home Care. In particular, we will present several techniques for the detection and tracking of people in multi-camera settings (People Re-Identification), for facial expression analysis and for the recognition of human activities using video cameras. In particular, we will present several categories of algorithms to recognize human activities based on CNN, with more or less supervision performed by users. We will illustrate the proposed activity monitoring approaches through several applications, such as homecare, using international benchmarks (such as NTU RGB+D and N-UCLA) and on our own dementia datasets, collected with older people suffering from Alzheimer disease.
         

Vendredi 17 Mai 2019: Soutenance de thèse J. VANDONI



      Titre - Title:   Ensemble Methods for Pedestrian Detection in Dense Crowds
     
      Lieu - Location:     Auditorium, Bat. 660 DIGITEO, rue Noetzlin 91190 Gif-sur-Yvette
      Heure - Time:     14h00
         


Lundi 21 Janvier 2019: Seminaire S2UCRE


Cette demi-journée sur les piétons est organisée dans le cadre du projet franco-allemand S2UCRE. Le programme est les infos sont disponibles ici.
      Lieu - Location:     Auditorium, Bat. 660 DIGITEO, rue Noetzlin 91190 Gif-sur-Yvette
      Heure - Time:     13h20 - 17h30
         

Vendredi 21 Decembre 2018: Alexandre ALAHI (EPFL)



      Titre - Title:   Socially-aware Transportation
      Lieu - Location:     Auditorium, Bat. 660 DIGITEO, rue Noetzlin 91190 Gif-sur-Yvette
      Heure - Time:     10h00
      Abstract   Humanity is at the dawn of a digital revolution where Artificial Intelligence (AI) is poised to reshape the future of transportation with self-driving cars, delivery robots, and intelligent machines more broadly. To this end, a fundamental challenge is to develop machines that can not only perform intelligent tasks, but do so while co-existing with humans in the open world. Machines need to learn unwritten common sense rules, ethics, and comply with social conventions. Delivery robots should respect personal space, yield right-of-way, and ultimately ``read'' the behavior of others to effectively navigate crowded spaces. While AI has made great progress in classifying images or playing games driven by well-defined set of rules, intelligent machines still lack common sense and the ability to make seamless, safe, moral and efficient decisions in crowded social scenes. To reach this ambitious goal, I propose empowering machines with a type of cognition I call socially-aware AI, i.e., systems equipped with perception and social intelligence. In other words, I aim to develop systems that have the capacity to i) understand human behavior and ii) effectively navigate and negotiate complex social interactions and environments. In this talk, I will present our latest works towards socially-aware transportation.
         

Vendredi 21 Decembre 2018: Soutenance de thèse N. PELLICANO



      Titre - Title:   Tackling pedestrian detection in large scenes with multiple views and representations
     
      Lieu - Location:     Auditorium, Bat. 660 DIGITEO, rue Noetzlin 91190 Gif-sur-Yvette
      Heure - Time:     14h00
         


Mardi 25 Septembre 2018: Alexandre NICOLAS (LPTMS)



      Titre - Title:   Specificities of individual and collective pedestrian dynamics
     
      Lieu - Location:     Auditorium, Bat. 660 DIGITEO, rue Noetzlin 91190 Gif-sur-Yvette
      Heure - Time:     14h00
         


Lundi 12 Mars 2018: E. Monari, T. Pollok, S. Voth (Fraunhofer IOSB)



      14h00   E. Monari       Short Introduction of Fraunhofer IOSB and Research Group on Image-based Real-Time Systems
14h15   T. Pollok   Extrinsic Camera Calibration of Non-Overlapping Cameras based on Scene 3D-Reconstructions from a Single Video
  Abstract   Camera pose estimation describes the process of estimating the six degrees of freedom (DOF) of a camera - namely the three translation parameters (3D position) and three angles for orientation in 3D space (rotation) with respect to a reference 3D coordinate system. Estimation of the 6DOF is a highly important task in many computer vision applications (e.g. stereo-vision, camera arrays for depth estimation and 3D scene reconstruction, video surveillance, etc.). Pose estimation (also called extrinsic orientation or extrinsic multi-camera calibration) provides information about geometric relationships between camera coordinate systems and (together with available intrinsic camera parameters) allows in many cases to determine positions of objects in the scene in a common 3D coordinate system. In video surveillance, tracking of objects across multiple cameras is a typical and challenging task which requires such information for handing over the position information of tracked objects between cameras. Though there are many existing solutions for targeting the camera pose estimation problem, there are still missing approaches for practical and robust estimation of extrinsic camera orientations. In particular for large camera networks with a high number of distributed sensors over a large site with potentially nonoverlapping fields of views. In this talk an approach is presented which tackles the pose estimation problem for distributed, non-overlapping cameras. The basic idea is to record a video from the scene in which all cameras are located. State of the art SLAM or structure-from-motion (SfM) algorithms are used to create a 3D reconstruction from the video, which results in a 3d pointcloud that is represented using multiple keyframes that is used as a common reference coordinate space. Each cameras pose can be estimated by finding 2D-3D correspondences between the image points of the camera and 3D points in the point cloud. 
15h00   E. Monari, S. Voth   Current Research Activities on Video-based Crowd Monitoring

Lieu - Location:   Auditorium, Bat. 660 DIGITEO, rue Noetzlin 91190 Gif-sur-Yvette
     


Lundi 29 Janvier 2018: Armin SEYFRIED (Research Center Juelich - Germany)


      Titre - Title:   Bottleneck flow - where pedestrian dynamics need social psychology
      Résumé - Abstract:   An experiment in which a large group of people enters a hall through two different spatial barrier structures is analysed. Physical measurements show the influence of the spatial structure on the dynamics. Density, waiting time and speed of progress show large variations. A questionnaire study reveals how people perceive and evaluate these entrance situations.
      Lieu - Location:     Auditorium, Bat. 660 DIGITEO, rue Noetzlin 91190 Gif-sur-Yvette
      Heure - Time:     10h30
         


Lundi 4 Décembre 2017: Julien PETTRE (INRIA - Rennes)


      Titre - Title:   Velocity-based algorithms for crowd simulation
      Résumé - Abstract:   A crowd simulator is a computer program which aims at computing the motion of numerous people gathered in a same place (a crowd). Microscopic algorithms follow a bottom up approach to this problem: as in real crowds, the global motion of the crowd results from all the combination of local interactions between people while they move indendently. In this presentation, we will detail the velocity-based approaches, which enabled significant progresses for microscopic crowd simulators in terms of realism. Velocity-based approaches simulate the motion of agents so that they always follow an admissible velocity, i.e., allowing a collision-free trajectory in the near future. We will explain how to compute admissible velocities for agents, and how these techniques recently evolved to produce always better simulation results. We will also present a specific category of velocity-based approaches, called vision-based algorithms. The specificity of vision-based approaches is that, in contrast with other categories of approaches, agents retrieve the information they need to compute admissible velocities through a "virtual retina", which simulates a human visual perception. We will conclude the presentation by presenting our vision for the future of this topic.
      Lieu - Location:     Room 2014, Lab. SATIE, Bat. 660 DIGITEO, rue Noetzlin 91190 Gif-sur-Yvette
      Heure - Time:     10h
          Une pièce d'identité vous sera demandée à l'entrée


Lundi 6 Novembre 2017: Présentations courtes


      Titre - Title:   Tour de table des sujets en cours / Questions ouvertes
      Lieu - Location:     Salle 114, Laboratoire de Physique Theorique, Bat 210 (1er etage).
      Heure - Time:     10h30


Mardi 18 Juillet 2017: Alexandre NICOLAS (LPTMS - Orsay)


      Titre - Title:   Microscopic dynamics of pedestrian flows through a narrow exit: Experimental findings about the influence of behaviours and modelling
      Résumé - Abstract:   Recent experimental works about pedestrian flows through an exit have clarified details of the evacuation process and the influence of the behaviours [Pastor et al., PRE, 2017; Nicolas et al., TRB, 2017] . Statistical laws have been brought to light for competitive evacuations, which are strongly reminiscent of granular flows through an orifice, with in particular heavy-tailed (power-law) distributions p(Δ t) of intervals Δ t between successive escapes. Although a variety of cellular-automaton models for pedestrian dynamics are available, as far as I know, none of them was proven to reproduce these empirical microscopic statistics of escape times.
I will discuss the difficulty of obtaining a power-law distribution p(Δ t) with a lattice-based model and the ingredients that need to be incorporated to do so, the first of which is some kind of disorder. I will then introduce a minimal cellular-automaton which reproduces the experimental microscopic statistics in a semi-quantitative way, by accounting for heterogeneity in the pedestrians' behaviours [Nicolas et al., PRE, 2016].
      Lieu - Location:     Salle 114, Laboratoire de Physique Theorique, Bat 210 (1er etage).
      Heure - Time:     14h



Lundi 12 Juin 2017: Andrea Cavallaro (Centre for Intelligent Sensing - Queen Mary University of London, UK)


      Titre - Title:   Multiple target tracking for wearable and robotic cameras
      Résumé - Abstract:   Vision offers a powerful sensing modality to understand and interact with the physical world. The rapid progress in hardware, models and algorithms is supporting the emergence of applications for the recognition of events from wearable smart cameras and camera-equipped robots, such as unmanned land and aerial vehicles (i.e. self-driving cars and mini-drones). In this context I will present an online multi-target tracker that exploits both high- and low-confidence target detections in a Probability Hypothesis Density Particle Filter framework to continuously localise people from moving cameras. High-confidence detections are used for label propagation and target initialization, whereas low-confidence detections only support the propagation of labels. Data association is performed after prediction to avoid computationally expensive labelling procedures such as clustering. I will discuss results on the Multiple Object Tracking benchmark dataset and present several application scenarios.
      Lieu - Location:     Auditorium du Batiment 660 DIGITEO, rue Noetzlin, Gif-sur-Yvette
      Heure - Time:     10h00



Lundi 22 Mai 2017: Jennifer Vandoni (Laboratoire SATIE)


      Titre - Title:   An Evidential Framework for Pedestrian Detection in High-Density Crowds
      Lieu - Location:     Salle 114, Laboratoire de Physique Theorique, Bat 210 (1er etage).
      Heure - Time:     10h30



Jeudi 27 Avril 2017 : Sylvain Faure, Fatima Al Reda, Bertrand Maury (LMO - Laboratoire de Mathématiques d'Orsay)


      Titre - Title:   Approche granulaire de phénomènes d'évacuation de foules: modélisation mathématique et confrontation aux expériences
      Lieu - Location:     Salle 114, Laboratoire de Physique Theorique, Bat 210 (1er etage).
      Heure - Time:     11h


Le séminaire est financé par le projet PERCEFOULE (PALM)