1. Trang chủ
  2. » Luận Văn - Báo Cáo

phát triển một nền tảng phát hiện đối tượng hoàn chỉnh để kiểm soát ánh sáng công cộng

66 15 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 66
Dung lượng 11,69 MB

Nội dung

UNIVERSITẫ NATIONALE DU VIETNAM, HANOIă INSTITUT FRANCOPHONE INTERNATIONAL PIERRE RUBENS MILORME Développement d’une plateforme complète de détection d’objets pour la commande de l’éclairage public Phát triển tảng phát đối tượng hồn chỉnh để kiểm sốt ánh sáng công cộng MÉMOIRE DE FIN D’ÉTUDES DU MASTER INFORMATIQUE HANOI - 2018 UNIVERSITẫ NATIONALE DU VIETNAM, HANOIă INSTITUT FRANCOPHONE INTERNATIONAL PIERRE RUBENS MILORME Développement d’une plateforme complète de détection d’objets pour la commande de l’éclairage public Phát triển tảng phát đối tượng hồn chỉnh để kiểm sốt ánh sáng công cộng Spécialité : Systèmes Intelligents et Multimédia Code : Programme pilote MÉMOIRE DE FIN D’ÉTUDES DU MASTER INFORMATIQUE SOUS LA DIRECTION DE : — Dr Bruno EMILE, Maˆıtre de Conférence (HDR), chercheur au laboratoire PRISME et Directeur de l’IUT de Châteauroux — Dr Damien VIVET, Ingénieur-Chercheur, ISAE-SUPAERO — Fabrice ATREVI, Doctorant au laboratoire PRISME HANOI - 2018 ATTESTATION SUR L’HONNEUR J’atteste sur l’honneur que ce mémoire a été réalisé par moi-même et que les données et les résultats qui y sont présentés sont exacts et n’ont jamais été publiés ailleurs La source des informations citées dans ce mémoire a été bien précisée LỜI CAM ĐOAN Tôi cam doan dây cơng trình nghiên cuu cua riêng tơi Các so lieu, ket qua nêu Luan văn trung thuc chua tung duoc công bo bat ky cơng trình khác Các thơng tin trích dan Luan văn dã dc ch rõ ngun goc Signature de l’étudiant MILORME Pierre Rubens i Remerciements La réalisation de ce manuscrit conclut la fin de notre formation de Master Nous tenons donc remercier tous ceux envers qui nous nous sentons reconnaissants pour l’achèvement de nos études Notre sentiment de gratitude va d’abord l’encontre de : — L’Agence Universitaire de la Francophonie , pour nous avoir octroyé une bourse nous donnant ainsi l’opportunité de poursuivre nos études de Master — L’Institut Francophone International et du corps professoral pour nous avoir inculqué toutes les connaissances acquises durant la formation — Tous ceux avec qui nous avons travaillé conjointement (encadrants, doctorant, ), pour leur accueil, suivi et implication personnelle dans la réalisation de nos travaux Nous tenons également remercier tous ceux qui ont contribué travers leurs supports, conseils et autres formes d’investissement personnel l’achèvement de ce mémoire, spécialement toute ma famille et mes camarades de l’Institut Francophone International AUF iii Résumé Le travail présenté dans la suite de ce manuscrit traite de la conception et du développement d’un prototype de plateforme intégrée de détection d’objets, spécifiquement de piétons et de véhicules en temps réel l’aide d’algorithmes issus de la vision par ordinateur, permettant ainsi d’assurer l’éclairage urbain intelligent Il s’agit d’une plateforme capable de contrôler des lampadaires grâce au protocole DALI en fonction des objets détectés et d’adapter le niveau d’éclairage L’objectif ultime étant de réduire la consommation d’énergie dans un contexte plus large de Ville Intelligente Nous commenc¸ons dans un premier temps par une étude de l’état de l’art, des approches et techniques existantes relatives la détection d’objets en nous penchant sur les algorithmes d’extraction de caractéristiques allant des moins récents tels les Histogrammes des Gradients et les caractéristiques pseudo-Haar, en passant par les plus récents tels les filtres de convolution pour finalement aboutir aux algorithmes et méthodes de classification, bien connus dans les architectures de détection d’objets existantes Cette étude des travaux réalisés dans la littérature nous permet de mieux adopter une approche de détection implémenter dans un second temps au sein de la dite plateforme L’approche retenue au terme de ce travail consiste extraire des caractéristiques partir des Histogrammes des Gradients pour la détection de piétons et des caractéristiques pseudo-Haar pour la détection de véhicules C’est une solution justifiée grandement par les faibles ressources disponibles en terme de capacité de calcul et de données pour un apprentissage automatique Concrètement, un modèle SVM est ensuite utilisé pour la classification et la détection proprement dite La mise en oeuvre de la plateforme suit un processus d’ingénierie classique savoir une étude et analyse des besoins, une proposition d’architecture retenue, une conception et une implantation Les résultats obtenus avec le prototype de plateforme implanté sont prometteurs puisqu’ils témoignent de l’efficacité de l’architecture retenue Les résultats peuvent être améliorés ultérieurement en construisant une base de données plus adaptée et en générant de meilleurs modèles SVM partir de celle-ci Mots-clés : Éclairage urbain intelligent, détection automatique d’objets, protocole DALI Digital Adressable Lighting Interface HOG Séparateurs Vastes Marges v Abstract The work presented in this paper deals with the design and development of an object detection platform prototype, specifically pedestrians and vehicles detection in real-time, using computer vision algorithms in order to ensure smart urban lighting Such platform can control lamp posts lighting devices using the DALI (Digital Adressable Lighting Interface) protocol, depending on the objects detected and adjust the lighting level accordingly The ultimate goal is to reduce energy consumption in a wider context of Smart City We first start with a study of the state of the art, existing approaches and techniques related to the object detection task by analysing feature extraction algorithms from the less recent ones such as Histograms of the Oriented Gradients (HOG) and Haar-like features, through the most recent ones such as the convolution filters to finally lead to classification algorithms and methods, well known in the existing object detection architectures This study allows us to better adopt a detection approach to be implemented in a second time within the so called platform The approach adopted at the end of this work consists in extracting features from Histograms of Oriented Gradients for pedestrians detection and Haar-like ones for vehicles detection Such solutions are largely justified by the limited resources available in terms of computing capacity and data for machine learning Concretely, a SVM (Support Vector Machines) model is then used for the classification and the actual detection The implementation of the platform follows a traditional engineering process, namely a study of needs and requirements gathering, a selected architecture proposal, a design and conception phase and finally an implementation The results obtained with the implemented platform prototype are promising since they show the effectiveness of the chosen architecture Nonetheless, the detection performance can be improved later on by building a more suitable database and generating better models Keywords : Intelligent Urban Lighting, automatic object detection, DALI Protocol vii Table des matières Introduction Générale 1 État de l’Art 1.1 Introduction 1.2 Détection automatique d’objets 1.3 Méthodes d’extraction de caractéristiques et de classification 1.3.1 Algorithmes d’extraction de caractéristiques 1.3.2 Méthodes de classification 13 1.4 Approches de détection 17 1.4.1 Détection sans apprentissage profond 17 1.4.2 Détection avec apprentissage profond 18 1.5 Méthodes de recherche et de localisation d’objets 23 1.6 Conclusion 23 Méthodes et approches retenues 25 2.1 Introduction 25 2.2 Choix des algorithmes de détection 25 2.3 2.2.1 Détection de piétons 26 2.2.2 Détection de véhicules 27 2.2.3 Justification des choix 28 Protocole DALI 28 2.3.1 Fonctionnement du protocole DALI 29 2.3.2 Commandes DALI 30 2.3.3 Implantation du protocole 30 ix x Table des matières 2.4 Conclusion 32 Conception et implantation de la plateforme intégrée 3.1 Introduction 33 3.2 Conception du prototype de plateforme de détection 33 3.3 3.2.1 Exigences logicielles 33 3.2.2 Conception 35 Implantation de la plateforme 36 3.3.1 3.4 33 Environnements de développement 36 Conclusion 41 Expérimentations et résultats 45 4.1 Introduction 45 4.2 Datasets utilisés pour l’expérimentation 45 4.3 Expérimentations avec le framework YOLOv3 46 4.4 Expérimentations avec la plateforme implantée 47 4.5 Gestion et adaptation de l’intensité lumineuse des lampadaires 48 4.5.1 Algorithme de contrôle du niveau d’éclairage en cas de détection 48 4.5.2 Résultats obtenus 49 4.6 Expérimentations en temps réel 51 4.7 Limites de la détection 52 4.8 Conclusion 53 Conclusion Générale 55 Bibliographie 57 Table des figures 1.1 Processus générique de détection automatique d’objets 1.2 Caractéristiques pseudo-Haar 1.3 Algorithme SIFT 1.4 HOG 10 1.5 Exemple de filtre de convolution 11 1.6 Formule de la convolution 2D 12 1.7 Extraction de caractéristiques avec des filtres de convolution 12 1.8 Représentation de l’ensemble vecteurs caractéristiques et de l’ensemble des classes associées 14 1.9 Classification avec SVM 15 1.10 Multi Layer Perceptron (MLP) 15 1.11 Réseaux de Neurones profonds 15 1.12 Architecture classique d’un réseau CNN 16 1.13 Architecture système de détection basée sur HOG et SVM 17 1.14 Exemple de suppression des non-maxima pour les fenêtres redondantes et se chevauchant 18 1.15 Architecture R-CNN 19 1.16 Architecture Fast-RCNN 19 1.17 Architecture Faster-RCNN 20 1.18 Architecture du framework YOLO 21 1.19 Résultat de l’algorithme Selective Search 24 2.1 Processus de détection de personnes proposé par Dalal et Triggs [4] 26 2.2 Exemple de système conc¸u selon le protocole DALI 29 xi xii Table des figures 2.3 Format des trames DALI 30 2.4 Commandes du protocole DALI standard 31 2.5 Interaction entre le client et le serveur DALI 32 3.1 Architecture générale de la plateforme 37 3.2 Vue rapprochée des composants de la plateforme de détection 37 3.3 Diagramme des classes 38 3.4 Dispositif d’acquisition 39 3.5 Unité de traitement 39 3.6 Tridonic DALI USB Multiplexer 40 3.7 Tridonic DALI PS1 40 3.8 Lampe avec interface de communication DALI 40 3.9 Driver Phillips DALI 40 3.10 Interface de développement avec l’environnement de développement Qt Creator 42 3.11 Interface graphique de la plateforme implantée 43 4.1 Terrace [Seq.1, cam.3] 46 4.2 Campus [Seq.1, cam.2] 46 4.3 Basketball [Seq.1, cam.2] 46 4.4 YOLOv3 : Détection de piétons 47 4.5 YOLOv3 : Détection de véhicules 47 4.6 Détection de piétons 47 4.7 Détection de véhicules 47 4.8 Aucune détection : allumage de la lampe 30% soit la valeur 76 dans l’intervalle 50 4.9 Détection de véhicules : allumage de la lampe 79% soit la valeur 200 dans l’intervalle 50 4.10 Piétons détectés : allumage de la lampe 100% soit la valeur 254 dans l’intervalle 51 4.11 Détection en temps réel (1) 52 4.12 Détection en temps réel (2) 52 4.13 Détection en temps réel (3) 52 40 Chapitre Conception et implantation de la plateforme intégrée FIGURE 3.6 – Tridonic DALI USB Multiplexer FIGURE 3.7 – Tridonic DALI PS1 — Dispositif d’éclairage Les lampadaires utilisés proviennent de la société LENZI spécialisée dans l’éclairage urbain Ces lampadaires sont dotés d’interface de communication en protocole DALI leur permettant ainsi de communiquer avec un organe ou dispositif externe dans ce protocole La figure 3.8 est une illustration des lampadaires utilises dans le cadre de ce travail — Driver DALI L’exemple de lampadaire que nous venons de voir la figure 3.8 est muni d’un driver DALI C’est un dispositif important du point de vue du protocole qui permet d’interpréter les commandes DALI et de contrôler les lampes de manière précise C’est un composant essentiel par quoi toute la communication DALI transite dans un sens ou dans l’autre Un exemple de driver que nous avons utilisé avec la lampe est présenté la figure 3.9 Dans ce cas spécifique le driver DALI utilisé est de marque Phillips FIGURE 3.8 – Lampe avec interface de communication DALI FIGURE 3.9 – Driver Phillips DALI Outils logiciels utilisés Le tableau 3.5 ci-dessous répertorie les différents outils logiciels utilisés au cours de la mise en oeuvre de la plateforme alors que le tableau 3.6 présente les caractéristiques de la machine de développement utilisée : 3.4 Conclusion 41 TABLE 3.6 – Caractéristiques de la machine utilisée pour le développement Caractéristiques Processeur Mémoire RAM Résolution Système d’exploitation Valeurs 8x Intel(R) Xeon(R) CPU E5-2609 v2 @2.50Ghz 32883MB 1920x1080 pixels Ubuntu 16.04.4 LTS 16.04 , nom de code : xenial TABLE 3.5 – Outils logiciels utilisés Outils C++ Perl usbdali.pm Qt Qt Creator OpenCV version Description Langage de programmation principal utilisé pour le développement Langage de programmation utilisé pour le client DALI Module écrit en langage Perl permettant de communiquer en protocole DALI Utilisation du framework QT pour la construction de l’interface graphique de la plateforme et le développement en général QT étant un framework très utilisé dans le monde de l’ingénierie pour le développement des systèmes embarqués Environnement de développement intégré dédié la programmation C++ avec le framework Qt spécifiquement Utilisée pour la manipulation des matrices et effectuer les opérations sur les images de même que pour l’utilisation des algorithmes de vision par ordinateur Interface de l’application Les figures 3.10 et 3.11 représentent respectivement l’interface de l’environnement de développement intégré Qt Creator et l’interface graphique de manipulation de la plateforme implantée 3.4 Conclusion Dans ce chapitre nous avons présenté les travaux qui ont été faits en terme de modélisation et conception de la plateforme Nous avons également vu par la suite les choix d’implantation c’està-dire l’environnement matériel et l’ensemble des outils logiciels qui ont été mis contribution 42 Chapitre Conception et implantation de la plateforme intégrée FIGURE 3.10 – Interface de développement avec l’environnement de développement Qt Creator dans l’implantation de la plateforme en question Dans le chapitre suivant nous présenterons les expérimentations effectuées avec le système implanté et nous nous pencherons aussi sur les résultats obtenus partir de ces expérimentations 3.4 Conclusion FIGURE 3.11 – Interface graphique de la plateforme implantée 43 Chapitre Expérimentations et résultats 4.1 Introduction Après la phase de conception et d’implantation du prototype de plateforme de détection pour la commande de l’éclairage urbain intelligent exposé dans le chapitre précédent, nous avons effectué plusieurs expérimentations de manière pouvoir évaluer la capacité de celle-ci effectuer correctement la détection et bien contrôler les lampadaires en fonction des objets détectés Dans ce chapitre nous présentons les conditions et protocoles des expérimentations effectuées avec la plateforme implantée et les résultats obtenus Nous commenc¸ons d’abord par présenter les différents datasets utilisés pour les tests de détection de piétons de même que pour la détection de véhicules Ensuite nous présentons les résultats de détection obtenus avec le framework basé sur l’apprentissage profond YOLO Enfin nous nous penchons sur les résultats de détection obtenus avec le système implanté 4.2 Datasets utilisés pour l’expérimentation Les expérimentations ont été effectuées en utilisant plusieurs vidéos provenant d’une dataset dédiée la tâche de détection de piétons dont des échantillons de vidéos sont présentés aux figures 4.1, 4.2 et 4.3 Nous avons respectivement pour la tâche de détection de piétons des vidéos de la séquence Terrace, Campus et Basketball obtenues provenant de la dataset EPFL de CVLAB (Computer Vision Laboratory) Ce dataset comporte plusieurs séquences ou scènes différentes répertoriées dans le tableau 4.1 Pour les véhicules nous avons utilisé des vidéos provenant de la dataset OpenCV car detection dataset https://cvlab.epfl.ch/data/pom http ://funvision.blogspot.com/2016/11/computer-vision-car-dataset-for-opencv.html 45 46 Chapitre Expérimentations et résultats FIGURE 4.1 [Seq.1, cam.3] – Terrace FIGURE 4.2 – [Seq.1, cam.2] Campus FIGURE 4.3 – Basketball [Seq.1, cam.2] TABLE 4.1 – Dataset EPFL de CVLAB Séquences Laboratory sequences Campus sequences Terrace sequences Passageway sequence 4.3 Description Ces séquences vidéos (de 25 fps et encodées en utilisant le codec MPEG-4) sont filmées l’intérieur d’un laboratoire par caméras avec quatre personnes entrant dans la salle et marchant pendant minutes et demi Ces séquences sont filmées a l’extérieur sur un campus avec caméras DV Quatre personnes marchent simultanément Le fps est 25 et les vidéos sont encodées en utilisant le codec Indeo Autres séquences de vidéos filmées l’exterieur du bâtiment sur une terrasse personnes sont filmées par caméras DV, pendant minutes et demi a peu près avec 25 fps Les vidéos sont encodées avec le codec Indeo Ces séquences ont été filmées dans un couloir souterrain d’une gare de train (4 caméras DV a 25 fps et encodées en Indeo 5) Expérimentations avec le framework YOLOv3 Dans le chapitre de l’état de l’art nous avons vu que les méthodes de référence et les plus efficaces actuellement en matière de détection exploitent le concept de l’apprentissage profond Quoique gourmandes en ressources et en données pour effectuer leur apprentissage, ces méthodes surpassent de loin les méthodes traditionnelles plus anciennes que nous avons pris le soin également de mentionner et de décrire Bien que nous ne possédions pas les ressources matérielles nécessaires afin d’exploiter des solutions de détection utilisant les réseaux de neurones profonds cause de la limitation et de la faible capacité de calcul et de traitement de l’environnement cible (carte odroid), nous avons voulu testé néanmoins depuis notre environnement de développement 4.4 Expérimentations avec la plateforme implantée 47 le framework YOLO dont les sources sont librement téléchargeables et utilisables Pour ce test et tous les autres tests effectués nous avons utilisé un ensemble de vidéos de piétons provenant de la dataset EPFL abordés précédemment, principalement des séquences Terrace pour la détection de piétons et des vidéos de la dataset OpenCV car detection dataset pour la détection de véhicules Les figures 4.4 et 4.5 présentent les résultats obtenus au terme de ces expérimentations Nous remarquons que le framework YOLO a réussi de manière très efficace détecter les piétons ou les véhicules dans les deux scènes Le temps d’exécution nécessaire pour effectuer ces détections reste très problématique si l’on considère notre configuration matérielle En effet, pour traiter un frame dans la séquence vidéo le temps d’exécution sur la machine de développements avoisine la minute : ce qui rend l’utilisation de cette solution ou toute autre solution de détection d’objets de Deep Learning inutilisable au niveau de la plateforme cible dont les caractéristiques matérielles titre de comparaison sont nettement plus faibles que celles de notre environnement de développement FIGURE 4.4 – YOLOv3 : Détection de piétons FIGURE 4.5 – YOLOv3 : Détection de véhicules 4.4 Expérimentations avec la plateforme implantée FIGURE 4.6 – Détection de piétons FIGURE 4.7 – Détection de véhicules https://pjreddie.com/darknet/yolo/?utm_source=next.36kr.com https ://cvlab.epfl.ch/data/pom 48 Chapitre Expérimentations et résultats Les figures 4.6 et 4.7 montrent les résultats obtenus suite aux expérimentations menées avec la plateforme de détection d’objets implémentée A la figure 4.6, nous pouvons remarquer que des piétons (délimités par des rectangles en vert sur l’image) ont bien été détectés par l’approche de détection consistant associer les algorithmes HOG + SVM et la figure 4.7 nous avons un exemple de détection de véhicules effectuée partir des caractéristiques de Haar Cependant, les résultats des détections effectuées avec les deux méthodes, comparativement aux résultats obtenus avec la plateforme YOLO précédemment ne sont pas aussi efficaces Pour la détection de piétons, les vidéos doivent être dans un plan parallèle celui de la caméra et nous constatons des cas de faux positifs (faux cas détection ou fausses alertes pouvant être dˆu certaines transformations géométriques et photométriques produites dans l’image) et de faux négatifs (objets présents mais non détectés dans l’image) enregistrés lors de la détection 4.5 4.5.1 Gestion et adaptation de l’intensité lumineuse des lampadaires Algorithme de contrôle du niveau d’éclairage en cas de détection En pratique, le protocole DALI est implémenté en utilisant le protocole http fonctionnant selon modèle de communication client-serveur Le client permet d’envoyer des commandes DALI au serveur qui se charge de les interpréter et de les transmettre au dispositif Tridonic DALI multiplexer Pour contrôler les lampadaires et adapter leur niveau d’éclairage, trois niveaux d’intensité (voir tableau 4.2) sont retenus selon qu’il y ait eu détection ou pas et selon l’objet qui a été détecté dans la scène courante La plage de valeurs possibles pour le niveau d’intensité de l’éclairage que l’on peut affecter aux lampadaires par le biais des commandes DALI au niveau du serveur est comprise dans l’intervalle Les valeurs en dessous ou égale zéro correspondent 0% (une valeur nulle pour l’intensité) et seront interprétées comme une commande d’extinction de la lampe Les valeurs au dessus ou égales 254 correspondent la valeur d’intensité maximale soit 100% tandis que les valeurs intermédiaires sont différents degrés d’intensité d’éclairage que l’on peut attribuer aux lampadaires TABLE 4.2 – Niveau de l’intensité d’éclairage des lampadaires en fonction des objets détectés Objets détectés Aucun Véhicules Piétons Niveau de l’intensité de l’éclairage en % 30% 79% 100% Valeurs prises dans l’intervalle 76 200 254 4.5 Gestion et adaptation de l’intensité lumineuse des lampadaires 49 Lorsqu’un objet est détecté, nous affectons la valeur d’intensité d’éclairage adéquate aux lampadaires Ceux-ci conservent cette valeur et ce niveau d’intensité pendant une certaine durée (égale 1mn) Dans le cas où les deux entités, savoir des piétons et des véhicules sont détectés en même temps dans la même scène, la priorité est donnée aux piétons pour lesquels l’intensité de la lampe s’ajustera conformément la valeur qui leur a été attribuée précédemment dans l’intervalle Ci-dessous, nous avons le pseudo-code (Algorithme 1) de l’algorithme permettant de mettre en pratique toutes les règles que nous venons d’évoquer : Data: frame (Mat), detectionPietons (bool)), detectionVehicules (bool) Result: niveau d’intensité d’éclairage du lampadaire detectionPietons = 0; detectionVehiccules = ; detecterPietons(frame) ; detecterVehicules(frame) ; if not detectionPietons and not detectionVehicules then return niveau ; else if not detectionPietons and detectionVehicules then return niveau ; else return niveau ; end end Algorithm 1: Algorithme d’adaptation du niveau d’éclairage de la lampe en fonction de la détection niveau, niveau et niveau correspondent respectivement aux valeurs de niveau d’intensité attribuées dans le cas où aucune détection n’a été enregistrée, du cas de détection de véhicules et du cas de détection de piétons (ou de détection de piétons et de véhicules en même temps) 4.5.2 Résultats obtenus A la figure 4.8, nous avons une démonstration du niveau d’éclairage du lampadaire lorsqu’il n’y a pas de détection (pas de piétons ni de voitures détectés dans la scène) L’ampoule s’allume 30%, c’est-à-dire que la valeur 76 a été attribuée dans l’intervalle : au niveau du code l’instruction correspondante est system("perl daliserver/perl/allset.pl 76") ; A la figure 4.9, nous avons un cas de détection de véhicules encadrés en rouge dans l’image L’ampoule s’allume 79%, c’est-à-dire que la valeur 200 a été attribuée dans l’intervalle : au niveau du code l’instruction correspondante est system("perl daliserver/perl/allset.pl 200") ; 50 Chapitre Expérimentations et résultats FIGURE 4.8 – Aucune détection : allumage de la lampe 30% soit la valeur 76 dans l’intervalle FIGURE 4.9 – Détection de véhicules : allumage de la lampe 79% soit la valeur 200 dans l’intervalle A la figure 4.10, nous avons un cas de détection de piétons encadrés en vert dans l’image L’ampoule s’allume 100%, c’est-à-dire que la valeur 254 a été attribuée dans l’intervalle : au niveau du code l’instruction correspondante est system("perl daliserver/perl/allset.pl 254") ; FIGURE 4.10 – Piétons détectés : allumage de la lampe 100% soit la valeur 254 dans l’intervalle 4.6 Expérimentations en temps réel Par ailleurs, sous avons effectué des tests avec la plateforme implantée en temps réel Les figures 4.11 4.14 présentent une séquence de frames dans lesquelles l’on essaie de détecter un piéton A la figure 4.11, l’on s’aperc¸oit que le piéton n’a pas été détecté C’est un cas de faux négatif qui est causé par la distance entre le dispositif d’acquisition et le piéton Aux figures 4.12, 4.13 et 4.14 l’on remarque contrairement l’exemple précédent que le piéton a été bien détecté après avoir appliqué un facteur de zoom sur la scène La fonctionnalité zoom implémentée dans la plateforme permet donc d’améliorer la qualité de la détection et en ce sens l’efficacité de la plateforme pour effectuer ses détections 52 4.7 Chapitre Expérimentations et résultats FIGURE 4.11 – Détection en temps réel (1) FIGURE 4.12 – Détection en temps réel (2) FIGURE 4.13 – Détection en temps réel (3) FIGURE 4.14 – Détection en temps réel (4) Limites de la détection Les résultats de détection obtenus ne sont pas optimaux Dans la section précédente nous avons déjà présenté un cas d’échec où l’algorithme n’était pas en mesure d’identifier et de détecter un piéton dans l’image Nous avons relevé également des cas de faux positifs l’instar de ce qui est présenté la figure 4.15 ci-dessous Dans cette image, bien que le piéton ait bien été détecté dans la scène, nous pouvons remarquer toutefois une confusion dˆu un rocher qui a été détecté en tant que piéton Ces erreurs de détection peuvent s’expliquer par les choix d’algorithmes utilisées et les conditions d’apprentissage des modèles générés par ces algorithmes En effet, les algorithmes retenus ne sont pas robustes certaines transformations géométriques et photométries telles la vue en perspective, la luminosité etc Le choix de ces algorithmes résulte d’un compromis étant donné que l’environnement matériel cible dont nous disposions n’était pas en mesure d’exécuter certaines architectures plus efficaces mais plus lourdes et complexes 4.8 Conclusion 53 FIGURE 4.15 – Exemple de faux positif 4.8 Conclusion Dans ce chapitre, nous avons présenté les résultats obtenus suite aux expérimentations au terme du développement du prototype de plateforme intégrée pour la détection de piétons et de voitures pour la commande de l’éclairage urbain intelligent Ainsi, nous avons vu les règles et l’algorithme mis en oeuvre permettant d’interagir avec les lampadaires via une implémentation du protocole DALI Au niveau de la détection proprement dite nous avons des résultats acceptables et prometteurs bien qu’il existe toutefois des imperfections, c’est-à-dire des cas de faux positifs et faux négatifs dans la scène analysée Conclusion et perspectives Dans ce mémoire, nous avons présenté les travaux réalisés dans le cadre du stage de fin d’études consistant développer une plateforme intégrée de détection d’objets pour la commande de l’éclairage urbain intelligent Nous avons dans un premier temps présenté le contexte d’étude, la problématique et contraintes mais également les objectifs poursuivis dans le cadre du travail Ensuite, dans le premier chapitre de ce manuscrit qui constitue une étude de l’état de l’art, nous avons étudié le concept de détection automatique d’objets ainsi que les algorithmes usuels d’extraction de caractéristiques et de classification nécessaires la réalisation de la tâche Nous avons poursuivi en voyant en dernier lieu les différentes approches et plateformes courantes mises en place pour la détection d’objets Nous nous sommes rendus compte qu’il existait deux grandes familles de méthodes de détection d’objets savoir les méthodes traditionnelles moins efficaces et les méthodes exploitant les concepts de l’apprentissage profond plus récentes et efficaces, cependant plus coˆuteux mettre en oeuvre Le deuxième chapitre qui s’ensuivit a été l’occasion d’exposer et de justifier nos choix en termes d’algorithmes retenus parmi ceux présentés intégrer dans la plateforme Nous avons en outre introduit également le protocole DALI qui est un protocole de communication nécessaire pour interagir avec les lampadaires Les détails de conception et d’implématation ont fait l’objet du troisième chapitre dans lequel une modélisation logicielle a été faite Enfin le dernier chapitre est celui des expérimentations effectuées avec le prototype de plateforme implantée et de l’observation des résultats obtenus De nombreux outils matériels (carte Odroid, Driver DALI, Lampe, Tridocnic USB DALI Multiplexer, ) étaient nécessaires pour concrétiser ce travail ainsi que les outils constituant l’environnement logiciel (langages c++ et perl, module usbdali.pm, OpenCV, ) En définitive, les résultats obtenus sont satisfaisants et encourageants puisque nous arrivons bien interagir avec les lampadaires et détecter les objets concernés dans les scènes malgré le fait que la détection ne soit pas optimale Les perspectives pour ce travail consistent élaborer une base plus conséquente et appropriée de fac¸on apprendre d’autres modèles qui soient plus significatifs et augmenter ainsi l’efficacité au niveau des détections effectuées 55 Bibliographie [1] Papageorgiou, Constantine, Michael Oren and Tomaso A Poggio “A General Framework for Object Detection.” ICCV (1998) [2] Viola, Paul A and Michael J Jones “Rapid Object Detection using a Boosted Cascade of Simple Features.” CVPR (2001) [3] David G Lowe, "Distinctive Image Features from Scale-Invariant Keypoints", International Journal of Computer Vision, 2004 [4] N Dalal and B Triggs "Histograms of oriented gradients for human detection" In Computer Vision and Pattern Recognition, 2005 CVPR 2005 IEEE Computer Society Conference on, volume 1, pages 886–893 IEEE, 2005 [5] J Donahue, Y Jia, O Vinyals, J Hoffman, N Zhang, E Tzeng, and T Darrell Decaf : A deep convolutional activation feature for generic visual recognition arXiv preprint arXiv :1310.1531, 2013 [6] Region-based Convolutional Networks for Accurate Object Detection and Segmentation : Ross Girshick, Jeff Donahue, Student Member, IEEE, Trevor Darrell, Member, IEEE, and Jitendra Malik, Fellow, IEEE [7] Ross Girshick, "Fast R-CNN" Microsoft Research [8] Faster R-CNN : Towards Real-Time Object Detection with Region Proposal Networks Shaoqing Ren, Kaiming He, Ross Girshick, and Jian Sun [9] Soo, Sander “Object detection using Haar-cascade Classifier.” (2014) [10] Selective Search for Object Recognition J R R Uijlings, K E A van de Sande, T Gevers, A W M Smeulders In International Journal of Computer Vision 2013 [11] M Foody, Giles Mathur, Ajay (2004) A relative evaluation of multiclass image classification by Support Vector Machines [12] Deep Learning in Neural Networks : An Overview Technical Report IDSIA-03-14 / arXiv :1404.7828 v4 [cs.NE] (88 pages, 888 references) Jurgen Schmidhuber The Swiss AI Lab IDSIA Istituto Dalle Molle di Studi sull’Intelligenza Artificiale University of Lugano SUPSI Galleria 2, 6928 Manno-Lugano Switzerland 57 ... complète de détection d’objets pour la commande de l’éclairage public Phát triển tảng phát đối tượng hồn chỉnh để kiểm sốt ánh sáng công cộng Spécialité : Systèmes Intelligents et Multimédia Code : Programme... cơng trình nghiên cuu cua riêng tơi Các so lieu, ket qua nêu Luan văn trung thuc chua tung duoc công bo bat ky cơng trình khác Các thơng tin trích dan Luan văn dã dc ch rõ ngun goc Signature de

Ngày đăng: 17/03/2021, 19:21

TỪ KHÓA LIÊN QUAN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

w