DISTRIBUTION ET ÉVALUATION DE DONNÉES BIOMÉTRIQUES

51 193 0
DISTRIBUTION ET ÉVALUATION DE DONNÉES BIOMÉTRIQUES

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

Thông tin tài liệu

Institut de la Francophonie pour l'Informatique TELECOM & Management SudParis MEMOIRE DE STAGE DE FIN D’ETUDES MASTER EN INFORMATIQUE DISTRIBUTION ET ÉVALUATION DE DONNÉES BIOMÉTRIQUES Stagiaire : Encadrant : Thanh-Lam HOANG Aurélien MAYOUE Pierre-Olivier LADOUX Directrice : Bernadette DORIZZI Ce stage a été réalisé au sein de l’équipe InterMedia du département Électronique et Physique (EPH) de TELECOM & Management SudParis Évry, Mars – Octobre, 2009 Page Table de manière Remercie Résumé Abstrait Liste de figures Liste de tableaux I Introduction Contexte du stage Objectif du stage Plan du document 12 II Distribution .13 Base de données 13 a Acquisition .13 b Modalité 15 Problèmes et solutions .17 a Exigences 17 b Processus 20 c Validation de fichiers .21 d Sélection de personnes 24 e Mis en forme 27 III Évaluation 30 Méthode d'évaluation 30 Évaluation basées sur l'observation 30 a Netteté d'une image 31 b Évaluation de résultat 31 c Performance du système 33 d Résultat 35 Évaluation basée sur le contenu 37 a Qualité de l'iris 38 b Qualité de la signature .41 c Qualité de l'empreinte 46 IV Conclusion et perspective 49 Références Page Remerciements Je tiens particulièrement remercier professeur Betnadette DORIZZI, la directrice de stage, et deux encadrant Aurélien MAYOUE et Pierre-Olivier LADOUX pour les aides, les conseils précieux pendant mois de mon stage Je tiens également remercier PHAN Viet Anh, Nesma HOUMANI qui ont travaillé avec moi pendant ce stage, et qui m'ont beaucoup aidé grâce ses explications, ses conseils utiles et les documents J’adresse mes sincères remerciements tous les professeurs de l’Institut de la Francophonie pour l’Informatique (IFI) pour m'avoir enseigné et me donnée les cours intéressants pendant mes études au niveau master Je profite de cette occasion pour dire remercier tous les personnels de l’IFI qui m'ont apporté de l’aide Finalement, je voudrais remercier ma famille, mes parents et mes amis qui sont toujours près de moi et m'ont apporté de courage dans les moments difficiles Page RESUME La biométrie est un domaine d'authentification et de vérification d'identification utilisant des physiques ou/et des comportements des personnes Dans le département EPH, nous avons la base de données de biométrie Les types des fichiers dans cette base de données sont : des images, des audio-videos, des fichiers texte de biométrie telle que des visages, des signatures, Il est nécessaire distribuer cette base de données Concrètement, il y a modalités complètes qui sont prêtes distribuer, c'est l'iris, la signature et l'empreinte Après la distribution, un système de références est appliqué pour évaluer des bases de données distribuées pour savoir si ces bases de données sont faciles reconnaître Mots-clés : biométrie, évaluation, distribution, base de données, qualité d'image, système de références, iris, visage, empreintes Page ABSTRACT Biometrics is a domain of identity authentication and identity verification using physical and / or behavior of individuals In the EPH department, we have a database of biometrics The files in this database are images, audio, videos, text files of faces, signatures It is necessary to distribute this database Specifically, there are full modalities that are ready to distribute, it is the iris, signature and fingerprint After distribution, a reference system is applied to evaluate the distributed database to see if these databases are easy to recognize Keywords: biometrics, evaluation, distribution, database, image quality, system references, iris, face, fingerprint Page Liste de figures Figure 1.2.1 : Courbe DET 11 Figure 2.1.1 : Des capteurs utilisés dans DS2 14 Figure 2.1.2 : Des capteurs utilisés dans DS3 15 Figure 2.1.3 : Exemples des images dans la modalité de visage 15 Figure 2.1.4 : Exemples des images dans la modalité d'iris 16 Figure 2.1.5 : Exemple d'une image dans la modalité de main .16 Figure 2.1.6 : Exemples des images dans la modalité d'empreinte 17 Figure 2.2.1 : Le processus global du système de distribution .20 Figure 2.2.2 : Image non-lisible 21 Figure 2.2.3 : Les exemples des images de la main dans les conditions différentes 23 Figure 2.2.4 : Algorithme .25 Figure 2.2.5 : Algorithme .25 Figure 2.2.6 : Description de l'algorithme la fin d'une boucle dont r=2 26 Figure 2.2.7 : Distributions des id dans ds2 et ds3 28 Figure 2.2.8 : Structure de répertoire dans ds3 .29 Figure 3.2.1 : Image floue et image nette .31 Figure 3.2.2 : Schémas du résultat de comparaison 32 Figure 3.2.3 : La netteté entre des images contrôlées et non-contrôlées 33 Figure 3.2.4 : La netteté entre des images capturées par webcam et par appareil photo Canon .34 Figure 3.2.5 : La netteté entre des visages capturés par webcam l'extérieur et l'intérieur 34 Figure 3.2.6 : La netteté entre des images capturées par appareil photo Canon avec flash et sans flash .35 Figure 3.2.7 : Œil et iris 36 Figure 3.2.8 : La netteté entre des yeux dans DS2 et dans ICE 36 Page Figure 3.2.9 : La netteté entre des iris dans DS2 et dans ICE 37 Figure 3.3.1 : Exemple de résultat dans la phase segmentation du système OIRIS .39 Figure 3.3.2 : Iris en géométrie ronde et en géométrie rectangulaire .40 Figure 3.3.3 : Transformer ligne AB de la région circulaire la ligne AB du rectangle 40 Figure 3.3.4 : Courbe DET sur la base Iris-ds2 41 Figure 3.3.5 : Courbe DET sur la base Signature-DS2 44 Figure 3.3.6 : Courbe DET sur la base Signature-DS3 45 Figure 3.3.7 : Les types de minuties .46 Page Liste de tableaux Table 1.2.1 : Les distributions demandées 18 Table 1.2.2 : Les distributions actuelles 19 Table 1.2.3 : Les valeurs possibles pour chaque partie dans le nom de fichiers .28 Table 3.2.1 : 25 caractéristiques dynamiques extraites d'un point de la signature 43 Table 3.2.2 : Comparaison les bases ds2, ds3 et les bases de références dans la modalité Signature .46 Table 3.2.3 : Résultats des protocoles dans la modalité Empreinte 47 Table 3.2.4 : Comparaison ds2, ds3 avec MYCT dans la modalité Empreinte 48 Table 4.1.1 : Les bases distribuées 49 Table 4.1.2 : Bases distribuées avec des systèmes utilisés pour l'évaluation 49 Page I Introduction Contexte du stage L'authentification et la vérification d'identification sont appliquées dans beaucoup d'établissements tels que le gouvernement, l'entreprise, l'université, On peut montrer ici des exemples actuels À TELEMECOM & Management SudParis, chaque personne utilise son propre badge d'entrée pour payer ses repas la cantine C'est une application d'authentification d'identification Ou bien, dans un laboratoire, on équipe un système de sécurité basant sur l'empreinte Si quelqu'un veut accéder au laboratoire, son empreinte doit être validée C'est un exemple d'une application de vérification d'identification Actuellement, il y a des méthodes différentes pour l'authentification et la vérification d'identification : - Les méthodes basées sur ce qu'on possède : badge, carte d'identité, passeport - Les méthodes basées sur ce qu'on connait : mots de passe, code secret, - Les méthodes basées sur ce qu'on est disponible : iris, main, voix, signature La Biométrie est une méthode qui se base sur des caractéristiques physiques ou/et comportementales de l'homme telles que la main, l'iris, la marche, la signature, Au département EPH de l'université TELECOM & Management SudParis, un projet dans le domaine de la biométrie est en cours de développement, c'est le projet InterMedia (http://biosecure.it-sudparis.eu/) Mon stage fait une partie de ce projet Actuellement, le projet utilise la base de données BioSecure Les détails de cette base sont présentés dans la partie II.1 du rapport Brièvement, c'est une base des données des européennes réalisée par 11 universités Elle est grande et comprend beaucoup d'erreurs Il est nécessaire d'avoir une base de données sans erreur pour expérimentation ou application Donc, il vaut mieux générer une base sans erreur partir de la base BioSecure De plus, afin de mieux utiliser, la base générée doit satisfaire quelques critères selon le projet Objectif du stage Dans le stage, je suis en charge deux parties : distribuer la base de données BioSecure et appliquer des systèmes proposés par l'équipe pour évaluer les bases distribuées Page Concernant le terme « distribution » dans le cadre de mon stage, il est considéré comme une action de repartir des données des personnes dans la base BioSecure selon des critères définies pour générer une nouvelle base de données Après la distribution, les nouvelles bases de données sont complètes et elles sont prêtes donner aux autres départements ou aux personnes pour utiliser Dans l'équipe, je charge complètement la création des bases de données complètes Pour avoir une nouvelle base de données, je devrai remplir les actions suivantes : − Mettre en place d'un algorithme qui détecte automatiquement si les données originales ont des erreurs; − Sélectionner des données de façon adéquate (même nombre d'hommes et de femmes, même nombre de données par site d'acquisition) pour créer les bases BioSecure distribuer; − Renommer les données originales sélectionnées suivant le format proposé En effet, pour donner les bases de données complètes aux récepteurs, il faut donner le résultat de l'évaluation et le protocole utilisé Cela permet aux récepteurs de tester leurs systèmes en utilisant ces bases de données Concernant le terme « évaluation » et « protocole », quand on a une base de données complète, on retire quelques données partir de cette base de façon régulière La façon de retrait des données est dit « protocole » L'évaluation est le fait de tester si une base de données est facile reconnaître (en utilisant les données retirés par un protocole là) et la comparaison entre son résultat de reconnaissance avec le résultat de reconnaissance des autres bases de données (bases de références) Des outils pour l'évaluation sont disponibles et sont proposés par l'équipe (il ne faut pas rechercher ou développer), ce sont des systèmes de reconnaissance : OSIRIS [8] pour l'iris, NIST [3],[7] pour l'empreinte et signature_GET_INT [6] pour la signature Le rôle de mon stage dans cette partie est de suivre un protocole prédéfini pour retirer des données Ces données sont les entrées des systèmes de reconnaissance abordés Après, j'utilise ces systèmes pour extraire les scores des bases de données distribuées Ensuite, c'est une comparaison de résultat avec des bases de références Les bases de références sont ICE pour l'iris, MYCT-100 pour l'empreinte et MYCT-100, MYCT-300, BIOMET pour la signature Le protocole et mon résultat de l'évaluation sont nécessaires dans le travail de donner les bases de données complètes aux récepteurs Concernant la comparaison, on applique la valeur EER (Equal Error Rate) de la courbe DET (Detection Error Trade-off) Page 10 Figure 3.2.9 : La netteté entre des iris dans DS2 et dans ICE Rouge: iris ds2; vert: iris ICE Taux d'incertitude = 65.48 % Au début, on suppose que des iris dans ICE sont plus nets que ceux dans DS2, et on a le taux d'incertitude extérieure que 50% Cela implique que des iris dans DS2 sont plus nets que ceux dans ICE On trouve que si on compare les yeux entre deux bases, des images dans ICE sont plus nettes Par contre, si on compare les iris entre deux bases, des images dans IRIS-DS2 sont plus nettes C'est normal À partir du résultat du protocole 2, on devine que la base IRIS-DS2 est plus facile reconnaître dans la méthode d'évaluation basée sur le contenu Évaluation basée sur le contenu Je vais utiliser le système de référence OSIRIS pour l'évaluation de base d'iris Celle de signature sera extrait par le système de référence GET-INT Le système de référence NIST sera appliqué pour l'évaluation d'empreinte En général, il y a deux tests sur un protocole dans un système de référence Des données dans la session sont utilisées comme la référence, des données dans la session sont utilisées comme le test Comme l'entrée d'un test, on a besoin un fichier de protocole Chaque ligne du fichier de protocole comprend deux noms de fichier Le système de référence compare ces deux fichiers et extrait un score Comme la sortie d'un système de référence, un fichier de scores est extrait Les scores sont présentés sur une courbe DET Dans la réalité, on fait des tests suivants pour les modalités d'iris et d'empreinte : – Test de client : Pour chaque personne, on compare chaque image (2 images) dans la session avec chaque image (2 images) dans la session Il y a finalement comparaisons pour chaque personne Page 37 – Test d'imposteur : Pour chaque personne, on sélecte autres personnes de façon aléatoire : p2, p3, p4, p5 On compare la première image dans la session avec la première image dans la session de p2 et p3; la deuxième image dans la session avec la deuxième image dans la session de p4 et p5 Il y a finalement comparaisons pour chaque personne Il y a totalement n*4 comparaisons pour le test de client et n*4 comparaisons pour le test d'imposteur, dont n=210 si le protocole concerne DS2, n=240 si le protocole ne concerne que DS3 Dans la réalité, on fais des tests suivants pour la modalité de signatures : – Test de client : Pour chaque personne, on compare chaque signature de client (2 signatures) dans la session avec chaque signature de client (2 signatures) dans la session Il y a finalement comparaisons pour chaque personne – Test aléatoire (random forgeries) : Pour chaque personne, on sélecte autres personnes de façon aléatoire : p2, p3, p4, p5 On compare la première signature de client dans la session avec la première signature de client dans la session de p2 et p3; la deuxième signature de client dans la session avec la deuxième signature de client dans la session de p4 et p5 Il y a finalement comparaisons pour chaque personne – Test d'imitation (skilled forgeries) : Pour chaque personne, on compare chaque signature de client (2 signatures) dans la session avec chaque signature d'imposteur (2 signatures) dans la session Il y a finalement comparaisons pour chaque personne Il y a totalement n*4 comparaisons pour le test de client, n*4 comparaisons pour le test aléatoire et n*4 comparaisons pour le test d'imitation, dont n=210 si le protocole concerne DS2, n=240 si le protocole ne concerne que DS3 a Qualité de l'iris Le système OSIRIS est développé par l'équipe InterMédia du département EPH en 2007 [8],[9] - Mécanisme : Il y a trois phases dans le processus + Segmentation: Le module de segmentation est utilisé pour prendre la région d'iris (image d) Pour cela, on détecte, tout d'abord, la pupille dans l'image Elle est détectée grâce sa région ronde et noire Page 38 a image origine b cercles obtenus par transformation Hough c contours finaux d région d'iris Figure 3.3.1 : Exemple de résultat dans la phase segmentation du système OIRIS On détecte ensuite le contour de la pupille et celui extérieur de l'iris (image c) Pour réaliser cette opération, on suit deux étapes suivantes : • Utiliser la transformation Hough pour obtenir un cercle autour de la pupille et celui de l'iris (image b) • Raffiner ces deux cercles pour obtenir les contours finaux (image c) L'intérêt pour ce travail, c'est la différence sur la couleur entre des régions (pupille, iris, partie blanche d'yeux) Après la segmentation, on a une région d'iris (image d) Cette région est utilisée dans des parties suivantes + Normalisation Ce module s'agit de normaliser des régions d'iris en même taille fixée et en géométrie rectangulaire Page 39 Cette phase est nécessaire parce que des régions d'iris n'ont pas de même taille en réalité En outre, la comparaison entre deux rectangles est plus simple a Région d'iris origine b Région d'iris transformée en géométrie rectangulaire Figure 3.3.2 : Iris en géométrie ronde et en géométrie rectangulaire Pour la transformation d'une région circulaire une région rectangulaire, on divise le cercle en n parties par n lignes Chaque ligne touche deux cercles en deux points : A et B par exemple La transformation ces points au rectangle est simple Elle est montrée dans le schéma ci-dessous : Figure 3.3.3 : Transformer ligne AB de la région circulaire la ligne AB du rectangle + Décision des pertinences Tout d'abord, on applique un filtre Sobel sur la région rectangulaire d'iris Ensuite, on binarise l'image obtenue Finalement, une distance Hamming est extraite Plus la distance est petite, meilleur c'est - Protocole : Iris gauche – Iris droite Page 40 - Résultat : Figure 3.3.4 : Courbe DET sur la base Iris-ds2 Selon le résultat, le résultat de l'iris gauche (EER=6.43%) est meilleur que celui de l'iris droit (EER=8.15%) Néanmoins, la différence n'est pas grande Le résultat de l'iris gauche dans DS2 est un peu moins bon que celui dans ICE (EER=5.14%) [8] Cependant, le résultat de l'iris droit dans DS2 est beaucoup meilleur que celui dans ICE (EER=25%) [8] En général, la base IRIS-DS2 est plus facile reconnaître que la base ICE selon le système de références OSIRIS b Qualité du signature Le système Signature-GET_INT est développé par l'équipe InterMédia du département EPH Page 41 L'algorithme de vérification est le résultat du travail d'une thèse de LY Van Bao l'INT Ce système se base sur le modèle Markov caché (Hidden Markov Model) [4],[6] - Mécanisme : + Préparation de données : Il y a des structures différentes pour enregistrer les informations de signatures en ligne Dans cette phase, on convertit des autres structures une structure prédéfinie avec des informations nécessaires: coordonnées X et Y; la pression p du stylo; l’altitude β et l’azimut γ du stylo + Extraction de caractéristiques : 25 caractéristiques dynamiques seront extraites sur chaque point de la signature Voici les 25 caractéristiques extraites : No 1-2 Nom de caractéristique Coordonnées normalisées (x(t) − xg, y(t) − yg) relatives avec le centre de gravité (xg, yg) de la signature Vitesse en direction x Vitesse en direction y Vitesse absolue xy Ratio de la vitesse minimum sur celle maximum dans un carrée de 5x5 points Accélération en direction x Accélération en direction y Accélération absolue xy 10 Accélération tangentielle 11 Pression 12 Variation de la pression 13-14 Inclination du crayon mesurée par deux angles 15-16 Variation de deux angles d'inclinations du crayon 17 Angle α entre le vecteur de vitesse absolue et l'axe x 18 sin(α) 19 cos(α) 20 variation de l'angle α : φ 21 sin(φ) 22 cos(φ) 23 Radius de la courbure de la signature sur ce point 24 Ratio du longueur sur la largeur dans un carrée de 5x5 point Page 42 25 Ratio du longueur sur la largeur dans un carrée de 7x7 point Table 3.2.1 : 25 caractéristiques dynamiques extraites d'une point de la signature [5],[6] Ces 25 caractéristiques considèrent un vecteur de 25 éléments + Apprentissage : On utilise le modèle Markov caché HMM (hidden Markov model) avec la méthode de classification MGM (Gaussian mixture model) et l'algorithme d'apprentissage Baum-Welch + Décision des pertinences: Cette phase extrait des deux scores de similarité: • Score de vraisemblance (likelihood score): pour chaque signature de teste, on calcule la distance d entre sa log-vraisemblance et la log-vraisemblance moyenne de la base d'apprentissage Cette distance est ensuite passée une valeur de similarité s entre et par une fonction exponentielle • Score de Viterbi : on caractérise chaque signature par un vecteur de segmentation Pour chaque signature de test, on calcule la distance entre son vecteur de segmentation et tous les vecteurs de segmentation dans la base d'apprentissage On calcule ensuite la valeur moyenne d de toutes les distances obtenues Le score de similarité SV (Score de Viterbi) est extrait par une fonction exponentielle - Protocole : Il y a deux protocoles : • Protocole : Test aléatoire DS2 – Test d'imitation DS2 • Protocole : Test aléatoire DS3 – Test d'imitation DS3 Page 43 - Résultat : Figure 3.3.5 : Courbe DET sur la base Signature-DS2 Page 44 Figure 3.3.6 : Courbe DET sur la base Signature-DS3 Selon les résultats, on trouve que les résultats des tests aléatoires (random forgeries) sont toujours meilleurs que ceux des tests d'imitation (skilled forgeries) C'est logique car quand on voit une signature et on l'imite, deux signatures sont alors proches (le cas des tests d'imitation) Le cas de test d'imitation est alors difficile distinguer que le cas de tests aléatoires Le résultat du test de client de la base Signatures-DS2 (EER=5.10%) est bien meilleur que celui de la base Signatures-DS3 (EER=11.37%) Selon moi, c'est parce que la signature de DS3 est acquise par mobile Maintenant, on voit les résultats d'autres bases de données sur le test de client : Page 45 Base de données Imitation Aléatoire DS2 EER = 5.10% EER =4.27% DS3 EER = 11.37% EER =5.32% MCYT-100 EER = 3.42% EER = 0.94% MCYT-330 EER = 3.88% EER = 1.23% BIOMET EER = 4.94% EER = 4.10% Table 3.2.2 : Comparaison les bases ds2, ds3 et les bases de références dans la modalité Signature [6] On trouve que le résultat de DS2 est moins bon que MCYT-100 et MCYT-330 surtout avec le test aléatoire Le résultat de DS2 est un peu meilleur que BIOMET dans le test d'aléatoire mais est un peu moins bon que BIOMET dans le test d'imitation On peut dire que ces deux bases sont équivalentes On trouve aussi que la reconnaissance de la base DS3 est plus difficile dans tous les cas C'est raisonnable parce que c'est la base de mobile c Qualité de l'empreinte Le système utilisé dans mon stage est développé par NIST (National Institute of Standards and Technology) [3],[7] - Mécanisme : + Extraction : Le rôle de cette phase est d'extraire des informations des minuties Il passe des étapes suivante : • Générer la carte de la qualité d'image; • Binariser de l'image; • Détecter des minuties ridge ending bifurcation dot island (short ridge) lake (enclosure) hook (spur) bridge double bifurcation trifurcation opposed bifurcations ridge crossing opposed bifurcation / ridge ending Figure 3.3.7 : Les types de minuties [12] Page 46 • Enlever des minuties fausses telles que dot, island, lake, • Ajouter des informations des voisins pour chaque minutie; • Évaluer la qualité de chaque minutie + Score de pertinence : Cette phase compute le score de pertinence entre deux empreintes Pour une empreinte, on ne prend que les premières minuties qui ont les meilleures qualités La relativité de location et d'orientation entre des minuties sont utilisés pour la computation de score - Protocole : Il y a protocoles en détaille : Protocole : Optique DS2 – Optique DS2 Protocole : Thermique DS2 – Thermique DS2 Protocole : Optique DS2 – Thermique DS2 Protocole : Thermique DS3 – Thermique DS3 Protocole : Thermique DS2 – Thermique DS3 Protocole : Optique DS2 – Thermique DS3 - Résultat : Voici les EER des droits pour chaque protocole : Protocole 1: Protocole 2: Protocole 3: Protocole 4: Protocole 5: Protocole 6: Optique – Thermique – Optique – Optique Thermique Thermique Thermique – Thermique – Thermique DS2 DS2 DS2 DS3 DS3 DS3 Pouce gauche 4,88% 14,80% 28,30% 16,40% 23,50% 34,10% Index gauche 4,05% 8,69% 17,90% 15,60% 20,50% 24,40% Majeur gauche 4,94% 10,40% 19,90% 17,20% 23,70% 27,00% Pouce droit 4,84% 11,80% 26,50% 16,80% 21,00% 29,90% Index droit 3,33% 7,20% 17,30% 13,90% 16,90% 23,20% Majeur droit 4,23% 9,11% 20,90% 16,90% 18,60% 27,00% Doigt Thermique – Thermique DS2 Optique DS2 Table 3.2.3 : Résultats des protocoles dans la modalité Empreinte Selon le résultat : Page 47 - Les doigts droits ont toujours des meilleurs résultats (sauf la pouce dans le protocole 4) Parmi trois doigts, l'index a le meilleur résultat; le doigt le plus mal est le pouce; - On peut trouver que l'empreinte optique est meilleure que l'empreinte thermique Le résultat de l'empreinte thermique est moins bon parce qu'on déplace le doigt sur le capteur pour une acquisition; - Le résultat n'est également pas bon si on compare l'empreinte de DS2 (données de bureau) avec l'empreinte DS3 (données de mobile); - On reçoit un meilleur résultat si on compare deux empreintes d'un même type de capteur (soit Optique soit Thermique) plutôt que si on compare une empreinte optique (resp thermique) avec une empreinte thermique (resp optique); - Parmi protocoles, le protocole donne un résultat trop mal (> 20%) Par contre, le résultat du protocole donne un bon résultat (EER moyen = 4,62% pour le doigt gauche, EER moyen = 4,13% pour le doigt droit) Si on compare ces résultats avec les résultats de la base MYCT-100, on peut trouver que la qualité de la base Empreinte-DS2 est acceptable : Base de données Optique-Optique Thermique-Thermique MYCT-100 EER=3.18% EER=8.58% Empreinte DS2 EER=4,62% EER=10,33% Empreinte DS3 EER=16,13% Empreinte DS2-DS3 EER=20,70% Table 3.2.4 : Comparaison ds2, ds3 avec MYCT dans la modalité Empreinte [7] On voit que la différence entre le résultat de MYCT-100 avec l'empreinte DS2 n'est pas grande Par contre le résultat concernant DS3 est assez mal À titre de la conclusion finale, il vaut mieux utiliser le capteur optique et faire de l'authentification et/ou de la vérification d'identification sur l'index Page 48 IV Conclusion et perspective Pour le stage, j'ai complété tous les exigences Mes données retirées, mes protocoles, mes fichiers de protocoles et mes résultats d'évaluation sont utilisés par le département pour donner officiellement aux récepteurs Je présente ci-dessous le résumé de résultat sur deux parties du stage : Pour la distribution de la base de données BioSecure, un système de distribution est créé et bases de données ci-dessous sont bien distribuées Bases de données distribuées Nombres de personnes Main – DS2 210 personnes Iris – DS2 210 personnes Signature – DS2+DS3 210 DS2 + 240 DS3 (120 communs DS2/DS3) Empreinte – DS2+DS3 210 DS2 + 240 DS3 (120 communs DS2/DS3) Multimodale (6 modalités) – DS2 210 personnes Multimodale (4 modalités) – DS3 240 personnes Table 4.1.1 : Les bases distribuées Grâce aux méthodes proposées, toutes ces bases de données distribuées sont contrôlées sur des critères : - On a évité des erreurs telles que la duplication de fichiers, le fichier non-lisible - Des personnes distribuées sont tirées de façon aléatoire en assurant une équivalence de sexe et de données de universités; - Chaque personne possède un numéro d'identification unique Parmi bases distribuées, il y a bases de données sont évaluées par un système de références avec des protocoles précis De plus, un système de netteté est créé pour évaluer la netteté d'une base d'images La netteté de la base IRIS-DS2 est évaluée Bases de données distribuées Système de références Iris – DS2 OSIRIS Signature – DS2+DS3 GET_INT Empreinte – DS2+DS3 NIST Table 4.1.2 : Bases distribuées avec des systèmes utilisés pour l'évaluation Selon les résultats d'expérimentation, il y a des remarques principales : - La base DS2 donne toujours un meilleur résultat que la base DS3 Ce n'est pas surpris de ce Page 49 résultat parce que la base DS2 contient les données de bureau tandis que la base DS3 contient les données de mobile - En comparant le résultat de reconnaissance entre des bases distribuées avec des bases de références, ces trois bases distribuées sont moins bonnes que les autres Par contre, les bases IRISDS2, Signature-DS2 et Empreinte-DS2 ont des résultats acceptables - Concrètement sur des bases distribuées, l'iris gauche est meilleur que l'iris droit; l'empreinte optique est meilleure que l'empreinte thermique; la comparaison entre les empreintes optiques avec les empreintes thermiques donne un résultat mauvaise; l'index est le doigt le plus facile reconnaître - Des images de la base IRIS-DS2 sont un peu moins nettes que celles dans la base ICE par contre des régions d'iris dans la base IRIS-DS2 sont un peu plus nettes que celles dans la base ICE Pour le futur, il y a des travaux faire : - Améliorer des méthodes pour détecter des erreurs dans la partie Distribution telle que la détection si la personne dans un audio-vidéo ne parle pas, si une image est trop noire, trop claire, - Utiliser la méthode Fréquentielle Locale Pondérée [11] pour le système de netteté - Utiliser des autres caractéristiques pour évaluer la base d'images - Évaluer la base Main-DS2 - Il y a encore des bases de données non-distribuées cause de la base incomplète DS1 Page 50 Références [1] Christophe Saint-Jean Modèles de Markov Cachés L3i, 2003 [2] Andrew W Moore Clustering with Gaussian Mixtures Carnegie Mellon University, 2004 [3] Elham Tabassi, Charles L Wilson, Craig I Watson Fingerprint Image Quality, NIST, Aout 2004 [4] LY Van Bao Réalisation d'un Système de Vérification de Signature Manuscrite En-ligne Indépendant de la Plateforme d'Acquisition Institut National des Télécommunications, 2005 [5] DOAN Trung Tung Vérification de signature en-ligne IFI, Janvier 2006 [6] Aurélien Mayoue A biometric reference system for signature GET-INT, 2007 [7] Aurélien Mayoue A biometric reference system for fingerprint GET-INT, 2008 [8] PHAN Viet Anh A biometric reference system for iris GET-INT, 2009 [9] PHAN Viet Anh Développement d’un module de segmentation pour un système de reconnaissance biométrique basé sur l’iris IFI, 2008 [10] Kamal Nasrollahi, Thomas B Moeslund Face Quality Assessment System in Video Sequences Aalborg University, 2008 [11] Anouar MELLAKH Reconnaissance des visages en conditions dégradées, Institut National des Télécommunications Avril 2009 [12] Fingerprint Identification: http://www.policensw.com/info/fingerprints/finger08.html Page 51 [...]... la distribution, le protocole, l 'évaluation En outre, la courbe DET qui est utilisée dans la partie évaluation est expliquée – Distribution : Tout d'abord, c'est la présentation de la base de données BioSecure J'explique les exigences en détail de la distribution; des solutions et leurs résultats – Évaluation : Dans cette partie, j'explique les exigences en détail de l 'évaluation; des méthodes et leurs... résultat de l'authentification ou de la vérification d'identification sur la base A est meilleur que celui sur la base B C'est un inconvénient de cette méthode Néanmoins, la netteté de la base A nous permet de dire que la possibilité d'avoir un bon résultat de l'authentification ou /et de la vérification d'identification de la base A est plus grande que celle de la base B Dans mon stage, la netteté sera... vais enlever cette personne dans la distribution Au résumé, j'ai généré toutes les 6 nouvelles bases de données demandées Avec des stratégies présentées, mon programme résout tous les exigences des bases de données distribuées : sans erreur, équivalence de sexe, etc Page 29 III Évaluation 1 Méthode d 'évaluation Dans le cadre de mon stage, on s'intéresse à deux méthodes d 'évaluation : − Évaluation basée... résultats Je parle un peu de l'algorithme des systèmes utilisés et je présente mon système de netteté – Perspective et conclusion : C'est une conclusion de ce que je fais et des travaux au futur Page 12 II Distribution Comme la présentation précédente des actions à remplir dans la partie I, cette partie travail principalement sur le nom de fichiers et la copie des fichiers Les méthodes pour travailler sur... validation de fichiers, sélection des personnes et mis en forme des données Le rôle de la phase validation de fichiers est de détecter les données qui ont des erreurs dans la base source Grâce aux informations des erreurs, on peut enlever des personnes incomplètes (ayant des données d'erreur) et génère une liste de personnes sélectionnées C'est la fonction de l'étape Sélection dans la phase Distribution. .. vides, duplication et inverse de noms Cette partie montre la méthode de détecter les données d'erreur dans cette base Pour simplifier l'explication, on suppose que cette partie aborde la vérification de données ayant des erreurs d'une personne - Validation de données manquantes : La réalisation de cette fonction est assez simple Il s'agit à vérifier l'existence d'un ficher Comme le nom de fichiers est... multimodales dans 11 universités en Europe Cette collection a été conçue pour inclure des données pour le visage, la voix, l'iris, l'empreinte, la main et la signature Cette collection est divisée en 3 sous-bases de données DS1, DS2 et DS3 − DS1 : C'est la base de données sur Internet L'objectif principal de DS1 est de collecter des données sur Internet dans des situations non-contrôlées Les donateurs... Les scores de client sont extraits à partir de la comparaison entre des données du même client Par contre, les scores d'imposteur sont extraits à partir de la comparaison entre les données d'un imposteur avec les données d'un client Pour l 'évaluation des données en effet, j'utilise non seulement des systèmes de références disponibles mais encore un système de moi-même, le système de netteté Ce système... caractéristique de netteté de l'image Avant de la présentation de méthode, j'aborde d'abord le rôle du système Le système a pour but de vérifier si les images dans les bases d'images distribuées sont plus ou moins nettes que celles d'autres bases connues À la suite, je vais présenter la méthode, la performance du système et le résultat nécessaire Page 30 a Netteté d'une image La netteté, c'est la clarté des détails... partir des particularités de base de données BioSecure Avant de voir les exigences en détail, on va examiner la base de données BioSecure 1 Base de données a Acquisition L'« Association BioSecure » (BioSecure Foundation) est un résultat du projet européen « BioSecure réseau d'excellence » (Biometrics for Secure Authentication) Pendant 3 ans (2004-2007), ce projet a construit une base de données biométriques

Ngày đăng: 27/10/2016, 22:55

Mục lục

  • III. Évaluation

    • 1. Méthode d'évaluation

    • 2. Évaluation basée sur l'observation

      • a. Netteté d'une image

      • 3. Évaluation basée sur le contenu

        • a. Qualité de l'iris

        • c. Qualité de l'empreinte

Tài liệu cùng người dùng

  • Đang cập nhật ...

Tài liệu liên quan