Développement d’un module de segmentation pour un système de reconnaissance biométrique basé sur l’iris

68 148 0
Développement d’un module de segmentation pour un système de reconnaissance biométrique basé sur l’iris

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

Thông tin tài liệu

Institut de la Francophonie pour l’Informatique Institut National des Télécommunications Mémoire de fin d’étude Développement d’un module de segmentation pour un système de reconnaissance biométrique basé sur l’iris Réalisé par : PHAN Viet Anh Responsable du stage : Bernadette Dorizzi Sonia Salicetti Ce stage a été réalisé au département Électronique et Physique de l’Institut National des Télécommunications ÉVRY, France, Novembre 2008 Table des matières Remerciements Résumé Abstract Liste des figures Liste des tableaux Introduction 10 I - Contexte du stage 10 II - Objectif du stage 10 III - Plan du document 11 Système de reconnaissance biométrique 12 I - Introduction 12 II - Architecture d’un système de reconnaissance biométrique 12 III - Évaluation d’un système de reconnaissance biométrique 13 IV - Système de référence 16 Techniques utilisées 18 I - Transformée de Hough 18 Détection de droite 18 Détection de cercle 21 II - Contour actif (Snake contour en anglais) 23 Principe 23 L’énergie interne 24 L’énergie externe 25 Segmentation 26 I - Obstacles 26 Les bases de données 26 Les difficultés 27 II - Solutions proposées 27 III - Localisation de la pupille 30 PHAN Viet Anh – Promotion 12 Page Algorithme 30 Expériences 33 IV - Segmentation de la pupille 34 Recherche du contour initial 34 Application du contour actif 41 V - Segmentation de l’iris 46 Recherche du contour initial 46 Application du contour actif 53 VI - Génération du masque 56 Recherche du cercle le plus proche du contour final 56 Génération du masque 60 Évaluations 62 I - Préparation des évaluations 62 II - La catégorie « facile » 63 III - La catégorie « difficile » 65 Conclusion et perspectives 67 Références 68 PHAN Viet Anh – Promotion 12 Page Remerciements Je commence par adresser mes remerciements Madame Bernadette DORIZZI, directrice du département EPH (Électronique et Physique) de l’Institut National des Télécommunications (INT), mon responsable de stage pour m’avoir accueilli dans cet équipe et de m’avoir aidé durant ce stage Je voudrais aussi remercier Madame Sonia GARCIA-SALICETTI pour les conseils précieux qu’elles m’a fournis pendant les mois de stage Je tiens également remercier Emine, Aurélien, Anouar, Walid et les autres membres de l’équipe INTERMEDIA du département EPH pour leur aide et leur gentillesse pendant mon séjour en France Enfin, je voudrais exprimer mon entière reconnaissance envers ma famille, mes amis et mes professeurs de l’IFI pour leurs soutiens, leurs aides et leurs encouragements PHAN Viet Anh – Promotion 12 Page Résumé Ce document décrit mon travail durant mon stage de fin d’étude de Master d’informatique au sein du département Électronique et Physique de l’Institut National des Télécommunications (INT) Le but principal de mon stage est de développer un nouveau module de segmentation pour un système de reconnaissance biométrique basé sur l’iris J’ai utilisé la transformée de Hough pour rechercher le contour initial de l’iris et de la pupille après avoir localisé la région de la pupille Puis, j’ai appliqué une recherche du contour actif en me servant des contours initiaux de l’étape précédente J’ai fait plusieurs tests dans chacune des étapes afin d'analyser les erreurs et de proposer des améliorations Pour finir, j’ai ajouté une petite phase de génération de masque ayant pour but l’adaptation avec les autres modules du système d’OSIRIS Enfin, j’ai utilisé les modules de normalisation et de classification du système OSIRIS pour évaluer la performance de ce nouveau module de segmentation Ainsi, pour ce faire j'ai tracé les courbes DET pour chacun des différents types de segmentation savoir celui de référence, d'Hough seul, d'Hough avec contour actif et celui du système d’OSIRIS On constate que la combinaison de la transformée de Hough avec le contour actif nous donne de meilleurs résultats que la segmentation utilisant la transformée de Hough seule De plus, les résultats de cette nouvelle segmentation sont toujours meilleurs que ceux du système d’OSIRS PHAN Viet Anh – Promotion 12 Page Abstract This document describes my work during a training course of my study Master computer in the Electronics and Physics department of the National Institute of Telecommunications (INT) My mission is to develop a new segmentation module for biometric recognition system based on iris I used the Hough transform to find the initial contour of the iris and the pupil after locating the pupil's region Then I apply a phase of seeking the active contour using the initials contours of the previous step I have already done several testing in each phase to analyze errors and propose improvements I added a small phase to generate one mask designed to adapt it with other modules of the system OSIRIS In the end, I used the normalization module and the classification module of the OSIRIS system to evaluate the performance of this new module Base on the curve DET which represent performances of the OSIRIS system using different segmentation results (reference, Hough only, Hough with the active contour and the result of segmentation module of the system OSIRIS), we can see that combining the Hough transform with the active contour has given us the best result than the segmentation using the Hough transform only Furthermore, the result of this new segmentation module is always better than the latter of the system Osiris PHAN Viet Anh – Promotion 12 Page Liste des figures Figure : Architecture d'un système de reconnaissance biométrique 13 Figure 2: Taux de vraisemblance des utilisateurs légitimes et des imposteurs dans un système de vérification biométrique 14 Figure 3: La courbe ROC 15 Figure 4: La courbe DET 15 Figure 5: Les modules différents du système d'OSIRIS 16 Figure 6: Transformation d'une ligne est un point dans l'espace de paramètre 18 Figure 7: Chercher la ligne qui passe par deux points en utilisant la transformée de Hough 19 Figure 8: Présentation de ligne en système polaire 21 Figure 9: Un cercle transformé de l'espace (x,y) l'espace de paramètre avec le rayon fixé 22 Figure 10: La transformée de Hough pour un cercle dans l'espace de paramètre 22 Figure 11: L'énergie interne 24 Figure 12: Illustration de la force élastique et la force de courbure 25 Figure 13: Illustration de l'effet de l'énergie externe 25 Figure 14: Une image dans la base de données CASIA v1.0 26 Figure 15: Des exemples d'images de la base de données ICE 2005 27 Figure 16: La région du cil est plus grande que celle-là de la pupille 32 Figure 17: Quelques images binaires de la zone de la pupille 35 Figure 18: La pupille est bien centrée dans la zoneP 38 Figure 19: Le résultat du contour actif en utilisant les paramètres optimaux 45 Figure 20: Le niveau de gris de l'iris est très varié 46 Figure 21: Le contour des cils est plus fort que celui-ci de l'iris 49 Figure 22: Quelques types d'erreur du premier test 50 Figure 23: Les contraintes rajoutées pour améliorer le résultat 50 Figure 24: Quelques types d'erreur dans le deuxième test 53 Figure 25: Les images avant et après application des prétraitements 54 Figure 26: Une image normalisée d'iris 56 Figure 27: Exemple d’entrée et résultat du module de normalisation 56 PHAN Viet Anh – Promotion 12 Page Figure 28: Les images du contour final après suppression des parties supérieures et inférieures 58 Figure 29: Génération d'une image normalisée de l'iris 61 Figure 30: Génération du masque 61 Figure 31: Exemple d'images de la classe facile (a) et la classe difficile (b) 62 Figure 32: La courbe DET de la segmentation de référence (rouge), Hough seule (vert), Hough avec contour actif (bleu) et Osiris (magenta) (Catégorie « facile ») 63 Figure 33: La distribution des scores intra-classe et inter-classe pour chaque type de segmentation (Catégorie « facile ») 64 Figure 34: La courbe DET de la segmentation de référence (rouge), Hough seul et (vert), Hough avec contour actif (bleu) et Osiris (magenta) (Catégorie « difficile ») 65 Figure 35: La distribution de score intra-classe et inter-classe pour chaque type de segmentation (Catégorie « difficile ») 66 PHAN Viet Anh – Promotion 12 Page Liste des tableaux Tableau 1: Accumulateur 19 Tableau 2: Accumulation après calcul pour le point A(2,4) 20 Tableau 3: Accumulation après calcul pour le point A(2,4) et le point B(1,1) 20 Tableau 4: Exemple du résultat de localisation de la pupille 31 Tableau 5: Une partie du tableau de comparaison entre le cercle obtenu avec le cercle référence 36 Tableau 6: Le résultat de la comparaison entre le cercle obtenu et le cercle de référence après ajout de la condition 39 Tableau 7: Les cas d'erreur de la phase de recherche du contour initial de la pupille 41 Tableau 8: Les résultats de prétraitements avant application du contour actif pour la pupille 43 Tableau 9: Effet du paramètre alpha 44 Tableau 10: Effet du paramètre bêta 44 Tableau 11: Effet du paramètre gamma 45 Tableau 12: Tableau de comparaison du premier test pour la phase de recherche du contour initial de l'iris 48 Tableau 13: Tableau de comparaison de la segmentation de référence pour le deuxième test 51 Tableau 14: Quelques erreurs qui sont corrigées grâce aux nouvelles conditions 52 Tableau 15: Les résultats des deux tests pour trouver le contour final 55 Tableau 16: Des exemples de résultat de la première méthode (la première ligne) et ceux correspondant la deuxième méthode (la deuxième ligne) 57 Tableau 17: En comparaison avec les autres méthodes, le résultat de la dernière méthode est toujours meilleur 59 Tableau 18: Le résultat de la dernière méthode peut améliorer le résultat du contour actif 60 PHAN Viet Anh – Promotion 12 Page Introduction I - Contexte du stage GET – le groupe des Écoles des Télécommunications sont plusieurs grandes écoles d'ingénieurs et de management Il possède des centres de recherche notamment Paris (ENST Paris – École National Supérieure des Télécommunications Paris), Brest (ENST Bretagne) et Évry (INT – Institut National des Télécommunications) L'équipe INTERMEDIA (Interface pour le multimédia) est une équipe du département EPH (Électronique et Physique) de l'INT qui fait beaucoup de recherche dans le domaine de la biométrie Elle travaille sur l'élaboration de système de reconnaissance biométrique basé sur la signature, l'iris, le visage, et etc OSIRIS est un système de reconnaissance basé sur la texture de l'iris développé par cette équipe Il (OSIRIS) a été développé et optimisé en 2007 pour la base CASIA v1 C'est un système modulaire inspiré par les travaux de Daugman Il y a deux grands modules dans ce système : le module de segmentation et le module de classification Le module de segmentation utilise la transformée de Hough pour détecter le contour de la pupille et le contour de l'iris Il est inspiré du module de segmentation développé par Masek Ce module n'est pas portable, c'est-à-dire qu'on ne peut pas l'utiliser avec les autres bases de données, car il a été optimisé sur CASIA v1 Le module de classification applique le filtre de Gabor sur une image normalisée et ensuite calcule le score de similarité entre deux images en utilisant la distance de Hamming II - Objectif du stage Dans le cadre du projet MBGC (Multiple Biometric Grand Challenge) organisé par le NIST (National Institute of Standards and Technology), l'équipe INTERMEDIA a eu besoin d'améliorer le système OSIRIS Le but de mon stage a donc été de construire un autre module de segmentation en C++ sous Linux en utilisant les bibliothèques d’open-source (par exemple l’OpenCV) et une bibliothèque développé par cette équipe Ce module devra utiliser la transformée de Hough pour chercher le contour initial, puis appliquer le contour actif sur ce contour initial pour obtenir un contour plus net Ce module sera exécuté sur la base de données ICE_2005 qui contient divers types et variétés de bruits tels que le flou, l'occlusion, le reflet, la rotation etc PHAN Viet Anh – Promotion 12 Page 10 Avant prétraitement Après prétraitement 239219.tiff 239224.tiff 239226.tiff Figure 25: Les images avant et après application des prétraitements 2.2 Expériences Après plusieurs tests, j'ai choisi alpha égale 5.0, bêta égale 10.0 et gamma égale 1.0 Cette combinaison a donné le meilleur résultat pour toute la base de données Le contour initial pour l'iris est plus loin du contour optimal que celui-ci de la pupille Donc, la valeur d’alpha et bêta dans ce cas est plus grande Dans la phase de recherche du contour initial concernant l'iris, on a cherché deux droites qui représentent les contours des paupières Et dans la dernière étape de cette phase, on a fusionné ces droites avec le cercle trouvé par la transformée de Hough pour sortir le contour initial de l'iris A présent, voyons l'effet de cet élément sur deux tests Dans le premier test, je n'ai utilisé que le cercle trouvé par la transformée de Hough comme contour initial pour la phase du contour actif Dans le deuxième test, j'ai utilisé le contour fusionné comme contour initial J'ai utilisé les mêmes paramètres alpha, bêta et gamma dans les deux tests Voici les résultats obtenus: PHAN Viet Anh – Promotion 12 Page 54 Test Contour initial Test Contour final Contour initial Contour final Tableau 15: Les résultats des deux tests pour trouver le contour final À partir de ces résultats, on peut voir que en rajoutant les contours de la paupière, le contour final est le plus net Dans le deuxième test, on a obtenu moins d'erreur que le premier test PHAN Viet Anh – Promotion 12 Page 55 VI - Génération du masque La phase classification de la plupart des systèmes de reconnaissance des personnes par l'iris aujourd'hui utilise une image en forme de «barre» de l'iris qui s'appelle image d'iris normalisé J'ai utilisé le système MASEK et OSIRIS pour valider le résultat du module de segmentation Le module de normalisation du système OSIRIS qui génère l'image normalisée de l'iris a besoin deux cercles qui présentent le contour de la pupille et le contour de l'iris comme entrées Pourtant les sorties du module segmentation que j'ai développé ne sont par les cercles J'ai utilisé le contour actif pour chercher le contour plus net Donc, les contours finaux ne sont par des cercles mais n'importe quelles formes On ne peut pas utilise ces résultats comme entrées du module de normalisation du système OSIRIS C'est pour quoi on a besoin d'une dernière étape Le premier but de cette étape est de chercher deux cercles les plus proches des contours finaux A la fin de cette étape, on va générer un masque qui indique les r régions inutiles dans l'image d'iris normalisé Figure 26: Une image normalisée d'iris Recherche du cercle le plus proche du contour final La sortie du module de normalisation est une image normalisée d'iris comme ci-dessus Les images normalisées d'iris sont de mêmes tailles malgré que les contours en entrée soient grands ou petits Alors, si le cercle en entrée du module est plus éloigné du contour final, la région de l'iris dans image normalisée est plus petite et il y'a plus d'erreurs Au contraire, plus le cercle en entrée est plus petit que le contour final, alors plus il y'a de région d'iris perdue Figure 27: Exemple d’entrée et résultat du module de normalisation Dans le tableau (16), je montre différents exemples de cercle d'entrée et la sortie correspondant du module de normalisation du système OSIRIS La première ligne de ce PHAN Viet Anh – Promotion 12 Page 56 tableau contient les images de l'iris avec les cercles d'entrée du module de normalisation La deuxième ligne contient les images normalisées d'iris correspondantes On peut voir que dans le premier cas, le cercle d'entrée est beaucoup plus éloigné du contour final La région de l'iris dans image normalisée d'iris dans ce cas est faible On gagne beaucoup d'erreur Dans les exemples suivants, plus le cercle est proche du contour final, plus la région de l'iris est grande Le contour final de la pupille et de l'iris est le résultat du contour actif Donc, il peut être de n'importe quelle forme On ne garde que alors la liste des coordonnées des points de ce contour J'ai essayé de plusieurs manières de chercher le cercle le plus proche de ce contour (que j'ai nommé le cercle CM) Premièrement, j'ai utilisé le centre gravité des points de ce contour comme le centre du cercle CM et le rayon de ce cercle est la distance maximale entre ce centre avec les points dans le contour final Cette manière est très simple et le résultat est très mauvais Le problème c'est que les points dans la liste obtenue du contour actif ne sont pas distribuộs de faỗon rộguliốre Dans la plupart des cas, cette méthode n'est pas la bonne Pour résoudre le problème de la première méthode, j'ai recherché le centre du rectangle englobant la région de l'iris par rapport au de centre de gravité des points du contour Cette manière a beaucoup plus amélioré le résultat précédent Pourtant, comme je l'ai déjà expliqué, presque toutes les régions de l'iris dans cette base de données sont couvertes par les paupières Alors la région visible de l'iris n'est pas un disque complet et le centre du rectangle englobant cette région n'est pas le centre du cercle le plus proche Tableau 16: Des exemples de résultat de la première méthode (la première ligne) et ceux correspondant la deuxième méthode (la deuxième ligne) PHAN Viet Anh – Promotion 12 Page 57 Dans le tableau ci-dessus, je montre quelques résultats des deux premières méthodes On peut voir que le résultat de la deuxième méthode est toujours meilleur que celui-ci de première méthode Pourtant, dans le premier exemple, le résultat de la deuxième méthode a beaucoup moins d'erreur car le centre de la bte globale est proche le centre de du contour de l'iris Dans les deux derniers exemples, la région visible de l'iris n'est pas un disque complet Donc, le centre de la bte global n'est pas le bon choix dans ces cas D'une autre (troisième) manière, j'ai utilisé les contours initiaux (les cercles) légèrement modifiés J'ai maintenu le centre de ces cercles et recalculé les rayons Le rayon est défini par la distance maximale entre le centre avec les points dans du contour Les cercles initiaux pour le contour de l'iris et de la pupille qu'on a trouvé dans les étapes précédentes est plus proches du contour final qui a été trouvé en utilisant le contour actif Pourtant, parfois une partie du contour final est en dehors du contour initial ou bien le contour final est plus faible C'est pour quoi il faut recalculer le rayon pour en tirer un cercle qui entoure le contour final Le résultat de cette manière est plus acceptable, on a moins d'erreurs que les deux précédentes méthodes Cependant, l'erreur du contour initial deviendra l'erreur de cette étape car on utilise le centre du contour initial Le résultat de cette manière dépend beaucoup du résultat des étapes précédentes Au final, j'ai essayé une autre méthode L'idée c'est qu'on va utiliser la transformé de Hough pour chercher un cercle le plus proche du contour final Le problème c'est que parfois une partie du contour final n'est ni en haute et ni en bas du contour de l'iris Dans les cas où l'iris est couvert par les paupières, ces parties présentent le contour des paupières Cependant, les parties gauche et droite du contour final sont toujours les contours de l'iris Donc, on va supprimer les parties haute et basse du contour final avant appliquer la transformé de Hough pour diminuer l'erreur Figure 28: Les images du contour final après suppression des parties supérieures et inférieures PHAN Viet Anh – Promotion 12 Page 58 Voici l'algorithme en question : − Étape : Dessiner le contour final sur une image noir − Étape : Supprimer les pixels dans un quadrant en haut et en bas de ce contour − Étape : Appliquer la transformé de Hough pour trouver les cercles dans cette image − Étape : Trouver le cercle ayant le nombre de vote le plus grand 1ère 2ème 3ème 4ème Tableau 17: En comparaison avec les autres méthodes, le résultat de la dernière méthode est toujours meilleur PHAN Viet Anh – Promotion 12 Page 59 Les cercles trouvés de cette manière sont toujours meilleurs que les autres De plus, dans un certain nombre de cas, ce résultat peut améliorer le contour final Par les exemples cidessous, on peut voir que le cercle trouvé a coupé la région qui présente le blanc de l'œil : Tableau 18: Le résultat de la dernière méthode peut améliorer le résultat du contour actif Génération du masque Après avoir obtenu les cercles les plus proches des contours finaux, j'ai utilisé le module de normalisation du système OSIRIS pour générer les images normalisées d'iris et les masques correspondants en se servant de ces cercles Pour créer les images normalisées d'iris, le module de normalisation du système OSIRIS a besoin de l'image originale et des deux cercles qui représentent les contours de la pupille et de l'iris Dans notre cas, on va remplacer ces cercles par les cercles les plus proches des contours finaux trouvés PHAN Viet Anh – Promotion 12 Page 60 Module de normalisation Figure 29: Génération d'une image normalisée de l'iris On fait la même chose pour le masque Cette fois-ci l'image d'entrée du module de normalisation n'est pas l'image originale mais l'image de «masque» Dans cette image on a une seule région blanche entre les deux contours finaux qui présentent la région visible de l'iris, sur un fond noir On utilise les mêmes cercles comme pour générer les images normalisées d'iris Module de normalisation Figure 30: Génération du masque Ces images vont être utilisées comme les entrées du module de classification PHAN Viet Anh – Promotion 12 Page 61 Évaluations I - Préparation des évaluations Dans cette partie, je présenterais les résultats d'évaluation du module de segmentation que j'ai développé Cette évaluation est exécutée sur la base de données ICE_2005 en utilisant le module de normalisation et module de classification du système d'Osiris J'ai divisé cette base de données en deux sous bases de données : − Facile : qui contient 2350 images (79,58%) Ces images sont faciles segmenter (nettes, peu de reflets, pas d’ombres, peu d’occlusions par des cils ou des paupières) Le résultat de segmentation de ce module sur cette classe est bon − Difficile : Les images dans cette classe sont difficiles segmenter (floues, avec occlusions, avec reflets, avec ombres, etc.) Notre segmentation sur ces images contient encore des erreurs Il y a 603 images (20,42%) pour cette classe (a) (b) Figure 31: Exemple d'images de la classe facile (a) et la classe difficile (b) Pour chaque classe, j'ai fait une comparaison des performances entre la segmentation de référence, la segmentation du système Osiris, la segmentation du nouveau module sans utiliser le contour actif (Hough seulement) et celle avec le contour actif J'ai utilisé le module de normalisation du système d'Osiris pour créer les images normalisées de chaque type de PHAN Viet Anh – Promotion 12 Page 62 segmentation Puis, j'ai utilisé le module de classification du même système pour évaluer la performance II - La catégorie « facile » Premièrement, j'ai fait l'évaluation sur la sous base de données «facile» La figure cidessous nous montre que dans cette catégorie, la performance de la segmentation de Hough avec contour actif est proche de la performance de la segmentation de référence Elle est aussi toujours meilleur que la segmentation utilisant seulement la transformé de Hough Figure 32: La courbe DET de la segmentation de référence (rouge), Hough seule (vert), Hough avec contour actif (bleu) et Osiris (magenta) (Catégorie « facile ») La segmentation du système Osiris contient beaucoup d'erreur car le module de segmentation de ce système est optimisé pour la base de données CASIA v1 Les images dans cette base sont très faciles segmenter Donc, la performance de ce module est très faible Taux d'erreur EER dans cette classe est 1.63% pour la segmentation de référence, 2.81% pour celle de Hough avec contour actif, 3.6% pour celle de Hough seulement et 27.85% pour la segmentation du système d'Osiris Voici la distribution des scores inter-classe et des scores intra-classe de chaque type de segmentation : PHAN Viet Anh – Promotion 12 Page 63 Référence Osiris Hough plus contour actif Hough seulement Figure 33: La distribution des scores intra-classe et inter-classe pour chaque type de segmentation (Catégorie « facile ») Comme on peut le voir respectivement sur les figures ci-dessus, le nombre de comparaison intra-classe qui est tombée dans la distribution inter-classe n'est pas très différent entre la segmentation de référence et la segmentation avec Hough, Hough plus contour actif, mais diffère très largement de celui de la segmentation du système Osiris Pourtant, ce nombre pour la segmentation de référence (1186 comparaisons) est inférieur celui-ci de la segmentation avec Hough plus contour actif (1446 comparaisons) et celui-ci de Hough seulement (1823 comparaisons) Pour la segmentation du système Osiris, ce nombre est très grand (5426 comparaisons) PHAN Viet Anh – Promotion 12 Page 64 III - La catégorie « difficile » Concernant la catégorie « difficile », la courbe de performance de la segmentation de Hough seule et celle de Hough plus contour actif ne sont pas très différentes Pourtant, la segmentation de Hough plus contour actif est toujours meilleure Selon la figure ci-dessous, la segmentation de référence de cette catégorie est mieux que les autres Le taux d'erreur EER de chaque type de segmentation est de 4.36% pour la segmentation référence, 13.26% pour la segmentation de Hough avec le contour actif, 13.88% pour celle de Hough seule et 27.93% pour le système d'Osiris Figure 34: La courbe DET de la segmentation de référence (rouge), Hough seul et (vert), Hough avec contour actif (bleu) et Osiris (magenta) (Catégorie « difficile ») Grâce aux figures de distribution, on peut voir qu'il y a plus de comparaisons intraclasse qui sont tombés dans la distribution inter-classe pour la segmentation de Hough plus contour actif et la segmentation de Hough seulement Il y a presque tous les comparaisons de intra-classe pour la segmentation du système d'Osiris est tombé dans la distribution de interclasse PHAN Viet Anh – Promotion 12 Page 65 Référence Osiris Hough plus contour actif Hough seulement Figure 35: La distribution de score intra-classe et inter-classe pour chaque type de segmentation (Catégorie « difficile ») Après analyse de ces résultats, on peut voir que la segmentation de référence est toujours la meilleure C'est normal car elle est corrigée la main Donc elle est très bien placée Et puis, en ajoutant une phase de contour actif, on a amélioré d'un certain pourcentage le résultat de segmentation par la transformée de Hough seule Le module de segmentation du système Osiris a été optimisé pour la base de données CASIA v1, une base de données très facile segmenter Alors, lorsqu'on applique son module de segmentation une autre base de données, il y'a beaucoup d'erreur PHAN Viet Anh – Promotion 12 Page 66 Conclusion et perspectives Dans le cadre de mon stage, j'ai développé un nouveau module de segmentation J'ai ajouté un sous module très important qui nous permet d'améliorer le résultat de segmentation C'est un sous module de localisation de la pupille Grâce ce sous module, on concentre tous les différents traitements a effectués sur la région de la pupille et l'iris dans une région définit et augmente ainsi la vitesse d'exécution Une autre amélioration est l'addition de la phase de recherche du contour actif Le contour que on a trouvé en utilisant la transformée de Hough contient encore des erreurs Le contour de la pupille trouvé par la transformée de Hough est très bien car la région de la pupille est presque homogène Par contre, la région de l'iris contient une texture non homogène, son niveau de gris est donc très varié Il est très alors difficile de trouver les bons contours pour toutes les images de la base en utilisant seulement la transformée de Hough En ajoutant la phase de recherche du contour actif, on en a corrigé beaucoup Cette phase permet de chercher un contour plus net et plus proche du le contour intéressé Dans un but d’adaptation du système, j'ai développé un sous-module qui génère un masque pour chaque image Ce masque représente la région dans laquelle on veut extraire les caractéristiques J'ai fait plusieurs expériences pour chaque phase dans ce module À partir de ces expériences, j'ai rencontré un problème chaque phase et puis proposé une ou des solutions pour les résoudre Dans le chapitre V, on peut constater que ce module marche très bien sur la plupart des cas Pourtant, dans les cas difficiles, on gagne encore plus d'erreurs À l'avenir, on pourra appliquer un modèle statistique de type GMM (Gaussian Mixture Model) [7] pour améliorer les résultats de la phase de localisation de la pupille PHAN Viet Anh – Promotion 12 Page 67 Références [1] Florent PERRONNIN, Jean-Luc DUGELAY, « Introduction la Biométrie Authentification des individus par Traitement Audio-Vidéo », Traitement du Signal, volume 19, 2002 [2] Emine Krichen, « Reconnaissance des personnes par l'iris en mode dégradé », Thèse, 2007 [3] « MATLAB Source Code for a Biometric Identification System based on Iris Patterns », The University of Western Australia, 2003 [4] Kyewook Lee, « Application of Hough Transform », University of Massachusetts, 2006 [5] Simon Just Kjeldgaard Pedersen, « Circular Hough Transform », Aalborg University, Novembre 2007 [6] Chenyan Xu, Jerry L Prince, « Snakes, Shapes, and Gradient Vector Flow », IEEE Transactions on image processing, vol 7, No March 1998 [7] D.A Reynolds and R.C Rose, « Robust Text-Independent Speaker Identification Using Gaussian Mixture Speaker Models », IEEE Transactions on Speech and Audio Processing, Vol 3, No 1, Jan 1995 PHAN Viet Anh – Promotion 12 Page 68

Ngày đăng: 27/10/2016, 22:59

Từ khóa liên quan

Tài liệu cùng người dùng

Tài liệu liên quan