INTRODUCTION
O BJECTIF
Ce stage se situe dans la problématique de la segmentation d’images et de chercher une méthode simple mais efficace pour l’image de documents graphiques afin de séparer clairement le fond et l’objet Autrement dit, il s’agit de trouver une méthode de binarisation qui peut déterminer automatiquement et efficacement le seuil pour chaque point de l’image.
S TRUCTURE DU RAPPORT
Mon rapport se compose de cinq parties Quelques mots d’introduction de mon stage sont dans la première partie La deuxième est consacrée à une présentation générale des techniques de segmentation d’images surtout la binarisation Des brèves descriptions de quelques méthodes y sont aussi présentées La troisième partie est dédiée à la description détaillée de la méthode proposée L’analyse de résultats et les mesures d’évaluations sont abordées dans la quatrième Ce rapport se termine par la conclusion (cinquième partie).
L IEU DE STAGE
Le LORIA (Laboratoire Lorraine de Recherche en Informatique et ses Applications) est une Unité Mixte de Recherche - UMR7503 – constituée par plusieurs établissements : Centre National de Recherche Scientifique (CNRS), Institut National Polytechnique de Lorraine (INPL), Institut National de Recherche en Informatique et en Automatique (INRIA), Université Henri Poincaré Nancy 1 (UPH), Université Nancy 2
Mon stage, qui a duré six mois, s’est déroulé au sein de l’équipe QGAR (Querying Graphics through Analysis and Recognition) de l’INRIA lorraine sous la responsabilité de Salvatore Tabbone (Maợtre de confộrences à l’universitộ de Nancy 2) C’est une ộquipe spécialisée dans l’analyse de documents à forte composante graphique Les objectifs sont l’indexation et la recherche d’informations dans le contexte de la documentation technique
Le site http://www.loria.fr vous fournira des informations plus détaillées sur le laboratoire La présentation plus détaillée de l’équipe se trouve dans les sites webs http://www.loria.fr/equipes/qgar et http://www.inria.fr/recherche/equipes/qgar.en.html
ETAT DE L’ART
M ETHODES DE SEUILLAGE GLOBAL
Définition : On définit l’histogramme des niveaux de gris d’une image comme étant la fonction h : [ 0 L − 1 ] → Ν qui associe à chaque niveau de gris entre 0 et L-1 la quantité de pixels de l’image qui possèdent cette intensité lumineuse [Braviano,1995].
L’histogramme d’une image peut être représenté par un vecteur dont chaque composante est un nombre de pixels de niveau de gris correspondant à son indice Il permet de fournir effectivement une estimation de la densité de probabilité des valeurs des pixels sur l’image observée
1 , 0 , ) (i =n i = L− h i , ó n i le nombre de pixels de niveau de gris i dans l’image
Le principe de la méthode de Otsu est de trouver un seuil optimal qui maximise la différence entre deux classes Il est effectué en se basant sur la variance Le seuil optimal s optimal est celui qui maximise une des fonctions suivantes :
Où δ T 2 ,δ B T ,δ W 2 sont successivement la variance totale de l’image, la variance inter- classes (between-class variance) et la variance intra-classes (within-class variance)
: la moyenne totale de tous les points dans l’image
• p i : la probabilité d’occurrence du niveau de gris i dans l’image
• P fond (t),P objet (t): la somme des probabilités d’occurrence des niveaux de gris des pixels du fond et celle de l’objet en prenant le seuil t
• m fond ,m objet : la moyenne des pixels appartenant au fond et celle des pixels de l’objet
N M i h image l dans pixels de nombre i gris de niveau le dont pixels de nombre p i
• δ 2 fond (t),δ objet 2 (t) : la variance de la classe fond et la variance de la class objet
• [min, max] est l’intervalle dynamique de l’image
Cette méthode est simple à implanter et donne de bons résultats en général
Cependant, dans les cas des images de documents, les résultats ne sont pas nets, deux différents objets peuvent être confondus
2.2.2 Méthodes se basant sur l’entropie
Selon la théorie de l’information, l’entropie est une mesure de quantité d’information d’un système Soit un ensemble fini S ={ s 1 ,s 2 , ,s k } d’événements indépendants, et pi la probabilité d’occurrence de chaque élément si, l’entropie est définie par :
Plus l’entropie est grande, plus on obtient des informations Plusieurs méthodes de segmentation d’images l’ont utilisée dans le but de maximiser la qualité de l’information obtenue du résultat final [Pun,1980] [Kapur,1985] [Cheng,1998b] [Mello,2000]
Si l’ensemble S est considéré comme un ensemble flou avec le degré d’appartenance correspondant à chaque ộlộment dans S à S (s i ),i=1,k , appelộ la fonction d’appartenance (membership function), l’entropie floue de l’ensemble S est définie par :
Le principe de ces méthodes est de chercher une partition de l’image dont l’entropie est la plus grande De nombreuses méthodes sont proposées en se basant sur des variations de l’entropie d’une partition On va voir ci-dessous trois exemples dans le cas de binarisation fond t i i fond objet t i i objet
( fond t i i fond fond objet t i i objet objet
Le seuil est choisi tel que la fonction H =H objet +H fond est maximale óp i est la probabilité d’occurrence du niveau de gris i dans l’image
Dans ce cas, la distribution de probabilité de l’objet P t et la distribution de probabilité du fond (1 - P t ) sont prises en compte en déterminant l’entropie de la partition
Méthode de Cheng et Chen [Cheng,1998b]:
Différant de ces deux méthodes précédentes, l’entropie d’une partition est calculée en prenant des probabilités d’occurrence de sous-ensembles (objet et fond) La théorie de sous-ensembles flous est comptée de plus dans son calcul Alors, dans ce cas, l’entropie d’une partition est :
/ (i et à objet fond est toujours la fonction d’appartenance du niveau de gris i à la classe objet / fond
Méthode de Mello et Lins [Mello,2000] :
C’est une méthode qui se spécialise pour l’image de documents historiques
Supposons que t soit la couleur apparaissant le plus souvent dans l’image Prenons cette valeur comme le seuil initial de l’image, les valeurs d’entropie de l’objet Hb et du fond Hw sont déterminées comme dans [Pun,1980] Un pixel i dont la couleur est couleur(i) sera classé comme le fond si :
(i mw Hw mb Hb couleur ≥ + s inon il sera classé comme l’objet
Les deux facteurs mw et mb sont déterminés par expériences en évaluant l’entropie de l’image entière et dédiés particulièrement à un type d’images observé
Décrite dans [Gadi,2000], cette méthode est comme une représentante de l’approche locale adaptative Elle est basée sur un principe hiérarchique pour résoudre le problème d’éclairage non uniforme Sous l’hypothèse que l’image ne contient que deux classes : l’objet et le fond, le principe de cette méthode est de récupérer le plus possible des pixels à la classe objet
La méthode se compose de 2 étapes :
- Construction de l’arbre quaternaire : l’image originale est divisée consécutivement en quatre sous images de taille de plus en plus petite en évaluant le critère d’homogénéité Chaque sous-image est associée à un nœud de l’arbre quaternaire Si une sous-image satisfait le critère d’homogénéité, la division n’est plus nécessaire, elle devient un nœud terminal dans l’arbre Au cas contraire, cette sous-image est décomposée en quatre Le processus continue jusqu’à ce que tous les nœuds dans l’arbre soient des terminaux
La condition pour que le critère d’homogénéité soit satisfait sur une région, c’est qu’il n’y a plus de ô diffộrence significative ằ entre cette rộgion et ses quatre filles Cette condition est vérifiée par le test statistique de Fisher α
>F k f : sous-image est non homogène f : l’estimation du critère d’homogénéité sur la sous-image évaluée (voir partie 3.3 pour plus détaillé) α
F : la valeur prédéfinie de la distribution F avec 3 et 4(k-1) degrés de liberté
- Calcul des degrés d’appartenance : Les degrés d’appartenance de tous les pixels sont calculés à chaque niveau de l’arbre ó la moyenne et l’écart type sont déterminés dans la région contenant pixel (x, y) au niveau k
- Décision : Après avoir fait des différentes évaluations de l’appartenance de chaque pixel à une des deux classes, la fonction d’agrégation t-conorme de Zadeh est affectée à la détermination de la mesure d’appartenance finale à la classe objet
( x y moyenne ecart type moyenne moyenne ecart type ) k S y x , ) ( , ); _ , , _
( = − + à et le degré d’appartenance final au fond :
- Défuzzification : il s’agit de mettre au point des pixels à deux classes
Cette méthode est proposée pour résoudre le problème d’éclairage non uniforme sur l’image Mais elle ne fonctionne bien que sur l’image dont le fond est vraiment uniforme Au cas contraire, des pixels du fond sont mis facilement à l’objet
Un autre problème réside au problème de découpage En fait, le test statistique est très sensible aux bruits, alors l’image est trop découpée De plus, la fonction max utilisée dans la partie de défuzzification accentue les bruits En conséquence, les faux pixels sont classés facilement comme les pixels de l’objet L’affectation de cette méthode à l’image jaures_partie1.tif (figure 3.2) donne un résultat inattendu (figure 2.3) a) Le découpage b) L’image binarisée, avec h = max(…)
Figure 2.3 : Un problème de la méthode de Gadi et Benslimane
S EGMENTATION HIERARCHIQUE FLOUE
L’histogramme de l’image de document contient deux modes : une forte correspondant au fond et une faible correspondant à l’objet Cependant ce qui est important est celui de l’objet Une méthode de seuillage global peut éliminer facilement la mode du fond mais cela ne veut pas dire qu’on a bien obtenu l’objet qui se compose de lignes et aussi de caractères La frontière entre l’objet et le fond n’est pas toujours claire surtout dans les zones ó les caractères et les lignes sont proches Donc, obtenir l’objet dont les composants sont clairs et nets est le but final de notre méthode
La méthode proposée peut être considérée comme la combinaison de l’approche globale et l’approche locale Elle se compose de deux étapes Utilisant la technique de seuillage global, la première étape a pour but d’éliminer la plupart du fond qui domine l’image observée et de garder la partie importante contenant l’objet La deuxième étape consiste à raffiner le résultat de l’étape précédente pour rendre l’objet plus net Une variation de la méthode de binarisation locale adaptative [Gadi,2000] est appliquée dans cette étape
Figure 3.1 : Principe de la méthode proposée
Dans les parties ci-dessous, on va prendre ces notations suivantes : g(x, y) : le niveau de gris du pixel (x, y) de l’image originale I g I (x, y) : le niveau de gris du pixel (x, y) de l’image intermédiaire I I g F (x, y) : le niveau de gris du pixel (x, y) du résultat final I F
Une méthode de seuillage global nous aide à chercher un seuil pour toute l’image
En principe, n’importe quelle méthode de seuillage globale peut être appliquée à cette étape Toutefois, une méthode simple est toujours une bonne sélection à priori Alors, dans ce cas, nous avons choisi la méthode de Otsu comme une solution possible
METHODE PROPOSEE
E TAPE DE SEUILLAGE GLOBAL
Une méthode de seuillage global nous aide à chercher un seuil pour toute l’image
En principe, n’importe quelle méthode de seuillage globale peut être appliquée à cette étape Toutefois, une méthode simple est toujours une bonne sélection à priori Alors, dans ce cas, nous avons choisi la méthode de Otsu comme une solution possible
Au lieu de mettre le résultat de cette étape comme une image noire et blanche, on va garder la valeur originale des pixels appartenant à l’objet pour obtenir une image intermédiaire Si g I (x, y) est l’intensité lumineuse du pixel (x, y) de cette image, alors :
Figure 3.2 : Image originale – jaures_patie1.tif Figure 3.3 : Image intermédiaire de jaures_patie1.tif
Figure 3.4 : Image binaire de jaures_patie1.tif après la première étape
E TAPE DE RAFFINAGE
L'image obtenue après la première étape a bien gardé la partie qui nous intéresse
Cependant, l'objet n'est pas vraiment net, les parties différentes de l'objet ne sont pas clairement distinguées car une minorité des pixels qui aurait dû appartenir au fond sont
,( attribués à l'objet En général, ce sont des pixels aux frontières objet-fond C'est pourquoi on a besoin d'un autre traitement pour éliminer ces pixels Dans cette deuxième étape, l'opération n'est effectuée que sur l'objet obtenu à partir de la première étape, c.à.d, on manipule sur l'image intermédiaire I I mais sans compter les pixels du fond (ceux dont le niveau de gris est égal à 255)
Si l'on essaie de chercher un seuil à effectuer globalement sur I I , il risque de perdre des parties de l'objet dont les intensités sont moins fortes que ceux des autres Cela vient du fait que l’illumination n’est pas le forcément constante sur l’image C'est la raison pour laquelle on doit chercher une méthode de seuillage adaptatif qui permet de tenir compte des informations locales pour diminuer l'effet ci-dessus Cette méthode est basée sur le principe de l'arbre quaternaire et la théorie de sous-ensembles flous L'image à traiter sera décomposée de plus en plus en sous-images de taille petite en évaluant le critère d'homogénéité Une image dont ce critère n’est pas satisfait sera divisée en 4 sous- images
Le processus appliqué, afin de re-affecter un pixel qui est déjà classé comme l’objet dans I I à la classe fond ou à la classe objet, se compose de 3 sous-étapes :
♦ Calcul de degrés d'appartenance de chaque pixel à chaque niveau de l'arbre
♦ Décision de degré final d'un pixel pour le classer au fond ou à l'objet
Soit O Ri l’ensemble des pixels portant la valeur originale d’une région rectangle (une sous-image) quelconque R i de l’image intermédiaireI I On peut considérer R i comme un nœud de l’arbre et R 0 comme la racineI I
Parce qu’on ne s’intéresse que sur l’ensembleO Ri , à partir de maintenant tous les notions et les formules concernant la région R i ne sont appliquées que sur les pixels dansO Ri
La hiérarchie associée à l'image I I de taille M x N est construite en divisant successivement cette image en sous-images de taille de plus en plus petite
- L'image I I est pris e comme la racine de l'arbre qu'on va construire Elle correspondant à un noeud au niveau 0
- Les noeuds au niveau k sont créés par des noeuds décomposables au niveau k-
1 Les noeuds décomposables sont ceux qui ne satisfont pas le critère d'homogénéité Un noeud décomposable au niveau k est divisé en 4 noeuds au
O = ( , )∈ ( , )≠255, ⊂ niveau k + 1 Ceux qui ne sont pas décomposables représentent des noeuds terminaux (des feuilles) de l'arbre Ce processus est répété jusqu'à ce qu’il n'y a plus de noeuds décomposables
Quand le processus de subdivision s'arrête, l'image originale est représentée par des noeuds terminaux
Figure 3.5 : Structure tridimensionnelle de l’arbre quaternaire
Dans ce processus, on doit vérifier s'il ne faut pas continuer à découper une image en sous-images Mais, comment détermine- t- on le critère d’arrêt ? Evidemment, on ne décompose jamais une région R i dont tous les pixels sont déjà classés comme le fond, c’est à dire que l’ensemble O Ri est vide La région R i sera représentée par un nœud terminal Pour d’autres régions, la décision dépend de la relation entre la région et ses quatre filles correspondantes En principe, on ne découpe plus une région s'il n'y a pas de différence significative entre la moyenne de la région mère et celles de ses quatre filles, ainsi que entre leurs variances Alors, on doit prédéfinir un seuil e afin de définir la ô diffộrence significative ằ Pour ộviter le problốme de choisir le seuil, un test statistique de Fisher est utilisé pour vérifier le critère d'arrêt [Gadi,2000] Ce test nous permet de comparer les moyennes et les écarts-types entre la mère R i et les quatre filles R i1 , R i2 , R i3 ,
R i4 o ó σ σ j , j∈{1,2,3,4} et sont successivement les écarts-types calculés sur les données de 4 filles et de la mère m et j m j , ∈{1,2,3,4} sont les moyennes correspondantes m et j m j j , , {1,2,3,4} σ, σ ∈ sont calculées surO Rij , j∈{1,2,3,4} et O Ri
H e alternativ Hypothèse m m m m m et H null Hypothèse j j σ σ σ σ σ σ σ
Supposons que les quatre sous-images filles de l'image mère sont indépendantes et présentent des distributions des niveaux de gris normales et identiques, le test d'homogénéité f de Fisher a une distribution F α p;n -p -1 ó :
K : le nombre de pixels dans chaque sous image
X jk : le niveau de gris du k ème pixel de la sous-image j p : le degré de liberté, dans ce cas, p = 3 = le nombre de sous ensemble – 1 n : le nombre total de pixels de l'image mère = 4K α : le niveau de confiance (confidence level)
Les valeurs de la distribution F sont indiquées dans un tableau de Fisher La décision d'homogénéité d'une région dépend de la comparaison f et F α p; n -p -1 α
≤F p n p f : L’hypothốse H 0 est ô vrai ằ La rộgion est homogốne α
>F p n p f : L’hypothốse H 1 est ô vrai ằ La rộgion est hộtộrogốne
Il est bien évident qu’un test statistique n’apporte de signification que si la taille de l’échantillon est suffisamment grande Il faut donc déterminer la taille minimale de l’échantillon pour appliquer le test Il nous aide à évite le problème de sur-découpage
En bref, la décomposition d’une région R i s’arrête si une des deux conditions suivantes est satisfaite Ri deviendra un nœud terminal
1)Card(O Ri )≤taille min ou bien
) (O Ri Card : la cardinalité de l’ensemble O Ri taille min : la taille minimale de l’échantillon pour l’application du test statistique La taille requise de l’échantillon dépend de quelques paramètres du test tel que le degré de confiance α et même la variance de l’échantillon [NIST,ehandbook] A l’implémentation, nous avons choisi 40 comme une valeur expérimentale detaille min
Figure 3.6 : Quadrillage de l’image intermédiaire
3.3.2 Calcul des degrés d'appartenance de chaque pixel À chaque nœud de l’arbre, si la région correspondante n’est pas homogène, la théorie de l’ensemble flou sera appliquée pour la classification de ses données en deux sous-ensembles flous F (fond) & O (objet) en évaluant leurs degrés d’appartenance Cela signifie que ces degrộs d’appartenance à la classe objet à O k (x,y) et à la classe fond
) , (x y k à F de chaque pixel sont calculộs pour chaque niveau k de l’arbre
Etant une fonction la plus souvent utilisée, la fonction S de Zadeh est prise à calculer le degrộ d’appartenance à la classe fond d’un pixel Supposons que à F (x,y)et
(x y à O sont successivement le degrộ d’appartenance à la classe objet et celui à la classe fond du pixel (x, y) ayant le niveau de grisg I (x,y), ils sont déterminés comme suivant :
Pour les estimations des paramètres a, b, c, on prend des propriétés locales des régions (des noeuds) Sur l’intervalle dynamique de la région, l’intervalle (moyenne – écart-type, moyenne + écart-type) est considéré comme la bande d’incertitude Alors, le
≤ à à degré d'appartenance est absolu dans toute la bande des niveaux de gris sauf l’intervalle floue Et les degrés d'appartenance d'un pixel (x, y) au niveau k sont déterminés par : ó m et s sont la moyenne et l'écart-type calculés sur une sous-image correspondante à un noeud au niveau k
3.3.3 Décision de degré d'appartenance final
Après avoir calculé les degrés d'appartenance d'un pixel à tous les niveaux, il faut prendre une décision : parmi eux quelle est la valeur qui va décider la classification du pixel ?
O à à à à On s’intéresse tout d’abord au degré d’appartenance du pixel à l’objet
Comme les données traitées dans cette étape contiennent essentiellement des pixels de l’objet, on doit assurer la qualité de l’objet obtenu à la fin Si la fonction min (t- norme de Zadeh) est choisie, la valeur la plus faible de tous les niveaux est rendue comme la mesure d’appartenance du pixel à l’objet Dans ce cas, Il risque de perdre une partie de l’objet ó l’intensité du niveau de gris est forte (plus claire) Tandis que si l’on utilise la fonction max (t-conorme de Zadeh), les pixels de l’objet sont bien conservés et à la fois les faux pixels à la frontière objet-fond sont effacés La raison, c’est que on a laissé, pour chaque pixel, la possibilité maximale d’appartenance à l’objet comme le degré d’appartenance final Par conséquent, la fonction t-conorme de Zadeh qui rend la valeur la plus grande est choisie pour déterminer le degré d’appartenance final à l’objet :
O à à à à à à à = Et le degré d’appartenance d’un pixel au fond sera :
Alors, un pixel (x, y) va appartenir à la classe fond F si à F f (x,y) >à O f (x,y)et sinon il est mis comme un pixel de l'objet
Figure 3.7 : Résultat final de la méthode proposée sur l’image jaures_partie1.tif
EVALUAT IONS
M ESURES DE PERFORMANCE
Pour examiner l’efficacité de la méthode proposée, on l’évalue sur deux critères qualitatifs des résultats obtenus Ce sont deux critères de base dans la segmentation des images Le premier, c’est le contraste entre des classes Le deuxième critère qu’il faut tenir compte est l’homogénéité
Dans cette partie, on va prendre ces deux critères pour faire une comparaison entre la méthode proposée avec quelques autres méthodes existant tel que la méthode de Otsu, la méthode de Gadi et Benslimane, la méthode de Trier et Taxt [Trier,1995a] Les deux mesures de performance proposées par Levine & Nazif sont utilisées pour quantifier le contraste et l’homogénéité [Tabbone,2003]:
Où : m F : la moyenne des valeurs des pixels appartenant au fond m O : la moyenne des valeurs des pixels appartenant à l’objet
R i m : la moyenne des valeurs des pixels dans la région R i
#Régions : le nombre de régions dans l’image sans compter le fond
La valeur de C I indique le contraste entre les deux classes fond et objet Plus la valeur de C I est grande, plus le contraste entre deux régions est élevé
4.2.2 Mesure d’homogénéité ó : Card (objet) est le nombre des pixels dans la classe objet
La valeur H I indique le degré d’homogénéité dans les régions Dans ce cas, c’est l’homogénéité des pixels dans la classe objet On constate que plus cette valeur est petite, plus la région est homogène
Dans le tableau 4.1 ci-dessous, les mesures de contraste et les mesures d’homogénéité des résultats correspondant à la méthode proposée et à ceux de Otsu, de Gadi & Benslimane, et de Trier & Taxt sont indiquées :
Mesure de contraste Mesure d'homogénéité
Méthode de Otsu Méthode de Benslimane Méthode de Trier & Taxt Méthode proposée Méthode de Otsu Méthode de Benslimane Méthode de Trier & Taxt Méthode proposée
Jaures.tif 96.5696 92.8239 108.962 23.4738 29.9696 14.7079 hachures.tif 145.458 135.453 150.088 29.1459 30.6727 14.7696 plan2.tif 130.191 124.822 118.183 149.366 39.1952 44.264 48.8416 25.5288
Ce tableau a montré des avantages de notre méthode
A travers des tests, notre méthode a démontré son efficacité dans la binarisation des images de documents graphiques C’est une bonne solution pour résoudre le problème de classification des pixels dans la zone floue à la frontière fond-objet
De plus, la complexité temporelle de la méthode proposée n’est pas trop grande On ne peut pas faire des comparaisons avec les méthodes de seuillage global comme Otsu
=σ mais il y a une grande différence du temps d’exécution entre la méthode proposée et la méthode de Gadi et Benslimane [Gadi,2000] Les chiffres montrés dans le tableau 4.2 sont les temps d’exécution de deux méthodes quand on les exécute sur la même machine avec les mêmes images
Tailles d’images Méthode proposée Méthode de Gadi et Benslimane
Tableau 4.2 : Comparaison du temps d’exécution
Néanmoins, le résultat final de cette méthode dépend du résultat de l’étape de seuillage global Donc, si la première étape ne peut pas conserver l’objet entier dans l’image, aucune opération ne peut donner un bon résultat final
Observant l’image originale et le résultat dans la figure 4.8a), on trouve que le fond de l’image originale est vraiment uniforme et le résultat de la première étape est déjà parfait La binarisation de cette image n’a pas besoin de la deuxième étape Alors, le résultat final est moins bien que le résultat intermédiaire Il risque de perdre des points de l’objet Malheureusement, on n’avait pas encore trouvé une solution pour vérifier la nécessité de cette étape En principe, la vérification d’homogénéité de l’ensemble O Ri au sens que la variance est faible peut être une solution Cependant, le test d’homogénéité de faỗon automatique pour une rộgion de l’image est encore un problốme ouvert.
A VANTAGES ET INCONVENIENTS
Pendant la durée de stage de six mois, j’ai fait des études sur les techniques de segmentation d’images surtout la technique de binarisation et essayé de proposer, sous des suggestions de mon responsable, une méthode de binarisation pour l’image de documents graphiques Après l’échec de quelques tests, une méthode de binarisation coopérative en deux étapes a été proposée Les résultats expérimentaux obtenus sur des images de documents graphiques en terme de séparation l’objet et le fond sont prometteurs Nous avons, également, fait des études comparatives de notre méthode avec d’autres comme celle de Otsu, la méthode se basant sur l’entropie floue de Cheng et Chen et la méthode de Gadi et Benslimane De plus, la complexité de la méthode n’est pas grande en temps de calcul par comparaison à la méthode de Gadi sur laquelle la méthode proposée se base
Néanmoins, lorsque l’image issue de la première étape est trop homogène (i.e variance très faible) le résultat issu de la deuxième se dégrade car la condition d’arrêt liée à la construction de l’arbre quaternaire n’est plus vérifiée Dans ce cas, pour chaque sous région Ri, il faut examiner l’homogénéité des pixels dans O Ri avant de vérifier la condition de découpage pour éviter une fausse binarisation Un seuil prédéfini pour la variance est peut-être une solution pour le test d’homogénéité d’un ensemble, cependant le problème réside dans le choix du seuil On recherchera donc une méthode qui peut définir automatiquement le seuil pour chaque ensemble ou bien vérifier automatique son homogénéité
Actuellement, en terme de complexité temporelle, l’essentiel des temps de calculs se focalisent sur les calculs des moyennes et des écart-types de tous les nœuds dans l’arbre Alors si on peut augmenter la performance des ces calculs, le temps d’exécution aura des diminutions considérables Le choix d’une structure de données plus appropriée sera une de nos premières priorités en terme de perspective de recherche.
CONCLUSIONS
Pendant la durée de stage de six mois, j’ai fait des études sur les techniques de segmentation d’images surtout la technique de binarisation et essayé de proposer, sous des suggestions de mon responsable, une méthode de binarisation pour l’image de documents graphiques Après l’échec de quelques tests, une méthode de binarisation coopérative en deux étapes a été proposée Les résultats expérimentaux obtenus sur des images de documents graphiques en terme de séparation l’objet et le fond sont prometteurs Nous avons, également, fait des études comparatives de notre méthode avec d’autres comme celle de Otsu, la méthode se basant sur l’entropie floue de Cheng et Chen et la méthode de Gadi et Benslimane De plus, la complexité de la méthode n’est pas grande en temps de calcul par comparaison à la méthode de Gadi sur laquelle la méthode proposée se base
Néanmoins, lorsque l’image issue de la première étape est trop homogène (i.e variance très faible) le résultat issu de la deuxième se dégrade car la condition d’arrêt liée à la construction de l’arbre quaternaire n’est plus vérifiée Dans ce cas, pour chaque sous région Ri, il faut examiner l’homogénéité des pixels dans O Ri avant de vérifier la condition de découpage pour éviter une fausse binarisation Un seuil prédéfini pour la variance est peut-être une solution pour le test d’homogénéité d’un ensemble, cependant le problème réside dans le choix du seuil On recherchera donc une méthode qui peut définir automatiquement le seuil pour chaque ensemble ou bien vérifier automatique son homogénéité
Actuellement, en terme de complexité temporelle, l’essentiel des temps de calculs se focalisent sur les calculs des moyennes et des écart-types de tous les nœuds dans l’arbre Alors si on peut augmenter la performance des ces calculs, le temps d’exécution aura des diminutions considérables Le choix d’une structure de données plus appropriée sera une de nos premières priorités en terme de perspective de recherche
[Braviano,1995] Gilson Braviano ô Logique floue en segmentation d'images: seuillage par entropie et structures pyramidales irrộguliốres ằ, thốse de doctorat à l'Université Joseph Fourrier-Grenoble 1 Octobre 1995
[Cheng,1998a] H.D Cheng, C H Chen, H.H Chiu and Huijuan Xu ô Fuzzy Homogeneity
Approach to Multilevel Thresholding ằ IEEE Transactions on Image
[Cheng,1998b] H.D Cheng, Jim-Rong Chen and Jiguang Li ô Threshold selection based on fuzzy c-partition entropy approach ằ Pattern Recognition, vol 31, No 7, pp
[Cheng,1999a] H D Cheng, Yen-Hung Chen, Ying Sun ô A novel fuzzy entropy approach to image enhancement and thresholding ằ Signal Processing 75, pp.277-301,
[Cheng,1999b] H.D Cheng, Yen-Hung Chen ô Fuzzy partition of two -dimensional histogram and its application to thresholding ằ Pattern Recognition, vol.32, pp.825-843,
[Cheriet,1998] M Cheriet, J N Said, C.Y Suen ô A recursive thresholding technique for image segmentation ằ IEEE Transactions on Image Processing, vol 7, n.6,
[Gadi, 2000] T.Gadi, R Benslimane ô Fuzzy hierarchical segmentation ằ Traitement du signal, vol.7, n°1, 2000
[Horaud, 1993] R Horaud, O Monga Vision par ordinateur – outils fondamentaux Editions
[Kapur, 1985] J.N Kapur, P.K Sahoo, A.K.C Wong ô A New method for gray-level picture threshold using the entropy of the histogram ằ.Graphical Models and Image
[Kunt, 1993] Murat Kunt, Goesta Grandlund, Michel Kocher ô Traitement numộrique des images ằ, vol.2, 1993
[Mello, 2000] Carlos A.B Mello and Rafael D Lins ô Image segmentation of historical documents ằ http://www.upe.poli.br/dsc/recpad/site_hist/visual2000.pdf
[Otsu, 1978] N.Otsu ô A threshold selection method from grey-level histograms ằ IEEE
Trans Syst Man Cybern., vol.SMC-8, 1978
[Pun, 1980] T.Pun ô A New method for gray-level picture threshold using the entropy of the histogram ằ Signal processing, vol.2, n°3, 1980.