1. Trang chủ
  2. » Luận Văn - Báo Cáo

Classification d’images rétiniennes par apprentissage profond pour l’aide au diagnostic en ophtalmologie

75 31 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 75
Dung lượng 5,69 MB

Nội dung

UNIVERSITÉ NATIONALE DU VIETNAM, HANOÏ INSTITUT FRANCOPHONE INTERNATIONAL( IFI ) Abdourahmane SOUMANA HAMADOU Classification d’images rétiniennes par apprentissage profond pour l’aide au diagnostic en ophtalmologie Phân loại hình ảnh võng mạc cách học sâu để hỗ trợ chẩn đoán nhãn khoa Spécialité : Systèmes Intelligents et Multimédia Code : 8480201.02 MÉMOIRE DE FIN D’ÉTUDES DU MASTER INFORMATIQUE HANOI : 2020 UNIVERSITÉ NATIONALE DU VIETNAM, HANOÏ INSTITUT FRANCOPHONE INTERNATIONAL(IFI) Abdourahmane SOUMANA HAMADOU Classification d’images rétiniennes par apprentissage profond pour l’aide au diagnostic en ophtalmologie Phân loại hình ảnh võng mạc cách học sâu để hỗ trợ chẩn đoán nhãn khoa Spécialité : Systèmes Intelligents et Multimédia Code : 8480201.02 MÉMOIRE DE FIN D’ÉTUDES DU MASTER INFORMATIQUE Encadrant : Nom : Pr Eric Petit HANOI : 2020 ATTESTATION SUR L’HONNEUR J’atteste sur l’honneur que ce mémoire a été réalisé par moi-même et que les données et les résultats qui y sont présentés sont exacts et n’ont jamais été publiés ailleurs La source des informations citées dans ce mémoire a été bien précisée LỜI CAM ĐOAN Tôi cam đoan cơng trình nghiên cứu riêng tơi Các số liệu, kết nêu Luận văn trung thực chưa công bố cơng trình khác Các thơng tin trích dẫn Luận văn rõ nguồn gốc Signature de l’étudiant Abdourahmane SOUMANA HAMADOU Remerciements Je remercie d’abord Dieu le TOUT PUISSANT de m’avoir accordé des parents qui m’ont montré le chemin de l’école et grâce qui je suis présentement La réalisation de ce mémoire a été possible grâce au concours de plusieurs personnes qui je voudrais témoigner toute ma gratitude J’aimerais tout d’abord remercier mes encadrants pédagogique Dr.Yasmina Chenoune du ESME en qualité de Professeur adjoint, PhD, Responsable du programme en technologies de l’information pour la santé au sein du Laboratoire de recherche ESME Et Pr.Eric Petit De L’UPEC En qualité de Professeur et responsable de Master au sein de l’Université de Paris Est de Creteil( UPEC ) Malgré que la majeure partie de stage a été menée distance, ils étaient toujours disponible et ouverts me répondre chaque fois que je rencontrais un problème ou si j’avais une question sur mes recherches Et également mes remerciements aux doctorants Madame Kawther Taibouni et M.MOUNIR LAHLOUH pour leurs disponibilités chaque fois que j’ai des questions concernant mon travail Je voudrais remercier notre responsable de Master Dr Ho Tuong Vinh ainsi que tous les personnels pédagogiques et administratifs de l’Institut Francophone International, Université National de Vietnam Hanoi Je leur suis reconnaissant de tout cœur pour avoir assuré et amélioré la qualité de notre formation Enfin, je tiens exprimer ma profonde gratitude ma famille et mes amis qui m’ont apporté un soutien indéfectible et des encouragements constants tout au long de mes années de Master Abdourahmane SOUMANA HAMADOU Résumé Dans ce projet, Je classe les images Optical coherence tomography ( OCT ) en quatre classes ( La Néo-vascularisation( CNV ), L’oedème maculaire( DME ),le Drusen( responsable de néovaisseaux ) et les images normales ) En divisant les images en patches et utilisant de réseaux de neurones convolutifs ( CNN ) En utilisant le jeu de données[1], Également j’ai effectué une comparaison de : — Différentes générations de patchs — Différentes mesures de chevauchement en fonction de taille de patches — Utilisations des différentes architectures ( pré-entrnées et non ) Dans ce travail, J’ai expérimenté trois architectures de CNN pré-entrnées ( Resnet 34 et VGG 16 ) nommées respectivement (modèle 01, modèle 02 et modèle 03) , les deux premières sont entrnées sur les images patchées et la dernière est entrnée sur les images entières Ces trois architectures nous permettrons de faire une comparaison des performances de nos modèles afin de situer le plus performant dans l’apprentissage sur les images entières qu’en l’apprentissage sur les patches Mes résultats expérimentaux montrent que la taille optimale du patch et la foulée du patch pour cette tâche de classification sont de 256 × 256 et 128 pixels respectivement En suite les différents modèles ( Resnet 34 & VGG 16 ) ont atteint une précision de ( 96% ) & ( 95% ) sur les données de test en classifiant les images patchées quatre classes et une précision de ( 92% ) sur la classification des images entières avec une architecture ( VGG 16 ) Les resultats et la comparaison sont mentionnés dans la partie solution et expérimentations Mots clés : Contexte d’image, Reconnaissance d’objets, Détection d’objets, Apprentissage en profondeur, Apprentissage par transfert, Réseaux de neurones convolutifs, Découpage des images en imagette, Extraction des caractéristiques et Classification des images https ://data.mendeley.com/datasets/rscbjbr9sj/3 Abstract In this project, I classify Optical coherence tomography (OCT) images into four classes (Neo-vascularization (CNV), Macular edema (DME), Drusen (responsible for neovessels) and normal images) By dividing the images into patches and using convolutional neural networks (CNN) Using the dataset [1], Also I performed a comparison of : — Different generations of patches — Different measures of overlap depending on the size of the patches — Uses of different architectures (pre-trained and not) In this work, I have experimented with three pre-trained CNN architectures (Resnet 34 and VGG 16) named respectively (model 01, model 02, model 03), the first two are trained on patched frames and the last is trained on full frames These three architectures will allow us to compare the performance of our models in order to locate the most efficient in learning on whole images than in learning on patches My experimental results show that the optimal patch size and patch stride for this classification task are 256 × 256 and 128 pixels respectively Subsequently, the different models (Resnet 34 VGG 16) achieved an accuracy of (96 %) (95 %) on the test data by classifying the patched images into four classes and an accuracy of (92 %) on the classification of whole images with an architecture (VGG 16) The results and the comparison are mentioned in the solution and experiments part Keywords : Image context, Object recognition, Object detection, Deep learning, Transfer learning, Convolutional neural networks, Thumbnail image slicing, Feature extraction and Image classification https ://data.mendeley.com/datasets/rscbjbr9sj/3 Table des matières Liste des tableaux vi Table des figures vii Liste des tables vii INTRODUCTION GÉNÉRALE 1.1 Présentation de l’établissement d’accueil 1.1.0.1 Université Paris-Est Créteil (UPEC) 1.2 Analyse du sujet 1.3 Contexte-problématiques-objectifs 1.3.1 Contexte 1.3.2 Problématiques 1.3.3 Objectifs 3 4 ÉTAT DE L’ART 2.1 Notion d’anatomie de l’oeil 2.1.1 Rétinopathie diabétique(RD) 2.1.1.1 Les lésions histologiques de la RD 2.1.1.2 Micro-anévrismes 2.1.1.3 Hémorragies rétiniennes 2.1.1.4 Les néovaisseaux : 2.1.1.5 Les occlusions veineuses rétiniennes 2.1.1.6 Ischémie rétinienne 2.1.1.7 Classification de la rétinopathie diabétique 2.1.1.8 Traitement de la rétinopathie diabétique 2.1.2 Dégénérescence Maculaire Liée L’âge 2.1.2.1 Formes cliniques de DMLA exsudative 2.1.2.2 Examens 2.1.2.3 Traitement 2.1.3 Les systèmes d’acquisition d’images par OCTA 6 8 9 10 10 11 11 11 12 13 15 15 16 i TABLE DES MATIÈRES 2.1.3.1 2.1.3.2 2.1.3.3 2.2 2.3 2.4 2.5 L’angiographie la fluorescéine : L’angiographie en vert d’indocyanine : La Tomographie en Cohérence Optique, en particulier en Spectral Domaine (SD-OCT) 2.1.3.4 L’OCT-ANGIOGRAPHIE (OCT-A) : Deep learning (L’apprentissage profond) 2.2.1 Définition 2.2.2 Pourquoi le Deep learning ? Outils de traitement des images rétiniennes 2.3.1 Notion d’image 2.3.1.1 L’image 2.3.2 Image numérique 2.3.2.1 La définition et la résolution d’une image : 2.3.2.2 Le contraste 2.3.2.3 Bruit 2.3.2.4 Les contours et les textures 2.3.3 Le traitement d’image Quelques travaux existants Classification des images rétiniennes : 2.5.1 Définition de la classification : 2.5.2 Différentes méthodes de la classification et l’apprentissage : 2.5.2.1 Méthodes supervisées : 2.5.2.2 Méthodes non-supervisées : 2.5.2.3 Les familles de méthodes de classification non supervisée les plus communes sont : 2.5.3 Présentation de certaines techniques de la classification : 2.5.3.1 k plus proches voisin : 2.5.3.2 Fuzzy c-means : 2.5.3.3 k-means : 2.5.3.4 Machine vecteurs de support : 2.5.4 Les réseaux de Neurones convolutifs : 2.5.5 Architectures de réseaux de neurones profonds 2.5.5.1 Principe d’architecture d’un CNN : 2.5.5.2 Les architectures utilisées dans ces travaux 2.5.6 Les blocs de construction d’architecture : 2.5.6.1 La couche de convolution (CONV) : 2.5.6.2 Couche de pooling ( POOL ) : 2.5.6.3 Couches de correction (RELU) : 2.5.6.4 Couche entièrement connectée( FC ) : 2.5.6.5 Couche de perte ( LOSS ) : 2.5.7 Choix des hyperparamétres : 2.5.7.1 Nombre de filtres 2.5.7.2 Forme du filtre ii 16 16 17 17 19 19 20 21 21 21 22 22 23 23 24 24 25 26 26 26 26 27 27 28 28 28 29 29 29 30 30 31 32 32 33 34 34 35 35 35 36 TABLE DES MATIÈRES 2.5.7.3 Forme du Max Pooling 2.5.8 Méthodes de régularisation 2.5.8.1 Dropout ( Abandon ) 2.5.8.2 Taille du réseau 2.5.8.3 Dégradation du poids 2.5.9 Indicateurs de performance en classification 2.5.9.1 Matrice de confusion 2.5.9.2 Courbe ROC ( Received Operating Characteristic ) : SOLUTIONS PROPOSÉES & CONTRIBUTIONS 3.1 Principaux points de notre solution 3.2 La base de donnée 3.3 La méthodologie 3.3.1 Le pré-traitement de données 3.3.1.1 Normalisation des taches 3.3.1.2 Soustraction moyenne 3.4 Patching des images 3.4.1 L’apprentissage par transfert 3.4.1.1 Techniques d’entrnement & choix d’architecture 3.5 Architecture générale de la solution 3.6 Contributions apportées 3.7 Mise en œuvre de la solution 3.7.1 Environnement de travail 3.7.1.1 Environnement matériel 3.7.1.2 Environnement logiciel 3.8 Techniques de classification 3.8.1 Classification des images patchées 3.8.1.1 Les hyper-paramètres 3.8.2 Classification par les images entières 3.8.2.1 Hyper_paramètres 36 36 36 37 37 38 38 39 40 40 40 41 42 42 42 42 44 44 46 46 47 47 47 47 48 48 48 48 49 50 50 50 50 51 51 52 52 52 53 54 54 EXPÉRIMENTATIONS & RÉSULTATS 4.1 Architectures & Résultats expérimentaux 4.1.1 Architectures 4.1.1.1 Architecture du modèle 01 4.1.1.2 Architecture du modèle 02 4.1.1.3 Architecture du modèle 03 4.1.2 Les Résultats 4.1.2.1 Résultats graphiques de l’apprentissage du modèle 01 4.1.2.2 Résultats graphiques de l’apprentissage du modèle 02 4.1.2.3 Résultats graphiques de l’apprentissage du modèle 03 4.2 Comparaison des résultats de nos modèles 4.2.1 Analyses des résultats : iii CHAPITRE SOLUTIONS PROPOSÉES & CONTRIBUTIONS 3.7 Mise en œuvre de la solution 3.7.1 Environnement de travail Dans cette partie, nous décrivons l’environnement de travail utilisé tout au long du notre stage, d’abord l’environnement matériel composé des outils matériels que nous avons utilisé, ensuite l’environnement logiciel y compris les plate-formes que nous avons utilisé lors du stage 3.7.1.1 Environnement matériel La configuration du matériel utilisée dans notre implémentation est : — Un PC portable Intel(R) Core(TM) i5-4310M CPU @ 2.70GHz — RAM de taille GO — Disque dur de taille 500 GO — Système d’exploitation Linux Ubuntu version 18.04 3.7.1.2 Environnement logiciel Logiciels et librairies Utilisés dans l’implémentation F IGURE 3.8 – Les technologies utilisées 47 CHAPITRE SOLUTIONS PROPOSÉES & CONTRIBUTIONS 3.8 Techniques de classification 3.8.1 Classification des images patchées Tout d’abord, l’ensemble de donnée a été divisée en patchs pour la formation, le test ainsi que la validation comme détaillé dans le tableau 3.7 Ensuite, les données de chaque patch ont été redimensionnées la forme couleurs × 256 × 256 pixels pour permettre un entrnement plus rapide et réduire les besoins en mémoire Les données sont résumées dans le tableau ci dessous Train(80% ) Données :6027 images originales avec une taille de (496, 512,3) Test(15%) & Validation (5% ) Test(972 images) & Validation (36 images ) Après l’opération de patching :36072 imagettes Train : 30072(16 imagettes/img) Test :5008(16 imagettes/img) & Validation :192(16 imagettes/img) Taille de patch :( 256, 256, ),un overlap de 50% Train(5016 images) F IGURE 3.9 – Les données de patches 3.8.1.1 Les hyper-paramètres Ces hyper-paramètres ont été appliqués sur les deux modèles pré-entrnés expliqs ci-haut CNN Paramèters Optimal value VAL_RATIO 0.2 EPOCHS 50/50 Optimizer Adam Loss Categorical_crossentropy LEARNING_RATE 0.001 /0.01 Dropout 0.2 Batch size 64 /32 Parameters 8, 488 ,068 F IGURE 3.10 – Hyper_param_patches 3.8.2 Classification par les images entières Dans cette technique, nous avons jugé utile de travailler avec les images entières pour pouvoir effectuer une comparaison entre les techniques citées ci-haut, c’est 48 CHAPITRE SOLUTIONS PROPOSÉES & CONTRIBUTIONS dire : Entre les modèles utilisant des images patchées et celui utilisant des images entières ( Sans patching ) [26] Les données sont résumées dans le tableau ci dessous : Train(80%) Données :6801 images avec une taille de (496, 512,3) test(15%) validation(5%) Train :5012 images Test : 1164 images Validation : 625 images F IGURE 3.11 – Le tableau des images normales 3.8.2.1 Hyper_paramètres Epochs hyper_paramètres Learning rate Dropout 50 0.001 0.2 F IGURE 3.12 – Hyper_paramètres images entières 49 Chapitre EXPÉRIMENTATIONS & RÉSULTATS Dans ce chapitre, nous présentons les différents résultats obtenus de nos différents modèles après leur mise en œuvre dans le chapitre précèdent Nous effectuons également des tests sur les données et effectuons une comparaison des résultats obtenus de chaque modèle 4.1 Architectures & Résultats expérimentaux Dans cette partie, nous allons expliqué brièvement les trois modèles ci dessous 4.1.1 Architectures 4.1.1.1 Architecture du modèle 01 Dans cette architecture, une opération de patching a été appliquée sur nos images originales ayant pour taille ( 496, 512, ) en imagettes ( 256, 256, ) L’architecture préentrnée Resnet 34(modèle 01) a été utilisée pour l’entrnement de notre modèle La formation a été effectuée en utilisant l’architecture CNN proposée par [23] La structure du rộseau a ộtộ conỗue pour capturer des caractéristiques plusieurs échelles pertinentes pour la classification des images Oct Le CNN a n blocs convolutifs, constitués chacun d’une couche convolutive et d’une couche de liaison maximale, suivis de trois couches entièrement connectées la fin Pour les couches convolutives et entièrement connectées, les fonctions d’activation d’unité linéaire redressée ( ReLU ) [27] ont été utilisées, ce qui évite la disparition des gradients et améliore la vitesse d’entrnement [28] La dernière couche avec unités a appliqué la fonction softmax pour cibler les classes K 50 CHAPITRE EXPÉRIMENTATIONS & RÉSULTATS F IGURE 4.1 – Architecture du modèle 01 4.1.1.2 Architecture du modèle 02 Dans cette architecture, une opération de patching a été appliquée sur nos images originales ayant pour taille ( 496, 512, ) en imagettes ( 256, 256, ) L’architecture pré-entrnée VGG16(modèle 02) a été utilisée pour l’entrnement du modèle en utilisant la bibliothèque Keras Ci dessous l’architecture définie F IGURE 4.2 – Architecture du modèle 02 4.1.1.3 Architecture du modèle 03 Dans cette architecture, nous avons jugé utile de faire un entrnement avec les images entières qui ont pour taille ( 496, 512, ) afin de faire une comparaison avec les autres modèles et architectures discutées ci-haut qui sont basées sur la technique de patching 51 CHAPITRE EXPÉRIMENTATIONS & RÉSULTATS F IGURE 4.3 – Architecture du modèle 03 4.1.2 Les Résultats 4.1.2.1 Résultats graphiques de l’apprentissage du modèle 01 Pour ce modèle Resnet 34, nous montrons ci-dessous les graphes de précision et de perte qui montrent la progression du résultat de la formation de nos images patchées F IGURE 4.4 – Train & Valid Accuracy F IGURE 4.5 – Train & Valid Loss 4.1.2.2 Résultats graphiques de l’apprentissage du modèle 02 Pour ce modèle Vgg16, nous montrons ci-dessous les graphes de précision et de perte ainsi que celui de la Courbe ROC (Receiver operating characteristic) qui montrent la progression du résultat de la formation de nos images patchées 52 CHAPITRE EXPÉRIMENTATIONS & RÉSULTATS F IGURE 4.6 – Accuracy & loss F IGURE 4.7 – Courbes AUC 4.1.2.3 Résultats graphiques de l’apprentissage du modèle 03 Pour ce modèle VGG16 pre-entrné, nous montrons ci-dessous ses graphes de précision et de perte qui montrent la progression du résultat de la formation de nos images entières ainsi que sa matrice de confusion montrant les images bien et mal classées F IGURE 4.8 – Train & Valid Accuracy 53 F IGURE 4.9 – Train & Valid Loss CHAPITRE EXPÉRIMENTATIONS & RÉSULTATS F IGURE 4.10 – Matrice de confusion 4.2 Comparaison des résultats de nos modèles Dans cette partie, nous avons définie les métriques utilisées pour évaluer les performances des modèles utilisés Ci dessous le tableau comportant les modèles, les métriques et bien d’autres paramètres Modèles Modèle 01 Modèle 02 Modèle 03 Acuracy test 96% 95% 92% loss test 21% 26% 24% Epochs 50 50 50 Batch Size 64 32 200 Optimizer Adam Adam Adam 4.2.1 Analyses des résultats : Les architectures mentionnées ci-haut ont été entrnées sur les données Oct que nous avons détaillé ci-haut et ont donné des différents résultats mentionnés dans le tableau ci dessus Pour le modèle 01, nous observons une croissance progressive de la courbe d’apprentissage de 99,99% peu près sur 50 épochs Et également, les courbes de loss décroissent progressivement sans écart sur toutes les 50 épochs, alors nous pour dire que le modèle arrive bien générer sur les données Notons que le modèle a été évalué sur les données de test et a donné 96% de précision ce qui vient confirmer la généralisation du modèle sur les données 54 CHAPITRE EXPÉRIMENTATIONS & RÉSULTATS Pour le modèle 02, nous observons que les deux courbes (accuracy et val_accuracy) croissent progressivement jusqu’à 98% peu près et l’écart entre les deux courbes est presque égale zéro Parallèlement, les deux courbes de loss ( loss et val_loss ) décroissent aussi progressivement sur les 50 épochs avec un écart très minime Donc nous pouvons conclure que le modèle a appris largement Ce modèle a été évalué sur les données de test et a donné 95% de précision, ce qui vient appuyer la capacité du modèle extraire les caractéristiques des images afin de les bien classer Le troisième et dernier modèle, a donné une précision de 92% sur les données de test et une perte de 24% ce qui veut dire que le modèle arrive bien extraire les caractéristiques des images et cela est du au fait que le modèle utilise les images de grande taille ( images entières ) Ces resultats expliquent sa performance dans l’extraction des caractéristiques sur les images entières En conclusion, nous pouvons dire que les trois modèles ont été entrné dans l’optique de faire une comparaison, ces derniers ont tous donné des bonnes précisions et ont pu minimiser les erreurs Par ailleurs, le premier modèle a donné plus des bons resultats sur l’ensemble des mesures de test utilisées 4.3 Problèmes rencontrés Durant la période de stage j’ai rencontré quelques difficultées : — Non accès aux données réelles du laboratoire ( pour fermeture des frontières ), j’ai utilisé les images oct open-source — Manque de ressources matérielles suffisantes, j’ai effectué l’apprentissage sur ma machine avec google colab utilisant un GPU limité, il était difficile pour moi d’effectuer plusieurs tests d’apprentissage — Difficulté d’accéder aux équipements du laboratoire pour utiliser le serveur de l’apprentissage faute de la pandémie covid 19 55 Chapitre CONCLUSION & PERSPECTIVES 5.1 Conclusion générale Dans ce projet, nous avons expliqué et détaillé le contexte et la problématique ainsi que l’objectif de notre travail, également nous avons fait une genèse de l’anatomie de l’oeil pour mieux cerner les lésions de la rétine Ensuite, nous avons discuté des notions fondamentales des réseaux de neurones en générale et des réseaux de neurones convolutionnels en particulier Nous avons introduit ces réseaux de neurones convolutionnels en présentant les différents types de couches utilisées dans la classification Nous avons expliqué aussi les méthodes de régularisation ( dropout et data augmentation ) utilisées pour éviter le problème de sur-apprentissage Notons que les paramètres du réseau sont difficiles définir priori, c’est pour cette raison que nous avons défini différents modèles avec des architectures différentes afin d’obtenir des meilleurs résultats en terme de précision et d’erreur Comme tout travail de recherche, nous avons rencontré quelques problèmes liés aux ressources pendant la phase d’implémentation, l’utilisation d’un CPU a fait que le temps d’exécution était trop couteux Afin de régler ce problème on doit utiliser des réseaux de neurones convolutionnels plus profonds déployé sur un GPU au lieu d’un CPU sur des bases plus importantes Dans ce projet,j’ai utilisé les CNNs et une approche basée sur les correctifs pour classer les images Rétiniennes ( CNV, DME, DRUSEN, NORMAL ) 5.2 Perspectives En ce qui concerne les perspectives de ce travail, nous avons principalement trois points : Nous sommes satisfait de ce travail parce que nous avons atteint les objectifs de ce projet qui consistaient mettre en place un modèle de classification des images 56 CHAPITRE CONCLUSION & PERSPECTIVES rétiniennes et faire des extractions de caractéristiques Les resultats expérimentaux et ceux de test qui montrent parfaitement la performance de notre modèle Le premier point, est qu’en faisant une étude plus poussée au niveau des modèles de base en combinant deux modèles de base par exemple (inception + resnet ) pour en constituer un seul extracteur des caractéristiques, on pourra obtenir avec cette combinaison des résultats plus acceptables Mais cela va nécessiter évidemment un GPU très puissant pour l’entrnement Le second point, serait de travailler sur les données réelles de OCT ,parce que ses dernières répondent plus nos attente et sont plus informatives Le troisième point, serait de tester d’autres valeurs de chévauchement fin de voir quelle valeur donne plus de bon resultats en fonction de contexte 57 Bibliographie [1] D Kermany, K Zhang, and M Goldbaum, “Large dataset of labeled optical coherence tomography (oct) and chest x-ray images,” Mendeley Data, v3 http ://dx doi org/10.17632/rscbjbr9sj, vol 3, 2018 [2] K He, X Zhang, S Ren, and J Sun, “Deep residual learning for image recognition,” in Proceedings of the IEEE conference on computer vision and pattern recognition, pp 770–778, 2016 [3] C Kawatsu, F Koss, A Gillies, A Zhao, J Crossman, B Purman, D Stone, and D Dahn, “Gesture recognition for robotic control using deep learning,” 08 2017 [4] D Y Moualek, Deep Learning pour la classification des images PhD thesis, 07-032017, 2017 [5] Y LeCun, Y Bengio, and G Hinton, “Deep learning,” nature, vol 521, no 7553, pp 436–444, 2015 [6] D E Rumelhart, G E Hinton, and R J Williams, “Learning internal representations by error propagation 1985,” DTIC Document [7] A FEROUI, ANALYSE DES IMAGES COULEUR DU FOND D’OEIL POUR L’AIDE AU DIAGNOSTIC EN OPHTALMOLOGIE : APPLICATION A LA DETECTION DES PATHOLOGIES RETINIENNES PhD thesis, 2014 [8] C Lam, C Yu, L Huang, and D Rubin, “Retinal lesion detection with deep learning using image patches,” Investigative ophthalmology & visual science, vol 59, no 1, pp 590–596, 2018 [9] G Lebrun, Sélection de modèles pour la classification supervisée avec des SVM (Séparateurs Vaste Marge) Application en traitement et analyse d’images PhD thesis, 2006 [10] E Mathieu-Dupas, “Algorithme des k plus proches voisins pondérés et application en diagnostic,” 2010 [11] N R Pal, K Pal, J M Keller, and J C Bezdek, “A possibilistic fuzzy c-means clustering algorithm,” IEEE transactions on fuzzy systems, vol 13, no 4, pp 517–530, 2005 58 BIBLIOGRAPHIE [12] A Likas, N Vlassis, and J J Verbeek, “The global k-means clustering algorithm,” Pattern recognition, vol 36, no 2, pp 451–461, 2003 [13] M Parizeau, “Le perceptron multicouche et son algorithme de rétropropagation des erreurs,” département de génie électrique et de génie informatique, Université de laval, 2004 [14] K He, X Zhang, S Ren, and J Sun, “Deep residual learning for image recognition corr abs/1512.03385 (2015),” 2015 [15] A Krizhevsky, I Sutskever, and G E Hinton, “Imagenet classification with deep convolutional neural networks,” in Advances in neural information processing systems, pp 1097–1105, 2012 [16] D E Rumelhart, G E Hinton, and R J Williams, “Learning internal representations by error propagation,” tech rep., California Univ San Diego La Jolla Inst for Cognitive Science, 1985 [17] I Lykourentzou, I Giannoukos, V Nikolopoulos, G Mpardis, and V Loumos, “Dropout prediction in e-learning courses through the combination of machine learning techniques,” Computers & Education, vol 53, no 3, pp 950–965, 2009 [18] H Zou and T Hastie, “Regularization and variable selection via the elastic net,” Journal of the royal statistical society : series B (statistical methodology), vol 67, no 2, pp 301–320, 2005 [19] D S Kermany, M Goldbaum, W Cai, C C Valentim, H Liang, S L Baxter, A McKeown, G Yang, X Wu, F Yan, et al., “Identifying medical diagnoses and treatable diseases by image-based deep learning,” Cell, vol 172, no 5, pp 1122–1131, 2018 [20] M Goldbaum, W Cai, C Valentim, H Liang, S Baxter, A McKeown, G Yang, and X Wu, “Yan f,” Dong J, Prasadha MK, Pei J, Ting MYL, Zhu J, Li C, Hewett S, Dong J, Ziyar I, Shi A, Zhang R, Zheng L, Hou R, Shi W, Fu X, Duan Y, Huu VAN, Wen C, Zhang ED, Zhang CL, Li O, Wang X, Singer MA, Sun X, Xu J, Tafreshi A, Lewis MA, Xia H, Zhang K Identifying Medical Diagnoses and Treatable Diseases by ImageBased Deep Learning Cell, vol 172, pp 1122–1131, 2018 [21] K K Pal and K Sudeep, “Preprocessing for image classification by convolutional neural networks,” in 2016 IEEE International Conference on Recent Trends in Electronics, Information & Communication Technology (RTEICT), pp 1778–1781, IEEE, 2016 [22] A Castillo, S Tabik, F Pérez, R Olmos, and F Herrera, “Brightness guided preprocessing for automatic cold steel weapon detection in surveillance videos with deep learning,” Neurocomputing, vol 330, pp 151–161, 2019 [23] T Araújo, G Aresta, E Castro, J Rouco, P Aguiar, C Eloy, A Polónia, and A Campilho, “Classification of breast cancer histology images using convolutional neural networks,” PloS one, vol 12, no 6, p e0177544, 2017 59 BIBLIOGRAPHIE [24] D M Vo, N.-Q Nguyen, and S.-W Lee, “Classification of breast cancer histology images using incremental boosting convolution networks,” Information Sciences, vol 482, pp 123–138, 2019 [25] M Hussain, J J Bird, and D R Faria, “A study on cnn transfer learning for image classification,” in UK Workshop on Computational Intelligence, pp 191– 202, Springer, 2018 [26] P Khojasteh, B Aliahmad, and D K Kumar, “Fundus images analysis using deep features for detection of exudates, hemorrhages and microaneurysms,” BMC ophthalmology, vol 18, no 1, pp 1–13, 2018 [27] K He, X Zhang, S Ren, and J Sun, “Delving deep into rectifiers : Surpassing human-level performance on imagenet classification,” in Proceedings of the IEEE international conference on computer vision, pp 1026–1034, 2015 [28] V Nair and G E Hinton, “Rectified linear units improve restricted boltzmann machines,” in ICML, 2010 [29] L Wan, M Zeiler, S Zhang, Y Le Cun, and R Fergus, “Regularization of neural networks using dropconnect,” in International conference on machine learning, pp 1058–1066, 2013 [30] M D Zeiler and R Fergus, “Stochastic pooling for regularization of deep convolutional neural networks,” arXiv preprint arXiv :1301.3557, 2013 [31] L N Darlow, E J Crowley, A Antoniou, and A J Storkey, “Cinic-10 is not imagenet or cifar-10,” arXiv preprint arXiv :1810.03505, 2018 [32] D Kermany, K Zhang, and M Goldbaum, “Labeled optical coherence tomography (oct) and chest x-ray images for classification,” Mendeley data, vol 2, 2018 60 BIBLIOGRAPHIE 61 ... de travailler sur le sujet : classification d’images rétiniennes par apprentissage profond pour l’aide au diagnostic en ophtalmologie L’OCTA pour (optical coherence tomography angiography) est... FRANCOPHONE INTERNATIONAL(IFI) Abdourahmane SOUMANA HAMADOU Classification d’images rétiniennes par apprentissage profond pour l’aide au diagnostic en ophtalmologie Phân loại hình ảnh võng mạc cách học... caractérise par l’apparition de nouveaux vaisseaux anormaux au niveau du réseau vasculaire rétinien Son diagnostic est fondé sur l’analyse d’images angiographiques acquises par OCTA, qui offrent une

Ngày đăng: 01/04/2021, 15:55

TỪ KHÓA LIÊN QUAN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN