Tự động phân loại tổn thương da bằng hình ảnh

140 2 0
Tự động phân loại tổn thương da bằng hình ảnh

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

Thông tin tài liệu

BỘ GIÁO DỤC VÀ ĐÀO TẠO TRƯỜNG ĐẠI HỌC NGOẠI NGỮ - TIN HỌC TP.HCM KHOA CÔNG NGHỆ THÔNG TIN KHĨA LUẬN TỐT NGHIỆP TỰ ĐỘNG PHÂN LOẠI TỞN THƯƠNG DA BẰNG HÌNH ẢNH GIẢNG VIÊN HƯỚNG DẪN: ThS Tôn Quang Toại SINH VIÊN THỰC HIỆN: Trần Nhậm Kỳ – 15DH110355 Nguyễn Sỹ Nguyên – 15DH110076 TP.HỒ CHÍ MINH - 2019 LỜI CẢM ƠN  Để thực hoàn thành đề tài nghiên cứu khoa học này, em nhận hỗ trợ, giúp đỡ quan tâm, động viên từ nhiều quan, tổ chức cá nhân Nghiên cứu khoa học hoàn thành dựa tham khảo, học tập kinh nghiệm từ kết nghiên cứu liên quan, sách, báo chuyên ngành nhiều tác giả trường Đại học, tổ chức nghiên cứu, tổ chức trị giúp đỡ, tạo điều kiện vật chất tinh thần từ phía gia đình, bạn bè thầy cô nhà trường Trước hết, em xin gửi lời cảm ơn sâu sắc đến Thầy Tôn Quang Toại – Giáo viên hướng dẫn trực tiếp nhóm dành nhiều thời gian, công sức hướng dẫn em suốt trình thực nghiên cứu hoàn thành đề tài nghiên cứu khoa học Em xin trân trọng cám ơn Ban giám hiệu toàn thể thầy cô giáo công tác trường HUFLIT tận tình truyền đạt kiến thức quý báu, giúp đỡ nhóm em trình học tập nghiên cứu Tuy có nhiều cố gắng, đề tài nghiên cứu khoa học không tránh khỏi thiếu sót Em kính mong Q thầy cơ, chun gia, người quan tâm đến đề tài, gia đình bạn bè tiếp tục có ý kiến đóng góp, giúp đỡ để đề tài hoàn thiện Một lần em xin chân thành cám ơn! MỤC LỤC Chương GIỚI THIỆU 1.1 Giới thiệu tổng quan Trí tuệ nhân tạo 1.2 Mơ tả tốn phân loại tổn thương da 1.3 Giới thiệu tập Dataset ISIC2018 1.4 Tổng quan luận văn Chương THỊ GIÁC MÁY TÍNH VÀ MÁY HỌC 2.1 Computer vision – Thị giác máy tính 2.2 Machine Learning – Máy học 2.2.1 Các cách tiếp cận Machine Learning 10 2.2.2 Kiến trúc Phương pháp máy học Machine Learning 11 2.2.3 Model Complexity – Độ phức tạp mơ hình 14 2.3 Deep Learning 15 2.4 Phương pháp đánh giá mơ hình 16 2.4.1 Accuracy 16 2.4.2 Precision Recall 18 2.4.3 F1- Score 18 2.4.4 Phương pháp Hold-out 19 2.4.5 Phương pháp Cross Validation ( k-fold) 19 2.4.6 Đường cong Receiver Operating Characteristic – ROC 21 2.4.7 Precision – Recall cho toán phân nhiều lớp 21 Chương NEURAL NETWORKS 23 3.1 Tổng quan mạng Neuron nhân tạo 23 3.1.1 Khái niệm 23 3.1.2 Lịch sử phát triển mạng Neuron 23 3.1.3 So sánh mạng Neuron với máy tính truyền thống 25 3.2 Bộ não người Neuron nhân tạo 26 3.3 Kiến trúc mô hình Neural Networks 29 3.3.1 Mơ hình tổng qt 34 3.3.2 Feedforward – Lan truyền tiến 36 3.3.3 Backpropagation – Lan truyền ngược 37 3.4 Convolutional Neural Network 42 3.4.1 Convolution 42 3.4.2 Các kĩ thuật Convolutional Layers 43 3.4.3 Convolutional Layer 46 3.4.4 Pooling Layer 47 3.4.5 Fully connected Layer 49 3.4.6 Khái quát mô hình CNN 50 3.5 Các siêu tham số 50 3.5.1 Gradient Descent 50 3.5.2 Initialize weights 53 3.6 Regularization 54 3.6.1 Data Augmentation – Sinh thêm liệu 55 3.6.2 Dropout 56 3.6.3 Batch Normalization 57 3.6.4 Early stopping 57 3.7 Các mơ hình kiến trúc CNN 59 3.7.1 LeNet-5 59 3.7.2 AlexNet 60 3.7.3 VGGNet 61 3.7.4 ResNet 62 Chương MỘT SỐ CƠNG TRÌNH LIÊN QUAN .68 4.1 Cơng trình liên quan 68 4.1.1 Tổng quan 68 4.1.2 Các phương pháp 68 4.1.3 Kết 71 4.2 Cơng trình liên quan 71 4.2.1 Tổng quan 71 4.2.2 Phương pháp 72 4.2.3 Kết 74 Chương MÔ HÌNH ĐỀ XUẤT VÀ KẾT QUẢ THỰC NGHIỆM 76 5.1 Preprocessing Dataset ISIC 2018 76 5.1.1 Dataset ISIC 2018 76 5.1.2 Cấu hình 77 5.1.3 Tiền xử lý 78 5.1.4 Siêu tham số đầu vào 85 5.2 Kiến trúc mơ hình 86 5.2.1 Mơ hình 86 5.2.2 Mơ hình 95 5.2.3 Mơ hình 105 5.2.4 Mơ hình 114 KẾT LUẬN .126 TÀI LIỆU THAM KHẢO 127 DANH SÁCH BẢNG Bảng 1.1 Lĩnh vực Trí tuệ nhân tạo Bảng 2.1 Confusion Matrix cho hai lớp 17 Bảng 2.2 Confusion Matrix cho Multiple Classes 18 Bảng 3.1 So sánh Neuron sinh học với Neuron nhân tạo 28 Bảng 3.2 Kiến trúc LeNet-5 ứng với tập Dataset MNIST 59 Bảng 3.3 Kiến trúc mô hình AlexNet 60 Bảng 4.1 Dataset Task thi ISIC2018 71 Bảng 4.2 Classification performance từ ISIC2018 tập validation dataset 71 Bảng 4.3 Bảng kết tính theo Average AUC 75 Bảng 5.1 Số lượng ảnh tập dataset 79 Bảng 5.2 Số lượng ảnh tập dataset nhãn 80 Bảng 5.3 Ví dụ One-hot encoding 81 Bảng 5.4 Bộ siêu tham số đầu vào 86 Bảng 5.5 Kiến trúc mơ hình LeNet-5 86 Bảng 5.6 Classification Report mơ hình (1) 87 Bảng 5.7 Classification Report mơ hình (2) 89 Bảng 5.8 Classification Report mơ hình (3) 91 Bảng 5.9 Classification Report mô hình (4) 92 Bảng 5.10 Classification Report mơ hình 93 Bảng 5.11 Bộ siêu tham số cho Mơ hình 96 Bảng 5.12 Kiến trúc mơ hình VGG-16 96 Bảng 5.13 Classification Report mơ hình (1) 98 Bảng 5.14 Classification Report mơ hình (2) 100 Bảng 5.15 Classification Report mơ hình (3) 102 Bảng 5.16 Classification Report mơ hình 103 Bảng 5.17 Bộ tham số đầu vào cho mơ hình 106 Bảng 5.18 Kiến trúc mơ hình VGG-16 106 Bảng 5.19 Classification Report mơ hình (1) 107 Bảng 5.20 Classification Report mơ hình (2) 109 Bảng 5.21 Classification Report mô hình 110 Bảng 5.22 Block_input mơ hình ResNet 114 Bảng 5.23 Block A mơ hình ResNet 114 Bảng 5.24 Block B mơ hình ResNet 115 Bảng 5.25 Block_Output mô hình ResNet 115 Bảng 5.26 Tổng quan mơ hình kiến trúc 115 Bảng 5.27 Siêu tham số cho Mơ hình 117 Bảng 5.28 Classification Report mơ hình (1) 117 Bảng 5.29 Classification Report mơ hình (2) 118 Bảng 5.30 Classification Report mơ hình (3) 120 Bảng 5.31 Classification Report mơ hình 121 DANH SÁCH HÌNH Hình 1.1 Các loại bệnh ISIC2018 Hình 2.1 Tổng quan mối liên hệ Trí tuệ nhân tạo, Máy học Thị giác máy học Hình 2.2 Sơ đờ khối xử lý ảnh Hình 2.2.3 Các mức tổng qt hóa mơ hình 15 Hình 2.4 Mối quan hệ Machine Learning, Deep Learning, CNN,Computer Vision 15 Hình 2.5 HoldOut 19 Hình 2.6 Cross Validation 20 Hình 3.1 Bộ não người 27 Hình 3.2 Cấu trúc Neuron sinh học 27 Hình 3.3 Khớp nối thần kinh 28 Hình 3.4 Xung điện trục thần kinh 28 Hình 3.5 Mơ hình ANN 29 Hình 3.6 Biểu diễn Linear function 30 Hình 3.7 Biểu diễn Threshold activity function 31 Hình 3.8 Biểu diễn Logistic function 31 Hình 3.9 Biểu diễn hàm 32 Hình 3.10 Biểu diễn hàm ReLU 33 Hình 3.11 Mơ hình Neural Network 34 Hình 3.12 Mơ hình Neural Network (2) 35 Hình 3.13 Feedforward 36 Hình 3.14 Mơ hình Neural Network (3) 38 Hình 3.15 Áp dụng Chain rule 39 Hình 3.16 Quá trình Feedforward 40 Hình 3.17 Quá trình Backpropagation 41 Hình 3.18 Biểu diễn phép toán element-wise 43 Hình 3.19 Ma trận đầu vào bao quanh đường viền phụ kích thước p 44 Hình 3.20 Phép nhân chập khối - áp dụng cho ảnh màu RGB kích thước 6x6 46 Hình 3.21 Kiến trúc lớp: Input → filters of   3→ ReLU (non-linear activation function) → Output 47 Hình 3.22 Mô Pooling Layer 48 Hình 3.23 Ví dụ Max Pooling 48 Hình 3.24 Ví dụ Average Pooling 49 Hình 3.25 Fully connected Layer 49 Hình 3.26 Kiến trúc tổng quát CNN 50 Hình 3.27 Learning rate 51 Hình 3.28 Giữa Gradient Descent với Stochastic Grasient Descent 52 Hình 3.29 Ví dụ ảnh sau thực kĩ thuật Data Augmentation 56 Hình 3.30 Dropout 57 Hình 3.31 Early Stopping 58 Hình 3.32 Mơ kiến trúc LeNet-5 60 Hình 3.33 Mô kiến trúc AlexNet 61 Hình 3.34 Mơ hình VGG16 62 Hình 3.35 Mơ hình VGG16 dạng mô 62 Hình 3.36 Vấn đề giảm hiệu 63 Hình 3.37 Hoạt động Residual 64 Hình 3.38 Residual qua Layer 64 Hình 3.39 Residual Block layer 65 Hình 3.40 Mơ hình kiến trúc Resnet 50 65 Hình 3.41 Mơ hình kiến trúc ResNet 50 dạng cụ thể 66 Hình 3.42 Short cut layer 66 Hình 4.1 Hệ thống phân loại báo 68 Hình 4.2 Phương pháp The Mean Teacher 69 Hình 4.3 Phương pháp Between-class learning [19] 70 Hình 4.4 Phương pháp Radom erasing [20] 70 Hình 4.5 Phương pháp Body hair 71 Hình 4.6 Framwork MLDE 72 Hình 4.7 Kiến trúc mơ hình sử dụng cho toán phân loại tổn thương da 74 Hình 5.1 Mẫu số 0034343 từ tập ISIC2018_Validation_Input 112 Hình 5.2 Visualizing block 113 Hình 5.3 Heatmap 113 DANH SÁCH BIỂU ĐỒ Biểu đồ 5.1 Số lượng mẫu dataset ISIC 2018 76 Biểu đồ 5.2 Số lượng mẫu dataset train 79 Biểu đồ 5.3 Số lượng mẫu label tập Train 83 Biểu đồ 5.4 Số lượng mẫu label tập Validation 83 Biểu đồ 5.5 Kết thực nghiệm lần tập Validation dựa mô hình LeNet-5 88 Biểu đờ 5.6 Kết thực nghiệm lần tập Validation dựa mơ hình LeNet-5 90 Biểu đồ 5.7 Kết thực nghiệm lần tập Validation dựa mơ hình LeNet-5 91 Biểu đồ 5.8 Kết thực nghiệm lần tập Validation dựa mơ hình LeNet-5 93 Biểu đồ 5.9 Confusion Matrix tỷ lệ tập Test mơ hình 94 Biểu đồ 5.10 Đánh giá label Mơ hình qua Accuracy, Precision, Recall F1-Score tập Test 95 Biểu đồ 5.11 Kết thực nghiệm lần tập Validation dựa mơ hình VGG-16 100 Biểu đờ 5.12 Kết thực nghiệm lần tập Validation dựa mơ hình VGG-16 101 Biểu đờ 5.13 Kết thực nghiệm lần tập Validation dựa mơ hình VGG-16 103 Biểu đờ 5.14 Confusion Matrix tỉ lệ tập Test mơ hình 104 Biểu đồ 5.15 Đánh giá label Mơ hình qua Accuracy, Precision, Recall F1-Score tập Test 105 Biểu đồ 5.16 Kết thực nghiệm lần tập Validation dựa mơ hình VGG-16 với finetuning 108 Biểu đồ 5.17 Kết thực nghiệm lần tập Validation dựa mơ hình VGG-16 với finetuning 109 Biểu đồ 5.18 Confusion Matrix tỉ lệ tập Test mơ hình 111 Biểu đồ 5.19 Đánh giá label Mơ hình qua Accuracy, Precision, Recall F1-Score tập Test 111 Biểu đồ 5.20 Kết thực nghiệm lần tập Validation dựa mơ hình ResNet 118 Biểu đồ 5.21 Kết thực nghiệm lần tập Validation dựa mơ hình ResNet 119 Biểu đờ 5.22 Kết thực nghiệm lần tập Validation dựa mơ hình ResNet 121 Biểu đờ 5.23 Confusion Matrix tỉ lệ thực nghiệm dựa mơ hình ResNet 122 Biểu đờ 5.24 Đánh giá label Mơ hình qua Accuracy, Precision, Recall F1-Score tập Test 123 Biểu đồ 5.25 Confusion matrix tập liệu 124 Biểu đồ 5.26 Confusion matrix tập liệu 124 Biểu đồ 5.27 Confusion matrix tập liệu 125 Chương Mơ hình đề xuất kết thực nghiệm 5.2.4 Mơ hình Chúng tơi xây dựng mơ hình dựa ý tưởng mơ hình Resnet50 để xử lý tốn phân loại da bằng hình ảnh Do hạn chế thiết bị, sử dụng đầu vào mơ hình (64, 64) Mơ hình kiến trúc Block input Bảng 5.22 Block_input của mô hình ResNet Layer Filter Size Kernel Stride Activation Size Input Image 64×64×3 - - - Batch Normalization 64×64×3 - - Relu Convolution 64 64×64×64 1×1 Relu Batch Normalization 64 64×64×64 - - Relu Zero Padding 64 66×66×64 1×1 Relu Max Pooling 64 32×32×64 3×3 Relu Batch Normalization 64 32×32×64 - - Relu Convolution 32 32×32×32 3×3 Relu Batch Normalizaion 32 32×32×32 - - Relu Convolution 32 32×32×32 3×3 Relu Batch Normalization 32 32×32×32 - - Relu 10 Convolution 128 32×32×128 3×3 Relu 14 Convolution 128 32×32×128 3×3 Relu 15 Add 128 32×32×128 - - Relu Block A Bảng 5.23 Block A của mô hình ResNet Layer Filter Size Kernel Stride Activation Size Batch Normalization K n×n×K - - Relu Convolution M n×n×M 1×1 Relu Batch Normalization M n×n×M - - Relu Trang 114 Chương Mơ hình đề xuất kết thực nghiệm Convolution M n×n×M 3×3 Relu Batch Normalizaion M n×n×M - - Relu Convolution K n×n×K 3×3 Relu Add K n×n×K - - Relu Block B Bảng 5.24 Block B của mô hình ResNet Layer Filter Size Kernel Stride Activation Size Batch Normalization K n×n×K - - Relu Convolution M n×n×M 1×1 Relu Batch Normalization M n×n×M - - Relu Convolution M m×m×M 3×3 Relu Batch Normalizaion M m×m×M - - Relu Convolution Q m×m×Q 3×3 Relu Convolution Q m×m×Q 3×3 Relu Add Q m×m×Q - - Relu Block output Bảng 5.25 Block_Output của mô hình ResNet Layer Filter Size Kernel Stride Activation Size Batch Normalization 512 8×8×512 - - Relu Average Pooling 512 1×1×512 8×8 - Relu Flatten - 512 - - Relu FC - - - Relu Tổng quan kiến trúc mơ hình Bảng 5.26 Tởng quan mơ hình kiến trúc Block Filter Size Trang 115 Chương Mơ hình đề xuất kết thực nghiệm Input - - A K = 128 n = 32 M = 32 A K = 128 n = 32 M = 32 B K = 128 n = 32 M = 64 m = 16 Q = 256 A K = 256 n = 16 M = 64 A K = 256 n = 16 M = 64 A K = 256 n = 16 M = 64 B K = 256 n = 16 M = 128 m=8 Q = 512 A K = 512 n=8 M = 128 10 A K = 512 n=8 M = 128 11 A K = 512 n=8 M = 128 12 A K = 512 n=8 M = 128 13 A K = 512 n=8 M = 128 15 Output - - Chúng sử dụng siêu tham số đầu vào cho mơ hình sau: Trang 116 Chương Mơ hình đề xuất kết thực nghiệm Bảng 5.27 Siêu tham số cho Mô hình Input shape 64, 64, Epochs 100 Learning rate 0,1 Optimize SGD Khởi tạo trọng số Không Activation Tại layer fc cuối: softmax; layer fc lại: relu Regularizaion - Batch Normalize: có - Dropout: không 5.2.4.1 Thực nghiệm lần Sử dụng siêu tham số đầu vào tảng Classification Report Bảng 5.28 Classification Report của mô hình (1) Precision Recall F1-Score Support AKIEC 0.56 0.38 0.45 500 BCC 0.60 0.67 0.63 500 BKL 0.43 0.60 0.50 500 DF 0.77 0.69 0.72 500 MEL 0.62 0.48 0.54 500 NV 0.77 0.80 0.79 500 VASC 0.91 1.00 0.95 500 Micro avg 0.66 0.66 0.66 3500 Macro avg 0.67 0.66 0.66 3500 Weighted avg 0.67 0.66 0.66 3500 Score Time 2.20 hour Error 34.03% Loss 1.95 Accuracy 65.97% Trang 117 Chương Mơ hình đề xuất kết thực nghiệm Plot Result Model Biểu đồ 5.20 Kết quả thực nghiệm lần tập Validation dựa mô hình ResNet Nhận xét Thực nghiệm mơ hình lần cho lấy mơ hình chưa ổn định có dấu hiệu học khớp với liệu huấn luyện 5.2.4.2 Thực nghiệm lần Điều chỉnh giá trị siêu tham số - Thêm Callbacks, tham số Callbacks gồm: o ReduceLOnPlateau: monitor = ‘val_loss’, factor: 0.2, patience = 2, verbose = 0, mode = ‘auto’, min_delta=0.0001, cooldown = 1, min_lr = 0.00001 - Optimizer: SGD - Activation: relu, softmax - Regularization: Batch Normalization Classification Report Bảng 5.29 Classification Report của mô hình (2) Precision Recall F1-Score Support AKIEC 0.56 0.58 0.57 500 BCC 0.63 0.65 0.64 500 BKL 0.47 0.58 0.52 500 DF 0.91 0.53 0.67 500 MEL 0.63 0.59 0.61 500 Trang 118 Chương Mơ hình đề xuất kết thực nghiệm NV 0.75 0.84 0.79 500 VASC 0.90 0.94 0.92 500 Micro avg 0.67 0.67 0.67 3500 Macro avg 0.69 0.67 0.67 3500 Weighted avg 0.69 0.67 0.67 3500 Score Time 2.20 hour Error 32.77% Loss 1.64 Accuracy 67.23% Plot Result Model Biểu đồ 5.21 Kết quả thực nghiệm lần tập Validation dựa mô hình ResNet Nhận xét: Thực nghiệm mơ hình lần cho lấy mơ hình ổn định khả học không hiệu xuất từ epoch15 Vì lần thực nghiệm dùng EarlyStopping để chọn điểm kết thúc lúc mơ hình có độ học tốt Trang 119 Chương Mơ hình đề xuất kết thực nghiệm 5.2.4.3 Thực nghiệm lần Điều chỉnh giá trị siêu tham số - Thêm Callbacks, tham số Callbacks gồm: ▪ EarlyStopping: monitor = ‘val_loss’, patience = 20 Classification Report Bảng 5.30 Classification Report của mô hình (3) Precision Recall F1-Score Support AKIEC 0.54 0.57 0.55 500 BCC 0.57 0.66 0.61 500 BKL 0.48 0.57 0.52 500 DF 0.87 0.49 0.62 500 MEL 0.61 0.57 0.59 500 NV 0.77 0.84 0.80 500 VASC 0.91 0.91 0.91 500 Micro avg 0.66 0.66 0.66 3500 Macro avg 0.68 0.66 0.66 3500 Weighted avg 0.68 0.66 0.66 3500 Score Time 2.20 hour Error 34.26% Loss 1.69 Accuracy 65.74% Trang 120 Chương Mơ hình đề xuất kết thực nghiệm Plot Result Model Biểu đồ 5.22 Kết quả thực nghiệm lần tập Validation dựa mơ hình ResNet Nhận xét Thực nghiệm mơ hình lần cho lấ áp dụng EarlyStopping my mơ hình cho kết kém lần thực nghiệm lần Vì chúng tơi sử dụng thực nghiệm để tiến hành kiểm định với liệu test 5.2.4.4 Kết luận – Đánh giá mô hình Sau đợt thực nghiệm chọn thực nghiệm để đánh giá tập test cho mô hình với siêu tham số phù hợp để thực áp dụng tập Test cho kết cuối cùng: Classification Report Bảng 5.31 Classification Report của mô hình Precision Recall F1-Score Support AKIEC 0.36 0.45 0.40 33 BCC 0.62 0.63 0.62 51 BKL 0.48 0.56 0.52 110 DF 0.55 0.55 0.55 11 MEL 0.43 0.44 0.43 110 NV 0.88 0.85 0.87 660 VASC 0.00 0.00 0.00 14 Micro avg 0.73 0.73 0.73 989 Macro avg 0.47 0.50 0.48 989 Trang 121 Chương Mơ hình đề xuất kết thực nghiệm Weighted avg 0.0.74 0.73 0.74 989 Score Time 2.20 hour Error 26.59% Loss 1.22 Accuracy 73.41% Confusion Matrix Biểu đồ 5.23 Confusion Matrix về tỉ lệ của thực nghiệm dựa mô hình ResNet Biểu đồ 5.23 cho ta thấy độ xác nhãn (trừ nhãn NV) đạt giá trị khoảng 50% Đối với tập nhãn MEL có độ xác tốt mơ hình trước còn có xu hướng dự đoán kết vào tập nhãn NV Đánh giá mô hình Từ hai Biểu đồ 5.24 ta nhận thấy rằng F1-score tập nhãn đầu giảm so với mơ hình trước Biểu đờ 5.19 Trang 122 Chương Mơ hình đề xuất kết thực nghiệm 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 AKIEC BCC BKL Accuracy DF Precision MEL Recall NV VASC F1-Score Biểu đồ 5.24 Đánh giá từng label Mô hình qua Accuracy, Precision, Recall và F1-Score tập Test Kết ḷn: Kết kiểm định thức mơ hình cho kết xác đến 72.41% Tuy nhiên độ xác khơng bằng so với kiểm định thức mơ hình 73% Đặc biệt nhãn VASC chưa phân loại xác 5.2.4.5 Đánh giá mô hình với k-fold cross validation: Ở lần thực nghiệm sử dụng phương pháp Cross Validation (k fold) đánh giá mơ hình Chúng sử dụng tham số k = để chia tập liệu Train thành phần bằng với tập Train gồm 21,000 ảnh (gồm 3,000 ảnh / nhãn) kết thể sau: K Accuracy (%) 46.05 70.3 70.9 69.45 69.45 Với giá trị trung bình: Mean = 65.23 %, độ lệch chuẩn: sd = 10.74 Nhận xét: Như vậy, phương sai độ xác mơ hình 65.23 % (±10.74) so với trước sử dụng k-fold cross validation 73.41 % Xét qua lần thực nghiệm cho Trang 123 Chương Mô hình đề xuất kết thực nghiệm thấy tập liệu số đến cho độ xác ổn định từ khoảng 69.45 ~ 70.9 % Tuy nhiên tập liệu số chỉ cho độ xác 46.05 % Các confusion matrix sau thể kết phân loại tập liệu 1, Biểu đồ 5.25 Confusion matrix của tập dữ liệu Biểu đồ 5.26 Confusion matrix của tập dữ liệu Trang 124 Chương Mơ hình đề xuất kết thực nghiệm Biểu đồ 5.27 Confusion matrix của tập dữ liệu Qua trình tìm hiểu nguyên nhân tập liệu số (Biểu đờ 5.25) có kết thấp tập liệu lại, chúng tơi nhận thấy rằng tập test có số lượng liệu (khoảng 1,053 ảnh) nhãn NV có đặc điểm màu sắc tương đồng với liệu nhãn MEL nhãn BKL, khiến cho mô hình dự đốn sai số lượng ảnh nhãn NV thành nhãn MEL (477 ảnh) BKL (314) Điều cho thấy rằng, chưa tiền xử lý liệu triệt để khiến cho mơ hình bị giảm độ xác Tởng kết chương Chương tập trung trình bày tiền xử lý tập liệu phương pháp cài đặt mơi trường chạy thực nghiệm mơ hình Đờng thời trình bày kết thực nghiệm, bao gờm kết so sánh đánh giá mơ hình Trang 125 KẾT LUẬN Những vấn đề đã làm được Luận văn nghiên cứu, tìm hiểu tốn phân loại tổn da bằng hình ảnh báo cơng trình liên quan đến tốn Xây dựng chia liệu ảnh dùng để huấn luyện thực phát triển, cài đặt môi trường áp dụng mơ hình tìm hiểu LeNet, VGG16 ResNet để giải toán Cài đặt tinh chỉnh tham số mạng Neuron vào toán nhận dạng phân loại hình ảnh đờng thời xây dựng ứng dụng phân loại bệnh cho ảnh tổn thương da Những vấn đề chưa làm được Chưa thật vững kiến thức máy học, thuật toán trọng tâm CNN ý nghĩa ý tưởng mơ hình Chỉ nghiên cứu mơ hình có kiến trúc đơn giản với số lượng layer ít, chưa tìm hiểu mơ hình có kiến trúc phức tạp hơn, độ sâu layer deep để có thể học nhiều Thực nghiệm dataset test ISIC 2018 thực thực tế cho kết chưa khả quan, nguyên nhân phân bố ảnh chênh lệch khác lớn số lượng ảnh nhãn dẫn đến khó huấn luyện, học có kết xác tốt Hệ thống nhận dạng phân loại bệnh da còn cần nhiều cải thiện thêm ứng dụng có thể sử dụng Hướng phát triển Tìm hiểu thêm mơ hình kiến trúc tốt để có thể tối ưu đưa so sánh, đánh giá chọn mơ hình thích hợp cho tốn phân loại tổn thương da bằng hình ảnh Phát triển chương trình thực nghiệm thành chương trình có ý nghĩa thực tế thân thiện với người dùng, ví dụ nhận dạng phân loại tổn thương da đa tảng Trang 126 TÀI LIỆU THAM KHẢO [1] R S Stern, “Prevalence of a history of skin cancer in 2007: results of an incidence-based model,” Arch Dermatol., vol 146, no 3, pp 279–282, 2010 [2] R L Siegel, K D Miller, and A Jemal, “Cancer statistics, 2019,” CA Cancer J Clin., vol 69, no 1, pp 7–34, 2019 [3] A Krizhevsky, I Sutskever, and G E Hinton, “Imagenet classification with deep convolutional neural networks,” in Advances in neural information processing systems, 2012, pp 1097–1105 [4] T.-Y Lin et al., “Microsoft coco: Common objects in context,” in European conference on computer vision, 2014, pp 740–755 [5] M Everingham and J Winn, “The PASCAL visual object classes challenge 2012 (VOC2012) development kit,” Pattern Anal Stat Model Comput Learn Tech Rep, 2011 [6] A Karpathy, “CS231n Convolutional Neural Networks for Visual Recognition-Image Classification.” [7] W C Seng and S H Mirisaee, “A new method for fruits recognition system,” in 2009 International Conference on Electrical Engineering and Informatics, 2009, vol 1, pp 130–134 [8] S Arivazhagan, R N Shebiah, S S Nidhyanandhan, and L Ganesan, “Fruit recognition using color and texture features,” J Emerg Trends Comput Inf Sci., vol 1, no 2, pp 90–94, 2010 [9] Y Zhang and L Wu, “Classification of fruits using computer vision and a multiclass support vector machine,” sensors, vol 12, no 9, pp 12489–12505, 2012 [10] R Buyya, R N Calheiros, and A V Dastjerdi, Big data: principles and paradigms Morgan Kaufmann, 2016 [11] X Glorot and Y Bengio, “Understanding the difficulty of training deep feedforward neural networks,” in Proceedings of the thirteenth international conference on artificial intelligence and statistics, 2010, pp 249–256 [12] K He, X Zhang, S Ren, and J Sun, “Delving deep into rectifiers: Surpassing humanlevel performance on imagenet classification,” in Proceedings of the IEEE international conference on computer vision, 2015, pp 1026–1034 [13] Y LeCun, “LeNet-5, convolutional neural networks,” URL http//yann lecun com/exdb/lenet, vol 20, 2015 [14] K Simonyan and A Zisserman, “Very deep convolutional networks for large-scale Trang 127 image recognition,” arXiv Prepr arXiv1409.1556, 2014 [15] K He, X Zhang, S Ren, and J Sun, “Deep residual learning for image recognition,” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2016, pp 770–778 [16] S Kitada and H Iyatomi, “Skin lesion classification with ensemble of squeeze-andexcitation networks and semi-supervised learning,” arXiv Prepr arXiv1809.02568, 2018 [17] J Hu, L Shen, and G Sun, “Squeeze-and-excitation networks,” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2018, pp 7132–7141 [18] A Tarvainen and H Valpola, “Mean teachers are better role models: Weight-averaged consistency targets improve semi-supervised deep learning results,” in Advances in neural information processing systems, 2017, pp 1195–1204 [19] Y Tokozume, Y Ushiku, and T Harada, “Between-class learning for image classification,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018, pp 5486–5494 [20] Z Zhong, L Zheng, G Kang, S Li, and Y Yang, “Random erasing data augmentation,” arXiv Prepr arXiv1708.04896, 2017 [21] G L L DE BUFFON, “Essai d’arithmétique morale,” Euvres Philos., 1777 [22] C Szegedy et al., “Going deeper with convolutions,” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2015, pp 1–9 [23] S Tokui, K Oono, S Hido, and J Clayton, “Chainer: a next-generation open source framework for deep learning,” in Proceedings of workshop on machine learning systems (LearningSys) in the twenty-ninth annual conference on neural information processing systems (NIPS), 2015, vol 5, pp 1–6 [24] Y Xie, J Zhang, and Y Xia, “A Multi-Level Deep Ensemble Model for Skin Lesion Classification in Dermoscopy Images,” arXiv Prepr arXiv1807.08488, 2018 Trang 128

Ngày đăng: 01/09/2023, 21:54

Tài liệu cùng người dùng

  • Đang cập nhật ...

Tài liệu liên quan