1. Trang chủ
  2. » Luận Văn - Báo Cáo

Phân loại ảnh ung thư dựa trên phương pháp học sâu

59 2 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 59
Dung lượng 2,33 MB

Nội dung

ĐẠI HỌC QUỐC GIA TP.HCM TRƯỜNG ĐẠI HỌC BÁCH KHOA KHOA KHOA HỌC VÀ KỸ THUẬT MÁY TÍNH LUẬN VĂN TỐT NGHIỆP ĐẠI HỌC PHÂN LOẠI ẢNH UNG THƯ DỰA TRÊN PHƯƠNG PHÁP HỌC SÂU NGÀNH: KHOA HỌC MÁY TÍNH HỘI ĐỒNG: KHOA HỌC MÁY TÍNH GVHD: PGS.TS NGUYỄN THANH BÌNH GVPB: THS ĐỖ THANH THÁI o0o -SVTH : Nguyễn Trần Đăng Khoa (1711789) TP.HỒ CHÍ MINH, 01/2023 Trang ii Trang iii Trang iv LỜI CAM ĐOAN Tôi cam đoan rằng: Luận văn “Phân loại ảnh ung thư dựa phương pháp học sâu” kết nghiên cứu hướng dẫn PGS.TS Nguyễn Thanh Bình, khơng phải chép nguồn khác Tất tài liệu tham khảo, trích dẫn kế thừa để hoàn thành luận văn liệt kê đầy đủ danh mục tài liệu tham khảo Tơi xin hứa chịu tồn trách nhiệm cho lời cam đoan Trang v LỜI CẢM ƠN Tơi xin tỏ lịng biết ơn sâu sắc với PGS.TS Nguyễn Thanh Bình, người thầy tận tình hướng dẫn giúp đỡ, bảo suốt q trình nghiên cứu hồn thành luận văn tốt nghiệp Tôi xin chân thành cảm ơn thầy cô trường Đại học Bách Khoa Thành phố Hồ Chí Minh, đặc biệt thầy khoa Khoa học Kỹ thuật máy tính tận tình dạy dỗ, giúp đỡ tạo điều kiện tốt cho tơi để tơi hồn thành đề tài Cuối xin gửi lời cảm ơn cho hỗ trợ, động viên ủng hộ từ gia đình, bạn bè người ln bên cạnh tơi Dù tơi nỗ lực hồn thành luận văn khà có thể, tơi khó mà tránh thiếu sót, sai lầm Rất mong nhận đánh giá, nhận xét phê bình từ q thầy để giúp cho luận văn tơi hồn thiện Tơi xin chân thành cảm ơn! Trang vi TÓM TẮT Ngày nay, bên cạnh dịch bệnh truyền nhiễm, HIV/AIDS đột quỵ ung thư nguyên nhân dẫn đến tử vong phổ biến giới Bệnh ung thư ngăn chặn phát chẩn đoán sớm, việc chẩn đoán lại đòi hỏi nhiều thời gian kinh nghiệm từ bác sĩ để có kết xác, điều làm việc điều trị gặp nhiều khó khăn Hiện khoa học kỹ thuật phát triển nhiều, đời công nghệ học sâu giúp cho việc chẩn đoán ung thư trở nên hiệu nhanh chóng hơn, góp phần làm tăng khả ngăn chặn chữa trị cho bệnh nhân mắc bệnh ung thư, làm trợ thủ đắc lực hỗ trợ bác sĩ chẩn đốn bệnh ung thư nhanh chóng xác Trong luận văn này, tơi tìm hiểu thử sử dụng cơng nghệ có liên quan đến việc phân loại tự động loại ung thư Sau nhiều lần thử với công nghệ khác nhau, đề xuất sử dụng phương pháp DenseNet201 Yolov7 để đạt độ xác tốt Sau sử dụng DenseNet201 Yolov7 với kỹ thuật cải thiện độ xác học sâu tập liệu HAM10000 dùng để phân loại tự động ảnh ung thư da, tơi đạt độ xác cuối lên đến 92.3% cho DenseNet201 86.65% cho Yolov7 Trang vii MỤC LỤC LỜI CAM ĐOAN ii LỜI CẢM ƠN vi TÓM TẮT vii MỤC LỤC viii DANH MỤC HÌNH VẼ x DANH MỤC BẢNG BIỂU xii DANH MỤC VIẾT TẮT xiii CHƯƠNG GIỚI THIỆU 1.1 Giới thiệu đề tài 1.2 Mục tiêu nội dung đề tài 1.3 Giới hạn đề tài .2 1.4 Cấu trúc báo cáo CHƯƠNG CƠ SỞ LÝ THUYẾT VÀ CÁC NGHIÊN CỨU LIÊN QUAN 2.1 Cơ sở lý thuyết 2.1.1 Ảnh ung thư 2.1.2 Mạng nơ-ron tích chập (Convolutional neural network) 2.2 Các nghiên cứu liên quan 13 2.2.1 Cơng trình nghiên cứu: Data Augmentation for Skin Lesion Analysis [5] 14 2.2.2 Cơng trình nghiên cứu: A comparative study of deep learning architectures on melanoma detection [6] 14 2.2.3 Cơng trình nghiên cứu: A multi-class skin Cancer classification using deep convolutional neural networks [7] 15 2.2.4 Cơng trình nghiên cứu: Soft-Attention Improves Skin Cancer Classification Performance [8] 15 2.2.5 Cơng trình nghiên cứu: The HAM10000 dataset, a large collection of multisource dermatoscopic images of common pigmented skin lesions [9] 15 2.2.6 Cơng trình nghiên cứu: YOLOv7: Trainable bag-of-freebies sets new stateof-the-art for real-time object detectors [10] 16 CHƯƠNG PHƯƠNG PHÁP ĐỀ XUẤT PHÂN LOẠI ẢNH UNG THƯ DA 17 Trang viii 3.1 Yêu cầu toán 17 3.2 Phương pháp đề xuất 17 3.2.1 Phân loại ảnh ung thư sử dụng DenseNet .17 3.2.2 Phân loại ảnh ung thư sử dụng Yolo: 24 3.3 Thang đo đánh giá 30 CHƯƠNG HIỆN THỰC VÀ ĐÁNH GIÁ KẾT QUẢ 32 4.1 Tập liệu phần cứng máy tính 32 4.2 Kết thực 34 4.2.1 Phương pháp DenseNet201 34 4.2.2 Phương pháp Yolov7 .37 4.3 So sánh đánh giá kết 39 CHƯƠNG KẾT LUẬN 41 5.1 Kết đạt 41 5.2 Ưu nhược điểm phương pháp đề xuất 41 5.3 Hướng mở rộng tương lai 43 TÀI LIỆU THAM KHẢO 44 Trang ix DANH MỤC HÌNH VẼ Hình : Ảnh CT phổi người bị ung thư [1] Hình 2 : Phép tích chập ma trận hai chiều Hình : Minh họa cấu trúc thường thấy mạng CNN [3] .7 Hình : Minh họa phép tích chập thực mạng tích chập [4] Hình : Sự khác tương quan chéo tích chập Hình : Minh họa phép tích chập thực đệm 10 Hình : Minh họa phép tích chập với sải bước khác 10 Hình : Minh họa phép gộp trung bình cực đại 12 Hình : So sánh tỉ lệ lỗi top-1 DenseNet ResNet tập liệu kiểm định ImageNet hàm tham số học (trái) FLOP thời gian test (phải) [16] 19 Hình : Minh họa khối phần dư 19 Hình 3 : Quá trình huấn luyện phân loại ảnh ung thư da sử dụng DenseNet201 20 Hình : Kiến trúc DenseNet201 dùng huấn luyện [20] 23 Hình : Sức mạnh YOLOv7 so sánh với phiên YOLO khác [21]25 Hình : Ảnh ung thư biểu mô tế bào đáy (bcc) phát Yolov7 25 Hình : Quá trình huấn luyện phân loại ảnh ung thư da sử dụng Yolov7 26 Hình : Miêu tả mơ hình Yolov7 27 Hình : Backbone YOLOv7 [25] 28 Hình 10 : Neck YOLOv7 [25] .29 Hình 11 : YOLOR sử dụng implicit explicit knowledge dựa multi-task learning 29 Hình : Ảnh bệnh nốt ruồi (nv) 33 Hình : Ảnh u xơ da (df) 33 Trang x CHƯƠNG HIỆN THỰC VÀ ĐÁNH GIÁ KẾT QUẢ 4.1 Tập liệu phần cứng máy tính Tơi sử dụng tập liệu HAM10000 [6] để phân loại ảnh ung thư da Tập liệu HAM10000 [8] gồm 10015 ảnh soi da chia thành bảy lớp đại diện quan trọng lĩnh vực tổn thương sắc tố:  327 ảnh Dày sừng quang hóa Ung thư tế bào vảy khu trú da/bệnh Bowen (akiec)  514 ảnh ung thư biểu mô tế bào đáy (bcc)  1099 ảnh tổn thương lành tính giống dày sừng (đồi mồi, dày sừng tiết bã lichen phẳng dày sừng, bkl)  115 ảnh u xơ da (df)  1113 ảnh ung thư hắc tố da (mel)  6705 ảnh nốt ruồi (nv)  142 ảnh tổn thương mạch máu (u mạch, u mạch sừng hóa, u hạt nhiễm khuẩn xuất huyết, vasc) Các ảnh tập liệu có kích thước 600x450 với định dạng ảnh jpg Tôi chia tập liệu HAM10000 [8] thành ba tập nhỏ: ~80% liệu cho train, ~10% liệu cho validation, ~10% liệu cho test Cụ thể, với DenseNet201 tơi có tập liệu bao gồm: 7973 ảnh dùng cho train, 1021 ảnh dùng cho validation, 1021 ảnh dùng cho testing Sau cân liệu phương pháp khác nhau, ảnh dùng để train tăng lên thành 46001 ảnh Còn với Yolov7 tơi có tập liệu bao gồm: 7806 ảnh dùng cho train, 1103 ảnh dùng cho validation, 1103 ảnh dùng cho testing Tất chia làm bảy lớp cho: �ố ả�ℎ ����� �ớ� �ấ� �ỳ �ù�� để �������� �ố ả�ℎ ����� �ớ� �ấ� �ỳ �ù�� để ������� = �ổ�� �ố ả�ℎ �ù�� để �������� �ổ�� �ố ả�ℎ �ù�� để ������� Trang 32 Một số hình ảnh ung thư da tập liệu: Hình 1: Ảnh bệnh nốt ruồi (nv) Hình 2: Ảnh u xơ da (df) Lưu ý: Tập liệu huấn luyện DenseNet cân liệu Weighted Random Sampling PyTorch, tập liệu huấn luyện Yolov7 giữ ban đầu, lý cho điều mạng Yolo cần người sử dụng phải Trang 33 khoanh vùng để tạo labels nên tơi gặp khó khăn việc tăng cường liệu kết huấn luyện Yolov7 đủ tốt để sử dụng (mAP@.5 = 81.2% > 80%) nên định bỏ qua bước cân liệu cho Yolov7 Tuy điều ảnh hưởng đến việc so sánh DenseNet201 Yolov7, nên định thêm vào kết huấn luyện DenseNet201 liệu chưa cân để việc so sánh phần trực quan Mơ hình huấn luyện Google Colab có cấu sau: CPU: Intel(R) Xeon(R) CPU @ 2.00GHz GPU: Tesla T4 Bộ nhớ RAM: 13GB RAM thông thường, 25GB high-RAM Dung lượng ổ cứng: 166GB GPU, 225GB CPU 4.2 Kết thực 4.2.1 Phương pháp DenseNet201 Với DenseNet201, thu giá trị loss nhỏ tập test 0.3989 Độ xác test tơi thu tương ứng 92.3% Tôi dùng confusion matrix để có nhìn tổng qt khả phân loại ảnh ung thư da lớp mơ hình Confusion matrix DenseNet201 tơi nhận Trang 34 Hình 3: Confusion matrix DenseNet201 tập kiểm tra Cuối bảng giá trị precision, recall f1-score lớp kiến trúc DenseNet201 tập test Chi tiết giá trị mô tả bảng 4.1 Bảng 1: Precison, recall f1 DenseNet201 cân tập kiểm tra Trang 35 Trong giá trị trung bình có trọng số precision, recall f1 tập kiểm tra 93.2%, 92.44% 92.3% Để so sánh với Yolov7 thêm cơng bằng, huấn luyện DenseNet201 mà không sử dụng đến phương pháp cân bằng, cho kết bảng sau: Bảng 2: Precison, recall f1 DenseNet201 khơng cân tập kiểm tra Trong giá trị trung bình có trọng số precision, recall f1 tập kiểm tra 86.45%, 86.89% 86.67% Dù sử dụng DenseNet201 không cân mục tiêu tơi so sánh DenseNet201 cân Yolov7, DenseNet201 không cân để có nhìn tổng qt thơi Hình ảnh kết thực nghiệm sử dụng mơ hình DenseNet201 ảnh da bị ung thư ảnh da khơng bị ung thư: Hình 4: Kết dự đoán ảnh da bị ung thư (trái) ảnh da không bị ung thư (phải) mô hình DenseNet201 Trang 36 4.2.2 Phương pháp Yolov7 Với Yolov7 đề xuất, giá trị loss nhỏ tập test thu 0.02954 Giá trị accuracy tương ứng test 86.65% Tương tự kiến trúc DenseNet201, sử dụng confusion matrix để kiểm chất lượng mơ hình Hình 4.2 bên confusion matrix tơi thu Yolov7 tập kiểm tra Hình 5: Confusion matrix Yolov7 tập kiểm tra Ban đầu, Yolov7 cho kết tập kiểm tra sau bảng 4.3: Bảng 3: Kết thu Yolov7 tập kiểm tra Trang 37 Nhưng để dễ so sánh với DenseNet, sử dụng công thức (3.1) (3.4) mục 3.3 để tính tốn lại cho bảng 4.4 đây: precision recall f1-score support akiec 0.87 0.647 0.742 31 bcc 0.739 0.692 0.715 39 bkl 0.763 0.683 0.7219 104 df 0.727 0.842 mel 0.608 0.698 0.65 51 nv 0.93 0.882 0.905 975 vasc 0.856 0.922 14 0.867 1222 accuracy macro avg 0.785 0.8 0.792 1222 weighted avg 0.891 0.845 0.867 1222 Bảng 4: Precison, recall f1 Yolov7 đề xuất tập kiểm tra Các giá trị cụ thể trung bình có trọng số precision, recall f1 tập kiểm tra thu 89.08%, 84.5% 86.65% Hình ảnh kết thực nghiệm sử dụng mơ hình Yolov7 ảnh da bị ung thư ảnh da không bị ung thư: Hình 6: Kết dự đốn ảnh da bị ung thư (trái) ảnh da khơng bị ung thư (phải) mơ hình Yolov7 Trang 38 4.3 So sánh đánh giá kết Như bảng số liệu bên ta thấy DenseNet201 có độ xác cao Yolov7, DenseNet201 cân liệu Weighted Random Sampling PyTorch, cịn Yolov7 khơng, thay vào tơi sử dụng file “pretrain/yolov7.pt” để hỗ trợ huấn luyện Lý không dùng tăng cường liệu Yolov7 thứ việc tăng cường liệu cho Yolo khó khăn rủi ro DenseNet nhiều gặp vấn đề labels Yolo, thứ hai tơi thấy kết đủ tốt mà chí khơng cần tới việc cân liệu, với độ xác f1-score tới 86.65% mAP@.5 tới 81.2%, cho không thực cần thiết để cân liệu cho Yolov7 lần làm cho việc so sánh với DenseNet 201 không công cho Để có nhìn tổng quan khác có cân khơng có cân bằng, huấn luyện DenseNet201 với tập liệu không cân để so sánh với DenseNet cân Yolov7 bảng đây: Phương pháp Weighted akiec bcc bkl df mel nv vasc 0.36 0.68 0.52 0.33 0.39 0.95 0.73 0.86 0.62 0.80 0.77 0.86 0.62 0.97 0.91 0.92 0.74 0.72 0.72 0.84 0.65 0.91 0.92 0.87 average DenseNet201 Khơng cân DenseNet201 Có cân Yolov7 Bảng 5: Bảng so sánh f1-score DenseNet201 cân bằng, DenseNet201 không cân liệu Yolov7 tập HAM10000 Bảng 4.5 cho ta thấy DenseNet201 với liệu cân không hẳn DenseNet khơng cân tất lớp mà cịn cân tỉ lệ lớp, điều làm giảm khả bị đoán nhầm chênh lệch lớp Quan sát khác Yolov7 sử dụng pretrain DenseNet201 cân bảng 4.5, kết luận tỉ lệ lớp Yolov7 tỏ cân Trang 39 đa số thua DenseNet201 độ xác Duy có lớp akiec, mel vasc Yolov7 có tỉ lệ cao DenseNet201 cân chút với 12%, 3% 1% Cịn lại DenseNet201 cân có kết Weighted average cao Yolov7 tới 5% Nhưng so với DenseNet201 chưa cân Yolov7, ta thấy hầu hết số Yolov7 vượt chội DenseNet201, có nv DenseNet201 cao Yolov7 tới 4%, điều chênh lệch lớp DenseNet201 Quan sát confusion matrix hình 4.3 4.5, đường chéo đậm thể độ xác nhận diện bệnh ung thư từ hình ảnh da dùng để testing Các xung quanh đường chéo cho thấy kết sai dự đoán kết tập kiểm tra Với DenseNet201, thấy mel dễ nhầm lẫn sang nv biểu mel giống nv, đồng thời bkl dễ lẫn lộn thành mel nv Với Yolov7, df mel dễ lẫn lộn nv, df lẫn lộn với bkl, background dễ nhầm lẫn nv tỉ lệ liệu nv áp đảo so với lớp khác (hơn 60% HAM10000) Trang 40 CHƯƠNG KẾT LUẬN 5.1 Kết đạt Thơng qua q trình làm luận văn, tơi tìm hiểu ảnh ung thư tìm hiểu cơng trình nghiên cứu liên quan đặc trưng ảnh ung thư da Sau đó, tơi đề xuất sử dụng phương pháp DenseNet201 Yolov7, thực phương pháp đề xuất kết hợp với kỹ thuật học sâu, so sánh kết phương pháp với Kết cuối DenseNet201 cân vượt mặt Yolov7 với trọng số f1-score hai 92.3% 86.65% 5.2 Ưu nhược điểm phương pháp đề xuất Về DenseNet201: Ưu điểm:  Dễ xử lý tình trạng cân liệu dùng để huấn luyện mơ hình Đây vấn đề thường xuyên gặp phải thực tiễn sử dụng deep learning  Có độ xác tăng đáng kể so với ResNet VggNet có độ dày layer cao cho liệu qua nhiều tầng phức tạp  Chỉ cần phân nửa liệu để đạt hiệu với ResNet, chống underfitting tốt Nhược điểm:  Vì có độ dày layer dày nên tốn thời gian số lượng epoch mà DenseNet201 lớn so với ResNet VggNet, trung bình cần tầm 5-7 tiếng với 70-80 epoch trước Stop Early  Cần nhiều GPU Resnet  Phải dùng ảnh size 224x224, không kết đầu không tốt ý muốn Trang 41 Về Yolov7: Ưu điểm:  Dễ học, dễ hiểu, ứng dụng vào thực tế lớn, cộng đồng sử dụng nhiều nâng cấp thường xuyên  Độ xác cân cao chí với liệu thiếu cân  Có pretrain có sẵn hỗ trợ nhiều cho việc huấn luyện liệu thấp  Không phân loại mà cịn vị trí dấu hiệu bệnh ung thư  Có thể dễ dàng huấn luyện tiếp từ liệu huấn luyện trước khơi phục tiếp tục huấn luyện trường hợp bị dừng lại bất khả kháng điện mạng internet Google colab hết thời gian sử dụng ngày Nhược điểm:  Cần phải tải chương trình Yolov7 github sử dụng hay sử dụng thư viện có sẵn Google colab DenseNet  Database cách xếp vị trí folder database dùng để huấn luyện Yolov7 phức tạp phải chia thành folder images labels  Quá trình khoanh vùng tạo label tốn thời gian công sức, sử dụng liệu lớn lên đến 10000 hình, người khoanh vùng sai ung thư da khơng phải chuyên ngành họ  Vì phải tự tay khoanh vùng bảng nên gặp khó khăn việc tăng cường liệu phương pháp xoay ảnh, thay đổi kích cỡ ảnh hay tăng giảm độ sáng ảnh sử dụng DenseNet  Tốn vô nhiều thời gian, GPU epoch Để kết tốt cần huấn luyện từ 100-200 epoch, tốn 12-15 cho lần huấn luyện, dễ dẫn đến google colab chừng treo máy không để ý đến Trang 42 5.3 Hướng mở rộng tương lai Mơ hình bao gồm loại bệnh ung thư da khác nhau, cịn nhiều ung thư da ta bổ sung thêm vào làm cho tập liệu trở nên đa dạng có kích thước lớn Tơi chưa sử dụng phương pháp tăng liệu với Yolov7, sau tăng liệu có khả độ xác Yolov7 cịn cao Tìm hiểu thêm chế mới, nghiên cứu thêm kỹ thuật học sâu tiên tiến khác để tìm cách nâng cao độ xác cho phân loại ung thư da Chọn lọc kết hợp chế, kỹ thuật lại với để tối đa hóa độ xác mà mơ hình đạt Trang 43 TÀI LIỆU THAM KHẢO [1] Magdy, Eman, Nourhan Zayed and Mahmoud Abdelmoneim Fakhr “Automatic Classification of Normal and Cancer Lung CT Images Using Multiscale AM-FM Features.” International Journal of Biomedical Imaging 2015 (2015): n pag [2] Borkowski, Andrew A., Marilyn M Bui, L Brannon Thomas, Catherine P Wilson, Lauren A Deland and Stephen M Mastorides “Lung and Colon Cancer Histopathological Image Dataset (LC25000).” ArXiv abs/1912.12142 (2019): n pag [3] Pham Ba Cuong Quoc, “Tìm Hiểu Convolutional Neural Networks Cho Phân Loại Ảnh,” 2019 [Online] Available: https://pbcquoc.github.io/cnn/ [Accessed 09/ 05/ 2022] [4] Huỳnh Thanh Việt, “Tìm hiểu mạng nơron tích chập (convolutional neural networks),” 2020 [Online] Available: https://thanhvie.com/tim-hieu-ve-mangno-ron-tich-chap-convolutional-neural-networks/ [Accessed 09/05/2022] [5] Perez, Fábio, Cristina Nader Vasconcelos, Sandra Avila and Eduardo Valle “Data Augmentation for Skin Lesion Analysis.” OR 2.0/CARE/CLIP/ISIC@MICCAI (2018) [6] Hosseinzadeh Kassani, Sara and Peyman Hosseinzadeh Kassani “A comparative study of deep learning architectures on melanoma detection.” Tissue & cell 58 (2019): 76-83 [7] Chaturvedi, Saket S., Jitendra V Tembhurne and Tausif Diwan “A multi-class skin Cancer classification using deep convolutional neural networks.” Multimedia Tools and Applications (2020): - 22 [8] Datta, Soumyya Kanti, Mohammad Abuzar Shaikh, Hari Srihari and Mingchen Gao “Soft-Attention Improves Skin Cancer Classification Performance.” ArXiv abs/2105.03358 (2021): n pag Trang 44 [9] Tschandl, P., Rosendahl, C & Kittler, H The HAM10000 dataset, a large collection of multi-source dermatoscopic images of common pigmented skin lesions Sci Data 5, 180161 (2018) https://doi.org/10.1038/sdata.2018.161 [10] Chien-Yao Wang , Alexey Bochkovskiy, and Hong-Yuan Mark Liao, Institute of Information Science, Academia Sinica, Taiwan “YOLOv7: Trainable bagof-freebies sets new state-of-the-art for real-time object detectors” July 2022 [11] He, Kaiming, X Zhang, Shaoqing Ren and Jian Sun “Deep Residual Learning for Image Recognition.” 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) (2016): 770-778 [12] Kittler, Harald, Hubert Pehamberger, Klaus Wolff and Michael Binder “Diagnostic accuracy of dermoscopy.” The Lancet Oncology 3 (2002): 15965 [13] Morton CA, Mackie RM (1998) Clinical accuracy of the diagnosis of cutaneous malignant melanoma Br J Dermatol 138(2):283–287 [14] Glorot, Xavier and Yoshua Bengio “Understanding the difficulty of training deep feedforward neural networks.” AISTATS (2010) [15] Smith, Leslie N “A disciplined approach to neural network hyper-parameters: Part - learning rate, batch size, momentum, and weight decay.” ArXiv abs/1803.09820 (2018): n pag [16] Huang, Gao, Zhuang Liu, Laurens Van Der Maaten, and Kilian Q Weinberger "Densely Connected Convolutional Networks." 2017 [17] He, Kaiming, Xiangyu Zhang, Shaoqing Ren, and Jian Sun "Deep residual learning for image recognition." In Proceedings of the IEEE conference on computer vision and pattern recognition, pp 770-778 2016 [18] Simonyan, Karen, and Andrew Zisserman "Very deep convolutional networks for large-scale image recognition." arXiv preprint arXiv:1409.1556 (2014) [19] Aman Arora, "DenseNet Architecture Explained with PyTorch Implementation from TorchVision" 2020 [Online] Available: https://amaarora.github.io/2020/08/02/densenets.html [Accessed 01/ 12/ 2022] Trang 45 [20] Reinel Tabares Soto, "Optimized Convolutional Neural Network Models for Skin Lesion Classification" 2021 [Online] Available: https://www.researchgate.net/figure/DenseNet-201-model-optimization-wherethe-number-of-hidden-layers-are-512-128-64-32_fig3_355048995 [Accessed 01/ 12/ 2022] [21] WongKinYiu, Github Yolov7 [Online] Available: https://github.com/WongKinYiu/yolov7 [22] Kukil, Sovit Rath, YOLOv7 Object Detection Paper Explanation & Inference 2022 [Online] Available: https://learnopencv.com/yolov7-object-detectionpaper-explanation-and-inference/ [23] Quoc Pham, Tìm Hiểu Mơ Hình YOLO Cho Bài Toán Object Detection Understanding YOLO 2018 [Online] Available: https://pbcquoc.github.io/yolo/ [24] Elias Arcondoulis, Acoustic source imaging using densely connected convolutional networks 2018 [Online] Available: https://www.researchgate.net/figure/Typical-architecture-of-DenseNet-201using-a-growth-rate-of-32-32-showing-each-of-the_tbl1_345656065 [25] Nguyen Mai, [Paper Explain] YOLOv7: Sử dụng "trainable bag-offreebies" đưa YOLO lên tầm cao (phần 3) 2022 [Online] Available: https://viblo.asia/p/paper-explain-yolov7-su-dung-cac-trainable-bag-of-freebiesdua-yolo-len-mot-tam-cao-moi-phan-3-018J253M4YK Trang 46

Ngày đăng: 20/06/2023, 20:41