Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống
1
/ 58 trang
THÔNG TIN TÀI LIỆU
Thông tin cơ bản
Định dạng
Số trang
58
Dung lượng
1,93 MB
Nội dung
BỘ GIÁO DỤC VÀ ĐÀO TẠO UBND TỈNH THANH HÓA TRƯỜNG ĐẠI HỌC HỒNG ĐỨC PHAN THANH QUYỀN NGHIÊN CỨU XÂY DỰNG MƠ HÌNH PHÁT HIỆN BỆNH COVID-19 THƠNG QUA ẢNH CHỤP X-QUANG PHỔI SỬ DỤNG TRÍ TUỆ NHÂN TẠO LUẬN VĂN THẠC SĨ MÁY TÍNH THANH HĨA, NĂM 2022 BỘ GIÁO DỤC VÀ ĐÀO TẠO UBND TỈNH THANH HÓA TRƯỜNG ĐẠI HỌC HỒNG ĐỨC PHAN THANH QUYỀN NGHIÊN CỨU XÂY DỰNG MƠ HÌNH PHÁT HIỆN BỆNH COVID-19 THƠNG QUA ẢNH CHỤP X-QUANG PHỔI SỬ DỤNG TRÍ TUỆ NHÂN TẠO LUẬN VĂN THẠC SĨ MÁY TÍNH Chuyên ngành: Khoa học máy tính Mã số: 8480101 Người hướng dẫn khoa học: TS Lê Đình Nghiệp THANH HĨA, NĂM 2022 Danh sách Hội đồng đánh giá luận văn Thạc sỹ khoa học (Theo Quyết định số: /QĐ- ĐHHĐ ngày tháng năm 2022 Hiệu trưởng Trường Đại học Hồng Đức) Học hàm, học vị Cơ quan Chức danh Họ tên Công tác Hội đồng Chủ tịch HĐ UV, Phản biện UV, Phản biện Uỷ viên Uỷ viên, Thư ký Xác nhận Người hướng dẫn Học viên chỉnh sửa theo ý kiến Hội đồng Ngày tháng năm 2022 LỜI CAM ĐOAN Tôi xin cam đoan cơng trình nghiên cứu thân hướng dẫn TS Lê Đình Nghiệp Các kết nghiên cứu kết luận luận văn trung thực, không chép từ nguồn hình thức Việc tham khảo nguồn tài liệu (nếu có) thực trích dẫn ghi nguồn tài liệu tham khảo quy định Người cam đoan Phan Thanh Quyền i LỜI CẢM ƠN Với tình cảm chân thành, em xin bày tỏ lòng biết ơn sâu sắc tới thầy TS Lê Đình Nghiệp, Trường Đại học Hồng Đức tận tình hướng dẫn, tạo điều kiện tốt nhất, giúp đỡ em suốt trình thực luận văn Em xin gửi lời cảm ơn đến Ban lãnh đạo, thầy cô, cán Bộ môn Khoa học máy tính, Khoa Cơng nghệ Thơng tin & Truyền thơng, Phịng Quản lý đào tạo Sau đại học, Trường Đại học Hồng Đức; bạn bè đồng nghiệp, gia đình người thân động viên, giúp đỡ em trình học tập, nghiên cứu thực luận văn Xin chân thành cảm ơn! Thanh Hóa, ngày 12 tháng năm 2022 Tác giả luận văn Phan Thanh Quyền ii MỤC LỤC LỜI CAM ĐOAN………………………………………………………… i LỜI CẢM ƠN……………………………………………………………….ii MỤC LỤC………………………………………………………………… iii DANH MỤC CÁC TỪ VIẾT TẮT VÀ KÍ HIỆU…………………………v DANH MỤC CÁC BẢNG BIỂU………………………………………… vi DANH MỤC CÁC HÌNH ẢNH………………………………………… vii MỞ ĐẦU 1 Tính cấp thiết đề tài: Mục đích nhiệm vụ nghiên cứu: Phương pháp nghiên cứu: Dự kiến kết đạt được: Nội dung nghiên cứu: chương GIỚI THIỆU MẠNG NƠ RON NHÂN TẠO 1.1 Giới thiệu khái niệm: 1.2 Mơ hình mạng nơ ron nhân tạo 1.2.1 Mơ hình hồi quy logistic (Logistic regression) 1.2.2 Mơ hình mạng nơ ron tổng qt 1.3 Một số thuật toán mạng nơ ron nhân tạo: 1.3.1 Thuật toán lan truyền thẳng 1.3.2 Hàm mát 1.3.3 Hàm lan truyền ngược 10 1.4 Tích chập: 11 1.4.1 Phép tích chập: 11 1.4.2 Phép đệm 12 1.4.3 Phép nhảy 13 Chương MƠ HÌNH MẠNG NƠ RON TÍCH CHẬP ĐẦY ĐỦ 15 2.1 Giới thiệu chung 15 2.2 Các thành phần mạng CNN: 15 iii 2.2.1 Lớp tích chập 16 2.2.2 Lớp kích hoạt 17 2.2.3 Lớp gộp 17 2.2.4 Lớp kết nối đầy đủ 19 2.3 Một số kỹ thuật sử dụng huấn luyện mạng CNN: 19 2.3.1 Giới thiệu: 19 2.3.2 Học chuyển giao tri thức (Transfer learning) 20 2.3.3 Tăng cường liệu ảnh 23 Kết luận chương 26 Chương MƠ HÌNH CNN CHO NHẬN DẠNG TỔN THƯƠNG PHỔI THÔNG QUA ẢNH CHỤP X-QUANG 27 3.1 Giới thiệu chung ảnh X-Quang: 27 3.2 Tìm hiểu số mơ hình mạng CNN tại: 29 3.3 Đề xuất giải pháp: 33 3.3.1 Mơ hình mạng EfficientNet 34 3.3.2 Giải pháp đề xuất 36 Kết luận chương 36 Chương THỰC NGHIỆM VÀ LUẬN GIẢI 38 4.1 Giới thiệu: 38 4.1.1 Mô tả liệu 38 4.1.2 Mô tả giao thức thang đo 39 4.2 Đánh giá độ xác số mơ hình: 41 Kết luận chương 42 KẾT LUẬN VÀ HƯỚNG PHÁT TRIỂN 43 Kết luận 43 Hướng phát triển 43 TÀI LIỆU THAM KHẢO 43 iv DANH MỤC CÁC TỪ VIẾT TẮT VÀ KÍ HIỆU Từ viết tắt Nội dung AI Trí tuệ nhân tạo CNN Mạng nơ ron tích chập Covid-19 (SARS-CoV-2) Bệnh vi rút corona 2019 Mạng MLP Mạng nơ ron đa tầng v DANH MỤC CÁC BẢNG BIỂU Bảng 1: Kết thực nghiệm mơ hình EfficientNetB0 đến EfficientNetB7 mạng phân lớp tập liệu kiểm tra 41 Bảng 2: Đánh giá độ đo lớp ảnh 42 vi Hình 3.5: Cấu trúc mơ hình đề xuất [14] Nghiên cứu [14] sử dụng phương pháp nối đặc trưng Trong tác giả đề xuất mơ hình mạng CNN tương đối đơn giản với ba khối tích chập theo sau hàm kích hoạt ReLU Tiếp theo đó, tác giả sử dụng kết hợp ba trích chọn đặc trưng mơ hình đề xuất + mơ hình ResNet [13] + mơ hình GoogleNet Hình 3.5 mơ tả cấu trúc mơ hình, liệu gồm 2628 ảnh X-Quang bị bệnh Covid-19 1620 ảnh âm tính Kết báo cáo độ xác đạt tới 99.3% Nghiên cứu [16], sử dụng mạng DenseNet21 [17] kết hợp với phương pháp tìm kiếm hấp dẫn GSA (Gravitational search algorithm) để cấu thành nên mơ hình có tên GSA-DenseNet121-Covid-19 Mơ hình kiểm tra tập liệu bao gồm 150 ảnh X-Quang ngực với 121 ảnh dương tính với Covid-19 Mơ hình báo cáo độ xác có 95% Nghiên cứu [18] đề xuất mơ hình K-EfficientNet sử dụng mạng EfficientNet [19] làm mạng sở EfficientNet cấu trúc mạng định nghĩa dựa ba tiêu chí độ sâu, độ rộng độ phân giải mạng Hình 3.6 biểu diễn khái lược cấu trúc mạng 32 Nghiên cứu [18] sử dụng hình thức học chuyển giao tri thức dựa mạng sở EfficientB0 Sau thiết kế tầng kết nối đầy đủ gồm lớp kết nối đầy đủ theo sau hàm Batch Normalization Dropout Mơ hình cho kết 97.3% tập liệu bao gồm 659 ảnh X-Quang Covid-19 Hình 3.6: Cấu trúc mạng EfficientNet xây dựng dựa ba tham số: độ rộng, độ sâu, độ phân giải [19] 3.3 Đề xuất giải pháp: Từ nghiên cứu tổng quan hướng tiếp cận cho toán nhận dạng bệnh Covid-19 thông qua ảnh chụp X-Quang nhận thấy phần lớn nghiên cứu sử dụng theo phương pháp học chuyển giao tri thức (Transfer learning) sử dụng mạng sở mơ hình huấn luyện (pretrained models) tập liệu lớn (ImageNet, COCO) làm trích chọn đặc trưng Sau tinh chỉnh/thay phần phân lớp cách sử dụng mạng nơ ron cấu hình phù hợp cho đầu cần dự đoán Tuy nhiên nghiên cứu kiểm chứng tập liệu tương đối bé, sau sử dụng kỹ thuật tăng cường ảnh dẫn tới độ xác nghiên cứu chưa đủ tổng quát Điều xuất phát từ hai lí chính: - Tại thời điểm công bố nghiên cứu, đa phần năm 2020/2021 số lượng liệu chuẩn bị để công bố hạn chế việc định nghĩa tổn thương gây phổi cần phải kiểm chứng tin cậy người có chun mơn 33 - Ở số nước phát triển, việc công bố hình ảnh cá nhân người bệnh cịn nhiều ràng buộc mặt pháp lý dẫn tới việc bệnh viện lớn chưa sẵn sàng cơng bố hình ảnh chụp X-Quang cách rộng rãi Thông thường xây dựng mơ hình CNN thường có độ dài xác định, sau thực q trình huấn luyện Người thiết kế chỉnh sửa cấu trúc mô hình cho kết đạt kì vọng Từ việc làm này, nhóm tác giả [19] đưa đề xuất xây dựng chế cân cho mạng CNN để điều chỉnh độ sâu, độ rộng độ phân giải với kỳ vọng mang lại hiệu suất tốt Trong nghiên cứu này, tiếp cận theo hướng sử dụng kỹ thuật Transfer learning sử dụng mạng EfficientNet làm mạng sở sử dụng mạng nơ ron nhân tạo để phân loại ảnh X-Quang bị nhiễm Covid-19 Trong phần tiếp theo, giới thiệu thành phần mơ hình 3.3.1 Mơ hình mạng EfficientNet Một mơ hình mạng CNN có ba thơng số để đo lường tổng quan là: Độ sâu (Depth) mạng tương đương với số lớp đó; Độ rộng (Width) độ rộng mạng số đo cực đại số kênh lớp tích chập; Độ phân giải (Resolution) độ phân giải hình ảnh đầu vào mạng CNN Hình 3.7 mơ tả ý tưởng mạng Hình 3.7 (a) biểu diễn mạng Hình 3.7 (b-d) biểu diễn việc tăng giảm kích thước theo cách truyền thống theo chiều Hình 3.7 (e) biểu diễn cách tiếp cận mạng EfficientNet kết hợp ba thông số để điều chỉnh mơ hình 34 Hình 3.7: Hình minh hoạ việc thu phóng mơ hình [19] Để tìm hiểu sâu hướng xử lý tác giả, chúng tơi chi tiết hố số cơng thức cụ thể trình bày [19] Giả sử lớp tích chập thứ i định nghĩa hàm số 𝑌𝑖 = 𝐹𝑖 (𝑋𝑖 ) 𝐹𝑖 tốn tử, 𝑌𝑖 tensor đầu ra, 𝑋𝑖 tensor đầu vào Hàm số 𝑌𝑖 có kích thước tensor , 𝐻𝑖 , 𝑊𝑖 kích thước theo chiều dài rộng tensor, 𝐶𝑖 số kênh Do vậy, tầng tích chập thứ N biểu diễn danh sách lớp bao gồm: 𝑁 = 𝐹𝑘 ⊙ 𝐹𝑘−1 ⊙ … … ⊙ 𝐹1 (𝑋1 ) = ⊙𝑗=1 𝑘 𝐹𝑗 (𝑋1 ) Tuy nhiên nhiều kiến trúc chia thành giai đoạn, giai đoạn cấu trúc lớp CNN giống mạng ResNet [13] Khi ta biểu diễn N lại sau: 𝐿 𝑁 = ⊙𝑖=1 𝑠 𝐹𝑖 𝑖 𝑋 𝐿 Trong 𝐹𝑖 𝑖 biểu thị lớp 𝐹𝑖 lặp lại 𝐿𝑖 lần trạng thái i 𝑋 biểu thị kích thước tensor đầu vào X lớp i Trong mạng CNN thông thường chủ yếu tối ưu kiến trúc để tìm 𝐹𝑖 tốt Tuy nhiên EfficientNet lại giữ nguyên 𝐹𝑖 mà thu/phóng đại lượng chiều sâu 𝐿𝑖 chiều rộng 𝐶𝑖 độ phân giải (𝐻𝑖 , 𝑊𝑖 ,) Từ mục tiêu cụ thể giải tốn tối ưu hóa sau: 35 𝑚𝑎𝑥𝐴𝑐𝑐𝑢𝑟𝑎𝑐𝑦𝑑,𝑤,𝑟 (𝑁(𝑑, 𝑤, 𝑟)) ̂ ̂𝑖 𝑑𝐿𝑖 𝑋 < 𝑟 𝐻 ̂𝑖 , 𝑟 𝑊 ̂𝑖 , 𝑤 𝐶̂𝑖 > 𝑁(𝑑, 𝑤, 𝑟) = ⊙𝑖=1 𝑠 𝐹 Với tham số w, d, r tham số thay đổi theo chiều rộng, chiều sâu, độ phân giải Các tham số khác định nghĩa trước cấu trúc mơ hình sở Tác giả [19] xây dựng tám phiên từ EfficientNetB0 ÷ EfficientNet B7 3.3.2 Giải pháp đề xuất Để thực tốn, chúng tơi đề xuất xây dựng mơ hình sử dụng mơ hình EfficientNet làm trích chọn đặc trưng (Feature extractor) liệu ảnh Sau trích chọn đặc trưng ảnh, đề xuất sử dụng mạng nơ ron đa tầng (MLP - Multi-layer perceptron) với mục tiêu phân loại ảnh Như giới thiệu phần 1.2.2 mô hình cấu trúc mạng Trong nghiên cứu, MLP thường sử dụng dễ cấu hình, độ xác cao thời gian đáp ứng nhanh [21] Mơ hình đề xuất triển khai hình 3.8 Hình 3.8: Mơ hình đề xuất triển khai Kết luận chương Trong chương này, chúng tơi tìm hiểu nghiên cứu sử dụng mạng CNN để nhận dạng tổn thương phổi nói chung nghiên cứu nhận dạng Covid-19 nói riêng thơng qua ảnh chụp X-Quang Tiếp theo đó, chúng tơi tập trung vào nghiên cứu mơ hình mạng EfficientNet để nắm phương thức hoạt động bên mơ hình 36 Sau đó, chúng tơi đề xuất sử dụng mạng EfficientNet với vai trò trích chọn đặc trưng ảnh mạng MLP phân lớp bệnh phổi thông qua ảnh chụp X-Quang với ý đặc biệt vào ảnh bệnh Covid-19 Trong phần tiếp theo, kiểm chứng thực nghiệm đề xuất với liệu chuẩn nhằm khảo sát độ xác mơ hình 37 Chương THỰC NGHIỆM VÀ LUẬN GIẢI 4.1 Giới thiệu Như trình bày chương hướng tiếp cận sử dụng mạng CNN để nhận dạng ảnh X-Quang bị bệnh Covid-19 Trong chương 4, chúng tơi đánh giá độ xác cách tiếp cận chúng tơi để giải tốn nhận dạng ảnh X-Quang bị Covid-19 thông qua thực nghiệm 4.1.1 Mô tả liệu Qua nghiên cứu tổng quan, chúng tơi nhận thấy rằng, nhiều đề xuất trình bày chương kiểm chứng số tập liệu nhỏ với nhiều lý khác tính phổ biến, tính riêng tư bệnh nhân, sở pháp lý kèm Do đó, độ xác báo cáo mơ hình chưa thực tổng quát Trong luận văn này, liệu lớn sử dụng Cụ thể, liệu thu thập xử lý Đại học Qatar [22] Bộ liệu bao gồm 33.920 ảnh chụp X-Quang bao gồm: - 11.956 hình ảnh X-Quang cho Covid-19; - 11.263 hình ảnh bị số bệnh khác khơng phải Covid-19 bao gồm viêm phổi vi rút viêm phổi vi khuẩn; - 10.701 hình ảnh phổi bình thường, khoẻ mạnh Nhằm trực quan hố liệu nêu trên, hình 4.1 đưa số hình ảnh mơ tả Hình 4.1: Một số hình ảnh chụp X-Quang phổi [22] 38 4.1.2 Mô tả giao thức thang đo Như trình bày trên, chúng tơi đề xuất sử dụng mơ hình EfficientNet để làm trích chọn đặc trưng mạng nơ ron đa tầng làm phân lớp Để có so sánh đa chiều nhiều góc nhìn khác Chúng tơi thực việc kiểm chứng phiên từ EfficientNetB0 đến EfficientNetB7 Hình 4.2: Kích thước mơ hình độ xác mạng sở triển khai liệu ImageNet [19] Do mô hình mạng EfficientNet thư viện Keras huấn luyện liệu lớn với ảnh ImageNet3 Bộ liệu ImageNet bao gồm 1000 lớp đối tượng khác nhau, kết miêu tả báo gốc thể hình 4.2 Do đó, mơ hình có mang đặc trưng ảnh, chúng tơi sử dụng kỹ thuật đóng băng “Freeze” mơ hình sở Nhằm giữ đặc trưng từ ảnh trích chọn mạng sở tăng tốc trình huấn luyện liệu tương đối lớn nguồn tài nguyên phần cứng sử dụng để huấn luyện giới hạn Để thuận tiện cho việc theo dõi bạn đọc, chúng tơi trình bày mơ hình sở mạng EfficientNetB0 trích chụp từ báo gốc bao https://www.image-net.org/ 39 gồm độ phân giải ảnh đặc trưng đầu vào (Resolution), độ rộng (Width) số lượng kênh (Channel) mô tả báo, độ sâu (Deep) hay số lượng Layer Hình 4.3 mô tả mạng sở EfficientNetB0 tham số Hình 4.3: Mơ tả cấu trúc mạng sở EfficientB0 [19] Để tăng thêm số lượng mẫu đồng thời làm cho kết mơ hình huấn luyện nâng cao tính tổng qt hố, chúng tơi sử dụng kỹ thuật tăng cường ảnh (Image augmentation) cách triển khai hàm ImageDataGenerator thư viện Keras Mạng MLP đề xuất sử dụng cấu trúc chứa tầng ẩn (với 128 nơ ron) với hàm kích hoạt ReLu sử dụng tầng ẩn thứ hàm Softmax sử dụng tầng đầu (với nơ ron tương ứng với lớp) Nhằm nâng cao tính tổng qt mơ hạn chế tượng khớp liệu (Overfit) chúng tơi sử dụng kỹ thuật Dropout với trọng số 0.5 Trong thí nghiệm, chúng tơi sử dụng thư viện mã nguồn mở Keras4 với ngôn ngữ lập trình Python Các thí nghiệm triển khai tảng Colab Notebook, tảng hoàn toàn miễn phí cung cấp Google https://keras.io/ 40 Độ đo sử dụng thí nghiệm sử dụng độ đo độ sau: - Accuracy (%): sử dụng độ đo để biết tỉ lệ dự báo tổng số trường hợp bao nhiêu; - Precision (%): sử dụng độ để biết tỉ lệ nhãn đoán (Positive) tổng số dự đoán; - Recall (%): sử dụng độ để biết tỉ lệ tổng số dự đoán (Positive) tổng số nhãn đúng; - F1-Score (%): sử dụng độ đo để biết độ trung bình điều hồ hai số Precision (%) Recall (%) Ta sử dụng độ đo cho việc dự đoán tập kiểm tra Dữ liệu tải chia làm phần theo tỉ lệ 70:20:10 tương ứng cho tập huấn luyện, tập xác thực tập kiểm tra 4.2 Đánh giá độ xác số mơ hình Để đánh giá độ xác phương pháp đề xuất, chúng tơi trình bày phần kết mơ hình từ EfficientNetB0 tới EfficientNetB7 kết hợp với mạng FC (Fully connected layer) đề xuất tập ảnh kiểm tra Kết trình bày bảng sau Bảng 1: Kết thực nghiệm mô hình EfficientNetB0 đến EfficientNetB7 mạng phân lớp tập liệu kiểm tra Tên mơ hình Accuracy Precision Recall F1-score sở (%) (%) (%) (%) EfficientNetB0 77.53 80.5 65.75 72.38 EfficientNetB1 78.96 79.25 68.02 73.20 EfficientNetB2 79.32 80.1 68.35 73.76 EfficientNetB3 79.74 81.25 68.7 74.45 EfficientNetB4 80.09 81.75 69.25 74.98 EfficientNetB5 80.66 84.97 70.75 77.21 EfficientNetB6 80.64 86.16 72.54 77.1 EfficientNetB7 85.4 89.74 75.6 82.06 41 Như thể Bảng 1, mơ hình EfficientNetB7 thể hiệu tốt tập ảnh kiểm tra với 4200 ảnh lớp liệu: Ảnh bệnh nhân Covid, ảnh viêm đông đặc, ảnh viêm phổi vi rút thông thường với số Accuracy đạt 85.4% số F1-score đạt 82.06% Trong EfficientNetB0 đạt hiệu tập liệu kiểm tra Để tiện cho việc theo dõi kết mô hình đạt hiệu tốt (EfficientNetB7) Cụ thể, tập liệu kiểm tra có 1200 ảnh bệnh nhân Covid-19 (lớp 0), 420 ảnh viêm phổi đông đặc (lớp 1), 1007 ảnh thông thường khoẻ mạnh (lớp 2) 707 bệnh nhân viêm phổi Kết phân tích từ confusion matrix cụ thể hố Bảng số Precision, Recall, F1-score Bảng 2: Đánh giá độ đo lớp ảnh Tên mô hình Precision (%) Recall (%) F1-score (%) Lớp 96.5 77.84 86.36 Lớp 90.2 65.6 75.95 Lớp 81.4 98.2 89.01 Lớp 94.5 63.8 76.17 Việc nhận dạng bệnh Covid-19, số Precision đứng thứ với 96.5% Trong F1-score đứng thứ Điều giải thích thơng qua bệnh lý Covid-19 gây tổn thương phổi rõ rệt so với bệnh khác, dẫn tới việc mơ hình dễ trích chọn đặc trưng Bên cạnh đó, với người khoẻ mạnh, hình ảnh tổn thương phổi khơng có Dẫn tới việc mơ hình hiệu suất phân lớp mơ hình tốt nhất, thể qua số F1score lớn nhóm Kết luận chương Trong chương này, kết thực nghiệm triển khai đánh giá định lượng thang đo chuẩn Bộ liệu sử dụng lớn Phương án tiếp cận đề xuất nghiên cứu kết hợp mạng EfficientNetB7 mạng phân loại MLP Mơ hình đạt độ xác Precision đạt gần 90% với số F1-score đạt 82.6% Riêng với bệnh Covid-19 hệ thống đạt độ xác Precision 96.5% đứng thứ nhóm bệnh 42 KẾT LUẬN VÀ HƯỚNG PHÁT TRIỂN Kết luận Cùng với phát triển trí tuệ nhân tạo (AI) đặc biệt phát triển mô hình nhận dạng, đặc biệt mạng nơ ron tích chập (CNN) việc áp dụng mạng y tế hoàn toàn khả thi Làm điều này, việc chuẩn đoán sàng lọc bệnh nhân bị Covid-19 giải pháp hiệu nhằm giảm tải cho bác sĩ việc phân loại đối tượng nhiễm bệnh mức độ nhiễm bệnh Trong phần tiếp theo, chúng tơi tìm hiểu số cách tiếp cận sử dụng mạng CNN việc phát bệnh Covid-19 thơng qua ảnh chụp X-Quang Đóng góp luận văn là: - Trình bày kiến thức mạng nơ ron nói chung gồm thành phần cấu tạo nên mơ hình; nêu bật thuật tốn sử dụng mạng - Tìm hiểu rõ thành phần cấu thành nên mạng nơ ron tích châp (CNN) số kỹ thuật sử dụng trình huấn luyện - Trình bày cụ thể toán thảo luận nghiên cứu liên quan việc sử dụng mơ hình AI để nhận dạng bệnh ảnh chụp X-Quang - Triển khai thành công thực nghiệm để so sánh đánh giá mơ hình đề xuất tập liệu lớn Hướng phát triển Việc ứng dụng AI toán y tế xu hướng phát triển nay, tương lai, nhóm nghiên cứu chúng tơi tiếp tục cải tiến mơ hình, tăng cường độ xác nhằm phù hợp để áp dụng Việt Nam 43 TÀI LIỆU THAM KHẢO [1] Ai T., Yang Z., Hou H., Zhan C., Chen C (2020), Correlation of chest CT and RT-PCR testing for coronavirus disease 2019 (COVID-19) in China: A report of 1014 cases Radiology, 296 (2), pp E32-E40, [2] A Kanne J.P., Little B.P., Chung J.H., Elicker B.M., Ketai L.H (2020), Essentials for radiologists on COVID-19: An update—Radiology scientific expert panel RSNA, pp 1-15 [3] Cohen J.P., Morrison P., Dao L (2020), COVID-19 image data collection, ArXiv, arXiv:2003.11597 [4] Claudio, Han, Jun; Morag (1995), “The influence of the sigmoid function parameters on the speed of backpropagation learning”, In Mira, José; Sandoval, Francisco (eds.) From Natural to Artificial Neural Computation Lecture Notes in Computer Science, Vol 930 pp 195–201 [5] C Nielsen, Michael A (2015), Neural networks and deep learning, Vol 25 San Francisco, CA, USA: Determination press [6] D Voulodimos, Athanasios, et al (2018), “Deep learning for computer vision: A brief review”, Computational intelligence and neuroscience [7] D Zhang, Aston, et al (2021), Dive into deep learning, arXiv preprint arXiv:2106.11342 [8].D Apostolopoulos, I.D., Aznaouridis, S.I & Tzani, M.A (2020), Extracting Possibly Representative COVID-19 Biomarkers from X-ray Images with Deep Learning Approach and Image Data Related to Pulmonary Diseases, J Med Biol Eng 40, 462–469 [9] D.Howard, A G., Zhu, M., Chen, B., Kalenichenko, D., Wang, W., Weyand, T., Adam, H (2017), MobileNets: Efficient convolutional neural networks for mobile vision applications 44 [10] E.Alazab, Moutaz (2020), “COVID-19 prediction and detection using deep learning”, International Journal of Computer Information Systems and Industrial Management Applications, 168-181 [11] F.Simonyan K., Zisserman A (2014), Very Deep Convolutional Networks for Large-Scale Image Recognition, pp 1409–1556 ArXiv Prepr ArXiv [12] G.Sethy, Prabira Kumar, and Santi Kumari Behera (2020), Detection of coronavirus disease (covid-19) based on deep features [13] He K.M., Zhang X.Y., Ren S.Q., ve Sun J (2016), Deep Residual Learning for Image Recognition, CVPR, pp 770–778 [14] H.Saad, Waleed (2022), “COVID-19 classification using deep feature concatenation technique”, Journal of Ambient Intelligence and Humanized Computing 13.4 pp 2025-2043 [15] H.Szegedy C, Liu W, Jia Y, Sermanet P, Reed S, Anguelov D, Erhan D, Vanhoucke V, Rabinovich A (2015), Going deeper with convolutions In: Proceedings of the IEEE conference on computer vision and pattern recognition, pp 1–9 [16] H.Ezzat, D.; Hassanien, A.E.; Ella, H.A (2020), “An optimized deep learning architecture for the diagnosis of COVID-19 disease based on gravitational search optimization”, Appl Soft Comput., 98, 106742 [17] Huang, Gao, (2017), “Densely connected convolutional networks”, Proceedings of the IEEE conference on computer vision and pattern recognition [18] Y.Diallo, Papa Abdou Karim Karou, and Yun Ju (2020), Accurate detection of covid-19 using k-efficientnet deep learning image classifier and k-covid chest x-ray images dataset, (ICCC) IEEE, [19] M Tan and Q V Le, (2019 ), EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks 45 [20] M C., Corinna, and V Vapnik (1995) “Support-vector networks” Machine learning, 20.3: 273-297 [21] M Gironés, X., & Julià, C (2017) Real-time text localization in natural scene images using a linear spatial filter, ICDAR, Vol 1, pp 1261-1268 [22] M Tahir, (2021), “COVID-19 Infection Localization and Severity Grading from Chest X-ray Images”, Computers in Biology and Medicine, vol 139, pp 105002, * Trang Web [23] https://paperswithcode.com/sota/image-classification-on-imagenet [24] https://stanford.edu/~shervine/teaching/cs-230/ [25].https://github.com/dvgodoy/PyTorchStepByStep/blob/master/Chapter05 ipynb [26] https://paperswithcode.com/ [27] https://cs231n.github.io/convolutional-networks/#pool [28] https://www.programmersought.com/article/6050525140/ [29].https://www.quantib.com/blog/image-augmentation-how-to-overcomesmall-radiology-datasets [30].https://www.atlasobscura.com/articles/roentgen-xrays-discoveryradiographs [31] https://arxiv.org/pdf/1409.1556.pdf [32].https://towardsdatascience.com/4-pre-trained-cnn-models-to-use-forcomputer-vision-with-transfer-learning-885cb1b2dfc [33] https://arxiv.org/pdf/1409.4842.pdf [34].https://openaccess.thecvf.com/content_cvpr_2016/papers/He_Deep_Resi dual_Learning_CVPR_2016_paper.pdf [35] https://arxiv.org/abs/2004.10934?sid=NDAqzT [36] https://keras.io/guides/keras_cv/cut_mix_mix_up_and_rand_augment/ [37] https://dothanhblog.wordpress.com/2020/05/08/yolov4/ 46