1. Trang chủ
  2. » Luận Văn - Báo Cáo

Nghiên cứu một số kỹ thuật học sâu ứng dụng trong bài toán phân đoạn ảnh trào ngược dạ dày

77 3 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 77
Dung lượng 4,07 MB

Nội dung

BỘ GIÁO DỤC VÀ ĐÀO TẠO UBND TỈNH THANH HÓA TRƢỜNG ĐẠI HỌC HỒNG ĐỨC NGUYỄN THỊ HÀ NGHIÊN CỨU MỘT SỐ KỸ THUẬT HỌC SÂU ỨNG DỤNG TRONG BÀI TOÁN PHÂN ĐOẠN ẢNH TRÀO NGƢỢC DẠ DÀY LUẬN VĂN THẠC SĨ CƠNG NGHỆ THƠNG TIN THANH HĨA, NĂM 2020 BỘ GIÁO DỤC VÀ ĐÀO TẠO UBND TỈNH THANH HÓA TRƢỜNG ĐẠI HỌC HỒNG ĐỨC NGUYỄN THỊ HÀ NGHIÊN CỨU MỘT SỐ KỸ THUẬT HỌC SÂU ỨNG DỤNG TRONG BÀI TOÁN PHÂN ĐOẠN ẢNH TRÀO NGƢỢC DẠ DÀY LUẬN VĂN THẠC SĨ CÔNG NGHỆ THÔNG TIN Chuyên ngành: Khoa học máy tính Mã số: 8480101 Ngƣời hƣớng dẫn khoa học: PGS.TS Vũ Việt Vũ THANH HÓA, NĂM 2020 Danh sách Hội đồng đánh giá luận văn thạc sĩ khoa học (Theo định số 1327/ QĐ- ĐHHĐ ngày 04 tháng năm 2020 Hiệu trưởng Trường Đại học Hồng Đức) Học hàm, học vị Cơ quan công tác Họ tên Chức danh Hội đồng Trường Đại học Hồng Đức PGS.TS Phạm Thế Anh PGS.TS Hoàng Văn Dũng Chủ tịch Trường ĐH Sư phạm Kỹ thuật Phản biện TP Hồ Chí Minh Học viện Chính trị Quốc gia TS Trần Quang Diệu Phản biện Hồ Chí Minh TS Trịnh Viết Cường Trường Đại học Hồng Đức Ủy viên TS Nguyễn Thế Cường Trường Đại học Hồng Đức Ủy viên, Thư ký Xác nhận Ngƣời hƣớng dẫn Học viên chỉnh sửa theo ý kiến Hội đồng Ngày tháng 10 năm 2020 (Ký, ghi rõ họ tên) PGS.TS Vũ Việt Vũ LỜI CAM ĐOAN Tôi xin cam đoan luận văn “Nghiên cứu số kỹ thuật học sâu ứng dụng toán phân đoạn ảnh trào ngược dày” đề tài nghiên cứu cá nhân tôi, hướng dẫn PGS.TS Vũ Việt Vũ trung thực, không trùng lặp với khóa luận, luận văn, luận án cơng trình nghiên cứu cơng bố Trong tồn nội dung nghiên cứu luận văn, vấn đề trình bày tìm hiểu nghiên cứu cá nhân tơi trích dẫn từ nguồn tài liệu có ghi tham khảo rõ ràng, hợp pháp Tôi xin chịu trách nhiệm hình thức kỷ luật theo quy định cho lời cam đoan Ngƣời cam đoan Nguyễn Thị Hà i LỜI CẢM ƠN Trước tiên em xin gửi lời cảm ơn sâu sắc đến Thầy hướng dẫn, PGS.TS Vũ Việt Vũ tận tình hướng dẫn, truyền đạt kiến thức, kinh nghiệm cho em suốt trình thực luận văn Xin gửi lời cảm ơn đến quý thầy cô khoa Công nghệ thông tin, Trường Đại học Hồng Đức, người truyền đạt kiến thức quý báu cho em suốt thời gian học tập vừa qua Tôi xin gửi lời cảm ơn tới đồng chí lãnh đạo, đồng nghiệp đơn vị trường THPT Hậu Lộc tạo điều kiện thời gian để tơi hồn thành chương trình học Sau xin gửi lời cảm ơn đến gia đình, bạn bè bạn học viên lớp Thạc sĩ Khoa học máy tính khóa 2018-2020 ln động viên, giúp đỡ trình học tập làm luận văn Mặc dù thân cố gắng nghiên cứu với khả kiến thức có hạn nên khơng tránh khỏi thiếu sót Rất mong nhận góp ý q báu từ q Thầy, Cơ để luận văn hoàn chỉnh Một lần em xin chân thành cảm ơn! ii MỤC LỤC LỜI CAM ĐOAN i LỜI CẢM ƠN ii MỤC LỤC iii DANH MỤC TỪ VIẾT TẮT vi DANH MỤC BẢNG BIỂU vii DANH MỤC HÌNH VẼ viii MỞ ĐẦU 1 Tính cấp thiết đề tài Mục tiêu nghiên cứu Đối tƣợng phạm vi nghiên cứu 3.1 Đối tượng nghiên cứu 3.2 Phạm vi nghiên cứu Nội dung nghiên cứu Phƣơng pháp nghiên cứu 5.1 Phương pháp nghiên cứu lý thuyết 5.2 Phương pháp nghiên cứu thực nghiệm Dự kiến kết đạt đƣợc Cấu trúc luận văn CHƢƠNG 1: CƠ SỞ LÝ THUYẾT 1.1 TỔNG QUAN VỀ TRÍ TUỆ NHÂN TẠO VÀ ỨNG DỤNG 1.2 TỔNG QUAN VỀ XỬ LÝ ẢNH 1.2.1 Mở đầu 1.2.2 Biểu diễn ảnh, phép toán 1.2.2.1 Một số hệ màu phổ biến 1.2.2.2 Phân loại ảnh 10 1.2.2.3 Các phép biến đổi ảnh 11 1.2.2.4 Phương pháp phát biên ảnh 14 iii 1.2.2.5 Phân vùng ảnh 16 1.3 BÀI TOÁN PHÂN ĐOẠN ẢNH TRÀO NGƢỢC DẠ DÀY 17 1.3.1 Giới thiệu toán 17 1.3.2 Dữ liệu toán phân đoạn ảnh trào ngược dày 18 1.3.3 Phương pháp giải toán phân đoạn ảnh 19 1.3.4 Một số cơng trình nghiên cứu liên quan 20 1.4 KHÁI NIỆM HỌC MÁY 22 1.5 MẠNG NƠRON NHÂN TẠO 23 1.5.1 Giới thiệu 23 1.5.2 Kiến trúc trình học mạng nơron nhân tạo 24 1.5.3 Quá trình học mạng nơron 27 1.6 MẠNG NƠRON HỌC SÂU 28 1.6.1 Giới thiệu tổng quan 28 1.6.2 Mạng nơron tích chập học sâu 30 1.7 KẾT LUẬN 38 CHƢƠNG 2: NGHIÊN CỨU PHƢƠNG PHÁP HỌC SÂU VÀ ỨNG DỤNG CHO BÀI TOÁN PHÂN ĐOẠN ẢNH 39 2.1 KIẾN TRÚC MẠNG MASK R-CNN VÀ U-NET 39 2.1.1 Mạng Mask R-CNN 39 a) Mạng R-CNN 39 b) Mạng Fast R-CNN 40 c) Mạng Faster R-CNN 41 d) Mạng Mask R-CNN 41 2.1.2 Mạng U-Net 44 2.2 ÁP DỤNG THUẬT TOÁN HỌC SÂU CHO BÀI TOÁN PHÂN ĐOẠN ẢNH TRÀO NGƢỢC DẠ DÀY 46 2.2.1 Bài toán phân đoạn ảnh 46 2.2.2 Kiến trúc hệ thống phân đoạn ảnh trào ngược dày 47 2.3 KẾT LUẬN 48 iv CHƢƠNG 3: XÂY DỰNG ỨNG DỤNG THỬ NGHIỆM SỬ DỤNG MẠNG HỌC SÂU CHO BÀI TOÁN PHÂN ĐOẠN ẢNH 49 3.1 THU THẬP VÀ GÁN NHÃN DỮ LIỆU 49 3.2 THỬ NGHIỆM VÀ ĐÁNH GIÁ 54 3.2.1 Dữ liệu thực nghiệm 54 3.2.2 Yêu cầu hệ thống 55 3.2.3 Phương pháp đánh giá kết 56 3.2.4 Kết thực nghiệm đánh giá 56 3.3 KẾT LUẬN 61 KẾT LUẬN VÀ HƢỚNG PHÁT TRIỂN 62  Những kết thực 62  Hướng phát triển đề tài 62 TÀI LIỆU THAM KHẢO 63 v DANH MỤC TỪ VIẾT TẮT Kí hiệu Nghĩa tiếng Việt Tên tiếng Anh ANN Artificial Neural Network Mạng nơron nhân tạo CNN Convolutional Neural Network Mạng nơron tích chập CT Computer Tomography Chụp cắt lớp vi tính DNN Deep Neural Network Mạng nơron sâu FNN Feed- forward Neural Network Mạng nơron chuyển tiếp IoU Intersection over Union Giao vùng LSTM Long Short Term Memory Bộ nhớ ngắn- dài MLNN Multi Layer Neural Network Mạng nơron đa lớp MLP Multi Layer Perceptron Perceptionron nhiều lớp MRI Magnetic Resonance Imaging Chụp cộng hưởng từ PE Processing Elements Phần tử xử lý R-CNN Regional Convolutional Neural Nework Recurrent Neural Network Mạng nơron tích chập khu vực RNN vi Mạng nơron hồi quy DANH MỤC BẢNG BIỂU Bảng 2.1 Một số phương pháp học sâu cho phát phân đoạn đối tượng 39 Bảng 3.1 Dữ liệu Training Kiểm thử 54 Bảng 3.2 So sánh kết Mask R-CNN U-NET 57 Bảng 3.3 Một số kết ảnh Mask R-CNN U-NET 58 Bảng 3.4 Một số kết ảnh Mask R-CNN U-NET (tiếp) 59 Bảng 3.5 So sánh thời gian huấn luyện mơ hình Mask R-CNN U-NET 60 vii (4) Lưu lại nhãn vừa đánh: Annotation => Export Annotations (as json): Trong trình gán nhãn, gặp số hạn chế chất lượng ảnh ban đầu khơng cao, kích thước ảnh nhỏ, khả chuyên môn thân y tế hạn chế Ngoài số lượng ảnh gán nhãn không nhiều, phần ảnh y tế mạng hạn chế (đặc biệt ảnh liên quan đến bệnh trào ngược dày), phần tính nhạy cảm ảnh y tế liên quan đến bảo mật thơng tin cá nhân người bệnh Vì vậy, q trình gán nhãn tơi có tìm kiếm trợ giúp Bác sĩ chuyên khoa bệnh dày 51 Kết sau pha thu thập chúng tơi có gần 800 ảnh, tiến hành thử nghiệm hệ thống Mỗi ảnh training phân làm vùng: vùng bình thường vùng có vấn đề (vùng bị loét, sưng, mủ, chảy máu tác động bệnh trào ngược dày) Hình 3.1 Kết gán nhãn 52 53 Hình 3.2 Một số ví dụ ảnh sau gán nhãn 3.2 THỬ NGHIỆM VÀ ĐÁNH GIÁ 3.2.1 Dữ liệu thực nghiệm Dữ liệu sau thu thập, chia thành phần Phần lớn ảnh tiến hành gán nhãn để training, phần lại dùng để làm ảnh validation Mỗi ảnh training phân làm vùng: vùng bình thường vùng có vấn đề (vùng bị loét, sưng, mủ, chảy máu tác động bệnh trào ngược dày) Sau sử dụng ảnh huấn luyện để chạy chương trình, chúng tơi đưa ảnh kiểm thử vào hệ thống để kiểm tra Khi chúng tơi xác định kết thực nghiệm hệ thống chương trình phân đoạn ảnh trào ngược dày Bảng 3.1 Dữ liệu Training Kiểm thử STT Số lƣợng training Số lƣợng kiểm thử 700 100 500 100 400 100 54 3.2.2 Yêu cầu hệ thống - Phần cứng: GPU  NVIDIA Geforce GTX1060 6GB VRAM (local device)  Tesla P100 16GB VRAM (Google Colab) - Phần mềm  Ngơn ngữ lập trình: python  Thư viện Tensorflow-gpu 1.14  CUDA: 10.0  Cudnn: 7.4  Công cụ gán nhãn ảnh Via annotation tool - Mạng Deep learning sử dụng: Sử dụng mạng Mask R-CNN U-NET với mục tiêu segment (phân đoạn) vùng ảnh có dấu hiệu, biểu hiện, vấn đề dày liên quan đến bệnh trào ngược dày - Cấu trúc mạng Mask R-CNN:  Backbone: Resnet50 + Feature Pyramid Network  Region proposal network: 200  Detection confidence: 0.7  Detection NMS (non max suppression) threshold: 0.3 - Một số tham số training:  Pretrain: coco dataset  50 epoch chia thành giai đoạn: Giai đoạn 1: freeze backbone training phần head (mask, classificasion, box regression) Giai đoạn 2: training toàn mạng, unfreeze backbone, chỉnh learning rate nhỏ để tránh divergence  Learning rate: 30 epoch đầu training head: 0.001 20 epoch sau training toàn mạng: 0.0001 55  Weight decay: 0.0001 - Một số kĩ thuật augment ảnh: gaussian blur, average blur, affine, perspective transform, flip vertical, flip horizontal, … 3.2.3 Phƣơng pháp đánh giá kết Không giống toán phát đối tượng, việc đánh giá kết ảnh phân đoạn không dựa số lượng vật thể đốn xác, dày vùng bị ảnh hưởng bệnh không phân chia rõ ràng thành “vật” mà lại nằm rải rác (ví dụ số vùng bị lt khơng liên tục) nên ta đánh giá kết theo tỉ lệ IoU (diện tích vùng giao (Area of Overlap)/ tổng diện tích vùng hợp (Area of Union)) so sánh kết thu ảnh gán nhãn sẵn Bác sĩ IoU cao vùng diện tích đốn xác so với nhãn Hình 3.3 Minh họa IoU Hình 3.3 minh họa IoU, thực tế toán vùng Polygon bị bệnh mà hình chữ nhật 3.2.4 Kết thực nghiệm đánh giá Khi tiến hành thực nghiệm, triển khai sử dụng hai mơ hình Mask R-CNN U-Net cho tập liệu thu thập Với liệu tương đối gây khó khăn cho mơ hình, thử nghiệm ban đầu với 700 ảnh huấn luyện, kết cao IoU đạt 0.6 Tiếp để cải tiến chất lượng chúng tơi thực tăng cường liệu (data augmentation), nghĩa từ ảnh gốc sinh ảnh khác gần tương 56 tự (xoay, làm mờ, phóng to, thu nhỏ, lật ) Mục đích biến đổi ảnh để đa dạng hơn, ta đa dạng liệu (nhiều ảnh) Với liệu nhiều hệ thống AI “học” nhiều nên làm tăng chất lượng mơ hình Q trình tăng cường liệu hệ thống thực tự động trình huấn luyện Sau tăng cường liệu, kết thực nghiệm cải tiến đáng kể với phương pháp Mask R-CNN Bảng 3.2 trình bày kết đạt được, thấy với 700 ảnh huấn luyện kết tốt IoU 0.69; chất lượng U-Net cho kết không cao, chất lượng đạt 0.51 Bảng 3.2 So sánh kết Mask R-CNN U-NET (Tính theo giá trị IoU) STT Số lƣợng training Mask R-CNN U-NET 700 0.69 0.51 500 0.57 0.48 400 0.48 0.42 Kết giải thích số lượng ảnh chưa nhiều, chất lượng ảnh chưa tốt, nhiên kết hứa hẹn thực tế có nhiều ảnh với chất lượng tốt mạng Mask R-CNN sử dụng để xây dựng hệ thống áp dụng thực tế Bảng 3.3 3.4 trình bày số ví dụ ảnh thực tế sử dụng Mask R-CNN U-Net để phát vùng tổn thương Chúng ta quan sát thấy số ảnh phương pháp Mask R-CNN phát vùng tốt Mạng U-Net cho kết tương số ảnh đơn giản, nhiên với số ảnh có nhiều vùng cho kết chưa tốt phát vùng bị tổn thương bệnh trào ngược dày 57 Bảng 3.3 Một số kết ảnh Mask R-CNN U-NET Ảnh khoanh vùng Bác sĩ Ảnh kết Mask R-CNN 58 Ảnh kết U-Net Bảng 3.4 Một số kết ảnh Mask R-CNN U-NET (tiếp) Ảnh khoanh vùng Bác sĩ Ảnh kết Mask R-CNN 59 Ảnh kết U-Net Mục đích mơ hình học sâu huấn luyện đưa kết khoanh vùng xuất dấu hiệu bất thường liên quan đến bệnh trào ngược dày từ ảnh nội soi dày, giúp đỡ bác sỹ nhanh chóng phát chẩn đoán kết Trong bảng 3.3 bảng 3.4 vùng phân đoạn ảnh Mask R-CNN U-Net vùng khoanh màu xanh, vùng dạy có dấu hiệu bất thường liên quan đến bệnh trào ngược dày Hình ảnh kết cho thấy chương trình máy học, hiểu nhận biết vùng ảnh nội soi dày xuất màu sắc, biến đổi bất thường, từ nhỏ đến lớn Những vùng mà người phải nhìn kĩ có khả nhận biết thay đổi bất thường Qua đó, nhanh chóng đề xuất để bác sỹ chẩn đốn dễ dàng, nhanh chóng chẩn đoán đưa phương pháp điều trị Một so sánh thực nghiệm mà chúng tơi trình bày tốc độ huấn luyện mô hình Bảng 3.5 trình bày thời gian huấn luyện tương ứng mơ hình Với 700 ảnh huấn luyện thời gian Mask R-CNN 23.5 giờ, U-NET 0.7 Chúng ta thấy thời gian cần phải có để huấn luyện mạng Mask R-CNN lớn so với U-Net Điều dễ giải thích mà Mask R-CNN sử dụng Resnet50 với số lớp lớn phức tạp công đoạn huấn luyện, U-Net sử dụng mạng đơn giản Bảng 3.5 So sánh thời gian huấn luyện mơ hình Mask R-CNN U-NET (Đơn vị tính: giờ) STT Số lƣợng training Mask R-CNN U-NET 700 23.5 0.7 500 19.7 0.6 400 16.3 0.5 60 3.3 KẾT LUẬN Trong chương này, trình bày thực nghiệm kết sử dụng hai loại mơ hình học sâu Mask R-CNN U-Net Chúng tơi trình bày quy trình thu thập liệu gán nhãn kiểm thử Kết thực nghiệm cho thấy mạng Mask R-CNN đạt kết tương đối tốt áp dụng vào tập liệu thực tế hứa hẹn kết cải thiện liệu huấn luyện tốt nhiều tương lai 61 KẾT LUẬN VÀ HƢỚNG PHÁT TRIỂN  Những kết thực Luận văn thực công việc sau: - Về lý thuyết: Luận văn nghiên cứu, trình bày tổng quan Trí tuệ nhân tạo thị giác máy tính; Lý thuyết xử lý ảnh số; Nghiên cứu trình bày phương pháp học sâu, sử dụng mạng nơ ron nhân tạo mô tả kiến trúc CNN, R-CNN, Fast R-CNN, Faster R-CNN, Mask R-CNN U-Net từ lựa chọn cơng nghệ để ứng dụng vào toán phân đoạn ảnh trào ngược dày - Về thực nghiệm:  Luận văn xây dựng liệu gần 800 ảnh liên quan đến bệnh trào ngược dày  Xây dựng hệ thống phân đoạn ảnh trào ngược dày, hỗ trợ cho bác sĩ việc chẩn đoán bệnh trào ngược dày bệnh có liên quan đến trào ngược dày Kết đề tài tiền đề quan trọng để tiếp tục phát triển ứng dụng thực tế liên quan đến ứng dụng cơng nghệ Trí tuệ nhân tạo, học máy xử lý ảnh vào lĩnh vực Y tế  Hƣớng phát triển đề tài Bên cạnh kết đạt được, đề tài có hướng phát triển sau: - Cần thu thập thêm ảnh cho liệu huấn luyện, đặc biệt ảnh có chất lượng hình ảnh cao hơn, để hệ thống đưa kết xác - Tiếp tục xây dựng thực nghiệm để tìm mơ hình có độ xác cao nhằm nâng cao độ xác hệ thống - Nghiên cứu ứng dụng thêm kỹ thuật nhằm giảm thời gian xử lý, hướng tới phát triển theo hướng xử lý theo thời gian thực 62 TÀI LIỆU THAM KHẢO Tiếng Việt [1] Nguyễn Vĩnh An (2015), “So sánh số phương pháp phát biên”, Tạp chí Khoa học ĐHQGHN: Khoa học Tự nhiên Công nghệ, Tập31, (Số 2), tr.1-7 [2] PGS.TS Phạm Thế Anh, PGS.TS Nguyễn Mạnh An, PGS.TS Đỗ Năng Tồn (2017), Giáo trình xử lí ảnh, Nhà xuất giáo dục Việt Nam [3] PGS.TS Hoàng Văn Dũng (2018), Giáo trình Nhận dạng xử lý ảnh, Nhà xuất Khoa học Kỹ thuật Tiếng Anh [4] Banerjee S, Mitra S, Uma Shankar B (2018), Automated 3D segmentation of brain tumor using visual saliency, Inf, Sci 424: pp 337353 [5] Baumgartner CF, Koch LM, Pollefeys M, Konukoglu E (2017), An exploration of 2D and 3D deep learning techniques for cardiac MR image segmentation, In: International Workshop on Statistical Atlases and Computational Models of the Heart Springer, pp 111-119 [6] Cai J, Lu L, Xie Y, Xing F, Yang L (2017) Improving deep pancreas segmentation in CT and MRI images via recurrent neural contextual learning and direct loss function, arXiv:1707.04912 [7] Chen H, Dou Q, Yu L, Qin J, Heng PA (2017), Voxresnet: deep voxelwise residual networks for brain segmentation from 3D MR images, NeuroImage 170: pp 446-455 [8] Chen J, Yang L, Zhang Y, Alber M, Chen DZ (2016), Combining fully convolutional and recurrent neural networks for 3D biomedical image segmentation, In: Advances in Neural Information Processing Systems, pp 3036-3044 [9] Christopher Michael Bishop (2006), Pattern Recognition and Machine Learning, Springer 63 [10] Dhungel N, Carneiro G, Bradley AP (2015), Deep learning and structured prediction for the segmentation of mass in mammograms, In: International Conference on Medical Image Computing and ComputerAssisted Intervention, Springer, pp 605-612 [11] G E Hinton (2007), "Learning multiple layers of representation" Trends in Cognitive Sciences, 11, pp 428-434 [12] Girshick, R., Donahue, J., Darrell, T., & Malik, J (2014), Rich feature hierarchies for accurate object detection and semantic segmentation, Proceedings of the IEEE conference on computer vision and pattern recognition, pp 580-587 [13] Gordienko Y, Gang P, Hui J, Zeng W, Kochura Y, Alienin O, Rokovyi O, Stirenko S (2018), Deep learning with lung segmentation and bone shadow exclusion techniques for chest X-ray analysis of lung cancer, In: International Conference on Theory and Applications of Fuzzy Systems and Soft Computing, Springer, pp 638-647 [14] Hinton, G E., Osindero, S., Teh, Y W (2006), A Fast Learning Algorithm for Deep Belief Nets, Neural Computation 18 (7), pp 15271554 [15] Jonathan Long, Evan Shelhamer, Trevor Darrell (2015), Fully Convolutional Networks for Semantic Segmentation, The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp 3431-3440 [16] Kaiming He, Georgia Gkioxari, Piotr Dollár, Ross B Girshick (2017), Mask R-CNN, ICCV, pp 2980-2988 [17] Kamnitsas K, Chen L, Ledig C, Rueckert D, Glocker B (2015), Multiscale 3D convolutional neural networks for lesion segmentation in brain MRI, Ischemic Stroke Lesion Segmentation, pp 13- 46 [18] LeCun, Yann and Bottou, Léon and Bengio, Yoshua and Haffner, Patrick (1998), Gradient-Based Learning Applied to Document 64 Recognition, Proceedings of the IEEE, 86, pp 2278-2324 [19] Michael A Nielsen (2013), Neural Networks and Deep learning, Determination Press [20] Olaf Ronneberger, Philipp Fischer, Thomas Brox (2014), U-Net: Convolutional Networks for Biomedical Image Segmentation, Medical Image Computing and Computer-Assisted Intervention (MICCAI), Springer, LNCS, Vol.9351: pp 234-241 [21] Ross B Girshick (2015), Fast R-CNN, ICCV, pp 1440-1448 [22] Shaoqing Ren, Kaiming He, Ross B Girshick, Jian Sun (2015), Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks, NIPS, pp 91-99 [23] Stuart J Russell and Peter Norvig (2009), Artificial Intelligence: A Modern Approach, Prentice Hall [24] Yann LeCun, Yoshua Bengio, Geoffrey E Hinton (2015), Deep learning Nature, 521(7553): pp 436-444 65

Ngày đăng: 17/07/2023, 23:46

TỪ KHÓA LIÊN QUAN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

w