1. Trang chủ
  2. » Giáo Dục - Đào Tạo

Một thử nghiệm học chuyển giao trong bài toán phân lớp ảnh siêu âm vú

3 5 0

Đang tải... (xem toàn văn)

THÔNG TIN TÀI LIỆU

Bài viết Một thử nghiệm học chuyển giao trong bài toán phân lớp ảnh siêu âm vú trình bày một thử nghiệm học chuyển giao cho bài toán phân lớp ảnh y khoa là ảnh siêu âm vú. Kết quả thử nghiệm cho thấy, với học chuyển giao từ ResNet50 cho kết quả tốt nhất đạt được là 88%, đồng thời ở mô hình chuyển giao này, hàm tối ưu RMSprop là phù hợp nhất với bài toán. Mời các bạn cùng tham khảo!

MỘT THỬ NGHIỆM HỌC CHUYỂN GIAO TRONG BÀI TOÁN PHÂN LỚP ẢNH SIÊU ÂM VÚ 1st Nguyễn Thị Hương Lý Khoa Công nghệ Thông tin Trường Đại học Nha Trang TP Nha Trang, Việt Nam lynth@ntu.edu.vn Abstract— Bài báo cáo tơi trình bày thử nghiệm học chuyển giao cho toán phân lớp ảnh y khoa ảnh siêu âm vú Kết thử nghiệm cho thấy, với học chuyển giao từ ResNet50 cho kết tốt đạt 88%, đồng thời mơ hình chuyển giao này, hàm tối ưu RMSprop phù hợp với toán B Học chuyển giao (transfer learning) Sự phụ thuộc vào liệu vấn đề nghiêm trọng học sâu Học sâu phụ thuộc nhiều vào liệu huấn luyện khổng lồ so với phương pháp học máy truyền thống, cần lượng lớn liệu để hiểu mẫu liệu tiềm ẩn Dữ liệu đào tạo không đủ vấn đề tránh khỏi số lĩnh vực ứng dụng đặc biệt Việc thu thập liệu phức tạp tốn khiến việc xây dựng liệu chất lượng quy mơ lớn vơ khó khăn Keywords—học chuyển giao, VGG16, ResNet50 I DẪN NHẬP Ung thư vú nguyên nhân phổ biến gây tử vong cho phụ nữ toàn giới Phát sớm giúp giảm số lượng trường hợp tử vong sớm Học chuyển giao kỹ thuật học máy, theo mơ hình đào tạo phát triển cho nhiệm vụ sau sử dụng lại cho nhiệm vụ liên quan thứ hai, theo học cài đặt khai thác để cải thiện hiệu cài đặt khác[6] Quá trình Transfer learning tận dụng lại đặc trưng học từ pre-trained model Đã có nhiều nghiên cứu thực phân loại hình ảnh y khoa có hình ảnh siêu âm vú Chính vậy, tơi chọn nghiên cứu phân lớp cho tập liệu siêu âm vú “Breast ultrasound images dataset - 2019” [1] II HỌC CHUYỂN GIAO Kiến trúc mơ hình sử dụng transfer learning bao gồm phần: A Học sâu mạng neuron tích chập Học sâu gần nhận quan tâm ngày nhiều từ nhà nghiên cứu ứng dụng thành công cho nhiều ứng dụng thực Các thuật toán học sâu cố gắng “học” đặc trưng trừu tượng mức cao từ liệu học lớn, điều giúp học sâu vượt trội so học máy truyền thống Học sâu tự động trích xuất đặc trưng liệu thuật toán học khơng giám sát bán giám sát, trích chọn đặc trưng phân cấp Ngược lại, phương pháp học máy truyền thống cần xác định đặc trưng theo cách thủ công, điều làm tăng gánh nặng cho nhà phát triển cách nghiêm trọng Có thể nói, học sâu thuật tốn học biểu diễn dựa tập liệu quy mô lớn học máy • Một mạng “Based network- BN” (Hình 2) có tác dụng trích lọc đặc trưng (feature- extraction), based network trích xuất từ phần pre-trained model sau loại bỏ top fully connected layers • Các lớp Fully Connected Layers (FC) (Hình 2) giúp giảm chiều liệu tính tốn phân phối xác suất output Bản chất FC mạng perceptron đa lớp - kiến trúc nguyên thủy thuật toán neural network Tùy vào toán cụ thể điều chỉnh số lượng units output Q trình khởi tạo mơ hình ta tận dụng trọng số (weights) BN Dữ liệu ảnh sau qua BN tạo đặc trưng tốt, đặc trưng đầu vào cho mạng Multi-layer Perceptron - MLP để dự báo cho tốn u cầu Hình Ví dụ mạng neuron tích chập tốn phân lớp ảnh Đối với tốn phân lớp ảnh, thơng tin ta cần xử lý rời rạc mơ hình mạng nơ ron tích chập (Convolutional Neural Network - CNN) giải pháp phân loại tối ưu Một số cấu trúc CNN cho kết phân loại ảnh tốt sử dụng nhiều như: LeNet[2], AlexNet[3], GoogLeNet[4], VGGNet, ResNet[5] Hình Học chuyển giao với fine tuning 98 Có phương pháp tranfer learning: Fine tuning Feature extractor Bài báo cáo tơi trình bày kỹ thuật fine-tune sử dụng nghiên cứu Trong thi thử thách phân lớp ảnh ImageNet năm 2014, VGG16 đạt độ xác 92.7% top-5 test Fine tuning: Ở phương pháp ta giữ lại phần BN CNN bỏ FC Sau thêm FC layer vào output BN Ở phương pháp này, trình huấn luyện chia làm giai đoạn: Hinh Mơ hình VGG16(2014) a) Giai đoạn 1: Vì fully connected layer ta thêm vào có hệ số khởi tạo ngẫu nhiên nhiên layer BN pre-trained model huấn luyện nên ta khơng huấn luyện lại (bằng cách đóng băng/freeze) layer BN Sau khoảng 20-30 epoch hệ số layer học từ liệu chuyển sang giai đoạn b) Giai đoạn 2: Ta unfreeze số tất layer BNN pre-trained model train layer BN pre-trained model layer Ở phương pháp ta giữ lại phần BN CNN bỏ FC Sau thêm FC layer vào output BN Thiết kế mơ hình VGG16 bỏ FC Sau thêm FC layer vào output BN (Hình 4) để phân loại hình ảnh siêu âm vú với hệ số khởi tạo ngẫu nhiên (Hình 5) III ỨNG DỤNG CHO BÀI TOÁN PHÂN LỚP ẢNH SIÊU ÂM VÚ A Dữ liệu Trong nghiên cứu này, sử dụng liệu BUIS Dataset[1] Tập liệu thu thập từ hình ảnh siêu âm vú nhóm phụ nữ độ tuổi từ 25 đến 75, tổng số 600 bệnh nhân nữ Số lượng mẫu gồm 780 hình ảnh với kích thước hình ảnh đa dạng, trung bình khoảng 500 x 500 pixel, ảnh có định dạng PNG Các ảnh gán nhãn/lớp: normal (133 ảnh), benign (473) malignant (210) Hình Q trình học chuyển giao từ VGG16 2) Mơ hình Mơ hình sử dụng giải pháp học chuyển giao với kỹ thuật fine-tune, pre-trained model ResNet50 ResNet [5] kiến trúc sử dụng phổ biến thời điểm ResNet kiến trúc sớm áp dụng batch normailization[8] Mặc dù mạng sâu có số lượng layer lên tới 512 nhờ áp dụng kỹ thuật đặc biệt kết nối tắt, khối tích chập khối xác định nên kích thước ResNet50 khoảng 26 triệu tham số Kiến trúc với tham số hiệu ResNet mạng lại chiến thắng thi ImageNet măm 2015 (Hình 6) Hình Các mẫu liệu BUIS Dataset B Phương pháp Như trình bày trên, tốn tơi thử nghiệm - tốn phân lớp ảnh siêu âm vú với dataset gồm có khơng nhiều ảnh (785 ảnh), nên chọn giải pháp học chuyển giao với kỹ thuật fine-tune Hơn để có khảo sát tổng quan, pre-trained model sử dụng VGG16 (Mơ hình 1) ResNet50 (Mơ hình 2) để so sánh hiệu Tôi thử nghiệm số hàm tối ưu khác để đánh giá/tìm hàm phù hợp cho tốn Hình Mơ hình ResNet50(2016) 1) Mơ hình Như trình bày trên, mơ hình sử dụng giải pháp học chuyển giao với kỹ thuật fine-tune, pre-trained model mơ hình VGG16 Thiết kế mơ hình ResNet50 bỏ FC Sau thêm FC layer vào output BN ResNet50 (Hình 6) với hệ số khởi tạo ngẫu nhiên (Hình 7) Các FC layer gồm layer Dense layer Dropout 0.5 Mạng VGG16 mạng convolutional neural network đề xuất K Simonyan and A Zisserman, University of Oxford vào năm 2014[7] Mơ hình VGG16 bao gồm 16 layer Hình 4, VGG16 sử dụng kernel kích thước nhỏ 3x3 nhằm giảm số lượng tham số cho mô hình mang lại hiệu tính tốn 99 Kết accuracy loss trình training cho mơ hình thể Hình Hình ▪ Benign ▪ Malignant ▪ Normal BN (Base Network) Input 224x224x3 Hình Quá trình học chuyển giao từ ResNet50 Hình Loss training transfer VGG16 transfer ResNet50 IV KẾT QUẢ THỬ NGHIỆM V KẾT LUẬN Baì báo trình bày kết nghiên cứu thử nghiệm thử nghiệm học chuyển giao toán phân lớp ảnh siêu âm vú Trong báo chọn phương pháp học chuyển giao Fine tuning thử nghiệm hai mơ hình mạng chuyển giao VGG16 ResNet50 Kết thử nghiệm cho thấy kết đạt tốt 88% Kết chưa tốt liệu training cịn dẫn đến overfitting Do tập trung nghiên cứu để cải tiến thêm thời gian tới A Chuẩn bị liệu Với kích thước trung bình khoảng 500 x 500, để phù hợp với input mô hình VGG16 bước đọc liệu ảnh tơi thực resize ảnh 224 x 224 chuyển đổi thành định dạng RGB 24-bit Tập liệu chia ngẫu nhiên thành tập: tập train 70%, tập validation 15% tập test 15% (TABLE I) BẢNG I SỐ LƯỢNG ẢNH TRONG TẬP TRAIN, TẬP VALIDATION VÀ TẬP TEST TÀI LIỆU THAM KHẢO Nhãn Benign Malignant Normal Total Train 306 147 93 546 Validation 66 32 20 117 Test 66 32 20 117 [1] A.-D Walid, M Gomaa, H Khaled, and F Aly, “Dataset of Breast Ultrasound Images,” Data Br., vol https://do, 2019 [2] Y Bengio, Y LeCun, C Nohl, and C Burges, “LeRec: a NN/HMM hybrid for on-line handwriting recognition,” Neural Comput., vol 7, no 6, pp 1289–1303, 1995, doi: 10.1162/neco.1995.7.6.1289 B Kết thử nghiệm [3] T F Gonzalez, “ImageNet Classification with Deep Convolutional Neural Networks,” Handb Approx Algorithms Metaheuristics, pp 1– 1432, 2007, doi: 10.1201/9781420010749 BẢNG II BẢNG KẾT QUẢ KIỂM TRA VỚI MƠ HÌNH Hàm Optimize Adam AdaGrad AdaDelta RMSprop SGD AdaMax Nadam Mơ hình Test Loss Test Acc 0.65 0.78 0.68 0.819 0.72 0.828 0.5 0.79 0.75 0.826 1.2 0.83 0.57 0.85 Mơ hình Test Loss Test Acc 0.51 0.83 0.51 0.81 0.49 0.82 0.65 0.88 0.64 0.82 0.63 0.83 1.3 0.85 [4] C Szegedy et al., “Going deeper with convolutions,” Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, vol 07-12-June pp 1–9, 2015 doi: 10.1109/CVPR.2015.7298594 [5] V Sangeetha and K J R Prasad, “Deep Residual Learning for Image Recognitio TABLE II cho thấy, mơ hình hàm optimize= “Nadam” cung cấp độ xác cịn với mơ hình n,” Indian J Chem - Sect B Org Med Chem., vol 45, no 8, pp 1951– 1954, 2006, doi: 10.1002/chin.200650130 [6] Y Gao and K M Mosalam, “Deep Transfer Learning for Image-Based Structural Damage Recognition,” Comput Civ Infrastruct Eng., vol 33, no 9, pp 748–768, 2018, doi: 10.1111/mice.12363 [7] K Simonyan and A Zisserman, “Very deep convolutional networks for large-scale image recognition,” 3rd Int Conf Learn Represent ICLR 2015 - Conf Track Proc., pp 1–14, 2015 Hình Loss training transfer VGG16 transfer ResNet50 [8] S Joseph and S Ioffe, “Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift,” in Journalism Practice, 2016, vol 10, no 6, pp 730–743 doi: 10.1080/17 512786.2015.1058180 optimize= “ RMSprop” cung cấp độ xác tốt tập liệu thử nghiệm 100 ... nghiệm học chuyển giao toán phân lớp ảnh siêu âm vú Trong báo chọn phương pháp học chuyển giao Fine tuning thử nghiệm hai mơ hình mạng chuyển giao VGG16 ResNet50 Kết thử nghiệm cho thấy kết đạt tốt... trình học chuyển giao từ ResNet50 Hình Loss training transfer VGG16 transfer ResNet50 IV KẾT QUẢ THỬ NGHIỆM V KẾT LUẬN Baì báo trình bày kết nghiên cứu thử nghiệm thử nghiệm học chuyển giao toán phân. .. layer vào output BN (Hình 4) để phân loại hình ảnh siêu âm vú với hệ số khởi tạo ngẫu nhiên (Hình 5) III ỨNG DỤNG CHO BÀI TOÁN PHÂN LỚP ẢNH SIÊU ÂM VÚ A Dữ liệu Trong nghiên cứu này, sử dụng liệu

Ngày đăng: 31/12/2022, 14:47

Xem thêm:

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

w