1. Trang chủ
  2. » Luận Văn - Báo Cáo

Tiếp cận hỗ trợ chẩn đoán ung thư từ nhũ ảnh sử dụng phương pháp học sâu

12 0 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Tiêu đề Tiếp Cận Hỗ Trợ Chẩn Đoán Ung Thư Từ Nhũ Ảnh Sử Dụng Phương Pháp Học Sâu
Tác giả Lưu Lương Vi Nhân, Quách Xuân Nam
Trường học Trường Đại học Cụng nghiệp Thành phố Hồ Chí Minh
Chuyên ngành Công nghệ Thông tin
Thể loại Bài báo khoa học
Năm xuất bản 2023
Thành phố Thành phố Hồ Chí Minh
Định dạng
Số trang 12
Dung lượng 1,28 MB

Nội dung

Trong khi đó các thuật toán học sâu sẽ cho ra kết quảtốt hơn khi được đào tạo trên dữ liệuchất lượng caotheosố lượng lớn.• AnushaBharat và cộng sự [3] đề xuất mơ hình dùng bốn thuật tốn

Trang 1

Hội nghị Khoa học trẻ ỉần 5 năm 2023(YSC2023)-ỈUH

YSC5.F022

TIÉP CẶN HÕ TRỢ CHẢN ĐOÁN UNG THƯ TỪ NHŨ ẢNH sử DỤNG

PHƯƠNG PHÁP HỌC SÂU

LƯULƯƠNG VI NHÂN1’, QUÁCHXUÂN NAM1

-Khoa Công nghệ Thông ỉin, TrườngĐại học Công nghiệp Thành phổ Hồ Chi Minh

*nhanvi2ỉ2@gmail com

Tóm tắt Ung thưlà một trong những bệnh lýnguy hiểm và phổbiến trên toàn thế giới, và ung thư vú là

loạiungthư thường gặp nhất ở nữ giới và cũng là nguyên nhân chính gây tửvongdo ung thư Việc xác

địnhvàphân loạichính xáckhốiu là rấtquan trọng trong việc phát hiện ung thư vú ở giai đoạn đầu Trong các phươngpháp sàng lọc để phát hiện sớm tếbào ung thưvú,người ta đã côngnhậnrằngchụp nhũ ảnh là mộtphươngpháphiệu quả Dođó,kỹ thuật phân đoạnhìnhảnhvàtrítuệnhântạo có thể được áp dụng để

chẩn đoán ungthư vú giai đoạn đầu Mô hình học sâuhiện đangđược sử dụng để họccácđặc trưng của nhũ ảnh, tự điều chỉnh và đạt được độ chính xác đáng kể Mô hìnhđược xây dựngdựa trên mạngnơ ron

tích chập vớikiến trúclà ConvNeXt và HRNet Các kiếntrúcnày đã được chứngminh là hiệu quả trong nhiềubài toán thịgiác máy tính, bao gồmcảphân đoạnhình ảnhvàphânloại ConvNeXtkết hợp kiến trúc hiệu quả củaResNeXt và mô hình ConvolutionalNeural Network (CNN) đểtăng cường khả năng học tương quan giữacác đặc trưng trong ảnh HRNet tập trung vào việc giữnguyênđộ phân giảicao trong suốt quá trình xử lýhìnhảnh để tăng cường khảnăng họccác đặc trưng của môhình.Mô hìnhđược huấnluyện hêncác bộ dữ liệunhũ ảnh: RSNA(54706ảnh), DDSM(7808 ảnh), CMMD (5202 ảnh), INbreast (410

ảnh),MIAS (322 ảnh) Trước khi đào tạo mô hình, chúng tôi đã áp dụngmột số thuật toántiền xử lý như chuẩn hóa dữ liệu, tăng cường ảnh, xoayvàlật ảnh, sau đó áp dụng mô hìnhvà đạt đượcđộ chínhxác Kết quả thử nghiệm chứng minh rằng phương pháp của chúng tôi đạt được kết quả tốt hơn sovới các phươngpháp dựa trênnềntảng CNN khác

Từ khóa. Ung thư vú,Học sâu, xửlý ảnh, Mạngnơ-rontích chập, ConvNeXt,HRNets, Nhũ ảnh

Abstract Cancer is oneofdie mostdangerous and common diseases worldwide, and breastcancer is the

most common cancer in women and is also die maincause of cancer death.Accuratetumor identification

and classification are very important in detecting breast cancer at an early stage Among die screening methods for early detection of breast cancer cells, it hasbeen recognizedthat mammographyis aneffective

method Therefore, image segmentation techniques and artificial intelligence canbe applied to diagnose

early breast cancer Deep learning models arecurrently being used to learn mammographic features, self­

correct, and achieveremarkable accuracy The modelis builton a convolutional neural network with the

architectures of ConvNeXt and HRNet These architectures have been shown to be effective for many

computer vision problems, including image segmentation and classification ConvNeXt combines the

efficient architecture of ResNeXt and the Convolutional Neural Network (CNN) model to enhancethe ability to learn die correlation betweenfeatures in the image.HRNetfocuseson maintaining highresolution throughout die image processingto enhance die ability to learn the features of die model The model was

trained on die mammography datasets: RSNA (54706 images), DDSM (7808 images), CMMD (5202 images), INbreast(410 images), and MIAS (322 images) Beforetrainingthe model,we applied some pre­

processing algorithms such as data normalization, image enhancement, image rotation and flipping, etc.,

dienapplied themodel and achievedaccuracy Experimentalresults demonstrate that our methodachieves

betterresults than other CNN-based methods

Trang 2

Hội nghị Khoa học trẻ ỉần 5 năm 2023(YSC2023)-ỈUH

Keywords, breast cancer, deep learning, image processing, convolutional neural network, ConvNeXt, HRNets, mammography

1 GIỚI THIỆU

Trong lĩnhvực ỵtế, ung thư là một trong những căn bệnh phức tạp và nguy hiểmnhấtđối với con người bởi khả năng xâm lấn, lây lan đến cácbộ phận của cơthể Theothống kê toàn cầuvề ung thư, ung thư vú

chiếmtỷ lệ caonhấttrong sốcácloại ung thưphát hiện ở phụ nữ hên toàn thế giới Theo Hiệp hội Ung thư Hoa Kỳ thì năm 2022 có tới 1,919,030 ca ung thư mớivà 609,360 catửvongtính riêng ở Hoa Kỳ Ung thư

vú chiếm tới 19%trong tổng số ca ung thư và chiếm 30%trong số ca ung thư ở phụ nữ [1].Ung thư vú phátsinh do sự phát hiển bất thường của các tế bào hongmôvú, tạo nên cáctổn thương Các tổn thương lànhtính (benign)thường vô hạivà không cần đến sinh thiết.Ngược lạicác tổn thương ác tính (malignant) thì khôngổnđịnh, trongtrường hợp di căn, tế bào ung thư trongvúcó thể tách khỏikhối u ban đầuvà lưu

thông quahệ thống mạch máuhoặc mạch lỵmpho đến các bộphận khác của cơ thể [2] Vì vậy việcphát hiện ungthư vú ở giai đoạn sớm giúp tăng khảnăng chữa khỏi bệnh,giảm nguy cơ xuấthiện các biến chứng

và giảm mức độảnh hưởngcủa bệnh vớichất lượng cuộc sống củabệnhnhân

Mặcdù đã có sự tiếnbộvề côngnghệvàphươngpháp chẩn đoán ung thư vú,nhưng việc đánhgiáhình ảnh

ỵtế là một công việctốn thời gianvà tốnsức, và đòi hỏi kiến thứcchuyên môn cao Chúng tôi đã áp dụng cáckỹ thuậttrítuệnhân tạo để hỗ trợ chẩn đoán phân loạiungthư vú Các môhình học sâu như CNNs,

ConvNeXt, HRNets được xây dựng dựa hên dữ liệu hình ảnh của tuyến vú giúp phát hiện bệnhnhân có ung thư haykhông, giúp các bác sĩxác địnhnhữngtrường hợp cần phải tiếp tục xét nghiệmvà chẩn đoán chính xáchơn Các mô hìnhnày có thể giúp tăng độ chính xácvà giảm thời gian kiểm ha, đồngthời giúp giảm thiểu những sai sót hong quá trình chẩn đoán

2 NGHIÊN CỨU LIÊN QUAN

về cơ bản có hai kỹ thuậtđược sửdụng đểphát hiện ung thư vú,đó là học máy (machine learning)và học sâu (deep learning) Học máy làmột lĩnh vực củatrítuệnhân tạo tuy nhiênhọc máy hiệu quảđối với lượng

dữ liệu nhỏ, khi cónhiều dữ liệu hơn thì kết quả mô hìnhcũng không cải thiện hơn Trong khi đó các thuật toán học sâu sẽ cho ra kết quảtốt hơn khi được đào tạo trên dữ liệuchất lượng caotheosố lượng lớn

• AnushaBharat và cộng sự [3] đề xuất mô hình dùng bốn thuật toán phân loại là SVM, Decision Tree (CART), KNN,Naive Bayes Theo tác giả thì KNNcho kết quả tốt hơn SVM có một hạn chếđó là cho kết quảtốt hơnđối vớibài toán phân loại nhị phân Đó là lý do Multi-SVM được sử dụng

• Ch Shravỵavàcộngsự [4] đề xuất mô hình học máy cógiámsát Nghiên cứunày đượcthựchiện sử

dụng các thuật toánhọc máy phân loại cógiám sát nhưLogisticRegression, SVM và KNN Dữ liệu được tải từ UCI vàcho thấy thuật toánSVM đạtkết quả cho tới 92.7%, với nềntảng sử dụng là ngôn

ngữpython

• Sivapriỵa J và cộngsự[5] đề xuất sử dụnghọc máy sửdụng các thuật toán phân loại là Random Forest, SVM, Logistic và Naive Bayes Thực hiện hên môitrường anaconda và cho thấy rang Random Forest

là 1 bộ phân loại tốt với độ chính xác tới 99.76%

• Kalỵani Wadkarvà cộngsự [6] sử dụng mô hình ANN cơ bản và hiệu suấtphân tích bằng vớimô hình SVM.Kết quảcho thấy ANNcó độ chính xác là 97% còn SVM chỉ 91% Tác giả kêu rằngnếu ko có SVM thì ANN sẽ chokết quảtốt hơn

• VishalDeshwal và cộngsự [7]: đầu tiên tácgiả chỉ nghiêncứu sử dụng SVMvà sau đó là SVM kết hợpGrid search Ket quả so sánh cho thấy nếu cóGridsearch thì SVM sẽhiệu quả hơn

• s Shamỵvà cộng sự[8]: sử dụng Kmean- GMM và CNN Đầutiên tác giả tìm phần ROI sau đó áp dụngphươngpháp hích xuất đặchưng, cuối cùng là sửdụng CNN để đạt kết quả tốt nhất.Kết quả đạt

độ chính xác95.8% trên bộ MIAS

CNNs/ConvNetlà một thuật toán học sâu nhận dữ liệu đầuvào (input)là ảnh Trongmạng thần kinh tích

chập có các lớp chuyên dụng để xửlýdữ liệu ảnh như lớp tích chập(Convolutional), lớptổng hợp (Pooling),

258 © 2023 Trường Đại học Công nghiệp Thành phố Hồ Chí Minh

Trang 3

Hội nghị Khoa học trẻ lần 5 nám 2023(YSC2023)-ỈUH

lớpkíchhoạt(Activation)và láp kếtnối đầy đủ (Fully connected) Lớp tích chập có thể tìm kiếm các đặc trưng quan trọng của ảnh thông qua tính toánnhờ cácbộ lọc (filter), lớp Poolingđể tổnghợpchỉ lấy các đậc trưng quan trọng nhất và các lớp activation nhưReLU cóthểgiúp tăng tính phituyếncủamô hình và học được các đặc trưngphức tạp cửa ảnh[9],

fc_4 Fully-Connected

Neural Network

fc_3

Fully Connected

Neural Network

n3 units

Hình 1: Minh họa kiến trúc CNNs giải quyết bài toán phân loại chữ viết tay

Trongbàibáo này, nhóm chúng tôi sử dụng kiếntrúc CNNs được tham khảo từ [10] gồm 3 lóp tích chập,

hai lớp max pooling, 5 lớpkíchhoạt ReLU, 3 lớpchuẩn hóa rà 3 lớp fullyconnected Mỗi layer chúng tôi đềusử dụng stride bằng 2, kích thước 2x2 cho mỗi lớp max pooling Vớimỗi lópconvolution, chúngtôi đềusử dụng stride bằng 1, kích thướckernel 3x3 và cópadding‘same’ để trích xuất đặc trưng của ảnh

Theosau đó là lớp fully connected vói sốnút lần lượtlà512, 128 sử dụng hàm kích hoạt ReLU.Cuối cùng

là lớpsoftmax để trả về logits dự đoán các lớp Kiến trúc nàyđược rút ra từ thựcnghiệmcủa nhóm tácgiả, chi tiết được thểhiện dưới hình sau:

: Batch norm

_/ : ReLU

Ị-4-Ị : Max Pool

*3 : Ccrrvokrtion filter 3x3

input

227x227x1

Hình 2: Kiến trúc CNNs sử dụng cho bài toán chẩn đoán nhũ ảnh

ConvNeXt đã đạt độ chính xác cao trên tậpImageNet(87,8% - top 1 về độ chính xác)cũngnhưhiệuquả

trong các tác vụnhư phát hiện đối tượng trêntập coco, phân đoạn hìnhảnh trên tập ADE20K, đồng thời vẫn giữ được sự đon giảnràhiệuquảcủacácmô hình ConvNet Điều này cho thấyConvNeXt là một giải

pháp hữu hiệuđể giải quyết các vấnđềtrong thị giác máy tính và cải thiệnhiệu suất mô hình

Trang 4

Hội nghị Khoa học trẻ lần 5 năm 2023(YSC2023)-ỈUH

Image

max pool

Stage 4

Stage 3

Hình 3: Kiến trúc ConvNeXt (trong đó bỏ qua không miêu tà các skip connection) [11]

Nhữngcối tiến củaConvNeXtso vớiResNet50khiếnmô hình ConvNeXt trỏ' nên vượt trội (tồng quan độ

chính xác tăngđến 3.2%):

• vềkĩthuậttraining: Mô hình sử dụnghàm tối ưu là AdamW, với các kỹ thuật tăngcườngảnh như

Mixup, Cutmix, RandAugment, Random Erasing, regularization schemes bao gồm Stochastic

Depthvà Labelsmoothing

Hình 4: Kiến trúc Swin-Transformer tiêu chuẩn [12]

• Thayđổi phương pháp“stem” thành “patchify”: Patchify là mộtphương pháp xửlý ảnh trong đó ảnh được chia thànhcác phần bằng nhau (gọi làcác "patch”) và mỗi patch được xử lý độc lập Thay

vì sử dụng lớp tích chập với một kernel lớn để xửlýtoàn bộ ảnh (stem), Patchify sử dụngcác kernel

nhỏ hơn đểxửlý các patch riênglẻ

Overlapping (ResNet stem)

Hình 5: Minh họa về phương pháp ’stem' (Resnet Stem) và patchify (ConvNeXt stem)

Đốivớimô hình ResNet50 truyền thống, “stem cell” bao gồm một lớp tích chập 7x7 với stride bằng2,theo

sau là một lớp max pool, khiến cho kíchthước ảnhgiảmxuống 4 lần.Nhóm tác giả đã thay thếphương

pháp stem của ResNet bằng phương pháp patchify với kernelsize là4, stride bằng 4 giống nhưcủa Swin

Transformer sử dụng Kết quảcho thấy độ chính xác mô hình thay đồitừ 79.4% lên 79.5%

• Lấy ýtưởng từResNeXt: Nhóm tác giả thay đổi lớp tích chập 3x3bằng lớp tích chập sâu theo chiều sâu (depthwise convolution) Lớp tích chập sâu theo chiềusâu thực chất là lớp tích chập nhóm

260 © 2023 Trường Đại học Công nghiệp Thành phố Hồ Chí Minh

Trang 5

Hội nghị Khoa học trẻ lần 5 nám 2023(YSC2023)-ỈUH

(groupedconvolution), trong đósố nhóm bằng số kênh củađầu vào Thay thếlớp tíchchập bằng

lớp tích chập sâu giúptăng độ chính xác của mô hình là 80.5% (tăng thêm 1,0%) và tăng GFLOPS

thềm 0,9%

Traditional Convolution Model

Group Convolution Model

Hình 6: Minh họa về group convolution [13]

• Invertedbottleneck, nghĩa làthay đỗi kích thước của các lớp tích chập (convolutionallayers) trong

một khốiđể khốiở giữa có kích thước lớnnhất Điềuthú vị là, điều này giúp tăng độ chinh xác của

mô hìnhlên từ 80.5% thành 80.6%

d5 X s, 72 -» 72

LN

1x1, 72-> 288

1X1, 288-» 72

Hình 7: Minh họa một khối inverted bottleneck [14]

• Kích thước kerneltăngtừ 3x3thành 7x7 (giống với Swin Transformer)

• Sửdụnghàm kích hoạtGeLƯ thay vì ReLƯ.HàmGELU (GaussianError Linear ưnit) là một biến thể của hàm ReLU Hàm GELU khá mượt mà và có tính chất khá tương đồng với hàm sigmoid,

với giá trị đầu ra gầnvới 0 hoặc 1khi đầu vàorấtnhỏhoặcrấtlớn Điều này giúp cho hầmGELU

có thể học các mốiquan hệ phức tạpgiữa các đặc trưng đầu vào

Hình 8: Minh họa hàm ReLU và GELU

Trang 6

Hội nghị Khoa học trẻ lần 5 năm 2023(YSC2023)-IUH

Côngthức của hàm GELU [15]:

g = x ì + ^=f^e-í dt

Có thể thực hiện xấp xỉ GELU bằng công thức sau:

(1)

1 L,

g = —x 1 + tanh 2

• Giảm số lượng hàm kích hoạt,chỉ giữ lại hàm kích hoạtsau inverted bottleneck Độ chính xác+0.7%

• Giảm số lượng lớp chuẩn hóa, chỉgiữ lại một lớp chuẩnhóa trước inverted bottleneck Độ chính xác

tăng0.1%

• Thay thếtoàn bộ normalization(BN) thành Layer normalization (LN) +0.1%

• Thêm các lớp downsampling vào giữa các stages của mạng Swin Transformer Cụ thể, lớp downsampling này gồm một lớp chuẩn hóa (normalization),một lópconvolution với kíchthước 2x2,

bước nhảy (stride) bằng 2 và mộtlớp chuẩnhóa nữa Ngoài ra, thêm lớpchuẩn hóa trước giai đoạn đầu

tiên và saukhi áp dụnglớp average pool saustage4 Ketquả là độchínhxáccủa mô hìnhđược cải thiện thêm0.5%

Về tongquan, có các kiến trúc ConvNeXt theo kích thước từ nhỏ tớilớnđược giới thiệu dưới đây:

• ConvNeXt-tiny (ConvNeXt-T): c = (96, 192, 384, 768),B = (3, 3, 9, 3)

• ConvNeXt-small (ConvNeXt-S): c = (96, 192, 384, 768),B = (3, 3, 27, 3)

• ConvNeXt-base (ConvNeXt-B):c=(128, 256, 512, 1024), B = (3, 3, 27, 3)

• ConvNeXt-large (ConvNeXt-L):c = (192, 384, 768, 1536), B = (3, 3, 27, 3)

• ConvNeXt-Xtralarge (ConyNeXt-XL):c=(256, 512, 1024,2048), B = (3, 3, 27,3)

Nhóm đã fine-tune sử dụng trọng so đã qua đào tạo của mô hình “convnext_small.fb_in22k_ft_inlk_384”

sử dụng API của HuggingFace.Mô tả thông somô hình:

Bảng 1: Thông số mô hình convnext_small.fb_in22k_ft_inlk_384

Thông số mô hình 50.2 triệu parameters

GMACs: 45.2

Sizeảnh mặc định: 384x384

Dữ liệu fine-tune ImageNet-lk

Dữ liệu pretrained ImageNet-22k

Vì mô hình sử dụngchobài toánphân loại 1000 lớp, nên để sử dụng mô hình cho bàitoánphân loại nhị

phân, nhómchúngtôiđã sửa đổi lớp Linear ở cuối với đầu ra bằng 2

3.3 Mô hình High - Resolution Networks (HRNets)

Hầu hết mạng phân loại nhưAlexnet, VGGNet, GoogleNet, ResNettuân theo quy tắccủa Lenet (mô tả trong hình 9), tức là giảm dầnkích thước không gian của các feature map, sau đó kết nối các tích chậptừ

độ phân giải cao đến độ phân giảithấp, sau đó mói được xử lý thêm bớt đế phânloại

Mạng độ phângiải cao (HRNets)có khả năngduy trìcác phảnhồi có độ phângiải cao trong toàn bộ quá trình Bắtđầutừluồngtíchchập cóđộ phân giải cao, dần dần thêmtừng luồng có độ phân giải thấp và kết

nối các luồng một cách songsong DođóHRNetsduy trì độ phân giải cao khi chuyển ảnh qua mạng, chứ

không phục hồiđộ phân giải như ý tưởng của top-down Trước đây thường sử dụng phép Upsamplingđặc

trưng độphân giải thấplêncho bằng đặc trưng có độ phân giảicaovà kết hợp lạibằngcác phép cộng hoặc

262 © 2023 Trường Đại học Công nghiệp Thành phố Hồ Chí Minh

Trang 7

Hội nghị Khoa học trẻ lần 5 năm 2023(YSC2023)-ỈƯH

phép nối; HRNets sẽ thực hiện điều này nhiều lần, quanhiều giai đoạn để các đặctrung có độphân giải cao, thấp sẽ bổsungngữnghĩachonhau

Hình 9: cấu trúc phục hồi độ phân giải cao từ độ phân giải thắp

Các tích chập song song đa độ phân giải

HRNets sẽ duy trìđộphân giải cao xuyên suốt quá trình ảnh truy ền quamạng.Kiếntrúc sẽ chia thành nhiều

tầng,tầng phía sau sẽ sinhra đặc trung cóđộ phân giải thấp và sâu hon, tuy nhiên vẫn duy trì đặc trung có

độ phân giải ở tầng truớc đó

Hình 10: Minh họa mạng HRNets

Quansát ở luồng số1, qua nhiềutầng, đặc trung độphân giải cao (ký hiệumàuvàng) sẽ được duy trì Bắt đầu từ tầng số 2, đặc trung có độphân giải thấpvà sâu hon (màu cam) sẽ được sinh ra, đặc trưng có độ

phângiải cao màu vàngnày sẽ đuợc bổ sung ngũ nghĩa bởi các đặc trung màu cam và ngược lại Cứ như vậy qua nhiềutầng, các đặc trung có các độphân giải khácnhau sẽ được bổ sung ngũ nghĩa cho nhau, dẫn đến cuối cùng ta sẽ thu đuợc đặc hưng độ phân giải cao, tuy nhiên chất lượng vẫn tốt Hình 10 minh họa mạngHRNets bao gồm 4 giai đoạn Luồng xử lý chính được mô tả một cách logic bằngcông thức sau:

Mi “* Ml —> -A/ái 41

A/*22 A/32 —> A/42

\A/33 —> A/43

\í A/44

Hình 11: Công thức luồng xử lý mạng HRNets

Trong đó, N 5Ỵ là một nhánh đặc trung tại giai đoạn thứ s , r là chỉ mục độphân giải Độphân giải ở

-giai đoạn đâu tiên sẽ là r = 1, độphân giải thứ r sẽ băng ——- độphân giải ở giai đoạn đâu tiên

5-1

Các phép kết hợp đặc trưng

Việckếthọp các đặc trung là để trao đổi thông tinngữnghĩagiũacác đặc trung có nhiềuđộ phân giải khác nhau Nó đuợc lặp đi, lặp lại nhiềulần Ví dụ nhu ở hình 10, việc lặp đi lặplạiđuợc thụchiện4lần

Trang 8

Hội nghị Khoa học trẻ lần 5 năm 2023(YSC2023)-ỈUH

channel maps

strided 3x3

□ up samp.1 X 1 Hình 12: Minh họa cách kết hợp thông tin ngữ nghĩa các đặc trung độ phân giải cao, trung bình và thắp tuơng úng từ

trái sang phải

Quan sát hình 12, bắtđầu từ luồng tích chập có độ phân giải cao làm giai đoạn đầu tiên, dần dần thêm từng luồngcó độ phân giải caoxuốngthấp, tạothành cácgiaiđoạn mới và kết nối song songcácluồngđađộ phân giải Do đó, độ phân giải cho các luồngsongsong của giai đoạn sau bao gồm độ phân giảitừ giai đoạn trướcvà một mứcthấp hon

Các dạng biễu diễn

HRNetscó 3 dạng biểu diễn, đuợc gọi là HRNetVl, HRNetV2, HRNetV2p

• HRNetVl: đầu ra là dạng biểu diễn chỉ lấy từnhánh đặc trung có độ phân giải cao (high-resolution)

Ba đặc trung của ba độ phân giải còn lại sẽ đuợcluợc bỏ

• HRNetV2: các tác giả rescalecác đặc trung độ phângiải thấp lên độ phângiải cao bằng một phép upsamplingsong tuyến mà không thay đổi chiều sâu, và nối lạicả bốn đặc trung Sauđó đi qua một

lóp tích chập 1x1x1 đểtrộn cả bốn đặc trưng này lại

• HRNetV2p:cáctác giảxây dựngmột biểudiễnđa tỷ lệ(multi-level features) bằngcáchsử dụng đầu ratừHRNetV2

• Đốivới bài toán phân loại ảnh ung thu, chúng tôi sử dụngkiến trúcHRNet đuợc tham khảo ở [16] Ở

lóp fully connected, chúng tôitiến hành thay đổi đầura (outputfeatures) bằng2 đểphùhọpvới bài toán

4.1 Dữ liệu

Chúng tôi sử dụng 5 bộdũliệucho bài toán củamình bao gồm INbreast, MammogramImage Analysis Society (MIAS), Digital Dataset for Screening Mammography (DDSM), RSNA Screening Mammography

Breast Cancer Detection, Chinese Mammography Database(CMMD)

Bộ dữ liệuINbreast có tổng cộng 115 trường họp (410 ảnh), trong đó có 90 trường họp được thu thập cả2

vú(mỗi trường họp gồm 4 ảnh)và 25 trường họp làtừ bệnh nhân cắt bỏ tuyếnvú (2 ảnh cho mỗi trường

họp) Thông tin bao gồm mô tả chi tiết tổn thưong (masses), vôi hóa (calcifications), không đối xúng

(asymmetries) và biến dạng (distortions) Ma trận hình ảnhcó kích thuớc 3328X 4084 hoặc 2560X 3328

pixels Bộdữ liệu MIAS bao gồm 322 hình ảnh ở địnhdạng Portable Gray Map (PGM) Bộ dữ liệu chứa

207 truònghọpbình thường, 63 trường họp lànhtính và52 trường họp áctính Kích thước của hình ảnh là

1024 X 1024 Bộ dữ liệuRSNA (Radiological Society of North America) là một tập dũ liệu quan trọng đuợc tổ chứcvà pháttriển bởi Hội Nghị Y HọcHình Ảnh Bắc Mỹ (Radiological Society of North America), nhằm hỗ trợ nghiêncúu và phát triển cácthuật toán và hệ thống hỗ trợ chẩn đoánungửiuvútừhình ảnh mammography Trongđó,các hìnhảnh đuợcluu duới dạng DICOM, có 53540ảnhkhông ungthư và 1158 ảnh ungthu Bộ dữ liệu DDSM (Digital Database for ScreeningMammography) có định dạng DI COM

chứa hìnhảnhcủa các khối u(masses),vôihóa (calcifications) và hình ảnh ROI Tập dữ liệu có chứa 2716

ảnh ung thu ác tính, 2684 ảnh lành tính và 2408 ảnh bình thuòng Bộ dữ liệu CMMD (Chinese Mammography Database) bao gồm các hình ảnh chụp nhũ ảnh đuợcthu thập ởđịnhdạng TIFFvà đuợc chuyển đổi sangDICOM 8 bit, baogồm 5202 ảnh trong đó có 4094 làung thu áctính và1108 ảnh là ung thu lànhtính

2Ố4 © 2023 Trường Đại học Công nghiệp Thành phố Hồ Chí Minh

Trang 9

Hội nghị Khoa học trẻ lần 5 nám 2023(YSC2023)-ỈUH

Hình 13: Nhũ ảnh trong bộ dữ liệu INbreast: a) Góc chụp cc vú phải, b) Góc chụp cc vú trái,

c) Góc chụp MLO vú phải, d) Góc chụp MLO vú trái

Đầu tiên, chúng tôichuyển tất cả hình ảnhtrong bộdữ liệu về chung mộtđịnh dạng ảnh là png Tiếptheo,

sử dụng mô hình YOLOvS để cắt riêngvùng rá loại bỏ phần ảnh đen dư thừa gây nhiễu, vói độ chính xác

củacắt ảnhlên đến 99% theothang đo mAP Cácảnhsau khi cắt sẽ đượctiền xửlý bằng các phương pháp

như:CL AHE(Contrastlimited adaptive histogramequalization) tăngđộtươngphản ảnh, các kĩ thuật tăng cường ảnh (xoay, lật, làmmờảnh) Sau đó đưavào môhình để giải quyết bài toán phân loại vúungthư và

rákhông ungthư

Dữ liệu thực nghiệm vớimôhình ConvNeXt vàCNNs

Trongquá trình thực nghiệmnhiềulần, đốivới mô hình ConvNeXt ràCNNs, nhóm chúng tôi thựchiện 2 cách chiadữ liệu như sau:

• Cách 1 (TrainSetl): Chỉ sử dụng cốđịnh 4tậpdữ liệu mini-DDSM, Mias, INbreast và CMMD để huấn luyện Tậpdữ liệuhuấn luyện bao gồm 13056 ảnh trong đó tỉ lệ ảnh 1: 0 là 0.52: 0.48 sốảnh validate lấytừ mỗi bộ 5%sốảnh, tỉ lệ tương tự bằng cáchlấy sample, sốảnhtest gồm 54703 ảnh củabộ RSNA (bảng 2) và test riêng từngbộdữ liệu:

Bảng 2: Chia dữ liệuTrainSetl

Dataset Tỗng ảnh Ảnh ung thư Train Validate Test

CMMD 5202 4094 4945 260 5202

• Cách 2 (TrainSet2): Sử dụng 5 tập dữ liệu, gồm mini-DDSM, Mias, INbreast, CMMD và RSNA để

huấn luyện.Riêng với bộ RSNA chỉ sử dụng 600 ảnh mang nhãn 0

Trang 10

Hội nghị Khoa học trẻ lần 5 năm 2023(YSC2023)-IUH

Bảng 3: Chia dữ liệu TrainSet2

Dataset Tổng ảnh Ảnh ung thư Train Validate Test

Mi as 322 51 306 16 322

INbreast 410 343 390 20 410

CMMD 5202 4094 4945 260 5202

Dữ liệu thưc nghiệm với mô hình HRNet

Dữ liệu huân luyện

Bảng 4: Dữ liệu huấn luyện mô hình HRNet

Tên Dataset Số lượng nhãn

Cancer

Số lượng nhãn Normal Tong so

ảnh

Mias 40 216 256

Tong so 2486 4342 6828

Dữ liệuđánh giá

Bảng 5: Dữ liệu đánh giá mô hình HRNet

Tên Dataset Số lưựng nhãn Cancer Số lượng nhãn Normal Tổng số ảnh

Tong so 634 1088 1722 4.2 Đánh giá mô hình

a Kết quả đánh giá chung:

Bảng 6: Bảng kết quả đánh giá các mô hình trên tập huấn luyện và tập kiểm thử

Mô hình Tập dữ liệu huấn luyện Tập dữ liệu kiếm thử

Acc Precision Fl score Recall loss Acc Flscore Recall Precision

ConvNeXt 92.85% 92.73% 93.05% 93.38% 0.3951 79.15% 80.65% 82.32% 79.05%

-HRNet 74.37% 68.91% 60.51% 53.94% 0.04 71.2% 55.78% 49.83% 63.34%

2Ố6 © 2023 Trường Đại học Công nghiệp Thành phố Hồ Chí Minh

Ngày đăng: 10/03/2024, 08:14

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

w