Đánh giá độ hiệu quảtừ các lầnthực nghiệm, ta có thể thấy đề xuất đạt hiệu quả đáng kể, manglại hiệu suất ấn tượng so với các nghiêncứuđãcótrước đây.2 CÁC NGHIÊN CỨU LIÊN QUANBàibáo“Adee
Trang 1Hội nghị Khoa học trẻ ỉần 5 năm 2023(YSC2023)-ỈUH
YSC5.F030
PHÂN LOẠI BI-RADS sử DỤNG PHƯƠNG PHÁP HỌC SÂU
TRỊNH THỊ BẢO BẢO
Khoa Công nghệ Thông tin, Trường Đại học Công nghiệp Thành phổ Hồ Chỉ Minh
* ttbb0802200ỉ@gmail.com
Tóm tăt Tronglĩnh vực ỵ tế, BI-RADS được xem làmột chỉ sốsinh học quan trọng trong việc đánh giá rủi ro ung thư vú Tuynhiên, việc đánh giá phân loại BI-RADS đòi hỏi sự can thiệptừcác chuyên giaxét nghiệm, đội ngũ ỵbác sĩ để đánh giá sự khác biệt Đe hỗ trợ phần nào vấnđềnày, các thuật toán học sâu
đã đượcphát triểnvới mục đích phân loại BI-RADS Trong nghiêncứu này,chúngtôi đề xuấtphương pháp tiền xử lýảnh nhũ bằng sửdụng kĩ thuật windowing sau đó sửdụng thuật toán cutmix nhằm giảm tìnhtrạng mấtcânbằngdữ liệu Keđến chúng tôi cắt vùng nhũ bằngmôhình YoloX rồiđưa tậpdữ liệu vào các mô hình học sâu để phân loạinhũ Các thí nghiệm của chúng tôi trên tập dữ liệu VinDr-mammo và CDD-
CESMcho thấy rằngphươngpháp đề xuất cải thiện đángkể hiệu suất phân loại BI-RADSvớiđộ chính xác
ở tậpkiểm thử là 89.85% vàFl-score là 85.16%
Từ khóa BI-RADS,tăngcườngảnh, học sâu, mô hìnhResNet, mô hình HRNet
BI-RADS CLASSIFICATION USING DEEP LEARNING
Abstract Inthe field of healthcare, BI-RADS is consideredan important biological indicator for assessing
die risk of breast cancer However, evaluating BI-RADS requữes intervention fromexpert examiners and
medical teams to assess the differences.To partially address this issue, deeplearning algorithms have been developed toclassify BI-RADS In this study, we propose apreprocessing method for mammogram images
using windowing, followed by the utilization ofthe cutmix algorithm tomitigate data imbalance issues Subsequently, we segment die breast regions using the YoloX modelandfeeddiedataset into deep learning
models for BI-RADS classification Our experiments on datasets, VinDr-mammo and CDD-CESM,
demonstrate thatthe proposedmethod significantly improves the performance of BI-RADSclassification, achieving an accuracy of 89.85% andFlscore of 85.16%on dietest set
Keywords BI-RADS, imageaugmentation, deep learning, ResNetmodel, HRNet model
1 GIỚI THIỆU
Tình dạng ung thư vú là một dongnhững vấn đềỵ tế nghiêmdọngdêntoàn thế giới.Theo Tổ chức Y tế Thế giới, ung thư vú là loại ungthư phổ biến nhấtở phụnữ, với khoảng 2,3 triệu trường hợp được chẩn
đoán mới mỗi năm và gần 685.000 trường hợp tửvongmỗi năm Tuynhiên, tỷ lệ sống sót sau5 năm của
bệnhnhân ung thưvúđã vượt quá80%ở các quốc gia cóthu nhập cao, dong khi tỷlệnàyở các nước kém pháttriển chỉ là40% đến60% Tại Việt Nam,ung thư vúcũngđang dở thành một vấnđề ỵ tếđáng lo ngại Theo báo cáo của Bộ Ytế năm 2020, ung thư vú đãtrở thành loại ung thư phổ biến thứ hai ởViệt Nam, chỉ
sau ung thư phổi Mỗi nămcó khoảng 10.000trường hợp ungthư vú được chẩn đoánmớivàkhoảng 3.000 dường hợptử vong do ung thưvú
Điềunàyđặt ra nhu cầu cấp thiết dongviệc nghiêncứuvà pháttriển các phương phápphân loại hỗ dợ chẩn
đoántình trạngung thư vú,từ đóhỗ dợ cho các chuyêngia ỵ tế.Việcphân loại BI-RADS đóng vai trò quan dọng trongviệc tăng cơ hội sống sótvà cải thiện chất lượng cuộc sống củabệnh nhân, đồngthời giảm thiểu tốiđa tác động xấu củabệnh lên sứckhỏevà cuộcsống của người bệnhvà giađình,những thông tinchính
xácvà hiệu quả để đưa ra quyết định điều trị phùhợpnhất Vàvới sựphát triển ngày càngmạnh mẽ của cácmô hình học máy, chúng ta cũng có thể áp cácmô hình đó trong quá dinh huấn luyệnnhằm mang lại một mô hình phân loại thật sự cóhiệu quả cho việc phân loại tình dạngungthư vúở phụ nữ cũng như có
sự hỗdợ cho độingũ ỵ bác sĩ phát hiện tình trạng bệnhmột cách chính xác nhất Tuynhiên, hiện nay phần
© 2023 Trường Đạihọc Côngnghiệp ThànhphốHồ Chí Minh 339
Trang 2Hội nghị Khoa học trẻ ỉần 5 năm 2023(YSC2023)-ỈUH
lớncáctập dữ liệu đềuđánh dấu ảnh nhũ ở mức độ ung thư: bình thường hoặc bất thường(lành tính, ác
tính) Vìthế sẽkhông đủ chitiếtđể chẩn đoánbệnh cũngnhư sẽ rấtít nguồn dữ liệu mô tảtình trạng bệnh
bằng cách xác địnhBI-RADS củanhũ ảnh.Nhiều nghiêncứu cũng đã chỉ ra rằng, việc phân loại BI-RADS đang là mộtchủ đề được quan tâm trong lĩnh vựcỵtếvàcũnglàyếutố quan trọng trong việc đánh giá nguy
cơ ung thư vú Vì vậy, ở nghiêncứu này tôi đề xuấtáp dụngquá trình tiềnxử lý ảnh nhằm loạibỏphần
nhiễucủa nhũ ảnh, nhận dạngvà cắtphần nhũsau đó áp dụngphươngpháp tăng cường ảnhnhưthuật toán
cutmix để làmgiảm sự ảnh hưởng của việcmấtcân bằngdữ liệu lên mô hình Ke đến, tập dữ liệusau khi
xửlý được đưa vàomô hình họcsâuđể họcvàphân loại 5 loại BI-RADS Đánh giá độ hiệu quảtừ các lần
thực nghiệm, ta có thể thấy đề xuất đạt hiệu quả đáng kể, manglại hiệu suất ấn tượng so với các nghiêncứu
đãcótrước đây
Bàibáo“Adeep learning framework to classify breast density withnoisy labels regularization” của Hector
Lopez-Almazancùng cộng sự (2022) [1] trìnhbày về phương pháp RegL để đánh giá mật độ vú từ chụp
quang tuyến vú kỹ thuật số và phân loạivú thành các loại BI-RADS Phương pháp kết hợp cácquátrình tiền xử lýhình ảnhvà mạng CNN để đạt được kết quả tốt nhất trong việc phân loại chụp quang tuyếnvú
Kết quả thử nghiệm trêntậpdữ liệu bao gồm892hình ảnh làm tập đàotạo, 224 hình ảnh cho tập đánh giá
và 279 hình ảnh cho tập thử nghiệm cho thấy phươngpháp này cóhiệu suất tương tự như các bác sĩ X quang có kinh nghiệm vàước tínhtốt hơn các nhãn sựthật cơ bản chưa biết Mô hình hợp được đánh giá với độ chính xáclà 0,85 và chỉ so kappa là0,71 Điều này chỉrarằng phương pháp đềxuấtcó hiệu suất tươngtự nhưcác bác sĩX quang có kinh nghiệm trong việc phân loại chụp quang tuyến vúthành các loại
BI-RADS
ZhenYu Lee và cộng sự đãtrình bày cácmô hình dựđoán khác nhau bao gồm Decision Tree, Support Vector Model - SVMvà k-NearestNeighbour, hiệu quả của các mô hình dự đoán khác nhau trong việc phân loại hình ảnh chụp quang tuyến vú đã được kiểm ứa bằng đường cong ROC (Receiver Operator Characteristics) và so sánh với phân loại BI-RADS là tiêu chuẩn vàng trong bài báo “Classification of mammographic breastdensity and its correlation withBI-RADS in elderwomen usingmachine learning
approach” - 2022 [2].Ket quả cho thấy phươngpháp học máycó tiềm năng để phân loạimậtđộ vú trong
các hình ảnh chụp quangtuyến vú, mang lạitiện ích tronglâm sàng
Mô hìnhphân loại mậtđộ nhũ ảnh dựa trên đa gócnhìn (multi-view) được các tác giả Huỵen T.X.Nguỵen
cùng với cộng sựgiới thiệu trong bài báo “Anovel multi-view deep learning approach for BI-RADS and density assessment of mammograms” -2022[3] Mô hình thựchiện trên 2 bộdữ liệu là bộ dữ liệu DDSM
và bộ dữ liệu riêng tưcủa nhóm tác giả Kết quả thử nghiệm chothấy mô hình phát hiện hiệu quảvượt trội
so với phân loạidựa trênmột chế độ xem với điểm macro-Fl là 0.5063 ở mô hìnhResNet-34và 0.5759 ở
mô hình EfficientNet-B2
Cũng trong năm 2022, nhóm tácgiảHuỵen T.X.Nguỵen đềcập đến vấn đề tăng cường hìnhảnh để cải thiện
hiệu suất của cácmô hình học sâu về nhiệm vụ phân loại chụp nhũ ảnh ở bàibáo “A NovelTransparency Strategy-based Data Augmentation Approach for BI-RADS Classification ofMammograms” [4] Từ đó,
mộtphươngpháp tăng cường mớilà làm rõvùng tổn thương để tăng cường hình ảnh.Phương pháp đề xuất
sử dụng khu vực trungtâm - ROIđể tạo ra các ví dụđào tạo rủi ro cao cho BI-RADS 3,4,5 Cuối cùng, phươngpháp đề xuất cải thiện đángkể việc phân loại mật độ nhũ ảnh
Trong bài báo “A High-Performance Deep Neural Network Model for BI-RADS Classification of Screening Mammography”, nhóm tácgiả Kuen-Jang [5] giớithiệu môhình dựa trên mạng lướithầnkinh sâu(DNN) để phân loại BIRADS Mô hình được đào tạo bằngcách sửdụng các hình ảnh dựa trên khối
được phân đoạn từmô dữ liệu chụp quang tuyến vúriêng tư của tác giả Hiệu suất của mô hìnhđược thể hiện bằngđộ chính xáctổngthể là 94.22%,độnhạylà95.31%, độđặc hiệu trung bình 99.15% Tuy nhiên,
phân loạiBI-RADS 1,2,3vẫn còn chưa tốt đặcbiệt là BI-RADS 1 vì các hình ảnhkhối không tổn thương đượcphân loại là BI-RADS 1 dẫn đến các đặc điểm không đặc biệtsẽ khó chuẩn đoán
Năm 2021, tácgiả S.Siddeq cùng cộngsựcủa mình đã đề xuấthướngtiếp cận mớitrongbài báo “Deep
LearningRN-BCNN Model for BreastCancerBI-RADS Classification” [6] Hướng tiếp cận này sửdụng
mô hìnhRN-BCNNvà tăngcường phân loại ảnhbằng cách sửdụngphươngpháp biến dạng đàn hồi Hiệu
suất của mô hình với điểm F1 trung bình 0.859 và độ chính xác trên tập dữ liệuINBreast kiểm thử đạt
85.9%
340 © 2023 TrườngĐạihọcCôngnghiệp ThànhphốHồ Chí Minh
Trang 3Hội nghị Khoa học trẻ lần 5 nám 2023(YSC2023)-ỈUH
Qua cácnghiên cứuđã nêu trên chochúng ta cái nhìn tống quanvề các phương pháp tiếp cận củatác giả dùng để phân loại mật độ nhũ ảnh Tuy nhiên, phần lớncácbài báo đều giới thiệucácmô hình huấn luyện không quá đi sâuvào việc tiền xử lýảnh nên hiệu suất bàitoán còn hạnchế Nghiên cứunày đềxuất một
phương pháp tiếp cận móidựa trên việc tiền xử lý nhũ ảnh phát hiện vùng nhũ sau đócắtvùng nhũ bằng
mô hình YoLoX Cuối cùng, đưa bộdữliệu sau khi xửlý vàomôhình phân loại để đuarakết quả mong muốn Các thực nghiệm vàđánh giá đượctrìnhbày chi tiết ở các phần kế
3 PHƯƠNG PHÁP TIẾP CẬN
Nghiêncứu được chia làm sáu bướcvới ba giai đoạn chínhlà:xử lý ảnh vàtăngcường ảnh (bước 2 và bước 3),phân tích vùng nhũ (bước 2) sau đó là đưavàomô hình phân loại (bước4) Trong giai đoạn tiền xử lý ảnh, ảnh đầu ràođược chuyển từảnhDICOM sang ảnh PNG Đầu tiên, tôi đọc ảnh và chuyển đối ảnh thànhdạngpixel Tiếp đến xử dụngwindowingđể chọn dảipixel đặc biệt từ ảnh gốc trước khi chuẩn hóa
Điều này, cótác dụng làm tăngđộ tưong phản caohơn giữa các mô mềm vàmô đặc biệt Kế đến, chúng tôi áp dụng ba loạithuậttoán để tìm ra vùngnhũ rà cắt vùng nhũ Tuy nhiên, với các trường hợp đặc biệt,
ảnh nhiều nhiễuthì cáchcắt ảnh bằng tìm biên hoặc tìm bằng liên thông lớn nhất đều khôngđạthiệu quả
như mong đợi nên tôi tiếpcận đến phương pháp thứ ba là sử dụng mô hìnhYOLOX và cáckếtquả sẽđược
trình bày chi tiết ở phần kế.Đốivóigiaiđoạn phân loại 5 lớp BI-RADS 1 đến BI-RADS 5, dữliệusau khi được tiền xử lý và sử dụngthuật toán tăng cường ảnh để làm giảmảnh hưởng củaviệc mất cân bằng dữ
liệu sẽ được huấn luyện trên các mô hình học sâu khác nhau như: VGG-19, ResNet50, Wide ResNet, HRNet, DenseNet và đánh giá chúngtrên các độ đo đểchọnra mô hìnhphân loạiđạthiệu suất tốt nhất
3.1 Tiền xử lý
3.1.1 Chuyển ảnh DICOM sang PNG.
ẢnhDigitalImaging and Communications in Medicine - Dicom làmột dạng ảnh tiêuchuẩn sử dụngtrong
lĩnhvực y tếđể traođổi và lưutrữcác hình ảnhCT, MRI, siêuâmvàX-quang Bên cạnh đó, ảnh nàycòn
chưacác thông tin chi tiếtcủabệnhnhânnêndunglượngtệprấtlớn Chính vìvậy để giảmdung lượngvà
dễ dàng xử lý tác giả đã chuyển sang địnhdạng png Đầu tiên, nhóm đọc ảnh và chuyển đồi thành dạng mảng các pixel Ảnh dicomthườngchứacác giá trị lớn hơn8 bitvì thế việc chuẩn hóa các pixel dẫn đến việcmất thông tin ảnh Windowing chophép chúng ta chọn các pixelđặc biệt từ ảnh gốc trước khi chuẩn hóa Làmtăng độ tươngbản cao hơn giữa các mô mềm vàmôđặc biệt Kỹ thuật này được ápdụng cho việc
xuất hình ảnh dưói dạng PNG/JPG
Trang 4Hội nghị Khoa học trẻ lần 5 nám 2023(YSC2023)-ỈUH
normal
L-MLO
apply windowing
Hình 2.Minh họa ảnh bình thường và ảnhsửdụngwindowing
Kế đến, ảnh mới được tạora bằng côngthức sauđể chuẩn hóalạimứcxám
image; — min(image') ỉmagenew = " 2* 7 ■ 2
Bên cạnh đó, dữ liệudicom có 2 dạng MONOCHROME-1 vàMONOCHROME-2nó dùng để xác định cách hiển thị các pixel dưới dạng đơn sắc Hai thông số này được lưuvào Photometricinterpretation Vái
MONOCHROME-1 nghĩa là các pixel cao được hiển thị dưới dạng đen hơn, ngược lại với MONOCHROME-2 các pixel cao được hiển thị trắnghơn
Số lượng ánh thuộc MONOCHROME1 và MONOCHROME2
Hình3 Số lượngảnhthuộc M0N0CHR0ME1 và M0N0CHR0ME2
Vi lượngảnh thuộcMONOCHROME-2 nhiều hơnnên nhóm tác giả chọn nó làm dạng chính với các ảnh
thuộc MONOCHROME-1 thì sẽlấy — pixel ảnhđã được nén chuyển đỗi thànhMONOCHROME-2
Trang 5Hội nghị Khơa học trẻ lần 5 nẵm 2023(YSC2023)-ĨƯH
3.1.2 Cắt ảnh
3.1.2.1 Thuật toán tìm biên
Thuật toántìm biênlà một trongnhũng thuậttoánxử lýảnh đễtìm ra các đườngbiên củacácvật thể trong hình ảnh Các đườngbiên này được tạo ra bằng cách kết hợp cácđiểm liền nhau trên cùng một đường biên của vật thề trong ảnh
Đầutiên, ảnh đượcchuyền sang dạng ảnh xám đễ giảm kích thước dữliệu cần xử lý Tiếp theo, một bộ lọc được áp dụngđểloại bỏ nhiễuvà làm mịn ảnh Sau đó, ngưỡng hóa ảnh được thực hiệnđễ chuyểnảnh xám
thành ảnh nhị phân Quátrình ngưỡng hóa này sẽ chuyển các diễm ảnhthành các giá tri 0 hoặc 255, tùy thuộc vào giá trị ngưỡng đưọcthiết lập Cácđiểm ảnhcó giá trị lớnhonngưỡng sẽ được gán giá trị 255, các diễm ảnh còn lại sẽ được gán giá trị 0
Hình 4 Cắtảnhbằng thuậttoán tìm viền
3.1.2.2 Thuật toán tìm liên thổng lón nhất
Thuậttoán tìm liên thông lổnnhất làmột trongnhững thuật toán xử lý ảnh đễ cá ảnh Đầu tiên, sử dụng
cắtngưỡng isodata đễ phân chia ảnh thành các vùng có độsáng khác nhau.Phương phápnàysử dụng một
ngưỡng ban đầu và tìm ngưỡng tối ưu bằng cáchtính trung bìnhcủa của giá trị trung bình của hai vùng
được tạo ra.Quá trình này được lặp lại chođếnkhi ngưõng không thayđối đáng kể Sau khicóđược ngưỡng
tốiưu, ảnh ban đầu được chuyểnđồi sang ảnh nhị phân, trong đó các diễm ảnh có giátrị lớnhơnngưống
được gángiá tộ255, các diễm ảnh còn lại gán giá trị 0 Quá trình này tạo ra một ảnhchỉ còn2 mức sáng, giúp táchbiệt các vùng ảnh quan trọng Tiếptheo, áp dụng ý tưỏng từ thuật toán loang để tìm các thành
phầnliênthông Thuật toánbắt đầu từ mộtđiểm xuất phát vàkiềmưacác điểm 1 ân cận của nóđể xác định xemchúngthuộccùng một thành phần liên thônghaykhông Quátrình này được lặp lại cho tấtcả các điểm
lân cậnthỏamãn điềukiệnliên thông Thành phần liên thông có diệntích lớnnhấtưong ảnhđược xác định
là phần nhũ ảnh Tuy nhiên, nó sẽphụ thuộc rất nhiềuvào việc lấy ngưỡng ảnhcó phù họp hay không, gây tốn khá nhiều thòi gian để tìm được ngưõng thích hợp Và với những ảnhcónhiềunhiều và ngưỡng ảnh
không phùhọp sẽ dẫnđếnquátrìnhcắtảnh sai và độ chínhxác của mô hình sẽthấp Tuy nhiên, bộ dữ liệu VinDRvằ CDD-CESMít nhiễu nên tì lệcắt đúngphần nhũ lên đến 90%
©2023 Trường Đại họcCôngnghiệpThànhphố Hồ ChíMinh 343
Trang 6Hội nghị Khoa học trẻ ỉần 5 nấm 2Ồ23(ĨSC2O23)-ỈUH
Hình 5 c ắtãnhbằng thuật toántìm liên thônglớn nhất
3.1.23 Mô hình YOLOX
Hình ó c ắt ảnh bằngYOLOX
YOLO (You OnlyLookOnce) là mộtmô hình mạng CNN cho việc phát hiện, nhận dạngvà phân loại đối tượng, được tạo ratừ việc kết hợp giữa các convolutional layers và connected layers Trong đóp các convolutional layers sẽtrích xuất racác feature củaãnh, cònfull-connected lạpers sẽ dự đoán ra xác suất
đóvà tọa độ củađốitưọng YOLOX là một mô hình để phát hiện đốitưọngtrong ânh nó được cấ tiến rất
nhiều về tốc độ vàđộ chính xác Song vứi đó,nó sử dụngbackbonelàDarknet-53 vứi heads là Decoupled
Head đây là điểm độc đáo cũaYOLOXso vứi cácmô hình khác
344 © 2023Trường Đại học Công nghiệpThành phố Hồ Chí Minh
Trang 7Hội nghị Khoa học trẻ lẩn 5 năm 2023(YSC2023)-ỈUH
Feature
lxl conv
3x3 conv
ttanchorxC HxWx #anchorx4
Cls.
Reg.
Obj.
ttanchorxl
Hình 7 Kiếntrúc YOLOX
Ở sơ đồnày chúngta có thể thấyrằng đầu vào của head YOLOX là đầu ra từ backbone FPN (darknet) ở 3
tỉ lệkhác nhau - 1024, 512, 256kênh Cùng với độ ta cũng thấy rằng đầu racủa YOLOXthực sự là 3 tensors chứa các thôngtin khác nhau thay vì 1 tensons lón chứa tất cảthôngtin vóicác thôngtin nhu sau:
- Cls: lópcủa mỗi bounding box
- Reg: 4 phần củabounding box (x, y, w, h)
- loU: Chỉ ra mức độ tin cệy của đối tưọngtrong bounding box
Một trong những thay đổi của YOLOX là không sửdụng anchor trong phát hiện đối tuọng Thay vì sử dụng
các hộp, nó sửdụng centers hoặckey points Điều này làm cho mô hình trở nên đon giản, linh hoạt hon
Trong môhình phát hiện đối tưọng YOLOX sử phu ong pháptiếp cận centens để pháthiện đối tưọng Từ
đó giátrị dự đoán chỉ là một vector 4D mã hóa vịtrí của hộpởmỗi pixelnền truớc thành T = {left, top,
right, bottom} Trong đó left, top, right, bottom là khóacác từ vị của của 4 cạnh củabounding box Song
vói đó Y OLOX còn sử dụng phuong pháp simOTA Việc sử dụng OTA giúp cảithiệnđộ chính xáccủamô hình đuợc huấnluyện Nhung đồngthời cũng tăng 25%thờigianhuấn luyện
3.2 Thuật toán CutMix
CutMix làmột phuong pháp tăng cường dữliệu trong quátrình huấn luyệnmôhìnhhọc sâu.Trongnghiên
cứunày nó được áp dụng để tăng số lưọngcho các mẫu bấtthưòng (BI-RADS 3,BI-RADS 4 và BI-RADS
5) Ýtư ỏng chính của thuật toán nàylàtạo một mẫu mớibằngcách họp nhất phép nội suycủacả 2ảnh và
2 nhãn Chúng emchuyển vùng tổn thưong từ các biradsbất thưòng sangcác ảnh bình thưòng Đầutiên, nhóm trích xuất vùng tổn thưong từ hình ảnh A(xa,yÂ) vói các giá trị vùng tổn thưong Box = (Xmin^max^ymin^ymax') và nhãn thực tế y A € {"BỈRADS 3","BIRADS 4","BỈRADS 5ir } Một mặt nạ
M € {0; đượctạo ra bằng cáchgiảm các giá trịpixel nền thành 0 và giữ các pixelcủa vùng tổn thương là1
ÍT: if (Xmin < ỉ < Xmax ) ưiỉd (y mị n < J < Ymax)
(0: if (x mịn > iIi > %max I Tmin > J IJ > ytnax) (2)
Trong đó, X € ytư ong úng vớimột mẫu chụpnhũ ảnhvà nhãn củanó, w, H, c lần lượtlà chiều rộng, chiều cao và kênh của mẫu tưong ứng Sau đó,mẫu mới (x',yz) sẽ được tạora như côngthức sau
©2023 Trường Đại học Côngnghiệp Thành phốHồ Chí Minh 345
Trang 8Hội nghị Khoa học trẻ lần 5 nám 2023(YSC2023)-ỈUH
Nhãncửa ảnh mói sẽ được gán theo nhãn của vùng tồn thương
vùng tổn thương
Hình 8 Minh họa thuật toán CutMix
3.3 Mô hình HRNet
Hình9 Kiến trúc mô hình HRNet
Ýtưởngchínhcủamô hình mạng High-ResolutionNet làduytrì độ phân giảicaocủa các đặc trưngxuyên suốt quá trình ảnh được truyền rào mạng Kiến trúc sẽ chiathành nhiềutầng, tầng phía sau sẽ sinh ra đặc trưngcó độ phân giảithấpvàsâu hơn, tuy nhiên vẫnduy trì được đặc trưng có độ phângiải ở tầng trước
Hình9 minh họa kiếntrúc HRNetbao gồm 4 giai đoạn, ở giai đoạnsố 1, qua nhiềutầng, đặc trưng độ phân giải cao (ký hiệumàu vàng)sẽ được duytrì Bắt đầu từ tầng số 2, đặc trung có độ phân giải thấpvà sâuhơn
(màucam)sẽ được sinh ra, đặc trưng có độ phân giải cao màu vàng này sẽ đượcbố sung ngữnghĩabỏi các đặc trưng màu cam rà ngượclại Cứ nhưvậy qua nhiều tầng,các đặc trưng có các độ phân giải khác nhau
sẽ được bổ sưngngữnghĩa cho nhau, dẫnđến cuối cùng ta sẽ thu được đặc trưng độ phân giải cao, tuy nhiên chất lượngvẫn tốt Luồngxửlý chính được mô tả một cách logic bằng công thức sau:
Trang 9Hội nghị Khoa học trẻ lần 5 năm 2023(YSC2023)-ỈUH
Mi — > A/21 —> Mi —> Ml
\ M>2 —> M2 —> M2
\ M3 —> M3
\ M4
(4)
Trong đó,N srlà một nhánhđặc trung tại giai đoạn thứs và r là chỉ mục độ phân giải Độ phân giải ở giai đoạn đầu tiên sẽ làr = 1, độ phângiải thứ s sẽ bằng 7^77 độ phângiảiởgiaiđoạn đầu tiên
Hình 10 Minhhọacách kết họp thôngtinngữnghĩagiữa các đặctrung độ phân giảicao,trung bình và thắp
Quan sát hình trên, có 3 đặc trung có độ phân giảikhác rủi au Ta gọi đặc trung đầu vào là đặc trung
sau khi kếthọp là R° r, r G 1,2,3 Một đầu ra tạiđộ phân giải thứ r (R° r) đuợctính nhu sau:
Tại điểm giao giũa giai đoạn3 và 4 sẽ có thêm một đặc trung fíỡ4:
= /14^1) + /24(^2) + /34(^3)
Trong đó, £r(-) làphép biếnđổi đặc trung có độ phân giải đầu vào làXvà độ phân giải đầu ra làr. Việc lụachọnphép biến đổi tùythuộc vào X vàr.
- Truông họp X = r, fxr(R) = R.
- Truờnghọp X < r, fxr(R)là một phép tích chập sử dụng (r - s) lóp tíchchập 3 X 3 cóstride =
2
- Truờnghọp X > r, fxr(R) là một phép upsampling song tuyến, sau đó sẽ đi qua một lóp tích chập
1 X để kiểm soát số chiềucủađặc trung
(c) Hình 11 (a) HRNet-Vl (b) HRNet-V2 (c) HRNet-V2p
© 2023TruôngĐạihọcCôngnghiệp Thành phố HÒ ChíMinh 347
Trang 10Hội nghị Khoa học trẻ ỉần 5 năm 2023(YSC2023)-ỈUH
HRNet có 3 dạng biểu diễn được gọi là HRNet-Vl, HRNet-V2vàHRNet-V2p
- HRNetV1: đầu ra là dạng biểu diễn chỉlấy từ nhánh đặctrưng có độphân giải cao (high-resolution)
Ba đặc trưng củaba độ phân giải
- HRNetV2: các tác giả rescale các đặctrưng độ phân giải thấplên độ phân giảicao bằng một phép
upsampling song tuyếnmà không thayđổi chiều sâu,nối lại cả bốn đặctrưng Sau đó, đi qua một
lớptích chập 1 X 1 đểtrộn cả bốn đặc trưng nàylại
- HRNetV2p: các tácgiả xây dựng một biểudiễnđatỷ lệ (multi-level features) bằng cách sử dụng
đầu ra từHRNetV2
4.1 Dữ liệu
BIRADS đánh giá kết quả của bộxét nghiệm dựa hên cácphân loại từ 1 đến 6, với mỗi cấp độ cóý nghĩa
khác nhau Bao gồm:
BIRADS 1: Kết quả bìnhthường, không cần thêm các bộxét nghiệm bổsung
BIRADS 2: Kết quả bìnhthường, nhưng cần theo dõi thêm
BIRADS 3: Kết quả có khả năng lànhtính, nhưngcần theodõi thêm
BIRADS 4:Kết quả có khảnăng lành tính/áctính,cần xét nghiệm bổsung hoặc phẫu thuật tếbào
BIRADS 5: Kết quả có khả năng ác tính,cầnxétnghiệm bổ sung hoặc phẫu thuật tếbào
Ngoài rathì còn có BIRADS 6: Đãxác địnhrõ ràng là ung thưvú qua xét nghiệm tếbào
Độ dàycủavú mô tảhìnhdạngcủa vú hên ảnh chụpX-quang tuyến vú Độ dàycủa vú không phảilà thước
đo để đánh giá cảmgiác của vú Bácsĩ X-quangcó thể ghi chú độdày của vúhên báo cáo chụp X-quang tuyến vú Độ dày củavú caonghĩa là có nhiều môhơnsovớimỡ Ngược lại, có nhiềumỡ hơnso với mô
Mô vú dày đặc có thể cómàu hắng hoặc xám nhạt trênhìnhảnh chụp X-quang tuyến vú Ung thư cũng có màu hắng hoặc xám nhạt nênkhó có thểphânbiệt được
Bộ dữ liệu VinDR-Mammographỵ là bộ chụp nhũ ảnh kỹ thuật sốquỵ mô lớn gồm 5000 mẫu với 1mẫucó
4 góc nhìn tương đươngvới 20.000 ảnh, đượcđọc bởi các nhà chụp nhũ ảnh có kinh nghiệm để cung cấp đánh giá ung thư và mật độ vú theoBreast Imaging Report andData System (BI-RADS) Cácvùngbat thườngcan kiểmha cũng được đánh dấubằng các hình chữ nhật Hiện, đây là bộ dữ liệu công khailớn nhất về chụp nhũ ảnh kỹ thuật sốcó chứa đánh giáBI-RADS và các chú thích bất thường, về siêu dữliệu của ảnh DICOM,các thôngsố kỹ thuật được sử dụng để xử lý, tuổi của bệnh nhân và mô hình của thiếtbị ảnh được giữ lại, các thông tin về bệnhnhân đã bị xóa đểbảovệ quyền riêng tư Đối vớithông tin độ tuổi, không có bệnh nhân nào hên89 tuổi xuấthiện trong tập dữliệu, vềmặtđánh giá vútổng thể, các loại đánh giá BI-RADS (từ 1 đến 5) và mật độ vú(A, B, choặcD) đượccungcấp Những phát hiện của BI-RADS
2 tức là lành tính, không được đánhdấuvùng tổn thương Chỉ những phát hiệncủaBI-RADS 3, 4 hoặc 5, cần kiểm tra theo dõi, được chúthích bởicác hình chữnhậtđánh dấuvùng tổn thương
4.2 Ket quả cắt ảnh bằng mô hình YOLOX
Bảng 1 Tham sổ củamôhìnhYOLOX
348 © 2023 TrườngĐạihọcCôngnghiệp ThànhphốHồ Chí Minh