1. Trang chủ
  2. » Luận Văn - Báo Cáo

Phân loại bi rads sử dụng phương pháp học sâu

15 0 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Tiêu đề Phân loại BI-RADS sử dụng phương pháp học sâu
Tác giả Trịnh Thị Bảo Bảo
Trường học Trường Đại học Công nghiệp Thành phố Hồ Chí Minh
Chuyên ngành Khoa Công nghệ Thông tin
Thể loại bài báo khoa học
Năm xuất bản 2023
Thành phố Thành phố Hồ Chí Minh
Định dạng
Số trang 15
Dung lượng 1,38 MB

Nội dung

Đánh giá độ hiệu quảtừ các lầnthực nghiệm, ta có thể thấy đề xuất đạt hiệu quả đáng kể, manglại hiệu suất ấn tượng so với các nghiêncứuđãcótrước đây.2 CÁC NGHIÊN CỨU LIÊN QUANBàibáo“Adee

Trang 1

Hội nghị Khoa học trẻ ỉần 5 năm 2023(YSC2023)-ỈUH

YSC5.F030

PHÂN LOẠI BI-RADS sử DỤNG PHƯƠNG PHÁP HỌC SÂU

TRỊNH THỊ BẢO BẢO

Khoa Công nghệ Thông tin, Trường Đại học Công nghiệp Thành phổ Hồ Chỉ Minh

* ttbb0802200ỉ@gmail.com

Tóm tăt Tronglĩnh vực ỵ tế, BI-RADS được xem làmột chỉ sốsinh học quan trọng trong việc đánh giá rủi ro ung thư vú Tuynhiên, việc đánh giá phân loại BI-RADS đòi hỏi sự can thiệptừcác chuyên giaxét nghiệm, đội ngũ ỵbác sĩ để đánh giá sự khác biệt Đe hỗ trợ phần nào vấnđềnày, các thuật toán học sâu

đã đượcphát triểnvới mục đích phân loại BI-RADS Trong nghiêncứu này,chúngtôi đề xuấtphương pháp tiền xử lýảnh nhũ bằng sửdụng kĩ thuật windowing sau đó sửdụng thuật toán cutmix nhằm giảm tìnhtrạng mấtcânbằngdữ liệu Keđến chúng tôi cắt vùng nhũ bằngmôhình YoloX rồiđưa tậpdữ liệu vào các mô hình học sâu để phân loạinhũ Các thí nghiệm của chúng tôi trên tập dữ liệu VinDr-mammo và CDD-

CESMcho thấy rằngphươngpháp đề xuất cải thiện đángkể hiệu suất phân loại BI-RADSvớiđộ chính xác

ở tậpkiểm thử là 89.85% vàFl-score là 85.16%

Từ khóa BI-RADS,tăngcườngảnh, học sâu, mô hìnhResNet, mô hình HRNet

BI-RADS CLASSIFICATION USING DEEP LEARNING

Abstract Inthe field of healthcare, BI-RADS is consideredan important biological indicator for assessing

die risk of breast cancer However, evaluating BI-RADS requữes intervention fromexpert examiners and

medical teams to assess the differences.To partially address this issue, deeplearning algorithms have been developed toclassify BI-RADS In this study, we propose apreprocessing method for mammogram images

using windowing, followed by the utilization ofthe cutmix algorithm tomitigate data imbalance issues Subsequently, we segment die breast regions using the YoloX modelandfeeddiedataset into deep learning

models for BI-RADS classification Our experiments on datasets, VinDr-mammo and CDD-CESM,

demonstrate thatthe proposedmethod significantly improves the performance of BI-RADSclassification, achieving an accuracy of 89.85% andFlscore of 85.16%on dietest set

Keywords BI-RADS, imageaugmentation, deep learning, ResNetmodel, HRNet model

1 GIỚI THIỆU

Tình dạng ung thư vú là một dongnhững vấn đềỵ tế nghiêmdọngdêntoàn thế giới.Theo Tổ chức Y tế Thế giới, ung thư vú là loại ungthư phổ biến nhấtở phụnữ, với khoảng 2,3 triệu trường hợp được chẩn

đoán mới mỗi năm và gần 685.000 trường hợp tửvongmỗi năm Tuynhiên, tỷ lệ sống sót sau5 năm của

bệnhnhân ung thưvúđã vượt quá80%ở các quốc gia cóthu nhập cao, dong khi tỷlệnàyở các nước kém pháttriển chỉ là40% đến60% Tại Việt Nam,ung thư vúcũngđang dở thành một vấnđề ỵ tếđáng lo ngại Theo báo cáo của Bộ Ytế năm 2020, ung thư vú đãtrở thành loại ung thư phổ biến thứ hai ởViệt Nam, chỉ

sau ung thư phổi Mỗi nămcó khoảng 10.000trường hợp ungthư vú được chẩn đoánmớivàkhoảng 3.000 dường hợptử vong do ung thưvú

Điềunàyđặt ra nhu cầu cấp thiết dongviệc nghiêncứuvà pháttriển các phương phápphân loại hỗ dợ chẩn

đoántình trạngung thư vú,từ đóhỗ dợ cho các chuyêngia ỵ tế.Việcphân loại BI-RADS đóng vai trò quan dọng trongviệc tăng cơ hội sống sótvà cải thiện chất lượng cuộc sống củabệnh nhân, đồngthời giảm thiểu tốiđa tác động xấu củabệnh lên sứckhỏevà cuộcsống của người bệnhvà giađình,những thông tinchính

xácvà hiệu quả để đưa ra quyết định điều trị phùhợpnhất Vàvới sựphát triển ngày càngmạnh mẽ của cácmô hình học máy, chúng ta cũng có thể áp cácmô hình đó trong quá dinh huấn luyệnnhằm mang lại một mô hình phân loại thật sự cóhiệu quả cho việc phân loại tình dạngungthư vúở phụ nữ cũng như có

sự hỗdợ cho độingũ ỵ bác sĩ phát hiện tình trạng bệnhmột cách chính xác nhất Tuynhiên, hiện nay phần

© 2023 Trường Đạihọc Côngnghiệp ThànhphốHồ Chí Minh 339

Trang 2

Hội nghị Khoa học trẻ ỉần 5 năm 2023(YSC2023)-ỈUH

lớncáctập dữ liệu đềuđánh dấu ảnh nhũ ở mức độ ung thư: bình thường hoặc bất thường(lành tính, ác

tính) Vìthế sẽkhông đủ chitiếtđể chẩn đoánbệnh cũngnhư sẽ rấtít nguồn dữ liệu mô tảtình trạng bệnh

bằng cách xác địnhBI-RADS củanhũ ảnh.Nhiều nghiêncứu cũng đã chỉ ra rằng, việc phân loại BI-RADS đang là mộtchủ đề được quan tâm trong lĩnh vựcỵtếvàcũnglàyếutố quan trọng trong việc đánh giá nguy

cơ ung thư vú Vì vậy, ở nghiêncứu này tôi đề xuấtáp dụngquá trình tiềnxử lý ảnh nhằm loạibỏphần

nhiễucủa nhũ ảnh, nhận dạngvà cắtphần nhũsau đó áp dụngphươngpháp tăng cường ảnhnhưthuật toán

cutmix để làmgiảm sự ảnh hưởng của việcmấtcân bằngdữ liệu lên mô hình Ke đến, tập dữ liệusau khi

xửlý được đưa vàomô hình họcsâuđể họcvàphân loại 5 loại BI-RADS Đánh giá độ hiệu quảtừ các lần

thực nghiệm, ta có thể thấy đề xuất đạt hiệu quả đáng kể, manglại hiệu suất ấn tượng so với các nghiêncứu

đãcótrước đây

Bàibáo“Adeep learning framework to classify breast density withnoisy labels regularization” của Hector

Lopez-Almazancùng cộng sự (2022) [1] trìnhbày về phương pháp RegL để đánh giá mật độ vú từ chụp

quang tuyến vú kỹ thuật số và phân loạivú thành các loại BI-RADS Phương pháp kết hợp cácquátrình tiền xử lýhình ảnhvà mạng CNN để đạt được kết quả tốt nhất trong việc phân loại chụp quang tuyếnvú

Kết quả thử nghiệm trêntậpdữ liệu bao gồm892hình ảnh làm tập đàotạo, 224 hình ảnh cho tập đánh giá

và 279 hình ảnh cho tập thử nghiệm cho thấy phươngpháp này cóhiệu suất tương tự như các bác sĩ X quang có kinh nghiệm vàước tínhtốt hơn các nhãn sựthật cơ bản chưa biết Mô hình hợp được đánh giá với độ chính xáclà 0,85 và chỉ so kappa là0,71 Điều này chỉrarằng phương pháp đềxuấtcó hiệu suất tươngtự nhưcác bác sĩX quang có kinh nghiệm trong việc phân loại chụp quang tuyến vúthành các loại

BI-RADS

ZhenYu Lee và cộng sự đãtrình bày cácmô hình dựđoán khác nhau bao gồm Decision Tree, Support Vector Model - SVMvà k-NearestNeighbour, hiệu quả của các mô hình dự đoán khác nhau trong việc phân loại hình ảnh chụp quang tuyến vú đã được kiểm ứa bằng đường cong ROC (Receiver Operator Characteristics) và so sánh với phân loại BI-RADS là tiêu chuẩn vàng trong bài báo “Classification of mammographic breastdensity and its correlation withBI-RADS in elderwomen usingmachine learning

approach” - 2022 [2].Ket quả cho thấy phươngpháp học máycó tiềm năng để phân loạimậtđộ vú trong

các hình ảnh chụp quangtuyến vú, mang lạitiện ích tronglâm sàng

Mô hìnhphân loại mậtđộ nhũ ảnh dựa trên đa gócnhìn (multi-view) được các tác giả Huỵen T.X.Nguỵen

cùng với cộng sựgiới thiệu trong bài báo “Anovel multi-view deep learning approach for BI-RADS and density assessment of mammograms” -2022[3] Mô hình thựchiện trên 2 bộdữ liệu là bộ dữ liệu DDSM

và bộ dữ liệu riêng tưcủa nhóm tác giả Kết quả thử nghiệm chothấy mô hình phát hiện hiệu quảvượt trội

so với phân loạidựa trênmột chế độ xem với điểm macro-Fl là 0.5063 ở mô hìnhResNet-34và 0.5759 ở

mô hình EfficientNet-B2

Cũng trong năm 2022, nhóm tácgiảHuỵen T.X.Nguỵen đềcập đến vấn đề tăng cường hìnhảnh để cải thiện

hiệu suất của cácmô hình học sâu về nhiệm vụ phân loại chụp nhũ ảnh ở bàibáo “A NovelTransparency Strategy-based Data Augmentation Approach for BI-RADS Classification ofMammograms” [4] Từ đó,

mộtphươngpháp tăng cường mớilà làm rõvùng tổn thương để tăng cường hình ảnh.Phương pháp đề xuất

sử dụng khu vực trungtâm - ROIđể tạo ra các ví dụđào tạo rủi ro cao cho BI-RADS 3,4,5 Cuối cùng, phươngpháp đề xuất cải thiện đángkể việc phân loại mật độ nhũ ảnh

Trong bài báo “A High-Performance Deep Neural Network Model for BI-RADS Classification of Screening Mammography”, nhóm tácgiả Kuen-Jang [5] giớithiệu môhình dựa trên mạng lướithầnkinh sâu(DNN) để phân loại BIRADS Mô hình được đào tạo bằngcách sửdụng các hình ảnh dựa trên khối

được phân đoạn từmô dữ liệu chụp quang tuyến vúriêng tư của tác giả Hiệu suất của mô hìnhđược thể hiện bằngđộ chính xáctổngthể là 94.22%,độnhạylà95.31%, độđặc hiệu trung bình 99.15% Tuy nhiên,

phân loạiBI-RADS 1,2,3vẫn còn chưa tốt đặcbiệt là BI-RADS 1 vì các hình ảnhkhối không tổn thương đượcphân loại là BI-RADS 1 dẫn đến các đặc điểm không đặc biệtsẽ khó chuẩn đoán

Năm 2021, tácgiả S.Siddeq cùng cộngsựcủa mình đã đề xuấthướngtiếp cận mớitrongbài báo “Deep

LearningRN-BCNN Model for BreastCancerBI-RADS Classification” [6] Hướng tiếp cận này sửdụng

mô hìnhRN-BCNNvà tăngcường phân loại ảnhbằng cách sửdụngphươngpháp biến dạng đàn hồi Hiệu

suất của mô hình với điểm F1 trung bình 0.859 và độ chính xác trên tập dữ liệuINBreast kiểm thử đạt

85.9%

340 © 2023 TrườngĐạihọcCôngnghiệp ThànhphốHồ Chí Minh

Trang 3

Hội nghị Khoa học trẻ lần 5 nám 2023(YSC2023)-ỈUH

Qua cácnghiên cứuđã nêu trên chochúng ta cái nhìn tống quanvề các phương pháp tiếp cận củatác giả dùng để phân loại mật độ nhũ ảnh Tuy nhiên, phần lớncácbài báo đều giới thiệucácmô hình huấn luyện không quá đi sâuvào việc tiền xử lýảnh nên hiệu suất bàitoán còn hạnchế Nghiên cứunày đềxuất một

phương pháp tiếp cận móidựa trên việc tiền xử lý nhũ ảnh phát hiện vùng nhũ sau đócắtvùng nhũ bằng

mô hình YoLoX Cuối cùng, đưa bộdữliệu sau khi xửlý vàomôhình phân loại để đuarakết quả mong muốn Các thực nghiệm vàđánh giá đượctrìnhbày chi tiết ở các phần kế

3 PHƯƠNG PHÁP TIẾP CẬN

Nghiêncứu được chia làm sáu bướcvới ba giai đoạn chínhlà:xử lý ảnh vàtăngcường ảnh (bước 2 và bước 3),phân tích vùng nhũ (bước 2) sau đó là đưavàomô hình phân loại (bước4) Trong giai đoạn tiền xử lý ảnh, ảnh đầu ràođược chuyển từảnhDICOM sang ảnh PNG Đầu tiên, tôi đọc ảnh và chuyển đối ảnh thànhdạngpixel Tiếp đến xử dụngwindowingđể chọn dảipixel đặc biệt từ ảnh gốc trước khi chuẩn hóa

Điều này, cótác dụng làm tăngđộ tưong phản caohơn giữa các mô mềm vàmô đặc biệt Kế đến, chúng tôi áp dụng ba loạithuậttoán để tìm ra vùngnhũ rà cắt vùng nhũ Tuy nhiên, với các trường hợp đặc biệt,

ảnh nhiều nhiễuthì cáchcắt ảnh bằng tìm biên hoặc tìm bằng liên thông lớn nhất đều khôngđạthiệu quả

như mong đợi nên tôi tiếpcận đến phương pháp thứ ba là sử dụng mô hìnhYOLOX và cáckếtquả sẽđược

trình bày chi tiết ở phần kế.Đốivóigiaiđoạn phân loại 5 lớp BI-RADS 1 đến BI-RADS 5, dữliệusau khi được tiền xử lý và sử dụngthuật toán tăng cường ảnh để làm giảmảnh hưởng củaviệc mất cân bằng dữ

liệu sẽ được huấn luyện trên các mô hình học sâu khác nhau như: VGG-19, ResNet50, Wide ResNet, HRNet, DenseNet và đánh giá chúngtrên các độ đo đểchọnra mô hìnhphân loạiđạthiệu suất tốt nhất

3.1 Tiền xử lý

3.1.1 Chuyển ảnh DICOM sang PNG.

ẢnhDigitalImaging and Communications in Medicine - Dicom làmột dạng ảnh tiêuchuẩn sử dụngtrong

lĩnhvực y tếđể traođổi và lưutrữcác hình ảnhCT, MRI, siêuâmvàX-quang Bên cạnh đó, ảnh nàycòn

chưacác thông tin chi tiếtcủabệnhnhânnêndunglượngtệprấtlớn Chính vìvậy để giảmdung lượngvà

dễ dàng xử lý tác giả đã chuyển sang địnhdạng png Đầu tiên, nhóm đọc ảnh và chuyển đồi thành dạng mảng các pixel Ảnh dicomthườngchứacác giá trị lớn hơn8 bitvì thế việc chuẩn hóa các pixel dẫn đến việcmất thông tin ảnh Windowing chophép chúng ta chọn các pixelđặc biệt từ ảnh gốc trước khi chuẩn hóa Làmtăng độ tươngbản cao hơn giữa các mô mềm vàmôđặc biệt Kỹ thuật này được ápdụng cho việc

xuất hình ảnh dưói dạng PNG/JPG

Trang 4

Hội nghị Khoa học trẻ lần 5 nám 2023(YSC2023)-ỈUH

normal

L-MLO

apply windowing

Hình 2.Minh họa ảnh bình thường và ảnhsửdụngwindowing

Kế đến, ảnh mới được tạora bằng côngthức sauđể chuẩn hóalạimứcxám

image; — min(image') ỉmagenew = " 2* 7 ■ 2

Bên cạnh đó, dữ liệudicom có 2 dạng MONOCHROME-1 vàMONOCHROME-2nó dùng để xác định cách hiển thị các pixel dưới dạng đơn sắc Hai thông số này được lưuvào Photometricinterpretation Vái

MONOCHROME-1 nghĩa là các pixel cao được hiển thị dưới dạng đen hơn, ngược lại với MONOCHROME-2 các pixel cao được hiển thị trắnghơn

Số lượng ánh thuộc MONOCHROME1 và MONOCHROME2

Hình3 Số lượngảnhthuộc M0N0CHR0ME1 và M0N0CHR0ME2

Vi lượngảnh thuộcMONOCHROME-2 nhiều hơnnên nhóm tác giả chọn nó làm dạng chính với các ảnh

thuộc MONOCHROME-1 thì sẽlấy — pixel ảnhđã được nén chuyển đỗi thànhMONOCHROME-2

Trang 5

Hội nghị Khơa học trẻ lần 5 nẵm 2023(YSC2023)-ĨƯH

3.1.2 Cắt ảnh

3.1.2.1 Thuật toán tìm biên

Thuật toántìm biênlà một trongnhũng thuậttoánxử lýảnh đễtìm ra các đườngbiên củacácvật thể trong hình ảnh Các đườngbiên này được tạo ra bằng cách kết hợp cácđiểm liền nhau trên cùng một đường biên của vật thề trong ảnh

Đầutiên, ảnh đượcchuyền sang dạng ảnh xám đễ giảm kích thước dữliệu cần xử lý Tiếp theo, một bộ lọc được áp dụngđểloại bỏ nhiễuvà làm mịn ảnh Sau đó, ngưỡng hóa ảnh được thực hiệnđễ chuyểnảnh xám

thành ảnh nhị phân Quátrình ngưỡng hóa này sẽ chuyển các diễm ảnhthành các giá tri 0 hoặc 255, tùy thuộc vào giá trị ngưỡng đưọcthiết lập Cácđiểm ảnhcó giá trị lớnhonngưỡng sẽ được gán giá trị 255, các diễm ảnh còn lại sẽ được gán giá trị 0

Hình 4 Cắtảnhbằng thuậttoán tìm viền

3.1.2.2 Thuật toán tìm liên thổng lón nhất

Thuậttoán tìm liên thông lổnnhất làmột trongnhững thuật toán xử lý ảnh đễ cá ảnh Đầu tiên, sử dụng

cắtngưỡng isodata đễ phân chia ảnh thành các vùng có độsáng khác nhau.Phương phápnàysử dụng một

ngưỡng ban đầu và tìm ngưỡng tối ưu bằng cáchtính trung bìnhcủa của giá trị trung bình của hai vùng

được tạo ra.Quá trình này được lặp lại chođếnkhi ngưõng không thayđối đáng kể Sau khicóđược ngưỡng

tốiưu, ảnh ban đầu được chuyểnđồi sang ảnh nhị phân, trong đó các diễm ảnh có giátrị lớnhơnngưống

được gángiá tộ255, các diễm ảnh còn lại gán giá trị 0 Quá trình này tạo ra một ảnhchỉ còn2 mức sáng, giúp táchbiệt các vùng ảnh quan trọng Tiếptheo, áp dụng ý tưỏng từ thuật toán loang để tìm các thành

phầnliênthông Thuật toánbắt đầu từ mộtđiểm xuất phát vàkiềmưacác điểm 1 ân cận của nóđể xác định xemchúngthuộccùng một thành phần liên thônghaykhông Quátrình này được lặp lại cho tấtcả các điểm

lân cậnthỏamãn điềukiệnliên thông Thành phần liên thông có diệntích lớnnhấtưong ảnhđược xác định

là phần nhũ ảnh Tuy nhiên, nó sẽphụ thuộc rất nhiềuvào việc lấy ngưỡng ảnhcó phù họp hay không, gây tốn khá nhiều thòi gian để tìm được ngưõng thích hợp Và với những ảnhcónhiềunhiều và ngưỡng ảnh

không phùhọp sẽ dẫnđếnquátrìnhcắtảnh sai và độ chínhxác của mô hình sẽthấp Tuy nhiên, bộ dữ liệu VinDRvằ CDD-CESMít nhiễu nên tì lệcắt đúngphần nhũ lên đến 90%

©2023 Trường Đại họcCôngnghiệpThànhphố Hồ ChíMinh 343

Trang 6

Hội nghị Khoa học trẻ ỉần 5 nấm 2Ồ23(ĨSC2O23)-ỈUH

Hình 5 c ắtãnhbằng thuật toántìm liên thônglớn nhất

3.1.23 Mô hình YOLOX

Hình ó c ắt ảnh bằngYOLOX

YOLO (You OnlyLookOnce) là mộtmô hình mạng CNN cho việc phát hiện, nhận dạngvà phân loại đối tượng, được tạo ratừ việc kết hợp giữa các convolutional layers và connected layers Trong đóp các convolutional layers sẽtrích xuất racác feature củaãnh, cònfull-connected lạpers sẽ dự đoán ra xác suất

đóvà tọa độ củađốitưọng YOLOX là một mô hình để phát hiện đốitưọngtrong ânh nó được cấ tiến rất

nhiều về tốc độ vàđộ chính xác Song vứi đó,nó sử dụngbackbonelàDarknet-53 vứi heads là Decoupled

Head đây là điểm độc đáo cũaYOLOXso vứi cácmô hình khác

344 © 2023Trường Đại học Công nghiệpThành phố Hồ Chí Minh

Trang 7

Hội nghị Khoa học trẻ lẩn 5 năm 2023(YSC2023)-ỈUH

Feature

lxl conv

3x3 conv

ttanchorxC HxWx #anchorx4

Cls.

Reg.

Obj.

ttanchorxl

Hình 7 Kiếntrúc YOLOX

Ở sơ đồnày chúngta có thể thấyrằng đầu vào của head YOLOX là đầu ra từ backbone FPN (darknet) ở 3

tỉ lệkhác nhau - 1024, 512, 256kênh Cùng với độ ta cũng thấy rằng đầu racủa YOLOXthực sự là 3 tensors chứa các thôngtin khác nhau thay vì 1 tensons lón chứa tất cảthôngtin vóicác thôngtin nhu sau:

- Cls: lópcủa mỗi bounding box

- Reg: 4 phần củabounding box (x, y, w, h)

- loU: Chỉ ra mức độ tin cệy của đối tưọngtrong bounding box

Một trong những thay đổi của YOLOX là không sửdụng anchor trong phát hiện đối tuọng Thay vì sử dụng

các hộp, nó sửdụng centers hoặckey points Điều này làm cho mô hình trở nên đon giản, linh hoạt hon

Trong môhình phát hiện đối tưọng YOLOX sử phu ong pháptiếp cận centens để pháthiện đối tưọng Từ

đó giátrị dự đoán chỉ là một vector 4D mã hóa vịtrí của hộpởmỗi pixelnền truớc thành T = {left, top,

right, bottom} Trong đó left, top, right, bottom là khóacác từ vị của của 4 cạnh củabounding box Song

vói đó Y OLOX còn sử dụng phuong pháp simOTA Việc sử dụng OTA giúp cảithiệnđộ chính xáccủamô hình đuợc huấnluyện Nhung đồngthời cũng tăng 25%thờigianhuấn luyện

3.2 Thuật toán CutMix

CutMix làmột phuong pháp tăng cường dữliệu trong quátrình huấn luyệnmôhìnhhọc sâu.Trongnghiên

cứunày nó được áp dụng để tăng số lưọngcho các mẫu bấtthưòng (BI-RADS 3,BI-RADS 4 và BI-RADS

5) Ýtư ỏng chính của thuật toán nàylàtạo một mẫu mớibằngcách họp nhất phép nội suycủacả 2ảnh và

2 nhãn Chúng emchuyển vùng tổn thưong từ các biradsbất thưòng sangcác ảnh bình thưòng Đầutiên, nhóm trích xuất vùng tổn thưong từ hình ảnh A(xa,yÂ) vói các giá trị vùng tổn thưong Box = (Xmin^max^ymin^ymax') và nhãn thực tế y A € {"BỈRADS 3","BIRADS 4","BỈRADS 5ir } Một mặt nạ

M € {0; đượctạo ra bằng cáchgiảm các giá trịpixel nền thành 0 và giữ các pixelcủa vùng tổn thương là1

ÍT: if (Xmin < ỉ < Xmax ) ưiỉd (y mị n < J < Ymax)

(0: if (x mịn > iIi > %max I Tmin > J IJ > ytnax) (2)

Trong đó, X € ytư ong úng vớimột mẫu chụpnhũ ảnhvà nhãn củanó, w, H, c lần lượtlà chiều rộng, chiều cao và kênh của mẫu tưong ứng Sau đó,mẫu mới (x',yz) sẽ được tạora như côngthức sau

©2023 Trường Đại học Côngnghiệp Thành phốHồ Chí Minh 345

Trang 8

Hội nghị Khoa học trẻ lần 5 nám 2023(YSC2023)-ỈUH

Nhãncửa ảnh mói sẽ được gán theo nhãn của vùng tồn thương

vùng tổn thương

Hình 8 Minh họa thuật toán CutMix

3.3 Mô hình HRNet

Hình9 Kiến trúc mô hình HRNet

Ýtưởngchínhcủamô hình mạng High-ResolutionNet làduytrì độ phân giảicaocủa các đặc trưngxuyên suốt quá trình ảnh được truyền rào mạng Kiến trúc sẽ chiathành nhiềutầng, tầng phía sau sẽ sinh ra đặc trưngcó độ phân giảithấpvàsâu hơn, tuy nhiên vẫnduy trì được đặc trưng có độ phângiải ở tầng trước

Hình9 minh họa kiếntrúc HRNetbao gồm 4 giai đoạn, ở giai đoạnsố 1, qua nhiềutầng, đặc trưng độ phân giải cao (ký hiệumàu vàng)sẽ được duytrì Bắt đầu từ tầng số 2, đặc trung có độ phân giải thấpvà sâuhơn

(màucam)sẽ được sinh ra, đặc trưng có độ phân giải cao màu vàng này sẽ đượcbố sung ngữnghĩabỏi các đặc trưng màu cam rà ngượclại Cứ nhưvậy qua nhiều tầng,các đặc trưng có các độ phân giải khác nhau

sẽ được bổ sưngngữnghĩa cho nhau, dẫnđến cuối cùng ta sẽ thu được đặc trưng độ phân giải cao, tuy nhiên chất lượngvẫn tốt Luồngxửlý chính được mô tả một cách logic bằng công thức sau:

Trang 9

Hội nghị Khoa học trẻ lần 5 năm 2023(YSC2023)-ỈUH

Mi — > A/21 —> Mi —> Ml

\ M>2 —> M2 —> M2

\ M3 —> M3

\ M4

(4)

Trong đó,N srlà một nhánhđặc trung tại giai đoạn thứs và r là chỉ mục độ phân giải Độ phân giải ở giai đoạn đầu tiên sẽ làr = 1, độ phângiải thứ s sẽ bằng 7^77 độ phângiảiởgiaiđoạn đầu tiên

Hình 10 Minhhọacách kết họp thôngtinngữnghĩagiữa các đặctrung độ phân giảicao,trung bình và thắp

Quan sát hình trên, có 3 đặc trung có độ phân giảikhác rủi au Ta gọi đặc trung đầu vào là đặc trung

sau khi kếthọp là R° r, r G 1,2,3 Một đầu ra tạiđộ phân giải thứ r (R° r) đuợctính nhu sau:

Tại điểm giao giũa giai đoạn3 và 4 sẽ có thêm một đặc trung fíỡ4:

= /14^1) + /24(^2) + /34(^3)

Trong đó, £r(-) làphép biếnđổi đặc trung có độ phân giải đầu vào làXvà độ phân giải đầu ra làr. Việc lụachọnphép biến đổi tùythuộc vào X vàr.

- Truông họp X = r, fxr(R) = R.

- Truờnghọp X < r, fxr(R)là một phép tích chập sử dụng (r - s) lóp tíchchập 3 X 3 cóstride =

2

- Truờnghọp X > r, fxr(R) là một phép upsampling song tuyến, sau đó sẽ đi qua một lóp tích chập

1 X để kiểm soát số chiềucủađặc trung

(c) Hình 11 (a) HRNet-Vl (b) HRNet-V2 (c) HRNet-V2p

© 2023TruôngĐạihọcCôngnghiệp Thành phố HÒ ChíMinh 347

Trang 10

Hội nghị Khoa học trẻ ỉần 5 năm 2023(YSC2023)-ỈUH

HRNet có 3 dạng biểu diễn được gọi là HRNet-Vl, HRNet-V2vàHRNet-V2p

- HRNetV1: đầu ra là dạng biểu diễn chỉlấy từ nhánh đặctrưng có độphân giải cao (high-resolution)

Ba đặc trưng củaba độ phân giải

- HRNetV2: các tác giả rescale các đặctrưng độ phân giải thấplên độ phân giảicao bằng một phép

upsampling song tuyếnmà không thayđổi chiều sâu,nối lại cả bốn đặctrưng Sau đó, đi qua một

lớptích chập 1 X 1 đểtrộn cả bốn đặc trưng nàylại

- HRNetV2p: các tácgiả xây dựng một biểudiễnđatỷ lệ (multi-level features) bằng cách sử dụng

đầu ra từHRNetV2

4.1 Dữ liệu

BIRADS đánh giá kết quả của bộxét nghiệm dựa hên cácphân loại từ 1 đến 6, với mỗi cấp độ cóý nghĩa

khác nhau Bao gồm:

BIRADS 1: Kết quả bìnhthường, không cần thêm các bộxét nghiệm bổsung

BIRADS 2: Kết quả bìnhthường, nhưng cần theo dõi thêm

BIRADS 3: Kết quả có khả năng lànhtính, nhưngcần theodõi thêm

BIRADS 4:Kết quả có khảnăng lành tính/áctính,cần xét nghiệm bổsung hoặc phẫu thuật tếbào

BIRADS 5: Kết quả có khả năng ác tính,cầnxétnghiệm bổ sung hoặc phẫu thuật tếbào

Ngoài rathì còn có BIRADS 6: Đãxác địnhrõ ràng là ung thưvú qua xét nghiệm tếbào

Độ dàycủavú mô tảhìnhdạngcủa vú hên ảnh chụpX-quang tuyến vú Độ dàycủa vú không phảilà thước

đo để đánh giá cảmgiác của vú Bácsĩ X-quangcó thể ghi chú độdày của vúhên báo cáo chụp X-quang tuyến vú Độ dày củavú caonghĩa là có nhiều môhơnsovớimỡ Ngược lại, có nhiềumỡ hơnso với mô

Mô vú dày đặc có thể cómàu hắng hoặc xám nhạt trênhìnhảnh chụp X-quang tuyến vú Ung thư cũng có màu hắng hoặc xám nhạt nênkhó có thểphânbiệt được

Bộ dữ liệu VinDR-Mammographỵ là bộ chụp nhũ ảnh kỹ thuật sốquỵ mô lớn gồm 5000 mẫu với 1mẫucó

4 góc nhìn tương đươngvới 20.000 ảnh, đượcđọc bởi các nhà chụp nhũ ảnh có kinh nghiệm để cung cấp đánh giá ung thư và mật độ vú theoBreast Imaging Report andData System (BI-RADS) Cácvùngbat thườngcan kiểmha cũng được đánh dấubằng các hình chữ nhật Hiện, đây là bộ dữ liệu công khailớn nhất về chụp nhũ ảnh kỹ thuật sốcó chứa đánh giáBI-RADS và các chú thích bất thường, về siêu dữliệu của ảnh DICOM,các thôngsố kỹ thuật được sử dụng để xử lý, tuổi của bệnh nhân và mô hình của thiếtbị ảnh được giữ lại, các thông tin về bệnhnhân đã bị xóa đểbảovệ quyền riêng tư Đối vớithông tin độ tuổi, không có bệnh nhân nào hên89 tuổi xuấthiện trong tập dữliệu, vềmặtđánh giá vútổng thể, các loại đánh giá BI-RADS (từ 1 đến 5) và mật độ vú(A, B, choặcD) đượccungcấp Những phát hiện của BI-RADS

2 tức là lành tính, không được đánhdấuvùng tổn thương Chỉ những phát hiệncủaBI-RADS 3, 4 hoặc 5, cần kiểm tra theo dõi, được chúthích bởicác hình chữnhậtđánh dấuvùng tổn thương

4.2 Ket quả cắt ảnh bằng mô hình YOLOX

Bảng 1 Tham sổ củamôhìnhYOLOX

348 © 2023 TrườngĐạihọcCôngnghiệp ThànhphốHồ Chí Minh

Ngày đăng: 10/03/2024, 08:13

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

w