Nhìn vào Bảng 5.6 cho thấy được kết quả của các thực nghiệm chính trong phương pháp Regression. Kết quả của mô hình ở TN4 so với mô hình ở thực nghiệm đầu tiên có cùng kiến trúc mạng ResNet-50 (TN1(a)) có sự cải thiện rõ rệt: Mean Dice tăng khoảng 10% (từ 80.09 + 12.51 lên 90.44 + 5.02), Mean HD giảm từ 11.38 + 6.63 xuống 5.06 + 3.14
(giảm khoảng 6mm).
68
Bảng 5.6. Kết quả các thực nghiệm ở phương pháp Regression.
Tên thực nghiệm Evaluation Matrix
Mean Dice (%) + std Mean HD (mm) + std TN1(a) 80.09 + 12.51 11.38 +6.63
TN1(b) 71.95 + 17.44 15.17 + 7.04 TNI(c) 50.99 + 26.15 29.20+20.75 TN2 84:64+ 5.15 8.16+3.55 TN3 87.47 +. 8.41 6:47 + 3.65 TN4 90.44 + 5.02 5.06 +3.14
Mụ hỡnh ResNẹet-50 với thuật toỏn tối ưu Adam, hàm mat mỏt MSE cú cải tiến là mụ hình tốt nhất được xây dựng và huấn luyện dựa trên phương pháp tiệp cận Regression.
Hình 5.4 thể hiện kết quả dự đoán vòng đầu của phương pháp Regression. Theo thứ tự
hàng từ trên xuống thì hàng đầu tiến hình 12.anh trong dataset của cuộc thi HCIS [6]; hang thứ 2 thé hiện annotation được cung cấp; mỗi hàng tiếp theo là kết quả dự đoán của
một thực nghiệm.
69
Original
GT
TNI(a)
TNI(b)
TNI(c)
TN2
TN3
TN4
70
5.2. Phương pháp Segmentation
Bang 5.7. Bảng mô tả các thực nghiệm thực hiện trong phương pháp Segmentation.
Ạ : Áp dụng
Tên thực | Kiến trúc Thuật . | Learning Learning Ham mat tang
en toán tôi rate z ` ~
nghiệm mạng rate mat cường dữ
ưu decay on
liệu
TNIa) |U-Net SGD 0.001 Không—+~! Ace Không
TN1(b) U-Net SGD 0.001 Không ~}.Dice Loss | Không
TN2(a) |'UENet SGD 0.01 Không | J3©card Có
Loss
TN2(b) U-Net SGD 0:01 Không | DiceLoss Có
TN3 U-Net SGD 0.1 Khon Dice+ Gó
. aad Ons | BCE Loss °
Dilated Cosine Dice + ⁄
TN4 U-Net one x Annealing | BCE’Loss Co
Attention Cosine Dice + Z
pst U-Net Gh 0.1 Annealing | BCE Loss Co
Tat ca dữ liệu dùng trong phương pháp này đều được chuẩn hóa bang cách chia cho 255
dé giá trị của pixels trong [0,1].
e`.TNI: Thử nghiệm U-Net với hai hàm mắt mát Jaccard Loss và Dice Loss với bộ dit
liệu không tăng cường.
e TN2: Thử nghiệm U—Net với hai ham mất mát Jaccard Loss và Dice Loss với bộ đữ
liệu được tăng cường.
e TN3: Thử nghiệm tối ưu tông mat mát của Dice và BCE trên U-Net.
e TN4: Thử nghiệm thêm dilate block vào kiến trúc U-Net.
e TNS: Thử nghiệm thêm AGs vào kiến trúc U-Net.
71
TN4 và TN5 có sử dung kỹ thuật cosine annealing được công bồ trong nghiên cứu của Loshchilov va Hutter [40]. Day là một trong những kỹ thuật learning rate decay dùng dé thay đổi learning rate trong quá trình huấn luyện. Giá trị của learning rate sẽ thay đổi giống như đồ thị hàm cosine theo công thức (5.2), khi tới một SỐ lượng epochs nhất định,
learning rate sẽ được restart vê giá trị ban đâu:
1 T1,
Nt = Tìmin + 2 (max = Thai} (4 +:€0S ( me r)) (5.2)
i
VỚI Nmax Và Nminla khoảng ð1á tí ma learning rate sẽ được nhận (max bằng với giá trị cài đặt ban đầu của learning rate); 7,„„„ là số lượng epochs ké từ 1 lần restart gần nhất, T;
là số lượng epochs:giữa 2 lần restart. Khi Tz„„ = T; thì ne = Nin và khi Tey, = 0 (từ sau khi vừa restart) thì rỊ; = Nmax Cosine annealing giúp cho quá trình huấn luyện mô hình nhanh ở những epochs đầu và chậmrdần sau đó; đồng thời khi giá tri learning rate được restart; nêu mô hình đang ở điểm cực trị:cục bộ thì có thé vượt qua được điểm đó (giá trị [max sẽ giảm dan sau mỗi lần restart để mô hình 6n định hơn).
5.2.1. Thực nghiệm 1
Thực nghiệm 1:được-thực hiện với mục đích so sanh-2 hàm mat mát thường được dùng
trong các bài toán phân doan hình ảnh là Jaccard Loss va Dice Loss trên dataset không tăng cường đê đánh giá hiệu năng ban đầu của mô hình.
72
Kết quả:
Bảng 5.8. Bảng kết quá TNI.
Tế Evaluation Matrix
thực an Jaceard Couthesent Mean Dice Mean HD
nghiệm (%) (%) (%) + std (mm) + std
TN1(a) 0.9872 1.28 n/a 73.58 416.28 | 16.944 11.17 TN1(b) 0.8934 n/a 10.62 83.73 + 16.45: | 10.48 + 11.57
Giải thích, đánh giá:
Kết quả hàm mất mát ở hai thực nghiệm có sự chênh lệch khoảng 0.1, kết quả hàm
Jaccard Loss là0:9872'và hàm Dice Loss là 0.8934. Sau khi submit lên cuộc thi thì mô
hình ở TN1(b) cho kết quả tốt hon TN1(a). Điều này có thé nhận thay được khi nhìn vào
mask dự đoán ở 2 thực nghiệm (TN1(a), TN1(b) Hình 5.10). Mask dự đoán của TN1(a)
chưa cho thây đường phân đoạn vòng dau thai nhĩ mà van còn nhiêu chi tiét của vùng
bụng: trong khi với TN1(b), mask dự đoán đã có sự phân đoạn vòng đầu rõ nét hơn.
5.2.2. Thực nghiệm 2
Thực nghiệm 2 được thực hiện với mục đích tương tự ở thực nghiệm 1 nhưng trên bộ dữ liệu đã được tăng cường.
Kết quả:
Bảng '5.9. Bảng kết quả TN2:
Evaluation Matrix
Tên Hàm J d Di
thực k accar ice M Di M HD tẠ mat mát | Ind Coefficient ean Mice ean
nghiém ndexshi¢ (%) (%) (%) +std (mm) + std
TN2(a) 0.8765 12.29 21.47 93.75 + 10.32 3.65 + 5.31
TN2(b) 0.7636 13.72 23.67 95.89 + 7.48 2.37 + 3.76
73
Giải thích, đánh giá:
Vì tốc độ hội tụ của hàm mat mát ở TNI là tương đối chậm khi huấn luyện với 100
epochs nên nhóm đã tăng learning rate từ 0.001(TN1) lên thành 0.01(TN2) và sử dụng
các kỹ thuật tăng cường ảnh để cải thiện khả năng phân đoạn của mô hình.
Kết qua hai hàm mat mát ở TN2 đều giảm khoảng 0.1 so với hàm mat mát tương ứng với TN1, đồng thời kết quả submit đã cải thiện đáng kẻ. Việc tăng learning rate ở thực nghiệm này cho thấy tốc độ hội tụ tăng nhanh, tuy ủhiờn hai mụ hỡnh bắt đầu overfitting
ở những epochs 50 trở đi va mang đến-sự không ồn định (Hình:5.5). Đồng thời khỉ nhìn vào kết quả dự đoán của thực nghiệm này (TN2(a), TN2(b) Hình 5.10) so sánh với ảnh trong dataset,.có.thể thấy khi sử dụng hai hàm mất mát trên chủ yếu cho bài toán Segmentation là Jac€ard Loss và Dice Loss-thi mask dự đoán chủ yếu phân đoạn những khu vực vồng đầu thai nhi đã thể hiện rõ mà bỏ qua những phần còn lại không rõ.
Kết quả đứợc trình bày ở Bảng 5.8 và Bảng 5.9 cho thấy rằng mô hình tối ưu với hàm Dice Loss cho kết quả khả quan hơn-so với Jaccard Loss. Đồng thời với mong muốn mô hình học có khả năng phân biệt các pixel thuéc-vé vòng đầu thai nhĩ tốt hơn (khắc phục nhược điểm vừa nêu trên) thì từ thực nghiệm TN3 trở về sau, hàm mất mát được thiết kế
là tô hợp tuyến tính của Dice Loss và BCE Loss.
74
1.000
0.975
0.950
0.925
80.900a
0.875
0.850
0.825
25 50 75 100
epochs
125 150 175
(a) Biéu đỗ gid irị hàm Jatcard Loss trong quá
trỡnh huấn luyện và kiểm ọịnh ở TN1(a)-&
TN2(a).
Loss per epoch
1.00 La ba
TN
—— TN1(b)
——— TN2(b)
0.95 mode
— train
--: valid 0.90
0.85
a
a
xe}
0.80
0.75
0.70
0.65
0 20 40 60 80 100 120 140 160
epochs
(c) Biéu đồ giá trị hàm Dice Loss trong quá
trình huấn luyện và kiểm định ở TNI(b) &
TN2(b).
Jaccard Index
TN
—— TN1(a)
0.175 —— TN2(a)
mode
— train
0.150 ——-: valid
0.125
x o 3
£
pi 0.100
bì 6 5
® 0.075
0.050
0.025
0.000
0 25 50 75 100 125 150 175
epochs
(b) Biéu đỗ giá trị Jaccard Index trong quá trình huần luyện và kiểm định ở TN1(a) & TN2(a).
Dice Coefficient
TN
0.35 (TH o)
—— TN2(b)
mode
030 —— train
——- valid
0.25
% fh \,
Diath ch
WATT UV” ^^ tn
E MỢ VỐN VAN
8 0.20 ' {
vi
vo
a4
5
0.15
0.10
0.05
0.00
40 60 80
epochs
100 120 140 160
(d) Biéu đỗ giá trị ham Dice Coefficient trong quá trình huấn luyện và kiểm định ở TNI(b) &
TN2(b).
Hình 5.5. Biéu đồ so sánh kết quả TNI và TN2.
75
5.2.3. Thực nghiệm 3
Kết quả:
Bảng 5.10. Bảng so sánh kết quả TN2(b) & TN3.
Evaluation Matrix
Tên Hàm J d Di
thực Âu 2 accar Ice Mean Di Mean HD
A mat mat Index Coefficient ean Mice fan
nghiệmgni¢ (%) (%) (%) +std (mm) + std
TN2(b) 0.7636 13.72 23:67 95:89.+ 7.48 2.37 3.76
TN3 0.836 12.44 21.63 96.16 + 8.58 2.11 + 3.52 Giải thích, đánh giá:
So với TN2() thì kết quả submit.của TN3 đã‹có tăng 0.1% ở độ do Mean Dice và giảm 0.2mm ở độ đo:Mean HD. Mô hình cũng hội tụ nhanh hơn và bắt đầu overfitting từ
epochs thứ 30 (Hình 5.6). Khi nhìn vào anh phan đoạn của thực nghiệm này (TN3 Hình
5.10), vòng đầu trong-ảnh phân đoạn của mô hình tương đối mỏng hon và giống với GT
hơn khi so với các kêt quả của các mồ hình trước đó.:Điêu này cho thây việc thêm ham
BCE Loss vào đã khiến mô-hình làm vùng phân đoạn trùng khớp hon với anh annotate.
0.9
0.7
0.6
0 20 40
Loss per epoch
6 80 100
epochs
TN
—— TN2|b)
— TN3
140 160
Hình 5.6. Biéu đồ giá trị ham mat mát trong quá trình huấn luyện và kiểm định ở TN2(b) & TN3.
76
5.2.4. Thực nghiệm 4 & Thực nghiệm 5
Kết quả:
Bang 5.11. Bảng so sánh kết quả TN3, TN4 & TN5.
Evaluation Matrix
Tên Hàm J d Di
thực ca accar ice Mean Di Mean HD A mat mat Index Coefficient ean Mice fan
nghiệmgni¢ (%) (%) (%) +std (mm) + std
TN3 0.836 12:44 21:63 96:16 + 8.58 2.11 $3.52 TN4 0.832 12.53 21.73 96.65 + 7.43 1.85+2.84 TNS 0.8192 13.21 22.58 97.04 + 4.75 1.78 +2.51 Giải thích, đánh giá:
Cả hai TN4 va Tẹ5 đều cho kết quả cao-hơn TN3 với cựng hàm mất mỏt, trong đú:mụ hình Attention U-Net cho kết quả cao hơn Dilated U--Net. Khi nhìn vào 3 biểu đồ ở Hình 5.8, những lần hàm-mắt mát đột ngột tăng giá trị hay hai độ đo Jaccard Index và Dice Coeffeient đột ngột giảm là do tại thời điểm đó giá trị của learning rate restart về giá trị
T„m¿„ (Hình 5.7).
0.10
0.08
0.06
Ir
0.04
0.02
0.00
0 500
Learning Rate
1000 1500 2000 2500 3000 3500
iters
Hình 5.7 Biểu đồ thé hiện sự thay đổi của learning rate trong quá trình huấn luyện.
77
Loss per epoch
h TN
it — TN3
iy —— TN4
10 1
—— TN5 w
My mode
x — train
Na ==: vali
09 = valid
txơ=< 22xưA2
Nét ieee V72 deed Kec
0.8
“ a
S
07
0.6
0.5
0 20 40 60 80
epochs
(a) Biéu l2 giá tri hàm mắt mắt trong quá trình huấn luyện và kiểm định ởTN3, TN4 & TNS.
Jaccard Index Dice Coefficient
0.40 TN
— 0.5 0.35
0.30
a 0.4
0.25
3 +bị
=, 8 0.3
E 0.20 ri
9 2S 3
0.15 02
OMS à^
SAR Reale oe
0.10
0.1 0.05
1
0.00 0.0
0 20 40 60 80 0 20 40 60 80
epochs epochs
(b) Biéu đỗ giá trị ham Jaccard Index trong quá (c) Biéu đồ giá trị ham Dice Coefficient trong
trình huấn luyện và kiểm định ở TN3, TN4 & quá trình huấn luyện và kiểm định ở TN3, TN4
TNS. & TNS.
Hình 5.8. Biểu đô so sánh kết quả của TN3, TN4 & TNS.
78
So với các mô hình U—Net thực nghiệm ở trước đó (từ TN1 đến TN3) thì 2 mô hình Attention U-Net và Dilated U-Net cho kết quả tốt hơn, đặc biệt là ở giá trị Mean HD.
Mô hình Attention U-Net (TNS) cho kết qua Mean Dice cao hon 1.61% và Mean HD thap hơn 0.13mm so với mô hình Dilate U-Net (TN4). Mặc dù su chênh lêch này là tương đối thấp và mask phân đoạn dự đoán của hai thực nghiệm cũng khá tương đồng
nhau, nhưng khi dem đi thử trên testset thì có những hình ảnh là phân đoạn dư ở mô hình
này lại tốt ở mô hình kia: Như ở Hình:5:9(e): mô hình Dilated U—Net phân đoạn không day đủ vũng đầu thai nhi, nhưủg ở mồ hỡnh Attention U—Net thỡ đó cú cải thiện (Hỡnh 5.9(e)); tuy vậy ở cả hai mô hình đều phân đoạn dư một đường ở thành bụng và nước ôi. Còn ở Hình 5.9(d) thì mô hình Dilated U-Net lại cho thay sự tốt hon mô hình Attention UNet do không có sự phân đoạn du chi tiết vung bụng (Hình 5.9(f)).
Original
TN4
TNS
Hình 5.9. Ảnh phân đoạn dự đoán của TN4 & TN5. Hàng đâu tiên là ảnh trong testset [6]; hàng thứ 2
là mask phân đoạn dự đoán của TN4; hàng cuối cùng là mask phân đoạn dự đoán của TNS.
79
5.2.5. Tổng kết phương pháp
Bảng 5.12. Kết quá các thực nghiệm ở phương pháp Segmentation.
Evaluation Matrix
thực Hàm, Jaccard Dic . Mean Dice Mean HD
nghiém mat mat "` _—~ (%) + std (mm) + std
TN1(a) 0.9872 1.28 n/a 73.58+ 16:28 | 16.944 11.17
TNI(b) 0.8934 n/a 10.62 83.73 + 16.45'.| 10.48-+ [1.57
TN2(a) 0:8765 12:29 21.47 93.75 +10.32 3.65 +5.31
TN2(b) 0.7636 13:72 23.67 95.89 + 7:48 2.37 + 3.76
TN3 0.836 12.44 21.63 96.16 + 8.58 2.11 43.52 TN4 0.832 12.53 21:73 96.65 + 7.43 1.85 + 2.84 TNS 0.8192 13.21 22.58 97.04 + 4.75 1.78 + 2.51