1. Trang chủ
  2. » Luận Văn - Báo Cáo

nghiên cứu ứng dụng mạng phức trong xác định đặc trưng và phân loại khối u ác tính và lành tính dựa trên ảnh mri

79 3 0
Tài liệu đã được kiểm tra trùng lặp

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Cấu trúc

  • CHƯƠNG 1. CƠ SỞ LÝ THUYẾT VỀ ẢNH MRI NÃO (13)
    • 1.1 Tổng quan về ảnh MRI (13)
      • 1.1.1 Nguyên lý chụp cộng hưởng từ (13)
      • 1.1.2 Tiêu chuẩn của ảnh MRI – Dicom (24)
    • 1.2 Những đặc trưng khối U trên ảnh MRI (24)
      • 1.2.1 Đặc điểm ảnh MRI trong y học (24)
      • 1.2.2 Những đặc trưng khối U trên ảnh MRI (25)
      • 1.2.3 Nhận biết khối u trên MRI (27)
  • CHƯƠNG 2. LÝ THUYẾT VỀ MẠNG PHỨC VÀ HỌC MÁY (32)
    • 2.1 Cơ sở lý thuyết về mạng phức (32)
      • 2.1.1 Sơ lược về mạng phức (32)
      • 2.1.2 Đặc điểm và tham số của mạng (34)
    • 2.2 Mô hình hóa mạng phức (36)
      • 2.2.1 Ma trận cường độ (37)
      • 2.2.2 Ma trận vị trí (38)
      • 2.2.3 Ma trận chung (38)
    • 2.3 Ứng dụng mạng phức trong phát hiện ranh giới (38)
    • 2.4 Giới thiệu về học máy (40)
      • 2.4.1 Khái niệm học máy (40)
      • 2.4.2 Một số thuật toán học máy cơ bản (41)
      • 2.4.3 Phương pháp để đánh giá độ hiệu quả của mô hình (48)
      • 2.4.4 Ứng dụng của học máy (52)
    • 2.5 Tối ưu các thuật toán Machine Learning (54)
      • 2.5.1 Xây dựng và tối ưu thuật toán Machine Learning bằng thư viện scikit-learn (54)
      • 2.5.2 Tối ưu hóa mô hình SVM (55)
      • 2.5.3 Tối ưu hóa mô hình kNN (57)
      • 2.5.4 Tối ưu hóa mô hình Random Forest (58)
      • 2.5.5 Tối ưu mơ hình Nạve Bayes và Logistic Regression (61)
  • CHƯƠNG 3. THỬ NGHIỆM VÀ ĐÁNH GIÁ KẾT QUẢ (62)
    • 3.1 Các bước triển khai hệ thống (62)
    • 3.2 Tập dữ liệu (63)
      • 3.2.1 Bệnh lý U thần kinh đệm (63)
      • 3.2.2 Tập dữ liệu U thần kinh đệm (64)
    • 3.3 Xác định và trích xuất đặc trưng hình ảnh khối u (66)
    • 3.4 Tối ưu các mô hình phân loại (68)
    • 3.5 Kết quả (69)
      • 3.5.1 Kết quả bài toán phân loại (69)
    • 3.6 Đánh giá (72)
  • KẾT LUẬN (75)
  • TÀI LIỆU THAM KHẢO (76)

Nội dung

Tần số tiến động hay tần số cộng hưởng của spin được tính theo phương trình Larmor: Ban đầu, từ trường

CƠ SỞ LÝ THUYẾT VỀ ẢNH MRI NÃO

Tổng quan về ảnh MRI

1.1.1 Nguyên lý chụp cộng hưởng từ

1.1.1.1 Hiện tượng cộng hưởng từ hạt nhân

Hiện tượng cộng hưởng từ hạt nhân (Nuclear Magnetic Resonance-NMR) được phát hiện hoàn toàn độc lập bởi Felix Bloch và Edward Purcell năm 1946 Khi cộng hưởng từ hạt nhân bắt đầu được sử dụng phổ biến trong y học vào những năm cuối 1970 Kỹ thuật chụp ảnh dựa trên hiện tượng này từ đó được gọi là chụp cộng hưởng từ (Magnetic Resonance Imaging-MRI) a) Định luật Faraday và sóng điện từ

Phương trình Maxwell-Faraday cho biết mối liên hệ giữa biến thiên từ thông qua diện tích mặt cắt của một vòng kín và điện trường cảm ứng dọc theo vòng dây đó Trong khi, định luật Faraday chỉ ra rằng: Xuất hiện sức điện dộng trên vòng dây dẫn khi từ thông qua bề mặt được bao bọc bởi vòng dây biến thiên theo thời gian – một hiện tượng được gọi là hiện tượng cảm ứng điện từ

Định luật Faraday là nền tảng cho nhiều ứng dụng trong công nghệ, như máy phát điện và động cơ điện Định luật này phát biểu rằng suất điện động quanh một mạch kín bằng âm của tốc độ thay đổi từ thông qua mạch đó theo thời gian Do đó, sự biến thiên từ thông sẽ tạo ra suất điện động trong mạch, từ đó có thể tạo ra dòng điện hoặc làm quay rôto của động cơ.

Trong đó ɛ là suất điện động cảm ứng, N là số vòng dây của đường dẫn, ∆ 𝐵 là độ biến thiên từ thông, ∆ 𝑡 thời gian (s)

Hiện tượng cảm ứng điện từ tạo ra một môi trường thống nhất của điện trường và từ trường, được gọi là trường điện từ Theo hệ phương trình Maxwell, sự biến thiên của từ thông dẫn đến sự biến thiên của trường điện từ, tạo ra sóng điện từ lan truyền trong không gian Các sóng điện từ này bao gồm sóng vô tuyến, tia hồng ngoại, ánh sáng nhìn thấy, tia tử ngoại, tia X và tia gamma.

Trong cộng hưởng từ, các dạng xung và tín hiệu đều là sóng vô tuyến (RF) với tần số thấp hơn và rộng hơn tia X, thông thường từ 10^3 Hz đến 10^10 Hz Đặc tính này giúp sóng RF không gây ion hóa và tổn thương tế bào như tia X.

Như ta biết, nguyên tử có các hạt mang điện là proton (mang điện tích dương) và electon (mang điện tích âm) và với thuộc tính tự quay quanh trục (tính chất spin) của coi như một nam châm tí hon hay thường được gọi là spin Nguyên tử Hydro chứa 1 proton và 1 electon, hạt nhân thường được gọi là proton ( hay spin), là loại hạt nhân có hoạt động từ nên có khả năng cộng hưởng từ hạt nhân Nguyên tử Hydro có độ nhạy từ cao vì moment từ hạt nhân ít bị che chắn do chỉ có duy nhất 1 electon trong nguyên tử Mặt khác, Hydro chiếm một lượng khá lớn trong thành phần của nước và mỡ Vì thế, nguyên tử Hydro được chọn làm nền tảng cho chụp cộng hưởng từ

Khi không có tác động từ trường bên ngoài, các vector moment từ của các spin được sắp xếp ngẫu nhiên theo nhiều phương và hướng khác nhau (Hình 1-2) Khi đó, từ trường của chúng tương tác và làm triệt tiêu từ trường chung Khi có tác động của từ trường bên ngoài 𝐵 0 , các spin sẽ chịu tác động của từ trường mà định hướng lại vector moment từ theo cùng phương từ nhưng có chiều cùng hoặc ngược với tác động từ (Hình 1-3) Sự khác biệt giữa số spin có vector moment từ cùng chiều 𝐵 0 với số spin có vector moment từ ngược chiều 𝐵 0 ( một đến hai spin trên một triệu spin) được gọi là độ từ hóa thực 𝑀 0 (Hình 1-4) Đây là từ trường làm cơ sở tạo ra tín hiệu cộng hưởng từ và tỷ lệ thuận với cường độ từ trường 𝐵 0

Hình 1-4: Độ từ hóa thực hay độ từ hóa Hình 1-2: Trục quay ngẫu nhiêu của các spin khi chưa chịu tác động của từ trường ngoài

Hình 1-3: Trục quay của các spin đã định hướng lại khi chịu tác động của từ trường ngoài

Với 2 hướng của vector moment từ khác nhau, các spin có 2 trạng thái năng lượng cơ bản: trạng thái năng lượng thấp (cùng chiều 𝐵 0 ) và trạng thái năng lượng cao ( ngược chiều 𝐵 0 ) Các spin luôn tương tác với nhau và môi trường, giải phóng và hấp thụ năng lượng để chuyển đổi qua lại giữa 2 tạng thái năng lượng này Sự tác động qua lại giữa các spin gây ra hiện tượng gây ra hiện tượng đảo và lắc khi vẫn quay quanh trục của spin Đây được gọi là sự tiến động của spin Dù vậy, tổng thể số spin ở các trạng thái là ổn định Sự chêch lệch năng lượng ∆𝐸 giữa 2 nhóm spin năng lượng cao và năng lượng thấp là đặc trưng cho độ từ hóa thực

Tốc độ quay quanh trục của spin cũng thay đổi dưới tác động của từ trường 𝐵 0 Tần số tiến động hay tần số cộng hưởng của spin được tính theo phương trình Larmor:

Trong đó: 𝑓 là tần số quay của spin hay tần số cộng hưởng, 𝐵 là cường độ từ trường tác dộng 𝐵 0 , 𝛾 là hằng số Larmor với spin 𝛾 = 42.58 MHz/T

Hiện tượng cộng hưởng từ là hiện tượng cộng hưởng từ trường xảy ra giữa từ trường của spin (hạt nhân nguyên tử Hydro) và từ trường được cung cấp bởi sóng kích thích (RF) Để tạo ra hiện tượng cộng hưởng từ, người ta cung cấp một sóng RF (radio frequency) kích thích vào các spin trong từ trường 𝐵 0 Sóng RF này cần có tần số bằng tần số cộng hưởng của spin và vuông góc với phương thẳng đứng của 𝐵 0

Ban đầu, từ trường 𝐵 0 gây ra một độ từ hóa thực 𝑀 0 có vector cùng chiều với 𝐵 0 , vì vậy, độ từ hóa thực còn được gọi là độ từ hóa dọc 𝑀 𝑧 Sau đó, dưới tác động của từ trường 𝐵 1 gây ra bởi sóng RF trong một thời gian nhất định , vector 𝑀 0 thay đổi và lệch khỏi trục Oz một góc α α được gọi là góc lật, phụ thuộc vào cường độ từ trường

𝐵 1 và thời gian phát xung RF Lúc này, vector 𝑀 0 được phân tích thành 2 vector 𝑀 𝑧 (độ từ hóa dọc) và 𝑀 𝑥𝑦 (độ từ hóa ngang) (Hình 1-5)

Hình 1-5: Độ từ hóa thực với góc lật nhỏ

Cộng hưởng từ hạt nhân là hiện tượng từ trường quay $B_1$ xung quanh trục của các spin với tần số bằng tần số quay của chúng, tạo ra cộng hưởng từ khiến độ từ hóa thực lệch ra khỏi trục quay một góc lệch $\alpha$ Chính sự lệch góc này tạo ra tín hiệu cộng hưởng từ (NMR).

Khi tác động một sóng RF phù hợp (xung 90°), độ từ hóa thực 𝑀 0 sẽ lật một góc 90°, trở thành độ từ hóa ngang 𝑀 𝑥𝑦 quay quanh trục Oz với tần số cộng hưởng Ngừng phát xung, các spin chỉ chịu tác động của từ trường 𝐵 0 có xu hướng giải phóng năng lượng đã hấp thụ và độ từ hóa dọc dần được khôi phục Khi đó, từ trường biến thiên 𝑀 𝑥𝑦 sẽ sinh ra một sóng điện từ hay chính là tín hiệu cộng hưởng từ cần thu Như vậy, tín hiệu cộng hưởng từ có nguồn gốc từ độ từ hóa thực 𝑀 0 khi nó bị lật ngang thành từ hóa ngang 𝑀 𝑥𝑦 do đó, cường độ tín hiệu phụ thuộc vào độ lớn của độ từ hóa thực 𝑀 0

Sau khi tắt xung kích thích, có 2 quá trình hồi giãn diễn ra song song: hồi giãn dọc và hồi giãn ngang

Sau khi ngừng phát xung, các spin giải phóng năng lượng đã hấp thụ từ xung vào môi trường xung quanh để trở về trạng thái năng lượng thấp Đây được gọi là tương tác spin- lattice Trong quá trình tương tác spin-lattice, dưới tác động của từ trường 𝐵 0 , độ từ hóa thực dọc dần khôi phục Quá trình khôi phục này được gọi là quá trình hồi giãn dọc hay thư duỗi T1 Thời gian cần thiết cho quá trình hồi giãn dọc được gọi là T1 (có giá trị khoảng 100ms – 3000ms)

Xung kích kích thích sau khi tắt sẽ gây va chạm giữa các spin, dẫn đến lệch pha Do đó, độ từ hóa ngang thường biến mất nhanh hơn độ từ hóa dọc Tín hiệu cộng hưởng từ cũng biến mất trước khi độ từ hóa dọc phục hồi hoàn toàn Quá trình này, được gọi là hồi giãn xung ngang hoặc thư giãn T2, diễn ra trong khoảng thời gian xấp xỉ 40-200 miligiây.

Những đặc trưng khối U trên ảnh MRI

1.2.1 Đặc điểm ảnh MRI trong y học Độ phân giải không gian rất cao, còn độ phân giải thời gian vừa phải: Phân giải không gian: 3 mm và phân giải thời gian: 3 giây Đây là phương pháp hiệu nghiệm và dễ sử cộng hưởng từ chức năng (FMRI – Function MRI) để nghiên cứu không chỉ về cấu tạo mà còn về chức năng hoạt động của não Tuy nhiên, phương pháp này khá tốn kém do phải dùng hêli lỏng để làm lạnh cuộn dây siêu dẫn

1.2.1.1 Ưu điểm Ảnh cấu trúc các mô mềm trong cơ thể như tim, phổi, gan và các cơ quan khác rõ hơn và chi tiết hơn so với ảnh được tạo bằng các phương pháp khác

MRI giúp cho các bác sỹ đánh giá được các chức năng hoạt động cũng như là cấu trúc của nhiều cơ quan nội tạng trong cơ thể Sự chi tiết làm cho MRI trở thành công cụ vô giá trong chẩn đoán thời kì đầu và trong việc đánh giá các khối u trong cơ thể Tạo ảnh bằng MRI không gây tác dụng phụ như trong tạo ảnh bằng chụp X quang thường quy và chụp CT MRI cho phép dò ra các điểm bất thường ẩn sau các lớp xương mà các phương pháp tạo ảnh khác khó có thể nhận ra MRI có thể cung cấp nhanh và chuẩn xác so với tia X trong việc chẩn đoán các bệnh về tim mạch Không phát ra các bức xạ gây nguy hiểm cho con người

Các vật bằng kim loại cấy trong cơ thể không được phát hiện có thể bị ảnh hưởng bởi từ trường mạnh Không sử dụng với các bệnh nhân mang thai ở 12 tuần đầu tiên Các bác sĩ thường sử dụng các phương pháp tạo ảnh khác, ví dụ như siêu âm, với các phụ nữ mang thai trừ phi thật cần thiết bắt buộc phải sử dụng MRI

1.2.2 Những đặc trưng khối U trên ảnh MRI

1.2.2.1 Đặc điểm chung của cấu trúc bất thường và tổn thương trên ảnh MRI Để thực hiện được việc phân tích các khối u trên hình ảnh MRI, các bác sĩ phải có kiến thức chuyên sâu về giải phẫu não bộ và giải phẫu X-Quang Tuy nhiên, do điều kiện chuyên môn, nhóm nghiên cứu chỉ thực hiện tìm hiểu các kiến thức cơ bản cho yêu cầu mục đích kỹ thuật Một số kiến thức cần biết trước khi phân tích hình ảnh MRI sọ não có bệnh lý u não:

• Kiến thức cơ bản giải phẫu sọ não và giải phẫu X-Quang: o Hộp sọ o Màng não và khoang màng não o Động mạch và tĩnh mạch

• Các kỹ thuật và chuỗi xung chụp cộng hưởng từ cơ bản: o Các chuỗi xung chính

▪ T2 Spin Echo: 1˚ echo( mật độ proton), 2˚ echo

▪ Hình khuyếch tán: B1000, bản đồ ADC

Thực hiện đọc hình ảnh quan tâm tới những dấu hiệu tổn thương trực tiếp và các hậu quả của tổn thương lên các cấu trúc bình thường (dấu hiệu gián tiếp) Bên cạnh đó là các dấu hiệu gợi ý căn nguyên bệnh lý

1.2.2.2 Dấu hiệu tổn thương trực tiếp

• Dấu hiệu trực tiếp của u trên ảnh MRI o Tín hiệu mỡ:

▪ Tăng tín hiệu trên cả T1 và T2

▪ Trên chuỗi xung xóa mỡ có thể phân biệt với những tổn thương tăng tín hiệu khác như khối máu tụ bán cấp, melanin, dòng chảy chậm

▪ Thường gặp trong: lipoma, dermoid cyst, teratoma o Vôi hóa:

▪ Giảm tín hiệu trên cả T1 và T2

▪ U trong trục hay gặp vôi hóa nhất là oligodendroglioma

▪ U ngoài trục hay gặp vôi hóa nhất là craniopharyngioma

▪ U tuyến tùng (pineocytoma) bản thân không vôi hóa nhưng tuyến tùng lại vôi hóa o Dạng nang:

▪ Phân biệt với các giả u dạng nang như epidermoid, dermoid, arachnoid, neuroenteric & neuroglial cyst Thậm chí là giãn rộng khoang Virchow-Robin

Trên mỗi chuỗi xung sử dụng khi chụp cộng hưởng từ sẽ cho ảnh có đặc trưng khối u riêng sẽ được trình bày kỹ hơn ở phần sau của báo cáo này

1.2.3 Nhận biết khối u trên MRI Đối với mỗi loại hình ảnh MRI khác nhau đặc trưng của các cấu trúc sẽ là không giống nhau Vậy khi phân tích hình ảnh MRI dựa trên tín hiệu cộng hưởng từ, ta cần quan tâm tới loại chuỗi xung chụp, cường độ tín hiệu, tổn thương có bắt gadolinium hay không, tương ứng với loại cấu trúc giải phẫu nào

1.2.3.1 Mức độ tín hiệu và tương quan với loại cấu trúc với chuỗi xung T1 Spin Echo

Tương ứng với từng loại cấu trúc cơ bản của sọ não, có những mức xám hay cường độ tín hiệu khác biệt

Bảng 1-3: Mức tín hiệu của các loại cấu trúc trên ảnh T1

Mức tín hiệu – mức xám Tương ứng giải phẫu

Tín hiệu cao rõ rệt – trắng ▪ Cục máu đông nồng độ protein cao

▪ Một số dòng tĩnh mạch

▪ Gadolinium T1 Tín hiệu cao trung bình – xám sáng Chất trắng

Tín hiệu trung bình – xám vừa Chất xám

Tín hiệu thấp trung bình – xám sậm ▪ Phù, tổn thương phù nang

▪ Hoại tử Tín hiệu thấp rõ rệt - đen ▪ Dịch não tủy

▪ Dòng động mach, một số dòng tĩnh mạch

• Hầu hết các u có tín hiệu giảm hoặc trung gian trên T1

• Khi tăng trên T1 cần phân biệt: nang keo, chảy máu, u hắc tố di căn, nang bì, dòng chảy chậm

1.2.3.2 Mức độ tín hiệu và tương quan với loại cấu trúc với chuỗi xung T1 SE khi bệnh nhân được tiêm GADOLINIUM

Một số cấu trúc trong não bộ khó phát hiện trên các ảnh MRI nhưng lại “bắt” một số chất phản quang Bác sĩ sẽ thực hiện tiêm thuốc phản quang vào tĩnh mạch của bệnh nhân khi nghi ngờ bệnh lý: u não – u tế bào đệm, lymphom, di căn…; áp xe; xơ cứng rải rác; tai biến mạch máu não; các khảo sát MRI không tiêm có kết quả khó lý giải

Kết quả các cấu trúc khi tiêm GADOLINIUM:

Bảng 1-4: Kết quả một số cấu trúc sau khi tiêm Gadolinium

Bắt gadolinium Không bắt gadolinium

Cấu trúc bình thường • Màng não

• Động mạch: dòng nhanh, tín hiệu thấp

Tổn thương • U tế bào đệm

• U màng não, u dây thần kinh

• Một số nhồi máu sau 6 ngày

• Một số tế bào u đệm

• Dị dạng não, màng não

• Lợi ích quan trọng cảu các chuỗi sau tiêm để chẩn đoán tổn thương

Một số tổn thương không được phát hiện trên các ảnh của chuỗi xung cơ bản nhưng sau khi ngấm thuốc phản quang trở nên rõ ràng hơn trên ảnh MRI

Những phần cấu trúc bắt gadolinium có tín hiệu cao rõ rệt, thể hiện rõ màu trắng trên ảnh MRI

Hình 1-10: Khối u màng não được phát hiện do chuỗi tiêm Gadolinium

• Chuỗi ảnh sau tiêm có hiệu quả trong việc phân độ tế bào u đệm

• Tổn thương có thể không được thể hiện đồng nhất trên ảnh T1 SE Gadolinium, nhất là u tế bào đệm

1.2.3.3 Mức độ tín hiệu và tương quan với loại cấu trúc với chuỗi xung T2 Spin Echo

• Hầu hết các u não đều tăng tín hiệu trên T2 do chứa nhiều nước

• Giảm tín hiệu trên T2 khi:U ít nước, dày đặc tế bào o Vôi hóa o Tỷ lệ protein cao o Hiệu ứng dòng chảy o Máu chảy cũ

Bảng 1-5 Mức tín hiệu của các loại cấu trúc trên ảnh T2

Mức tín hiệu – mức xám T2 Spin Echo thứ 1 – mật độ proton T2 Spin Echo thứ 2 Tín hiệu cao rõ rệt – trắng - ▪ Cục máu đông nồng độ protein cao

▪ Phù, tổn thương phù nang

Tín hiệu cao trung bình – xám sáng

▪ Cục máu đông nồng độ protein cao

▪ Phù, tổn thương phù nang

Tín hiệu trung bình – xám vừa

Tín hiệu thấp trung bình – ▪ Mỡ, melanin

Mức tín hiệu – mức xám T2 Spin Echo thứ 1 – mật độ proton T2 Spin Echo thứ 2

▪ Dòng động mạch, dòng tĩnh mạch

▪ Khí Tín hiệu thấp rõ rệt - đen

▪ Dòng động mạch, dòng tĩnh mạch

1.2.3.4 Mức độ tín hiệu và tương quan với loại cấu trúc với chuỗi xung T2FLAIR

• Fluid Attenuated Inversion Recuperation: hình ảnh T2 nhưng có tín hiệu DNT là tín hiệu thấp rõ rệt, thể hiện trên ảnh là màu đen

• Được biết đến là chuỗi xung cung cấp nhiều thông tin nhất

• Tương phản rõ rệt giữa tổn thương có tín hiệu cao và DNT, đặc biệt nở những phần lồi của bán cầu đại não

Hình 1-11 Nhồi máu vỏ não được phát hiện ở ảnh T2FLAIR

• Nang, dịch có nồng độ protein cao ít tăng tín hiệu trên ảnh T2FLAIR

Hình 1-12 U tế bào sao ít nhánh dạng nang

• Trong một số diễn tiến, ảnh T2FLAIR có thể gây nhầm lẫn khi khối tổn thương dạng dịch chứa protein tín hiệu trung bình

Hình 1-13 Nguy cơ sai sót trên ảnh T2FLAIR

LÝ THUYẾT VỀ MẠNG PHỨC VÀ HỌC MÁY

Cơ sở lý thuyết về mạng phức

2.1.1 Sơ lược về mạng phức

Mạng phức là mô hình bao gồm các phần tử và liên kết giữa các phần tử với nhau và có các thuộc tính tôpô không tầm thường Các thuộc tính của mạng phức cần một lượng lớn thông tin để mô tả hoàn chỉnh và các thuộc tính xuất hiện như là hệ quả trong tổ chức tôpô toàn cục của hệ thống Do đó, mạng phức thường được sử dụng để biểu diễn các hệ thống thực Điều này làm nên sự khác biệt giữa mạng phức và các mạng thông thường Ví dụ, trong trường hợp của regular graph, để xây dựng mạng này ta chỉ cần xác định số lượng nút và cấp của nút (vì tất cả các nút có cùng cấp) Ngược lại, để mô tả cấu trúc của mạng đại diện cho hệ thống thực, ta cần một lượng lớn thông tin như: số lượng nút và liên kết, phân bố cấp, đường kính, phân cụm, tương quan về cấp,… Nghiên cứu các mạng phức hợp là một lĩnh vực nghiên cứu khoa học mới, có nhiều tiềm năng ứng dụng, hình thành chủ yếu từ các “động lực cảm hứng” xuất phát từ các phát hiện thực nghiệm về các mạng trong thế giới thực như mạng máy tính, mạng sinh học, mạng công nghệ, mạng não, mạng xã hội

Mạng (Network) là một cấu trúc bao gồm tập hợp các phần tử và các liên kết giữa các phần tử đó Các phần tử trong mạng còn được gọi là nút (node) Mạng phức (Complex Network) là một mạng có liên kết giữa các phần tử trong mạng không đều hoàn toàn cũng không ngẫu nhiên hoàn toàn, hay nói cách khác là liên kết giữa các phần tử trong mạng có quy luật nhất định

Ví dụ về mạng trong thực tế:

• Mạng lưới sân bay và các tuyến bay giữa các sân bay: trong mạng này, các sân bay đóng vai trò là các nút (node) còn các tuyến bay đóng vai trò là các liên kết giữa các nút trong mạng (link)

Trong mạng lưới chuỗi thức ăn tự nhiên, các loài đóng vai trò như các nút, kết nối với nhau thông qua mối quan hệ thức ăn, giống như các liên kết giữa các nút.

• Mạng internet: Các máy chủ, người dùng đóng vai trò là các nút của mạng, sự kết nối có thể truyền thông tin qua lại giữa các máy chủ, người dùng và máy chủ, người dùng với người dùng có vai trò là liên kết giữa các nút trong mạng

Mạng được phân thành nhiều loại dựa trên các tiêu chí khác nhau:

• Phân loại mạng dựa trên chiều của liên kết giữa các nút: Mạng được chia thành 2 loại: mạng có hướng và mạng vô hướng

• Phân loại dựa trên tương tác giữa các phần tử: mạng có trọng số và mạng không có trọng số Cách phân loại này dựa trên đặc điểm cường độ liên kết giữa các phần tử khác nhau trong mạng là không giống nhau Trong mạng có trọng số, các chỉ số của các liên kết sẽ đại diện cho cường độ tương tác giữa hai phân tử hai đầu liên kết đó được biểu diễn ở Hình 2-1 Ví dụ: mạng internet là mạng không có trọng số bởi mức độ tương tác giữa hai phần tử là hoàn toàn ngẫu nhiên trong khi mạng lưới điện lại là ví dụ cho mạng có trọng số do đường cấp điện đóng vai trò là liên kết của mạng tại các khu vực đông dân cư sẽ lớn hơn nhiều khu vực có dân cư thưa thớt

Hình 2-1: Mạng không trọng số (trái) và mạng có trọng số (phải)

• Phân loại dựa trên sự khác biệt của các nút trong mạng: mạng lưỡng cực (đa cực)

Mạng chia theo loại này gồm có hai hoặc nhiều kiểu nút trong mạng và các liên kết trong mạng chỉ có giữa hai nút khác kiểu nhau trên Hình 2-2 Ví dụ: một lớp kết giữa các nút của mạng này và nó chỉ xuất hiện giữa một học sinh và cha mẹ của học sinh đó mà không thể có giữa hai học sinh hoặc hai phụ huynh

2.1.2 Đặc điểm và tham số của mạng

Chúng ta xét một mạng gồm 𝑁 nút (phần tử), các liên kết giữa các nút được định nghĩa bởi ma trận 𝐴 vuông 𝑁𝑥𝑁 Hai nút 𝑖, 𝑗 của mạng nếu liên kết với nhau thì giá trị tương ứng trong ma trận 𝐴𝑖𝑗 = 1 và các phần tử 𝐴𝑖𝑖 = 0

2.1.2.1 Đường dẫn ngắn nhất Đường dẫn ngắn nhất 𝑑 𝑖𝑗 giữa hai nút i và j trong mạng được định nghĩa là khoảng cách ngắn nhất giữa trong tất cả các đường liên kết có thể đi từ nút i đến nút j, với mạng có trọng số thì đường ngắn nhất giữa hai nút i và j là đường liên kết từ nút i tới nút j có tổng trọng số là nhỏ nhất

2.1.2.2 Đường dẫn trung bình Đường dẫn trung bình 𝑙 của mạng là trung bình của các đường dẫn ngắn nhất giữa tất cả các nút trong mạng

2.1.2.3 Đường kính của mạng Đường kính 𝐷 của mạng là giá trị lớn nhất của các đường dẫn nhỏ nhất

Cấp 𝑘 𝑖 của một nút 𝑖 là số liên kết của nút đó với các nút khác trong mạng:

Cường độ 𝑠𝑖 của nút 𝑖 là tổng các trọng số của các liên kết của nút đó với các nút khác trong mạng:

Trong một cấu trúc mạng, nếu nút 𝑖 kết nối tới nút 𝑗 và nút 𝑘 thì thường có xu hướng hai nút 𝑗 và 𝑘 cũng được kết nối với nhau

Xu hướng này thể hiện cho mức liên kết chặt chẽ của mạng và được thể hiện bằng hệ số phân cụm C của mạng (về mặt trực quan thể hiện cho số tam giác trong mạng tạo thành từ các liên kết phần tử trong mạng)

Hệ số phân cụm C của mạng bằng giá trị trung bình của tất cả hệ số phân cụm tại mỗi nút mạng 𝐶𝑖

Trong đó, hệ số phân cụm 𝐶 𝑖 tại nút 𝑖 bằng tỷ số giữa số liên kết của nút đó với các nút liền kề và tổng số liên kết có được của các nút liền kề

Hệ số phân cụm 𝐶 của mạng nằm trong khoảng [0,1], hệ số này càng cao đồng nghĩa với việc liên kết giữa các nút trong mạng càng dày đặc, mạng càng đạt sự liên kết chặt chẽ cao

(2-6) Độ gắn kết (closeness centrality) của một nút 𝑢 tính toán mức độ gắn kết của một nút với tất cả các nút còn lại của mạng

2.1.2.8 Một số thuộc tính đặc trưng khác của mạng

Tính trung tâm giữa (The betweenness centrality) sẽ định lượng tầm quan trọng của một nút trong việc giao tiếp với những cặp nút khác trong hệ thống mạng Đây là thông số đo tỉ lệ thông tin đi qua một nút nhất định trong liên lạc giữa các cặp nút khác:

𝜌(𝑖, 𝑘, 𝑗): số lượng đường dẫn ngắn nhất từ i đến j đi qua nút k

𝜌(𝑖, 𝑗): số lượng đường dẫn ngắn nhất từ i đến j

Chất lượng một phân vùng của một mạng nhiều vùng có thể được đo lường bằng một vài chỉ số Phổ biến nhất trong số các tiêu chí chất lượng này là cái gọi là chỉ số mô- đun (modularity index) Trong một mạng bao gồm 𝑛 𝑉 phân vùng: 𝑉1; 𝑉 2 ; ; 𝑉𝑛 𝐶 Tính mô-đun là tổng của tất cả các phân vùng với sự khác biệt giữa các phần liên kết bên trong mỗi phân vùng và phân vùng dự kiến bằng cách xem xét ngẫu nhiên mạng có cùng mức độ cho mỗi nút:

Với |𝐸 𝑘 | : số lượng liên kết giữa các nút trong phân vùng thứ k của mạng

Tính mô-đun được diễn giải như sau: Nếu 𝑄 = 0, số lượng liên kết nội bộ không lớn hơn giá trị dự kiến cho một mạng ngẫu nhiên Nếu Q = 1 có nghĩa đây là một vùng mạng tính cộng đồn mạnh mẽ.

Mô hình hóa mạng phức

Đầu tiên, ảnh đầu vào được mô hình hóa sử dụng mạng không trọng số, vô hướng

Một mạng phức 𝐺 như vậy được định nghĩa qua hai tham số 𝑉, 𝐸: 𝐺 = {𝑉, 𝐸}; trong đó, 𝑉 là tập các nút trong mạng và 𝐸 là tập các liên kết giữa các nút Vậy ở đây, các nút được xác định như thế nào, điều kiện hình thành liên kết giữa các nút là gì? Đầu tiên, hình ảnh được chia thành các cửa sổ vuông với kích thước 2 × 2; 4 × 4 hoặc 8 × 8 Mỗi cửa sổ biểu diễn một nút trong mạng, liên kết giữa một cặp nút được đặc trưng bởi sự tương đồng về entropy, cường độ, vị trí Điều kiện để có liên kết giữa hai nút là: chúng phải liền kề nhau, sự khác biệt về cường độ trung bình không đáng kể, sự khác biệt về entropy không đáng kể

Một mạng thông thường được biểu diễn bằng mô hình toán học thông qua một ma trận kề (adjacent matrix)

Ba ma trận được tạo ra để so khớp các thông số entropy, cường độ, vị trí Sau đó, một ma trận chung của mạng được xây dưng từ sự kết hợp của những ma trận thành phần trên

Trong luận văn này, khái niệm Shannon entropy được sử dụng, entropy của một cửa sổ được tính theo công thức:

Trong đó, 𝑒 đặc trưng cho lượng thông tin trong cửa sổ, 𝑝(𝑘) là xác suất giá trị của cường độ trong khung thứ 𝑘 Thang đo cường độ từ 0 đến 255 và được chia thành các khung, mỗi khung có kích thước là 32 đơn vị, tức là mỗi khung chứa 32 giá trị pixel liên tiếp nhau Công thức xác suất được tính như sau:

Trong đó, 𝐼 𝑖𝑗 là giá trị cường độ của pixel ở hàng thứ 𝑖 và cột thứ 𝑗, 𝑝 𝑖𝑗 (𝑘) là xác suất mà giá trị cường độ 𝐼 𝑖𝑗 xuất hiện ở khung thứ 𝑏 𝑘 , 𝑎 là kích thước cửa sổ Thực tế, ảnh trong tự nhiên thường có sự khác biệt nhỏ trong cường độ giữa các pixel liền kề Thang đo pixel được chia thành các khung cho phép chúng ta đánh giá các giá trị cường độ trong một cửa sổ bằng trung bình của entropy Hai nút được kết nối nếu sự khác biệt về entropy giữa chúng nhỏ hơn một ngưỡng threshold đặt trước

Cường độ của một cửa sổ được tính bằng trung bình cường độ của các pixel trong cửa sổ đó:

Trong đó 𝑚 là cường độ của cửa sổ, 𝐼 𝑖𝑗 là cường độ của pixel ở hàng thứ 𝑖 và cột thứ 𝑗 Hai nút được kết nối nếu sự khác biệt về cường độ giữa chúng nhỏ hơn một ngưỡng threshold định trước nào đó

Một nút được coi là liền kề với nút khác khi khoảng cách Euclid giữa chúng nhỏ hơn một bán kính 𝑟, để đảm bảo tính liên tục đường liền nét của vật thể, bán kính nên được đặt bằng √2 Vì thế, cấp lớn nhất của một nút có thể đạt được là 8 Công thức của ma trận vị trí được tính như sau:

Trong đó, (𝑥𝑖, 𝑦𝑖), (𝑥𝑗, 𝑦𝑗) là vị trí của nút i và j trong ảnh

Cuối cùng, một ma trận chung của mạng được xây dưng từ sự kết hợp của những ma trận thành phần trên, công thức của ma trận chung được thiết lập như sau:

𝒘 𝑬𝑰𝑷 𝒊𝒋 = 𝒘 𝑬 𝒊𝒋 ∙ 𝒘 𝑰 𝒊𝒋 ∙ 𝒘 𝑷 𝒊𝒋 (2-14) Ở đây, 𝑤 𝐸 𝑖𝑗 , 𝑤 𝐼 𝑖𝑗 , 𝑤 𝑃 𝑖𝑗 là trọng số tương ứng với entropy, cường độ, vị trí Nếu giá trị tại hàng thứ 𝑖 cột 𝑗 của ma trận chung bằng 1, có nghĩa là nút thứ 𝑖 và thứ 𝑗 trong mạng có kết nối với nhau Một cặp nút có kết nối nếu pixel của cặp nút đó nằm trên cùng một vật thể hoặc chúng nằm trên cùng một cạnh

Trong mạng Hopfield, nút có cấp 8 được định nghĩa là các nút đầu vào biểu thị các đối tượng, trong khi các nút có cấp nhỏ hơn 8 được hiểu như các nút đầu ra nằm trên biên giới ngăn cách các đối tượng.

Ứng dụng mạng phức trong phát hiện ranh giới

Mạng phức có thể được tạo dựa trên nhiều tham số như đường dẫn trung bình, đường điểm MRI não người với các khối u (lành tính hoặc ác tính) thì cấp của từng nút là một thông số đặc biệt quan trọng

Rõ ràng, khi biểu diễn hình ảnh và xác định kết nối như trên, một nút cấp cao sẽ nằm ở trung tâm của miền vì có nhiều liên kết với các nút xung quanh Nói cách khác, nút trung tâm được bao quanh bởi các cửa sổ tương tự như nó Ngược lại, các nút nằm trên hoặc gần ranh giới sẽ có bậc thấp hơn Tham số độ của mỗi nút trong mạng được suy ra từ ma trận khớp được thiết lập ở trên Trong luận văn này, tác giả đề xuất phương pháp cửa sổ chồng lấp để quét vùng và trích xuất các đặc điểm của MRI não Giả định rằng kích thước cửa sổ đủ nhỏ để các ranh giới có thể được coi là gần như thẳng Hình 2-3 cho thấy sự kết hợp của tám cửa sổ chồng lên nhau bao quanh một cửa sổ trung tâm (cửa sổ được xem xét) tương ứng với chín nút Trong đó, mỗi cửa sổ hình vuông gồm có 4 ô vuông nhỏ

Khi ranh giới đi qua một nút (hoặc cửa sổ), cường độ và entropy của các nút đó sẽ khác với cường độ và entropy bên trong đối tượng Trong trường hợp ranh giới đi qua tổ hợp trên nhưng không qua cửa sổ giữa thì cửa sổ giữa sẽ không giống nhiều nhất là ba cửa sổ nên sẽ có tham số cấp tối thiểu là 5 (như Hình 2-3(a)-( d)) Khi đường viền đi qua cửa sổ trung tâm dọc theo bất kỳ đường nào được minh họa trong Hình 2-3(e)-(g), các trường hợp nhỏ hơn có thể xảy ra như sau:

• Trong Hình 2-3(e), đường biên đi qua 1 góc phần tư của cửa sổ xem (hay có thể nói rằng diện tích của vùng trắng lớn hơn vùng xám hơn 8 lần) Cửa sổ được xem lại sẽ chỉ tương tự như hai cửa sổ góc (diện tích của vùng màu trắng cũng gấp hơn 8 lần so với vùng màu xám), do đó tham số cấp của cửa sổ được xem xét là 2

• Trong Hình 2-3(f), đường ranh giới đi qua hai góc phần tư của cửa sổ được xem xét Cửa sổ được xem lại sẽ chỉ giống với cửa sổ trên và cửa sổ dưới (do chênh lệch lớn về tỷ lệ diện tích giữa hai vùng giữa cửa sổ được xem xét và ba cửa sổ bên phải) nên tham số cấp cửa sổ là 2

• Trong Hình 2-3(g), ranh giới đi qua ba góc phần tư của cửa sổ được xem xét

Ngoài sự giống nhau giữa cửa sổ được xem lại và hai cửa sổ ở góc, cửa sổ phía trên và bên phải cũng có thể giống với cửa sổ được xem lại Do sự khác biệt giữa hai miền và cửa sổ xem xét không lớn nên sự tồn tại của liên kết sẽ phụ thuộc vào ngưỡng chênh lệch entropy và cường độ cũng như vị trí giao nhau cụ thể của ranh giới Vì vậy, cửa sổ được xem xét sẽ có tham số cấp là 2 hoặc 4

Hình 2-3: Hình minh họa đặc trưng về cấp của nút theo hình dạng của đường ranh giới

Giới thiệu về học máy

Học máy (Machine Learning) là một lĩnh vực của trí tuệ nhân tạo liên quan đến việc nghiên cứu và xây dựng các kĩ thuật cho phép các hệ thống "học" tự động từ dữ liệu để giải quyết những vấn đề cụ thể Học máy có liên quan lớn đến thống kê, vì cả hai lĩnh vực đều nghiên cứu việc phân tích dữ liệu, nhưng khác với thống kê, học máy tập trung vào sự phức tạp của các giải thuật trong việc thực thi tính toán Học máy có hiện nay được áp dụng rộng rãi bao gồm máy truy tìm dữ liệu, chẩn đoán y khoa, phát hiện thẻ tín dụng giả, phân tích thị trường chứng khoán, nhận dạng tiếng nói và chữ viết, cử chỉ robot…

Những năm gần đây, khi mà khả năng tính toán của các máy tính được nâng lên một tầm cao mới và lượng dữ liệu khổng lồ được thu thập bởi các hãng công nghệ lớn, Machine Learning đã tiến thêm một bước dài và một lĩnh vực mới được ra đời gọi là Deep Learning Deep Learning đã giúp máy tính thực thi những việc tưởng chừng như không thể vào 10 năm trước: phân loại cả ngàn vật thể khác nhau trong các bức ảnh, tự tạo chú thích cho ảnh, bắt chước giọng nói và chữ viết của con người, giao tiếp với con người, hay thậm chí cả sáng tác văn hay âm nhạc

2.4.2 Một số thuật toán học máy cơ bản

2.4.2.1 Phân nhóm dựa trên phương thức học

Theo phương thức học, các thuật toán Machine Learning thường được chia làm 4 nhóm: Supervised learning, Unsupervised learning, Semi-supervised lerning và Reinforcement learning Có một số cách phân nhóm không có Semi-supervised learning hoặc Reinforcement learning

2.4.2.2 Phân nhóm dựa trên chức năng

Có một cách phân nhóm thứ hai dựa trên chức năng của các thuật toán

1 Linear Regression 2 Logistic Regression 3 Stepwise Regression

1 Linear Classifier 2 Support Vector Machine (SVM) 3 Kernel SVM

4 Sparse Representation-based classification (SRC)

1 k-Nearest Neighbor (kNN) 2 Learning Vector Quantization (LVQ)

1 Ridge Regression 2 Least Absolute Shrinkage and Selection Operator (LASSO) 3 Least-Angle Regression (LARS)

1 Naive Bayes 2 Gaussian Naive Bayes

1 Perceptron 2 Softmax Regression 3 Multi-layer Perceptron 4 Back-Propagation

1 Principal Component Analysis (PCA) 2 Linear Discriminant Analysis (LDA)

Máy vectơ hỗ trợ (SVM) là một mô hình học máy có giám sát được sử dụng chủ yếu cho bài toán phân loại Là thuật toán phân loại nhị phân, SVM sẽ nhận dữ liệu vào và phân loại chúng thành hai lớp riêng biệt.

Với một bộ các điểm dữ liệu thuộc hai loại cho trước, thuật toán luyện tập SVM xây dựng một mô hình SVM để phân loại các ví dụ khác vào hai loại đó Một mô hình SVM là một cách biểu diễn các điểm trong không gian và lựa chọn ranh giới giữa hai lớp sao cho khoảng cách từ các điểm dữ liệu tới ranh giới là xa nhất có thể Ý tưởng của SVM là tìm một siêu phẳng (hyper lane) để phân tách các điểm dữ liệu Siêu phẳng này sẽ chia không gian thành các miền khác nhau và mỗi miền sẽ chứa một lớp dữ liệu Trong Hình 2-4 có ba đường phân cách ℎ 1 , ℎ 2 , ℎ 3 Tuy nhiên, để tối đa hóa khoảng cách từ điểm gần nhất của các điểm dữ liệu tới siêu phẳng thì đường ℎ2 là tối ưu nhất và nó được gọi là lề

Hình 2-4: Ví dụ về thuật toán SVM

Mục tiêu trong việc chọn siêu phẳng phải thỏa mãn công thức:

Vấn đề tối ưu trong thuật toán SVM là tính toán tham số (𝑤, 𝑏) sao cho khoảng cách từ điểm gần nhất đến lề đạt giá trị lớn nhất

Giả định tập luyện gồm n điểm có nhãn là 𝑦 𝑖 = 1 (lớp 1) hoặc 𝑦 𝑖 = −1 (lớp 2) Mỗi điểm dữ liệu có giá trị biên, được xác định là khoảng cách ngắn nhất từ điểm đó đến mặt phẳng phân tách.

Sau đó, (𝑤, 𝑏) đưuọc tính dựa trên giá trị lớn nhất của 𝑚𝑎𝑟𝑔𝑖𝑛:

Sau đó, tìm được mặt phân cách 𝑤 𝑇 𝑥 + 𝑏 = 0, class của bất kỳ một điểm nào sẽ được xác định đơn giản bằng cách:

Với 𝑠𝑔𝑛 là hàm xác định dấu và nó bằng 1 khi đối số dương, nhận giá trị -1 nếu đối số âm

K-nearest neighbor là một trong những thuật toán supervised-learning đơn giản nhất mà lại có hiệu quả trong một vài trường hợp trong Machine Learning Khi training, thuật toán này không học một điều gì từ dữ liệu training (nên được xếp vào loại lazy-learning), mọi tính toán được thực hiện khi nó cần dự đoán kết quả của dữ liệu mới

K-nearest neighbors có thể áp dụng được vào cả hai bài toán phân loại và hồi quy

Trong bài toán phân loại, kNN là thuật toán đi tìm đầu ra của một điểm dữ liệu mới bằng cách chỉ dựa trên thông tin của 𝑘 điểm dữ liệu trong training set gần nó nhất (𝑘- lân cận), không quan tâm đến việc có một vài điểm dữ liệu trong những điểm gần nhất này là nhiễu

Label của một test data có thể được quyết định bằng major voting (bầu chọn theo số phiếu) giữa k các điểm gần nhất, hoặc nó có thể được suy ra bằng cách đánh trọng số khác nhau cho mỗi trong các điểm gần nhất đó rồi suy ra label Khoảng cách giữa hai điểm dữ liệu có nhiều công thức có thể sử dụng trong đó ba công thức thường được sử dụng nhất để tính khoảng cách giữa hai điểm dữ liệu 𝑥, 𝑦 có 𝑛 chiều là:

Nói ngắn gọn, các bước trong thuật toán kNN:

• Bước 1: giả sử D là tập dữ liệu đã được gán nhãn và A là điểm dữ liệu chưa được phân loại

• Bước 2: Đo khoảng cách Euclidean, Manhattan hoặc Minkowski… từ A đến tất cả các điểm dữ liệu khác đến D

• Bước 3: Chọn k khoảng cách ngắn nhất

• Bước 4: Kiểm tra danh sách của k lớp có khoảng cách ngắn nhất bên trên và gán nhãn cho A là lớp xuất hiện nhiều nhất trong danh sách trên

Random Forests là thuật toán học có giám sát (supervised learning) Nó có thể được sử dụng cho cả phân loại và hồi quy Nó cũng là thuật toán linh hoạt và dễ sử dụng nhất Random forests tạo ra cây quyết định trên các mẫu dữ liệu được chọn ngẫu nhiên, được dự đoán từ mỗi cây và chọn giải pháp tốt nhất bằng cách bỏ phiếu Tuy nhiên, vẫn còn một vấn đề: Nếu như tất cả các cây được dựng theo cùng một cách, chúng sẽ cho những câu trả lời giống nhau Như vậy chẳng khác gì chỉ một cây quyết định duy nhất được sử dụng cả Ở đây, để chắc chắn rằng không phải tất cả các cây quyết định cho cùng câu trả lời, thuật toán Random Forest chọn ngẫu nhiên các quan sát (observations)

Chính xác hơn, Random Forest sẽ xoá một số quan sát và lặp lại một số khác một cách ngẫu nhiên Xét toàn cục, những quan sát này vẫn rất gần với tập các quan sát ban đầu, nhưng những thay đổi nhỏ sẽ đảm bảo rằng mỗi cây quyết định sẽ có một chút khác biệt

Quá trình này gọi là bootstrapping

Để đảm bảo rằng các cây ra quyết định khác nhau, thuật toán Random Forest bỏ qua ngẫu nhiên một số câu hỏi khi xây dựng cây ra quyết định, giúp tăng sự đa dạng và độ chính xác của dự đoán.

Trong trường hợp này, nếu câu hỏi tốt nhất không được chọn, một câu hỏi kế tiếp sẽ được lựa chọn để dựng cây Quá trình này được gọi là attribute sampling

Tóm lại, thuật toán Random Forest hoạt động theo 4 bước:

• Bước 1: Chọn các mẫu ngẫu nhiên từ tập dữ liệu đã cho

• Bước 2: Thiết lập cây quyết định cho từng mẫu và nhận kết quả dự đoán từ mỗi quyết định cây

• Bước 3: Bỏ phiếu cho mỗi kết quả dự đoán

• Bước 4: Chọn kết quả được bỏ phiếu nhiều nhất là dự đoán cuối cùng

Logistic Regression là thuật toán phân loại sử dụng hàm logistic để dự đoán giá trị nhị phân là 0 hoặc 1 Đây là mô hình hồi quy phi tuyến tính dùng để ước tính hoặc dự đoán một đối tượng dựa trên mối quan hệ nhân quả Đầu ra dự đoán của Logistic Regression được biểu thị dưới dạng:

Trong đó, 𝜃 gọi là logistic function hay activation fuction

Hàm kích hoạt thông thường được sử dụng là hàm sigmoid như trong Hình 2-5 vì nó có một số tính chất quan trọng như: liên tục, nhận giá trị thực và bị chặn trong khoảng (0,1), hàm số có đạo hàm đẹp, thuận lợi cho việc tối ưu

Các bước của bài toán Logistic Regression bao gồm:

Giả sử xác suất để một điểm dữ liệu 𝑥 rơi vào class 1 là 𝑓(𝑤 𝑇 𝑥) và rơi vào class 2 là 1 − 𝑓(𝑤 𝑇 𝑥)

Với mô hình được giả sử như vậy, với các điểm dữ liệu training (đã biết đầu ra 𝑦), ta có thể viết như sau:

Tối ưu các thuật toán Machine Learning

2.5.1 Xây dựng và tối ưu thuật toán Machine Learning bằng thư viện scikit-learn

Thư viện sử dụng để xây dựng các thuật toán Machine Learning là scikit-learn Đây là một thư viện mạnh mẽ, thích hợp nhất để có thể mang các thuật toán học máy vào trong một hệ thống, được viết bằng ngôn ngữ Python Thư viện này tích hợp rất nhiều thuật toán hiện đại và cố điển giúp người dùng tiến hành đưa ra các giải pháp hữu ích cho bài toán một cách đơn giản Scikit-learn hỗ trợ mạnh mẽ trong việc xây dựng các sản phẩm

Nghĩa là thư viện này tập trung sâu trong việc xây dựng các yếu tố: dễ sử dụng, dễ code, dễ tham khảo, dễ làm việc, hiệu quả cao

Sau đây là một số nhóm thuật toán được xây dựng bởi thư viện scikit-learn:

• Clustering: Nhóm thuật toán Phân cụm dữ liệu không gán nhãn Ví dụ thuật toán KMeans

• Cross Validation: Kiểm thử chéo, đánh giá độ hiệu quả của thuật toán học giám sát sử dụng dữ liệu kiểm thử (validation data) trong quá trình huấn luyện mô hình

• Datasets: Gồm nhóm các Bộ dữ liệu được tích hợp sẵn trong thư viện Hầu như các bộ dữ liệu đều đã được chuẩn hóa và mang lại hiêu suất cao trong quá trình huấn luyện như iris, digit,

• Dimensionality Reduction: Mục đích của thuật toán này là để Giảm số lượng thuộc tính quan trọng của dữ liệu bằng các phương pháp như tổng hợp, biểu diễn dữ liệu và lựa chọn đặc trưng Ví dụ thuật toán PCA (Principal component analysis)

• Ensemble methods: Các Phương pháp tập hợp sử dụng nhiều thuật toán học tập để có được hiệu suất dự đoán tốt hơn so với bất kỳ thuật toán học cấu thành nào

• Feature extraction: Trích xuất đặc trưng Mục đích là để định nghĩa các thuộc tình với dữ liệu hình ảnh và dữ liệu ngôn ngữ

• Feature selection: Trích chọn đặc trưng Lựa chọn các đặc trưng có ý nghĩa trong việc huấn luyện mô hình học giám sát

• Hyperparameter Tuning: Tinh chỉnh siêu tham số Các thuật toán phục vụ việc lựa chọn tham số phù hợp để tối ưu hóa mô hình

• Supervised Models: Học giám sát Mảng lớn các thuật toán học máy hiện nay Ví dụ như linear models, discriminate analysis, naive bayes, lazy methods, neural networks, support vector machines và decision trees

• Manifold Learning: Các thuật toán học tổng hợp và Phân tích dữ liệu đa chiều phức tạp

2.5.2 Tối ưu hóa mô hình SVM

Trong thuật toán SVM, ba siêu tham số (hyperparameter) quan trọng nhất ảnh hưởng đến hiệu quả của model là kernel, giá trị phạt C và hệ số gamma Với kernel, các kernel thông thường được sử dụng trong SVM là “linear”, “poly”, “rbf”, “sigmoid” Chức năng chính của kernel là xử lý dữ liệu không tuyến tính, chuyển đổi chúng sang dạng hợp lý hơn để dễ dàng tìm được hyperland Cụ thể, kernel sẽ chuyển dữ liệu đầu vào thành đầu ra với số chiều lớn hơn Dưới đây là ví dụ, khi nhìn vào Hình 2-8 đây là bài toán mà ta khó có thể tìm được siêu phẳng tuyến tính sao để phân cách hiệu quả hai miền dữ liệu

Tuy nhiên, sau bước nhân kernel, dữ liệu được chuyển từ dạng hai chiều (x, y) sang dạng ba chiều (x, y, z) Điều này giúp dễ dàng phân tách các điểm dữ liệu của hai lớp bằng một đường siêu phẳng tuyến tính.

Hình 2-8: Ứng dụng của kernel trong tìm đường siêu phẳng Để hiểu về giá trị phạt C, ta cần biết regularization Về regularization, đây là số hạng để thêm vào hàm mất mát

Số hạng này thường dùng để đánh giá độ phức tạp của mô hình Số hạng này càng lớn, mô hình càng phức tạp Ví dụ, ta có công thức hàm mất mát như sau:

Với 𝑦𝑖 là giá trị thực tế của dữ liệu, ℎ𝜃(𝑥𝑖) là giá trị dự đoán của dữ liệu tương ứng

Tùy theo số hạng được cộng vào hàm mất mát, sẽ quy định các chuẩn khác nhau của regularization

Với giá trị phạt 𝐶, đây là tham số để duy trì sự chính quy (regularization) của mô hình, với 𝐶 = 1 𝜆⁄ Lamda 𝜆 trong công thức (2- 40)

Hàm mất mát L(x, y) trong hồi quy tuyến tính chính quy hóa L2 có vai trò kiểm soát lỗi dự đoán, cụ thể là cân bằng giữa độ phức tạp và độ đúng đắn của mô hình Nếu lambda (λ) quá nhỏ hoặc bằng 0, mô hình trở nên quá phức tạp, dẫn đến tình trạng quá khớp dữ liệu (overfitting) Ngược lại, nếu λ quá lớn, mô hình trở nên quá đơn giản, dẫn đến tình trạng thiếu khớp dữ liệu (underfitting) Do đó, ta điều khiển gián tiếp giá trị của λ thông qua tham số C, khi đó C hoạt động ngược lại với λ.

Hình 2-9: Đường siêu phẳng với các giá trị khác nhau của C

Hệ số gamma ảnh hưởng đến việc tính toán đường phân cách hợp lý Hệ số này xác định mức độ ảnh hưởng của khoảng cách giữa các điểm dữ liệu đến việc lựa chọn đường phân cách Do đó, hệ số gamma đóng vai trò quan trọng trong việc phân loại chính xác các điểm dữ liệu vào các nhóm khác nhau Ví dụ như trong hình minh họa, hệ số gamma có thể ảnh hưởng đến việc lựa chọn đường phân cách để phân chia các điểm dữ liệu màu xanh lam và đỏ.

Hình 2-10: Đường siêu phẳng với các giá trị khác nhau của gamma

Khi giá trị gamma cao, các điểm dữ liệu ở gần sẽ có ảnh hưởng lớn hơn đến kết quả phân loại Ngược lại, khi giá trị gamma thấp, các điểm dữ liệu ở xa cũng được xem xét, dẫn đến ranh giới phân loại ít rõ ràng hơn.

2.5.3 Tối ưu hóa mô hình kNN

Trong thuật toán kNN, ba tham số n_neighbors, metric và weights đóng vai trò quan trọng Số lượng hàng xóm (n_neighbors) ảnh hưởng trực tiếp đến độ chính xác của mô hình Loại khoảng cách (metric) được sử dụng để so sánh các điểm dữ liệu, bao gồm Euclidean, Minkowski và Manhattan Weights xác định mức độ ảnh hưởng của các hàng xóm, có thể là đồng đều (uniform) hoặc theo khoảng cách (distance) Trong weights đồng đều, tất cả hàng xóm có trọng số bằng nhau Trong weights theo khoảng cách, hàng xóm gần hơn có trọng số lớn hơn hàng xóm xa hơn.

2.5.4 Tối ưu hóa mô hình Random Forest

Trong thuật toán Random Forest, có rất nhiều tham số ta cần quan tâm Các thông số trong thuật toán này là:

• max_depth: đường đi dài nhất từ gốc đến nút Trong đa số trường hợp, khi độ sâu tối đa của cây tăng lên, hiệu suất mô hình trên tập huấn luyện sẽ tăng liên tục

THỬ NGHIỆM VÀ ĐÁNH GIÁ KẾT QUẢ

Các bước triển khai hệ thống

Hệ thống gồm bốn phần:

• Phần đầu vào (dataset) sẽ được miêu tả trong phần 3.2

• Phần trích xuất đặc trưng: Từ mạng phức đã xây dựng được, các đặc trưng được chọn ra và tính toán

• Phần thuật toán phân loại: Sử dụng các đặc trưng trích xuất được kết hợp với năm thuật toán phân loại ML: SVM, kNN, Random Forest, Logistic Regression, Nạve Bayes để phân loại giữa khối u lành và khối u ác Kết quả của năm thuật toán sẽ được ghi lại và so sánh

• Phần đầu ra: Kết quả phân loại u lành tính và ác tính

Hình 3-1: Tổng quan hệ thống phân loại u lành tính và u ác tính

Tập dữ liệu

3.2.1 Bệnh lý U thần kinh đệm

U thần kinh đệm (tên tiếng anh là Glioma) là khối u xảy ra ở não và tủy sống U thần kinh đệm này bắt nguồn từ các tế bào dính kết hỗ trợ (những tế bào thần kinh đệm) - loại tế bào này bao quanh các dây thần kinh và giúp chúng thực hiện chức năng của mình

Có ba loại tế bào thần kinh đệm gây ra những khối u và được phân loại dựa trên loại tế bào thần kinh đệm có trong khối u Các loại u thần kinh đệm bao gồm:

• Những u tế bào hình sao (astrocytomas): bao gồm những tế bào u tế bào hình sao, u tế bào hình sao không biệt hóa (anaplastic astrocytoma), u nguyên bào thần kinh đệm (glioblastoma)

• Những u màng não thất (ependymomas): bao gồm u màng não thất chưa biệt hóa (anaplastic ependymoma), u màng não thất nhầy nhú (myxopapillary), u dưới màng não thất (subependyoma)

U thần kinh đệm ít nhánh (oligodendrogliomas) là loại u não gồm các u thần kinh đệm ít nhánh, u thần kinh đệm ít nhánh chưa biệt hóa (anaplastic oligodendroglioma) và u hình sao ít nhánh chưa biệt hóa (anaplastic oligoastrocytoma).

U thần kinh đệm sẽ được phân loại thành cấp thấp hoặc cấp cao dựa trên những đánh giá về chúng thông qua kính hiển vi

Theo Tổ chức Y tế Thế giới (WHO), các cấp u thần kinh đệm được phân loại dựa trên loại tế bào phát triển khối u và mức độ hung hăng của chúng biểu hiện dưới kính hiển vi Các nhà bệnh học phân U thần kinh đệm theo thang điểm từ 1 – 4 (I – IV), trong đó khối u cấp 1 phát triển chậm nhất và khối u cấp 4 phát triển nghiêm trọng nhất, cụ thể:

• U thần kinh đệm cấp 1: o Thường phát triển chậm o Hầu như trông bình thường khi quan sát dưới kính hiển vi

U thần kinh đệm cấp 2 có đặc điểm tế bào phát triển tương đối chậm và có thể xâm lấn vào mô bình thường Khi quan sát dưới kính hiển vi, các tế bào này thường có hình thái hơi bất thường Mặc dù ở giai đoạn này, các khối u có tốc độ phát triển chậm nhưng vẫn có khả năng tái phát thành các khối u cấp độ cao hơn, đòi hỏi sự theo dõi và điều trị cẩn thận.

• U thần kinh đệm cấp 3: o Có xu hướng tích cực tái tạo các tế bào bất thường trong não o Trông bất thường khi quan sát dưới kính hiển vi o Xâm lấn vào các mô bình thường liền kề trong não o Khối u thần kinh đệm có xu hướng tái phát ở cấp độ cao hơn

• U thần kinh đệm cấp 4: o Các tế bào bất thường sản sinh nhanh chóng o Trông rất dị thường khi quan sát dưới kính hiển vi o Hình thành nên những mạch máu mới để duy trì sự phát triển của các tế bào o Xuất hiện vùng hoại tử (mô chết) ở giữa khối u

3.2.2 Tập dữ liệu U thần kinh đệm

Trong luận văn này sử dụng tập dữ liệu bao gồm MRI của 230 bệnh nhân u não Đây là tập dữ liệu mở về MRI từ Trung tâm Phân tích & Tính toán Hình ảnh Y sinh, Trường Y Perelman, Đại học Pennsylvania Tập dữ liệu này sau khi được thu thập đã được các chuyên gia tại Trung tâm X quang, Bệnh viện Bạch Mai, Việt Nam kiểm tra kỹ lưỡng về tính chính xác và dán nhãn

Tập dữ liệu gồm 2 class:

• HGG – u thần kinh đệm cấp cao, bao gồm cấp 3, 4, là u rất ác tính, tiên lượng nặng, khả năng xâm lấn mạnh (77 bệnh nhân)

• LGG – u thần kinh đệm cấp thấp, bao gồm cấp 1, 2; là u có xu hướng lành tính, tiên lượng tốt cho bệnh nhân (153 bệnh nhân)

Hình 3-2: Ảnh MRI T2Flair: (a) HGG; (b) LGG Đầu vào của mô hình là ảnh MRI 2D đã được phân đoạn ảnh khối u não (Hình 3-3)

Với 230 bệnh nhân, mỗi bệnh nhân cung cấp một tập ảnh MRI với các chuỗi xung chụp khác nhau Trong luận văn này sử dụng 2 loại ảnh là T2 và T2 Flair để thực hiện trích xuất đặc trưng và phân loại khối u lành tính và ác tính Với mỗi bệnh nhân, ảnh T2 và T2Flair được tiền xử lý (khử nhiễu, resize và phân đoạn) và đánh nhãn những hình ảnh có sự xuất hện của khối u

Tổng số ảnh MRI 2D để đưa vào mô hình là 2.683 ảnh, trong đó, chuỗi xung T2 có 474 ảnh đại diện cho HGG, 953 ảnh đại diện cho LGG; Chuỗi xung T2-FLAIR có 425 hình ảnh hiển thị HGG, 831 hình ảnh hiển thị LGG

Hình 3-3: Ảnh MRI 2D T2Flair được phân đoạn khối u não

Xác định và trích xuất đặc trưng hình ảnh khối u

Từ phương pháp xây dựng mạng phức như trình bày ở phần 2.2 và 2.3 có thể thấy, kích thước cửa sổ càng nhỏ, độ chi tiết về ảnh càng lớn, cũng như cạnh phát hiện được có độ phân giải lớn hơn Tuy nhiên, khi đó thì độ phức tạp về tính toán lại lớn hơn Hơn nữa, như đã đề cập ở trên, những nút mạng nằm trên ranh giới có cấp đạt giá trị lớn nhất là năm Như vậy, để có được độ phân giải tốt, trong luận văn sử dụng cửa sổ kích thước 2 × 2, ngưỡng cường độ bằng 15, ngưỡng entropy bằng 0.1, ngưỡng cấp bằng 8

Việc xây dựng tập dữ liệu đặc trưng có vai trò quan trọng trong quá trình xử lý dữ liệu và học máy Từ dữ liệu thô, ta trích xuất ra các đặc trưng mang đủ thông tin cần thiết mà không dư thừa, giúp cho quá trình tổng quát hóa và các bước học tiếp theo diễn ra hiệu quả hơn Trích xuất đặc trưng chính là công đoạn chuyển dữ liệu thô có nhiều thông tin nhưng chưa được sắp xếp thành dạng có thể phân tích và học được.

Và trong một số trường hợp, nó thậm chí còn giúp giải thích vấn đề tốt hơn Trích xuất đối tượng có liên quan đến việc giảm kích thước dữ liệu Khi dữ liệu đầu vào của một thuật toán quá lớn để có thể xử lý và bị nghi ngờ là dư thừa, nó có thể được chuyển đổi thành các tập con làm giảm kích thước của đối tượng ban đầu (còn được gọi là vectơ khởi tạo)

Trong nghiên cứu trước đây của Lima và cộng sự [1] về xử lý ảnh bằng các mạng phức, các tác giả đã phân tích các đặc điểm cơ bản của đồ thị như cấp của nút, tính trung tâm và liên kết Từ những đặc điểm cơ bản này của đồ thị, hình ảnh đã được tu sửa lại, từ đó đưa ra những đặc điểm cơ bản của hình ảnh Một hình ảnh có thể được mô tả dựa trên các mẫu màu, kết cấu và hình dạng của hình ảnh Đồ thị vô hướng 𝐺 = (𝑉, 𝐸);gồm V là tập các nút khác rỗng và E là tập các cặp phần tử khác nhau không có thứ tự của V được gọi là các cạnh hoặc kết nối giữa hai pixel i và j Các tính năng của đồ thị bao gồm:

• Cấp trung bình (Mean degree): Cấp của một nút cho trước i là số nút nối với nó (các đỉnh lân cận của nó) Cấp trung bình ∅ 𝜇 là tổng số cạnh của đồ thị chia cho số nút của đồ thị

• Đường dẫn trung bình (Average minimum path): Đường dẫn trung bình 𝑙 của mạng là trung bình của các đường dẫn ngắn nhất giữa tất cả các nút trong mạng

Cường độ trung bình của một nút là tổng trọng số của các đường liên kết từ nút đó đến các nút khác trong mạng Giá trị trung bình trung tâm đại diện cho giá trị trung bình của các nút trung tâm, tức là những nút có vai trò quan trọng trên các đường dẫn ngắn nhất của mạng.

• Entropy của đồ thị con: Định lượng tính ngẫu nhiên của đồ thị con 𝐺 ′ được sinh ra trong đồ thị 𝐺

Bản chất trong bài toán xử lý ảnh và trích xuất đặc trưng ảnh là dựa vào giá trị của các pixel ảnh, do đó mô hình hóa vùng khối u là mô hình hóa tập hợp các pixel trong vùng khối u Lý thuyết mạng phức được phân tích ở trên được sử dụng để vẽ tập hợp các pixel trong vùng khối u

Phân tích thành phần chính (PCA) là một thuật toán thống kê sử dụng các phép biến đổi trực giao để chuyển đổi một tập hợp dữ liệu từ không gian nhiều chiều sang không gian mới có chiều thấp hơn nhằm tối ưu hóa việc biểu diễn độ biến thiên của dữ liệu

Khi sử dụng PCA để phân tích 4 đặc trưng trên, để giữ 99% thông tin của tập dữ liệu, 3 trong số đó được chọn là cấp trung bình, cường độ trung bình và entropy của đồ thị con

Trong nghiên cứu này, ba đặc trưng được trích xuất trong vùng ảnh được phân đoạn thông qua mạng phức Công thức về cường độ trung bình và entropy được áp dụng tương tự với vùng ảnh được phân đoạn như là với cửa sổ đã được nêu ở phần 2.1.2 Cấp trung bình được tính toán trên những phần tử của ma trận chung mà những phần tử đó tương ứng với vị trí của pixel nằm trên vùng ảnh được phân đoạn trong ảnh Công thức tính cấp trung bình như sau:

Trong đó, 𝑝 là nút trong ma trận chung, deg(𝑝) là giá trị cấp của nút đó, 𝑃 là số nút tương ứng với số pixel nằm trên vùng ảnh được phân đoạn

Các đặc trưng trích xuất được nhập vào 5 thuật toán phân loại: SVM, RFs, LR, NB và kNN Dữ liệu được chia theo tỷ lệ 6:2:2 (đào tạo:xác thực:kiểm tra), tương ứng với 1.609 ảnh đào tạo, 536 ảnh xác thực và 538 ảnh kiểm tra.

Tối ưu các mô hình phân loại

Để tối ưu mô hình machine learning, đầu tiên tác giả chọn ra một tập giá trị tương ứng với các siêu tham số khác nhau, sau đó tìm ra một bộ giá trị các siêu tham số sao cho hiệu suất đạt được là lớn nhất Các tập giá trị đối với năm thuật toán như sau:

Các Hai phương pháp tìm kiếm bộ giá trị này chính thường được sử dụng: Grid Search và Random Search

• Với Grid Search, giả dụ giá trị của 2 parameter lần lượt từ 0-9 Grid Search sẽ lần lượt ghép từng giá trị của param 1 với param 2 để tính toán độ chính xác của model Đảm bảo không bỏ sót cặp parameter nào o Ưu điểm: Diệt nhầm còn hơn bỏ sót, nên thường được ưu tiên lựa chọn o Nhược điểm: Tuy nhiên đối với các model cần thiết lập nhiều parameter và nhiều giá trị thì việc tunning sẽ mất rất nhiều thời gian, hàng giờ, vài giờ thậm chỉ có thể tính bằng ngày

• Còn với Random Search, đúng như tên gọi, từ những giá trị parameter bạn setting, Random Search sẽ chọn ngẫu nhiên các cặp parameter để tiến hành độ chính xác của model o Ưu điểm: Random nên sẽ không chạy đủ các trường hợp như Grid Search nên sẽ nhanh hơn đáng kể o Nhược điểm: Rất dễ bị trường hợp bỏ qua hyper parameter nhất, đôi khi không tìm được các hyper parameter tối ưu như Grid Search

Trong nghiên cứu này, áp dụng phương pháp Grid Search điều chỉnh siêu tham số của mô hình với năm thuật toán khác nhau, bao gồm sau:

Kết quả

3.5.1 Kết quả bài toán phân loại

Trong thực tế, đối với chuyên khoa chẩn đoán hình ảnh để phân biệt khối u lành và u ác, các bác sỹ chủ yếu sử dụng ảnh T2 và T2 Flair trong khi các loại ảnh MRI chuỗi xung khác có thể coi là phụ trợ Do đó, trong luận văn này chỉ sử dụng hai loại chuỗi xung T2, T2-Flair để khảo sát Kết quả thực hiện của 5 thuật toán với phương pháp đề xuất được đánh giá thông qua bộ 5 chỉ số bao gồm AUC hay đường cong ROC của k- fold cross validation, accuracy, f1-score, precision, recall Các kết quả đạt được được trình bày trong Bảng 3-1 và Hình 3-4

Bảng 3-1 trình bày độ chính xác phân loại của năm thuật toán phân loại: SVM, kNN, Random Forest, Logistic Regression, Nạve Bayes Các thuật tốn phân loại đều cho kết quả với độ chính xác trên 96% So sánh việc phân loại ảnh trong nghiên cứu này với phân loại ảnh y tế nói chung, đây là kết quả có độ tin cậy tốt và có thể ứng dụng trong thực tế Ảnh MRI não với xung T2 cho kết quả như sau: 𝑎𝑐𝑐𝑢𝑟𝑎𝑐𝑦 cao nhất là 99,84%, 𝑝𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 là cao nhất là 99,93%, 𝑟𝑒𝑐𝑎𝑙𝑙 cao nhất là 100% và 𝐹1 − 𝑠𝑐𝑜𝑟𝑒 cao nhất là 99,96% Với ảnh MRI não xung T2-FLAIR, kết quả thu được như sau: 𝑎𝑐𝑐𝑢𝑟𝑎𝑐𝑦 cao nhất là 99,69%, 𝑝𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 là cao nhất là 100%, 𝑟𝑒𝑐𝑎𝑙𝑙 cao nhất là 99,89% và 𝐹1 − 𝑠𝑐𝑜𝑟𝑒 cao nhất là 99,80%

Hình 3-4 vẽ kết quả của đường cong ROC sau khi huấn luyện 5 thuật toán phân loại trích xuất khi sử dụng mạng phức Các đường cong ROC cho kết quả phân loại tốt, tất cả đều cho kết quả AUC > 0,95

Bảng 3-1: Kết quả các chỉ số đánh giá của 5 thuật toán ML

Hình 3-4: Đường cong ROC trên hai loại chuỗi xung FLAIR, T2 của năm thuật toán

(a) SVM (b)kNN (c) Random Forest (d) Logistic Regression (e) Nạve Bayes

Khi so sánh kết quả giữa các thuật toán phân loại, thuật toán phân loại Logistic Regression (LR) cho kết quả 𝑎𝑐𝑐𝑢𝑟𝑎𝑐𝑦 tốt nhất là 99,84%, tiếp theo là thuật toán Random Forest, kNN, Nạve Bayes và SVM với kết quả lần lượt là 99,71%, 98,84%, 98,55% và 99,69% Đặc biệt đối với chỉ số 𝐹1 − 𝑠𝑐𝑜𝑟𝑒, thuật toán phân loại Logistic Regression cho 𝐹1 − 𝑠𝑐𝑜𝑟𝑒 cao nhất là 99,96% Từ kết quả này cho thấy, thuật toán phân loại Logistic Regression là thuật toán phù hợp nhất với đặc trưng trích xuất được từ phương pháp đề xuất.

Đánh giá

Để đánh giá hiệu quả của bộ đặc trưng trích xuất được từ mô hình đề xuất, thực hiện so sánh kết quả với các nghiên cứu gần đây mà tác giả thu thập, tham khảo trong quá trình làm luận văn này

Tất cả các nghiên cứu trước đây mà tôi thu thập đều sử dụng các thuật toán phân loại truyền thống SVM, kNN, Random Forest, Logistic Regression, Nạve Bayes, vì vậy tơi so sánh độ chính xác của kết quả thu được trong luận văn này với kết quả của các nghiên cứu trước đó Kết quả so sánh cụ thể được trình bày ở

Bảng 3-2 Rõ ràng, dễ dàng nhận thấy độ chính xác đạt được trong luận văn này đối với tất cả các phương pháp phân loại đều cao hơn nhiều so với các nghiên cứu trước đây Khi xem xét khía cạnh ứng dụng mạng phức, Han et al [24] cũng sử dụng các mạng phức tạp kết hợp với kỹ thuật biến đổi sóng con để trích xuất các đặc điểm của khối u và vùng viêm trong não người trên MRI Trong nghiên cứu đó, các tác giả đã phải sử dụng bốn đặc trưng, trong đó có ba đặc trưng được lấy từ mạng phức tạp Tuy không cùng mục đích nhưng có thể thấy trong bài báo này, với phương pháp cửa sổ chồng lấp, nghiên cứu chỉ cần sử dụng ba đặc trưng thu được từ mạng phức hợp Chỉ với 3 đặc điểm đó, các thuật toán machine learning cơ bản như SVM, kNN, Random Forest, Logistic Regression, Nạve Bayes đều cĩ đủ thơng tin để cĩ thể phân loại các khối u lành tính và ác tính với độ chính xác cao

Bảng 3-3 so sánh độ chính xác và số lượng đặc điểm được sử dụng trong các nghiên cứu trước và nghiên cứu này Các thuật toán phân loại trước đây đạt độ chính xác cao nhờ sử dụng nhiều đặc điểm phân loại Nghiên cứu này khắc phục nhược điểm đó bằng cách chỉ sử dụng 3 đặc điểm là DenseNet-169, ShuffleNet V2 và MnasNet Đây là những đặc điểm sâu (deep features) hàng đầu được trích xuất từ 13 mô hình CNN đã được đào tạo trước Việc sử dụng 3 đặc điểm cơ bản này giúp giảm độ phức tạp tính toán trong nghiên cứu này so với nghiên cứu của Kang và cộng sự.

Bảng 3-2: So sánh độ chính xác với thuật toán phân loại tương tự

Thuật toán phân loại Nghiên cứu công bố Accuracy cao nhất (%)

Khi xem xét khía cạnh ứng dụng mạng phức, Han et al [24] cũng sử dụng các mạng phức tạp kết hợp với kỹ thuật biến đổi sóng con để trích xuất các đặc điểm của khối u và vùng viêm trong não người trên MRI Trong nghiên cứu đó, các tác giả đã phải sử dụng bốn đặc trưng, trong đó có ba đặc trưng được lấy từ mạng phức tạp Tuy không cùng mục đích nhưng có thể thấy trong bài báo này, với phương pháp cửa sổ chồng lấp, nghiên cứu chỉ cần sử dụng ba đặc trưng thu được từ mạng phức hợp Chỉ với 3 đặc điểm đó, các thuật toán machine learning cơ bản như SVM, kNN, Random Forest, Logistic Regression, Nạve Bayes đều cĩ đủ thơng tin để cĩ thể phân loại các khối u lành tính và ác tính với độ chính xác cao

Bảng 3-3: So sánh tương quan độ chính xác và số lượng đặc trưng sử dụng

Nghiên cứu Phương pháp trích xuất đặc trưng

Số lượng đặc trưng sử dụng

Sarkar et al [3] Genetic algorithm 13 features 98.30

Hamid et al [4] GLCM 5 features 95.00

Ansari et al [5] GLCM and DWT 12 features 98.91

Li et al [6] Gabor transform, texture, and DWT 80 best-ranked features 88.00

Alves et al [7] Genetic algorithm, GLCM,

GLRL, and DWT 5 best-ranked features 82.70

Kang et al [2] CNN Top-3 deep features 98.50

Jena et al [8] Genetic algorithm, GLCM,

Nanmaran et al [9] Discrete cosine transform 6 features 96.80 Susanto et al [10] GLCM and DWT 16 features 98.65

Aamir et al [11] Multiple deep neural networks Deep features 98.98

Han et al [24] Complex network + wavelet transform 4 features 93.06

Nghiên cứu này Complex network 3 features 99.84

Ngày đăng: 21/09/2024, 10:48