Thay vì ở bước khởi tạo của thuật toán EM/MPM, ảnh trường nhãn X sẽ được ước lượng tham số ban đầu và gán nhãn ngẫu nhiên cho tất cả điểm ảnh pixel thì trong phương pháp của đề tài, nó sẽ được gán nhãn ban đầu thông qua thuật toán PSO Đầu tiên, ảnh đầu vào của đề tài là ảnh MRI 2 chiều (xem Hình 3.1) biểu diễn dưới dạng ma trận là Y = {Y1,Y2,…,YN} có kích cỡ 200*200 điểm ảnh nghĩa là có tất cả 40.000 pixel (N =40. 000). Cho X={X1,X2,…,XN} là một tập các biến ngẫu nhiên trong ma trận Y; mỗi biến ngẫu nhiên nhận một giá trị trong không gian rời rạc
35
i={1,2,…,L} với L là số lớp mà chúng ta cần phân vùng. Chúng được thực hiện thông qua thuật toán PSO với các tham số. Sau thuật toán PSO, ta thu được ảnh gán nhãn XPSO = (x1, x2,…, xN) và các tham số 2 2
1 1
[ , ,..., L, L]
của từng phân vùng. Tiếp theo, đề tài sẽ sử dụng chúng ở bước khởi tạo giá trị và ước lượng tham số ban đầu của thuật toán EM/MPM. Sau đó, thuật toán EM/MPM sẽ thực hiện tính toán toán các tham số mô hình và gán nhãn các phân vùng, cuối cùng ta thu được các phân vùng kết quả đề tài. Sau đây sẽ trình bày từng bước thuật toán và phương pháp xử lý trên ảnh của đề tài.
3.2 Phương pháp PSO (Particle Swarm Optimization - Tối ưu hóa theo nhóm
bầy)
3.2.1 Giới thiệu
Tối ưu hóa theo nhóm bầy là một kỹ thuật tối ưu hóa ngẫu nhiên dựa trên một quần thể được phát triển bởi Eberhart và Kennedy, phỏng theo hành vi của các bầy chim hay các đàn cá. Cũng giống như GA, PSO tìm kiếm giải pháp tối ưu bằng việc cập nhật các thế hệ. Tuy nhiên, không giống như GA, PSO không có các thao tác tiến hóa như là lai ghép hay đột biến. Năm 1987, quan sát quá trình chuyển động của các theo bầy đàn (bầy chim, đàn cá), Reynolds [13] đưa ra nhận ra ba quy luật: Tách biệt, Sắp hàng và Liên kết. Từ nghiên cứu của Renolds, Eberhart và Kennedy [14] đưa thêm giả thuyết về quá trình tìm về tổ của bầy đàn theo các quy luật:
(1) Tất cả các phần tử trong bầy đàn đều có xu hướng chuyển động về tổ (2) Mỗi phần tử đều ghi nhớ vị trí gần tổ nhất nó đã đạt tới
36
Hình 3.2 Giải thuật Particle Swarm Optimization (PSO) [15]
Tương tự như vậy, hai ông đưa giả thuyết về quá trình tìm mồi của bầy đàn trong một vùng không gian mà các phần tử trong bầy đàn đều biết thông tin về thức ăn cách bao xa và lưu giữ vị trí gần thức ăn nhất mà chúng đã đạt tới. Khi đó, cách tốt nhất để tìm thức ăn là theo sau những con phần tử đầu đàn – những con trong bầy gần chỗ thức ăn nhất. Từ đó, hai ông đề xuất thuật toán PSO phỏng theo kịch bản này và sử dụng nó để giải các bài toán tối ưu. Trong PSO, mỗi giải pháp đơn là một phần tử (particle) trong kịch bản trên. Mỗi phần tử được đặc trưng bởi hai tham số là vị trí hiện tại của phần tử present và vận tốc v. Đây là hai vectơ trên trường số Rn (n là tham số được xác định từ bài toán cụ thể). Đồng thời mỗi phần tử có một giá trị thích nghi (fitness value), được đánh giá bằng hàm đo độ thích nghi (fitness function). Tại thời điểm xuất phát, bầy đàn, hay chính xác là vị trí của mỗi phần tử được khởi tạo một cách ngẫu nhiên (hoặc theo một cách thức nào dó dựa vào tri thức biết trước về bài toán). Trong quá trình chuyển động, mỗi phần tử chịu ảnh hưởng bởi hai thông tin: thông tin thứ nhất, gọi là PBest, là vị trí tốt nhất mà phần tử đó đã đạt được trong quá khứ; thông tin thứ hai, gọi là GBest, là vị trí tốt nhất mà cả bầy đàn đã đạt được trong quá khứ (xem Hình 3.2).
37
Hình 3.3 Lưu đồ giải thuật PSO [15].
3.2.2 Thuật toán PSO trong phân đoạn ảnh
3.2.2.1 Hệ lân cận và trường ngẫu nhiên Markov áp dụng
Các điểm ảnh được đại diện như là một ma trận S của N=n*m vị trí. S = {s1,s2,…,sN}. Vị trí và điểm ảnh được thể hiện trong ảnh có liên quan với một hệ lân cận S thỏa mãn:
, s, { , } , r s
s S s r s S s r
(3-1)
Trường ngẫu nhiên Markov:
Cho X={X1,X2,…,XN} là một tập các biến ngẫu nhiện trong ma trận S. Mỗi biến ngẫu nhiên nhận một giá trị trong không gian rời rạc i={1,2,…,L}. Tập X là một trường ngẫu nhiên với không gian mẫu LN. Một trường ngẫu nhiên X được xem là một MRF trên S với quan hệ đến một hệ lân cận S khi và chỉ khi:
, ( ) 0
x P x
38
, , ( s s| t t, ) ( s s | t t, S)
s S x P X x X x t s P X x X x t
(3-3)
Định lý Hammersley-Clifford thiết lập tương đương giữa các trường Gibbs và các trường Markov. Các phân phối Gibbs được đặc trưng bởi quan hệ sau đây:
( ) 1 ( ) U x T P x Z e (3-4) ( ) U y T y Z e (3-5)
T là một tham số điều khiển còn được gọi là nhiệt độ; Z là hằng số chuẩn hóa được gọi là hàm phân vùng. U (x) là hàm năng lượng của trường Gibbs định nghĩa là:
( ) c( )
c X
U x U x
(3-6)
U(x) được định nghĩa nhự là tổng tiềm năng trên tất cả clique C.
3.2.2.2 Mô hình trường ngẫu nhiên Markov ẩn
Một mô hình mạnh dùng cho phân đoạn ảnh là xét ảnh cần phân đoạn như là trường ngẫu nhiên Markov Y = {Ys} s ∈ S được xác định trên ma trận S. Biến ngẫu nhiên {Ys}, s ∈ S có giá trị mức xám trong không gian Λobs = {0..255}.
Ảnh được phân đoạn được xem là trường ngẫu nhiên Markov X khác được xác định trên cùng ma trận S, lấy các giá trị trong không gian rời rạc Λ= {1,2, …, L} trong đó L đại diện cho số lượng các lớp hoặc các vùng đồng nhất trong ảnh.
Trong phân đoạn ảnh, có một vấn đề với dữ liệu không đầy đủ. Đối với mọi vị trí i
∈ S được gán thông tin khác nhau: thông tin quan sát thể hiện bằng biến ngẫu nhiên Yi và thông tin bị mất hoặc ẩn thể hiện bởi biến ngẫu nhiên Xi. Các trường ngẫu nhiên X được cho là trường ngẫu nhiên Markov ẩn. Quá trình phân đoạn bao gồm tìm kiếm một giá trị x của X bằng cách quan sát dữ liệu của y đại diện cho ảnh để phân vùng. Hình 3.4 cho thấy ảnh xám MRI và ảnh được phân đoạn tương ứng với bốn lớp (WM, GM, CSF và background).
39