Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống
1
/ 13 trang
THÔNG TIN TÀI LIỆU
Thông tin cơ bản
Định dạng
Số trang
13
Dung lượng
496,5 KB
Nội dung
MÔHÌNHMARKOVẨN 5.1Giới thiệu MôhìnhMarkovẩn là môhình thống kê trong đó hệ thống được môhình hóa được cho là một quá trình Markov với các tham số không biết trước và nhiệm vụ là xác định các tham số ẩn từ các tham số quan sát được. Các tham số của môhình được rút ra sau đó có thể được sử dụng để thực hiện các phân tích kế tiếp, ví dụ ứng dụng cho nhận dạng mẫu. Trong một môhìnhMarkov điển hình, trạng thái được quan sát được từ người quan sát, vì vậy các xác suất chuyển tiếp trạng thái là các tham số duy nhất. MôhìnhMarkovẩn thêm vào các đầu ra: mỗi trạng thái có xác suất phân bổ trên các biểu hiện có thể. Vì vậy, nhìn vào dãy các biểu hiện được sinh ra bởi HMM không trực tiếp chỉ ra dãy các trạng thái. Chú ý: Quá trình Markov Trong lí thuyết xác suất, quá trình Markov là một quá trình mang tính ngẫu nhiên (stochastic process) với đặc tính như sau: trạng thái c k tại thời điểm k là một giá trị trong tập hữu hạn {1,…,M}. Với giả thiết rằng quá trình chỉ diễn ra từ thời điểm 0 đến thời điểm N và rằng trạng thái đầu tiên và trạng thái cuối cùng đã biết, chuỗi trạng thái sẽ được biểu diễn bởi 1 vecto hữu hạn C={c 0 , …,c N }. Nếu P(c k | c 0 ,c 1 , .,c (k − 1) ) biểu diễn xác suất (khả năng xảy ra) của trạng thái c k tại thời điểm k khi đã qua mọi trạng thái cho đến (k-1). Giả sử trong thời điểm đó c k chỉ phụ thuộc vào trạng thái trước đó c k-1 và độc lập với các trạng thái trước khác. Quá trình đó gọi là quá trình Markov bậc một(first order Markov process). Có nghĩa là xác suất để xảy ra trạng thái c k tại thời điểm k, khi biết trước mọi trạng thái cho đến thời điểm k-1 chỉ phụ thuộc vào trạng thái trước, ví dụ trạng thái ck-1 tại thời điểm k-1. Khi đó ta có công thức: P(c k | c 0 ,c 1 , .,c (k − 1) )= P(c k | c (k − 1) ) Nói tóm lại một hệ có thuộc tính Markov được gọi là quá trình Markov (bậc1). Như vậy, với quá trình Markov bậc n: P(c k | c 0 ,c 1 , .,c (k − 1) )= P(c k | c k-n ,c k-n-1 ,…,c (k − 1) ) Nói chung với giả thuật Viterbi quá trình xảy ra bên dưới được xem là một quá trình Markov: • Trạng thái hữu hạn nghĩa là số m là hữu hạn • Thời gian rời rạc, nghĩa là việc chuyển từ trạng thái này sang trạng thái khác cùng mất một đơn vị thời gian. • Quan sát không tốn bộ nhớ, nghĩa là chuỗi các quan sát có xác suất chỉ phụ thuộc vào trạng thái ngay trước đó (nên không cần lưu bộ nhớ nhiều). 5.2Trình bày vấn đề • Phương pháp tiếp cận lí thuyết thông tin về nhận dạng Hình 1 o Nhận dạng là tìm cách xác định được khả năng xảy ra lớn nhất của chuỗi ngôn ngữ,W, khi cho trước căn cứ âm A, Công thức: )/(max)/( AWPAWP W = ∧ • Theo luật Bayes: )( )()/( )/( AP WPWAP AWP = • Môhình HMM quan tâm đến P(W|A) • Kí hiệu: A O W λ P(A/W) P(O/ λ ) • Ví dụ1: Hình 5.2 o Xét 3 chén, mỗi chén trộn giữa các các “đá trạng thái” 1 và 2. o Phân nhỏ chén thứ i thành 2 phần tỉ lệ a i1 , a i2 , khi đó a i1 + a i2 =1. o Xét 2 bình, mỗi bình chứa các quả bóng đen, bóng trắng. o Chia bình thứ i thành 2 phần tỉ lệ b iB , b iW , với o b iB + b iW =1 o Vecto tham số cho môhình này là: λ = {a 01 ,a 02 ,a 11 ,a 12 ,a 21 ,a 22 ,b 1 (B),b 1 (W ),b 2 (B),b 2 (W )} Hình 5.3 Chuỗi quan sát : O={B,W,B,W,W,B} Chuỗi trạng thái: Q={1,1,2,1,2,1} Mục đích: cho môhình λ và chuỗi quan sát O, có thể làm thể nào để chuỗi trạng thái Q được xác định. • Các yếu tố của môhìnhMarkovẩn rời rạc o N : số trạng thái trong môhình Các trạng thái, s= {s 1 ,s 2 ,…,s N } Trạng thái ở thời điểm t, q t ∈ s o M: số kí hiệu quan sát (quan sát rời rạc) Tập các kí hiệu quan sát v={v 1 ,v 2 ,…,v M } Kí hiệu quan sát ở thời điểm t, o t ∈ v o A= {a ij }: tập phân phối xác suất chuyển trạng thái a ij = P(q t+1 = s j |q t = s i ), 1 ≤ i,j ≤ N o B = {b j (k)}: phân bổ xác suất kí hiệu quan sát ở trạng thái j: b j (k)= P(v k a t t|q t = s j ), 1 ≤ j ≤ N, 1 ≤ k ≤ M o π = {π i }: phân bổ xác suất trạng thái khởi đầu π i = P(q 1 = s i ), 1 ≤ i ≤ N Một môhình HMM được viết dưới dạng đặc trưng λ = {A, B,π} • ví dụ 2: o π={a 01 ,a 02 } A= 2221 1211 aa aa và B= )()( )()( 22 11 WbBb WbBb o Sơ đồ trạng thái • Một số môhình thông dụng Hình 5.4a: Môhình 2 –state và 3-state Hình 5.4b:Mô hình Left – Righ Hình 5.4c:Mô hình Bakis Hình 5.4d: Môhình Tuyến tính • Tạo chuỗi quan sát trong HMM o Lựa chọn một trạng thái khởi đầu, q 1 =s i , dựa trên phân bổ trạng thái khởi đầu, π. o Cho t chạy từ 1 T: Chọn o t =v k theo sự phân bổ xác suất kí hiệu trong trạng thái s i , b i (k). Chuyển tiếp đến trạng thái mới q t+1 =s j theo sự phân bổ xác suất sự chuyển tiếp trạng thái cho trạng thái s i , a ij . o Tăng t lên 1, quay lại bước 2 nếu t≤T; ngược lại thì kết thúc. Hình 5.5: Sự tiến hóa của môhìnhMarkov • Biểu diễn sơ đồ trạng thái bằng sơ đồ mắt lưới(trellis) Hình 5.6:( Những nét đứt thể hiện một sự chuyển tiếp trạng thái bằng 0, nơi mà không có vecto quan sát nào được tạo ra.) • 3 vấn đề cơ bản của HMM o Tính điểm (Scoring) : cho một chuỗi quan sát O = {o 1 ,o 2 , .,o T } và một môhình λ = {A, B,π}, làm thế nào chúng ta có thể tính toán xác suất có điều kiện P(O | λ) (khả năng xảy ra của chuỗi quan sát)? Dùng thuật toán tiến lùi (the forward-backwark algorithm) o So khớp (Matching): cho một chuỗi quan sát O = {o 1 ,o 2 , .,o T }, làm thế nào chúng ra có thể lựa chọn chuỗi trạng thái Q = {q 1 ,q 2 , .,q T } để nó tối ưu theo một số hướng. thuật toán Viterbi o Huấn luyện (Training): làm thế nào chúng ta có thể điều chỉnh các tham số của môhình λ = {A,B,π} để đạt được P(O | λ) lớn nhất? Thủ tục Baum-Wetch • Tính toán P(O|λ) P(O|λ)= ∑ allQ QOP )|,( λ P(O, Q |λ)= P(O|Q ,λ)P(Q |λ) o Xét chuỗi trạng thái cố định Q = q 1 q 2 .q T P(O|Q ,λ)= b q1 (o 1 )b q2 (o 2 ) .b qT (o T ) P(Q |λ)= π q1 a q1q2 a q2q3 .a qT −1 qT Vì vậy: P(O|λ)= ∑ Π qT, ., q2q1, T12221111 ) (o b .a )(ob )a(ob qT qTqT -q qqqq Số phép tính cấn làm ≈ 2T.N T (có N T chuỗi như vậy) Ví dụ: N=5, T=100 2.100.5 100 ≈ 10 72 phép tính. 5.3 Thuật toán tiến – thuật toán lùi: • Toán tử tiến α t (t) là xác suất chuỗi quan sát từng phần tiến đến thời điểm t và trạng thái s i ở thời điểm t với điều kiện môhình đã cho: α t (i)= P(o 1 o 2 .o t ,q t = s i |λ) • Dễ dàng thấy rằng: α 1 (i)= π i b i (o 1 ), 1 ≤ i ≤ N P(O|λ)= ∑ = N 1i (i) T α • Theo phương pháp quy nạp α t+1 (j)=[ ∑ = N i t 1 ij a (i) α ] b j (o t+1 ), 1≤ t≤ T-1, 1 ≤ j ≤ N Số phép tính: N 2 T. Ví dụ: N=5,T=100, 5 2 .100 phép tính,( thay vì 10 72 ) • Diễn tả thuật toán tiến: Hình 5.7 • Thuật toán lùi: o Tương tự để xác định toán tử lùi, β t (i), khi khả năng xảy ra của chuỗi quan sát cục bộ từ thời điểm t+1 đến kết thúc, biết trước trạng thái s i ở thời điểm t và với điều kiện môhình đã cho β t (i)= P(o t+1 o t+2 .o T |q t = s i ,λ) o Có thể dễ dàng nhận ra rằng β T (i)=1, 1 ≤ i ≤ N và P(O|λ)= ∑ = Π N 1i 11ii (i))ß(ob o Theo phương pháp quy nạp β t (i)= ∑ = N 1j 1+t1+tj (j))ß(oba ij (t=T−1,T−2, .,1; 1 ≤ i≤N) • Diễn tả thủ tục lùi: Hình 5.8 • Tìm chuỗi trạng thái tối ưu: + Một tiêu chuẩn để lựa chọn trạng thái tối ưu q t là cực đại hóa số trạng thái đúng. + Toán tử )(i t γ là xác suất của hệ thống ở trạng thái s i tại thời điểm t, với điều kiện cho chuỗi quan sát O và môhình λ đã cho: ),|()( λγ OsqPi it == ∑ = = N t t i 1 1)( γ , t ∀ + Chú ý rằng nó có thể biểu diễn dưới dạng sau )|( )()( )( λ βα γ OP ii i tt t = + Tuy nhiên với tiêu chuẩn tối ưu riêng phần thì xảy ra vấn đề là chuỗi trạng thái tối ưu có thể không tuân theo những ràng buộc chuyển tiếp trạng thái. + Một tiêu chuẩn tối ưu khác là cực đại hóa P(Q,O| λ ). Điều này có thể tìm thấy bằng thuật toán Viterbi. + Với )(i t δ là xác suất xảy ra cao nhất trên một đường dẫn tính với t lần quan sát đầu tiên: )| .,,, .,,(max)( 211121 , .,, 121 λδ ttt qqq t ooosqqqqPi t == − − + Theo phương pháp quy nạp: )(])([max)( 11 ++ = tiijt i t obaii δδ + Để thu được chuỗi trạng thái, ta cần theo dõi chuỗi trạng thái mà cho đường dẫn tốt nhất ở thời điểm t đến trạng thái s i . Chúng ta thực hiện điều này trong một mảng )(i t ψ . 5.4Thuật toán Viterbi + Khởi đầu: )()( 1 iii obi πδ = 0)( 1 = i ψ + Đệ quy: Ttobaiij tjjt Ni t ≤≤= − ≤≤ 2),(])([max)( 1 1 δδ Ttaij ijt Ni t ≤≤= − ≤≤ 2],)([maxarg)( 1 1 δψ + Kết thúc: )]([max 1 * iP T Ni δ ≤≤ = )]([maxarg 1 * i T Ni T q δ ≤≤ = + Quay lui tìm đường dẫn( chuỗi trạng thái) tối ưu 1, .,2,1),( * 1 1 * −−== + + tTt qq t t T ψ + Số phép tính TN 2 ≈ + Ví dụ thuật toán Viterbi: Hình 5.9 + Ví dụ thuật toán Viterbi(tt) [...]... Baum-Welch Hình 5.12 • Các biểu thức ước lượng lại với thuật toán Baum-Welch o π = γ1 (i ) T −1 o a ij = ∑ξ (i, j ) t =1 T −1 ∑γ (i) t =1 T o b ij = t t ∑γ ( j ) t = ,ot =vk 1 T t ∑γ ( j ) t= 1 t ( • Nếu λ( A, B, π) là mô hình gốc và λ A, B, π) là mô hình ước lượng lại, khi đó ta có thể chứng minh: o Môhình gốc λ xác định điểm tới hạn của hàm có khả năng xảy ra, trong trường hợp λ = λ Hoặc: o Mô hình λ... hợp hơn λ trong điều kiện P (O | λ) > P (O | λ) • Chúng ta có thể tăng xác suất chuỗi quan sát O mà đã quan sát được từ môhình nếu sử dụng lặp lại λ trong không gian λ và lặp lại việc ước lượng lại cho đến khi một số điểm tới hạn đạt được Môhình kết quả thu được gọi là mô hìnhMarkovẩn có khả năng xảy ra lớn nhất .. .Hình 5.10 + Ví dụ so khớp sử dụng thuật toán tiến-lùi: Hình 5.11 5.5 Ước lượng lại với thuật toán Baum-Welch ° Ước lượng lại với thuật toán Baum-Welch sử dụng EM để xác định tham số ML ° Xét toán tử ξ t (i ) là xác suất của hệ thống ở trạng thái i tại thời điểm t và trạng thái j tại thời điểm t+1 với điều kiện có chuỗi quan sát O và mô hìnhMarkovẩn λ ξt (i, j ) = P(qt . thái • Một số mô hình thông dụng Hình 5.4a: Mô hình 2 –state và 3-state Hình 5.4b :Mô hình Left – Righ Hình 5.4c :Mô hình Bakis Hình 5.4d: Mô hình Tuyến tính. MÔ HÌNH MARKOV ẨN 5.1Giới thiệu Mô hình Markov ẩn là mô hình thống kê trong đó hệ thống được mô hình hóa được cho là một quá trình Markov với