Giáo trình: Lý thuyết thông tin.H(X) = H(p1 , p 2 ,..., p M ) = −∑ pi log 2 ( pi )i ppsx

16 738 3
Giáo trình: Lý thuyết thông tin.H(X) = H(p1 , p 2 ,..., p M ) = −∑ pi log 2 ( pi )i ppsx

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

Thông tin tài liệu

Giáo trình: Lý thuyết thơng tin M H(X) = H(p1 , p , , p M ) = −∑ pi log ( pi ) i =1 Qui ước cách viết: log(pi)= log2(pi) Ví dụ minh họa Nếu kiện A có xác suất xuất 1/2 h(A)=h(1/2)= -log(1/2) = (bit) Xét BNN X có phân phối sau: X P x1 x2 1/2 1/4 x3 1/4 H(X) = H(1/2, 1/4, 1/4) = -(1/2log(1/2)+1/4log(1/4)+1/4log(1/4)) =3/2 (bit) Bài tốn tìm kiếm nhị phân-Đặt vấn đề Giả sử, tìm người có tên biết trước xuất theo phân phối sau: X x1 P 0,2 x2 0,3 x3 0,2 x4 0,15 x5 0,15 Trong đó: x1, …x5 tên người mà ta cần nhận với cách xác định tên câu hỏi sai (yes/no) Sơ đồ minh họa cách xác định tên người: Yes x1 Yes No x2 No Yes x3 X=x1? X=x1/x2? X=x3? Yes x4 No No X=x4? x5 Bài toán tìm kiếm nhị phân - Diễn giải Theo sơ đồ trên: Để tìm x1, x2, x3 với xác suất tương ứng 0.2, 0.3, 0.2 ta cần tốn câu hỏi Để tìm x4, x5 với xác suất tương ứng 0.15, 0.15 ta cần câu hỏi Vậy: Số câu hỏi trung bình là: x (0,2+0,3+0,2) + x (0,15+0,15) = 2.3 Mặt khác: Entropy X: H(X)= H(0.2, 0.3, 0.2, 0.15, 0.15)=2.27 Ta ln có số câu hỏi trung bình ln ≥ H(X) (theo định lý Shannon trình bày sau) Vì số câu hỏi trung bình trường hợp xấp sỉ H(X) nên số câu hỏi trung bình tối ưu để tìm tên xác người Do đó, sơ đồ tìm kiếm sơ đồ tối ưu Biên soạn: TS L ê Quy ết Thắng, ThS Phan Tấn Tài & Ks Dương Văn Hiếu 17 Giáo trình: Lý thuyết thông tin Sinh viên tự cho thêm hay sơ đồ tìm kiếm khác tự diễn giải tương tự - xem tập Bài tập Tính H(X) với phân phối sau: X P x1 x2 1/3 1/3 x3 1/3 Tính H(Y) với phân phối sau: Y P x1 x2 1/6 2/6 x3 1/6 x4 2/6 Biên soạn: TS L ê Quy ết Thắng, ThS Phan Tấn Tài & Ks Dương Văn Hiếu 18 Giáo trình: Lý thuyết thơng tin BÀI 2.2: CÁC TÍNH CHẤT CỦA ENTROPY Mục tiêu: Sau hoàn tất học bạn có thể: - Hiểu tính chất Entropy, - Hiểu định lý cực đại Entropy, - Vận dụng giải số toán Entropy, - Làm sở để vận dụng giải tốn tính dung lượng kênh truyền Các tính chất Entropy Xét biến ngẫu nhiên X = {x1, x2, …, xM} Entropy biến ngẫu nhiên X có tính chất: 1 Hàm số f(M) = H( ,…, ) đơn điệu tăng M M Hàm số f(ML) = f(M)+f(L) H(p1, p2, …, pM) = H(p1 + p2 +…+pr, pr+1+ pr+2+…+ pM) p p + (p1 + p + … + p r )H( r , , r r ) ∑i=1 pi ∑i =1 pi + (p r +1 + p r + + … + p M )H( pr +1 ∑i=r +1 pi M , , pM ∑i=r +1 pi M ) H(p, 1-p) hàm liên tục theo P Minh họa tính chất Minh họa tính chất 1: Trong trường hợp biến ngẫu nhiên X có phân phối Entropy X sau : 1 ⎞ 1 1 1 1 ⎛ H (X ) = H ⎜ , ,L , log − log , , − log = −M log ⎟ = − M ⎠ m M M M M M M M ⎝M M => H(X) = − log = log M hàm đơn điệu tăng M Minh họa tính chất 2: Trong trường hợp biến ngẫu nhiên X, Y độc lập có phân phối với BNN X có M kiện BNN Y có L kiện Gọi f(M), f(L) Entropy X, Y Theo tính chất Entropy ta có f(ML)=f(M)+f(L) Minh họa tính chất Minh họa tính chất 3: Xét xúc sắc có mặt với xác suất xuất mặt cho bảng sau: X P x1 10% x2 20% x3 25% x4 25% x5 15% x6 5% Ta gom kiện x1, x2, x3 lại thành kiện x123 có xác suất xuất 55%, gom kiện x5 x6 lại thành kiện x56 có xác suất 20% Biên soạn: TS L ê Quy ết Thắng, ThS Phan Tấn Tài & Ks Dương Văn Hiếu 19 Giáo trình: Lý thuyết thơng tin Ta nhiến ngẫu nhiên X* có phân phối sau: X* P x123 55% x4 25% X56 20% Đến bạn áp dụng cơng thức để tính, so sánh Entropy nhận xét tính chất Phần xem tập cho sinh viên Minh họa tính chất 4: Để hiểu tính chất thứ 4, ta xét dạng đồ thị hàm số H(p, 1-p ): Rõ ràng H(p, 1-p) hàm liên tục theo p Định lý cực đại entropy Định lý: H(p1, p2, …,pM)≤ log(M) Trong đó: đẳng thức xảy p1=…= pM= 1/M Bổ đề: cho {p1, p2, …,pM} {q1, q2,…,qM} số dương M M i =1 i =1 ∑ pi = ∑ qi M M i =1 i =1 Khi đó, ta có H(p1, p2, …,pM)= − ∑ p i log p i ≤ −∑ p i log q i (*) Đẳng thức xảy pi=qi với ∀i=1, ,M Chứng minh định lý cực đại Entropy Chứng minh bổ đề: Theo tốn học ta ln chứng minh ln(x)≤ x-1 với x>0 đẳng thức x=1 Đặt x= qi/pi Suy ln(qi/pi)≤ qi/pi –1 (và đẳng thức qi=pi với i) M M q ⇔ ∑ pi ln i ≤ ∑ (qi − pi ) = − = pi i =1 i =1 M M i =1 i =1 ⇔ − ∑ pi ln pi ≤ −∑ pi lnqi (đẳng thức xảy qi=pi) Theo tốn học ta có lnx = log2x / log2e M (2) M i =1 (1) i =1 Từ (1) (2), ta có − ∑ p i log pi ≤ −∑ p i logq i (đẳng thức xảy qi=pi.) Chứng minh định lý: Đặt qi , ∀i M Từ bổ đề, ta có: M M i =1 i =1 − ∑ p i log pi ≤ −∑ pi log M = log M ∑ pi = log M M i =1 Biên soạn: TS L ê Quy ết Thắng, ThS Phan Tấn Tài & Ks Dương Văn Hiếu 20 Giáo trình: Lý thuyết thông tin đẳng thức xảy pi= , ∀i (đpcm) M Bài tập Bài 1: Cho biến ngẫu nhiên X, Y độc lập có phân phối sau: X P x1 1/2 x2 1/2 Y P y1 1/4 y2 1/4 y3 1/4 y4 1/4 Tính H(X), H(Y) Bài 2: Kiểm tra lại kết của tính chất Bài 3: Cho biến ngẫu nhiên X có phân phối sau: X P x1 10% x2 20% x3 25% x4 25% x5 15% x6 5% Ta gom kiện x1, x2, x3 lại thành kiện x123 có xác suất xuất 55%, gom kiện x5 x6 lại thành kiện x56 có xác suất 20% Ta nhiến ngẫu nhiên X* có phân phối sau: X* P x123 55% x4 25% x56 20% - Tính entropy X, X* kiểm tra lại tính chất - Kiểm tra lại định lý cực đại từ liệu cho Biên soạn: TS L ê Quy ết Thắng, ThS Phan Tấn Tài & Ks Dương Văn Hiếu 21 Giáo trình: Lý thuyết thông tin BÀI 2.3: ENTROPY CỦA NHIỀU BIẾN Mục tiêu Sau hồn tất học bạn có thể: - Hiểu biết định nghĩa Entropy nhiều biến Entropy có điều kiện, - Hiểu mối quan hệ H(X,Y) với H(X) H(Y) X, Y độc lập, - Hiểu mối quan hệ H(X,Y) với H(X) H(Y) X, Y tương quan, - Vận dụng mối quan hệ gữa Entropy để tính Entropy cách hiệu quả, - Vận dụng Entropy có điều kiện để làm sở tính lượng tin học Định nghĩa Entropy nhiều biến Giả sử: X Y biến ngẫu nhiên cho trước với pịj = p(X=xi,Y=yj) (∀ i=1, ,M j=1,…,L) Khi đó, Entropy H(X,Y) có dạng: M L H(X, Y) = −∑∑ p ( xi , y j ) log p ( xi , y j ) i =1 j =1 Hay M L H(X, Y) = −∑∑ p ij log p ij i =1 j =1 Một cách tổng quát: H(x , …, x n ) = - ∑ p( x , , x n ) log p ( x1 , x , , x n ) X ,L, X n Ví dụ Entropy nhiều biến Cho BNN X Y độc lập có phân phối: X=1 P 0.5 Y P 0.25 0.5 0.5 0.25 Tính H(X,Y) - Lập phân phối P(X,Y) X,Y P(X,Y) X=0,Y=0 0.125 X=0,Y=1 0.25 X=0,Y=2 0.125 X=1,Y=0 0.125 X=1,Y=1 0.25 X=1,Y=2 0.125 - H(X,Y) =H(0.125, 0.25, 0.125, 0.125, 0.25, 0.125)=2.5 (Bit) Định nghĩa Entropy có điều kiện Entropy Y với điều kiện X=xi (i=1, ,M) định nghĩa là: L H (Y / X = xi ) = −∑ p ( y j / xi ) log p ( y j / xi ) j =1 Biên soạn: TS L ê Quy ết Thắng, ThS Phan Tấn Tài & Ks Dương Văn Hiếu 22 Giáo trình: Lý thuyết thơng tin Entropy Y với điều kiện X xảy định nghĩa là: M H (Y / X ) = ∑ p ( xi ) H (Y / X = xi ) i =1 Ví dụ Entropy có điều kiện Xét biến ngẫu nhiên X biến ngẫu nhiên Y có tương quan Các phân phối sau: X P 0.5 0.5 Phân phối Y có điều kiện X: Y/X=1 P 0.25 0.5 0.25 Y/X=2 P 0 Entropy Y/X=1 Y/X=2 sau : H(Y/X=1)=H(0.25, 0.5 , 0.25)= -0.25 log0.25 – 0.5 log0.5-0.25 log0.25 =0.5 + 0.5 + 0.5= 1.5 (Bit) H(Y/X=2)= H(0; 0; 1)= (Bit) Entropy Y X xảy ra: H(Y/X)=P(X=1) H(Y/X=1)+ P(X=2) H(Y/X=2)=(0.5x1.5) + ((0.5x0)=0.75 (Bit) Quan hệ H(X,Y) với H(X) H(Y) X, Y độc lập Định lý 1: H(X,Y)≤ H(X)+H(Y) đẳng thức xảy X, Y độc lập Chứng minh: Ta có: L P ( xi ) = ∑ p ( xi , y j ) j =1 M P ( y i ) = ∑ p ( xi , y j ) i =1 M M L i =1 i =1 j =1 H ( X ) = −∑ p ( xi ) log p ( xi ) = −∑∑ p ( xi , y j ) log p ( xi ) L M L H (Y ) = −∑ p ( y j ) log p ( y j ) = −∑∑ p ( xi , y j ) log p ( y j ) j =1 i =1 j =1 M L ⇒ H ( X ) + H (Y ) = −∑∑ p ( xi , y j )[log p ( xi ) + log p ( y j )] i =1 j =1 M L ⇒ H ( X ) + H (Y ) = −∑∑ p ( xi , y j )[log p ( xi ) p ( y j )] (1) i =1 j =1 Đặt qij =p(xi)p(yj) Biên soạn: TS L ê Quy ết Thắng, ThS Phan Tấn Tài & Ks Dương Văn Hiếu 23 Giáo trình: Lý thuyết thơng tin M L M L ⇒ −∑ ∑ p ij log q ij ≥ −∑∑ p ij log p ij i =1 j = i (2) i =1 j =1 Đẳng thức xảy p(xi, yj)=pij =qij =p(xi)p(yj) hay X , Y độc lập (Theo bổ đề định lý cực đại) Mặt khác: M M L L H ( X , Y ) = −∑∑ p ( xi , y j ) log p ( xi , y j ) = −∑∑ pij log pij i =1 j =1 (3) i =1 j =1 Từ (1), (2) (3), ta có H(X,Y)≤ H(X)+H(Y) đẳng thức xảy X, Y độc lập (đpcm) Hệ quả: H(X1, …, Xn) ≤ H(X1)+…+H(Xn) H(X1,…Xn; Y1,…,Yn) ≤ H(X1,…Xn)+ H(Y1,…,Yn) Quan hệ H(X,Y) với H(X) H(Y) X, Y tương quan Định lý 2: H(X,Y)=H(X)+H(Y/X)=H(Y)+H(X/Y) Định lý 3: H(Y/X)≤ H(Y) Dấu đẳng thức xảy X Y độc lập Chứng minh định lý 2: M L H(X, Y) = - ∑∑ p ( xi , y j ) log p ( xi , y j ) i =1 j =1 M L = - ∑∑ p ( xi , y j ) log [ p ( xi ) p ( y j / xi )] i =1 j =1 M L M L = −∑ ∑ p ( xi , y j ) log p ( xi ) − ∑∑ p ( xi , y j ) log p ( y j / xi ) i =1 j =1 i =1 j =1 = H(X) + H(Y/X) Tương tự ta có: H(X,Y)=H(Y)+H(X/Y) Biên soạn: TS L ê Quy ết Thắng, ThS Phan Tấn Tài & Ks Dương Văn Hiếu 24 Giáo trình: Lý thuyết thơng tin Chứng minh định lý 3: Từ định lý định lý quan hệ Entropy, ta có: H(X,Y)=H(X)+H(Y/X)≤ H(X)+ H(Y) => H(Y/X) ≤ H(Y) H(X) H(Y) H(X/Y) H(Y/X) Sinh viên tự chứng minh Bài tập Xét BNN X BNN Y có tương quan Các phân phối sau: X P 0.5 0.5 Phân phối Y có điều kiện X: Y/X=1 P 0.25 Y/X=2 P 0 0.5 0.25 1 Tính Entropy sau: H(X), H(Y) Tính Entropy có điều kiện sau: H(X/Y), H(Y/X) Tính Entropy sau: H(X,Y) Từ kết câu 1,2 minh họa định lý 1, cho học Biên soạn: TS L ê Quy ết Thắng, ThS Phan Tấn Tài & Ks Dương Văn Hiếu 25 Giáo trình: Lý thuyết thơng tin BÀI 2.4: MINH HỌA CÁC ENTROPY Mục tiêu Sau hoàn tất học bạn có thể: - Biết Yêu cầu toán, - Biết cách xác định phân phối ngẫu nhiên toán, - Vận dụng học trước để tính Entropy H(X), H(Y) H(X,Y), - Vận dụng học trước để tính Entropy có điều kiện H(X/Y) H(Y/X), - Nhận xét so sánh quan hệ Entropy - Ngồi cịn giúp bạn ơn tập hiểu rõ cơng thức tính Entropy u cầu tốn Ta xét ví dụ người tổ chức trò chơi may rủi khách quan với việc tung đồng tiền “có đầu hình – khơng có đầu hình” Nếu người chơi chọn mặt khơng có đầu hình thắng kết tung đồng tiền khơng có đầu hình, nguợc lại thua Tuy nhiên người tổ chức chơi “ăn gian” cách sử dụng đồng tiền “Thật- Giả” khác sau: + Đồng tiền loại (hay đồng tiền thật): đồng chất có mặt có đầu hình + Đồng tiền loại (hay đồng tiền giả ): đồng chất, mặt có đầu hình Mặc dù người tổ chức chơi “ăn gian” q trình trao đổi đồng tiền cho ngẫu nhiêu, liệu người tổ chức chơi “ăn gian” hồn tồn không? Hay lượng tin biết chưa biết kiện lấy đồng tiền từ đồng tiền nói hiểu nào? Ta thử xét trường hợp sau: người tổ chức chơi lấy ngẫu nhiên đồng tiền sau thực việc tung đồng tiền lấy lần Qua lần tung đồng tiền, ta đếm số đầu hình xuất Dựa vào số đầu hình xuất hiện, ta phán đốn người tổ chức chơi lấy đồng tiền Chẳng hạn: Nếu số đầu hình đếm sau lần tưng đồng tiền lấy đồng tiền thật, ngược lại số đầu hình đếm đồng tiền lấy thật giả Như vậy, ta nhận phần thông tin loại đồng tiền qua số đầu hình đếm sau lần tung Ta tính lượng tin bao nhiêu? (Việc tính lượng tin thảo luận sau) Xác định phân phối ngẫu nhiên toán Đặt X biến ngẫu nhiên loại đồng tiền Phân phối X: X P 0.5 0.5 Đặt biến ngẫu nhiên Y số đầu hình đếm sau lần tung: Phân phối Y nhận đồng tiền có mặt có đầu hình (Y/X=1) Y/X=1 P 0.25 0.5 0.25 Biên soạn: TS L ê Quy ết Thắng, ThS Phan Tấn Tài & Ks Dương Văn Hiếu 26 Giáo trình: Lý thuyết thông tin Phân phối Y nhận đồng tiền có mặt có đầu hình (Y/X=2) Y/X=2 P 0 Tìm phân phối Y: P(Y=0) = p(X=1)p(Y=0/X=1)+p(X=2)p(Y=0/X=2) = 0,5 x 0,25 +0,5 x =0.125 P(Y=1) = p(X=1)p(Y=1/X=1)+p(X=2)p(Y=1/X=2) = 0,5 x 0,5 +0,5 x =0.250 P(Y=2) = p(X=1)p(Y=2/X=1)+p(X=2)p(Y=2/X=2) = 0,5 x 0,25 + 0,5 x 1=0.625 Y P 0.125 0.25 0.625 Minh họa Entropy H(X), H(Y) H(X,Y) Entropy X: H(X) = H(0.5, 05) = -(0.5)log(0.5) -(0.5)log(0.5) = (bit) Entropy Y: H(X) = H(0.125, 0.25, 0.625) = -(0.125)log(0.125) + (0.25)log(0.25) + (0.625)log(0.625) = 1.2988 (bit) Entropy X Y: H(X,Y) Xem tập dành cho bạn sinh viên Entropy Y/X trung bình entropy Y/X=xi M Vậy, Entropy Y có điều kiện X: H(Y/X)= ∑ p ( xi ).H (Y / X = xi ) i =1 Tương tự: H(Y,Z/X), H(Z/X,Y) Minh họa Entropy H(X/Y) H(Y/X) Tính Entropy Y biết X: H(Y/X) H(Y/X=1) = H(0.25, 0.5 , 0.25) = -(0.25log0.25 + 0.5log0.5 + 0.25log0.25)= 1.5 (bit) H(Y/X=2)= H(0, 0, 1)= H(Y/X)= p(X=1)H(Y/X=1)+ p(X=2)H(Y/X=2)= 0.5 x 1.5 + 0.5 x 0= 0.75 (bit) Tính Entropy X biết Y: H(X/Y) Xem tập dành cho bạn sinh viên (Gợp ý: bạn nên lập phân phối cho trường hợp (X/Y=0), (X/Y=1) (X/Y=2) Minh họa quan hệ Entropy Xem tập dành cho bạn sinh viên Gợi ý: sau bạn tính H(X,Y) H(X/Y), bạn dựa vào định lý 1,2 với kết tính để so sánh minh họa Biên soạn: TS L ê Quy ết Thắng, ThS Phan Tấn Tài & Ks Dương Văn Hiếu 27 Giáo trình: Lý thuyết thơng tin BAI 2.5: ĐO LƯỢNG TIN (MESURE OF INFORMATION) Mục tiêu Sau hoàn tất học bạn có thể: - Biết tốn tính lượng tin, - Hiểu định nghĩa lượng tin, - Biết cách tính lượng tin, - Có thể vận dụng để tính lượng tin cho tốn tương tự Đặt vấn đề tốn Ta xét ví dụ người tổ chức trò chơi may rủi khách quan với việc tung đồng tiền “có đầu hình – khơng có đầu hình” Nếu người chơi chọn mặt khơng có đầu hình thắng kết tung đồng tiền khơng có đầu hình, nguợc lại thua Tuy nhiên người tổ chức chơi “ăn gian” cách sử dụng đồng tiền “Thật- Giả” khác sau: + Đồng tiền loại (hay đồng tiền thật): đồng chất có mặt có đầu hình + Đồng tiền loại (hay đồng tiền giả ): đồng chất, mặt có đầu hình Mặc dù người tổ chơi “ăn gian” q trình trao đổi đồng tiền cho ngẫu nhiêu, liệu người tổ chức chơi “ăn gian” hồn tồn khơng? Ta thử xét trường hợp sau: người chơi lấy ngẫu nhiên đồng tiền sau thực việc tung đồng tiền lấy lần Qua lần tung đồng tiền, ta đếm số đầu hình xuất Dựa vào số đầu hình xuất hiện, tính lượng tin loại đồng tiền lấy bao nhiêu? Xác định phân phối toán Đặt biến ngẫu nhiên X loại đồng tiền, phân phối X có dạng : X P 0.5 0.5 Đặt biến ngẫu nhiên Y số đầu hình đếm sau lần tung Khi ta xác định phân phối Y trường hợp sau Trường hợp 1: Phân phối Y biết đồng tiền thật (X=1) có dạng: Y/X=1 P 0.25 0.5 0.25 Trường hợp 2: Phân phối Y biết đồng tiền giả (X=2) có dạng: Y/X=2 P 0 Ta tính dễ dàng phân phối Y sau: Y P 0.125 0.25 0.625 Nhận xét dựa theo entropy Từ bảng phân phối trên, ta có: Biên soạn: TS L ê Quy ết Thắng, ThS Phan Tấn Tài & Ks Dương Văn Hiếu 28 Giáo trình: Lý thuyết thơng tin Entropy Y: H(Y) = H(0.125, 0.25, 0.625) = 1.3 (bit) Entropy Y biết X H(Y/X=1) = H(0.25, 0.5 , 0.25)= 1.5 (bit) H(Y/X=2)= H(0, 0, 1)= H(Y/X)= p(X=1)H(Y/X=1)+ p(X=2)H(Y/X=2) = 0.75 (bit) Vậy, H(Y) > H(Y/X) Định nghĩa lượng tin Từ nhận xét quan hệ entropy trên, ta định nghĩa lượng tin sau: Định nghĩa: Lượng tin (hay thông lượng) X Y xảy lượng chênh lệch lượng không chắn X lượng không chắn X Y xảy có quan hệ với X Ta hiểu khái niệm sau: X Y biến ngẫu nhiên nên chúng có lượng tin không chắn Nếu X Y độc lập, X xảy khơng ảnh hưởng tới Y nên ta khơng biết thêm X X giữ ngun lượng khơng chắn Trong trường hợp lượng tin X Y xảy Nếu Y có tương quan với X Y xảy ta biết hồn tồn Y phần thơng tin X Phần thơng tin lượng tin biết X chưa biết hết X Bài tốn tính lượng tin biết X Y xảy Ký hiệu: I(X/Y) = H(X)-H(X/Y) lượng tin biết X Y xảy Chú ý: ta ln có I(X/Y) = I(Y/X) Ví dụ: xét lại ví dụ trên, ta có lượng tin X biết Y I(X/Y)= I(Y/X)= H(Y) – H(Y/X) = 1.3 – 0.75=0.55 (bit) Bài tập Thực phép thử xúc sắc đồng chất đồng thời với đồng tiền đồng chất Trong đó, xúc sắc có mặt điểm từ đến 6, đồng tiền mặt có đầu hình mặt khơng có đầu hình Trước tiên thử xúc sắc, số điểm ≤ tung đồng tiền lần, ngược lại tung đồng tiền hai lần Tính lượng tin số điểm xúc sắc biết thơng tin số đầu hình đếm Người ta thực khảo sát sinh viên đại học mối quan hệ khả học tập với sở hữu phương tiện lại tinh thần hữu Kết cho thấy: Trong tổng số sinh viên có 3/4 sinh viên hồn thành chương trình học 1/4 khơng hồn thành Trong số sinh viên hồn thành chương trình học, 10% có xe Ngược lại, số sinh viên khơng hồn thành chương trình học có tới 50% có xe Tất sinh viên có xe tham gia hội hữu sinh viên Trong số sinh viên khơng có xe (kể hồn thành hay khơng hồn thành khóa học) 40% sinh viên tham gia hội hữu sinh viên a Tìm thơng tin trạng thái học tập sinh viên biết điều kiện phương tiện lại họ b Tìm thơng tin tình trạng học tập sinh viên biết tinh thần hữu họ Biên soạn: TS L ê Quy ết Thắng, ThS Phan Tấn Tài & Ks Dương Văn Hiếu 29 Giáo trình: Lý thuyết thơng tin Những người dân làng chia làm nhóm A B Một nửa nhóm A chuyên nói thật, 3/10 nói dối 2/10 từ trối trả lời Trong nhóm B: 3/10 nói thật, 1/2 nói dối 2/10 từ trối trả lời Giả sử p xác suất chọn người thuộc nhóm A I(p) = I(Y/X) lượng tin người nói thật sau chọn nhóm, tính I(p), tìm p* I(p*) = Max(I(p) tính I(p*) Biên soạn: TS L ê Quy ết Thắng, ThS Phan Tấn Tài & Ks Dương Văn Hiếu 30 Giáo trình: Lý thuyết thơng tin CHƯƠNG 3: SINH MÃ TÁCH ĐƯỢC (Decypherable Coding) Mục tiêu: Phân đề cập đến tốn mã hóa (coding) giá trị biến X Khi mã giá trị X người ta phải sử dụng bảng ký tự mã (Coding Character Table) hay bảng chữ (Code Alphabet) Như vậy, giá trị x X mã thành từ mã (Code Word) w dạng dãy ký tự mã với độ dài n ký tự Trong truyền tin, dãy giá trị X phát sinh mã thành dãy liên tục từ mã hay dãy ký tự mã lấy từ bảng ký tự mã Vấn đề cần giải là: Khi nhận dãy ký tự mã liên tục ta giải mã thành dãy giá trị X hay khơng ? Nói cách khác, dãy ký tự mã có tách thành từ mã cách hay không ? Chỉ phương pháp xây dựng mã tách tối ưu BÀI 3.1: KHÁI NIỆM VỀ MÃ TÁCH ĐƯỢC Mục tiêu Sau hồn tất học bạn có thể: - Biết yêu cầu toán sinh mã, - Hiểu khái niệm bảng mã tách bảng mã không tách được, - Hiểu khái niệm bảng mã tức thời, - Hiểu giải thuật kiểm tra tính tách bảng mã, - Vận dụng giải thuật kiểm tra tính tách bảng mã để kiểm tra xem bảng mã có phải bảng mã tách hay không Đặt vấn đề toán sinh mã Giả sử nguồn tin X xuất ghi lại thông qua thiết bị đặc biệt Chẳng hạn ảnh ghi lại máy ảnh, âm ghi lại máy ghi âm, … Qua kênh truyền, thông tin cần phải mã hóa cho phù hợp Để mã hóa người ta cần bảng chữ gồm chữ quy định trước (chẳng hạn bảng chữ la tinh, bảng mã nhị phân, … ) Mỗi giá trị X sau mã dạng dãy hữu hạn chữ ta gọi dãy hữu hạn chữ gán cho giá trị x từ mã Ta xét BNN X={x1, x2, …,xn} có phân phối {p1, p2, …, pn} quan sát liên tục độc lập Dãy giá trị nhận gọi thơng báo (Message) có dạng xi1xi2…xin Tập hợp A={a1, a2, …, an} tập hợp ký tự mã (Code Characters) bảng chữ (Code Alphabet) dùng để sinh mã Một giá trị xi ∈ X gán dãy hữu hạn ký tự mã gọi từ mã (Code word) Tập hợp gồm tất từ mã gán cho tất giá trị X gọi mã hay bảng mã (Code) Các từ mã phải khác đôi Biên soạn: TS L ê Quy ết Thắng, ThS Phan Tấn Tài & Ks Dương Văn Hiếu 31 Giáo trình: Lý thuyết thơng tin Bộ mã gọi tách từ dãy ký tự mã nhận liên tục (được mã hóa từ mã này), ta ln ln giải mã với kết dãy giá trị gốc X Shannon (1948) lần đưa định lý sở sinh mã tách Mc Millan (1956) chứng minh định lý điều kiện cần đủ bảng mã tách Nhưng vấn đề sinh mã tách được xét cách chuẩn mực Feinstein (1958), Abramson (1963) Fano (1961) Sardinas(1960) Patterson (1963) đưa định lý giải thuật kiểm tra tính tách bảng mã Abramson (1963) đưa khái niệm bảng mã tức thời Trong phạm vi giảng này, toán sinh mã tối ưu đặt tìm phương pháp sinh mã cho độ dài trung bình từ mã mã nhỏ Nghĩa là, giá trị xi gán từ mã có độ dài ni tốn sinh mã phải thỏa: n ∑pn i =1 i i → Min Huffman (1950) đưa qui trình xây dựng bảng mã tối ưu thỏa yêu cầu Khái niệm bảng mã không tách Bảng mã không tách bảng mã mà mã hóa thơng báo Msg ta nhận dãy từ mã ws, giải mã dãy từ mã ws ta nhận nhiều thơng báo Msg khác Ví dụ: Xét biến ngẫu nhiên X={x1, x2, x3, x4} có bảng mã W={w1=0, w2=1, w3=01, w4=10} Giả sử thông báo nguồn có nội dung: x1x2x3x4x3x2x1 Khi dãy mã tương ứng viết từ W có dạng: 0101100110 Nếu giải mã từ trái qua phải ta nhận kết quả: x1x2x1x2x2x1x1x2x2x1 Nhưng phương pháp khác ta nhận kết quả: x3x3x4x3x4 nhiều thông báo khác Nhận xét: Bảng mã giải mã không tách bảng mã mà tồn từ mã mã khóa hay nhiều từ mã khác mã (ví dụ từ mã w1=0 hay w2=1 mã khóa w3) Bảng mã tách Bảng mã tách bảng mã mà mã hóa thơng báo Msg ta nhận dãy từ mã ws, giải mã dãy từ mã ws ta nhận thơng báo Msg ban đầu Ví dụ: Xét biến ngẫu nhiên X={x1, x2} có bảng mã tương ứng W={w1=0, w2=01} Phương pháp giải mã sử dụng sau: giải mã nhận đoạn mã với độ dài độ dài từ mã dài Giả sử dãy mã nhận (cần giải mã) là: 0010000101001 Sử dụng phương pháp giải mã ta nhận dãy thông báo gốc: x1x2x1x1x1x2x2x1x2 Có thể chi tiết hóa bước giải mã dãy từ mã sau: Nhận đoạn 00 -> Giải x1 , lại Nhận tiếp ->01 -> Giải x2 Nhận tiếp 00 -> Giải x1, lại Biên soạn: TS L ê Quy ết Thắng, ThS Phan Tấn Tài & Ks Dương Văn Hiếu 32 ... (Y/X = 2) Y/X =2 P 0 T? ?m phân phối Y: P( Y= 0) = p( X=1 )p( Y=0/X= 1) +p( X =2 )p( Y=0/X = 2) = 0,5 x 0 ,2 5 + 0,5 x =0 . 125 P( Y= 1) = p( X=1 )p( Y=1/X= 1) +p( X =2 )p( Y=1/X = 2) = 0,5 x 0,5 + 0,5 x =0 .25 0 P( Y = 2) = p( X=1 )p( Y =2 / X= 1) +p( X =2 )p( Y =2 / X = 2) ... p( X=1 )p( Y =2 / X= 1) +p( X =2 )p( Y =2 / X = 2) = 0,5 x 0 ,2 5 + 0,5 x 1=0 . 625 Y P 0. 125 0 .25 0. 625 Minh họa Entropy H(X ), H(Y) H(X,Y) Entropy X: H(X) = H(0. 5, 0 5) = -(0 .5 )log( 0. 5) -(0 .5 )log( 0. 5) = (bit) Entropy Y:... Entropy biến ngẫu nhiên X có tính chất: 1 H? ?m số f (M) = H( ,? ? ?, ) đơn điệu tăng M M H? ?m số f(ML) = f (M) +f(L) H (p 1, p 2, ? ?, pM) = H (p1 + p2 +…+pr, pr+1+ pr +2+ …+ pM) p p + (p1 + p + … + p r )H( r , ,

Ngày đăng: 13/08/2014, 06:22

Từ khóa liên quan

Mục lục

  • MỤC LỤC

  • GIỚI THIỆU TỔNG QUAN

    • MỤC ĐÍCH

    • YÊU CẦU

    • NỘI DUNG CỐT LÕI

    • KẾT THỨC TIÊN QUYẾT

    • TÀI LIỆU THAM KHẢO

    • PHƯƠNG PHÁP HỌC TẬP

    • CHƯƠNG 1: GIỚI THIỆU

      • 1: Mục tiêu

        • Đối tượng nghiên cứu

        • Mô hình lý thuyết thông tin theo quan điểm Shannon

        • Diễn giải:

        • Lượng tin biết và chưa biết

        • Ví dụ về lượng tin biết và chưa biết

        • Định lý cơ sở của kỹ thuật truyền tin

        • Mô tả trạng thái truyền tin có nhiễu

        • Minh họa kỹ thuật giảm nhiễu

        • Sơ đồ truyền tin:

        • Chi phí phải trả cho kỹ thuật giảm nhiễu

        • Khái niệm về dung lượng kênh truyền

        • Vấn đề sinh mã

        • Vấn đề giải mã

Tài liệu cùng người dùng

Tài liệu liên quan