CHƯƠNG 1 CƠ SỞ LÝ THUYẾT VỀ ĐIỆN NÃO ĐỒ
3.2 Các đặc trưng điện não
3.2.1 Đặc trưng Entropy hốn vị
3.2.1.1. Entropy
Entropy (Shannon entropy) mơ tả mức độ hỗn loạn trong một tín hiệu của một sự kiện ngẫu nhiên. Nĩi cách khác, entropy cũng chỉ ra cĩ bao nhiêu thơng
E{(𝑨𝑨�s) (𝑨𝑨�𝐬𝐬)𝑻𝑻} = I
E{𝑨𝑨�s𝐬𝐬𝑻𝑻𝑨𝑨�𝑻𝑻} = I
39 tin trong tín hiệu, với thơng tin là các phần khơng hỗn loạn ngẫu nhiên của tín hiệu.
Giả sử biến ngẫu nhiên X cĩ một tập các giá trị mẫu x(i), khi đĩ, Shannon entropy của biến ngẫu nhiên trên được tính theo cơng thức:
H = -∑ 𝑝𝑝𝑛𝑛 𝑖𝑖.𝑙𝑙𝑙𝑙𝑙𝑙(𝑝𝑝𝑖𝑖) 𝑖𝑖=1 (1) Trong đĩ: n là tổng số các giá trị cĩ thể nhận của tín hiệu. i là giá trị rời rạc thứ i p(i) là xác suất xuất hiện của giá trị i
Entropy biểu thị cho sự hỗn độn, độ bất định, độ phức tạp của thơng tin. Thơng tin càng phức tạp càng entropy càng cao. Entropy nhạy với thay đổi xác suất nhỏ, khi hai phân bố càng giống nhau thì entropy càng giống nhau và ngược lại.
3.2.1.2. Entropy hốn vị
Giả sử biến ngẫu nhiên S cĩ một tập các giá trị mẫu s(t), để đơn giản giả sử các giá trị s(t) cĩ phân phối liên tục để các giá trị bằng nhau 𝑠𝑠𝑡𝑡= 𝑠𝑠𝑡𝑡∗ (t ≠ 𝑡𝑡∗) là
rất hiếm. Việc tính tốn Entropy hốn vị của chuỗi bắt đầu bằng việc lựa chọn số chiều D và độ trễτ, thơng thường D và τ rất nhỏ so với T (số mẫu). Theo Amigĩ và cộng sự (2007), với chuỗi dữ liệu bình thường, D thường nhận các giá trị 3,4,5,6,7. Với số chiều là D, cĩ tất cả D! hốn vị cĩ thể cĩ. Các hốn vịnày được ký hiệu là 𝜋𝜋𝑖𝑖, i= 1, 2, ..., D!
Tại vị trí m bất kỳ của chuỗi S với 1≤ 𝑚𝑚 ≤ 𝑇𝑇 −(𝐷𝐷 −1)𝜏𝜏, chọn ra một bộ gồm m phần tử với khoảng cách giữa các phần tửlà τ:
𝑆𝑆𝑚𝑚= �𝑠𝑠𝑚𝑚,𝑠𝑠𝑚𝑚+1, . . . ,𝑠𝑠𝑚𝑚+(𝐷𝐷−1)𝜏𝜏 �
Tùy theo trật tự sắp xếp của các phần tử trong 𝑆𝑆𝑚𝑚để xác định 𝑆𝑆𝑚𝑚sẽ là hốn vị nào trong chuỗi hốn vị 𝜋𝜋𝑖𝑖, i = 1, 2, …, D! Sau khi duyệt từ đầu chuỗi đến cuối chuỗi, tương ứng với việc m nhận giá trị lần lượt từ 1 đến T–(D–1)𝜏𝜏, từng hốn vị 𝜋𝜋𝑖𝑖, i = 1, 2, …, D! sẽđược đếm số lần xuất hiện.
Xác suất xuất hiện hốn vị 𝜋𝜋𝑖𝑖, i = 1, 2, …, D! ký hiệu p(𝜋𝜋𝑖𝑖) là tỷ lệ số lần hốn vị 𝜋𝜋𝑖𝑖xuất hiện trên tổng số lần xuất hiện của các hốn vị, chính là T – D +1.
40 𝑃𝑃𝑃𝑃𝐷𝐷= -∑ 𝑝𝑝𝐷𝐷! (𝜋𝜋𝑖𝑖)𝑙𝑙𝑙𝑙𝑙𝑙2𝑝𝑝(𝜋𝜋𝑖𝑖)
𝑖𝑖=1
Entropy hốn vị chuẩn hĩa được bằng cách chia entropy hốn vị vừa tính cho giá trị lớn nhất, 𝑃𝑃𝑃𝑃𝑚𝑚𝑚𝑚𝑚𝑚 =𝑙𝑙𝑙𝑙𝑙𝑙2𝐷𝐷!. Khi đĩ, Entropy chuẩn hĩa là:
𝑃𝑃𝑃𝑃𝑛𝑛𝑛𝑛𝑛𝑛𝑚𝑚= 𝑃𝑃𝑃𝑃 𝑙𝑙𝑛𝑛𝑙𝑙2𝐷𝐷!
Sau khi chuẩn hĩa, 0< 𝑃𝑃𝑃𝑃𝑛𝑛𝑛𝑛𝑛𝑛𝑚𝑚 <1. Giá trị nhỏ nhất 𝑃𝑃𝑃𝑃𝑛𝑛𝑛𝑛𝑛𝑛𝑚𝑚 = 0 đạt được khi chuỗi S(t) cĩ các phần tử biến động theo chiều tăng dần đều hoặc giảm dần đều, vì khi đĩ chỉ cĩ một hốn vị duy nhất cĩ thể xảy ra. Giá trị lớn nhất 𝑃𝑃𝑃𝑃𝑛𝑛𝑛𝑛𝑛𝑛𝑚𝑚 = 1 xảy ra khi tất cả các hốn vị cĩ xác suất xảy ra bằng nhau. Điều này này cĩ thể xảy ra khi chuỗi S(t) là chuỗi ngẫu nhiên thuần túy, mọi hình mẫu đều cĩ cơ hội xuất hiện như nhau.
Xét ví dụ minh họa được Bandt and Pompe (2002) đưa ra như sau:
S(t) = {4, 7, 9, 10, 6, 11, 3}
- Bước đầu tiên là phân vùng chuỗi một chiều thành ma trận các vectơ cột overlapping. Việc phân vùng này sử dụng hai siêu tham sốs:
Bảng 3-1 Các tham số của entropy hốn vị
Tham số 𝜏𝜏 D
Mơ tả Độ trễ (embedding time
delay): các khoảng giữa các phần tử của mỗi vectơ cột mới
Số chiều (embedding dimension): độ dài của mỗi vectơ cột mới Phạm vi hợp lệ Sốnguyên dương Mọi số lớn hơn 1
Giá trị khuyến nghị 1 3< D< 7∗
(*) Đối với các mục đích thực tế, Band và Pompe (2002) đề xuất 3≤ D ≤7 với τ = 1. Tuy nhiên cĩ thể chọn các giá trị τ khác tùy thuộc vào ứng dụng và biến ngẫu nhiên đang nghiên cứu.
Giả sử chọn D=3, 𝜏𝜏=1 thì mẫu dữ liệu S(t) được phân thành như sau: 4 7 9 10 6
7 9 10 6 11 9 10 6 11 3
41 Mỗi cột cĩ 3 phần tửvì D được chọn bằng 3. Khoảng cách giữa các vectơ cột là một vì τ được chọn bằng 1.
Sốhàng được tạo ra là T - (D-1)𝜏𝜏 với T là số phần tử trong chuỗi S(t). Ma trận trên cĩ 7-1×(3-1) = 5 hàng.
- Tìm các mẫu thứ tự (Ordinal Patterns)
Sau khi phân vùng chuỗi thời gian một chiều, các vectơ D-chiều trong ma trận được ánh xạ thành các hốn vị duy nhất phù hợp với sắp xếp thứ tự của dữ liệu:
𝜋𝜋 = {𝑟𝑟0, 𝑟𝑟1, . . . ,𝑟𝑟𝐷𝐷−1}= {0, 1, . . . ,𝐷𝐷 −1}
Với ví dụ trên cĩ tổng số 3! = 6 hốn vị cĩ thể cĩ khác nhau (ordinal patterns); 𝜋𝜋1= {0, 1, 2} 𝜋𝜋2= {0, 2, 1} 𝜋𝜋3= {1, 0, 2} 𝜋𝜋4= {1, 2, 0} 𝜋𝜋5= {2, 0, 1} 𝜋𝜋6= {2, 1, 0}
Các hốn vị này gán giá trị cho mỗi vectơ đã phân vùng dựa trên thứ tự của các giá trị trong vectơ. Ví dụ, hãy xem xét vectơ 3 chiều đầu tiên trong ma trận trên:
4 7 9
Hốn vị của vectơ này là 𝜋𝜋1= {0, 1, 2}bởi vì 4< 7< 9. Do đĩ, đối với dữ liệu ví dụ trên, ma trận hốn vị là:
0 0 1 1 1 1 1 2 0 2 2 2 0 2 0
Nếu một vectơ đầu vào chứa hai hoặc nhiều phần tử cĩ cùng giá trị, thứ hạng được xác định theo thứ tự của chúng trong chuỗi S(t).
42 - Tính tốn tần sốtương đối (Relative Frequencies):
Tần sốtương đối của mỗi hốn vị được tính bằng cách đếm số lần hốn vị xuất hiện trong chuỗi chia cho tổng số chuỗi.
Bảng 3-2 Các hốn vị và xác xuất tương ứng Hốn vị Số lần xuất hiện 𝑝𝑝𝑖𝑖 𝜋𝜋1 2 2/5 𝜋𝜋2 0 0/5 𝜋𝜋3 1 1/5 𝜋𝜋4 2 2/5 𝜋𝜋5 0 0/5 𝜋𝜋6 0 0/5 - Tính tốn Entropy hốn vị (PE):
Cuối cùng, các xác suất trước đĩ được sử dụng để tính entropy hốn vị bậc D của chuỗi, xác định bởi:
𝑃𝑃𝑃𝑃𝐷𝐷= -∑ 𝑝𝑝𝐷𝐷𝑖𝑖=1! 𝑖𝑖𝑙𝑙𝑙𝑙𝑙𝑙2𝑝𝑝𝑖𝑖
Tiếp tục với ví dụ trên, D=3:
𝑃𝑃𝑃𝑃3= -(2/5𝑙𝑙𝑙𝑙𝑙𝑙2(2/5) + 1/5𝑙𝑙𝑙𝑙𝑙𝑙2(1/5) + 2/5𝑙𝑙𝑙𝑙𝑙𝑙2(2/5) ≈ 1,5219
Phép đo entropy hốn vịđược chuẩn hĩa theo cơng thức sau: 𝑃𝑃𝑃𝑃𝐷𝐷,𝑛𝑛𝑛𝑛𝑛𝑛𝑚𝑚 =𝑙𝑙𝑙𝑙𝑙𝑙−1
2𝐷𝐷!� 𝑝𝑝𝑖𝑖𝑙𝑙𝑙𝑙𝑙𝑙2𝑝𝑝𝑖𝑖
𝐷𝐷!
𝑖𝑖=1
Nhận giá trị trong khoảng từ0 đến 1. Với ví dụ trên: 𝑃𝑃𝑃𝑃𝐷𝐷,𝑛𝑛𝑛𝑛𝑛𝑛𝑚𝑚 =𝑙𝑙𝑛𝑛𝑙𝑙−1
23!1,5219= 0,5887
𝑃𝑃𝑃𝑃𝐷𝐷,𝑛𝑛𝑛𝑛𝑛𝑛𝑚𝑚 càng nhỏ thì chuỗi càng đều đặn và xác định. Ngược lại, 𝑃𝑃𝑃𝑃𝐷𝐷,𝑛𝑛𝑛𝑛𝑛𝑛𝑚𝑚 càng gần 1, chuỗi càng bất thường và ngẫu nhiên.
43 Ví dụ: giả sử 7 dữ liệu trong chuỗi ví dụ trên rất bất thường và mỗi phân vùng rơi vào một nhĩm hốn vịkhác nhau. Trong trường hợp này, PE chuẩn hĩa là:
𝑃𝑃𝑃𝑃3= 𝑙𝑙𝑛𝑛𝑙𝑙−123!(1/5𝑙𝑙𝑙𝑙𝑙𝑙2(1/5) + 1/5𝑙𝑙𝑙𝑙𝑙𝑙2(1/5) + 1/5𝑙𝑙𝑙𝑙𝑙𝑙2(1/5) +1/ 5𝑙𝑙𝑙𝑙𝑙𝑙2(1/5) +1/5𝑙𝑙𝑙𝑙𝑙𝑙2(1/5)) ≈ 0,898
Ngược lại, nếu các giá trị trong chuỗi hồn tồn giống nhau, mỗi phân vùng thuộc cùng một nhĩm hốn vị. Trong trường hợp này, PE chuẩn hĩa là:
𝑃𝑃𝑃𝑃3= −1
𝑙𝑙𝑛𝑛𝑙𝑙23!(5/5𝑙𝑙𝑙𝑙𝑙𝑙2(5/5) = 0