Giai đoạn này sẽ phân loại các đỉnh thuộc nhóm 3 thành loại có khả năng là gai và loại không phải gai.
Sử dụng mạng nơ-ron nhân tạo hàm bán kính cơ sở (RBFN), mạng hồi quy AR-based RBFN, mạng học máy RB-SVM và mạng phản hồi MLP.
2.1.2.1. Mạng RBFN:
Cấu trúc mạng:
Hình 2. 4. Cấu trúc của RBFN
Mạng RBFN sử dụng một nơ-ron đầu ra thực hiện quan hệ vào ra:
(2.3)
𝑦𝑠 = 𝑠𝑖𝑔𝑛(𝒘𝑇𝒙𝑠 − 𝜏)
𝜃 = 𝐾 𝑤𝑗𝜑 𝑥 − 𝑐𝑗 2 + 𝑤0
Trong đó: 𝜑 𝑎 = 𝑒−𝑎2 là hàm bán kính cơ sở với sự biến đổi đồng nhất,𝑥 ∈ 𝑅𝑃 là vec-tơ đầu vào, . 2 là tiêu chuẩn Euclidean, 𝑐1, 𝑐2, … , 𝑐𝐾 là các trung tâm của RBFN, 𝑤𝑗 là các đầu vào của vec-tơ trọng số tuyến tính 𝒘 = [𝑤0𝑤1… 𝑤𝐾]𝑇.
Khi cố định hàm bán kính cơ sở, trọng số của lớp ra có thể được tính toán, để tính toán ta sử dụng phương pháp bình phương tối thiểu. Tập huấn luyện 𝒙𝑠, 𝑑𝑠
𝑠=1 𝑆 ,
𝒙𝑠 là vec-tơ đầu vào, 𝑑𝑠 là lối ra mong muốn. Ma trận nội suy Φ được định nghĩa:
(2.4)
Ma trận Φ có kích thước là Sx(K+1), S là số mẫu huấn luyện, K là số nơ-ron
trung tâm. Cột đầu tiên của ma trận là số các bias. Vec-tơ đầu ra mong muốn 𝑑 có kích thước Sx1
(2.5)
Vec-tơ trọng số liên kết có thể được tính bằng cách giải quyết sau:
(2.6)
Thực hiện và huấn luyện mạng RBFN:
Hình 2. 5. Cửa sổ chứa đỉnh được cắt từ dữ liệu gốc sử dụng là đầu vào cho mạng RBFN Φ = 1 𝜑 𝑥1 − 𝑐1 𝜑 𝑥1 − 𝑐2 … 𝜑 𝑥1 − 𝑐𝐾 1 𝜑 𝑥2 − 𝑐1 𝜑 𝑥2 − 𝑐2 … 𝜑 𝑥2 − 𝑐𝐾 ⋯ 1 𝜑 𝑥𝑆 − 𝑐1 𝜑 𝑥𝑆 − 𝑐2 … 𝜑 𝑥𝑆 − 𝑐𝐾 𝑑 = 𝑑1𝑑2… 𝑑𝑆 𝑇 𝑑 = Φ. w
Tập dữ liệu sau giai đoạn tiền phân loại từ tín hiệu gốc được trích xuất ở dạng cửa sổ chứa đỉnh với đỉnh là trung tâm. Đầu tiên cửa sổ được thực hiện với 10 mẫu dữ liệu bên trái và 10 mẫu bên phải so với đỉnh trung tâm. Sau đó, tăng dần lên 20, 25, 30, 40, 50, 60 mẫu bên phải, bên trái vẫn giữ nguyên là 10 mẫu.
Việc xác định đỉnh trung tâm là mục đích của việc sử dụng RBFN. Thứ nhất, gán ngẫu nhiên đỉnh ở giữa các mẫu đầu vào với cửa sổ cố định là 41 mẫu. Sau đó, thủ tục học được lặp lại cho đến khi đạt được giá trị chính xác tốt nhất với 6, 8, 10, 12, 14, 16, 20 đỉnh trung tâm bằng cách sử dụng luật học LMS. Thứ hai, gán đỉnh trung tâm vào giữa các mẫu đầu vào một cách ngẫu nhiên. Mặt khác, hầu hết đỉnh trung tâm được chọn giữa các loại gai khác nhau tương ứng với đầu ra mong muốn là +1 trong tập huấn luyện. Sau đó, các đỉnh còn lại được chọn ngẫu nhiên giữa các mẫu đầu vào và ta ghép 2 vec-tơ đỉnh này ngẫu nhiên. Thủ tục huấn luyện cũng được lặp lại với các giá trị 6, 8, 10, 12, 14, 16, 20 cho đến khi độ chính xác tốt nhất.
Để thấy được sự ảnh hưởng của kích thước cửa sổ với độ thực hiện của mạng RBFN, ta lặp lại với nhiều cửa sổ khác nhau để xác định gai. Kích thước 41 mẫu tương ứng với khoảng thời gian tồn tại là 160ms là lựa chọn tối ưu. Hình thái gai được học chỉ ra khoảng thời gian trung bình là 20-70ms.
Hình 2. 6. Sự ảnh hưởng của kích thước cửa sổ với độ thực hiện của mạng RBFN
2.1.2.2. Mạng AR-based RBFN:
Mô hình AR thường được sử dụng vì nó đơn giản:
(2.7)
𝑥𝑛 là tín hiệu lấy mẫu, 𝑎𝑘 là hệ số của mô hình AR, 𝑣𝑛 là nhiễu trắng có trung bình bằng 0 và hàm mật độ xác suất của nó gần với hàm Gaussian.
Sau tầng tiền phân loại, ta tính hệ số AR cho 41 mẫu và N = 10 để đạt chuẩn Akaike. Hệ số này được gán cho RBFN, trọng số tối ưu được tính toán bằng cách sử dụng luật học LMS. Tất cả các bước thực hiện như mạng RBFN.
2.1.2.3. Mạng RB-SVM:
SVM là một phương pháp mới để giải quyết vấn đề phân loại giám sát.
𝑥𝑛 = 𝑁 𝑎𝑘𝑥𝑛−𝑘+ 𝑣𝑛
Xây dựng mạng RB-SVM bằng việc sử dụng mạng RBFN với hàm kernel
(2.8)
Trong đó: 𝜍2 = 1.
Để thấy được sự ảnh hưởng của thông số C (thông số điều khiển sự cân bằng giữa độ phức tạp của học máy và số điểm không phân tách, được xem như là thông số quy tắc), ta quan tâm đến 2 tham số quan trọng trong phân loại là khoảng thời gian và biên độ.
Hình 2. 7. Hai mẫu thực hiện RB-SVM để phân tách gai động kinh
Trong phân loại RB-SVM, hình (2.7), “support vectors” được thể hiện trong các hình tròn, (a) C = 100, (b) C = 0.1. Ở đây, đã cho kết quả của phân loại sử dụng RB-SVM với những mức độ chứa lỗi phân loại khác nhau. Với C = 100 cho kết quả tốt hơn.
Các bước xử lý dữ liệu cũng như thực hiện với mạng RBFN.
2.1.2.4. Mạng MLP:
Mạng perceptron đa lớp là mạng nơ-ron được sử dụng phổ biến cho giai đoạn phân loại và được huấn luyện bởi thuật toán lan truyền ngược. Nó gồm 3 lớp: lớp vào, lớp ẩn và lớp ra. Nơ-ron lớp đầu vào hoạt động như bộ đệm cho sự phân phối tín hiệu vào 𝑥𝑖 tới các nơ-ron ở lớp ẩn. Nơ-ron 𝑗 ở lớp ẩn nhận được tổng của tín hiệu vào 𝑥𝑖
qua các trọng số liên kết 𝑤𝑗𝑖, sau đó tính toán đầu ra 𝑦𝑗 là hàm của tổng.
(2.9)
Hàm 𝑓(. ) là hàm sigmoid lưỡng cực.
Thuật toán lan truyền ngược sử dụng để huấn luyện mạng MLP là thuật toán “gradient descent”. 𝐾 𝑥, 𝑥𝑠 = 𝑒𝑥𝑝 − 𝑥 − 𝑥𝑠 2 2𝜍2 𝑦𝑗 = 𝑓 𝑤𝑗𝑖 𝑖 𝑥𝑖
MLP được huấn luyện với số nơ-ron lớp ẩn khác nhau cho đến khi đạt được chỉ tiêu thực hiện tốt nhất. Đầu tiên sử dụng cửa sổ kích thước 41 mẫu như RBFN, sau đó thử với cửa sổ 31, 36 và 51. Cửa sổ với kích thước 41 mẫu cho kết quả tối ưu nhất. Số nơ-ron lớp ẩn là 8 cải thiện được chất lượng thực hiện.