So sánh kết quả thực nghiệm Exp1, Exp2 và Exp2-ALS

Một phần của tài liệu Phân loại tín hiệu điện não dựa trên học sâu hướng đến xây dựng hệ thống đánh vần bằng mắt (Trang 48 - 54)

Từ thực nghiệm Exp1 và Exp2 (bảng 4.5, 4.6), sử dụng dữ liệu từ các đối tượng khỏe mạnh được căn chỉnh theo một phần dữ liệu từ bệnh nhân ALS cho kết quả tốt hơn

sử dụng trực tiếp dữ liệu từ các đối tượng khỏe mạnh để huấn luyện mơ hình phân loại trong đa số thử nghiệm (ngoại trừ bệnh nhân ALS05 - phân loại LR0) (hình 4.13).

Từ thực nghiệm Exp0 và Exp2-ALS (bảng 4.3, 4.7), kết quả phân loại trung bình tính theo phiên thu (khơng phân biệt đối tượng) cho thấy bệnh nhân ALS có khả năng tưởng tượng ảnh vận động kém hơn so với các đối tượng khỏe mạnh. Tuy nhiên, sự khác biệt giữa đối tượng khỏe mạnh và bệnh nhân ALS có thể đến từ chênh lệch độ tuổi thay vì tình trạng bệnh lý (đa số các đối tượng khỏe mạnh có độ tuổi 19 - 20 tuổi). Trong 4 bệnh nhân ALS được thực nghiệm, bệnh nhân ALS01 có kết quả phân loại tốt nhất với nhiều phương pháp khác nhau.

Bảng 4.8: Kết quả phân loại trung bình của mơ hình [EA] CSP-BP-SVM trên bộ dữ liệu HMI EEG-ET giữa đối tượng khỏe mạnh và bệnh nhân ALS (theo phiên thu)

ALS Đối tượng khỏe mạnh

BAC Kappa BAC Kappa

LR0 0.7229 0.5596 0.7558 0.6573

LRF0 0.5706 0.4370 0.6254 0.5688

Nhận xét

Qua các thực nghiệm được thực hiện trên bộ dữ liệu HMI EEG-ET, các phương pháp căn chỉnh tín hiệu điện não EEG (EA, LA) giúp cải thiện độ chính xác của các mơ hình phân loại, sử dụng dữ liệu từ nhiều phiên thu, đối tượng khác nhau để khắc phục hạn chế về dữ liệu của từng đối tượng. Tuy nhiên, mơ hình học sâu CNN được thử nghiệm có độ chính xác thấp hơn so với mơ hình học máy CSP-PB-SVM, ngun nhân có thể do số lượng dữ liệu cho mỗi phiên thu, đối tượng cịn rất ít (3 lần thử liên tục / phiên thu) nên các đặc trưng của tín hiệu EEG học được từ mơ hình CNN khơng đủ tính tổng qt.

CHƯƠNG 5

Kết luận

Chương này trình bày các kết luận của luận văn sau khi thực hiện các thực nghiệm, các hạn chế và các hướng phát triển tiếp theo của luận văn trong tương lai.

1 Kết luận

Luận văn đã xây dựng và thử nghiệm mơ hình học sâu, kết hợp phương pháp căn chỉnh dữ liệu cho tín hiệu EEG để phân loại tín hiệu điện não cho tác vụ tưởng tượng ảnh vận động. Qua thực nghiệm, các mơ hình học sâu có tiềm năng sử dụng trong các hệ thống đánh vần, kết hợp với hệ thống theo dõi ánh mắt để cải thiện khả năng nhập liệu.

Với thực nghiệm trên bộ dữ liệu HMI EEG-ET bao gồm dữ liệu của các đối tượng khỏe mạnh và bệnh nhân ALS, mơ hình CNN được thử nghiệm đạt độ chính xác 0.7065 trên 3 nhãn, 0.6043 trên 4 nhãn với các đối tượng khỏe mạnh và 0.6427 trên 3 nhãn và 0.5206 trên 4 nhãn với bệnh nhân ALS. So với mơ hình học máy khác (CSP-BP-SVM), mơ hình CNN chưa đạt được độ chính xác cần thiết. Với dữ liệu của bệnh nhân ALS, sử dụng thêm dữ liệu từ các đối tượng khỏe mạnh khác cũng chưa đem lại cải tiến về độ chính xác so với chỉ sử dụng dữ liệu từ bệnh nhân đó. Ngồi ra, qua thực nghiệm luận văn thu được một số kết luận sau:

- Các học chuyển tiếp và căn chỉnh dữ liệu hiệu quả trong trường hợp dữ liệu cho một đối tượng hạn chế. Các phương pháp này có thể được áp dụng theo cách thích hợp để cải thiện độ chính xác của các mơ hình phân loại, đặc biệt từ dữ liệu của các đối tượng khỏe mạnh cho bệnh nhân ALS.

- Mơ hình học sâu CNN hiệu quả nhất khi sử dụng tồn bộ số kênh của tín hiệu EEG thay vì lựa chọn một số kênh nhất định dựa theo đặc trưng của tác vụ tưởng tượng ảnh vận động.

- Bệnh nhân ALS có khả tưởng tượng ảnh vận động kém hơn các đối tượng bình thường (tính trung bình theo các phiên thu).

Hạn chế của luận văn

Trong quá trình thực nghiệm, luận văn tồn tại một vài hạn chế:

- Dữ liệu thực nghiệm từ bộ dữ liệu HMI EEG-ET đang trong quá trình thu thập, phân bố độ tuổi của các đối tượng khỏe mạnh và bệnh nhân ALS không đồng đều, các đối tượng khỏe mạnh chỉ có 1 phiên thu duy nhất và số lượng bệnh nhân ALS hạn chế.

- Các mơ hình học sâu được luận văn thử nghiệm (bao gồm các mơ hình CNN) khơng đạt kết quả cao hơn so với các mơ hình học máy với lượng dữ liệu hạn chế, bao gồm sử dụng và không các phương pháp căn chỉnh dữ liệu từ nhiều đối tượng khác nhau. - Luận văn chưa chỉ ra được ảnh hưởng của việc nhắm mắt lên quá trình tưởng tượng ảnh vận động và tính liên tục của q trình tưởng tượng ảnh vận động trong thời gian dài (khoảng 10s).

2 Hướng phát triển trong tương lai

Trong tương lai, ngoài khắc phục, bổ sung những hạn chế của luận văn, mơ hình phân loại tín hiệu điện não EEG cho tác vụ tưởng tượng ảnh vận động có thể được mở rộng và cải tiến theo nhiều hướng khác nhau. Một số hướng luận văn dự kiến thực hiện bao gồm:

- Bổ sung dữ liệu với nhiều đối tượng khác nhau, bao gồm bệnh nhân bị tổn thương chức năng vận động. Sử dụng dữ liệu từ các phiên thu khi đối tượng sử dụng hệ thống đánh vần trong điều kiện thực tế. Luận văn tìm cách xây dựng mơ hình có thể phân biệt nhiều nhãn hơn, thay cho hạn chế chỉ 4 nhãn phổ biến: tay trái, tay phải, hai chân và nghỉ ngơi.

- Tìm kiếm và thử nghiệm các phương pháp học chuyển tiếp và căn chỉnh tín hiệu điện não EEG khác, thay vì hạn chế hai phương pháp được đề cập trong luận văn cho các mơ hình học sâu. Các phương pháp học chuyển tiếp và căn chỉnh hướng tới việc sử dụng hiệu quả hơn dữ liệu từ các đối tượng khỏe mạnh cho việc huấn luyện các mơ hình phân loại cho bệnh nhân bị tổn thương chức năng vận động.

- Thử nghiệm một số mơ hình học sâu khác phù hợp với tín hiệu EEG như mạng nơ-ron tích chập trên đồ thị có thể học các đặc trưng về khơng gian (mối liên kết giữa các tín hiệu tại từng điện cực) tốt hơn. Đặc biệt các mơ hình học sâu trên khơng gian Riemannian thay vì giới hạn ở các mơ hình trên khơng gian Euclidean như hiện tại.

Sau cùng, để mơ hình phân loại tín hiệu điện não EEG có thể sử dụng trong điều kiện thực tế và kết hợp với hệ thống đánh vần bằng ánh mắt đã có, luận văn sửa đổi và phát triển hệ thống có thể hoạt động trong thực tế, xử lý tín hiệu EEG liên tục theo thời gian thay vì sử dụng tồn bộ đoạn tín hiệu như hiện tại.

TÀI LIỆU THAM KHẢO

[1] J. Mercier-Ganady, “Contribution to the study of the use of brain-computer inter- faces in virtual and augmented reality”, 2015.

[2] A. L. Goldberger, L. A. N. Amaral, L. Glass, et al., “PhysioBank, PhysioToolkit,

and PhysioNet: components of a new research resource for complex physiologic signals”,Circulation, vol. 101, 2000.

[3] J. Knierim, “Neuroscience Online, Section 3: Motor Systems”, in 2020, ch. 3: Motor Cortex.

[4] G. Pfurtscheller and C. Neuper, “Motor imagery activates primary sensorimotor area in humans”,Neuroscience Letters, vol. 239, 1997.

[5] G. Pfurtscheller and C. Neuper, “Motor Imagery and Direct Brain-Computer Com- munication”,Proceedings of the IEEE, vol. 89, 2001.

[6] G. Pfurtscheller, C. Brunner, A. Schlogl, and F. L. da Silva, “Mu rhythm (de)synchronization and EEG single-trial classification of different motor imagery tasks”,NeuroImage,

vol. 31, 2005.

[7] G. Pfurtscheller, C. Neuper, C. Andrew, and G. Edlinger, “Foot and hand area mu rhythms”,International Journal of Psychophysiology, vol. 26, 1997.

[8] K. K. Ang, Z. Y. Chin, C. Wang, C. Guan, and H. Zhang, “Filter bank common spatial pattern algorithm on BCI competition IV Datasets 2a and 2b”,Frontiers in Neuroscience, vol. 6, 2012.

[9] N. Brodu, F. Lotte, and A. L´ecuyer, “Comparative study of band-power extraction techniques for Motor Imagery classification”,IEEE Symposium on Computational Intelligence, Cognitive Algorithms, Mind, and Brain, 2011.

[10] P. Herman, G. Prasad, T. M. McGinnity, and D. Coyle, “Comparative Analysis of Spectral Approaches to Feature Extraction for EEG-Based Motor Imagery Classi- fication”,IEEE Transactions on Neural Systems and Rehabilitation Engineering,

[11] A. Barachant, S. Bonnet, M. Congedo, and C. Jutten, “Multiclass Brain-Computer Interface Classification by Riemannian Geometry”,IEEE Transactions on Biomed- ical Engineering, vol. 59, 2012.

[12] M. Congedo, A. Barachant, and R. Bhatia, “Riemannian geometry for EEG-based brain-computer interfaces; a primer and a review”, Brain-Computer Interfaces,

vol. 4, 2017.

[13] R. T. Schirrmeister, J. T. Springenberg, L. D. J. Fiederer, et al., “Deep learning

with convolutional neural networks for EEG decoding and visualization”,Human Brain Mapping, vol. 38, 2017.

[14] V. J. Lawhern, A. J. Solon, N. R. Waytowich, S. M. Gordon, C. P. Hung, and B. J. Lance, “EEGNet: a compact convolutional neural network for EEG-based brain-computer interfaces”,Journal of Neural Engineering, vol. 15, 2018.

[15] X. Wang, M. Hersche, B. Tăomekce, B. Kaya, M. Magno, and L. Benini, “An Ac- curate EEGNet-based Motor-Imagery Brain–Computer Interface for Low-Power Edge Computing”, IEEE International Workshop on Medical Measurement and Applications (MEMEA), 2020.

[16] P. Zanini, M. Congedo, C. Jutten, S. Said, and Y. Berthoumieu, “Transfer learn- ing: a Riemannian geometry framework with applications to Brain-Computer In- terfaces”,IEEE Transactions on Biomedical Engineering, vol. 65, 2018.

[17] H. He and D. Wu, “Transfer Learning for Brain–Computer Interfaces: A Euclidean Space Data Alignment Approach”, IEEE Transactions on Biomedical Engineer- ing, vol. 67, 2020.

[18] H. He and D. Wu, “Different Set Domain Adaptation for Brain-Computer Inter- faces: A Label Alignment Approach”,IEEE Transactions on Neural Systems and Rehabilitation Engineering, vol. 28, 2020.

[19] L. Xu, M. Xu, Y. Ke, X. An, S. Liu, and D. Ming, “Cross-Dataset Variability Prob- lem in EEG Decoding With Deep Learning”, Frontiers in Human Neuroscience,

vol. 14, 2020.

[20] H. Dose, J. S. Møller, H. K. Iversen, and S. Puthusserypady, “An end-to-end deep learning approach to MI-EEG signal classification for BCIs”,Expert Systems With Applications, vol. 114, 2018.

[21] X. Wei, A. A. Faisal, M. Grosse-Wentrup, et al., “2021 BEETL Competition:

Advancing Transfer Learning for Subject Independence & Heterogenous EEG Data Sets”, in Proceedings of the NeurIPS 2021 Competitions and Demonstra- tions Track, D. Kiela, M. Ciccone, and B. Caputo, Eds., 2022.

[22] F. Lotte, L. Bougrain, A. Cichocki,et al., “A review of classification algorithms

for EEG-based brain–computer interfaces: a 10 year update”, Journal of Neural Engineering, vol. 15, 2018.

[23] A. Salami, J. Andreu-Perez, and H. Gillmeister, “EEG-ITNet: An Explainable Inception Temporal Convolutional Network for Motor Imagery Classification”,

Một phần của tài liệu Phân loại tín hiệu điện não dựa trên học sâu hướng đến xây dựng hệ thống đánh vần bằng mắt (Trang 48 - 54)