1. Trang chủ
  2. » Giáo Dục - Đào Tạo

Nghiên cứu và thiết kế hệ thống phần mềm cho việc phân loại trạng thái biểu cảm cười và nâng chân mày trong tín hiệu điện não sử dụng svm

102 1 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 102
Dung lượng 8,89 MB

Nội dung

BỘ GIÁO DỤC VÀ ĐÀO TẠO TRƯỜNG ĐẠI HỌC SƯ PHẠM KỸ THUẬT THÀNH PHỐ HỒ CHÍ MINH ĐỒ ÁN TỐT NGHIỆP NGÀNH KỸ THUẬT Y SINH NGHIÊN CỨU VÀ THIẾT KẾ HỆ THỐNG PHẦNMỀM CHO VIỆC PHÂN LOẠI TRẠNG THÁI BIỂU CẢM CƯỜI VÀ NÂNG CHÂN MÀY TRONGTÍN HIỆU ĐIỆN NÃO SỬ DỤNG SVM GVHD: THS TRẦN ĐĂNG KHOA SVTH: NGUYỄN VĂN MINH ÔNG THỊ MỸ KIỀU SKL008899 Tp.Hồ Chí Minh, tháng 6/2022 BỘ GIÁO DỤC & ĐÀO TẠO TRƯỜNG ĐẠI HỌC SƯ PHẠM KỸ THUẬT TP HỒ CHÍ MINH KHOA ĐIỆN – ĐIỆN TỬ BỘ MÔN ĐIỆN TỬ CÔNG NGHIỆP – Y SINH - KHÓA LUẬN TỐT NGHIỆP NGÀNH KỸ THUẬT Y SINH ĐỀ TÀI: NGHIÊN CỨU VÀ THIẾT KẾ HỆ THỐNG PHẦN MỀM CHO VIỆC PHÂN LOẠI TRẠNG THÁI BIỂU CẢM CƯỜI VÀ NÂNG CHÂN MÀY TRONG TÍN HIỆU ĐIỆN NÃO SỬ DỤNG SVM GVHD: ThS Trần Đăng Khoa SVTH 1: Nguyễn Văn Minh MSSV: 18129033 SVTH 2: Ông Thị Mỹ Kiều MSSV: 18129027 Tp Hồ Chí Minh – 6/2022 BỘ GIÁO DỤC & ĐÀO TẠO TRƯỜNG ĐẠI HỌC SƯ PHẠM KỸ THUẬT TP HỒ CHÍ MINH KHOA ĐIỆN – ĐIỆN TỬ BỘ MÔN ĐIỆN TỬ CÔNG NGHIỆP – Y SINH - KHÓA LUẬN TỐT NGHIỆP NGÀNH KỸ THUẬT Y SINH ĐỀ TÀI: NGHIÊN CỨU VÀ THIẾT KẾ HỆ THỐNG PHẦN MỀM CHO VIỆC PHÂN LOẠI TRẠNG THÁI BIỂU CẢM CƯỜI VÀ NÂNG CHÂN MÀY TRONG TÍN HIỆU ĐIỆN NÃO SỬ DỤNG SVM GVHD: ThS Trần Đăng Khoa SVTH 1: Nguyễn Văn Minh MSSV: 18129033 SVTH 2: Ông Thị Mỹ Kiều MSSV: 18129027 Tp Hồ Chí Minh – 6/2022 TRƯỜNG ĐH SPKT TP HỒ CHÍ MINH CỘNG HÒA XÃ HỘI CHỦ NGHĨA VIỆT NAM KHOA ĐIỆN-ĐIỆN TỬ ĐỘC LẬP - TỰ DO - HẠNH PHÚC BỘ MÔN ĐIỆN TỬ CÔNG NGHIỆP – Y SINH o0o Tp HCM, ngày 24 tháng 02 năm 2022 NHIỆM VỤ ĐỒ ÁN TỐT NGHIỆP Họ tên sinh viên: Nguyễn Văn Minh MSSV: 18129033 Ông Thị Mỹ Kiều MSSV: 18129027 Chuyên ngành: Điện Tử Y Sinh Hệ đào tạo: Đại học quy Mã hệ: Khóa: 2018 Lớp: 181290C I TÊN ĐỀ TÀI: NGHIÊN CỨU VÀ THIẾT KẾ HỆ THỐNG PHẦN MỀM CHO VIỆC PHÂN LOẠI TRẠNG THÁI BIỂU CẢM CƯỜI VÀ NÂNG CHÂN MÀY TRONG TÍN HIỆU ĐIỆN NÃO SỬ DỤNG SVM II NHIỆM VỤ Các số liệu ban đầu: - Ngôn ngữ sử dụng: MATLAB - Phần mềm sử dụng: MATLAB 2019a - Tập liệu: Dữ liệu EEG loại trạng thái biểu cảm cười nâng chân mày thu từ tình nguyện viên cơng tác trường Đại học Sư Phạm Kỹ Thuật thành phố Hồ Chí Minh độ tuổi 18 – 23 - Thiết bị thu liệu: Emotiv Epoc Flex 32 cực Nội dung thực hiện: - Tìm hiểu lý thuyết, cơng trình liên quan tín hiệu điện não - Tìm hiểu phương pháp thiết kế giao thức cách thức sử dụng mũ điện não thu tín hiệu - Tiến hành lọc tín hiệu chớp mắt - Tiến hành tiền xử lý sở liệu xác định tham số đặc trưng cho tín hiệu - Tiến hành phân loại liệu phân loại SVM ii - Thiết kế, thi công thử nghiệm phần mềm phân loại trạng thái biểu cảm cười nâng chân mày III NGÀY GIAO NHIỆM VỤ: 24/02/2022 IV NGÀY HOÀN THÀNH NHIỆM VỤ: 21/06/2022 V HỌ VÀ TÊN CÁN BỘ HƯỚNG DẪN: ThS Trần Đăng Khoa CÁN BỘ HƯỚNG DẪN BM ĐIỆN TỬ CÔNG NGHIỆP – Y SINH iii TRƯỜNG ĐH SPKT TP HỒ CHÍ MINH CỘNG HỊA XÃ HỘI CHỦ NGHĨA VIỆT NAM KHOA ĐIỆN-ĐIỆN TỬ ĐỘC LẬP - TỰ DO - HẠNH PHÚC BỘ MÔN ĐIỆN TỬ CÔNG NGHIỆP – Y SINH o0o -TP Hồ Chí Minh, ngày 09 tháng 03 năm 2022 LỊCH TRÌNH THỰC HIỆN KHĨA LUẬN TỐT NGHIỆP Họ tên sinh viên 1: Nguyễn Văn Minh Lớp: 181290C MSSV: 18129033 Họ tên sinh viên 2: Ông Thị Mỹ Kiều Lớp: 181290C MSSV: 18129027 Tên đề tài: Nghiên cứu thiết kế hệ thống phần mềm cho việc phân loại trạng thái biểu cảm cười nâng chân mày tín hiệu điện não sử dụng SVM Tuần/ngày Nội dung Tuần - Gặp GVHD để nghe phổ biến yêu cầu đề 28/02/2022- tài 06/03/2022 - Tiến hành lựa chọn đề tài Xác nhận GVHD - GVHD tiến hành xét duyệt đề tài Tuần - Đọc hiểu tài liệu điện não, báo 07/03/2022- khoa học nghiên cứu mối quan hệ não 13/03/2022 cảm xúc người - Lên lịch trình thực đề tài - Thiết kế giao thức thí nghiệm (Lựa chọn đối tượng thí nghiệm, bước thu tín hiệu, …) Tuần - Tiếp tục đọc hiểu tài liệu điện não, 14/03/2022- báo khoa học nghiên cứu mối quan hệ 20/03/2022 não cảm xúc người - Thu tín hiệu điện não đồ dựa giao thức thiết kế - Xây dựng liệu thô cho dự án iv - Tìm hiểu phương pháp xử lý tín hiệu điện não đồ (Tiền xử lý, trích đặc trưng, phân loại, thống kê) Tuần - Tiếp tục xây dựng liệu thô cho dự án 21/3/2022- - Tìm hiểu phương pháp tiền xử lý tín hiệu 27/03/2022 điện não đồ - Tiến hành tiền xử lý tín hiệu điện não kèm theo thích, mơ tả phân tích Tuần 28/03/2022- - Tiếp tục tiền xử lý tín hiệu điện não kèm theo thích, mơ tả phân tích 03/04/2022 Tuần - Tìm hiểu phương pháp trích đặc trưng 04/04/2022- - Tiến hành trích đặc trưng, phân loại liệu 10/04/2022 tiền xử lý, kèm theo thích, mơ tả, phân tích đánh giá kết Tuần - Tiếp tục trích đặc trưng, phân loại liệu 11/04/2022- tiền xử lý, kèm theo thích, mơ tả, 17/04/2022 phân tích đánh giá kết Tuần - Tìm hiểu phương pháp phân loại, 18/04/2022- - Tiến hành phân loại, Phân loại trạng thái 24/04/2022 cảm xúc dựa mạng học sâu Tuần 25/04/2022- - Tiếp tục phân loại trạng thái cảm xúc dựa mạng học sâu 01/05/2022 v Tuần 10 - Tìm hiểu vận dụng phần mềm phân tích, 02/05/2022- thống kê liệu khoa học 08/05/2022 - Tiến hành thống kê liệu - Tiến hành đánh giá, phân tích kết liệu Tuần 11 09/05/2022- - Tiếp tục thống kê liệu - Tiếp tục đánh giá, phân tích kết liệu 15/05/2022 Tuần 12 - Làm báo cáo tổng hợp 16/05/202222/05/2022 Tuần 13 - Xây dựng thuyết trình Powerpoint 23/05/202229/05/2022 Tuần 14 30/05/2022- - Tập duyệt thuyết trình, bảo vệ đề tài - Báo cáo GVHD 05/06/2022 Tuần 15 - Nộp báo cáo cho môn 06/06/202212/06/2022 GV HƯỚNG DẪN (Ký ghi rõ họ tên) vi LỜI CAM ĐOAN Đề tài nhóm chúng em tự thực hướng dẫn Th.s Trần Đăng Khoa dựa tài liệu công trình nghiên cứu trước người trước, khơng có chép tài liệu hay cơng trình nghiên cứu có sẵn trước Sinh viên thực đề tài Nguyễn Văn Minh Ông Thị Mỹ Kiều vii LỜI CẢM ƠN Để hoàn thành tốt Đồ án tốt nghiệp này, chúng em xin gửi lời cảm ơn chân thành đến Thầy Th.S Trần Đăng Khoa – Giảng viên Bộ môn Điện Tử Công Nghiệp Y Sinh trực tiếp hướng dẫn tận tình giúp đỡ, tạo điều kiện tốt để chúng em hoàn thành tốt đề tài Chúng em xin gửi lời cảm ơn quý thầy cô Trường Đại học Sư Phạm Kỹ Thuật Thành phố Hồ Chí Minh tử nói chung thầy cô Bộ môn Điện Tử Công Nghiệp Y Sinh nói riêng truyền đạt cho chúng em kiến thức bổ ích, chia sẻ cho chúng em kinh nghiệm quý báu suốt trình học tập trường Nhóm chúng em xin cảm ơn anh chị trước, bạn bè em khóa sau giúp đỡ, dành thời gian tham gia buổi thí nghiệm thu liệu, giúp nhóm chúng em hoàn thành sở liệu phục vụ cho nghiên cứu thực đề tài Cuối chúng em xin cảm ơn gia đình, bạn bè động viên, đóng góp ý kiến, tạo điều kiện tốt suốt q trình học tập, nghiên cứu để hồn thành đề tài tốt nghiệp Chúng em xin chân thành cảm ơn! Sinh viên thực đề tài Nguyễn Văn Minh Ông Thị Mỹ Kiều viii Chương KẾT QUẢ, NHẬN XÉT ĐÁNH GIÁ Các tham số có khác tập liệu tín hiệu thành phần thí nghiệm mà lựa chọn để làm đặc trưng phân loại trạng thái biểu cảm, nhiên độ lệch chuẩn (STD) giá trị hiệu dụng (RMS) có kết xấp sỉ nhau, cần để ý đến thơng số trình chọn cặp đặc trưng cho phân loại 5.7 PHÂN LOẠI TRẠNG THÁI BIỂU CẢM CƯỜI VÀ NÂNG CHÂN MÀY SỬ DỤNG MÁY VECTOR HỖ TRỢ (SVM) Kết xây dựng thiết lập thống số cho hàm fitcsvm () để hồn thiệt mơ hình SVM thể qua bảng 5.9 Bảng 5.9 Thông số xây dựng hàm fitcsvm Thông số Lựa chọn Preset Fine Gaussian SVM Kernel function Gaussian Kernel scale 0.35 Box constraint level Standardize True Kết lựa chọn cặp đặc trưng phù hợp tập liệu Gamma, Beta, Alpha, Theta Delta (bảng 5.10): Bảng 5.10 Khảo sát độ xác phân loại sử dụng cặp đặc trưng khác Cặp tham số Energy - mean Energy - std Energy – var Energy - rms Energy - ks Energy - kur Mean - std Mean – var Mean - rms Mean - ks Mean - kur Std – var Std – rms Std – ks Gamma 73.6% 75% 88.9% 75% 75% 69,4% 86,1% 81,9% 86,1% 80,6% 75% 68,1% 66,7% 73,6% Beta 72,2% 69,4% 68,1% 69,4% 79,2% 72,2% 81,9% 84,7% 81,9% 83,3% 83,3% 68,1% 66,7% 76,4% BỘ MÔN ĐIỆN TỬ CÔNG NGHIỆP – Y SINH Alpha 70,8% 70,8% 69,4% 70,8% 77,8% 80,6% 83,3% 76,4% 83,3% 80,6% 80,6% 63,9% 59,7% 86,1% Theta 69,4% 75% 79,2% 75% 83,3% 79,2% 88,9% 86,1% 88,9% 83,3% 84,7% 66.7% 69,4% 81,9% Delta 69,4% 75% 69,4% 69,4% 69,4% 61,1% 84,7% 84,7% 84,7% 84,7% 77,8% 63,9% 73,6% 81,9% 66 Chương KẾT QUẢ, NHẬN XÉT ĐÁNH GIÁ Std – kur 69,4% 68,1% 77,8% 86,1% 73,6% Var - rms 68,1% 68,1% 63,9% 66,7% 63,9% Var - ks 77.8% 77,8% 83,3% 81,9% 81,9% Var - kur 66,7% 72,2% 77,8% 86.1% 73,6% Rms - ks 73,6% 76,4% 86,1% 81.9% 73,6% Rms - kur 69,4% 68,1% 77,8% 86.1% 73,6% Ks - kur 70,8% 73,6% 75% 79,2% 73,6% Như vậy, thơng qua bảng 16, ta xác nhận cặp tham số đặc trưng phù hợp phân loại nét mặt cười nâng chân mày dựa vào tín hiệu Gamma, Beta, Alpha, Theta, Delta với độ xác phân loại 80% cặp mean - ks (giá trị trung bình - độ lệch) cặp mean – std (giá trị trung bình - độ lệch chuẩn) cặp mean – rms (giá trị trung bình - bậc bình phương trung bình) (lựa chọn cặp độ xác phân loại cặp đặc trưng nhau) Ma trận đánh giá sai mô hình phân loại trạng thái biểu cảm trường hợp sau:  Cặp tham số đặc trưng: giá trị trung bình - độ lệch chuẩn Hình 5.15 Phân loại trạng thái biểu cảm dựa vào tín hiệu Gamma sử dụng cặp tham số giá trị trung bình - độ lệch chuẩn Hình 5.15 cho biết 36 lớp nâng chân mày (Raise Eyebrows) có 29 lớp phân loại lớp phân loại sai, tương tự 36 lớp cười (Smile) có 33 lớp phân loại lớp phân loại sai BỘ MÔN ĐIỆN TỬ CÔNG NGHIỆP – Y SINH 67 Chương KẾT QUẢ, NHẬN XÉT ĐÁNH GIÁ Hình 5.16 Phân loại trạng thái biểu cảm dựa vào tín hiệu Beta sử dụng cặp tham số giá trị trung bình - độ lệch chuẩn Hình 5.16 cho biết 36 lớp nâng chân mày (Raise Eyebrows) có 27 lớp phân loại lớp phân loại sai, tương tự 36 lớp cười (Smile) có 32 lớp phân loại lớp phân loại sai Hình 17 Phân loại trạng thái biểu cảm dựa vào tín hiệu Alpha sử dụng cặp tham số giá trị trung bình - độ lệch chuẩn Hình 5.17 cho biết 36 lớp nâng chân mày (Raise Eyebrows) có 32 lớp phân loại lớp phân loại sai, tương tự 36 lớp cười (Smile) có 28 lớp phân loại lớp phân loại sai BỘ MÔN ĐIỆN TỬ CÔNG NGHIỆP – Y SINH 68 Chương KẾT QUẢ, NHẬN XÉT ĐÁNH GIÁ Hình 18 Phân loại trạng thái biểu cảm dựa vào tín hiệu Theta sử dụng cặp tham số giá trị trung bình - độ lệch chuẩn Hình 5.18 cho biết 36 lớp nâng chân mày (Raise Eyebrows) có 32 lớp phân loại lớp phân loại sai, tương tự 36 lớp cười (Smile) có 32 lớp phân loại lớp phân loại sai Hình 19 Phân loại trạng thái biểu cảm dựa vào tín hiệu Delta sử dụng cặp tham số giá trị trung bình - độ lệch chuẩn Hình 5.19 cho biết 36 lớp nâng chân mày (Raise Eyebrows) có 33 lớp phân loại lớp phân loại sai, tương tự 36 lớp cười (Smile) có 28 lớp phân loại lớp phân loại sai  Cặp tham số đặc trưng: giá trị trung bình- độ lệch BỘ MƠN ĐIỆN TỬ CƠNG NGHIỆP – Y SINH 69 Chương KẾT QUẢ, NHẬN XÉT ĐÁNH GIÁ Hình 20 Phân loại trạng thái biểu cảm dựa vào tín hiệu Gamma sử dụng cặp tham số giá trị trung bình – độ lệch Hình 5.20 cho biết 36 lớp nâng chân mày (Raise Eyebrows) có 22 lớp phân loại 14 lớp phân loại sai, tương tự 36 lớp cười (Smile) có 36 lớp phân loại lớp phân loại sai Hình 21 Phân loại trạng thái biểu cảm dựa vào tín hiệu Beta sử dụng cặp tham số giá trị trung bình- độ lệch Hình 5.21 cho biết 36 lớp nâng chân mày (Raise Eyebrows) có 27 lớp phân loại lớp phân loại sai, tương tự 36 lớp cười (Smile) có 33 lớp phân loại lớp phân loại sai BỘ MÔN ĐIỆN TỬ CÔNG NGHIỆP – Y SINH 70 Chương KẾT QUẢ, NHẬN XÉT ĐÁNH GIÁ Hình 22 Phân loại trạng thái biểu cảm dựa vào tín hiệu Alpha sử dụng cặp tham số giá trị trung bình – độ lệch Hình 5.22 cho biết 36 lớp nâng chân mày (Raise Eyebrows) có 28 lớp phân loại lớp phân loại sai, tương tự 36 lớp cười (Smile) có 30 lớp phân loại lớp phân loại sai Hình 23 Phân loại trạng thái biểu cảm dựa vào tín hiệu Theta sử dụng cặp tham số giá trị trung bình – Độ lệch Hình 5.23 cho biết 36 lớp nâng chân mày (Raise Eyebrows) có 31 lớp phân loại lớp phân loại sai, tương tự 36 lớp cười (Smile) có 29 lớp phân loại lớp phân loại sai BỘ MÔN ĐIỆN TỬ CÔNG NGHIỆP – Y SINH 71 Chương KẾT QUẢ, NHẬN XÉT ĐÁNH GIÁ Hình 24 Phân loại trạng thái biểu cảm dựa vào tín hiệu Delta sử dụng cặp tham số giá trị trung bình – độ lệch Hình 5.24 cho biết 36 lớp nâng chân mày (Raise Eyebrows) có 28 lớp phân loại lớp phân loại sai, tương tự 36 lớp cười (Smile) có 33 lớp phân loại lớp phân loại sai Dựa theo ma trận trên, kết Accuracy, Acc1, Acc2 thống kê bảng 5.11 bảng 5.12 Bảng 5.11 Độ xác phân loại SVM dựa vào cặp tham số giá trị trung bình - độ lệch chuẩn Accuracy Acc1 Acc2 Gamma 86.11 80.56 91.67 Beta 81.94 75 88.89 Alpha 83.33 88.89 77.78 Theta 88.89 88.89 88.89 Delta 84.72 91.67 77.78 Bảng 12 Độ xác phân loại SVM dựa vào cặp tham số giá trị trung bình - độ lệch Gamma Beta Alpha Theta Delta Accuracy 80.56 83.33 80.56 83.33 84.72 Acc1 61.11 75 77.78 86.11 77.78 BỘ MÔN ĐIỆN TỬ CÔNG NGHIỆP – Y SINH Acc2 100 91.67 88.33 80.56 91.67 72 Chương KẾT LUẬN- HƯỚNG PHÁT TRIỂN Chương KẾT LUẬN- HƯỚNG PHÁT TRIỂN 6.1 KẾT LUẬN Hệ thống phần mềm phân loại trạng thái biển cảm Cười Nâng chân mày hoàn thành với cấu trúc gồm khối: Khối tiền xử lý, Khối trích đặc trưng Khối thực phân loại trạng thái biểu cảm, khối có chức khác phân tích, xử lý phân loại tín hiệu điện não, cụ thể: mức độ phức tạp tín hiệu giảm xuống sau tiền xử lý, sau tín hiệu phân tách thành cơng thành dạng sóng gồm tín hiệu Gamma, tín hiệu Beta, tín hiệu Alpha, tín hiệu Theta, tín hiệu Delta biến đổi Wavelet rời rạc, phân loại SVM, cặp tham số tiêu biểu sử dụng làm đặc trưng cho phân loại trạng thái biểu cảm dựa vào tín hiệu thành phần cặp giá trị trung bình - độ lệch chuẩn cặp giá trị trung bình – độ lệch Dựa vào hai bảng 17 bảng 18 ta thấy độ xác huấn luyện phân loại dựa vào tín hiệu thành phần với cặp đặc trưng tiêu biểu đạt 80% trở lên trường hợp, chứng tỏ việc ứng dụng tín hiệu thành để phân loại trạng thái biểu cảm có khả quan 6.2 HƯỚNG PHÁT TRIỂN Hồn thiện phần mềm phân loại trạng thái biểu cảm để ứng dụng cho hệ thống thiết bị theo dõi trạng thái cảm xúc cho trẻ tự kỷ từ xa Khi trẻ đội mũ điện não, tín hiệu thu trực tiếp đưa qua phần mềm phân loại Sau kết nối phần mềm Phân loại trạng thái biểu cảm với tảng IoT như: Blynk, ThingSpeak, Database… thông qua việc sử dụng vi điều khiển để tạo hệ thống thiết bị theo dõi trạng thái cảm xúc trẻ tự kỉ mình, giúp người giám sát nắm bắt trạng thái cảm xúc cụ thể trẻ tự kỉ lúc nơi BỘ MÔN ĐIỆN TỬ CÔNG NGHIỆP – Y SINH 73 TÀI LIỆU THAM KHẢO TÀI LIỆU THAM KHẢO [1] F Wang, K Kim, S Wen, Y Zhang, and C Wu, “EEG based automatic left-right hand movement classification,” in 2012 24th Chinese Control and Decision Conference (CCDC), May 2012, pp 1469–1472 doi: 10.1109/CCDC.2012.6244236 [2] R Xiao and L Ding, “Evaluation of EEG Features in Decoding Individual Finger Movements from One Hand,” Computational and Mathematical Methods in Medicine, vol 2013, p e243257, Apr 2013, doi: 10.1155/2013/243257 [3] A R Aguiñaga, D E Hernandez, A Quezada, and A Calvillo Téllez, “Emotion Recognition by Correlating Facial Expressions and EEG Analysis,” Applied Sciences, vol 11, no 15, p 6987, Jul 2021, doi: 10.3390/app11156987 [4] D Li, Z Wang, Q Gao, Y Song, X Yu, and C Wang, “Facial expression recognition based on Electroencephalogram and facial landmark localization,” Technology and Health Care, vol 27, no 4, pp 373–387, Jan 2019, doi: 10.3233/THC181538 [5] P C Petrantonakis and L J Hadjileontiadis, “Emotion Recognition From EEG Using Higher Order Crossings,” IEEE Trans Inform Technol Biomed., vol 14, no 2, pp 186–197, Mar 2010, doi: 10.1109/TITB.2009.2034649 [6] J Toth and M Arvaneh, “Facial expression classification using EEG and gyroscope signals,” in 2017 39th Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC), Seogwipo, Jul 2017, pp 1018– 1021 doi: 10.1109/EMBC.2017.8036999 [7] P A Abhang, B W Gawali, and S C Mehrotra, “Introduction to Emotion, Electroencephalography, and Speech Processing,” in Introduction to EEGand Speech-Based Emotion Recognition, Elsevier, 2016, pp 1–17 Accessed: Jun 03, 2022 [Online] Available: https://linkinghub.elsevier.com/retrieve/pii/B9780128044902000014 [8] “Lobes of the brain,” Dec 02, 2016 https://qbi.uq.edu.au/brain/brain- anatomy/lobes-brain (accessed Jun 03, 2022) BỘ MÔN ĐIỆN TỬ CÔNG NGHIỆP – Y SINH 74 TÀI LIỆU THAM KHẢO [9] Y Buskila, A Bellot-Saez, and J W Morley, “Generating Brain Waves, the Power of Astrocytes,” Front Neurosci., vol 13, p 1125, Oct 2019, doi: 10.3389/fnins.2019.01125 [10] “Các loại sóng não: Delta, Theta, Alpha, Beta Gamma,” Sep 28, 2018 https://vi.psychologyinstructor.com/cac-loai-song-nao-delta-theta-alpha-beta-vagamma/ (accessed Jun 03, 2022) [11] Võ T., “Sóng Não Là Gì, Phân Loại Và Cách Ứng Dụng Vào Cuộc Sống,” Bihaku.vn, Oct 13, 2020 https://bihaku.vn/song-nao-la-gi-phan-loai-va-cach-ungdung-vao-cuoc-song.html (accessed Jun 03, 2022) [12] “What are Brainwaves? - Improve Brain Health with Neurofeedback,” Sinha Clinic https://www.sinhaclinic.com/what-are-brainwaves/ (accessed Jun 03, 2022) [13] J Wang and M Wang, “Review of the emotional feature extraction and classification using EEG signals,” Cognitive Robotics, vol 1, pp 29–40, 2021, doi: 10.1016/j.cogr.2021.04.001 [14] S Nagel, “Towards a home-use BCI: fast asynchronous control and robust non-control state detection,” Dissertation, Universität Tübingen, 2019 Accessed: Jun 03, 2022 [Online] Available: https://publikationen.uni-tuebingen.de/xmlui/handle/10900/96356 [15] “10–20 system (EEG),” Wikipedia Mar 13, 2022 Accessed: Jun 04, 2022 [Online] Available: https://en.wikipedia.org/w/index.php?title=10%E2%80%9320_system_(EEG)&o ldid=1076814653 [16] “Bioelectromagnetism.” https://www.bem.fi/book/ (accessed Jun 03, 2022) [17] L F Nicolas-Alonso and J Gomez-Gil, “Brain Computer Interfaces, a Review,” Sensors, vol 12, no 2, pp 1211–1279, Jan 2012, doi: 10.3390/s120201211 [18] “EPOC Flex Cap.” https://emotiv.gitbook.io/epoc-flex-user- manual/cap/epoc-flex-cap (accessed Jun 04, 2022) [19] “Example Sensor Placement (Montage).” https://emotiv.gitbook.io/epoc- flex-user-manual/electrodes/example-electrode-placement (accessed Jun 03, 2022) BỘ MÔN ĐIỆN TỬ CÔNG NGHIỆP – Y SINH 75 TÀI LIỆU THAM KHẢO [20] “Gel Sensors.” https://emotiv.gitbook.io/epoc-flex-user- manual/electrodes/electrode-assembly (accessed Jun 03, 2022) [21] P Tallgren, S Vanhatalo, K Kaila, and J Voipio, “Evaluation of commercially available electrodes and gels for recording of slow EEG potentials,” Clinical Neurophysiology, vol 116, no 4, pp 799–806, Apr 2005, doi: 10.1016/j.clinph.2004.10.001 [22] “Package Contents.” https://emotiv.gitbook.io/epoc-flex-user- manual/epoc-flex/package-contents (accessed Jun 03, 2022) [23] “Detrending Data MATLAB - & Simulink.” https://www.mathworks.com/help/matlab/data_analysis/detrending-data.html (accessed Jun 17, 2022) [24] C P Dautov and M S Ozerdem, “Wavelet transform and signal denoising using Wavelet method,” in 2018 26th Signal Processing and Communications Applications Conference (SIU), Izmir, Turkey, May 2018, pp 1–4 doi: 10.1109/SIU.2018.8404418 [25] Isaac Hernandez-Fajardo, Georgios Evangelatos, Ioannis Kougioumtzoglou, and Xin Ming, Signal Denoising using Wavelet-based Methods George R Brown School of Engineering, Rice University Houston, TX - USA [Online] Available: https://cnx.org/contents/ahcuwm3R@1.1:-yxzQLO-@2/SignalDenoising-using-Wavelet-based-Methods [26] “Normalize data - MATLAB normalize.” https://www.mathworks.com/help/matlab/ref/double.normalize.html (accessed Jun 18, 2022) [27] Md R Islam, Md A Rahim, Md R Islam, and J Shin, “Genetic Algorithm Based Optimal Feature Selection Extracted by Time-Frequency Analysis for Enhanced Sleep Disorder Diagnosis Using EEG Signal,” in Intelligent Systems and Applications, Cham, 2020, pp 881–894 doi: 10.1007/978-3-030-29513-4_65 [28] J Liu, H Meng, M Li, F Zhang, R Qin, and A K Nandi, “Emotion detection from EEG recordings based on supervised and unsupervised dimension reduction: Emotion Detection from EEG Recordings Based on Supervised and BỘ MÔN ĐIỆN TỬ CÔNG NGHIỆP – Y SINH 76 TÀI LIỆU THAM KHẢO Unsupervised Dimension Reduction,” Concurrency Computat Pract Exper, vol 30, no 23, p e4446, Dec 2018, doi: 10.1002/cpe.4446 [29] S M Nacy, S N Kbah, H A Jafer, and I Al-Shaalan, “Controlling a Servo Motor Using EEG Signals from the Primary Motor Cortex,” American Journal of Biomedical Engineering, vol 6, no 5, pp 139–146, 2016 [30] Latest “Artifacts Contaminating Your EEG Recordings,” Neuroelectrics Blog news about EEG & Brain Stimulation, Dec 18, 2014 https://www.neuroelectrics.com/blog/2014/12/18/artifacts-contaminating-your-eegrecordings/ (accessed Jun 11, 2022) [31] D B Percival and D Mondal, “A Wavelet Variance Primer,” in Handbook of Statistics, vol 30, Elsevier, 2012, pp 623–657 Accessed: Jun 01, 2022 [Online] Available: https://linkinghub.elsevier.com/retrieve/pii/B9780444538581000223 [32] M Hosseinzadeh, “Robust control applications in biomedical engineering: Control of depth of hypnosis,” in Control Applications for Biomedical Engineering Systems, Elsevier, 2020, pp 89–125 Accessed: Jun 12, 2022 [Online] Available: https://linkinghub.elsevier.com/retrieve/pii/B9780128174616000044 [33] D Devi, S Sophia, and S R Boselin Prabhu, “Deep learning-based cognitive state prediction analysis using brain wave signal,” in Cognitive Computing for Human-Robot Interaction, Elsevier, 2021, pp 69–84 Accessed: Jun 01, 2022 [Online] Available: https://linkinghub.elsevier.com/retrieve/pii/B9780323857697000173 [34] R Haddadi, E Abdelmounim, M El Hanine, and A Belaguid, “Discrete Wavelet Transform based algorithm for recognition of QRS complexes,” in 2014 International Conference on Multimedia Computing and Systems (ICMCS), Marrakech, Morocco, Apr 2014, pp 375–379 doi: 10.1109/ICMCS.2014.6911261 [35] H Ocak, “Automatic detection of epileptic seizures in EEG using discrete wavelet transform and approximate entropy,” Expert Systems with Applications, vol 36, no 2, pp 2027–2036, Mar 2009, doi: 10.1016/j.eswa.2007.12.065 [36] J E Jacob, G K Nair, T Iype, and A Cherian, “Diagnosis of Encephalopathy Based on Energies of EEG Subbands Using Discrete Wavelet BỘ MÔN ĐIỆN TỬ CÔNG NGHIỆP – Y SINH 77 TÀI LIỆU THAM KHẢO Transform and Support Vector Machine,” Neurology Research International, vol 2018, pp 1–9, Jul 2018, doi: 10.1155/2018/1613456 [37] M S Özerdem and H Polat, “Emotion recognition based on EEG features in movie clips with channel selection,” Brain Inf., vol 4, no 4, pp 241–252, Dec 2017, doi: 10.1007/s40708-017-0069-3 [38] W Y Choong et al., “Correlation Analysis of Emotional EEG In Alpha, Beta and Gamma Frequency Bands,” J Phys.: Conf Ser., vol 1997, no 1, p 012029, Aug 2021, doi: 10.1088/1742-6596/1997/1/012029 [39] “Correlation coefficients MATLAB - corrcoef.” https://www.mathworks.com/help/matlab/ref/corrcoef.html (accessed Jun 13, 2022) [40] “Correlation analysis | Analyze correlation between two variables | QuestionPro.” https://www.questionpro.com/features/correlation-analysis.html (accessed Jun 05, 2022) [41] “Support Vector Machine (SVM).” https://www.mathworks.com/discovery/support-vector-machine.html (accessed Jun 02, 2022) [42] “Support www.javatpoint.com Vector Machine (SVM) Algorithm - Javatpoint,” https://www.javatpoint.com/machine-learning-support-vector- machine-algorithm (accessed Jun 02, 2022) [43] N Kumar, “The Professionals Point: Advantages and Disadvantages of SVM (Support Vector Machine) in Machine Learning,” The Professionals Point, Mar 01, 2019 http://theprofessionalspoint.blogspot.com/2019/03/advantages-and- disadvantages-of-svm.html (accessed Jun 02, 2022) [44] “Major Kernel Functions in Support Vector Machine (SVM),” GeeksforGeeks, Jul 15, 2020 https://www.geeksforgeeks.org/major-kernel-functionsin-support-vector-machine-svm/ (accessed Jun 13, 2022) [45] B Singh and H Wagatsuma, “A Removal of Eye Movement and Blink Artifacts from EEG Data Using Morphological Component Analysis,” Computational and Mathematical Methods in Medicine, vol 2017, pp 1–17, 2017, doi: 10.1155/2017/1861645 BỘ MÔN ĐIỆN TỬ CÔNG NGHIỆP – Y SINH 78 TÀI LIỆU THAM KHẢO [46] R Ghosh, N Sinha, and S K Biswas, “Automated eye blink artefact removal from EEG using support vector machine and autoencoder,” IET signal process., vol 13, no 2, pp 141–148, Apr 2019, doi: 10.1049/iet-spr.2018.5111 BỘ MÔN ĐIỆN TỬ CÔNG NGHIỆP – Y SINH 79 S K L 0

Ngày đăng: 25/05/2023, 12:19

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

w