Nghiên cứu phát triển hệ thống hỗ trợ giám sát và đánh giá quá trình học tập của người học trên hệ thống đào tạo trực tuyến dựa trên nhận dạng biểu cảm khuôn mặt

116 7 0
Nghiên cứu phát triển hệ thống hỗ trợ giám sát và đánh giá quá trình học tập của người học trên hệ thống đào tạo trực tuyến dựa trên nhận dạng biểu cảm khuôn mặt

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

Thông tin tài liệu

DANH SÁCH THÀNH VIÊN THAM GIA NGHIÊN CỨU ĐỀ TÀI VÀ ĐƠN VỊ PHỐI HỢP Danh sách thành viên tham gia nghiên cứu đề tài Stt Họ tên Nơi công tác TS Dương Thăng Long Trường ĐH Mở Hà Nội TS Lê Thị Minh Thảo Trường ĐH Mở Hà Nội TS Đinh Tuấn Long Trường ĐH Mở Hà Nội TS Trần Thị Lan Thu Trường ĐH Mở Hà Nội ThS Nguyễn Thành Huy Trường ĐH Mở Hà Nội ThS Trần Tiến Dũng Trường ĐH Mở Hà Nội ThS Dương Chí Bằng Trường ĐH Mở Hà Nội ThS Nguyễn Văn Thành Trường ĐH Mở Hà Nội ThS Trần Hoài Nam Trường ĐH Mở Hà Nội Các đơn vị phối hợp - Trường Đại học Mở Thành phố Hồ Chí Minh MỤC LỤC DANH MỤC BẢNG BIỂU & HÌNH VẼ DANH MỤC TỪ VIẾT TẮT PHẦN I: MỞ ĐẦU Tính cấp thiết đề tài Tình hình nghiên cứu 10 2.1 Tình hình nghiên cứu nước 10 2.2 Tình hình nghiên cứu ngồi nước 11 Mục tiêu nghiên cứu 14 Đối tượng phạm vi nghiên cứu 14 4.1 Đối tượng nghiên cứu 14 4.2 Phạm vi nghiên cứu 15 Cách tiếp cận phương pháp nghiên cứu 15 5.1 Cách tiếp cận 15 5.2 Phương pháp nghiên cứu 15 PHẦN II: NỘI DUNG VÀ KẾT QUẢ NGHIÊN CỨU Error! Bookmark not defined Chương Một số vấn đề sở liên quan đến phạm vi đề tài 17 1.1 Một số vấn đề đào tạo trực tuyến 17 1.2 Phương pháp học sâu mạng nơron tích chập (CNN) 25 1.3 Một số kiến trúc mạng CNN ứng dụng 34 Chương Phương pháp nhận dạng khuôn mặt, nhận dạng biểu cảm khuôn mặt dựa mạng nơron tích chập 44 2.1 Phương pháp nhận dạng khuôn mặt dựa mạng nơron tích chập thể nhẹ ứng dụng định danh cá nhân người học đào tạo trực tuyến 44 2.2 Phương pháp nhận dạng biểu cảm khn mặt dựa mạng nơron tích chập kiến trúc ResNet (residual network) 59 2.3 Phương pháp giám sát mức độ tập trung học tập dựa ước lượng khung nhìn người học trực tuyến 79 Chương Xây dựng hệ thống phần mềm ứng dụng nhận dạng khuôn mặt biểu cảm khn mặt tích hợp với hệ thống quản lý học tập trực tuyến 90 3.1 Hiện trạng hệ thống công nghệ phần mềm học tập trực tuyến (LMS) 90 3.2 Xây dựng hệ thống phần mềm nhận dạng tích hợp với LMS 93 3.3 Kết hệ thống phần mềm thử nghiệm 103 PHẦN III: KẾT LUẬN & KIẾN NGHỊ 108 III.1 Kết luận 108 III.2 Kiến nghị 109 TÀI LIỆU THAM KHẢO 110 DANH MỤC BẢNG BIỂU & HÌNH VẼ Hình 2.1.1 Các thành tố mối quan hệ chúng 19 Hình 2.1.3 Họ phương pháp liên quan đến học sâu [21.Laith] 25 Hình 2.1.4 Phương pháp học sâu học máy thơng thường [21.Laith] 26 Hình 2.1.5 Hiệu mơ hình mạng nơron học sâu [21.Laith] .27 Hình 2.1.11 Minh hoạ mạng CNN nhận dạng hình ảnh [21.Laith] 28 Hình 2.1.12 Minh hoạ phép tích chập 29 Hình 2.1.13 Minh hoạ tính tốn ba phép gộp (pooling) thường sử dụng 30 Hình 2.1.14 Minh hoạ lớp FC mơ hình CNN 30 Hình 2.1.15 Minh hoạ phương pháp giảm gradient 31 Hình 2.1.16 Minh hoạ trình hội tụ BGD, mBGD, SDG 32 Bảng 2.1.1 Một số mơ hình CNN đại 34 Hình 2.1.6 Một số kiến trúc mạng nơron học sâu đại [19.Wang] 35 Hình 2.1.17 Kiến trúc mạng VGG .35 Hình 2.1.18 Kiến trúc mơ-đun “inception” GoogleNet 36 Hình 2.1.19 Cấu trúc khối SE [18.Hu] 37 Hình 2.1.20 Tích hợp khối SE vào khối ResNet [18.Hu] 38 Hình 2.1.8 Quy trình cho tốn FR dựa DNN 40 Hình 2.2.1.4 Sơ đồ chung mơ hình nhận dạng khn mặt đề xuất 46 Hình 2.2.1.5 Khn mặt tăng cường nhiễu cộng Gaussian 47 Hình 2.2.1.7 Kiến trúc mơ hình CNN đề xuất 48 Hình 2.2.1.8 Phép tích chập ví dụ 49 Hình 2.2.1.9 Hình ảnh đầu khối B2, B4 B6 50 Hình 2.2.1.10 Ví dụ đầu “softmax” nơron đầu (N1-N15) .50 Hình 2.2.1.11 Hệ thống tích hợp LMS CNN tổng thể 52 Hình 2.2.1.13 Hình ảnh người phân phối LFW20 53 Hình 2.2.1.14 Khn mặt tư ánh sáng khác 54 Bảng 2.2.1.1 Các tham số chạy thử nghiệm 55 Hình 2.2.15 Các hình ảnh tăng cường từ tập liệu sinh viên 55 Hình 2.2.1.16 Bản đồ nhiệt lớp CONV mơ hình .56 Hình 2.2.1.17 Quá trình huấn luyện AT&T liệu sinh viên .57 Bảng 2.2.1.2 Kết thử nghiệm tổng thể 58 Bảng 2.2.1.3 So sánh kết thử nghiệm 59 Hình 2.2.2.1 Sáu biểu cảm khuôn mặt 61 Hình 2.2.2.2 Minh hoạ khối kết nối nơron kiểu ResNet 63 Hình 2.2.2.3 Mơ hình FER 64 Hình 2.2.2.4 Bổ sung nhiễu dạng Gaussian vào hình ảnh 65 Hình 2.2.2.5 Kết quay hình ảnh 65 Hình 2.2.2.6 Thiết kế khối RU 66 Hình 2.2.2.7 Kiến trúc tổng thể mơ hình FERES 67 Hình 2.2.2.8 Mơ hình FERES tích hợp vào LMS 68 Hình 2.2.2.9 Một số hình ảnh từ CK+ .70 Hình 2.2.2.10 Một số hình ảnh từ Oulu-CASIA 70 Hình 2.2.2.11 Một số hình ảnh từ JAFFE 71 Hình 2.2.2.12 Một số hình ảnh từ FERS21 71 Bảng 2.2.2.1 Sự phân bố hình ảnh biểu cảm khuôn mặt .71 Bảng 2.2.2.2 Các thơng số cho thí nghiệm 72 Hình 2.2.2.13 Bản đồ nhiệt lớp CONV cuối 73 Hình 2.2.2.14 Độ xác q trình huấn luyện tập liệu .74 Hình 2.2.2.15 Hình ảnh “Sa” nhận dạng thành “An” CK+ .74 Bảng 2.2.2.3 Ma trận nhầm lẫn CK+ 75 Bảng 2.2.2.4 Ma trận nhầm lẫn Oulu-CASIA .75 Bảng 2.2.2.5 Ma trận nhầm lẫn JAFFE 75 Hình 2.2.2.16 Một số hình ảnh nhận dạng lỗi có mức độ tương tự lớn 76 Bảng 2.2.2.6 Độ xác thử nghiệm tập liệu kiểm tra 77 Bảng 2.2.2.7 So sánh độ xác mơ hình tập kiểm tra 78 Hình 2.2.3.1- Sơ đồ kết nối hai hệ thống LMS RML 81 Hình 2.2.3.2- Các vị trí đặc trưng khuôn mặt phát 82 Hình 2.2.3.3- Mơ hình nhận dạng ảnh khn mặt người học .83 Hình 2.2.3.4- Các tham số thể quay ngang, dọc hay nghiêng đầu 84 Hình 2.2.3.5- Sai lệch điểm đặc trưng với điểm 2D mơ hình khn mặt 85 Hình 2.2.3.6- Độ sai lệch khung nhìn người học so với mong muốn 85 Hình 2.2.3.7- Một số tư góc nhìn khác ‘jim’ BU 86 Bảng 2.2.3.1- Các liệu sử dụng thử nghiệm 86 Bảng 2.2.3.2- Các tham số thử nghiệm .87 Hình 2.2.3.8- Khung hình nhận dạng sai liệu Students 87 Bảng 2.2.3.3- Kết ước lượng mức độ tập trung học tập liệu .88 Hình 2.2.3.9- Sự thay đổi HPE LE hai liệu UPNA (a) BU (b) 88 Bảng 2.2.3.4- Sai số góc tư xoay nghiêng đầu liệu UPNA 89 Bảng 2.2.3.5- Sai số góc tư xoay nghiêng đầu liệu BU 89 Hình 2.3.1 Sơ đồ phân cụm hệ thống máy chủ 92 Hình 2.3.2 Q trình chuẩn bị liệu cho mơ hình học máy 94 Hình 2.3.3 Quá trình thu thập hình ảnh từ Internet 95 Hình 2.3.4 Quy trình xử lý hình ảnh thu thập 96 Hình 2.3.5 Kiến trúc kết nối logic hai hệ thống .99 Hình 2.3.6 An toàn kết nối dựa nguyên tắc chữ ký số 100 Hình 2.3.7 Sơ đồ kết nối tương tác kỹ thuật 101 Hình 2.3.8 Kiến trúc API TensorFlow 102 Hình 2.3.9 Sơ đồ phương án lựa chọn triển khai hệ thống 103 Hình 2.3.10 Kiến trúc chuyển đổi hoạt động Tensorflow.js 103 Bảng 2.3.1 Danh sách số mơ-đun xử lý hệ thống 104 Hình 2.3.9 Thu thập hình ảnh nhận dạng thử nghiệm .105 Hình 2.3.11 Màn hình thu thập hình ảnh người dùng 106 Hình 2.3.12 Minh hoạ kết chụp hình ảnh khn mặt người dùng 106 Hình 2.3.13 Trạng thái biểu cảm khn mặt nhận dạng 107 Hình 2.3.14 Tổng hợp theo dõi nhận dạng người dùng 107 DANH MỤC TỪ VIẾT TẮT Stt 10 11 12 13 Từ viết tắt CNTT ĐTTT ĐTTX LMS CNN FR FE FER CONV POOL FC BP FERS 14 15 16 AI DL DNN Ý nghĩa đầy đủ Công nghệ thông tin Đào tạo trực tuyến Đào tạo từ xa Hệ thống quản lý học tập trực tuyến Convolution Neural Network Face Recognition, nhận dạng khuôn mặt Facial Expression, biểu cảm khuôn mặt Facial Expression Recognition, nhận dạng biểu cảm khn mặt Convolution, nơron tích chập Pooling, lớp nơron kết gộp tín hiệu đặc trưng Fully Connection, lớp nơron kết nối đầy đủ Backpropagation, truyền ngược Facial Expression Recognition System, hệ thống nhận dạng biểu cảm khuôn mặt Artificial Intelligtent, trí tuệ nhân tạo Deep Learning, học sâu Deep Neural Network, mạng nơron học sâu PHẦN MỞ ĐẦU Tính cấp thiết đề tài Sự phát triển nhanh mạnh mẽ khoa học công nghệ làm cho cách mạng công nghiệp 4.0 ngày trở nên hữu tác động thúc đẩy phát triển sâu rộng lĩnh vực đời sống kinh tế - xã hội Trong đó, ứng dụng công nghệ lĩnh vực CNTT nhằm hỗ trợ đắc lực cho lĩnh vực giáo dục đào tạo nhu cầu cấp thiết nhằm nâng cao chất lượng hiệu hoạt động giáo dục đào tạo, đặc biệt cộng đồng giáo dục mở đào tạo từ xa Đào tạo trực tuyến (ĐTTT) từ xu hướng với nghiên cứu, mức độ phạm vi ứng dụng hạn chế hai thập niên trước, đến trở thành nhu cầu cấp thiết u cầu có tính tất yếu ĐTTT có nhiều ưu điểm, lợi ích vượt trội hoạt động giảng dạy linh hoạt mềm dẻo hệ thống giáo dục ĐTTT, giảm thiểu rào cản tiếp cận giáo dục nhiều phương diện lứa tuổi, vị trí địa lý, thời gian tình trạng tài Hiện nay, giới triển khai mạnh mẽ đào tạo trực tuyến nhằm hỗ trợ đắc lực cho hoạt động đào tạo truyền thống, Việt Nam có số sở đào tạo ứng dụng công nghệ này, đặc biệt Trường Đại học Mở Hà Nội Trường ĐH Mở TP.HCM với quy mô lên đến hàng chục ngàn sinh viên Tuy nhiên, thực tế phát triển ĐTTT chủ yếu dừng lại việc ứng dụng cơng nghệ có tính chất vào hỗ trợ dạy học quản lý đào tạo, chưa phát huy mạnh sử dụng hết mạnh công nghệ chuyên biệt phục vụ sâu cho giáo dục đào tạo Cơng nghệ xử lý nhận dạng hình ảnh ứng dụng vào nhiều lĩnh vực khác có giáo dục đào tạo Các công nghệ dựa mạng nơron nhân tạo, đặc biệt mơ hình mạng nơron tích chập (CNN) nghiên cứu mạnh mẽ phát triển ứng dụng thành công thực tiễn Tuy nhiên, đào tạo, chưa có nhiều nghiên cứu phát triển hệ thống xử lý nhận dạng hình ảnh để hỗ trợ cho nghiệp vụ hoạt động đào tạo nhằm nâng cao hiệu chất lượng, đặc biệt đào tạo trực tuyến với quy mô đông sinh viên Chẳng hạn, việc xác thực người học giám sát trình học tập trực tuyến khó khăn nhiều thời gian thực tác nghiệp học thông thường Công nghệ nhận dạng khuôn mặt dựa phương pháp học sâu (deep learning) sử dụng mơ hình CNN giải vấn đề hiệu ứng dụng rộng rãi lĩnh vực sống Trên giới, có vài phần mềm Nestor chụp ảnh khn mặt sinh viên qua webcam máy tính cá nhân phân tích chuyển động mắt biểu khn mặt để tìm liệu sinh viên có tập trung vào nội dung giảng hay không Tại Việt Nam nay, chưa có nhà trường đưa vào ứng dụng công nghệ đào tạo Trong ĐTTT, công nghệ xử lý nhận dạng hình ảnh dựa mơ hình CNN khơng xác định danh tính giám sát liên tục người học trực tuyến mà cịn có khả nhận diện đo đếm trạng thái cảm xúc người học thông qua biểu cảm khuôn mặt trình học nhằm tăng cường giám sát, đánh giá q trình dạy học, qua có điều chỉnh nâng cao chất lượng dạy học, hiệu đào tạo Với lý trên, đề tài nhằm góp phần nghiên cứu phương pháp nhận dạng khn mặt biểu cảm khn mặt dựa mơ hình CNN để định danh giám sát người học, đánh giá trình học tập đào tạo trực tuyến Trên sở đó, phát triển phần mềm ứng dụng tích hợp vào hệ thống học tập trực truyến (LMS) có sở đào tạo nhằm hỗ trợ, nâng cao chất lượng hiệu đào tạo Tình hình nghiên cứu 2.1 Tình hình nghiên cứu nước Những năm gần đây, phát triển không ngừng cơng nghệ thơng tin (CNTT) nói chung internet nói riêng mang lại thay đổi đáng kể cho sống nhân loại Internet thực môi trường thông tin liên kết người toàn giới, để chia sẻ vấn đề mang tính xã hội Tận dụng mơi trường internet, xu hướng phát triển phần mềm xây dựng ứng dụng có khả chia sẻ cao, vận hành khơng phụ thuộc vào vị trí địa lý hệ điều hành, tạo điều kiện cho người trao đổi, tìm kiếm thơng tin, học tập cách dễ dàng, thuận lợi Đào tạo trực tuyến (E-Learning) mơ hình điển Việc học khơng bó hẹp cho học sinh, sinh viên trường mà dành cho tất người, khơng kể tuổi tác, vị trí địa lý, hoàn cảnh điều kiện sống,… E-Learning thử nghiệm thành công sử dụng rộng rãi nhiều nơi giới, có Việt Nam Tại Việt Nam, nghiên cứu phát triển đào tạo trực tuyến (ĐTTT) quan tâm từ khoảng năm 2000 nhiên đến năm 2003, nhà nghiên cứu, sở giáo dục đào tạo, nhà phát triển quan tâm nghiên cứu phát triển mạnh ĐTTT Các hội nghị, hội thảo CNTT giáo dục có đề cập nhiều đến ĐTTT khả áp dụng vào môi trường đào tạo Việt Nam Nhiều trường đại học trường có loại hình đào tạo từ xa chuyển sang ứng dụng kết hợp đào tạo theo phương thức truyền thống với phương thức trực tuyến Tuy nhiên mức độ ứng dụng CNTT đào tạo từ xa trường khác tuỳ vào phương thức tổ chức đào tạo (phụ trợ kết hợp trực tuyến truyền thống hay ĐTTT yếu) Ứng dụng CNTT với cơng nghệ có tính chun sâu, đặc biệt công nghệ nhận dạng khuôn mặt có khả hỗ trợ tích cực việc kiểm sốt tình hình tham gia học tập, lên lớp sinh 10 Hình 2.3.8 Kiến trúc API TensorFlow Các API TensorFlow sử dụng dễ dàng xây dựng nhà chuyên gia nghiên cứu hàng đầu học máy giới, đảm bảo chất lượng, hiệu an toàn cho việc phát triển hệ thống (Hình 2.3.8) Điều đặc biệt TensorFlow cho phép lập trình viên tạo đồ thị luồng liệu (dataflow graph), cấu trúc mô tả làm liệu di chuyển qua biểu đồ tính tốn, hay loạt nút (node) xử lý liệu Mỗi node đồ thị đại diện phép xử lý (tính tốn số học) kết nối (hay cạnh, edge) node mảng liệu đa chiều thể kết tính tốn node trước đưa vào node tiếp theo, liệu gọi ‘tensor’ Việc thực thi mơ hình theo luồng đồ thị tận dụng tối đa lực tính tốn song song hệ thống máy tính triển khai hệ thống lớn, hiệu mang lại cho nhà phát triển cao Python ngôn ngữ hỗ trợ tảng TensorFlow sử dụng nghiên cứu • TensorFlow.js phiên thư viện học máy từ TensorFlow, giúp xuất mơ hình học máy thực mơi trường JavasSript Việc triển khai mơ hình học máy huấn luyện (pre-trained models) tảng web thực dễ dàng, TensorFlow.js phát triển thư viện front-end dành cho trình duyệt (Hình 2.3.9) 102 Hình 2.3.9 Sơ đồ phương án lựa chọn triển khai hệ thống Kết mô hình CNN nghiên cứu xây dựng tảng Tensorflow xuất thành kiến trúc Tensorflow.js để chạy tảng web thơng qua trình duyệt (Hình 2.3.10) Trong đó, xuất thực thi theo kiến trúc Tensorflow.js chủ yếu áp dụng chế tính tốn dạng Eager tảng Tensorflow Hình 2.3.10 Kiến trúc chuyển đổi hoạt động Tensorflow.js 3.3 Kết hệ thống phần mềm thử nghiệm Trên sở triển khai thử nghiệm phần mềm tảng máy tính (desktop) tảng web, hệ thống xây dựng gồm mô-đun mô tả Bảng 2.3.1 103 Bảng 2.3.1 Danh sách số mơ-đun xử lý hệ thống TT Tên mô-đun Mô tả Phạm vi sử dụng face_dataset Các thao tác xử lý kho liệu desktop hình ảnh, tiền xử lý tăng cường ảnh face_detection Phát khuôn mặt dựa desktop, web phương pháp mạng nơron học sâu (dnn, mtcnn) face_model_* Xây dựng mơ hình CNN desktop huấn luyện mạng image_capture Truy cập camera nguồn desktop, web liệu video để thực chụp ảnh thiết bị người dùng face_gui_application Xử lý giao diện ứng dụng desktop chạy tính cho người dùng desktop face_api_* Xử lý với mơ hình CNN web xây dựng xuất client) web để chạy trình duyệt (server, Sau số hình ảnh kết chạy thử nghiệm hệ thống tảng desktop 104 Hình 2.3.9 Thu thập hình ảnh nhận dạng thử nghiệm Phần thử nghiệm máy tính cục bộ, đó, tính thiết lập gồm: (1) Chụp hình ảnh từ thiết bị webcam (mặc định) camera kết nối với máy tính, tần suất chụp từ webcam (“Capture delay”) 50ms thay đổi Tính cho phép chụp hình ảnh liên tục từ người dùng trạng thái khác khuôn mặt, hình ảnh chụp định danh thời điểm chụp (ngày tháng năm, thời gian) Nơi lưu hình ảnh chụp thư mục lựa chọn xác định người dùng thơng qua tính thiết lập “Set folder” giao diện Tuy nhiên, việc chụp ảnh từ webcam tần suất liên tục nhiều việc lưu hình ảnh, trạng thái biểu cảm khuôn mặt thay đổi không nhanh tần suất chụp hình, cho phép người dùng thiết lập thời gian tần suất để lưu trữ hình ảnh nhiều (“Saving delay”) Tính thực chế độ “Face detection & saving” bật lên giao diện Sau đó, chuyên gia cho thể gán nhãn cho hình ảnh để làm sở liệu phục vụ việc huấn luyện mơ hình cần (2) Tính nhận dạng báo cáo (“Face recognition & reporting”) để chạy mơ hình nhận dạng khn mặt kết hợp mơ hình phát hướng nhìn (head pose) Mơ hình để nhận dạng cần phải tải vào hệ thống thông qua thiết lập mặc định đường dẫn đến tệp mơ hình xây dựng huấn luyện (thường tệp tin định dạng *.h5) Kết nhận dạng phát hướng nhìn thể trực tiếp lên hình ảnh (Hình 2.3.9) in hình chạy chương trình để trực quan theo dõi dễ dàng cho người dùng thử nghiệm (3) Tính huấn luyện mơ hình (“Train model”) để thử nghiệm tính huấn luyện mơ hình đơn giản, thực thi máy tính cá nhân cục việc huấn luyện mơ hình chậm dừng mức đơn giản lực tính tốn máy tính khơng cao đặc biệt khơng có GPU việc tăng tốc độ huấn luyện mơ hình CNN khó khăn Thơng thường, mơ hình CNN xây dựng huấn luyện từ trước hệ thống tính tốn mạnh với mơi trường có GPU để hỗ trợ xử lý tính tốn song song tảng Tensorflow, tốc độ hiệu xây dựng mơ hình cao Đối với phiên hệ thống chạy thử nghiệm tảng web, mơ hình nhận dạng xuất để thực thi tảng Tensorflow.js nhúng vào trang web thử nghiệm phát triển PHP địa “https:face.hou.edu.vn” Tại đó, có tính cung cấp cho người dùng thử nghiệm gồm: (1) Tính chụp ảnh khn mặt người dùng Mỗi người thiết lập tài khoản thông qua định danh (ID) mật khẩu, ID tài khoản mã sinh viên để liên thơng sang hệ thống LMS Mỗi người dùng ánh xạ đến 105 thư mục lưu trữ hình ảnh chụp server Để hạn chế bùng nổ tài nguyên lưu trữ, hệ thống cho phép chụp hình ảnh người dùng đăng nhập thiết kế sẵn 17 số vị trí góc nhìn người dùng đảm bảo tính đa dạng hình ảnh thu thập (Hình 2.3.11) Trong đó, có vị trí nhìn hình máy tính vị trí nhìn khỏi hình máy tính người dùng Tuy nhiên, thu thập đa dạng theo tần suất chụp phiên desktop để thu thập nhiều hình ảnh cho huấn luyện mơ hình Hình 2.3.11 Màn hình thu thập hình ảnh người dùng Sau đăng nhập, hình ảnh người dùng vị trí chụp hiển thị để chụp lại cần (Hình 2.3.12) Tính tích hợp với mơ hình phát khn mặt để tự động trích xuất phần ảnh chứa khn mặt hình ảnh chụp nhằm giảm thiểu liệu truyền tải lưu trữ hệ thống Hình 2.3.12 Minh hoạ kết chụp hình ảnh khn mặt người dùng (2) Tính giám sát, theo dõi hình ảnh theo người dùng thống kê kết tích hợp (bằng cách nhúng) vào hệ thống LMS có sẵn trình bày phần trước Hình 2.3.13 thể trạng thái biểu cảm khuôn mặt người dùng hệ thống thử nghiệm, theo thứ tự từ trái sang phải trạng thái 106 vui vẻ/hài lịng (happy), trạng thái bình thường (normal/neutral) trạng thái chán ản/buồn (unhappy) Mỗi trạng thái có mức độ nhận dạng thể kèm theo (độ tin cậy nhận dạng) Để đơn giản, thử nghiệm thử nghiệm với mô hình có loại biểu cảm huấn luyện nhằm thống kê, đánh giá hài lịng khơng người học suốt trình phiên học tập Hình 2.3.13 Trạng thái biểu cảm khn mặt nhận dạng Ở phần thử nghiệm này, hệ thống đưa độ tin cậy kết nhận dạng (cả định danh khuôn mặt người dùng biểu cảm khuôn mặt) Có cảnh báo âm cho người dùng độ tin cậy ngưỡng (0.5) nhận dạng định danh khuôn mặt, tần suất cảnh báo loạt hình ảnh nhận dạng ngưỡng 300 lượt nhận dạng liên tục Với cách này, sử dụng kết qủa đưa mức ngưỡng chập nhận tính tốn tổng hợp cuối để đánh giá mức độ tham gia học tập người học Kết theo dõi người dùng trực tuyến thơng qua bảng tổng hợp theo Hình 2.3.14, đó, với định danh người dùng (User ID) có thời gian gửi thơng tin máy trạm người dùng, độ trễ thời gian so với server, kết nhận dạng khn mặt người dùng gồm (nhãn định danh, độ tin cậy FR, loại biểu cảm, độ tin cậy biểu cảm FER) Các cột cuối thông tin tổng hợp gồm tổng số lượt nhận dạng phiên, số lượt khơng phát hình ảnh khn mặt, độ tin cậy FR trung bình trạng thái biểu cảm Hình 2.3.14 Tổng hợp theo dõi nhận dạng người dùng 107 KẾT LUẬN & KIẾN NGHỊ Kết luận Với mục tiêu phát triển hệ thống hỗ trợ giám sát đánh giá trình học tập người học hệ thống đào tạo trực tuyến sở nhận dạng khuôn mặt biểu cảm khuôn mặt Nghiên cứu đề xuất mơ hình mạng nơron tích chập (CNN), mơ hình dựa theo kiểu kiến trúc VGG để nhận dạng khuôn mặt mơ hình dựa sử dụng kiến trúc residual (ResNet) để nhận dạng biểu cảm khuôn mặt Mơ hình nhận dạng khn mặt (FR) thiết kế dạng thể nhẹ gồm lớp nơron tích chập (CONV) lớp nơron kết nối đầy đủ (FC) với tổng cộng khoảng 3,5 triệu tham số, nhỏ hầu hết số lượng tham số mô hình khác nhằm dễ dàng xuất để chạy trền web máy cục người dùng Mặc dù vậy, kết thử nghiệm mơ hình đạt chất lượng hiệu cao, độ xác đạt từ 99,63% đến 100% liệu thử nghiệm Kết công bố sản phẩm SP1 Mơ hình nhận dạng biểu cảm khn mặt có 49 lớp nơron tích chập (CONV) để trích xuất đặc trưng lớp nơron kết nối đầy đủ (FC) sử dụng hàm ‘softmax’ để phân loại Do đó, mơ hình có tổng cộng khoảng 23,5 triệu tham số, tương đối nhỏ so với mô hình khác VGGFace có đến 128 triệu tham số [19.Minael] mơ hình hàng trăm triệu tham số [19.Wang, 19.Alom] Thử nghiệm mơ hình cho thấy chất lượng hiệu nhận dạng biểu cảm khn mặt cao, có độ xác từ 90% đến 100% tập liệu kiểm tra liệu Kết công bố sản phẩm SP2 Ngoài ra, nghiên cứu đề xuất phương pháp ước lượng tư góc nhìn người học qua thiết bị ghi hình góc quay ngang (yaw), quay dọc (pitch) nghiêng (roll) đầu để xác định vùng có khả quan sát học tập người học hình Phương pháp ước lượng cho kết tốt liệu thử nghiệm, có sai số so với thơng tin thu thập tập liệu mức nhỏ đứng thứ thứ so sánh liệu UPNA BU số phương pháp Kết công bố sản phẩm [SP3] Trên sở mơ hình đề xuất này, thiết kế phát triển hệ thống nhận dạng khuôn mặt biểu cảm khn mặt (FERS) có khả tích hợp với hệ thống quản lý học tập (LMS) Hệ thống tích hợp thiết kế linh hoạt dễ áp dụng cho LMS nào, cần số kết nối FERS LMS để gửi yêu cầu nhận kết nhận dạng hình ảnh người học thiết bị học tập LMS hoạt động độc lập có kết nối với FERS cần, làm cho hoạt động độc lập hai hệ thống Hệ thống phần mềm cho mơ hình nhận dạng (FERS) xây dựng thử nghiệm hai tảng desktop web, dạng web để tích hợp theo chế độ nhúng vào 108 LMS thông qua điều chỉnh giao diện người dùng cách thêm thẻ “div” dạng vị trí phù hợp Kết chạy thử nghiệm hệ thống cho thấy thuận tiện hệ thống tích hợp, độ xác hệ thống khẳng định qua mơ hình mạng nơron tích chập xây dựng huấn luyện Bên cạnh sản phẩm cơng trình khoa học công bố, hệ thống phần mềm ứng dụng thử nghiệm, nội dung nghiên cứu góp phần vào sản phẩm đào tạo gồm 02 học viên cao học ngành CNTT với 01 học viên bảo vệ thành cơng, 01 học viên hồn thành semina cấp khoa chờ bảo vệ Sản phẩm sách có giáo trình xây dựng “Phát triển ứng dụng thương mại điện tử” phục vụ cho đào tạo ngành Thương mại điện tử học phần liên quan ngành CNTT Trong đó, ứng dụng trí tuệ nhân tạo, học máy mạng nơron học sâu định hướng đưa vào giáo trình Như vậy, kết cho thấy nghiên cứu đạt mục tiêu đặt bao gồm nội dung sản phẩm khoa học, sản phẩm phục vụ đào tạo sản phẩm phần mềm ứng dụng thử nghiệm Kiến nghị Hệ thống FERS xây dựng dạng kết nối linh hoạt mềm dẻo, đó, hệ thống LMS dễ dàng tích hợp chí chạy độc lập Nhóm nghiên cứu mong muốn tiếp tục hoàn thiện hệ thống theo dạng sản phẩm thương mại cung cấp cho sở cần sử dụng việc hỗ trợ giám sát, theo dõi người học tham gia học tập, thi trực tuyến Hơn nữa, hệ thống hồn thiện dạng sản phẩm đóng gói tích hợp hoàn toàn vào hệ thống ứng dụng khác để ghi nhận hoạt động người dùng hệ thống giám sát làm việc trực tuyến, từ thống kê đánh giá mức độ hoạt động người làm việc, hay hệ thống giám sát người bệnh sở y tế, hệ thống giám sát khách hàng sở dịch vụ Các mơ hình nghiên cứu sử dụng kiến trúc CNN đại cho kết tốt song mơ hình rời rạc, tiếp tục nghiên cứu để xây dựng phát triển mơ hình đa tác vụ (multi-task CNN) nhằm thực lúc nhiệm vụ phát khuôn mặt, nhận dạng định danh khuôn mặt, nhận dạng biểu cảm khuôn mặt ước lượng hướng nhìn khn mặt Hơn nữa, tiếp nghiên cứu phát triển tiếp biến thể kiến trúc mạng nơron CNN để giải tốt cho loại toán đặc thù nhằm đem lại hiệu ứng dụng cao hơn, đặc biệt mơ hình gọn nhẹ để đưa vào ứng dụng trực tuyến thuận lợi 109 TÀI LIỆU THAM KHẢO A Tiếng Việt [1] [17.Khang], Phạm Nguyên Khang, Trần Nguyễn Minh Thư, Đỗ Thanh Nghị, “Điểm danh mặt người với đặc trưng GIST máy học véc-tơ hỗ trợ”, Kỷ yếu Hội nghị Quốc gia lần thứ X Nghiên cứu ứng dụng Công nghệ thông tin (FAIR) - Đà Nẵng, pp.156-164, 2017 [2] [17.Hien], Lâm Thành Hiển, “Phát triển số kỹ thuật phát lái xe ngủ gật dựa trạng thái mắt hành vi gật lắc”, Luận án Tiến sĩ, Viện Hàn lâm Khoa học Công nghệ Việt Nam, 2017 [3] [15.Duyen], Ngô Thị Duyên, “Nghiên cứu mô hình nhân vật ảo biểu cảm khuôn mặt ba chiều nói tiếng Việt”, Luận án tiến sĩ ngành Khoa học máy tính, Đại học cơng nghệ, Đại học Quốc gia Hà Nội, 2015 [4] [20.Huong] N.M Huong, T.T.L Thu, N.H Duc, “Hệ sinh thái giáo dục trực tuyến”, Hội thảo quốc gia Hệ sinh thái giáo dục trực tuyến - định hướng mơ hình số yếu tố đảm bảo chất lượng, 2020 [5] [20.Trung] T.Q Trung, “Hệ thống quản lý học tập trực tuyến giáo dục đại học”, Hội thảo quốc gia Hệ sinh thái giáo dục trực tuyến - định hướng mơ hình số yếu tố đảm bảo chất lượng, 2020 B Tiếng Anh [6] [17.Sun], Ai Sun, Ying-Jian Li, Yueh-Min Huang, Qiong Li, “Using Facial Expression to Detect Emotion in E-learning System: A Deep Learning Method”, International Symposium on Emerging Technologies for Education, Emerging Technologies for Education, pp 446-455, 2017 [7] [15.Philbin], Florian Schroff, Dmitry Kalenichenko, James Philbin, “FaceNet: A Unified Embedding for Face Recognition and Clustering”, Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2015 [8] [15.Parkhi], Omkar M Parkhi, Andrea Vedaldi, Andrew Zisserman, “Deep Face Recognition”, Visual Geometry Group Department of Engineering Science University of Oxford, 2015 [9] [19.Wang], Mei Wang, Weihong Deng, “Deep Face Recognition: A Survey”, Neurocomputing, 14 March 2021, vol.429, pp.215-244, 2019 [10] [18.Han], Chunrui Han, Shiguang Shan, Meina Kan, Shuzhe Wu, and Xilin Chen, “Face Recognition with Contrastive Convolution”, ECCV 2018, https://springer.com/conference/eccv, 2018 [11] [18.Naik], Sonali Sawardekar, Sowmiya Raksha Naik, “Facial Expression Recognition using Efficient LBP and CNN”, International Research Journal of Engineering and Technology (IRJET), Volume: 05 Issue: 06, pp.2273-2277, 2018 110 [12] [16.Amigud], Joan Arnedo-Moreno, Ana-Elena Guerrero, Thanasis Daradoumis, “A Behavioral Biometrics Based and Machine Learning Aided Framework for Academic Integrity in E-Assessment”, International Conference on Intelligent Networking and Collaborative Systems, 2016 [13] [18.Shan], Shan Li and Weihong Deng, “Deep Facial Expression Recognition: A Survey”, IEEE Transactions on Affective Computing, 2018 [14] [17.Sun], Ai Sun, Ying-Jian Li, Yueh-Min Huang, and Qiong Li, “Using Facial Expression to Detect Emotion in E-learning System: A Deep Learning Method”, Springer International Publishing (SETE 2017), LNCS 10676, pp 446–455, https://doi.org/10.1007/978-3-319-71084-6_52, 2017 [15] [18.Mahmood], M A Abuzneid and A Mahmood, “Enhanced Human Face Recognition Using LBPH Descriptor, Multi-KNN, and BPNN”, IEEE Access, Vol 6, pp.20641-20651, 2018 [16] [18.Arya], Shraddha Arya and Arpit Agrawal, “Face Recognition with Partial Face Recognition and Convolutional Neural Network”, International Journal of Advanced Research in Computer Engineering & Technology (IJARCET), Vol.7, Iss.1, pp.91-94, ISSN: 2278 – 1323, 2018 [17] [18.Cao], Qiong Cao et al., “VGGFace2 - A dataset for recognising faces across pose and age”, IEEE Conference on Automatic Face and Gesture Recognition (http://www.robots.ox.ac.uk/ ∼vgg/data/vgg face2), 2018 [18] [18.Deffo], Lionel Landry S Deffo et al., “CNNSFR: A Convolutional Neural Network System for Face Detection and Recognition”, International Journal of Advanced Computer Science and Applications, Vol 9, No 12, pp.240-244, 2018 [19] [18.Derman], Ekberjan Derman and Albert Ali Salah, “Continuous Real-Time Vehicle Driver Authentication Using Convolutional Neural Network Based Face Recognition”, 13th IEEE International Conference on Automatic Face & Gesture Recognition, 2018 [20] [14.Fayyoumi], Ayham Fayyoumi and Anis Zarrad, “Novel Solution Based on Face Recognition to Address Identity Theft and Cheating in Online Examination Systems”, Advances in Internet of Things, Vol.4, pp.5-12, 2014 [21] [18.Han], Chunrui Han et al., “Face Recognition with Contrastive Convolution”, European Conference on Computer Vision: Computer Vision – ECCV, pp.120135, 2018 [22] [17.Kamencay], Patrik Kamencay et al., “A New Method for Face Recognition Using Convolutional Neural Network”, Digital Image Processing and Computer Graphics, Vol 15, No 4, pp.663-672, 2017 [23] [18.Mohammadzade], Hoda Mohammadzade et al., “Pixel-Level Alignment of Facial Images for High Accuracy Recognition Using Ensemble of Patches”, Journal of the Optical Society of America, A.35(7), 2018 111 [24] [15.Simonyan], Karen Simonyan and Andrew Zisserman, Very Deep Convolutional Networks for Large-Scale Image Recognition, University of Oxford, 2015 [25] [18.Santoso], Kevin Santoso et al., “Face Recognition Using Modified OpenFace”, 3rd International Conference on Computer Science and Computational Intelligence, Procedia Computer Science, No.135, pp.510–517, 2018 [26] [14.Syafeeza], R Syafeeza et al., “Convolutional Neural Network for Face Recognition with Pose and Illumination Variation”, International Journal of Engineering and Technology (IJET), pp.44-57, 2014 [27] [18.Oloyede], Muhtahir O Oloyede et al., “Improving Face Recognition Systems Using a New Image Enhancement Technique, Hybrid Features and the Convolutional Neural Network”, IEEE Access, Vol 6, pp 75181-75191, 2018 [28] [17.Selvaraju], Ramprasaath R Selvaraju et al., “Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization”, IEEE International Conference on Computer Vision (ICCV), Electronic ISSN: 2380-7504, 2017 [29] [19.Wang], Mei Wang et al., “Deep Face Recognition: A Survey”, School of Information and Communication Engineering, Beijing University of Posts and Telecommunications, Beijing, China, 2019 [30] [18.Yamashita], Rikiya Yamashita et al., “Convolutional neural networks: an overview and application in radiology”, Insights into Imaging, vol.9, pp.611–629, 2018 [31] [15.Kingma], Diederik P Kingma et al., “Adam: A Method for Stochastic Optimization”, 3rd International Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings 2015 [32] [19.Zafar], Umara Zafar et al., “Face recognition with Bayesian convolutional networks for robust surveillance systems”, EURASIP Journal on Image and Video Processing 2019:10 [33] [19.Wirdiani], Ni Kadek Ayu Wirdiani, “Real-Time Face Recognition with Eigenface Method”, I.J Image, Graphics and Signal Processing, vol.11, pp.1-9, 2019 [34] [20.Khan], Rafflesia Khan and Rameswar Debnath, “Human Distraction Detection from Video Stream Using Artificial Emotional Intelligence”, I.J Image, Graphics and Signal Processing, vol.2, pp.19-29, 2020 [35] [18.Kotevski], Zoran Kotevski et al., “On the Technologies and Systems for Student Attendance Tracking”, I.J Information Technology and Computer Science, vol.10, pp.44-52, 2018 [36] [11.Zhao] G Zhao, X Huang, M Taini, S.Z Li & M Pietikäinen, “Facial expression recognition from near- infrared videos”, Image and Vision Computing, 29(9): pp.607-619, 2011 112 [37] [10.Lucey] Lucey, Patrick, et al “The extended cohn-kanade dataset (ck+): A complete dataset for action unit and emotion-specified expression”, Computer Vision and Pattern Recognition Workshops (CVPRW), IEEE Computer Society Conference on IEEE, 2010 [38] [13.Carrier] Carrier, P L., Courville, A., Goodfellow, I J., Mirza, M., & Bengio, Y., “FER-2013 face database”, Universit de Montreal, 2013 [39] [20.DTLong] Duong Thang Long, “A Lightweight Face Recognition Model Using Convolutional Neural Network for Monitoring Students in E-Learning”, I.J Modern Education and Computer Science, vol.6, pp.16-28, 2020 [40] [15.Adam] Diederik P Kingma et al., Adam: A Method for Stochastic Optimization, 3rd International Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings 2015 [41] [17.Ramprasaath] Ramprasaath R Selvaraju, Michael Cogswell, Abhishek Das, Ramakrishna Vedantam, Devi Parikh, Dhruv Batra, “Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization”, IEEE International Conference on Computer Vision (ICCV), ISSN: 2380-7504, DOI: 10.1109/ICCV.2017.74, IEEE, 2017 [42] [18.Tang] Z Zhang, P Luo, C L Chen, and X Tang, “From facial expression recognition to interpersonal relation prediction,” International Journal of Computer Vision, vol 126, no 5, pp 1–20, 2018 [43] [17.Zhou] H Ding, S K Zhou, and R Chellappa, “Facenet2expnet: Regularizing a deep face recognition net for expression recognition” in Automatic Face & Gesture Recognition (FG 2017), 2017 12th IEEE International Conference on IEEE, 2017, pp 118–126 [44] [05.Shang] Yuyi Shang, Mie Sato, and Masao Kasuga, “An Interactive System with Facial Expression Recognition”, Journal of Advanced Computational Intelligence 637 and Intelligent Informatics, Vol.9 No.6, pp 637-642, 2005 [45] [16.Zhang] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun, “Identity Mappings in Deep Residual Networks”, European Conference on Computer Vision ECCV, Computer Vision – ECCV, pp 630-645, 2016 [46] [18.Sawardekar] Sonali Sawardekar, Sowmiya Raksha Naik, “Facial Expression Recognition using Efficient LBP and CNN”, International Research Journal of Engineering and Technology (IRJET), vol.05, iss.06, e-ISSN: 2395-0056, pp.2273-2277 [47] [19.Alom] Md Zahangir Alom, Tarek M Taha, Chris Yakopcic, Stefan Westberg, Paheding Sidike, Mst Shamima Nasrin, Mahmudul Hasan, Brian C Van Essen, Abdul A S Awwal and Vijayan K Asari, “A State-of-the- Art Survey on Deep Learning Theory and Architectures”, Electronics, 8(3), 292; https://doi.org/10.3390/electronics8030292, 2019 113 [48] [20.Porcu] Simone Porcu, Alessandro Floris, and Luigi Atzori, “Evaluation of Data Augmentation Techniques for Facial Expression Recognition Systems”, Electronics 2020, 9(11), 1892; https://doi.org/10.3390/electronics9111892, 2020 [49] [20.Xia] Zuheng Ming, Junshi Xia, Muhammad Luqman, Jean-Christophe Burie, Kaixing Zhao, “Dynamic Multi- Task Learning for Face Recognition with Facial Expression”, Lightweight Face Recognition Challenge Workshop during the 2019 International Conference on Computer Vision (ICCV 2019), Séoul, South Korea hal- 02889907, Oct 2019 [50] [20.Zhao] Rui Zhao, Tianshan Liu, Jun Xiao, Daniel P K Lun, Kin-Man Lam, “Deep Multi-task Learning for Facial Expression Recognition and Synthesis Based on Selective Feature Sharing”, Computer Vision and Pattern Recognition, DOI: arxiv-2007.04514, 2020 [51] [98.Akamatsu] Lyons, Michael J., Shigeru Akamatsu, Miyuki Kamachi, Jiro Gyoba, and Julien Budynek ”The Japanese female facial expression (JAFFE) database.” third international conference on automatic face and gesture recognition, pp 14-16, 1998 [52] [15.Hamester] D Hamester, P Barros, and S Wermter, “Face expression recognition with a 2-channel convolutional neural network,” in Neural Networks (IJCNN), 2015 International Joint Conference on IEEE, 2015, pp 1–8 [53] [19.Minael] Shervin Minaee1, Amirali Abdolrashidi, “Deep- Emotion: Facial Expression Recognition Using Attentional Convolutional Network”, Sensors 2021, 21, 3046 https://doi.org/10.3390/s21093046 [54] [19.Tao] Wenxuan Wang , Qiang Sun, Tao Chen, “A Fine- Grained Facial Expression Database for End-to-End Multi-Pose Facial Expression Recognition”, arXiv:1907.10838 [55] [19.BNAnh] Bui Ngoc Anh, Ngo Tung Son, Phan Truong Lam, Le Phuong Chi, Nguyen Huu Tuan, Nguyen Cong Dat, Nguyen Huu Trung, Muhammad Umar Aftab and Tran Van Dinh, “A Computer-Vision Based Application for Student Behavior Monitoring in Classroom”, Applied Sciences 9(22) 4729, 2019 [56] [19.Wen] Yandong Wen, Kaipeng Zhang, Zhifeng Li, Yu Qiao, “A Comprehensive Study on Center Loss for Deep Face Recognition”, International Journal of Computer Vision, 127:668–683, 2019 [57] [19.Yang] Tsun-Yi Yang, Yi-Ting Chen, Yen-Yu Lin, Yung-Yu Chuang, “FSA-Net: Learning Fine-Grained Structure Aggregation for Head Pose Estimation from a Single Image”, IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), DOI: 10.1109/CVPR.2019.00118, 2019 [58] [18.Hu] Jie Hu, Li Shen, Samuel Albanie, Gang Sun, Enhua Wu, “Squeeze-andExcitation Networks”, IEEE/CVF Conference on Computer Vision and Pattern Recognition, DOI: 10.1109/CVPR.2018.00745, 2018 114 [59] [16.Lakshmi] Krithika.L.B, Lakshmi Priya GG, “Student Emotion Recognition System (SERS) for e-learning improvement based on learner concentration metric”, International Conference on Computational Modeling and Security (CMS), 2016 [60] [16.Madhusanka] B.G.D.A Madhusanka, A.G.B.P Jayasekara, “Adaptive Vision Attentive Robot Eye for Service Robot”, IEEE International Conference on Information and Automation for Sustainability (ICIAfS), 2016 [61] [15.Dahmane] Afifa Dahmane, Slimane Larabi, Ioan Marius Bilasco and Chabane Djeraba, “Head Pose Estimation Based on Face Symmetry Analysis”, Signal, Image and Video Processing, vol 9, pp 1871–1880, 2015 [62] [19.Gupta] Aryaman Gupta, Kalpit Thakkar, Vineet Gandhi and P J Narayanan, “Nose, eyes and ears - Head pose estimation by locating facial keypoints”, IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2019 [63] [18.Enuji] Nataniel Ruiz Eunji, Chong James, M Rehg, “Fine-Grained Head Pose Estimation Without Keypoints”, IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), 2018 [64] [17.Fornalczyk] Krzysztof Fornalczyk, Adam Wojciechowski, “Robust face model based approach to head pose estimation”, Proceedings of the Federated Conference on Computer Science and Information Systems, ISSN 2300-5963 ACSIS, vol 11, pp 1291–1295, 2017 [65] [19.Cabeza] Mikel Ariz, Arantxa Villanueva, Rafael Cabeza, “Robust and accurate 2D-tracking-based 3D positioning method Application to head pose estimation”, Computer Vision and Image Understanding, vol 180, pp.13–22, 2019 [66] [21.Khan] Khalil Khan, Jehad Ali, Kashif Ahmad, Asma Gul, Ghulam Sarwar, Sahib Khan, Qui Thanh Hoai Ta, Tae-Sun Chung and Muhammad Attique, 3D Head Pose Estimation through Facial Features and Deep Convolutional Neural Networks, Computers, Materials & Continua, vol.66, no.2, pp.1757-1770, 2021 [67] [07.Nicholson] Paul Nicholson, Chapter 1, “A History of E-Learning - Echoes of the pioneers”, Computers and Education: E-learning, From Theory to Practice, 1–11, Springer, 2007 [68] [21.Laith] Laith Alzubaidi, Jinglan Zhang, Amjad J Humaidi, Ayad Al‐Dujaili, Ye Duan, Omran Al‐Shamma, J Santamaría, Mohammed A Fadhel, Muthana Al‐Amidie and Laith Farhan, “Review of deep learning: concepts, CNN architectures, challenges, applications, future directions”, J Big Data, 8:53, 2021 115 [69] [16.Ruder] Sebastian Ruder, “An overview of gradient descent optimization algorithms”, arXiv preprint arXiv:1609.04747, 2016 [70] [16.Hutter] Frank Hutter & Ilya Loshchilov, “SGDR: Sochastic Gradient Descent with warm restarts”, https://arxiv.org/abs/1608.03983, 2016 [71] [16.He] Kaiming He, Xiangyu Zhang, Shaoqing Ren and Jian Sun, “Deep Residual Learning for Image Recognition”, In: Proceedings of the IEEE conference on computer vision and pattern recognition; pp 770–8, 2016 [72] [21.Internet] eLearning industry, “Top Educational Technology Trends In 2020-2021”, https://elearningindustry.com/top-educational-technology-trends2020-2021 [73] [19.Vasa], Hardik Vasa, “Google Images https://github.com/hardikvasa/google-images-download, 2019 Download”, [74] [TFJS], The TensorFlow.js library for machine learning in JavaScript, https://www.tensorflow.org/js 116

Ngày đăng: 29/08/2023, 11:57

Tài liệu cùng người dùng

Tài liệu liên quan