So sánh kết quả thực nghiệm với kết quả của phương pháp [36]

Một phần của tài liệu (LUẬN văn THẠC sĩ) xây dựng mô hình kết hợp ảnh thường và ảnh nhiệt để ước lượng cảm xúc con người (Trang 55 - 65)

7. Cấu trúc luận văn

4.3.3. So sánh kết quả thực nghiệm với kết quả của phương pháp [36]

Phương pháp được đề xuất trên ảnh nhiệt được so sánh với kết quả thu được trên cùng một cơ sở dữ liệu KTFE. Với phương pháp [36], các tác giả đề xuất trích xuất vùng quan tâm - ROI và sử dụng các phương pháp PCA và

80.00 82.00 84.00 86.00 88.00 90.00 92.00 94.00 96.00 A N G E R F E A R H A P P I N E S S N E U T R A L S A D N E S S TỶ L Ệ % Ther-Resnet-50 Phương pháp 32

đổi. Nó xác định các khu vực nơi nhiệt độ tăng hoặc giảm đáng kể khi cảm xúc thay đổi và tập trung ở trán, xung quan mắt, gò má và hàm trên. Bảng 4.4 và hình 4.7 cho thấy hiệu suất đạt được bằng phương pháp đề xuất tốt hơn so với các phương pháp khác. Bởi vì chúng tôi đã sử dụng mô hình mạng học sâu và áp dụng kỹ thuật học chuyển giao để trích xuất đặc trưng tự động nên thu được nhiều thông tin hữu ích hơn.

Bảng 4.4. So sánh phân tích với phương pháp [36]

Phương pháp Tỷ lệ nhận dạng trung bình

Phương pháp [36] 90.42%

Ther-ResNet-50 92.44%

Hình 4.7. So sánh giữa phương pháp đề xuất và phương pháp [36]

Như vậy, trên cơ sở dữ liệu KTFE thì phương pháp đề xuất của chúng tôi có tỷ lệ nhận dạng trung bình cao hơn so với phương pháp trong bài báo [36].

80 82 84 86 88 90 92 94 96 98 100 G I Ậ N D Ữ G H Ê T Ở M S Ợ H Ã I H Ạ N H P H Ú C B Ì N H T H Ư Ờ N G B U Ồ N R Ầ U N H I Ê N N G Ạ C TỶ L Ệ % AXIS TITLE Ther-Resnet-50 phương pháp [35]

Chương 5. KẾT LUẬN VÀ HƯỚNG PHÁT TRIỂN

Trong luận văn này, chúng tôi giới thiệu phương pháp ước lượng cảm xúc của con người dựa trên kết hợp hình ảnh thường và hình ảnh nhiệt nhằm khắc phục ảnh hưởng của ánh sáng môi trường và giảm tác động của những đối tượng ít thể hiện cảm xúc ra bên ngoài. Ngoài ra chúng tôi đã sử dụng kỹ thuật học chuyển giao với mạng đã được học trước trên bộ dữ liệu lớn và áp dụng vào bài toán của mình nhằm giảm thời gian học và tăng độ chính xác cho từng bộ phân lớp.

Chúng tôi đã đưa ra một hàm tính toán sự kết hợp ước lượng cảm xúc trên ảnh thường và ảnh nhiệt để tăng kết quả ước lượng.

Các thuật toán được kiểm tra trên cơ sở dữ liệu KTFE. Bảy cảm xúc cơ bản: giận dữ, ghê tởm, sợ hãi, hạnh phúc, buồn rầu, ngạc nhiên và bình thường được nhận dạng với độ chính xác cao là: 89.58%, 92.41% và 94.06% tương ứng cho: Vi-Resnet-50, Ther-Resnet-50 và Fu-Resnet-50.

Kết quả cho thấy rằng nhiệt độ và cảm xúc có mối liên quan chặt chẽ với nhau. Sử dụng thông tin nhiệt độ sẽ tăng tính chính xác cho nhận dạng cảm xúc con người.

Bên cạnh những kết quả đã đạt được, còn có những vấn đề mà thời điểm hiện tại luận văn chưa thực hiện:

- Chưa kết hợp các phương pháp rút trích đặc trưng truyền thống và kết hợp với mô hình học sâu nhằm so sánh kết quả với phương pháp rút trích đặc trưng tự động của mô hình học sâu.

- Chưa thực nghiệm với các mô hình mạng khác như ZF Net (2013), VGG Net (2014), Densenet(2016), v.v.

Trong tương lai, chúng tôi tiếp tục nghiên cứu thêm về mối quan hệ giữa biểu hiện của người và cảm xúc cũng như mối quan hệ giữa nhiệt độ và cảm xúc. Chúng tôi sẽ tiếp tục cải thiện công thức kết hợp các bộ phân lớp để đóng

khác về cảm xúc như âm thanh, text để có thêm nhiều thông tin trong nhận dạng cảm xúc hơn. Từ những kiến thức đó, chúng tôi sẽ xây dựng ứng dụng thực tế có thể hỗ trợ tương tác giữa con người và máy tính tốt hơn.

CÔNG TRÌNH CÔNG BÔ

Bài báo khoa học: N. Tran, K. Tran, D. Nguyen, H. Nguyen “A Method to Combine Thermal and Visible images for Human Emotions Detection” đã được chấp nhận trình bày tại hội nghị 4th International Conference on Advanced Engineering and ICT-Convergence 2020 (ICAEIC-2020).

Bài báo khoa học: N. Nguyen, N. Tran, H. Nguyen, et al. “A Spontaneous Visible and Thermal Facial Expression of Human Emotion Database” đã được trình bày tại hội nghị the 2019 6th NAFOSTED Conference on Information and Computer Science (NICS).

TÀI LIỆU THAM KHẢO

[1] C. Bartneck.: How convincing is Mr. Datas smile: Affective expressions of machines", User Modeling and User-Adapted Interaction, vol. 11, pp. 279-295 (2001).

[2] R.A. Brooks.: Flesh and Machines: How Robots will change us, Pantheon Books, New York (2002).

[3] R.W. Picard.: Affective Computing, MA: MIT Press (2000).

[4] A. Mehrabian.: Nonverbal communication, Transaction Publishers (1977).

[5] I. Cohen, N. Sebe, A. Garg, L.S. Chen, T.S. Huang.: Facial expression recognition from video sequences: temporal and static modeling, Journal of Computer Vision and Image Understanding, no. 91, pp. 160-187 (2003).

[6] Z. Liu and S. Wang.: Emotion recognition using Hidden Markov Model from facial temperature sequence, LNCS 6975, pp.240-247 (2011).

[7] B. Martinez, M. Valstar, B. Jiang, and M. Pantic.: Automatic analysis of facial actions: A survey, IEEE Transactions on Affective Computing 2017.

[8] H. Nguyen, K. Kotani, F. Chen, and B. Le, A thermal facial emotion database and its analysis, in PSIVT, 2014, pp. 397–408.

[9] C.Ciprian, O. Marc, C. Jeffrey, and E. Sergio.: Survey on RGB, 3D, Thermal, and Multimodal Approaches for Facial Expression Recognition: History, Trends, and Affect-related Applications, IEEE Transactions On Pattern Analysis And Machine Intelligence, 2016.

[10] S. Evangelos, G. Hatice, and C. Andrea.: Automatic Analysis of Facial Affect: A Survey of Registration, Representation, and Recognition, IEEE Transactions On Pattern Analysis And Machine Intelligence 2015.

[11] P. Ekman, V. Friesen, “Facial action coding system: a technique for the measurement of facial movement”, Rivista Di Psichiatria 47 (2), pp. 126– 138, 1978.

[12] H. Choi, S.Y. Oh, “Realtime Facial Expression Recognition Using Active Appearance Model and Multilayer Perceptron”, in Proceedings of the International Joint Conference SICE-ICASE, Busan, Korea, pp. 5924–5927, October 2006.

[13] A. Asthana, J. Saragih, M. Wagner, R. Goecke, “Evaluating AAM Fitting Methods for Facial Expression Recognition”, in Proceedings of the International Conference on Affective Computing and Intelligent Interaction, Amsterdam, The Netherlands; pp. 1–8, September 2009.

[14] N. Sebe, M.S. Lew, Y. Sun, I. Cohen, T. Gevers, T.S. Huang, “Authentic facial expression analysis”. Image Vision Comput, pp.1856–1863, 2007.

[15] Y. Chang, C. Hu, R. Feris, M. Turk, “Manifold based analysis of facial expression”. Image Vision Comput, pp.605–614, 2006.

[16] S. Moore, R. Bowden, “Local binary patterns for multi-view facial expression recognition”. Computer Vision Image Underst, pp.541–558, 2011

[17] D. Ghimire, J. Lee, “Histogram of orientation gradient feature- based facial expression classification using bagging with extreme learning machine”. Adv. Sci. Lett, pp.156–161, 2012.

[18] A. Dhall, A. Asthana, R. Goecke, T. Gedeon, “Emotion Recognition Using PHOG and LPQ Features”. In Proceedings of the IEEE International Conference on Face and Gesture Recognition and Workshop, Santa Barbara, CA, USA, pp. 878–883, 2011.

[19] T. Jabid, H. Kabir, O. Chae, “Robust facial expression recognition based on local directional pattern”. ETRI J, pp.784–794, 2010.

[20] I. Kotsia, I. Buciu, I. Pitas, “An analysis of facial expression recognition under partial facial image occlusion”. Image Vision Comput, pp.1052–1067, 2008.

[21] D.T. Lin, “Facial expression classification using PCA and hierarchical radial basic function network”. J. Inf. Sci. Eng, pp.1033–1046, 2006.

[22] Z. Wang, Q. Ruan, “Facial Expression Recognition Based Orthogonal Local Fisher Discriminant Analysis”. In Proceedings of the International Conference on Signal Processing (ICSP), Beijing, China, pp. 1358–1361, 2010.

[23] T.J. Phillips, “High performance thermal imaging technology", Advanced Semiconductor Magazine, vol. 15, no. 7, pp. 32-36, 2002.

[24] S. Ioannou, V. Gallese, A. Merla, “Thermal infrared imaging inpsychophysiology: potentialities and limits”, Psychophysiology 51 pp.951– 963, 2014.

[25] L. Trujillo, G. Olague, R. Hammoud, B. Hernandez. “Automatic feature localization in thermal images for facial expression recognition", IEEE Computer Society Conference on Computer Vision and Pattern Recognition-Workshops, CVPR Workshops, p. 14, 2005.

[26] A. Di Giacinto, M. Brunetti, G. Sepede, A. Ferretti, A. Merla, “Thermal signature of fear conditioning in mild post traumatic stress disorder”, Neuroscience 266, pp.216–223, 2014.

[27] B. Hern´andez, G. Olague, R. Hammoud, L. Trujillo, E. Romero. “Visual learning of texture descriptors for facial expression recognition in thermal imagery", Computer Vision and Image Understanding, vol. 106, 2007.

[28] Z. Liu and S. Wang. “Emotion recognition using Hidden Markov Model from facial temperature sequence", LNCS 6975, pp.240-247, 2011.

[29] H. Nguyen, K. Kotani, F. Chen, B. Le, “Fusion of Visible Images and Thermal Image Sequences for Automated Facial Emotion Estimation”, Journal of Mobile Multimedia, Vol. 10, No. 3&4, pp.294-308, 2014.

[30] B.R. Nhan and T. Chau.: “Classifying affective states using thermal infrared imaging of the human face", IEEE Transactions on Biomedical Engineering, vol. 57, pp. 979987, 2010.

[31] H. Shan, S. Wang, W. Lan, H. Fu, Q. Ji, “Facial Expression Recognition using Deep Boltzmann Machine from Thermal Infrared Images”, Humaine Association Conference on Affective Computing and Intelligent Interaction, pp.239-244, 2013.

[32] A. Basu, A. Routray, S. Shit, A. Deb, “Human Emotion Recognition from Facial Thermal Image based on Fused Statistical Feature and Multi-Class SVM”, IEEE INDICON, pp.1-5, 2015.

[33] S. Wang, S. He, Y. Wu, M. He, and Q. Ji, “Fusion of visible and thermal images for facial expression recognition,” Front. Comput. Sci., vol. 8, no. 2, pp. 232–242, 2014.

[34] A. Basu, A. Dasgupta, A. Thyagharajan, A. Routray, R. Guha, and P. Mitra, “A portable personality recognizer based on affective state classification using spectral fusion of features,” IEEE Trans.Affect. Comput, 2018.

[35] S. Wang, B. Pan, H. Chen and Q. Ji, "Thermal Augmented Expression Recognition", in IEEE Transactions on Cybernetics, vol. 48, no. 7, pp. 2203-2214, July 2018.

[36] T. Nguyen, K. Tran, H. Nguyen, “Towards Thermal Region of Interest for Human Emotion Estimation”, 10th International Conference on

Knowledge and Systems Engineering, KSE 2018, pp.1-6, 2018.

unit and emotion-specified expression”, In: IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), pp. 94-101, 2010.

[38] I Goodfellow, D Erhan, PL Carrier, A Courville, M Mirza, B Hamner, W Cukierski, Y Tang, DH Lee, Y Zhou, C Ramaiah, F Feng, R Li, X Wang, D Athanasakis, J Shawe-Taylor, M Milakov, J Park, R Ionescu, M Popescu, C Grozea, J Bergstra, J Xie, L Romaszko, B Xu, Z Chuang, and Y Bengio, "Challenges in Representation Learning: A report on three machine learning contests." arXiv 2013.

[39] Ebner NC, Riediger M, Lindenberger U, “Faces-A database of facial expressions in young, middle-aged, and older women and men: Development and validation”, in Behavior Research Methods, vol. 42, no. 1, pp. 351-362, 2010.

[40] S. Mohammad Mavadati, Mohammad H. Mahoor, Kevin Bartlett, Philip Trinh, effrey F. Cohn, “DISFA: A spontaneous facial action intensity database”, Article (PDF Available) in IEEE Transactions on Affective Computing, vol. 4, no. 2, 151-160, April 2013.

[41] Dhall A, Goecke R, Lucey S, Gedeon T, “Acted facial expressions in the wild database”, Australian National University, Canberra.,Technical

Report TR-CS-11, 2, 2011.

[42] Rosas VP, Mihalcea R, Morency L-P, “Multimodal sentiment analysis of Spanish online videos”, IEEE Intelligent Systems, vol 28, no. 3, pp. 38-45, 2013.

[43] S. Wang, Z. Liu, S. Lv, Y. Lv, G. Wu, P. Peng, F. Chen, X. Wang, “A Natural Visible and Infrared Facial Expression Database for Expression Recognition and Emotion Inference”, IEEE Transactions on Multimedia, vol. 12, no. 7, pp. 682-691, 2010.

[45] http://www.equinoxsensors.com/.

[46] https://en.wikipedia.org/wiki/Thermal_radiation/.

[47] https://www.freecodecamp.org/news/an-intuitive-guide-to- convolutional-neural-networks-260c2de0a050/.

[48] Website CS231n Convolutional Neural Networks for Visual Recognition at http://cs231n.github.io/convolutional-networks/.

[49] https://livebook-qa.manning.com/book/grokking-deep-learning-for- computer-vision/chapter-3/v-1/97.

[50] He, K., Zhang, X., Ren, S., Sun, J. “Deep residual learning for image recognition”. In: CVPR. 2016.

[51] Russakovsky O, Deng J, Su H, Krause J, Satheesh S, Ma S, Fei-Fei L. “ImageNet Large Scale Visual Recognition Challenge”. International

Một phần của tài liệu (LUẬN văn THẠC sĩ) xây dựng mô hình kết hợp ảnh thường và ảnh nhiệt để ước lượng cảm xúc con người (Trang 55 - 65)

Tải bản đầy đủ (PDF)

(65 trang)