Kết quả cho kết hợp đặc trưng cảm biến

Một phần của tài liệu (LUẬN văn THẠC sĩ) phát hiện người ngã sử dụng đặc trưng kết hợp từ nhiều nguồn cảm biến (Trang 45 - 52)

Trước tiên, học viên ước tính α, β trong cơng thức (16) bằng xác thực chéo 4 lần với bộ phân loại SVM trên tập con tập dữ liệu của tập dữ liệu thu thập được. Sau đĩ học viên thay đổi giá trị của α, β cho ra độ chính xác cao nhất. Một số giá trị của α, β trong khi thử nghiệm được liệt kê trong bảng 3.3.

Bảng 3. 3: Kết quả thu được khi thay đổi giá trị của α và β

Α Β F-score (%) 0.9 0.1 0.87 0.8 0.2 0.92 0.7 0.3 0.93 0.6 0.4 0,92 0.5 0.5 0.89 0.4 0.6 0.81 0.3 0.7 0.75 0.2 0.8 0.69 0.1 0.9 0.64 download by : skknchat@gmail.com

Kết quả tốt nhất đạt được (trong bảng 3.3) với giá trị α = 0.7 và β = 0.3. Điều này cĩ nghĩa gia tốc kế là quan trọng nhất trong đĩng gĩp vào hiệu suất của hệ thống phát hiện ngã. Với F-score cao, trung bình chính xác là 93%, phương pháp kết hợp các đặc trưng của học viên đã cải thiện đáng kể độ chính xác phát hiện ngã từ 86% bằng việc sử dụng một gia tốc tăng lên 93% bằng việc sử dụng cảm biến gia tốc kết hợp với cảm biến con quay hồi chuyển. Kết quả chi tiết cho α = 0.7 và β = 0.3 được thể hiện trong bảng 3.4.

Bảng 3. 4: Chi tiết kết quả cho sự kết hợp các đặc trưng của cảm biến.

Hoạt động

SVM

Độ chính xác Độ bao phủ

Ngã 93.69 92.93

Khơng phải ngã 82.24 84.18

Như trong bảng 3.4, phương pháp kết hợp đơn giản nhưng hiệu quả của ở các mức độ đặc trưng đạt tới độ chính xác (precision) và độ bao phủ (recall) cao hơn 93% từ mơ hình máy véc tơ hỗ trợ SVM. Điều đáng lưu ý là tập dữ liệu học viên thu thập chứa nhiễu đáng kể bởi các hoạt động khơng xác định. Các kết quả này rất khả quan cho việc hiện thực hĩa bài tốn phát hiện ngã trong thời gian thực.

3.3. Kết luận chương

Trong chương này, học viên đã giới thiệu bộ dữ liệu phát hiện ngã được thu thập từ 30 đối tượng tham gia thử nghiệm với độ tuổi từ 20 đến 40, các đối tượng tham gia thực hiện các hoạt động ngã, các hoạt động giống như ngã và các loại hoạt động khác bằng cách đeo bên hơng thiết bị nhận dạng hành động cĩ gắn cảm biến gia tốc (accelerometer), cảm biến con quay hồi chuyển (gyroscope) và 1 số thiết bị khác, và thiết bị này được gắn cổng iPico 200 IoT để giao tiếp giữa các cảm biến và đám mây (clouds). Dữ liệu thu thập được từ thiết bị này sẽ được gán nhãn bằng cơng cụ gán

nhãn đa cấp ELAN, sau đĩ được phân loại thành hai nhĩm là: ngã và khơng phải ngã. Số liệu cụ thể thu được từ việc kết hợp đặc trưng từ của hai cảm biến là: cảm biến gia tốc và cảm biến con quay hồi chuyển đã cho thấy một kết quả cao hơn so với việc sử dụng đặc trưng từ một nguồn cảm biến trong việc phát hiên ngã và các hoạt động khác khơng phải là ngã.

10 KẾT LUẬN

Ngã cĩ thể dẫn tới những chấn thương rất nghiêm trọng, thậm chí cĩ thể là tử vong. Từ trước tới nay đã cĩ rất nhiều những nghiên cứu để tìm ra một hệ thống tự động phát hiện ngã để giúp cho việc cấp cứu kịp thời để giảm thiểu rủi ro cho người ngã, đặc biệt là đối với người cao tuổi.

Luận văn Thạc sỹ này, học viên chỉ tập trung vào nghiên cứu khảo sát bài tốn phát hiện người ngã, và ứng dụng các thuật tốn học máy để phân tích dữ liệu từ nhiều nguồn cảm biến nhằm phân biệt được nhiều tư thế ngã khác nhau. Trong luận văn của mình, học viên đã nghiên cứu lựa chọn cảm biến kết hợp bao gồm cảm biến gia tốc và cảm biến con quay hồi chuyển. Tiến hành trích chọn các đặc trưng của các cảm biến kết hợp, đề xuất phương pháp kết hợp các loại đặc trưng, nghiên cứu và lựa chọn phương pháp học máy phù hợp. Sau đĩ học viên tiến hành thực nghiệm với một hệ thống phát hiện ngã trên một tập hợp các loại ngã và các hoạt động giống như ngã bao gồm các hoạt động khơng rõ. Ngồi ra, học viên cịn tiến hành khảo sát hiệu suất phát hiện ngã trong cả hai trường hợp: trên các cảm biến đơn lẻ và kết hợp nhiều cảm biến ở cấp độ đặc trưng.

Các thực nghiệm được thực hiện để chứng minh tính hiệu quả của phương pháp cảm biến kết hợp được đề xuất với độ chính xác và độ bao phủ hơn 92% cho mơ hình mơ hình máy vector hỗ trợ. Hơn nữa, nghiên cứu này khai thác các ưu điểm của nền tàng Internet vạn vật hướng tới việc phát hiện ngã thời gian thực một cách hiệu quả hơn. Các nghiên cứu trong tương lai sẽ được thực hiện với thời gian thực và đánh giá mức tiêu thụ năng lượng cũng như tính phức tạp về tính tốn của các nút trên mạng cảm biến cĩ qui mơ lớn.

11 DANH MỤC TÀI LIỆU THAM KHẢO

[1]. Pham, C., Tu, M.,P. 2013; Real-Time Fall Detection and Activity Recognition Using Low-Cost Wearable Sensors. In Proc. of the 13th International Conference on Computational Science & Its Applications ICCSA (1) 2013 (Ho Chi Minh city, 24-27 June 2013). 673-682.

[2]. T. H. Tran, T. L. Le, D. T. Pham, V. N. Hoang, V. M. Khong, Q. T. Tran, T. S. Nguyen, C. Pham, “A Multimodal Multiview Dataset for Human Fall Analysis and Preliminary Investigation on Modality”, in Proc. of the 24th IEEE International Conference on Pattern Recognition(ICPR) 2018, Bejing, China, 2018

[3]. M. Kepski, B. Kwolek, “Event-Driven System for Fall Detection Using Body-worn

Accelerometer and Depth Sensor”, IET Computer Vision 12(1), 2018, pp. 48-58

[4]. Weiguo Feng, Rui Liu, and Ming Zhu. Fall detection for elderly person care in a vision-based home surveillance environment using a monocular camera. Signal, Image and Video Processing, 8:1129–1138, 2014.

[5]. Yixiao Yun and Irene Yu-Hua Gu. Human fall detection via shape analysis on riemannian manifolds with applications to elderly care. In Int. Conf. on Image Processing (ICIP), pages 3280–3284, 2015.

[6]. Yixiao Yun and Irene Yu-Hua Gu. Human fall detection in videos via boosting and fusing statistical features of appearance, shape and motion dynamics on riemannian manifolds with applications to assisted living. Computer Vision and Image Understanding, 148:111–122, 2016.

[7]. DuTran, LubomirBourdev, Rob Fergus, Lorenzo Torresani, andManoharPaluri. Learning spatiotemporal features with 3d convolutionalnetworks. InInt. Conf. on Computer Vision (ICCV), pages 4489–4497,2015.

[8]. Thanh-Hai Tran and Van-Toi Nguyen. How good is kernel descriptoron depth motion map for action recognition. In Int. Conf. on ComputerVision Systems, pages 137–146. Springer, 2015.

[9]. Zhong Zhang, Christopher Conly, and Vassilis Athitsos. A survey on vision- based fall detection. In Int. Conf. on Pervasive TechnologiesRelated to Assistive Environments, page 46. ACM, 2015.

[10].I. Charfi, J. Miteran, J. Dubois, M. Atri, and Tourki. Definition and performance evaluation of a robust svm based fall detection solution. In Signal Image Technology and Internet Based Systems (SITIS), 2012 Eighth International Conference on, pages 218–224. IEEE, 2012.

[11].E. Auvinet, C. Rougier, J. Meunier, A. St-Arnaud, and J. Rousseau. Multiple cameras fall dataset. DIRO-Universit´ de Montr´eal, Tech. Rep, 1350, 2010. [12].X. Ma, H. Wang, B. Xue, M. Zhou, B. Ji, and Y. Li. Depth-based human fall

detection via shape features and improved extreme learning machine. IEEE journal of biomedical and health informatics, 18(6):1915– 922, 2014.

[13].Z. Zhang, C. Conly, and V. Athitsos. Evaluating depth-based computer vision methods for fall detection under occlusions. In Advances in Visual Computing, pages 196–207. Springer, 2014.

[14].Imen Charfi, Johel Miteran, Julien Dubois, Mohamed Atri, and Rached Tourki. Definition and performance evaluation of a robust svm based fall detection solution. In Signal Image Technology and Internet Based Systems (SITIS), 2012 Eighth International Conference on, pages 218–IEEE, 2012.

[15].Korbinian Frank, Maria Josefa Vera Nadales, Patrick Robertson, and Tom Pfeifer. Bayesian recognition of motion related activities with in-ertial sensors. In Proceedings of the 12th ACM international conference adjunct papers on Ubiquitous computing-Adjunct, pages 445–446. ACM, 2010.

[16].Rami Alazrai, Mohammad Momani, and Mohammad I Daoud. Fall detection for elderly from partially observed depth-map video sequences based on view- invariant human activity representation. Applied Sciences, 7(4):316, 2017. [17].Angela Sucerquia, Jose´ David Lopez,´ and Jesus´ Francisco Vargas-Bonilla.

Sisfall: a fall and movement dataset. Sensors, 17(1):198, 2017.

[18].Brezmes, T., Gorricho, J. L., and Cotrina, J., 2009.Activity recognition from accelerometer data ona mobile phone. Distributed computing, artificialintelligence, bioinformatics, soft computing, andambient assisted living, pp. 796-799.

[19].Czabke, A., Marsch, S., & Lueth, T. C. (2011, 23-26 May 2011). Accelerometer based real-time activity analysis on a microcontroller.

[20].Bao, L., & Intille, S. (2004). Activity recognition from user-annotated acceleration data. Pervasive Computing, 1-17.

[21].M. Luštrek, B. Kaluža, Fall detection and activity recognition with machine learning, Informatica 33 (2) (2009) 205-212.

[22].Li, Q., Stankovic, J. A., Hanson, M. A., Barth, A. T.,Lach, J., and Zhou, G., 2009. Accurate, fast falldetection using gyroscopes and accelerometer- derivedposture information. In Wearable and ImplantableBody Sensor Networks, BSN 2009, pp. 138-143.

[23].Raspberry PI Sense HAT: http://mlab.vn/1918225-raspberry-pi-sense-hat.html (accessed on May 29, 2018).

[24].xPico 200: https://www.lantronix.com/products/xpico-200/ (accessed on 29 May 2018).

[25].Ravi N, Dandekar N, Mysore P, Littman ML (2005) Activity recognition from accelerometer data. In: AAAI. pp 1541-1546.

[26].N. D. Nguyen, C. Pham, M. P. Tu, “An Orientation Histogram based Approach for Fall Detection Using Wearable Sensors”, in Proceedings of the 14th Pacific

RimInternational Conference on Artificial Intelligence (PRICAI) 2016, pp. 354- 366.

[27].C. Pham, N. D. Nguyen. M. P. Tu, “A Wearable Sensor based Approach to Real-Time Fall Detection and Fine-Grained Activity Recognition”, J. Mobile Multimedia 9(1&2), 2013, pp. 15-26.

[28].C. Pham, “MobiRAR: Real-Time Human Activity Recognition Using Mobile Devices”, in proc. of IEEE International Conference on Knowledge Systems Engineering (KSE), 2015, pp. 144-149.

[29].Zhang M, Sawchuk AA (2011) A feature selection-based framework for human activity recognition using wearable multimodal sensors. In: Proceedings of the 6th International Conference on Body Area Networks. pp 92-98.

[30].C. Chang, C. Lin, “LIBSVM : A Library for Support Vector Machines”, ACM Transaction on Intelligent Systems Technology (2), 2011, pp. 1-39.

[31].ELAN: http://tla.mpi.nl/tools/tla-tools/elan/, accessed on 19/02/2014.

Một phần của tài liệu (LUẬN văn THẠC sĩ) phát hiện người ngã sử dụng đặc trưng kết hợp từ nhiều nguồn cảm biến (Trang 45 - 52)

Tải bản đầy đủ (PDF)

(52 trang)