1. Trang chủ
  2. » Luận Văn - Báo Cáo

Phương pháp biểu diễn đặc trưng mặt người dựa vào bộ lọc gabor cong và (2D) 2LDA cho nhận dạng cá nhân trong ứng dụng điểm danh lớp học

60 111 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 60
Dung lượng 1,88 MB

Nội dung

ĐỒN THANH NIÊN CỘNG SẢN HỒ CHÍ MINH BAN CHẤP HÀNH TP HỒ CHÍ MINH CƠNG TRÌNH DỰ THI GIẢI THƯỞNG SINH VIÊN NGHIÊN CỨU KHOA HỌC EURÉKA LẦN THỨ XIX NĂM 2017 TÊN CƠNG TRÌNH : PHƯƠNG PHÁP BIỂU DIỄN ĐẶC TRƯNG MẶT NGƯỜI DỰA VÀO BỘ LỌC GABOR CONG VÀ (2D)2LDA CHO NHẬN DẠNG CÁ NHÂN TRONG ỨNG DỤNG ĐIỂM DANH LỚP HỌC LĨNH VỰC NGHIÊN CỨU: Công nghệ Thông tin CHUYÊN NGÀNH : Công nghệ phần mềm Mã số cơng trình : …………………………… TĨM TẮT Mục tiêu đề tài xây dựng thuật tốn rút trích đặc trưng mặt người hiệu cho việc nhận dạng cá nhân ứng dụng điểm danh lớp học với ảnh mặt người nhìn thẳng thu nhận từ thiết bị di động Để thực mục tiêu này, đề tài giải vấn đề là: (1) Đề xuất phương pháp kết hợp hàm lọc Gabor cong thích nghi với (2D)2LDA để rút trích đặc trưng có tính phân biệt cao bền vững với nhiễu; (2) Phát triển ứng dụng điểm danh lớp học dựa vào định danh cá nhân sử dụng ảnh mặt người thu nhận từ thiết bị di động Các kết thực nghiệm minh chứng thuật toán đề xuất cho hiệu thực cao, độ xác thời gian xử lý, đồng thời áp dụng cho phần mềm điểm danh lớp học dựa vào định danh mặt người i MỤC LỤC DANH MỤC CÁC BẢNG iii DANH MỤC HÌNH VẼ iv DANH MỤC CÁC KÝ HIỆU, CHỮ VIẾT TẮT vi Chương MỞ ĐẦU - - 1.1 Đặt vấn đề - 1.1.1 Yêu cầu thực tế - - 1.1.2 Đặc trưng mặt người thách thức - - 1.1.3 Hệ thống nhận dạng mặt người - - 1.2 Mục tiêu phạm vi nghiên cứu - 1.3 Cấu trúc đề tài - Chương CÁC CƠNG TRÌNH NGHIÊN CỨU LIÊN QUAN - - 2.1 Hướng tiếp cận biểu diễn đặc trưng không gian - 2.1.1 Đặc trưng hình dạng - - 2.1.2 Đặc trưng biểu đồ mật độ mức độ thấp - - 2.1.3 Biểu diễn đặc trưng lọc Gabor - - 2.1.4 Biểu diễn đặc trưng túi từ BoW - - 2.1.5 Biểu diễn cấp cao dẫn xuất từ liệu - 10 - 2.1.6 Các biểu diễn đặc trưng phân cấp - 11 - 2.1.7 Biểu diễn dựa vào phận - 12 - 2.2 Biểu diễn đặc trưng dựa vào không gian-thời Gian - 12 2.2.1 Đặc trưng hình học từ các điể m khn mă ̣t - 13 - 2.2.2 Đặc trưng cấ p thấ p từ mă ̣t phẳ ng trực giao - 14 - 2.2.3 Đặc trưng dựa vào tích chập với lọc làm trơn - 15 - 2.2.4 Đặc trưng Haar theo không gian-thời gian - 15 - ii 2.2.5 Biểu diễn đặc trưng biến dạng dạng tự - 17 - 2.2.6 Biểu diễn đặc trưng túi từ BoW theo thời gian - 18 - 2.3 Hướng tiếp cận rút trích đặc trưng dựa vào giảm chiề u - 19 2.3.1 Phương pháp tổng hợp đặc trưng - 19 - 2.3.2 Phương pháp lựa chọn đặc trưng - 19 - 2.3.3 Phương pháp rút trích đặc trưng - 20 - 2.4 Bàn luận - 20 Chương PHƯƠNG PHÁP ĐỀ XUẤT - 22 - 3.1 Ý tưởng thuật toán - 22 3.2 Bộ lọc Gabor - 23 3.2.1 Bộ lọc Gabor truyền thống - 23 - 3.2.2 Bộ lọc Gabor cong - 24 - 3.3 Kỹ thuật phân tích tách lớp tuyến tính (2D)2LDA - 28 3.4 Các bước thực thuật toán đề xuất - 30 3.5 Kết luận - 32 Chương KẾT QUẢ THỰC NGHIỆM - 33 - 4.1 Kết sở liệu ORL - 33 4.2 Kết sở liệu Yale - 35 4.3 Minh họa sử dụng ứng dụng - 37 4.3.1 Mô tả ứng dụng - 37 - 4.3.2 Kết sử dụng - 38 - Chương KẾT LUẬN VÀ HƯỚNG PHÁT TRIỂN - 42 - 5.1 Kết luận - 42 5.2 Hướng phát triển - 42 CÁC TÀI LIỆU THAM KHẢO - 43 - iii DANH MỤC CÁC BẢNG Bảng 4-1 So sánh năm phương pháp sở liệu ORL - 34 Bảng 4-2 So sánh phương pháp tiếp cận khác độ xác cơng nhận sở liệu ORL - 34 Bảng 4-3: So sánh năm phương pháp sở liệu YALE - 36 Bảng 4-4: So sánh phương pháp tiếp cận khác độ xác công nhận sở liệu YALE - 36 - iv DANH MỤC HÌNH VẼ Hình 1-1 Hình ảnh gương mặt bị nhiễu [1] - Hình 1-2 So sánh tốn định danh (a) xác thực (b) khn mặt - Hình 1-3 Các giai đoạn xử lý nhận dạng mặt người - Hình 2-1 Đặc trưng hình học (tập điểm mặt) [8] - Hình 2-2 Biểu đồ đặc trưng mật độ cấp thấp ((a) LBP, (b) LPQ, (c) HoG) [8] - Hình 2-3 Biểu diễn dựa vào lọc Gabor [8] - Hình 2-4 Đặc trưng túi từ BoW [8] - 10 Hình 2-5 Đặc trưng GP-NMF [8] - 10 Hình 2-6 Đặc trưng mã hóa phân rã [8] - 11 Hình 2-7 Đặc trưng thành phần dựa vào (a) SIFT dựa vào (b) NMF [8] - 12 Hình 2-8 Đặc trưng khơng gian thời gian sử dụng đặc trưng hình học từ điểm mặt [8] - 13 Hình 2-9 Đặc trưng khơng gian thời-gian (a) LBP-TOP (b) LBQ-TOP [8] - 14 Hình 2-10 Bộ lọc làm trơn IC [8] - 15 Hình 2-11 Đặc trưng Haar động (a), đặc trưng tương tự (b) [8] - 16 Hình 2-12 Biểu diễn biến đổi tự do[8] - 17 Hình 2-13 Đặc trưng BoW theo thời gian [8] - 18 Hình 3-1 Sơ đồ thuật tốn đề xuất - 22 Hình 3-2 Bộ lọc Gabor với kích thước 11 × 11 (a) × (b) - 24 Hình 3-3 Minh họa kết áp lọc Gabor - 24 Hình 3-4 Ví dụ Gabor cong kernels thể với thông số: σ = л c = 0.1 [67] - 25 Hình 3-5: Ví dụ thực tế 12 Gabor cong đề xuất hiển thị [67] - 25 Hình 3-6 Hàm lọc gabor cong với c=0.1 - 26 Hình 3-7 Hàm lọc Gabor cong với c=0.0001 - 27 Hình 3-8 Minh họa kết lọc Gabor cong - 27 - v Hình 3-9 Minh họa giảm số chiều (2D)2LDA: (a) Ảnh gốc với kích thước 100×100, (b)-(h) ảnh tái tạo với d q 1, 5, 10, 20, 40, 80, 90, (i) d=40, q=100, (j) d=100, q=40 - 30 Hình 3-10 Minh họa giảm số chiều phương pháp đề xuất CGabor-(2D)2LDA: (a) Ảnh gốc với kích thước 100×100, (b) ảnh kết lọc Gabor cong thích nghi, (c)-(h) ảnh tái tạo với d q 5, 10, 20, 40, 80, 90, (i) d=40, q=100, (j) d=100, q=40 - 32 Hình 4-1 Minh họa ảnh tư người sở liệu ORL - 33 Hình 4-2 Một số hình ảnh sở liệu Yale - 35 - vi DANH MỤC CÁC KÝ HIỆU, TỪ VIẾT TẮT STT Từ viết tắt 2DLDA 2DPCA AU BDOC BHOG Tiếng Anh Ý nghĩa tiếng Việt Two-dimensional Linear Kỹ thuật phân tích tách Discriminant Analysis lớp tuyến tính hai chiều Two-dimensional Principle Kỹ thuật phân tích thành Component Analysis phần hai chiều Action Units Đơn vị hành động Block Dominant Orientation Mã hướng thống trị Code khối Block-based Histogram of Oriented Gradient Biểu đồ mật độ độ lệch mức xám theo hướng khối Bag of Words Đặc trưng túi từ Back-Propagation Neural Mạng nơron lan truyền Networks ngược BoW BPNN DPI Dots Per Inche EER Equal Error Rate 10 FAR false accept ratio Tỷ lệ chấp nhận sai 11 FRR false reject radio Tỷ lệ từ chối sai 12 HOG 13 HOG Histogram of Oriented Gradient 14 HOL Histogram of Oriented Line 15 ICA Independent Component Histogram of OrientendGradients Số điểm ảnh Inche Tỉ lệ sai số FRR=FAR Biểu đồ mật độ hướng Biểu đồ mật độ độ lệch mức xám theo hướng Mật độ đường theo hướng Kỹ thuật phân tích thành vii Analysis phần độc lập Phân tích phân biệt dựa 16 KDA Kernel Discriminant Analysis 17 k-NN k Nearest Neighbors K láng giềng gần 18 LBP Local Binary Pattern Mẫu nhị phân cục 19 LBP Local Binary Patterns Mẫu nhị phân cục 20 LBQ Local Phase Quantisation 21 LDA Linear Discriminant Analysis 22 LPQ Local Phase Quantization 23 NMF 24 ORL Olivetti Research Laboratory 25 PCA Principal Components Analysis Nonnegative Matrix Factorization vào nhân Đặc trưng lượng tử hóa cục Phân tích tách lớp tuyến tính Định lượng đoạn cục Hệ số ma trận khơng âm Phịng nghiên cứu Olivetti Phân tích thành phần Đường cong nhận 26 ROC Receiver Operating từ cặp giá trị GAR Characteristic FAR với ngưỡng khác 27 ROI Region of Interest 28 SIFT 29 SVM Support Vector Machine 30 W-2DLDA Weighted-Two-dimensional Vùng quan tâm cho việc nhận dạng Scale Invariant Feature Phép biến đổi đặc trưng Transform bất biến tỉ lệ Bộ phân lớp máy hỗ trợ vector Kỹ thuật phân tích tách viii Linear Discriminant Analysis lớp tuyến tính hai chiều có trọng số 31 ZeroFRR 32 NMF Zero False Rejection Rate Nonnegative Matrix Factorization Giá trị nhỏ FAR FRR=0 Hệ số ma trận khơng âm - 36 - Bảng 4-3: So sánh năm phương pháp sở liệu YALE Thời gian(s) Phương pháp Độ xác Kích thước mẫu (%) (thử nghiệm năm ảnh cho lớp) 2D - PCA 85.67 100 × 10.80 (2D)2PCA 88.62 5×5 4.75 (2D)2LDA 90.65 8×8 5.25 92.20 9×9 5.50 Phương pháp đề xuất: CGabor-(2D)2LDA Bảng 4-4: So sánh phương pháptiếp cận khác độ xác công nhận sở liệu YALE Số lượng mẫu huấn luyện lớp Phương pháp 2D - PCA (2D)2PCA (2D)2LDA Phương pháp xuất: (2D)2LDA 65.58 84.45 88.08 92.31 (32 × 3) (32 × 3) (32 × 4) (32 × 5) 67.50 87.60 89.14 94.94 (7 × 7) (9 × 9) (7 × 7) (6 × 6) 70.25 90.35 91.32 95.15 (6 × 6) (10 × 10) (9 × 9) (5 × 5) 72.25 91.25 92.80 95.94 (8 × 8) (11 × 11) (8 × 8) (7 × 7) đề CGabor- - 37 - 4.3 Minh họa sử dụng ứng dụng 4.3.1 Mô tả ứng dụng Ứng du ̣ng gồ m thành phầ n: Phía Server:  Sử du ̣ng laptop của mỗi giảng viên, sở dữ liê ̣u ban đầ u sẽ đươ ̣c nhà trường cung cấ p dựa vào hồ sơ đăng ký của mỗi sinh viên  Giảng viên khởi đô ̣ng server, cung cấ p điạ chỉ IP cho từng sinh viên (phiá Client)  Server nhâ ̣n thông tin từ phía Client (bao gồ m ảnh chu ̣p khuôn mă ̣t và thời gian chu ̣p) và hiể n thi ̣ lên màn hin ̀ h ứng du ̣ng Sau nhận liệu từ Client gửi đến, Server tự động so khớp khuôn mặt sinh viên để đưa độ khớp hình ảnh Nếu độ khớp thỏa khoảng k cho trước gửi lại thơng tin cho Client xác nhận (bao gồ m MSSV, họ tên sinh viên, ảnh chu ̣p khn mă ̣t) cịn thấp đưa cảnh báo cho giảng viên  Giảng viên dựa vào sở dữ liê ̣u mẫu, kiể m tra và xác nhâ ̣n la ̣i lầ n cuố i  Server câ ̣p nhâ ̣t la ̣i sở dữ liê ̣u, từ đó lưu thành file excel đươ ̣c chỉ đinh ̣ sẵn theo đường link vào mỗi buổ i ho ̣c Phía Client:  Ta ̣i màn hình đăng nhâ ̣p, ứng du ̣ng sẽ yêu cầ u nhâ ̣p điạ chỉ IP của Server giảng viên cung cấ p  Trong lần đăng nhập đầu tiên, sinh viên phải đăng ký để tạo sở liệu mẫu Sinh viên điề n đầ y đủ thông tin bao gồ m MSSV, ho ̣ tên sinh viên; đồ ng thời ứng du ̣ng sẽ yêu cầ u lấ y ảnh chu ̣p trực tiế p từ camera điê ̣n thoa ̣i  Những lần đăng nhập ứng dụng yêu cầu lấy ảnh chụp trực tiếp từ camera điện thoại Sau Client nhận thông tin trả từ Sever  Sinh viên kiể m tra la ̣i lầ n cuố i thông tin và gửi lên Server - 38 - Hình 1: Sơ đồ hoạt động 4.3.2 Kết sử dụng Phía Server: Hình 2: Ứng dụng trước khởi đồ ng Server - 39 - Hình 3: Quá trình điể m danh Hình 4: File Excel trả về sau mỗi buổ i điể m danh - 40 - Phía Client: Hình 5: Màn hình đăng nhập phía Client Hình 6: Màn hình gửi thông tin phía Client - 41 - Hình 7: Kết trả từ Server - 42 - Chương KẾT LUẬN VÀ HƯỚNG PHÁT TRIỂN 5.1 Kết luận Bài toán nhận dạng mặt người tự động tốn khó nhiều thách thức mặt thu nhận chịu tác động ánh sáng, tư ảnh, biểu cảm gương mặt vật che khuất Do vậy, có nhiều phương pháp đề xuất để giải thách thức Đề tài khảo sát cơng trình nghiên cứu liên quan đề xuất phương pháp rút trích đặc trưng Phương pháp kết hợp lọc Gabor cong thích nghi với (2D)2LDA Kết đặc trưng có tính bền vững cao với nhiễu ánh sáng nhờ lọc Gabor khai thác đặc trưng cục bộ, đặc trưng có tính tách lớp cao bền vững với lỗi đăng ký mẫu học từ nhiều mẫu huấn luyện để chọn chiều có tính phân tách cao đối tượng Kết thuật nghiệm hai sở liệu công khai minh chứng hiệu phương pháp đề xuất Đề tài minh họa ứng dụng phương pháp đề xuất cho toán điểm danh mặt người 5.2 Hướng phát triển Bài tốn nhận dạng mặt người có thách thức lớn tư đầu thay đổi Do vậy, hướng phát triển đề tài xây dựng thuật toán canh chỉnh mặt người hiệu qua với mục tiêu tạo ảnh chuẩn, nâng cao hiệu nhận dạng - 43 - CÁC TÀI LIỆU THAM KHẢO [1] Võ Phúc Nguyên, “Nhận dạng ảnh mặt người sử dụng mạng Nơron”, Tạp chí Khoa Học & Cơng Nghệ, 64(02), 53 - 57 [2] Trịnh Tấn Đạt - Phạm Thế Bảo (2013), “Dùng đặc trưng Gabor kết hợp Adaboost K-Means toán nhận dạng mặt người”,Tạp chí Khoa Học Đại Học Sư Phạm Thành Phố Hồ Chí Minh, số 43 [3] Từ Minh Hiển - Trần Thị Khánh Hòa - TS Phạm Văn Tuấn (2012), “Nhận dạng khuôn mặt người mạng Nơron phương pháp phân tích thành phần chính”, Tuyển tập Báo cáo Hội Nghị Sinh Viên Nghiên Cứu Khoa Học lần thứ Đại Học Đà Nẵng [4] Châu Ngân Khánh Đoàn Thanh Nghị (2014), “Nhận dạng mặt người vớigiải thuật Haar like feature – cascade of boosted classifiers đặc trưng sift”, Tạp chí khoa học, Quyển 3(2), 15 - 24 [5] S Lucey, A B Ashraf, and J Cohn, “Investigating spontaneous facial action recognition through AAM representations of the face,” in Face Recognition Book Mamendorf, Germany: Pro Literatur Verlag, 2007 [6] K.-C Huang, S.-Y Huang, and Y.-H Kuo, “Emotion recognition based on a novel triangular facial feature extraction method,” in Proc Int Joint Conf Neural Networks, 2010, pp 1–6 [7] Y.-L Tian, T Kanade, and J Cohn, “Recognizing action units for facial expression analysis,” IEEE Trans Pattern Anal Mach Intell., vol 23, no 2, pp 97–115, Feb 2001 [8] Evangelos Sariyanidi, Hatice Gunes, and Andrea Cavallaro, “Automatic Analysis of Facial Affect: A Survey of Registration, Representation, and Recognition”, IEEE Trans on Pattern Analysis and Machine Intelligence, Vol 37, no 6, 2015 - 44 - [9] N Dalal and B Triggs, “Histograms of oriented gradients for human detection,” in Proc IEEE Conf Comput Vis Pattern Recognit., vol 1, 2005, pp 886–893 [10] T Ahonen, A Hadid, and M Pietikainen, “Face description with local binary patterns: Application to face recognition,” IEEE Trans Pattern Anal Mach Intell., vol 28, no 12, pp 2037–2041, Dec 2006 [11] E Meyers and L Wolf, “Using biologically inspired features for face processing,” Int J Comput Vis., vol 76, no 1, pp 93–104, 2008 [12] E Sariyanidi, H Gunes, M Gcokmen, and A Cavallaro, “Local Zernike moment representations for facial affect recognition,” in Proc British Machine Vision Conf., 2013, pp 103–108, vol 13 [13] C Shan, S Gong, and P W McOwan, “Facial expression recognition based on local binary patterns: A comprehensive study,” Image Vis Comput., vol 27, no 6, pp 803–816, 2009 [14] T Wu, N Butko, P Ruvolo, J Whitehill, M Bartlett, and J R Movellan, “Action unit recognition transfer across datasets,” in Proc IEEE Int Conf Autom Face Gesture Recognit., 2011, pp 889–896 [15] V Ojansivu and J Heikkilca, “Blur insensitive texture classification using local phase quantization,” in Proc Int Conf Image Signal Process., 2008, pp 236–243 [16] B Jiang, M Valstar, B Martinez, and M Pantic, “Dynamic appearance descriptor approach to facial actions temporal modelling,” IEEE Trans Syst., Man, Cybern B, Cybern., vol 44, no 2, pp 161–174, Feb 2014 [17] B Jiang, M Valstar, and M Pantic, “Action unit detection using sparse appearance descriptors in space-time video volumes,” in Proc IEEE Int.Conf Face Gesture Recognit., 2011, pp 314–321 [18] L Wiskott, J.-M Fellous, N Kuiger, and C von der Malsburg, “Face recognition by elastic bunch graph matching,” IEEE Trans Pattern Anal Mach Intell., vol 19, no 7, pp 775–779, Jul 1997 - 45 - [19] J.-K Kamarainen, V Kyrki, and H Kalviainen, “Invariance properties of Gabor filter-based features—Overview and applications,” IEEE Trans Image Process., vol 15, no 5, pp 1088– 1099, May 2006 [20] T Gritti, C Shan, V Jeanne, and R Braspenning, “Local features based facial expression recognition with face registration errors,” in Proc IEEE Int Conf Autom Face Gesture Recognit., 2008, pp 1–8 [21] K Sikka, T Wu, J Susskind, and M Bartlett, “Exploring bag of words architectures in the facial expression domain,” in Proc Eur Conf Comput Vis Workshops Demonstrations, 2012, pp.250–259 [22] S Lazebnik, C Schmid, and J Ponce, “Beyond bags of features: Spatial pyramid matching for recognizing natural scene categories,” in Proc IEEE Conf Comput Vis Pattern Recognit., vol 2, 2006, pp 2169–2178 [23] S Nikitidis, A Tefas, N Nikolaidis, and I Pitas, “Subclass discriminant nonnegative matrix factorization for facial image analysis,” Pattern Recognit., vol 45, no 12, pp 4080–4091, 2012 [24] R Zhi, M Flierl, Q Ruan, and W Kleijn, “Graph-preserving sparse nonnegative matrix factorization with application to facial expression recognition,” IEEE Trans Systems, Man, Cybern B, Cybern., vol 41, no 1, pp 38–52, Feb 2011 [25] S Cotter, “Sparse representation for accurate classification of corrupted and occluded facial expressions,” in Proc IEEE Int Conf Acoust Speech Signal Process., 2010, pp 838–841 [26] M H Mahoor, M Zhou, K L Veon, S M Mavadati, and J F Cohn, “Facial action unit recognition with sparse representation,” in Proc IEEE Int Conf Autom Face Gesture Recognit., 2011, pp 336–342 [27] P O Hoyer, “Non-negative matrix factorization with sparseness constraints,” J Mach Learn Res., vol 5, pp 1457–1469, 2004 [28] E Candes and M Wakin, “An introduction to compressive sampling,” IEEE Signal Process Mag., vol 25, no 2, pp 21–30, Mar 2008 - 46 - [29] S Nikitidis, A Tefas, N Nikolaidis, and I Pitas, “Subclass discriminant nonnegative matrix factorization for facial image analysis,” Pattern Recognit., vol 45, no 12, pp 4080–4091, 2012 [30] V Ojansivu and J Heikkilca, “Blur insensitive texture classification using local phase quantization,” in Proc Int Conf Image Signal Process., 2008, pp 236–243 [31] C M Bishop, and N M Nasrabadi, Pattern Recognition and Machine Learning New York, NY, USA: Springer, 2006 [32] L A Jeni, J Girard, J Cohn, and F De La Torre, “Continuous AU intensity estimation using localized, sparse facial feature space,” in Proc IEEE Int Conf Autom Face and Gesture Recognit Workshops,2013, pp 1–7 [33] Y Zhu, F De la Torre, J Cohn, and Y.-J Zhang, “Dynamic cascades with bidirectional bootstrapping for action unit detection in spontaneous facial behavior,” IEEE Trans Affective Comput., vol 2, no 2, pp 79– 91, Apr.–Jun 2011 [34] S Kaltwang, O Rudovic, and M Pantic, “Continuous pain intensity estimation from facial expressions,” in Proc Int Symp Adv.Vis Comput., 2012, pp 368–377 [35] S Koelstra, M Pantic, and I Patras, “A dynamic texture-based approach to recognition of facial actions and their temporal models,” IEEE Trans Pattern Anal Mach Intell., vol 32, no 11, pp 1940–1954, Nov 2010 [36] M Valstar, H Gunes, and M Pantic, “How to distinguish posed from spontaneous smiles using geometric features,” in Proc ACM Int Conf Multimodal Interfaces, 2007, pp 38–45 [37] M Valstar, M Pantic, Z Ambadar, and J Cohn, “Spontaneous vs posed facial behavior: Automatic analysis of brow actions,” in Proc ACM Int Conf Multimodal Interfaces, 2006, pp 162–170 - 47 - [38] M Valstar and M Pantic, “Fully automatic recognition of the temporal phases of facial actions,” IEEE Trans Systems, Man, Cybern B, Cybern., vol 42, no 1, pp 28–43, Feb 2012 [39] G Zhao and M Pietikcainen, “Dynamic texture recognition using local binary patterns with an application to facial expressions,” IEEE Trans Pattern Anal Mach Intell., vol 29, no 6, pp 915–928, Jun 2007 [40] B Jiang, M Valstar, B Martinez, and M Pantic, “Dynamic appearance descriptor approach to facial actions temporal modelling,” IEEE Trans Syst., Man, Cybern B, Cybern., vol 44, no 2, pp 161–174, Feb 2014 [41] T Wu, M Bartlett, and J Movellan, “Facial expression recognition using Gabor motion energy filters,” in Proc IEEE Conf Comput Vis Pattern Recognit Workshops, 2010, pp 42–47 [42] F Long, T Wu, J R Movellan, M S Bartlett, and G Littlewort, “Learning spatiotemporal features by using independent component analysis with application to facial expression recognition,” Neurocomputing, vol 93, no 0, pp 126–132, 2012 [43] P Yang, Q Liu, and D Metaxas, “Boosting coded dynamic features for facial action units and facial expression recognition,” in Proc IEEE Conf Comput Vis Pattern Recognition, 2007, pp 1–6 [44] P Yang, Q Liu, and D Metaxas, “Similarity features for facial event analysis,” in Proc Eur Conf Comput Vis., 2008, vol 5302,pp 685–696 [45] P Yang, Q Liu, and D N Metaxas, “Dynamic soft encoded patterns for facial event analysis,” Comput Vis Image Understanding, vol 115, no 3, pp 456–465, 2011 [46] P Viola and M Jones, “Rapid object detection using a boosted cascade of simple features,” in Proc IEEE Conf Comput Vis Pattern Recognit., vol 1, 2001, pp 511–518 - 48 - [47] S Koelstra, M Pantic, and I Patras, “A dynamic texture-based approach to recognition of facial actions and their temporal models,” IEEE Trans Pattern Anal Mach Intell., vol 32, no 11, pp 1940–1954, Nov 2010 [48] T Simon, M H Nguyen, F De la Torre, and J Cohn, “Action unit detection with segment-based SVMs,” in Proc IEEE Conf Comput Vis Pattern Recognit., 2010, pp 2737–2744 [49] Y.-L Boureau, N Le Roux, F Bach, J Ponce, and Y LeCun, “Ask the locals: Multi-way local pooling for image recognition,” in Proc IEEE Int Conf Comput Vis., 2011, pp 2651–2658 [50] Y.-L Boureau, J Ponce, and Y LeCun, “A theoretical analysis of feature pooling in visual recognition,” in Proc Int Conf Mach Learn., 2010, pp 111–118 [51] C Shan, S Gong, and P W McOwan, “Facial expression recognition based on local binary patterns: A comprehensive study,” Image Vis Comput., vol 27, no 6, pp 803–816, 2009 [52] P Yang, Q Liu, and D N Metaxas, “Boosting encoded dynamic features for facial expression recognition,” Pattern Recognit Lett., vol 30, no 2, pp 132–139, 2009 [53] G Zhao and M Pietikcainen1, “Boosted multi-resolution spatiotemporal descriptors for facial expression recognition,” Pattern Recognit Lett., vol 30, no 12, pp 1117–1127, 2009 [54] J Friedman, T Hastie, and R Tibshirani, “Additive logistic regression: A statistical view of boosting,” Ann Statist., vol 28, no 2, pp 337–407, 2000 [55] H Yu, J Yang, A direct LDA algorithms for highdimensional data with application to face recognition, Pattern Recognition 34 (2001) 2067 – 2070 - 49 - [56] J Lu, K.N Plataniotis, A.N Venetsanopoulos, Face recognition using LDA-based algorithms, IEEE Trans Neural Networks 14 (1) (2003) 195 – 200 [57] L.-F Chen, H.-Y.M Liao, M.-T Ko, J.-C Lin, G.-J Yu, A new LDAbased face recognition system which can solve the small sample size problem, Pattern Recognition 33 (2000), 1713 – 1726 [58] H Cevikalp, M Neamtu, M Wilkes, A Barkana, Discriminative common vectors for face recognition, IEEE Trans Pattern Anal Mach Intell 27 (1) (2005) -13 [59] J Yang, D Zhang, A.F Frangi, A.F., Yang, Twodimensional PCA: A new approach to appearance-based face representation and recognition, IEEE Trans Pattern Anal Machine Intell 26 (1) (2004) 131-137 [60] J Yang, J.Y Yang, From image vector to matrix: a straightforward image projection technique – IMPCA vs PCA, Pattern Recognition 35 (9) (2002) 1997 – 1999 [61] Ming Li, Baozong Yuan, 2D-LDA: A statistical linear discriminant analysis for image matrix, Pattern Recognition Letters 26 (2005) 527 – 532 [62] D Zhang, Z.H Zhou, (2D)2PCA: two-directional two dimensional PCA for efficient face representation and recognition, Neurocomputing 69 (13) (2005) 224 – 231 [63] S Noushath, G Hemantha Kumar, P Shivakumara, (2D)2LDA: An efficient approach for face recognition, Pattern Recognition 39 (7) (2006) 1396 – 1400 [64] Yue, W.Zuo, D Zhang, K Wang (2009), “Orientation selection using modified FCM for competitive code-based palmprint recognition”, Pattern Recognition, vol 42, pp - 50 - [65] T.S Lee, “Image representation using 2D Gabor wavelet,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol 18, no 10, pp 959-971, 1996 [66] X Pan, Q Q Ruan (2008), “Palmprint recognition using Gabor featurebased (2D)2PCA”, Neurocomputing, vol 71, pp 3032-3036 [67] W Hwang, X Huang, K Roh, J Kim, Face recognition system using extended curvature Gabor classifier bunch for low-resolution face image, in: Computer Vision and Pattern Recognition Workshops, 2011, pp 1522 ... thống điểm danh lớp học: Nhằm đảm bảo nếp học tập, việc điểm danh sinh viên, học sinh học cần thiết Một trường học có nhiều lớp, việc điểm danh tự động sinh viên, học sinh dựa vào nhận dạng mặt người. .. xuất phương pháp kết hợp hàm lọc Gabor cong thích nghi với (2D)2 LDA để rút trích đặc trưng có tính phân biệt cao bền vững với nhiễu; (2) Phát triển ứng dụng điểm danh lớp học dựa vào định danh cá. .. nhiều phương pháp khác khai thác đặc trưng cấp thấp lẫn cấp cao khuôn mặt như: (1) Đặc trưng hình dạng, (2) Đặc trưng mật độ mức thấp, (3) Đặc trưng dựa vào lọc Gabor, (4) Đặc trưng túi từ, (5) đặc

Ngày đăng: 10/02/2020, 07:55

TỪ KHÓA LIÊN QUAN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

w