Kết quả bị sai lệch với khuôn mặt đeo kính và nghiêng

Một phần của tài liệu Bắt cử động khuôn mặt qua video và áp lên mô hình 3D (Trang 58 - 62)

4.1. Đánh Giá Thuật Toán ASM:

Database:

- BioID: là databse của HumanScan AG, Switzerland gồm 100 ảnh trắng đen chứa khuôn mặt người chụp chính diện. Đối tượng lấy mẫu là nam, nữ người Châu Âu, độ tuổi trung niên, có cả người đeo kính. Ảnh chụp các trạng thái biểu cảm khác nhau của đối tượng trong các môi trường sáng khác nhau và chất lượng ảnh khác nhau với phông nền biến đổi.

- JAFE: là database của Psychology Department tại Kyushu University gồm 100 ảnh trắng đen chứa khuôn mặt chính diện của người chụp. Đối tượng lấy mẫu là phụ nữ châu Á, độ tuổi trung và thanh niên, không có người đeo kính. Ảnh chụp các trạng thái biêu cảm khác nhau của đối tượng trong các môi trường sáng khác nhau, với chất lượng ảnh ổn định và phông nền tĩnh.

58

Hình 4.3 ‘s’ là khoảng cách giữa 2 trọng tâm ‘d’ là khoảng cách giữa các điểm tương ứng

Là đại lượng dùng để đánh giá kết quả thực nghiệm. Me17 còn được gọi là “độ đo sai lệch” (error measurement) của kết quả chương trình. Nói cách khác, me17 phản ánh mức độ sai sót của kết quả do chương trình xuất ra so với bộ dữ liệu kiểm tra đã xây dựng từ trước. Me17 càng nhỏ, kết quả càng có ít sai sót, chương trình càng chính xác [19].

Me17 được tính như sau [19]:

- Tính trung bình khoảng cách Euclid của 17 điểm search_point (thuộc shape do chương trình xuất ra) với ref_point (thuộc shape do người thí nghiệm đánh dấu bằng tay)

- Chia kết quả thu được với khoảng cách Euclid giữa 2 mắt (2 điểm này là 2 điểm được đánh dấu bằng tay)

Ta tiến hành xây dựng bảng đánh giá cho thuật toán ASM với các tham số: - Missing: số lượng ảnh không phát hiện được khuôn mặt.

- Min_me17: giá trị me17 nhỏ nhất trong tập ảnh kiểm tra. - Max_me17: giá trị me17 lớn nhất trong tập ảnh kiểm tra.

- Mean_me17: giá trị me17 trung bình trong tập ảnh kiểm tra. Giá trị này được tính bằng tổng giá trị me17 của mỗi ảnh trong tập kiểm tra chia cho tổng số lượng ảnh đã trừ đi số lượng Missing.

59

Bảng 4.2 Kết quả đánh giá thuật toán ASM

Ta nhận thấy, số ảnh missing tập trung vào ảnh đeo kính do kết quả của ASM phụ thuộc hoàn toàn vào kết quả của thuật toán phát hiện khuôn mặt Viola-Jones. Kết quả của thuật toán ASM hầu như phụ thuộc vào môi trường bên ngoài khá nhiều. Với ánh sáng không ổn định, kết quả dễ bị sai lệch do sự thay đổi cường độ mức xám trên ảnh. Điều này làm cho các điểm đánh dấu trên khuôn mặt không thực sự ổn định. Kết quả cũng không đồng nhất với các loại hình dạng khuôn mặt khác nhau, đặc biệt là khuôn mặt vuông và sai lệch nhiều nhất với khuôn mặt nghiêng. Để khắc phục điều này, ta có thể tăng cường số lượng ảnh trong bộ huấn luyện để thuật toán làm việc tốt hơn với nhiều hình dạng khuôn mặt. Trong quá trình thực hiện, cần bố trí camera cố định trước khuôn mặt trong môi trường ánh sáng ổn định để đạt được kết quả tốt nhất.

Hình 4.4 Thuật toán ASM không ổn định với nhiều kiểu khuôn mặt khác nhau

4.2. Đánh Giá Chung Về Phương Pháp MoCap Và Phương Hướng Phát Triển Trong Tương Lai :

4.2.1. Kết quả đạt được:

a. Thành tựu:

Về kiến thức tổng quát của kĩ thuật MoCap, luận văn đã thể hiện được sự am hiểu về phương pháp MoCap, bao gồm định nghĩa, lịch sử hình thành và phát triển, nguyên lí hoạt động cũng như liệt kê được các phương pháp MoCap được dùng phổ biến hiện nay.

Về phương pháp MoCap được thực hiện trong đồ án, luận văn đã nêu được nguyên lí hoạt động của phương pháp cùng hai thuật toán chủ đạo được sử dụng là thuật toán phát hiện khuôn mặt Viola-Jones và thuật toán phát hiện điểm đặc trưng ASM. Với thuật toán Viola-Jones, luận văn đã nêu được cách thức phát hiện khuôn mặt

Database Missing Min_me17 Max_me17 Mean_me17 BioID

Total: 100 20 0.061837 0.300630 0.170963

JAFE

60

dựa trên đặc trưng Haar-Like kết hợp với máy phân lớp AdaBoost. Đồng thời thực hiện thành công cài đặt thuật toán Viola-Jones được tích hợp sẵn trong bộ thư viện OpenCV. Với thuật toán ASM, luận văn nêu được ý tưởng cơ bản của thuật toán dựa trên sự kết hợp của 2 model là profile model và shape model. Việc cài đặt thuật toán cũng được thực hiện thành công dựa trên cơ sở lí thuyết tìm hiểu được.

Luận văn cũng đánh giá được hiệu suất thực hiện của hai thuật toán, nêu được các điểm mạnh, yếu của chúng cũng như phương án khắc phục. Trong nội dung trình bày quá trình thực hiện, luận văn cũng chia sẻ những kinh nghiệm, khó khăn và hướng giải quyết khi thực hiện phương pháp.

b. Khó khăn:

Điểm mấu chốt của một phương pháp MoCap đó là khả năng xử lí các điểm đánh dấu . Tuy nhiên, do những hạn chế về kiến thức kĩ thuật lập trình, nên hiệu suất của phương pháp không được như mong đợi. Các điểm đánh dấu thu được còn bất ổn định và khả năng bắt cử động không được cao. Phương pháp còn phụ thuộc quá nhiều vào tác động của môi trường bên ngoài.

Khâu áp chuyển động lên mô hình 3D vẫn chưa thực hiện được do khó khăn trong việc tiếp cận cấu trúc file c3d.

4.2.2. Hướng phát triển trong tương lai:

Với những ưu và khuyết điểm trên, mục tiêu của đồ án trong tương lai là cải tiến thuật toán để việc bắt các điểm đánh dấu trở nên ổn định và chính xác hơn. Đồng thời, hướng đến việc thực hiện online, tức là bắt cử động và biểu chuyển động 3D cùng một lúc xử lí trên thời gian thực. Ngoài việc bắt khuôn mặt, ta còn có thể mở rộng cho việc thực hiện trên toàn bộ cơ thể người hoặc một bộ phận nào đó như cánh tay.

Ta có thể thấy, sức hấp dẫn của phương pháp MoCap sử dụng hệ thống quang học không đánh dấu (Optical Markless) là rất lớn. Loại bỏ những điểm đánh dấu rắc rối; không cần phải có những thiết bị quá chuyên dụng và đắt tiền nhưng vẫn mang lại hiệu quả cao. Đây chính là giải pháp cho những đơn vị và cá nhân nhỏ lẻ muốn ứng dụng MoCap vào sản phẩm của mình. Vì thời gian thực hiện có hạn cùng những khó khăn gặp phải trong quá trình thực hiện nên kết quả của đồ án có thể không được như ý. Tuy vậy, đồ án đã đúc kết được nhiều kinh nghiệm cũng như kết quả quý báu trong quá trình thực hiện để việc phát triển phương pháp sau này trở nên tốt hơn.

61

Một phần của tài liệu Bắt cử động khuôn mặt qua video và áp lên mô hình 3D (Trang 58 - 62)

Tải bản đầy đủ (PDF)

(68 trang)