1. Trang chủ
  2. » Giáo Dục - Đào Tạo

BÀI tập lớn đề bài NGHIÊN cứu THUẬT TOÁN ICA và ỨNG DỤNG ước LƯỢNG độ sâu ẢNH mặt NGƯỜI

71 1 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Tiêu đề NGHIÊN CỨU THUẬT TOÁN ICA VÀ ỨNG DỤNG ƯỚC LƯỢNG ĐỘ SÂU ẢNH MẶT NGƯỜI
Tác giả Đại Úy Ngô Trường Sơn
Người hướng dẫn Trung Tá, PGS.TS Phạm Minh Nghĩa
Trường học Học Viện Kỹ Thuật Quân Sự
Chuyên ngành Kỹ Thuật Xử Lý Ảnh
Thể loại Bài Tập Lớn
Năm xuất bản 2022
Thành phố Hà Nội
Định dạng
Số trang 71
Dung lượng 1,48 MB

Cấu trúc

  • 1.1. Giới thiệu về ICA (7)
  • 1.2. Phân tích thành phần độc lập (ICA) (11)
  • 1.3. Sự độc lập thống kê (15)
  • 1.4. Ước lượng ICA (18)
  • 1.5. Tiền xử lý ICA (27)
  • II. ỨNG DỤNG CỦA ICA VÀO ƯỚC LƯỢNG ĐỘ SÂU ẢNH MẶT NGƯỜI (0)
    • 2.1. Xây dựng mô hình cICA (33)
    • 2.2. Xây dựng mô hình và khởi tạo ma trận hủy trộn (40)
    • 2.3. Tích hợp mô hình cho nhiều hình ảnh khuôn mặt không nhìn trực diện (45)
    • 2.4. Kết quả thực hiện (47)

Nội dung

Giới thiệu về ICA

Independent Component Analysis (phân tích thành phần độc lập) là một phương pháp thống kê được xây dựng để tách rời tín hiệu nhiều chiều thành các thành phần tín hiệu độc lập ẩn sâu bên dưới dữ liệu Kỹ thuật này đòi hỏi phải đặt ra giả thuyết tồn tại các nguồn tín hiệu bên dưới nongaussianity và độc lập thống kê từng đôi một Thuật toán ICA có nhiều ứng dụng rộng rãi trong nhiều bài toán khác nhau như xử lý tín hiệu, kinh tế học, sinh tin học,…

Ví dụ trong phòng mà trong đó có 3 người đang nói chuyện với nhau Bạn dùng

3 micro, đặt tại 3 vị trí khác nhau Các microphone sẽ thu được 3 tín hiệu đồng thời Ta phải xác định được x1(t), x2(t) và x3(t) với x1 ,x2, x3 là cường độ âm thanh, t là thời gian Chúng ta có thể biểu diễn nó bằng hệ phương trình tuyến tính x 1 ( t ) = a 11 s 1 + a 12 s 2 + a 13 s 3 x 2 ( t ) = a 21 s 1 + a 22 s 2 + a 23 s 3 x 3 ( t ) = a 31 s 1 + a 32 s 2 + a 33 s 3

Trroonng đó a 11 , a 12 ,a 13 , a 21 , a 22 , a 23 , a 31 , a 32 , a 33 là các chỉ số phụ thuộc vào khoảng cách từ microphone đến người nói Điều này rất tiện lợi trong việc xấp xỉ 3 nguồn tín hiệu gốc (tiếng nói của 3 người trong phòng ) s 1 ( t ) ,,s 2 ( t ) s 3 ( t ) từ các tín hiệu thu được x 1 ( t ) ,,x 2 ( t ) ,,x 3 ( t ) Ví dụ này được gọi là bài toán cocktail- party Theo thời gian ta có thể bỏ qua thời gian trễ và nhiễu thêm vào từ mô hình trộn đơn giản

Hình 1 2 Tín hiệu sau trộn

Vấn đề ở đây là chúng ta cần khôi phục lại tín hiệu gốc như như hình 1.1 từ tín hiệu trộn như hình 1.2

Nếu như chúng ta biết các hệ số a ij , chúng ta có thể giải hệ phương trình tuyến tính trên theo phương pháp thông thường và tìm đươc các tín hiệu ban đầu Tuy nhiên ở đây ta không biết các hệ số a ij do đó bài toán trở nên phức tạp.

Kỹ thuật phân tích thành phần độc lập ICA có thể xấp xỉ a ij dựa trên các thông tin độc lập của chính tín hiệu đó Điều này cho phép chúng ta chia các tín hiệu gốc từ tín hiệu đã trộn x 1 ( t ) ,,x 2 ( t ) ,,x 3 ( t )

Hình 1 3 Tín hiệu phục hồi

Phân tích thành phần độc lập (ICA)

(ICA) Để định nghĩa ICA ta có thể dùng mô hình thống kê “làm chậm biến số”-

”latent varialbe” Giả sử, ta quan sát n tổ hợp tuyến tính của n thành phần độc lập x j = a j1 s 1 + a j 2 s 2 + a j 3 s 3

Chúng ta bỏ qua chỉ số thời gian t (trong mô hình ICA), ta giả sử mỗi tổ hợp x j ứng với mỗi thành phần độc lập s k là biến ngẫu nhiên, thay cho tín hiệu theo thời gian thících hợp Giá trị quan x j ( t ) , những tín hiệu thu được từ microphone trong bài toán cocktail-party, là mẫu của biến số ngẫu nhiên Không mất tính tổng quát, ta giả sử cả biến trộn lẫn và thành phần độc lập có giá trị kỳ vọng bằng 0 Nếu thực tế không đúng, có thể đưa các biến số quan sát x j về gía trị trung tâm bằng cách trừ với kỳ vọng Điều đó rất thuận tiện khi dùng ký hiệu ma trận vector thay cho dạng tổng như các công thức trước đây Điều này cho thấy với vector ngẫu nhiên x , các thành phần của nó là tổ hợp tương tự như vector ngẫu nhiên s với các thành phần s,,s 2 ,, s 3 ,, … s n Chúng ta quan sát ma trận A với các phần tử a ij Tất τ

S = W x ( 1.4 ) x 1 ,, x 2 ,, x 3 ,… x n x 1 ,, x 2 ,, x 3 ,… x n cả các vector được được hiểu như vector cột; do đó x là chuyển vị của x ,là vector hàng, sử dụng ký hiệu ma trận vector, mô hình hỗn hợp ở trên sẽ được viết lại là: x = A s ( 1.2 ) Điều đó có nghĩa là mô hình a j có thể được viết lại như sau n

Mô hình thống kê (1.2) được gọi là phân tích các thành phần độc lập, hay mô hình ICA Mô hình ICA mô tả cách thức tạo ra dữ liệu quan sát bằng quá trình trộn các đối tượng s i Các đối tượng độc lập là các biến số ẩn, có nghĩa là ta không thể quan sát chúng một cách trực tiếp Vì vậy ma trận trộn cũng được xem như là không biết Tất cả những gì ta quan sát được chỉ là vector ngẫu nhiên x , và chúng ta phải dùng x để xấp xỉ cả A và s Điểm khởi đầu của

ICA là sự thừa nhận rất đơn giản rằng các thành phần s i là độc lập thống kê Tiếp theo chúng ta phải thừa nhận các thành phần độc lập phải có phân bố không Gauss Tuy nhiên, ở mô hình cơ bản chúng ta không cần biết sự phân bố này Một cách đơn giản, chúng ta chỉ cần giả thiết ma trận trộn chưa biết là ma trận vuông Sau đó ta xấp xỉ ma trận A , chúng ta có thể tính ma trận ngược (là

W ), các thành phần độc lập có thể được tính bằng công thức:

ICA cũng tương tự phương pháp

“phân chia nguồn mù” (BBS) hoặc phân chia tín hiệu chưa biết.”Nguồn” có nghĩa là các tín hiệu gốc, là các thành phần độc lập, tương tự như trong bài toán cocktail- party.”Mù” có nghĩa là biết rất ít ICA là một phương pháp có thể được ứng dụng rất rộng rãi trong việc trình bày quá trình phân chia nguồn mù

Trong nhiều ứng dụng, chúng ta giả thiết có thêm nhiễu trong quá trình đo đạc, có nghĩa là phải thêm thành phần nhiễu vào mô hình tính toán Để đơn giản đôi khi ta có thể bỏ qua thành phần nhiễu

*Các điểm không xác định trong ICA: Trong mô hình ICA (1.2), chúng ta có thể thấy các điểm không xác định như sau:

- Chúng ta không thể xác định được thành phần biến (số cột ma trận tương quan) của các thành phần độc lập Lý do là cả S và A đều không được biết, phép nhân vô hướng của nguồn s i có thể khử bằng cách chia cho cột tương ứng a i của A với cùng hướng (1.3) Hệ quả, chúng ta phải hiệu chỉnh biên độ của thành phần độc lập; như ta biết, các ICA đều là các biến ngẫu nhiên, cách đơn giản ta giả sử mỗi nguồn đều có thành phần biến số đơn vị Sau đó ma trận A sẽ đáp ứng với phương pháp giải ICA để khắc phục các hạn chế này Ta có thể loại bỏ những dấu hiệu bất định này: ta có thể nhân thành phần độc lập với -1 mà không làm ảnh hưởng đến mô hình tính Trong hầu hết các ứng dụng yếu tố dấu không có nghĩa

Chúng ta không thể xác định được thứ tự của các thành phần độc lập Lý do là cả S và A đều không được biết, chúng ta có thể thay đổi tùy ý trật tự của phép tính trong công thức (1.3), và có thể gọi bất cứ thành phần độc lập nào là

A P − 1 thành phần đầu tiên Ma trận hoán vị P và phép biến đổi ngược của nó có thể được thay thế trong công thức x = A P − 1 P S Các phần tử của P S là các thành phần biến độc lập gốc s j , nhưng theo thứ tự khác Ma trận được biết như là một ma trận trộn mới chưa biết được dùng để giải bài toán ICA.

Sự độc lập thống kê

Các phân bố xác suất đều giả sử có kỳ vọng bằng 0 Nếu không phải như vậy thì ta trừ phân bố với kỳ vọng của nó, đây là sự qui tâm (centering). Để ý là hiệp phương sai (covariance) chính là tương quan (correlation) khi kỳ vọng bằng

0 Đối với một vector ngẫu τ

C x x = E { ( x − m x ) ( x − m x ) } ( 1.5 ) vector trung bình Hiệp phương sai của hai vector ngẫu nhiên x 1 ,, x 2 (có kỳ vọng bằng không) là:

Khi C x 1 x 2 = 0 hai vector bất tương quan

(uncorrelated) Đối với vector ngẫu nhiên x khi các thành phần x i của nó bất tương quan thì:

Trong đó D là ma trận chéo n×n, với các phương sai của các thành phần nằm trên đường chéo chính

Tính bất tương quan nêu trên chưa đủ để ước lượng các thành phần độc lập ICA Ta cần một đặc tính mạnh hơn, đó là sự độc lập thống kê, nghĩa là khi biết một thành phần nào đó ta không thể suy ra các thành phần còn lại Xem hai vector ngẫu nhiên x 1 ,, x 2 với hàm mật độ xác suất riêng biệt p ( x 1 ),, p ( x 2 ) và hàm mật độ xác suất liên kết p ( x 1 x 2 ) là độc lập thống kê nếu và chỉ nếu khi thỏa mãn: p ( x 1 x 2 ) = p ( x 1 ) p ( x 2 )

Khi có nhiều vector thì sự thừa số hóa cũng tương tự Định nghĩa ở trên dẫn đến một đặc tính sau của các biến ngẫu nhiên Xem f ( x 1 )và f ( x 2 )là biến đổi phi tuyến nào đó trên hai vector ngẫu nhiên x 1 và x 2 có hàm phân bố đã nói ở trên, thì có thể chứng minh được:

Như vậy sự độc lập là có thể thừa số hóa tương quan phi tuyến Đây là đặc tính quan trọng vì nó giải thích và nhấn mạnh vai trò các phi tuyến trong ICA Khi đặt f ( x 1 ) = x 1 và f ( x 2 ) = x 2 ta thấy là sự độc lập bao gồm luôn sự bất tương quan (nhưng bất tương quan không đương nhiên là độc lập) Cụ thể là ta giả sử s ở phương trình (1.2) là độc lập thống kê nên các tín hiệu nguồn s i là các thành phần độc lập Chính nhờ sự độc lập thống kê mà ta có thể phân ly ra s từ

1.3.3 Phi Gauss là độc lập

Mô hình ICA đặt ra một hạn chế là các thành phần độc lập phải có tính phi

Gauss (non-gaussianity), tức không có phân bố (hàm mật độ xác suất) là Gauss.

Lý do tính phi Gauss nằm ở chổ là các biến ngẫu nhiên Gauss được xác định hoàn toàn bởi các thống kê bậc một (trị trung bình) và bậc hai (phương sai), các thống kê bậc cao hơn bằng 0 Như sẽ thấy ở sau, mô hình ICA cần các thống kê bậc cao hơn của các thành phần độc lập để thực hiện sự phân ly (ước lượng các thành phần độc lập) Như vậy, sự phi tuyến, tính phi Gauss dẫn đến sự độc lập thống kê

1.3.4 Các giả sử trong mô hình ICA

Mô hình ICA tuyến tính cơ bản đặt ra đòi hỏi các giả thiết sau cho việc phân ly (ước lượng) các thành phần độc lập: Các nguồn s độc lập thống kê nhau, nghĩa là biết được một nguồn không thể suy ra các nguồn còn lại.Các hàm phân bố xác suất của các nguồn có kỳ vọng bằng 0 Không có nguồn (thành phần độc lập) nào có phân bố Gauss (thật ra mô hình cho phép có tối đa một thành phần có phân bố Gauss)

Ma trận trộn A là ma trận vuông tức số lượng nguồn và số lượng trộn bằng nhau Nếu không phải vậy, bài toán sẽ khó hơn.

Ước lượng ICA

Ước lượng ICA là một công việc khá chi li Người ta đã phát triển nhiều cách để giải quyết bài toán ở phần 1:

- Cực đại hóa tính phi Gauss

- Ước lượng khả năng cực đại

- Cực tiểu hoá thông tin hỗ tương

Trong các phương pháp, trước tiên định ra một hàm đối tượng (objective function), còn gọi hàm trị giá (cost function), rồi dùng một thuật toán tối ưu hóa để cực đại hóa hoặc cực tiểu hóa (nói chung là cực đại hóa trị tuyệt đối) hàm đối tượng này để ước lượng các thành phần độc lập

Theo định lý giới hạn trung tâm (central limit theorem), tổng của nhiều biến ngẫu nhiên có phân bố gần Gauss hơn bất cứ biến ngẫu nhiên gốc nào Ở mô hình ICA (1.2) vector ngẫu nhiên x gồm các biến ngẫu nhiên là trộn tuyến tính của các vector biến ngẫu nhiên nguồn s Các nguồn được giả sử độc lập nhau nhưng khi trộn lại (cộng nhau) thì các trộn trở nên gần Gauss hơn Nếu việc trộn được đảo ngược lại theo cách nào đó thì các tín hiệu nhận được sẽ ít Gauss hơn Do đó ước lượng ICA nhắm đến cực tiểu hóa tính

Gauss tức cực đại hóa tính phi Gauss bởi vì điều này sẽ cho ta các thành phần độc lập

1.4.1 Đo tính phi Gauss bằng kurtosis Đầu tiên là phép đo dựa trên kurtosis của một biến ngẫu nhiên y có kỳ vọng bằng 0 là cumulant bậc bốn: kurt ( y )= E { y 4 } − 3 E { ( y 2 ) 2 }

Thật ra vì ta giả sử y có phương sai đơn vị, nên kurtosis là: kurt ( y ) = E { y 4 } − 3 Tức là kurtosis là phiên bản chuẩn hóa của momen thứ tư E { y 4 } Khi y có phân bố Gauss momen thứ tư bằng 3 E { ( y 2 ) 2 } nên kurtosis bằng 0 đối với các biến ngẫu nhiên Gauss Hầu hết các biến ngẫu nhiên không phải Gauss kurtosis khác

1 Nếếu kuurrttoossiis là dưươơnng biiếến nggẫẫu nhhiiêên có phhâân bố siiêêu Gaauusss

(supergaussian), còn nếu kurotsis là âm thì biến ngẫu nhiên có phân bố dưới Gauss (subgaussian).

Phân bố siêu Gauss không còn dạng hình chuông như Gauss mà tăng nhanh ở trung tâm tương tự như phân bố Laplace, còn phân bố dướibiên độGaussrấtnhỏkhôngởxanhôtrunglêntâmởphần.HìnhgiữadướinhưđâyGaussthểhiệnmà rõtiếnđiềuđếnđóphân bố đều với

Hình 1 4 Phân bố siêu Gauss

Việc đo tính phi Gauss bằng kurtosis có vài bất lợi khi các giá trị của nó được tính từ các mẫu quan sát được, vì kurtosis rất bị ảnh hưởng bởi các trị biên (outlier) quan sát được ở hai đuôi của phân bố

1.4.2 Đo tính phi Gauss bằng

Một số đo tính phi Gauss quan trọng hơn là negentropy Negentropy là đại lượng dựa trên lý thuyết thông tin gọi là entropy vi sai Entropy của một biến ngẫu nhiên là số đo lượng thông tin trung bình của nó Càng ngẫu nhiên, các biến càng không có cấu trúc thì entropy càng lớn Các biến chặt chẽ entropy càng gần chiều dài mã hóa của biến ngẫu nhiên

Entropy (vi sai) H của vector ngẫu nhiên y có hàm phân bố f ( y ) định nghĩa như sau:

Trong đó a i là giá trị có thể có của y Đây là định nghĩa nổi tiếng dùng để tổng hợp cho các biến hay các vector ngẫu nhiên có giá trị liên tục, trong trường hợp đó thường gọi là entropy vi phân Entropy vi phân của vector ngẫu nhiên y với mật độ f ( y ) :

( y ) d y Đặc tính quan trọng của entropy là biến ngẫu nhiên Gauss có entropy lớn nhất trong các biến ngẫu nhiên có cùng phương sai Như vậy entropy, và negentropy định nghĩa theo entropy, có thể dùng để đo tính phi Gauss của một biến ngẫu nhiên Thực tế, điều đó chỉ ra rằng phân bố Gauss là “ngẫu nhiên nhất” hay ít cấu trúc nhất trong tất cả phân bố

Entropy là nhỏ, trong đó các phân bố hầu như chỉ tập trung trong một số giá trị nhất định, biến số hội tụ, hay hàm mật độ phân bố có dạng nhọn Để có được một số đo tính phi Gauss sao cho bằng không đối với biến Gauss và luôn không âm, người ta định nghĩa negentropy của vector ngẫu nhiên y :

J y = H ( y Gauss ) − H ( y ) Trong đó y Gauss là một vector ngẫu nhiên Gauss cùng ma trận hiệp phương sai (hay ma trận tương quan vì các dữ liệu được giả sử có trung bình là không)

Do đặc tính đề cập ở trên, negentropy sẽ không bao giờ âm, nó chỉ bằng 0 nếu và chỉ nếu y có phân bố dạng Gauss Negentropy có đặc tính rất hay, chính là đại lượng bất biến trong phép biến đổi tuyến tính ngược Ưu điểm của negentropy, hay tương đương entropy vi phân, như một đại lượng đo đạc tính phi Gauss thỏa mãn lý thuyết thống kê Trong thực tế, negentropy là số chiều trong xấp xỉ tối ưu hóa phi Gauss Khó khăn trong việc ứng dụng negentropy là việc tính toán rất phức tạp Việc xấp xỉ negentropy bằng định nghĩa cần phải xấp xỉ hàm mật độ xác xuất Cho nên, việc đơn giản hóa việc xấp xỉ negentropy là rất cần thiết Tuy nhiên tính toán negentropy lại khó khăn Một số tính toán xấp xỉ đã được phát triển, mà một là:

Hàm phi tuyến G(.) có thể chọn theo một hai biểu thức sau:

Trong mô hình ICA, ta muốn tìm các hàng của ma trận W Khi dùng negentropy người ta xây dựng thuật toán FastICA dựa trên thuật toán điểm cố định (fixed-pointalgorithm)

- FastICA cho một đối tượng:

Chúng ta sẽ xem xét loại một đơn vị của

FastICA Chúng ta quy việc tính toán về mức đơn vị, như mạng neural nhân tạo, có vector trọng số mà các neural có thể cập nhật theo luật học Đối với fastICA luật học là tìm ra hướng vector đơn vị w sao cho hình chiếu w τ x cực đại tính phi Gauss Tính phi

Gauss ở đây đo đạc theo xấp xỉ negentropy J ( w τ x )

Các phương sai của w τ x phải đưa về dạng đơn vị.

Tương tự quá trình làm trắng hóa cũng đưa w về dạng chuẩn đơn vị.

FastICA dựa trên mô hình điểm cố định được lập đi lập lại nhiều lần nhằm tìm ra giá trị cực đại của w τ x Nó cũng bắt nguồn từ phép lặp

+ Bước 1: Chọn một vector ngẫu nhiên w

Nếu không hội tụ thì quay lại bước 2

Hội tụ có nghĩa là giá trị mới và cũ của điểm w phải có cùng hướng , tích vô hướng của chúng là

1 Tuy nhiên thực tế ta chọn ngưỡng hội tụ Sig cho trước sao cho:

Sig≥ ‖ w new − w old ‖ Trong đó g là đạo hàm của các hàm G1,

ICA cho nhiều đối tượng

Tuy nhiên thường ta không có một thành phần độc lập đơn (chỉ một mà thôi), do đó phải tính nhiều hơn một hàng của W

Lúc bấy giờ các hàng w khác nhau của ma trận W có thể hội tụ đến cùng các cực đại của hàm đối tượng Để khắc phục vấn đề này, các vector w 1 ,, w 2 , … w n phải được trực giao hóa sau mỗi lần lặp Để tránh trường hợp các vector cùng hội tụ về một hướng duy nhất chúng τ τ τ ta phải giải tương quan ngõ ra w 1 x ,, w 2 x …, w n x sau mỗi lần lặp lại Chúng ta sẽ đề cập đến các phương pháp giải quyết vấn đề này Một cách giải tương quan đơn giản là mô hình hạ cấp ma trận dựa trên lý thuyết giải tương quan của Gram

Tiền xử lý ICA

Thường trước khi ước lượng ICA cho dữ liệu quan sát được người ta áp dụng một hai tiền xử lý để việc ước lượng ICA được thuận lợi hơn

Như đã nêu ở trước, các tín hiệu trộn quan sát được phải có kỳ vọng m = E [ x ] = 0 điều này cũng có nghĩa là các tín hiệu nguồn s cũng có kỳ vọng bằng

1 Nếu các tín hiệu chưa có kỳ vọng bằng 0 ta thực hiện phép qui tâm tức là trừ phân bố của các biến ngẫu nhiên với các kỳ vọng của chúng: x ¿ x ' − E { x ' } trong đó x ' là vector ngẫu nhiên chưa có kỳ vọng bằng 0 Sau khi đã ước lượng ma trận

A và các thành phần s ta có thể thêm trở lại các kỳ vọng của chúng Khi vector ngẫu nhiên x (hoặc s ) có kỳ vọng bằng 0 thì hiệp phương sai và tương quan của nó giống nhau

Sau khi đã qui tâm các biến ngẫu nhiên x, ta áp dụng một biến đổi tuyến tính trên x để được vector mới là trắng Sự làm trắng hay trắng hóa whitening), còn gọi cầu hóa (sphering), có mục đích làm cho dữ liệu bất tương quan Giả sử ta có vector ngẫu nhiên x bất tương quan, tức là xuyên phương sai của các phần tử bằng 0, dẫn đến ma trận hiệp phương sai là ma trận chéo có các số hạng chéo tương ứng với các phương sai của các phần tử của x Nếu các phương sai này được cho bằng 1, nghĩa là ma trận hiệp phương sai được cho bằng với ma trận đơn vị I thì vector ngẫu nhiên x là trắng:

Việc làm trắng là một biến đổi tuyến tính z = V x

Trong đó x là dữ liệu cần làm trắng, V là ma trận làm trắng, z là dữ liệu đã trắng hóa Cách thường dùng nhất để tìm ma trận làm trắng là thực hiện sự phân ly trị riêng (Eigenvalue Decomposition

- EVD) trên ma trận hiệp phương sai:

Trong đó E là ma trận trực giao của các vector riêng của E [ x x τ ] và D là ma trận chéo của các trị riêng của chúng,

0 0 0 d n n là số lượng nguồn quan sát [ được x Matrận ] làm trắng là:

Ma trận làm trắng trên cũng có thể biểu diễn như sau:

Trong đó C x x = E [ x x τ ] là ma trận hiệp phương sai

Trong đó A = V A là ma trận trộn đã làm trắng Mặt khác z là dữ liệu đã làm trắng nên

Ta cần chú ý rằng các thành phần độc lập s i đều giả sử có phương sai đơn vị Vậy ma trận đã làm trắng là trực giao (ở ma trận trực giao nghịch đảo bằng chuyển vị: ~

Ta biết ma trận n x n nếu không trực giao chứa n 2 độ tự do, còn nếu trực giao chỉ chứa n(n-1)/2 độ tự do Với dữ liệu hai chiều điều này có nghĩa là độ tự do chỉ là một cho một biến đổi trực giao Khi số chiều lớn, độ tự do của một ma trận trực giao chỉ là phân nửa độ tự do của ma trận không trực giao Do đó người ta nói làm trắng là đã giải quyết phân nửa bài toán ICA Bởi vì trắng hóa là một thủ tục đơn giản hơn bất cứ thuật toán ICA nào nên là một tiền xử lý thông dụng

Sau khi đã ước lượng ma trận trắng hóa, thì việc ước lượng các thành phần độc lập s trở thành: s = W z trong đó W là khả đảo

Với các ma trận vuông việc lấy nghịch đảo rất thuận lợi Sau khi có được

W , việc ước lượng ma trận gốc A cho bởi

AI ỨNG DỤNG CỦA ICA VÀO

LƯỢNG ƯỚC ĐỘ SÂU ẢNH MẶT NGƯỜI

Trong nhiều năm qua, các mẫu mặt CANDIDE 3-D đã được sử dụng rộng rãi để biểu diễn và nhận dạng khuôn mặt 3-D, chủ yếu là vì tính đơn giản và tính khả dụng của nó

Mô hình là một mặt nạ được tham số hóa được phát triển đặc biệt để mã hóa khuôn mặt người dựa trên mô hình

Phiên bản thứ ba của mô hình CANDIDE, được gọi là CANDIDE-3, bao gồm 113 đỉnh và

168 bề mặt tam giác, như thể hiện trong Hình 1 Mỗi đỉnh được biểu diễn bằng tọa độ 3-D của nó Xem xét các giá trị độ sâu (tọa độ z) của mô hình CANDIDE như một đầu vào của cICA (constrained ICA – ICA có điều kiện), bài toán ICA không đầy đủ có thể được chuyển đổi thành bài toán cICA thông thường Điều này có thể tăng độ chính xác ước lượng độ sâu đáng kể Một cách được sử dụng thêm trong đó sử dụng mô hình CANDIDE để tạo tín hiệu tham chiếu. Tín hiệu tham chiếu này không chỉ được sử dụng trong việc khởi tạo cấu trúc mặt 3-D để ước lượng, nó còn được sử dụng trong hàm tương quan của mô hình cICA Hơn nữa, một phương pháp tích hợp mô hình được đề xuất để cải thiện độ chính xác của ước tính độ sâu khi có nhiều hơn một khuôn mặt

ỨNG DỤNG CỦA ICA VÀO ƯỚC LƯỢNG ĐỘ SÂU ẢNH MẶT NGƯỜI

Xây dựng mô hình cICA

Các đặc điểm hình ảnh được biểu thị bằng tọa độ (x, y) của các điểm đặc trưng trên khuôn mặt, được sử dụng trong thuật toán để ước tính các giá trị độ sâu tương ứng z, tức là tọa độ z Giả sử rằng n điểm đặc trưng được đánh dấu trên các hình ảnh khuôn mặt ( M xi ,, M yi ,, M zi ) đại diện cho điểm đặc trưng thứ i của một mô hình mặt 3-D xem trực diện M và ¿ ) là điểm đặc trưng thứ i của mặt 2-D không nhìn trực diện q Ma trận quay R đối với q được cho như sau:

33 trong đó các tham số tư thế và θ lần lượt là góc quay xung quanh các trục x, y và z Sau đó, quá trình xoay và dịch để ánh xạ hình ảnh khuôn mặt nhìn chính diện sang hình ảnh khuôn mặt không nhìn chính diện có thể được đưa ra bởi: q x i = k

Với i = 1,2 , … , p trong đó k là hệ số tỷ lệ và ( t x , t y ) là các phép tịnh tiến dọc theo trục x và y

Dạng ma trận của (2.2) có thể được viết như sau: q = k R 2 × 3 M + t ( 2.3 )

Trong đó q là ma trận 2 × p sao cho mỗi cột ( q x i q y i ) τ đại diện cho tọa độ (x, y) của một điểm đặc trưng, M là ma trận sao cho mỗi cột đại diện cho tọa độ (x, y, z) của một điểm đặc trưng, và t là ma trận 2 × p sao cho tất cả các cột là ( t x t y ) τ

Về phương pháp tiếp cận căn chỉnh hình dạng, thuật ngữ dịch t có thể bị loại bỏ nếu cả q và M đều có tâm tại điểm gốc, tức là q←←q − ~ q ( 2.4 )

M←M M 2.5 q = k R 2 × 3 M ( 2.6 ) p trong đó ~ q là ma trận 2 × p sao cho mỗi cột là ( 1 / p ) ∑ ( q x i q y i ) τ và M là ma trận 3 × p i = 1 p sao cho mỗi cột là ( 1 / p ) ∑ ( M x i M y i

Phương trình (2.6) sau đó có thể được viết lại thành:

Từ (2.8) có thể thấy rằng A có thể được xem như một ma trận trộn và q là hỗn hợp của M Giả sử rằng phân phối của các biến M x ,, M y vàM z không phải là Gaussian, bài toán ước lượng cấu trúc 3-D có thể được xây dựng như một bài toán BSS, như được mô tả trong (2.8) Như chúng ta đã biết, BSS tương đương với ICA trong quá trình hỗn hợp tuyến tính và các tín hiệu nguồn có thể được khôi phục bằng cách sử dụng thuật toán ICA, tức là, độ sâu M z có thể được khôi phục thông qua các thuật toán ICA bằng cách tối đa hóa phân phối không Gauss.

Lưu ý rằng số tín hiệu nguồn trong M là 3, trong khi số tín hiệu hỗn hợp trong q là hai Có nghĩa là, một số thông tin bị mất trong quá trình trộn, và quá trình trộn này là không thể đảo ngược Khôi phục 3 tín hiệu nguồn từ 2 tín hiệu quan sát là một bài toán ICA quá đầy đủ điển hình, đây vẫn là một bài toán khó khăn hiện nay

Cho n tín hiệu hỗn hợp x = ( x 1 ,,x 2 , … ,x n ) đối với bài toán ICA quá đầy đủ, một cách tiếp cận để giải bài toán là ước lượng ma trận trộn A và m tín hiệu nguồn s = ( s 1 ,, s 2 , … ,s m ) hoặc thông qua ước lượng khả năng tối đa xảy ra (ML)

Cho trước x và một ma trận trộn ban đầu

A , ước lượng ML của các tín hiệu nguồn s có thể được đưa ra bởi

( 2.9 ) x = As i được xây dựng dưới dạng một hàm tuyến tính và có thể được giải bằng cách sử dụng các phương pháp cổ điển để lập trình tuyến tính Hơn nữa, ước lượng ML của A cho một s đã cho có thể được tính như

( 2.10 ) t t trong đó x ( t ) biểu thị vectơ mẫu của x tại thời điểm t, và s ( t ) là vectơ mẫu của s tại thời điểm t.

Thay vì sử dụng ước lượng ML, một thuật toán hình học đã được đề xuất để khôi phục ma trận trộn hiệu quả hơn Thông tin trước là một nguồn quan trọng để giảm bớt tác động tiêu cực do thông tin bị thiếu Tín hiệu tham chiếu đã được chứng minh là thông tin hiệu quả trước đây trong các phương pháp ICA và BSS cICA cung cấp một quy tắc chung để kết hợp các thông tin trước đó Từ (2.8) có thể thấy rằng chỉ có một tín hiệu nguồn không xác định trong M , tức là thông tin độ sâu M z Do đó, chúng ta chỉ cần trích xuất M z bằng tín hiệu tham chiếu tương ứng Dựa trên những xem xét ở trên, cICA là một cách tiếp cận phù hợp để ước lượng cấu trúc 3-D Ký hiệu y là tín hiệu ước tính của M z , tức là: y = w q ( 2.11 ) trong đó w là ma trận không trộn Trong thuật toán cICA, entropy âm J ( y ) được sử dụng như một hàm tương phản và cICA được xây dựng như một bài toán tối ưu hóa có điều kiện như sau: minJ ( y ¿)¿¿

15 s t g ( y , w ) ≤ 0 vàh ( y , w ) = 0 ( 2.12 ) Ở đây, các hàm g ( y , w ) và h ( y , w ) lần lượt thể hiện các điều kiện bất đẳng thức và đẳng thức Các điều kiện bất đẳng thức là các phép đo xấp xỉ của ước lượng các đầu ra và các tham chiếu tương ứng của chúng, và các điều kiện xảy ra đẳng thức được thông qua để loại bỏ mối quan hệ tương quan giữa bất kỳ thành phần đầu ra nào trong số hai thành phần đầu ra khác nhau.

Chúng ta có thể thu được tín hiệu nguồn y bằng cách tối ưu hóa hàm mục tiêu Vấn đề tối ưu hóa trong (2.12) có thể được giải quyết bằng cách sử dụng hệ số nhân Lagrange như sau:

( 2.13 ) trong đó μ và λ biểu thị các hằng số nhân

Lagrange và g ( y , w , μ ) và h ( y , w , λ ) lần lượt là các số hạng tương ứng với các điều kiện bất đẳng thức và đẳng thức

Trong mỗi lần lặp, sự thay đổi của hệ số nhân μ và λ được cho bởi:

Và trong đó η và γ là tốc độ học tập (Sử dụng trong học máy) Gradient của với w được cho như sau: trong đó g ( y ) = E { ( học tập giống Newton của w có thể được đưa ra bởi: Δ w =− η Δ 2

( w trong đó ρ là hằng số dương, Δ w 2 L = ∂ ( Δ w L ) / ∂ w , σ − xx 1 biểu thị ma trận hiệp phương sai ngược của

Gaussian và f ( y ) = b y 4 cho tín hiệu

Xây dựng mô hình và khởi tạo ma trận hủy trộn

tạo ma trận hủy trộn

Có hai vấn đề quan trọng cần giải quyết để xây dựng mô hình Một là cách xây dựng một mô hình cICA hiệu quả, và hai là cách khởi tạo ma trận không trộn Mặc dù một số tín hiệu có thể được trích xuất bằng cách sử dụng thuật toán cICA bằng cách tối thiểu hóa hàm mục tiêu (2.12), nhưng ước lượng độ sâu không đủ chính xác vì hỗn hợp q có thể không chứa đủ thông tin về độ sâu Ngoài ra, vẫn còn khó khăn để ước lượng ma trận không trộn và các tín hiệu nguồn cho bài toán quá đầy đủ Ở đây, chúng ta sử dụng các giá trị độ sâu z c = ( z c 1 , z c 2 , … , z cp ) của các điểm đặc trưng trong mô hình

CANDIDE như một hỗn hợp Sau đó, z c và q được kết hợp để tạo thành đầu vào của thuật toán cICA Công thức:

Công thức 2.11 có thể viết lại như sau:

Theo giả thiết này, số lượng tín hiệu nguồn bằng số lượng tín hiệu hỗn hợp Do đó, mô hình cICA đã xây dựng trở thành một bài toán ICA bình thường chứ không phải là một bài toán quá đầy đủ

Bài toán ICA thông thường này cũng có thể được giải quyết bằng cách sử dụng một số thuật toán ICA điển hình, chẳng hạn như thuật toán điểm cố định nổi tiếng, được gọi là FastICA, là một thuật toán

ICA rất hiệu quả và đáng tin cậy đã trình bày ở phần 1 FastICA dựa trên sơ đồ lặp điểm cố định để xác định mức tối đa không phải Gauss của y , được thể hiện bằng:

J ( y ) ∝ [ E { G ( y ) } − E { G ( ν ) } ] 2 ( 2.20 ) trong đó ν biểu thị một biến Gaussian, và G là một hàm không phải hàm bậc 2, chẳng hạn như:

Tuy nhiên, thông tin trước trong các tham chiếu không chỉ được sử dụng trong hàm tương phản mà còn trong việc khởi tạo thuật toán cICA Do đó, có thể đạt được mức độ chính xác ước tính độ sâu cao hơn

Do các tín hiệu tham chiếu thu được từ các dấu hiệu của các tín hiệu nguồn Vì độ sâu thực sự của cấu trúc mặt 3-D sẽ được tái tạo là không xác định, nên không thể xác định được tín hiệu tham chiếu Tuy nhiên, nhìn chung, tất cả các khuôn mặt đều có cấu trúc 3-D tương tự nhau Vì mô hình CANDIDE là mô hình mặt 3-D chung, các giá trị độ sâu của nó phù hợp để lấy làm tín hiệu tham chiếu Trước tiên, chúng tôi trừ giá trị trung bình của z c , ~ z c từ z c , tức là: z c = z c − ~ z c ( 2.23 ) p

~ trong đó z c là vectơ 1 x p sao cho tất cả các phần tử đều là ( 1 / p ) ∑ i = 1 z ci Sau đó, các dấu hiệu của z c được sử dụng làm tín hiệu tham chiếu r , tức là

1, z ci > 0 trong đó sign (.) là hàm dấu hiệu (hàm lẻ) Để đánh giá hiệu suất của các thuật toán, cơ sở dữ liệu Bosphorus được sử dụng Mỗi hình ảnh khuôn mặt ở chế độ xem chính diện trong cơ sở dữ liệu này có 24 điểm đặc trưng trên khuôn mặt được đánh dấu Vì không có điểm tương ứng trong mô hình CANDIDE cho các điểm đặc trưng 23 và 24, chỉ có các điểm

1-22 được chọn ở đây để tạo thành tín hiệu tham chiếu, như trong Hình 2.2

Hình 2 2 Vị trí của 22 điểm đặc trưng được đánh dấu trong cơ sở dữ liệu

Hình 2.3 cho thấy các tín hiệu tham chiếu của bốn điểm đầu tiên đối tượng (bs000-bs003) thu được bằng cách sử dụng mô hình CANDIDE và các giá trị độ sâu thực Có thể thấy rằng các tín hiệu tham chiếu thu được từ mô hình CANDIDE trùng với các tín hiệu thu được bởi các giá trị độ sâu thực cho hầu hết các điểm đặc trưng trên khuôn mặt Do đó, điều này cho thấy rằng việc sử dụng mô hình CANDIDE để xây dựng tín hiệu tham chiếu là khả thi

Hình 2 3 So sánh các tín hiệu tham chiếu dựa trên mô hình CANDIDE và giá trị độ sâu thực cho 4 khuôn mặt riêng biệt

Cần chỉ ra rằng các tín hiệu nhị phân của các giá trị độ sâu thực thể hiện trong Hình 2.3 chỉ được sử dụng để thể hiện hiệu quả của phương pháp xây dựng tín hiệu tham chiếu Chúng không được sử dụng trong ước lượng giá trị độ sâu hoặc tính toán chỉ số hiệu suất Với tín hiệu tham chiếu r được dẫn xuất như đã giải thích trước đây, ma trận không trộn ban đầu có thể được tính như sau: w 0 = q ξ r ( 2.25 ) trong đó q ξ là nghịch đảo tổng quát Moore- Penrose của q

Tích hợp mô hình cho nhiều hình ảnh khuôn mặt không nhìn trực diện

Một hình ảnh khuôn mặt không nhìn trực diện là đủ để đánh lừa cấu trúc mô hình cICA Khi có nhiều hơn một hình ảnh khuôn mặt không nhìn trực diện, phương pháp tích hợp mô hình được sử dụng để cải thiện hơn nữa độ chính xác của ước lượng độ sâu

Hình 2 4 Lưu đồ của phương pháp tích hợp mô hình

Hình 2.4 cho thấy sơ đồ của phương pháp tích hợp mô hình Đối với hình ảnh khuôn mặt không trực diện, đặc điểm hình dạng q i được kết hợp với z c để tạo thành đầu vào Q của thuật toán cICA Sau đó, tín hiệu độ sâu z i có thể được xác định bằng thuật toán cICA Giá trị trung bình của z i được tính như sau:

N được sử dụng làm tín hiệu hỗn hợp để thay thế z c Việc lặp lại được thực hiệncủaphươngchođếnphápkhi đạtđượcđếnđưasốralầnnhưlặpsau:tối đa được xác định trước Các bước cụ thể

- Bước 1: Đặt số lần lặp tối đa ( N iter )

- Bước 2: Khởi tạo các giá trị độ sâu z c và thu được tín hiệu tham chiếu bằng cách sử dụng các giá trị độ sâu của 22 điểm đặc trưng được cung cấp bởi mô hình CANDIDE (các điểm đặc trưng này có cùng vị trí với

22 điểm đặc trưng được thể hiện trong Hình 2.2)

- Bước 3: Đối với mỗi hình ảnh khuôn mặt đào tạo, đặc điểm hình dạng của các điểm đặc trưng và z c được kết hợp để tạo thành đầu vào của mô hình cICA - Bước 4: Tính toán ma trận không trộn ban đầu theo (2.25), cập nhật ma trận không trộn theo (2.17) và tính toán các giá trị độ sâu ước tính y bằng cách sử dụng (2.11)

- Bước 5: Tính toán các giá trị trung bình tương ứng của độ sâu của các điểm đặc trưng như được ước lượng cho tất cả các hình ảnh đào tạo, sau đó thay thế z c

Các bước 3-5 được lặp lại cho đến khi số lần lặp đạt đến giá trị lớn nhất được xác định trước N iter

Kết quả thực hiện

2.4.1 Dữ liệu thử nghiệm và các phương pháp liên quan được so sánh

Thực hiện đánh giá phương pháp được trên cơ sở dữ liệu Bosphorus, đây là một cơ sở dữ liệu khuôn mặt 3- D bao gồm một bộ biểu cảm phong phú, các biến thể có hệ thống của các tư thế và các kiểu ăn khớp khác nhau Một ưu điểm nổi bật khi sử dụng cơ sở dữ liệu này là có sẵn các tọa độ 3-D của một tập hợp các điểm đặc trưng trên khuôn mặt được xác định trước Nói cách khác, các giá trị ước lượng độ sâu của cấu trúc mặt 3-D được tái tạo có thể được so sánh với các giá trị thực trên mặt của nó Do đó, hiệu suất của các thuật toán tái tạo 3-D có thể được đánh giá và so sánh chính xác hơn Tọa độ 2-D tương ứng của các điểm đặc trưng cho tất cả các tư thế trong cơ sở dữ liệu cũng được cung cấp Nói chung, các điểm đặc trưng tương ứng cho chế độ xem 2-D của tư thế tùy ý được hình thành khi thu được các điểm đặc trưng này thông qua việc sử dụng các điểm đánh dấu trong quá trình thu nhận hình ảnh hoặc bằng cách sử dụng bất kỳ thuật toán phát hiện điểm đặc điểm khuôn mặt nào. Trong mô hình cICA, tín hiệu nguồn được giả định là các giá trị độ sâu của hình ảnh mặt nhìn chính diện.

Do đó, để hình thành tín hiệu tham chiếu, chúng ta chỉ cần xác định vị trí của 22 điểm đặc trưng trong mô hình CANDIDE (như trong Hình 2.2), tương ứng với 22 điểm đặc trưng được đánh dấu trong cơ sở dữ liệu Bosphorus (như trong Hình 2.3) Đối với cơ sở dữ liệu này, chủ yếu xử lý những hình ảnh có sự thay đổi tư thế Làm thế nào để đáp ứng với sự thay đổi biểu hiện, sự thay đổi độ chiếu sáng và sự ăn khớp Tất cả các mô phỏng được thực hiện trong môi trường MATLAB Để đánh giá hiệu quả, phương pháp đề xuất được so sánh với FastICA, glCA, và phương pháp tái tạo khuôn mặt 3-D dựa trên sự biến đổi tương đồng (SM) Để làm cho biểu thức thuận tiện hơn, phương pháp tích hợp mô hình được sử dụng trong cICA được ký hiệu là cICA_MI

2.4.2 Kết quả thử nghiệm trên Cơ sở dữ liệu

30 đối tượng đầu tiên từ cơ sở dữ liệu Bosphorus đã được sử dụng trong các thí nghiệm

Hình 2 5 Hình ảnh khuôn mặt của một đối tượng dưới các tư thế khác nhau trong cơ sở dữ liệu Bosphorus

Hình 2.5 cho thấy hình ảnh khuôn mặt của một đối tượng trong cơ sở dữ liệu Lưu ý rằng không thể chọn hình ảnh có các điểm đặc trưng không nhìn thấy làm hình ảnh đào tạo, vì không thể khôi phục các giá trị độ sâu tương ứng Do đó, chỉ có năm hình ảnh khuôn mặt không nhìn trực diện, PR_D, PR_SD, PR_SU, PR_U và YR_R10 có thể được sử dụng để thực hiện mô hình trong các thử nghiệm Hệ số tương quan tuyến tính của

Pearson được sử dụng để đo mối tương quan giữa hai biến Đây là một tiêu chí quan trọng để đo mức độ tương tự giữa tín hiệu thực và tín hiệu ước lượng tương ứng Do đó, hệ số tương quan

21 giữa giá trị độ sâu thực và giá trị ước lượng độ sâu sẽ được sử dụng ở đây để đo hiệu suất của các thuật toán tái tạo khuôn mặt 3-D khác nhau

2.4.2.1 So sánh thử nghiệm với FastICA Đối với FastICA, các tham số được đặt làm giá trị mặc định được sử dụng trong gói chương trình được có sẵn Tương tự như cICA, ma trận không trộn ban đầu cho bởi (2.25) cũng có thể được sử dụng trong thuật toán FastICA Kết quả thực nghiệm thu được khi sử dụng cICA và FastICA được thể hiện trong Hình 2.6,

Hình 2 6 So sánh kết quả hoạt động của FastICA và cICA về mối tương quan Các điểm đánh dấu đại diện cho các mối tương quan trung bình và đường thẳng đứng đi qua một điểm đánh dấu thể hiện phạm vi của hệ số tương quan tương ứng Trong đó mỗi điểm đánh dấu biểu thị giá trị trung bình của các hệ số tương quan thu được từ ảnh khuôn mặt của từng đối tượng Khoảng cách giữa điểm đánh dấu và điểm cuối của dòng thể hiện độ lệch chuẩn của các hệ số tương quan Phương pháp minh họa độ lệch chuẩn này sẽ không được trình bày trong các hình tiếp theo Có thể thấy từ Hình 2.6 rằng các phương tiện dựa trên cICA cao hơn so với các phương tiện dựa trên FastICA cho tất cả các đối tượng Do đó, cICA có thể được kết luận là có mức độ chính xác ước lượng độ sâu cao hơn FastICA Ngoài ra, độ lệch chuẩn dựa trên cICA rõ ràng là nhỏ hơn so với độ lệch chuẩn dựa trên FastICA Điều này có nghĩa là cICA mạnh mẽ hơn FastICA cho các đối tượng khác nhau Do đó, kết luận lại, cICA có hiệu suất ước lượng độ sâu tốt hơn FastICA

Hình 2 7 So sánh các hoạt động của FastICA có và không sử dụng ma trận không trộn ban đầu

Hình 2.7 cho thấy các hoạt động của thuật toán FastICA có và không sử dụng ma trận không trộn ban đầu trong (2.25) Kết quả cho thấy hai trường hợp này biểu diễn tương tự nhau

2.4.2.2 So sánh thử nghiệm với gICA

Vì gICA được sử dụng để giải quyết vấn đề ICA quá đầy đủ, đầu vào của thuật toán là ở (2.4), thay vì ở (2.18) Kết quả thực nghiệm dựa trên gICA và các thuật toán cICA được thể hiện trong Hình 8

Hình 2 8 So sánh hiệu suất của gICA và cICA đối với các đối tượng khuôn mặt khác nhau

Thuật toán cICA có thể đạt được mức trung bình cao hơn và độ lệch chuẩn nhỏ hơn so với gICA Do đó, cICA vượt trội hơn gICA Thao tác làm trắng là một quy trình tiền xử lý hữu ích trong các thuật toán ICA Các vectơ ngẫu nhiên được cho là có màu trắng nếu chúng có giá trị trung bình bằng 0 và ma trận hiệp phương sai là ma trận đơn vị, có thể nhân với một phương sai không đổi Tuy rằng hiệu suất sẽ được cải thiện nếu đầu vào được làm trắng, kết quả kểthao thực tác nghiệm làmtrắng trong có Hình được 2 thực 9chỉ hiện rarằng hay hiệu không suất hầu như không thay đổi bất

Hình 2 9 So sánh các hoạt động của gICA khi sử dụng và không sử dụng thao tác làm trắng 2.4.2.3 So sánh thử nghiệm với thuật toán SM

Trong phương pháp SM, kích thước tổng cộng và số lần lặp lại tối đa của thuật toán di truyền được đặt lần lượt là

Hình 2 10 So sánh hiệu suất của thuật toán SM và cICA

Hình 2.10 cho thấy các kết quả thực nghiệm thu được bằng cách sử dụng các thuật toán SM và cICA Chúng ta có thể thấy rằng các phương tiện dựa trên cICA cao hơn so với các phương tiện dựa trên SM Do đó, cICA có mức độ chính xác ước lượng độ sâu cao hơn so với

SM Ngoài ra, độ lệch chuẩn dựa trên cICA rõ ràng là nhỏ hơn so với độ lệch chuẩn dựa trên

SM Do đó, chúng ta có thể kết luận rằng cICA chính xác và mạnh mẽ hơn SM

Lấy Bài tập 1 làm ví dụ, Bảng I cho thấy hệ số tương quan của giá trị độ sâu thực và giá trị ước lượng tương ứng cho các hình ảnh khuôn mặt khác nhau bằng cách sử dụng các thuật toán FastICA, gICA, SM và cICA Có thể thấy rằng thuật toán cICA có thể đạt được hiệu suất rất giống nhau đối với các hình ảnh khuôn mặt khác nhau và vượt trội hơn ba thuật toán còn lại về tương quan trung bình ( μ ) và độ lệch chuẩn ( σ )

Bảng 2 1 Hệ số tương quan của gia trị độ sâu thực và giá trị ước lượng thu được với hình ảnh khuôn mặt người khác nhau cho FastICA, gICA, SM, và cICA.

2.4.2.4 So sánh thực nghiệm của cICA và cICAMI: Để đánh giá phương pháp tích hợp mô hình, cICA_MI được sử dụng để ước lượng độ sâu của hình ảnh khuôn mặt cho 30 đối tượng

Trong các thử nghiệm, người ta thấy rằng hiệu suất thường trở nên ổn định khi số lần lặp lại tối đa ( N iter ) là khoảng 1500 Lấy các Đối tượng 1, 6, 11, 16, 21 và 26 làm ví dụ, các đường cong lặp lại tương ứng dựa trên

Phương pháp tích hợp mô hình được mô tả trong Hình 2.11

Hình 2 11 Các đường cong lặp lại của các Đối tượng 1, 6, 11, 16, 21 và 26 bằng cách sử dụng mô hình phương pháp tích hợp

Ngày đăng: 05/12/2022, 06:22

HÌNH ẢNH LIÊN QUAN

Hình 1.1. Tín hiệu gốc - BÀI tập lớn đề bài NGHIÊN cứu THUẬT TOÁN ICA và ỨNG DỤNG ước LƯỢNG độ sâu ẢNH mặt NGƯỜI
Hình 1.1. Tín hiệu gốc (Trang 8)
Hình 1.2. Tín hiệu sau trộn - BÀI tập lớn đề bài NGHIÊN cứu THUẬT TOÁN ICA và ỨNG DỤNG ước LƯỢNG độ sâu ẢNH mặt NGƯỜI
Hình 1.2. Tín hiệu sau trộn (Trang 9)
Hình 1.3. Tín hiệu phục hồi - BÀI tập lớn đề bài NGHIÊN cứu THUẬT TOÁN ICA và ỨNG DỤNG ước LƯỢNG độ sâu ẢNH mặt NGƯỜI
Hình 1.3. Tín hiệu phục hồi (Trang 10)
độGaussrấtnhỏkhơngởxanhơtrunglêntâmởphần.HìnhgiữadướinhưđâyGaussthểhiệnmà rõtiếnđiềuđếnđóphân - BÀI tập lớn đề bài NGHIÊN cứu THUẬT TOÁN ICA và ỨNG DỤNG ước LƯỢNG độ sâu ẢNH mặt NGƯỜI
aussr ấtnhỏkhơngởxanhơtrunglêntâmởphần.HìnhgiữadướinhưđâyGaussthểhiệnmà rõtiếnđiềuđếnđóphân (Trang 20)
FastICA dựa trên mơ hình điểm cố định được lập đi lập lại nhiều lần nhằm tìm ra giá trị  cực đại của wτ x  - BÀI tập lớn đề bài NGHIÊN cứu THUẬT TOÁN ICA và ỨNG DỤNG ước LƯỢNG độ sâu ẢNH mặt NGƯỜI
ast ICA dựa trên mơ hình điểm cố định được lập đi lập lại nhiều lần nhằm tìm ra giá trị cực đại của wτ x (Trang 24)
từ hình chiếu (w¿¿ p+ 1τ wj) wj ¿; j=1…p củap vector - BÀI tập lớn đề bài NGHIÊN cứu THUẬT TOÁN ICA và ỨNG DỤNG ước LƯỢNG độ sâu ẢNH mặt NGƯỜI
t ừ hình chiếu (w¿¿ p+ 1τ wj) wj ¿; j=1…p củap vector (Trang 26)
khơng nhìn trực diện hình ảnh có sẵn. - BÀI tập lớn đề bài NGHIÊN cứu THUẬT TOÁN ICA và ỨNG DỤNG ước LƯỢNG độ sâu ẢNH mặt NGƯỜI
kh ơng nhìn trực diện hình ảnh có sẵn (Trang 33)
Hình 2.2. Vị trí của 22 điểm đặc trưng được đánh dấu trong cơ sở dữ liệu - BÀI tập lớn đề bài NGHIÊN cứu THUẬT TOÁN ICA và ỨNG DỤNG ước LƯỢNG độ sâu ẢNH mặt NGƯỜI
Hình 2.2. Vị trí của 22 điểm đặc trưng được đánh dấu trong cơ sở dữ liệu (Trang 43)
Hình 2.3 cho thấy các tín hiệu tham chiếu của bốn   điểm   đầu   tiên   đối   tượng   (bs000-bs003)   thu được bằng cách sử dụng mơ hình CANDIDE và các giá trị độ sâu thực - BÀI tập lớn đề bài NGHIÊN cứu THUẬT TOÁN ICA và ỨNG DỤNG ước LƯỢNG độ sâu ẢNH mặt NGƯỜI
Hình 2.3 cho thấy các tín hiệu tham chiếu của bốn điểm đầu tiên đối tượng (bs000-bs003) thu được bằng cách sử dụng mơ hình CANDIDE và các giá trị độ sâu thực (Trang 43)
2.3. Tích hợp mơ hìnhcho nhiều hình ảnh khn mặt khơng nhìn trực - BÀI tập lớn đề bài NGHIÊN cứu THUẬT TOÁN ICA và ỨNG DỤNG ước LƯỢNG độ sâu ẢNH mặt NGƯỜI
2.3. Tích hợp mơ hìnhcho nhiều hình ảnh khn mặt khơng nhìn trực (Trang 45)
Hình 2. 7. So sánh các hoạt động của FastICA có và khơng sử dụng ma trận - BÀI tập lớn đề bài NGHIÊN cứu THUẬT TOÁN ICA và ỨNG DỤNG ước LƯỢNG độ sâu ẢNH mặt NGƯỜI
Hình 2. 7. So sánh các hoạt động của FastICA có và khơng sử dụng ma trận (Trang 54)
Hình 2.7 cho thấy các hoạt động của thuật tốn FastICA có và khơng sử dụng ma trận không trộn ban đầu trong (2.25) - BÀI tập lớn đề bài NGHIÊN cứu THUẬT TOÁN ICA và ỨNG DỤNG ước LƯỢNG độ sâu ẢNH mặt NGƯỜI
Hình 2.7 cho thấy các hoạt động của thuật tốn FastICA có và khơng sử dụng ma trận không trộn ban đầu trong (2.25) (Trang 54)
quảkểthaothựctácnghiệmlàmtrắngtrongcóHìnhđược2.thực9chỉhiệnrarằnghay hiệukhôngsuất. hầu như không thay đổi bất - BÀI tập lớn đề bài NGHIÊN cứu THUẬT TOÁN ICA và ỨNG DỤNG ước LƯỢNG độ sâu ẢNH mặt NGƯỜI
qu ảkểthaothựctácnghiệmlàmtrắngtrongcóHìnhđược2.thực9chỉhiệnrarằnghay hiệukhôngsuất. hầu như không thay đổi bất (Trang 56)
Hình 2. 10. So sánh hiệu suất của thuật toán SM và cICA. - BÀI tập lớn đề bài NGHIÊN cứu THUẬT TOÁN ICA và ỨNG DỤNG ước LƯỢNG độ sâu ẢNH mặt NGƯỜI
Hình 2. 10. So sánh hiệu suất của thuật toán SM và cICA (Trang 57)
Hình 2.10 cho thấy các kết quả thực nghiệm thu được bằng cách sử dụng các thuật tốn SM và cICA - BÀI tập lớn đề bài NGHIÊN cứu THUẬT TOÁN ICA và ỨNG DỤNG ước LƯỢNG độ sâu ẢNH mặt NGƯỜI
Hình 2.10 cho thấy các kết quả thực nghiệm thu được bằng cách sử dụng các thuật tốn SM và cICA (Trang 58)
Để đánh giá phương pháp tích hợp mơ hình, cICA_MI được sử dụng để ước lượng độ sâu của  hình ảnh khuôn  mặt  cho 30 đối  tượng - BÀI tập lớn đề bài NGHIÊN cứu THUẬT TOÁN ICA và ỨNG DỤNG ước LƯỢNG độ sâu ẢNH mặt NGƯỜI
nh giá phương pháp tích hợp mơ hình, cICA_MI được sử dụng để ước lượng độ sâu của hình ảnh khuôn mặt cho 30 đối tượng (Trang 59)
Hình 2.11. Các đường cong lặp lại của các Đối tượng 1, 6, 11, 16, 21 và 26 bằng cách - BÀI tập lớn đề bài NGHIÊN cứu THUẬT TOÁN ICA và ỨNG DỤNG ước LƯỢNG độ sâu ẢNH mặt NGƯỜI
Hình 2.11. Các đường cong lặp lại của các Đối tượng 1, 6, 11, 16, 21 và 26 bằng cách (Trang 59)
Hình 2. 14. So sánh các hoạt động của thuật tốn cICA dựa trên mơ hình ICA - BÀI tập lớn đề bài NGHIÊN cứu THUẬT TOÁN ICA và ỨNG DỤNG ước LƯỢNG độ sâu ẢNH mặt NGƯỜI
Hình 2. 14. So sánh các hoạt động của thuật tốn cICA dựa trên mơ hình ICA (Trang 63)
Hình 2. 17. Hệ số tương quan của Đối tượng 1,6, 11,16,21 và 26 thu được bằng cách sử dụng phương pháp tích hợp mơ hình với số lượng mẫu - BÀI tập lớn đề bài NGHIÊN cứu THUẬT TOÁN ICA và ỨNG DỤNG ước LƯỢNG độ sâu ẢNH mặt NGƯỜI
Hình 2. 17. Hệ số tương quan của Đối tượng 1,6, 11,16,21 và 26 thu được bằng cách sử dụng phương pháp tích hợp mơ hình với số lượng mẫu (Trang 67)
khnNgồi ra,mặtmô3- D,hìnhtrong3-Dđóđượccác - BÀI tập lớn đề bài NGHIÊN cứu THUẬT TOÁN ICA và ỨNG DỤNG ước LƯỢNG độ sâu ẢNH mặt NGƯỜI
khn Ngồi ra,mặtmô3- D,hìnhtrong3-Dđóđượccác (Trang 70)

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

w