Phát hiện và căn chỉnh khuôn mặt sử dụng MTCNN

Một phần của tài liệu Xây dựng ứng dụng hỗ trợ điểm danh sinh viên bằng điện thoại dựa trên nhận dạng khuôn mặt người luận văn thạc sĩ công nghệ thông tin (Trang 51)

4.2.1 Giới thiệu về mạng Nơ - ron tích chập

Để dạy thuật toán nh ậ n di ện đối tƣợng trong hình ả nh, ta s ử dụng một lo ạ i mạng Nơ -ron nhân t ạ o (Artificial Neural Network – ANN) là mạng Nơron Tích chậ p (Convolutional Neural Networks – CNNs hay Convnets). Tên c ủa nó đƣợc dự a trên phép tính quan tr ọng đƣợc sử d ụ ng trong mạng đó là Tích chập. Đây là một trong nh ữ ng mô hình Deep Learning tiên ti ế n giúp chúng ta xây d ựng đƣợc hệ thống thông minh tiên với độ chính xác cao nhƣ ngày nay.

4.2.1.1 Convolution (Tí ch chập)

Trong toán h ọ c và đặ c bi ệ t là trong giả i tích hàm, tích ch ậ p là 1 phép toán thự c hi ện đố i v ớ i 2 hàm s ố f và g, k ế t qu ả cho ra 1 hàm s ố thứ 3. Phép tích ch ậ p khác v ớ i tƣơng quan chéo ở chỗ nó c ầ n lậ t kernel theo chi ề u ngang và d ọc trƣớc khi tính t ổng c ủa tích. Nó đƣợc ứ ng d ụng trong xác su ấ t, th ống kê, thị giác máy

tính (computer vision), xử lý ả nh, xử lý tín hi ệ u, k ỹ thu ật điệ n, học máy, và

các phƣơng trình vi phân . Tích ch ậ p c ủ a hàm s ố f và g đƣợc vi ế t là f*g, là m ột bi ến đổi tích phân đặ c biệ t def ∞ ( f * g )(t ) = −∞ f (τ ) g (t −τ )dτ = ∞∫ −∞ f (t − τ ) g (τ )dτ (2-1)

Một cách tổng quát, nếu f và g là hàm số phức trong không gian Rd, thì tích chập của chúng đƣợc định nghĩa nhƣ sau

( f * g)(x) = ∫ f ( y)g(x y)dy = ∫ f (x y)g( y)dy (2-2)

Hình 4.1 Minh họa tích chập

Trong xử lý tín hiệu số tích chập đƣợc sử dụng nhằm biến đổi thông tin đầu vào thông qua một phép tích chập với bộ lọc trả về đầu ra là một tín hiệu mới. Tín hiệu mới này sẽ làm giảm những đặc trƣng mà bộ lọc không quan tâm và chỉ giữ những đặc trƣng chính.

Tích chập thông dụng nhất là tích chập hai chiều đƣợc áp dụng trên ma trận

W xH

W xH

Tích chập tại một điểm Tại vị trí đầu tiên trên cùng của ma trận đầu vào, ta sẽ lọc ra một ma trận con X sub ∈ R FxF có kích thƣớc bằng kích thƣớc của bộ lọc. Giá trị y11 tƣơng ứng trên Y là tích chập của X sub với F đƣợc tính nhƣ sau

F F

i =1 j =1 (2-3)

Sau đó, tiến hành trƣợt dọc theo ma trận theo chiều từ trái qua phải, từ trên xuống dƣới theo bƣớc nhảy (stride) S ta sẽ tính đƣợc các giá trị y11 tiếp theo. Sau khi quá trình này kết thúc ta thu đƣợc trọn vẹn ma trận Y.

R R

đầu vào và ma trận bộ lọc hai chiều. Phép tích chập của một ma trận X ∈ R 1 1 với một bộ lọc (receptive field) F ∈ R 2 2 sẽ trải qua các bƣớc

Trong một mạng Nơron tích chập, các lớp liền sau lấy đầu vào từ lớp liền trƣớc nó. Do đó, để hạn chế lỗi trong thiết kế mạng Nơron chúng ta cần xác định kích thƣớc đầu ra ở mỗi lớp. Điều đó có nghía là dựa vào kích thuƣớc ma trận đầu vào (W1, H1), kích thƣớc bộ lọc (F,F) và bƣớc nhảy S để xác định khích thƣớc ma trận đầu ra (W2, H2)[10].

4.2.1.2 Tổng quan kiến trúc mạng

Đối với mạng Nơron thông thƣờng (Regular Neural Nets) đầu vào là một vector duy nhất sau đó biến đổi nó thông qua hàng loạt các lớp ẩn (hidden layer). Mỗi lớp ẩn đƣợc tạo thành từ tập hợp các Nơron, trong đó mỗi nơron đƣợc kết nối đầy đủ với tất cả các nơron ở lớp trƣớc. Trong một lớp, các nơron hoạt động hoàn toàn độc lập và không chia sẻ bất kỳ kết nối nào. Lớp kết nối đầy đủ (fully-

connected) cuối cùng đƣợc gọi là lớp đầu ra và đại diện cho điểm số của lớp trong quá trình phân loại. Điểm hạn chế của mạng nơron thông thƣờng là không mở rộng tốt cho hình ảnh đầy đủ. Chẳng hạn, với bộ dữ liệu ảnh CIFAR-10, hình ảnh chỉ có kích thƣớc 32x32x3 (rông 32, cao 32 và sâu 3 đại diện cho 3 kênh màu RGB, mỗi một nơron kết nối đầy đủ trong lớp ẩn đầu tiên của mạng Nơron sẽ có 32*32*3 = 3072 trọng số. Số lƣợng này dƣờng nhƣ vẫn có thể quản lý đƣợc, nhƣng rõ ràng cấu trúc kết nối đầy đủ này không thể mở rộng thành hình ảnh lớn hơn. Ví dụ, một bức ảnh có kích thƣớc lớn hơn nhƣ 200x200x3 thì mỗi nơron sẽ có 200*200*3 = 120000 trọng số. Hơn nữa, chúng ta không chỉ cần một mà còn muốn có có một số nơron nhƣ vậy . Vì thế, số lƣợng các tham số sẽ tăng lên nhanh chóng dẫn đến quá mức.

Để giải quyết vấn đề này, mạng nơron tích chập đƣợc đề xuất. Mạng này kết hợp thực tế là đầu vào gồm các hình ảnh và chúng hạn chế cấu trúc theo một cách hợp lý hơn. Đặc biệt, không giống nhƣ mạng nơron thông thƣờng, các lớp của mạng tích chập đƣợc sắp xếp theo 3 chiều chiều rộng, chiều cao và chiều sâu (chiều sâu ở đây đề cập đến chiều thứ ba của khối lƣợng kích hoạt không phải độ sâu của mạng nơron đầy đủ). Chẳng hạn, một ảnh trong CIFAR-10 là một khối đầu vào, sau đó mỗi nơron trong lớp chỉ lết nối với một phần nhỏ của lớp trƣớc nó thay vì kết nối đầy đủ với tất cả nơron. Hơn nữa, đầu ra cuối cho CIFAR-10 chỉ có kích thƣớc 1x1x10 vì hình ảnh đầy đủ đã đƣợc giảm thành một vectơ sắp xếp theo chiều sâu.

Hình 4. 2 So sánh mạng Neural thông thường và mạng Neuron tích chập (Bên trái là mạng Neural thông thường; Bên phải là mạng CNN)

4.2.1.3 Các lớp của mạng Neuron tích chập.

Nhƣ phần mô tả ở trên, một mạng Neural tích chập đơn giản là một chuỗi các lớp và mỗi lớp của mạng sẽ biến đổi một khối kích hoạt này sang khối khác thông qua một chức năng đặc biệt. Để xây dựng mạng Neural tích chập, ba loại lớp chính

đƣợc sử dụng Lớp tích chập (Convolutional Layer), L ớp t ổng h ợp (Pooling Layer) và L ớp k ế t n ối đầy đủ (Fully-Connected layer). Các l ớp này s ẽ đƣợc x ế p ch ồng t ạ o thành m ột ki ế n trúc m ạ ng Neural tích ch ập đầy đủ. M ỗi l ớp nh ậ n vào một kh ối 3D đầ u vào và bi ến đổi thanhd một kh ối 3D đầ u ra thông qua một ch ức năng khác biệ t. Mỗi l ớp có th ể có ho ặ c không có tham s ố (ví d ụ CONV/FC có, RELU/POOL không) hay có ho ặc không có siêu đƣờng kính b ổ sung (CONV/FC/POOL có,

RELU không). C ụ th ể , chúng ta s ẽ đi đế n mô t ả chi ti ế t c ủa t ừ ng l ớ p và các mối liên kế t c ủa chúng

- Lớ p tích ch ập (Convolutional layer - CONV)

L ớp CONV là kh ố i xây d ự ng c ốt lõi c ủ a m ạ ng tích ch ậ p, th ự c hi ệ n h ầ u h ế t các công vi ệ c quan tr ọng. Các tham s ố c ủa l ớp bao g ồ m một t ậ p h ợp các b ộ l ọ c (Filter) hoặc Kernel. Đặc điể m các b ộ lọc này có trƣờng ti ế p nh ậ n nh ỏ nhƣng kéo dài toàn bộ chiều sâu của tín hiệu đầu vào. Trong quá trình chuyển tiếp, mỗi bộ lọc đƣợc tích hợp (trƣợt) trên chiều rộng và chiều cao của tín hiệu đầu vào, tính toán các tích vô hƣớng giữa các bộ lọc và đầu vào và tạo ra bản đồ kích hoạt hai chiều của bộ lọc đó. Do đó, mạng tìm hiểu các bộ lọc kích hoạt khi phát hiện một số loại đặc trƣng cụ thể tại một số vị trí trong đầu vào.

Hình 4. 3 Mô tả lớp CONV (Các neuron của một lớp chập (màu xanh) kết nối với trường tiếp nhận của chúng (màu đỏ).

Xếp chồng các bản đồ kích hoạt cho tất cả các bộ lọc dọc theo chiều sâu tạo thành tín hiệu đầu ra đầy đủ của lớp tích chập. Do đó, mỗi điểm trong tín hiệu đầu ra cũng có thể đƣợc hiểu là đầu ra của một nơron khi kết nối với một vùng nhỏ trong đầu vào và chia sẻ các tham số với các nơ ron trong cùng một bản đồ kích hoạt. Việc xây dựng lớp tích chập dựa vào 3 ý tƣởng cơ bản

- Kết nối cục bộ

Trong quá trình xử lý dữ liệu đầu vào có chiều rộng, chiều cao nhƣ hình ảnh, việc kết nối các neuron với tất cả các neuron trong lớp trƣớc đó là không thực tế vì kiến trúc mạng không tính đến cấu trúc không gian của dữ liệu. Thay vào đó, chúng ta sẽ thƣc thi một kiểu kết nối cục bộ thƣa thớt giữa các neuron của các lớp liền kề mỗi neuron chỉ đƣợc kết nối với một vùng nhỏ của tín hiệu đầu vào.

Phạm vi của kết nối này là một siêu tham số đƣợc gọi là trƣờng ti ế p nh

ậ n của nơron (tƣơng đƣơng đây là kích thƣớc bộ lọc). Các kết nối là c ụ c b ộ trong

không gian (dọc theo chiều rộng và chiều cao), nhƣng luôn mở rộng kéo dài theo

toàn bộ chiều sâu của tín hiệu đầu vào. Một kiến trúc nhƣ vậy đảm bảo rằng các bộ lọc đã học tạo ra phản ứng mạnh nhất đối với mẫu đầu vào cục bộ không gian.

- Sắp xếp không gian

Nội dung bên trên đã giải thích sự kết nối của từng neuron trong lớp CONV với tín hiệu đầu vào. Phần này sẽ giải thích rõ hơn về số lƣợng neuron tín hiệu đầu ra và cách chúng đƣợc sắp xếp. Ba siêu đƣờng kính (hyperparameters) kiểm soát kích thƣớc tín hiệu đầu ra là depth (độ sâu), stride (s ả i) và zero- padding (đệ m không)

Đầ u tiên, giá tr ị c ủ a depth là độ sâu c ủa tín hi ệu đầu ra. Đây là mộ t siêu tham s ố, nó tƣơng ứ ng v ới s ố lƣợng b ộ lọc mu ốn s ử dụng. Depth ki ể m soát s ố lƣợng neuron trong m ột l ớp k ế t n ối v ớ i mộ t vùng c ủa tín hi ệu đầ u vào. Nh ữ ng neuron này h ọc các kích ho ạt cho các đặc trƣng khác nhau trong đầ u vào. Ví d ụ , nế u Lớp tích ch ập đầ u tiên l ấ y hình ả nh thô, thì các neuron khác nhau d ọc theo chi ề u sâu có th ể kích ho ạ t khi có các c ạnh định hƣớ ng khác nhau ho ặc các đố m màu.

Tiế p theo, chúng ta ph ải xác đị nh stride – tức là bƣớc ti ế n mà chúng ta

trƣợt b ộ lọ c. Ch ẳ ng h ạ n, v ới stride = 1 chúng ta di chuyể n các b ộ lọ c một pixel mỗ i lần. Điề u này d ẫn đến các trƣờng ti ế p nh ậ n ch ồng chéo r ấ t nhi ều và cho ra đầ u ra lớn. Khi stride = 2 thì chúng sẽ nhả y 2 pixel m ỗi l ần khi chúng ta trƣợt xung quanh. Điề u này s ẽ t ạo ra kích thƣớc đầ u ra nh ỏ hơn theo không gian. Các trƣờng h ợ p stride >= 3 r ấ t hi ế m x ả y ra trong th ự c tế .

Để kiểm soát đƣợc kích thƣớc không gian c ủa đầ u ra, chúng ta s ử dụng tính năng Zero-padding thêm các s ố 0 vào xung quanh các đƣờng biên. Kích thƣớc c ủ a phầ n zero-padding là mộ t siêu tham s ố. Thông thƣờng, zero- padding đƣợc s ử dụ ng để bảo toàn chính xác kích thƣớc không gian c ủa tín hi ệu đầ u vào, t ức là làm cho độ r ộng, chi ều cao đầ u vào và đầu ra là nhƣ nhau.

Công th ứ c tính s ố lƣợ ng neuron trong một kích thƣớc nh ất định có th ể tính theo công b ằ ng

W

K + 2P

S + 1 (2-4)

Trong đó W kích thƣớc tín hiệu đầu vào, K kích thƣớc lớp lọc, S bƣớc tiến stride, P số lƣợng đệm 0

Lƣợc đồ chia s ẻ tham s ố đƣợc s ử dụng để ki ể m soát s ố lƣợng tham s ố. Nó đƣợc xây d ự ng d ự a vào gi ả định r ằ ng n ế u một đặc trƣng có ích để tính toán t ạ i một số vị trí khác. Khi bi ể u th ị một lát c ắ t 2 chi ề u c ủa độ sâu thành mộ t lát c ắ t sâu (depth slice) bu ộc các neuron trong cùng m ột lát c ắ t sâu ph ả i s ử dụng cùng trong s ố (weights) và độ lệ ch (bias). Do t ấ t c ả các neuron trong m ột lát c ắt có cùng độ sâu có cùng tham s ố , nên l ợi ích c ủ a vi ệ c chia s ẻ tham s ố là gi ả m t ối đa tham số trong mạ ng Neuron tích ch ậ p mà v ẫn đả m b ả o ki ế n trúc CNN.

- Lớp tổng hợp (Pool Layer – POOL)

Pool Layer thực hiện chứ c năng làm giảm chiều không gian của đầu và giảm độ phức tạp tính toán của model ngoài ra Pool Layer còn giúp kiểm soát hiện tƣợng overffiting. Thông thƣờng, Pool layer có nhiều hình thức khác nhau phù hợp cho nhiều bài toán, tuy nhiên Max Pooling là đƣợc sử dụng nhiều vào phổ biến hơn cả với ý tƣởng cũng rất sát với thực tế con ngƣời đó là Giữ lại chi tiết quan trọng hay hiểu ở trong bài toán này chính giữ lại pixel có giá trị lớn nhất.

Chẳng hạn, khi ta sử dụng Max pooling với bộ lọc 2x2 và stride = 2. Bộ lọc sẽ chạy dọc ảnh. Với mỗi vùng ảnh đƣợc chọn, ta sẽ chọn ra một giá trị lớn nhất và giữ lại.

Hình 4.5 Mô tả lớp POOL với bộ lọc 2x2 và stride = 2.

Thông thƣờng max pooling có kích thƣớc là 2 và stride=2. Nếu lấy giá trị quá lớn, thay vì giảm tính toán nó lại làm phá vỡ cấu trúc ảnh và mất mát thông tin nghiêm trọng. Vì vậy mà một số chuyên gia không thích sử dụng layer này mà thay vào đó sử dụng thêm các lớp Conv Layer và tăng số stride lên mỗi lần.

- Lớp kết nối đầy đủ (Fully Connected Layer - FC)

Tại lớp mạng này, mỗi một nơ-ron của layer này sẽ liên kết tới mọi nơ-ron của lớp khác. Để đƣa ảnh từ các layer trƣớc vào mạng này, buộc phải dàn phẳng

bức ảnh ra thành 1 vector thay vì là mảng nhiều chiều nhƣ trƣớc. Tại layer cuối cùng sẽ sử dụng 1 hàm kinh điển trong học máy mà bất kì ai cũng từng sử dụng đó là softmax để phân loại đối tƣợng dựa vào vector đặc trƣng đã đƣợc tính toán của các lớp trƣớc đó.

- Một số lƣu ý khi chọn các tham số cho mạng Neuron tích chập

Số các convolution layer sử dụng càng nhiề u các convolution layer thì hi ệ u suất càng đƣợc c ả i thi ệ n. Sau kho ả ng 3 ho ặc 4 layer, các tác động đƣợc gi ả m một cách đáng kể . Filter size Thông thƣờng các h ệ thống s ẽ filter theo size 5x5 ho ặ c 3x3. Pooling size thƣờng là 2×2 hoặc 4×4 cho ảnh đầu vào lớn [10].

4.2.2 MTCNN.

MTCNN là viết tắt của Multi-task Cascaded Convolutional Networks. Nó là bao gồm 3 mạng CNN xếp chồng và đồng thời hoạt động khi phát hiện và xác định khuôn mặt. Mỗi mạng có cấu trúc khác nhau và đảm nhiệm vai trò khác nhau trong task. Đầu ra của MTCNN là vị trí khuôn mặt và các điểm trên mặt nhƣ mắt, mũi, miệng…

Trong giai đoạn đầu tiên, nó tạo ra các khung ứng cử một cách nhanh chóng thông qua một CNN đơn giản. Sau đó, tinh chỉnh các cửa sổ bằng cách từ chối một số lƣợng lớn các cửa sổ không phải khuôn mặt ngƣời thông qua một CNN phức tạp hơn. Cuối cùng, nó sử dụng một CNN mạnh hơn để tinh chỉnh lại kết quả và đƣa ra năm vị trí m ốc trên khuôn mặ t.

Hình 4.6 Mô tả quá trình xác định khuôn mặt sử dụng MTCNN

4.2.2.1 Cơ chế hoạt động

Cơ chế hoạt động của hệ thống đã đƣợc khái quát nhƣ trên hình 4.6. Khi chúng ta đƣa vào một ảnh mặt ngƣời, ban đầu chúng ta thay đổi kích thƣớc của nó

thành các tỷ lệ khác nhau để xây dựng một kim tự tháp hình ảnh (bản chất của kim tự tháp hình ảnh là bản sao của các ảnh đầu vào với các kích thƣớc khác nhau). Kim tự tháp hình ảnh này là đầu vào của khung xếp tầng gồm 3 tác vụ chính của

MTCNN.

MTCNN hoạt động theo 3 bƣớc, mỗi bƣớc có một mạng neural riêng lần lƣợt là P-Net, R-Net và O-Net.

Bƣớc 1 Chúng ta khai thác một mạng tích chập đầy đủ đƣợc gọi là Proposal Network(P-Net), để có đƣợc các cửa sổ ứng cử viên và các bounding box regression vectors của chúng. Sau đó, các ứng cử viên đƣợc hiệu chuẩn dựa trên các estimated bounding box regression vectors. Sau đó, chúng ta sử dụng non-

maximum suppression (NMS) để hợp nhất các ứng cử viên chồng chéo.

Bƣớc 2 Tất cả các ứng cử viên đƣợc đƣa đến một CNN khác, đƣợc gọi là Refine Network (R-Net), để từ chối thêm một số lƣợng lớn các ứng cử viên sai. Sau đó, hệ thống thực hiện hiệu chuẩn với bounding box regression và tiến hành NMS.

Bƣớc 3 Giai đoạn này tƣơng tự nhƣ giai đoạn thứ hai, nhƣng trong giai đoạn này, chúng ta hƣớng đến việc xác định các khu vực khuôn mặt với sự giám sát nhiều hơn. Đặc biệt, mạng sẽ xuất ra năm vị trí trên khuôn mặt.

Bảng 4.1 So sánh tốc độ và độ chính xác CNNs khác [2]

Hiện nay, có nhiều mạng CNN đã đƣợc thiết kế để nhận dạng khuôn mặt. Tuy nhiên, hiệu suất của nó có thể bị hạn chế bởi các điều kiện sau

Group CNN 300xForward Propagation Vali dation Accuracy Group 1 12-Net 0,038s 94,4% P-Net 0,031s 94,6% Group 2 24-Net 0,738s 95,1%

Một phần của tài liệu Xây dựng ứng dụng hỗ trợ điểm danh sinh viên bằng điện thoại dựa trên nhận dạng khuôn mặt người luận văn thạc sĩ công nghệ thông tin (Trang 51)

Tải bản đầy đủ (DOCX)

(95 trang)
w