TOM TAT KHÓA LUẬNKhóa luận tập trung nghiên cứu, thiết kế và ứng dụng thử nghiệm một hệ thống nhúngphát hiện trạng thái buồn ngủ của tài xế lái xe bằng xử lý ảnh và học sâu với thời gian
Trang 1ĐẠI HỌC QUÓC GIA TP HÒ CHÍ MINH
TRƯỜNG ĐẠI HỌC CÔNG NGHỆ THÔNG TIN
KHOA KY THUAT MAY TÍNH
NGUYEN CONG MINH CHU ĐỨC THÀNH
KHÓA LUẬN TÓT NGHIỆP
HỆ THÓNG PHÁT HIỆN BUÒN NGỦ CHO TÀI XÉ
Trang 2ĐẠI HỌC QUỐC GIA TP HÒ CHÍ MINH
TRƯỜNG ĐẠI HỌC CÔNG NGHỆ THÔNG TIN
KHOA KỸ THUẬT MÁY TÍNH
NGUYÊN CÔNG MINH - 16520741 CHU ĐỨC THÀNH - 16521561
KHÓA LUẬN TÓT NGHIỆP
HỆ THÓNG PHÁT HIỆN BUÒN NGỦ CHO TÀI XÉ
SỬ DỤNG XỬ LÝ ẢNH
Drowsiness Detection System for Driver Using Image
Processing
KỸ SƯ NGÀNH KY THUAT MAY TÍNH
GIẢNG VIÊN HƯỚNG DẪN THS LÊ HOÀI NGHĨA
TP HÒ CHÍ MINH, 2021
Trang 3THONG TIN HỘI DONG CHAM KHÓA LUẬN TOT NGHIỆP
Hội đồng chấm khóa luận tốt nghiệp, thành lập theo Quyết định số
"——— ngày của Hiệu trưởng Trường Đại học Công
nghệ Thông tin.
Trang 4LỜI CẢM ƠN
Để hoàn thành được khóa luận tốt nghiệp này, ngoài sự nỗ lực học hỏi và vận dụng kiến thức của nhóm còn có sự giúp đỡ hết sức to lớn đến từ các thầy cô, bạn bè và
nhà trường trong suốt quá trình nhóm thực hiện Em xin thay mặt nhóm gửi lời cảm
ơn chân thành đến các thầy cô, anh chị, bạn bè thuộc trường Đại học Công Nghệ Thông Tin và khoa Kỹ Thuật Máy Tính đã tạo điều kiện và giúp đỡ chúng em hoàn
thành khóa luận tốt nghiệp của mình Đặc biệt em xin cảm ơn thầy Ths Lê Hoài Nghĩa đã luôn hỗ trợ và hướng dẫn chúng em trong suốt thời gian làm khóa luận vừa
qua.
Em cũng xin cảm ơn quý thầy cô trong khoa đã tận tình giảng dạy và trang bị cho
chúng em những kiến thức cần thiết và bổ ích, là nền tảng vững chắc hỗ trợ chúng
em rất nhiều trong việc hoàn thành khóa luận tốt nghiệp này.
Mặc dù chúng em đã cô gắng hết khả năng của mình đề hoàn thiện dé khóa luận cũng
như bài báo cáo khóa luận tốt nghiệp một cách tốt nhất, tuy nhiên sẽ không tránh
được những thiếu sót Vì vậy, nhóm rất mong nhận được sự thông cảm cũng như những chia sẻ và góp ý quý báu của quý thầy cô đề giúp chúng em có thé hoàn thiện
tốt hơn nữa.
Một lần nữa chúng em xin chân thành cảm ơn!
Tp Hồ Chí Minh, ngày 01 tháng 01 năm 2021
Đại diện nhóm
Trang 5MỤC LỤC
Chương 1 TÔNG QUAN ằcc 2c tre 2
1.1 Tình hình nghiên cứu trong nưỚC ¿+ + + + ‡v£vksEerekekrrres 4
.I.I _ Luận văn Thạc sĩ “Nghiên cứu tình trạng buồn ngủ của người lái xe
dựa trên nhận dạng cử chỉ khuôn mặt” . - - 2+ + £=+++++xzxsrerxzx# 4
1.2 Đề tài “Nghiên cứu thiết kế hệ thông giám sát trạng thái buồn ngủ
CUA lái X€”” c-ccSt 2t hen 6
1.3 Đề tài “Hệ thống cảnh báo tài xế 6 tô ngủ gật” - -+ 8
1.2 Tình hình nghiên cứu ở nước ngoài - - ¿+ + + 2 c+++++xzxexsrerrkrreke 9
2.1 Dé tài “Nghiên cứu về phát hiện sớm sự buồn ngủ của tài xế bằng máy học và cảm biến hỗn hợp” :¿+22++++2+++++2v+z+zvvvvrzrrssree 10
2.2 Đề tài “Phát hiện buồn ngủ sử dụng kiểu chớp mắt và khoảng cách
giữa CAC mí Iắt” ¿- + ¿+ th H12 211211101 1311111101101 xe 11
2.3 Đề tai “Ứng dung phát hiện buồn ngủ thời gian thực trên Android sử
dụng kỹ thuật mạng học sâu” ¿+ 5+ St #EvEvEeEEkserrkrrrrrrksrrkekrkree 12
Chương2 CƠ SỞ LÝ THUYT c++z+2222vvvrrrrrrrrrrrser 15
2.1 Thuật toán phát hiện buồn ngủ -£©2++2222+z++2vvvvzscvvsrresrr 15 2.1.1 Mối liên hệ giữa sự buồn ngủ và hành vi chớp mắt - 15 2.1.2 Phát triển thuật toán .c-¿2222++teccvvrrrrrrrerrrrrrrvee 17
2.2 Xử lý ảnh và học sâu ¿55+ 222222 2122.212111 18
2.2.1 Xử lý ảnh à HH Hye 18
2.2.2 Học sâu (Deep learninng) ¿c5 St sEeeerrrrrreeey 18
2.3 Phát hiện khuôn mặt ¿- c6 tt tre gưêy 20
2.3.1 Model MobileNet SSD v2 Faces - s5 series 20
2.3.2 Thư viện TensorFlow Lite Python API c 5555c+c+c+cc++ 20
Trang 62.4 Phát hiện vùng mắt -22¿222E+22EEEEE2222E1212222112227111 2E ccre 21
2.4.1 Model Dlib Facial landmark 68 „21
2.4.2 Huấn luyện lại model Dlib Facial landmark 68 . - 22
Chuong3 | HIEN THUC HE THONG PHAT HIEN BUON NGỦ BANG XỬ
LY ANH TREN RASPBERRY PI 4 VA GOOGLE CORAL USB
3.1 Raspberry Pi 4 - SH HH HH re 35
3.2 Google Coral USB
3.3 Thu thập video dữ liệu mâu ¿+55 52 5+2++++xvxvz+xexexerrrrx 38
4.12 Kết quả thực nghiệm -2¿-2222++cEEEEEzrerrrkrrerrrrerrrer 50 4.13 Kếtluận EEEirrrerrrde 51 4.2 Điểm hạn chế và hướng phát triỀn -cccccczccccvvscccc-rrccve ð2
4.2.1 Điểm hạn chế -2cccccctstEErkktrtrirrrrrrrrrrrrrrrer 52 4.2.2 Hướng pháttriển -c2c+222vvctevcvvrrerrrsrrrrrr 55 TÀI LIEU THAM KHẢO -222©22222¿+2EEE+2EEEEEE2222231112222112222112 2221 56
Trang 7DANH MỤC HÌNH
Hình 1.1: Thiết kế hệ thống đề tài NDCCKM - - 2-2 2 £+E£E££E+EE2EzEzEezed 5Hình 1.2: Kết quả chạy thử nghiệm NDCCKM - 2: ©22©5¿22+25++cx+zzxszeez 5Hình 1.3: Hình sản phẩm thiết bị HTGSTTBN .- 2-2 522 2+££££E+£Ez+Ezzrxerxez 6
Hình 1.4: Giao diện trung tâm gid Sắt - - c5 + 3+1 +3EE+EEEeeesreerereereeere 7
Hình 1.5: Sơ đồ hoạt động của hệ thống CBTXNG -2- 555 55z+c<+zsccxez 9Hình 1.6: Hình ảnh thực tế hệ thống CBHH - 2-2 2 2+S£+£££Ee£E+£x+zszse2 10Hình 1.7: Hình ảnh thực tế chạy thử nghiệm Eye Blink Pattern .- 12Hình 1.8: Kiến trúc giải thuật trên Android [9] -¿+c++cxczszzs+rxerxcres 13Hình 1.9: Kết quả chạy thử nghiệm trên Intel Core ï7-7500U [9] - 14Hình 2.1: Kết qua phân tích trên MATLA 2-52 E+S£+E++E£E££EerEerxersevee 17Hình 2.2: Kiến trúc của trí tuệ nhân tạo ¿- - + 9k t+k‡E+EEEEEEEEEEEkrkerxekerkererkee 19
Hình 2.3: Quá trình hình thành model Model MobileNet SSD v2 Faces 20
Hình 2.4: Mô hình giao tiếp và xử lý giữa ứng dung và API - .: 21Hình 2.5: 68 điểm trên khuôn MAt essceseecssseecssssecesseeeesseeeessnscessssccesnsecesuneeeesneeennees 22
Hình 2.6: Bộ dataset IBUG 300-WW LQ TQ HH HH HH ng HH ng kg kg ưyy 23
Hình 2.7: Ảnh hưởng của “cascade_ depth” lên độ chính xác của model [13] 24
Hình 2.8: Mối liên hệ giữa các tham số trong model 2-2 2 2+s£x+zs+£+2 +2 25Hình 2.9: Ảnh hưởng của caseade_ depth -2-22-©5222++22xc2x+erxesrxesrxees 26Hình 2.10: Ảnh hưởng của nu 2¿- 5:22 5£2E£2EEtEEEEEE+SEESEEerEeerkesrkrrrsres 27Hình 2.11: Ảnh hưởng của pooling _sỉze - 2-2: ©5c2522SE+EEc£EczEerxerkrrrerex 27Hình 2.12: Ảnh hưởng của tree_ depth -2-©22¿©5¿22x2zxvcx+erxesrxesrxees 28Hình 2.13: Biéu đồ nhiệt thé hiện mối tương quan của các thông số lên model .29Hình 2.14: Thông số model của Dlib và model đã được tinh chỉnh tham số 30Hình 2.15: Khuôn mặt trước và sau khi lược bỏ các điểm . - 5 c5: 34
Hình 3.1: Raspberry ÍP1⁄4 5 s1 1n TH TH Hệ 35
Hình 3.2: Google Coral USỈ c1 11H HT TH HH kg krry 36
Hình 3.3: Hiệu suất của Google Coral USB -2-©2¿+¿22++cx+zxe+rxesrseee 37
Hình 3.4: So sánh Coral Google USB với các thiết bị khác - 5-52 38
Trang 8Hình 3.5: YawDD dataset [12] - 2c 332111131111 13151 1115811151115 1 E1 xxe 39 Hình 3.6: Giai đoạn một của khóa luận . +5 22 << << £*++++ssseeeeeezzsz 40
Hình 3.7: Giai đoạn hai của khóa luận <5 << E33 +21 1E *£2£ VE++sevEkeseeeeesexe 41
Hình 3.8: Sơ đồ hệ thống - -©k+SE2EE+EE2EE2EEE1E71511112111121111 1111111 1e 41Hình 3.9: Hệ thống Raspberry Pi4 và Google Coral USB -: -:-:-: 42
Hình 3.10: Lưu đỗ thuật toán c-¿-2225ccttEvtrrttErktrrrrtrrirrrrrririrrrriirirrrri 44
Hình 3.11: Tọa các điểm cần tính toán dé tính Threshold [14] - 46Hình 3.12: Tư thế ngồi an toàn khi lái xe - - 2-5 s+52+E++E+EerEerxerxersree 41Hình 3.13: Hệ thống Chay VO1 vi 48Hình 3.14: Hệ thống chạy thử với YawDD dataset .cecsccsssesseessessesseeseesseeseeseees 48
Hình 3.15: Biéu đồ theo dõi trạng thái của mắt khi không buồn ngủ - 49
Hình 3.16: Biéu đồ theo dõi trạng thái của mắt khi buồn ngủ -. - 49
Hình 4.1: Sự khác nhau giữa hai model “Face detectIoni” -s++s++ss++s++ 53
Hình 4.2: Hình ảnh có vật thé được xử ly hồng ngoại - 2 252 52 s+£s2 5+2 54Hình 4.3: Đường ban đêm có xử lý hồng ngoại -¿- 5¿©+2©++cx++zxzzxeex 54Hình 4.4: Hình ảnh ban ngày được xử lý hồng ngoại - ¿©22cscx+cxc=sz 54
Hình 4.5: Thử nghiệm hệ thống của trường Đại học MIT -szsz5+ 55
Trang 9DANH MỤC BANG
Bang 1.1: Két quả chạy thực nghiệm HTGSTTBN [3] .ccecececcesseseteceseeeeteeeeneeeees 7
Bảng 1.2: So sánh độ chính xác của Eye Blink Pattern - - <<-<+<+sx2 11
Bảng 2.1: Thang KSS - - LH HH HH ng ry 16
Bang 2.2: Thông số các tọa độ trong file XML - 2-52 2+52+E£E+£xerxerszse2 31Bảng 4.1: Kết quả chạy hệ thống với YawDD -2-2¿©525£+cxccxczEzrxerxerxrree 50Bang 4.2: Bang so sánh kết quả giữa phương pháp dé xuất và tham khảo 51
Trang 10DANH MUC TU VIET TAT
Application Programming Interface
Application-Specific Integrated Circuit
Cảm Biến Hỗn HopCảnh Báo Tài Xế Ngủ Gật
Central Processing Unit Electrocardiography
Electroencephalogram
Electromyography
Electrooculography
Frame per second
Global Positioning System/General Packet Radio Service
Graphics Processing Unit
Hệ Thống Giám Sát Trạng Thái Buồn Ngủ Của Lái Xe
Karolinska Sleepiness Scale
Nhận Dang Cử Chỉ Khuôn Mat
Operating System
Random Access Memory
Region-based Convolutional Neural Networks Single Shot MultiBox Detector
Trillion Operations Per Second
Tensor Processing Unit
Trang 11TOM TAT KHÓA LUẬN
Khóa luận tập trung nghiên cứu, thiết kế và ứng dụng thử nghiệm một hệ thống nhúngphát hiện trạng thái buồn ngủ của tài xế lái xe bằng xử lý ảnh và học sâu với thời gian
thực Trên cơ sở thuật toán phát hiện buồn ngủ dựa vào hành vi chớp mắt, nhóm khóa
luận đã xây dựng giải thuật phần cứng và phần mềm kết hợp dé xác định thời gianmỗi lần chớp mắt của tài xế từ đó tính toán và đưa ra cảnh báo kịp thời Hệ thống xâydựng trên phần cứng Raspberry Pi 4 kết nối với các ngoại vi Google Coral USB vàCamera cho phép phát hiện và cảnh báo trực tiếp tài xế đang lái xe nếu có dấu hiệu
buôn ngủ.
Mục tiêu của khóa luận là hệ thống có thé phát hiện trạng thái buồn ngủ của lái xe
với tốc độ xử lý 20fps và độ tin cậy khoảng 80%
Thuật toán phát hiện buồn ngủ dựa trên thời gian chớp mắt đã có sẵn, là đề tài nghiên
cứu khoa học đã được kiểm chứng và công bố ở các trang báo và hội nghị khoa học
tin cậy Việc hiện thực thuật toán lên hệ thống nhúng với thời gian thực là một giảipháp mà nhóm muốn đưa ra đề có thê ứng dụng thuật toán theo một hướng đi mới
Trang 12Chương 1 TONG QUAN
Với công nghệ ngày càng phát triển trong thời đại ngày nay, việc áp dụng những tiễn
bộ của Khoa học — Công nghệ vào cuộc sông dé giúp cho mọi người có cuộc sống an
toàn va tiện lợi hơn là một mục tiêu lớn của những kỹ sư công nghệ thông tin như
chúng em Do đó vào năm 2018 nhóm đã tham gia nghiên cứu Khoa học — Công nghệ
sinh viên tại trường Dai học Công nghệ Thông tin — Dai học Quốc gia Thành phố HồChí Minh với đề tài “Vòng tay cứu hộ trong đám cháy” để giúp người lính cứu hỏa
có thê xác định được vị trí của nạn nhân trong đám cháy ở chung cư hay nhà cao tầng
một cách dé dàng dé giải cứu nạn nhân nhanh chóng Đến những năm gan đây, khithé giới bắt đầu vào nền công nghiệp 4.0 và những công nghệ nổi bật luôn được nhắc
đến như BigData, Artificial Intelligence, Block chain đã giúp mọi người có mộtcuộc tiện lợi hơn Có thé kế đến như Trí tuệ nhân tạo đã giúp các bác sĩ có thé chuẩn
đoán bệnh nhanh hơn và chính xác hơn Không chỉ vậy, còn giúp các bác sĩ không có
nhiều kinh nghiệm có thé đưa ra chuân đoán như các bác sĩ đã có nhiều kinh nghiệm.Điều này đã được minh chứng qua sản phẩm DrAid của VinBrain thuộc tập đoàn
Vingroup đã được nhiều bệnh viện ở Việt Nam và các bác sĩ tin ding Nó giúp hạnchế việc các bệnh nhân ở tỉnh lên Thành phố khám chữa bệnh phải chờ đợi lâu vì hiện
tượng quá tải ở các bệnh viện Thêm vào đó, việc áp dụng Trí tuệ nhân tạo còn giúp
phát hiện ra tế bào ung thư ở giai đoạn đầu, việc phát hiện sớm như vậy sẽ giúp cácbệnh nhân tăng tỉ lệ chữa khỏi bệnh cao hơn khi được phát hiện sớm Từ một số thànhtựu trong ngành Y tế nói riêng và nhiều lĩnh vực khác nói chung do sự phát triển củaTrí tuệ nhân tạo thì nó đã là một sự thúc đây cho nhóm đề thực hiện khóa luận tốtnghiệp sử dụng nó dé có thê phát triển một thiết bị an toàn cho con người
Trong những năm gần đây, ở nước ta và trên thế giới, cùng với sự ra đời và phát triểnnhanh chóng của các phương tiện giao thông đặc biệt là xe hơi, số vụ tai nạn giao
thông cũng gia tăng hàng ngày Đây là mối nguy hiểm nghiêm trọng gây thiệt hại
nghiêm trọng về người và của, dé lại nỗi đau vô cùng lớn cho gia đình nạn nhân và
xã hội Một trong những nguyên nhân gây tai nạn chính là sự mắt tập trung của tài xế
Trang 13do mệt mỏi và buồn ngủ khi đang lái xe Nếu gõ từ khóa “Tài xế ngủ gật” lên Google
thì có tới hơn 2.700.000 kết quả tìm kiếm trả về Và hơn 6.400 người chết mỗi năm
do ngủ gật khi đang lái xe là số liệu được Ủy ban An toàn giao thông Quốc gia tríchdẫn từ nghiên cứu của Hội đồng An toàn Quốc gia Mỹ (NSC), nêu ra trong “Ngày
hội chăm sóc bác tài — Driver Care Day năm 2019”, chiếm tới 21% tổng số vu tai nạn
giao thông gây thiệt hại 109 tỷ đô [1].
Với tốc độ cho phép trung bình ở nước ta là 50 km/h thì chi cần tài xế ngủ gật 1 giây
thôi cũng đủ dé gây ra những hậu quả nghiêm trong Dé giải quyết van đề đó thì córất nhiều bài nghiên cứu và giải pháp đã được đưa bởi các nhà khoa học, nhà nghiên
cứu trong và ngoài nước như:
- Phat hiện buồn ngủ băng điện não đồ (EEG)
- Phat hiện buồn ngủ băng điện tâm đồ (ECG).
- Phat hiện buồn ngủ bằng điện đồ vùng mắt (EOG)
- Phat hiện buồn ngủ bằng xử lý ảnh
Nhưng các phương pháp đó không phù hợp với điều kiện lái xe của tài xế, gây khó
chịu, lắp đặt phức tạp hoặc hệ thong phát hiện chậm hơn so với tinh trang thực tế của
tài xế Bên cạnh đó, việc các thiết bị phải là một hệ thống thời gian thực dé cảnh báotài xế kịp thời thì các phương pháp trên mà nhóm tìm hiểu được thì vẫn đang hạn chế
về thời gian thực hiện Vì vậy việc theo dõi liên tục và cảnh báo tình trạng buồn ngủcho tài xế một cách kịp thời và nhanh chóng là một vấn đề hết sức cấp thiết nhằmngăn chặn và giảm thiểu tai nạn giao thông Bên cạnh đó do thiết bị được gắn trước
vô lăng nên kích thước phải nhỏ gọn Đó cũng là mục tiêu của nhóm là muốn pháttriển một thiết bị có thể cảnh báo buôn ngủ cho tài xế vào ban ngày với độ chính xác
hơn 85% và tốc độ đạt được là trên 20fps
Trang 141.1 Tình hình nghiên cứu trong nước.
Nhìn chung, do tính cấp bách của vấn đề tai nạn giao thông do tài xế ngủ gật, đề tài
về phát hiện buồn ngủ cho tài xế lái xe sử dụng xử lý ảnh đã được nghiên cứu và pháttriển khá lâu ở Việt Nam, đến từ học sinh, sinh viên, thạc sĩ và tiến sĩ Dưới đây làcác đề tài điển hình mà nhóm đã tham khảo
1.1.1 Luận văn Thạc sĩ “Nghiên cứu tình trạng buồn ngủ của người lái xe
dựa trên nhận dạng cử chỉ khuôn mặt”.
Năm 2017, tiến sĩ Trần Thế Vũ thuộc Đại hoc Đà Nẵng đã hướng dẫn Thạc sĩThái Thị Hòa Vân chuyên ngành Khoa Học Máy Tính bảo vệ thành công đề tài
số 60.48.01.01 “Nghiên Cứu Tình Trạng Buồn Ngủ Của Người Lái Xe Dựa TrênNhận Dạng Cử Chỉ Khuôn Mặt” [2] Trình bày về việc nghiên cứu phương pháptheo dõi và cảnh báo tình trạng buồn ngủ của người lái xe trong ứng dụng nhận
dạng khuôn mặt người bằng cách theo dõi trạng thái nhắm mở mắt của người lái
xe.
Một mục tiêu khác của dé tài là sé góp phần nghiên cứu và xây dựng một ứng
dụng có khả năng ứng dụng vào thực tế tại Việt Nam với các phương tiện vận tải
- Thu viện OpenCV.
- _ Bộ dữ liệu huấn luyện Haar Cascade Classifier.
Hình 1.1 mô tả thiết kế hệ thống và cách mà hệ thống làm việc, bao gồm 7 công
đoạn chính.
Trang 15Tập các :
Haarcascade mẫu Nhận diện khuôn Phân chia thành Canskre/kide
đặc trưng cho mặt FPT các khung hình gggb 200
(Nguồn: Trung tâm Thông tin-Hoc liệu, Dai học Da Nẵng)
Hình 1.2 dưới đây là kết quả chạy hệ thống với các trường hợp nhắm mat và mở
(Nguồn: Trung tâm Thông tin-Hoc liệu, Dai học Da Nẵng)
Tuy nhiên, hệ thống mà đề tài đang phát triển mới chỉ dừng lại ở trên máy tính cánhân, chưa có khả năng lắp đặt trên xe và tốc độ xử lý đang còn rất thấp, cần nhắmmắt 2 giây đề hệ thống phát hiện là đang nhắm mắt
Trang 161.1.2 Đề tài “Nghiên cứu thiết kế hệ thống giám sát trạng thái buồn ngủ của
lái xe”.
Tháng 12 năm 2018, nhóm nghiên cứu đứng đầu là TS Nguyễn Minh Sơn thuộctrường Đại học Công Nghệ Thông Tin - ĐHQG-HCM đã nghiên cứu và chế tạothành công “Hệ thống giám sát trạng thái buồn ngủ của lái xe” [3]
Dưới đây là hình ảnh thực tế của sản phẩm hệ thống giám sát trạng thái buồn ngủ
của lái xe đã được đóng gói.
Hình 1.3: Hình sản phẩm thiết bị HTGSTTBN
(Nguồn: www.vista.gov.vn)
Nhóm đã tiến hành xác định những biểu hiện cơ bản và rút trích đặc trưng cơ bảnxác định trạng thái ngủ gật như: Mắt nhắm, mắt không chớp, góc nghiêng của đầu
do ngủ gục, chuyền động đột ngột của dau, sự không thay đối tư thé của đầu trong
khoảng thời gian đủ dài với độ tin cậy lên tới 90% [3] Hệ thống tiễn hành theo
dõi và phân tích trạng thái của tài xế, sau đó cảnh báo và gửi dữ liệu về trung tâm
giám sát qua giao thức GPS/GPRS.
Trang 17Tên tai xê Nguyễn Van B
Biển số xe: 51A-12872 Trang thải tải xẻ: Binh thường.
Trang thải tài xé: ngủ ngật
9 Xem vi trí xe
a) Mảxe b827ebb200c2
Bh Tên tal xé Nguyễn Văn E
Biển số xe: 61A-25424
Trang thái tải xé: Binh thưởng.
Mã xe: b827eb9$e2d4d Mã xe: b827eb4f5a0e
Tên tải xé: Nguyễn Văn © Tên tải xế
Biển số xe: 47E1-8969 Biển sổ xe
Mã xe: b827eb40f63c
Tên tải xé: Nguyễn Văn D
Biển sổ xe: 47E-15684.
Trang thái tài xé: Bình thường
Trang thái tải xé: Bình thường.
9 Xem vị trí xe
Đăng xuất
(Nguồn: WWW.VISfa.øOV.Vn)
Hình 1.4 mô tả giao diện của trung tâm giám sát ma người quan lý tài xê có thê
theo dõi tình trạng các tài xế từ xa
Vân dé còn tôn tại của dé tai năm ở toc độ xử lý dang còn thâp với thời gian cập
nhật khuôn mặt là 10 giây, xử lý ảnh nhắm mắt 1,5 giây [4]
Bang 1.1 trình bày kết quả mà hệ thống chạy thử nghiệm trong các điều kiện môi
trường khác nhau.
Bang 1.1: Két qua chay thuc nghiém HTGSTTBN [3]
Trung binh Lai xe 1 Lai xe 2 Lai xe 3
Co Không | Có cảnh | Không Có | Khong} Có | Không cảnh cảnh báo cảnh cảnh | cảnh | cảnh | cảnh báo báo báo báo báo báo báo
Xe 90,73 9,27 91,1 8,9 91,1 8,9 90 10
dừng
Trang 181.1.3 Dé tài “Hệ thống cảnh báo tài xế 6 tô ngủ gật”.
Năm 2019, đề tài “Hệ thống cảnh báo tài xế ô tô ngủ gật” của nhóm học sinh gồmHàn Thọ Nhật Phú và Hoàng Quốc Huy trường THPT An Lương Đông, huyệnPhú Lộc đã đạt giải Nhì cuộc thị Sáng tạo Thanh thiếu niên, Nhi đồng tỉnh ThừaThiên Huế
Xây dựng trên Raspberry Pi chạy Ubuntu, “Hệ thống có thé gửi tin nhắn đến tài
xế va chủ sở hữu công ty quản lý (đối với taxi, xe bus) dé có biện pháp cảnh báo,
khắc phục và quản lý giờ giấc lái xe của tài xế Hệ thống được lập trình trên một
CPU thu nhỏ tích hợp công kết nối camera và loa nên có thể dễ dàng điều chỉnh
theo nhu cầu người sử dung” [5]
Hình 1.5 dưới đây mô tả sơ đồ hoạt động và các thành phan cơ bản của hệ thống
cảnh báo tài xê ô tô ngủ gật.
Trang 19hiện và cảnh báo lái xe ngủ gật dựa trên kỹ thuật xử lý ảnh — TS Vũ Đức Thái tháng
01/2014”, “Nhận diện chớp mắt và cảnh báo buồn ngủ khi lái xe trên nền Windows
và Android — PGS.TS Hoang Đình Chiến năm 2012” Da số, vấn dé chung còntồn tại của các dé tài đó là tốc độ xử lý còn thấp Hau hết các đề tài cho kết quả mat
từ 1 đến 2 giây dé xử lý xong trang thái của tài xế, nhưng với tốc độ xử lý đó sẽ không
kịp thời cảnh báo tài xế và sẽ rất dễ gây tai nạn nếu tài xế đang lái xe ở tốc độ cao.
1.2 Tình hình nghiên cứu ở nước ngoài.
Xuất hiện khá sớm trước Việt Nam, các đề tài nghiên cứu về tình trạng buồn ngủ của
tai xê ở nước ngoài cũng có sự tham gia cua rat nhiêu nhóm nghiên cứu đên từ các
Trang 20quôc gia khác nhau Dưới đây là các đê tài tiêu biêu mà nhóm tham khảo được từ các bài báo khoa học.
1.2.1 Đề tài “Nghiên cứu về phát hiện sớm sự buồn ngủ của tài xế bằng máy
học và cảm biến hỗn hợp”.
Được công bố ngày 17/04/2020, đề tài “Nghiên cứu về phát hiện sớm sự buồnngủ của tài xế bằng máy học và cảm biến hỗn hợp” [6] của nhóm nghiên cứu đứngđầu là Jongseong Gwak đến từ Dai học Tokyo, Nhật Ban đã trình bày về việc phathiện sớm các dau hiện buồn ngủ của tài xế bằng máy học kết hợp các cảm biến
gắn trên cơ thể người thử nghiệm như: EEG, ECG, Cảm biến chuyển động mắt,
Cảm biên áp lực trên ghê ngôi và camera đê theo dõi.
Hình 1.6 mô tả hình ảnh thực tế của hệ thống cảm biến hỗn hợp được lắp đặt trên
người thử nghiệm.
Hình 1.6: Hình anh thực tế hệ thống CBHH
(Nguồn: mdpi.com)
Hệ thông nhận các thông sô từ các cảm biên và camera sau đó phân tích dựa trên
máy học mà cho ra 5 mức độ buôn ngủ của tài xê: Cảnh báo, Buôn ngủ nhẹ, Khá
buồn ngủ, Buồn ngủ đáng ké và Vô cùng buồn ngủ với độ chính xác 95.4% [6]
Tuy nhiên, nghiên cứu còn hạn chê là việc găn quá nhiêu cảm biên phức tạp lên người sử dụng va gây ra khó chịu khi lãi xe.
10
Trang 211.2.2 Đề tài “Phát hiện buồn ngủ sử dụng kiểu chớp mắt và khoảng cách
giữa các mí mắt”
Công bố vào tháng 12/2018, đề tài “Phát hiện buồn ngủ sử dụng kiểu chớp mắt
và khoảng cách giữa các mí mắt” [7] của các nhà nghiên cứu Abdullah ArafatMiah, Mohiuddin Ahmad và Khatuna Zannat Mim đến từ Đại học Kỹ thuật vàCông nghệ Khulna — Bangladesh chỉ ra rang tần suất chớp mắt sẽ giảm khi người
ta có dau hiệu buồn ngủ Nghiên cứu tập trung thực hiện 04 bước:
- Phat hiện khuôn mặt và mắt
- Phat hiện facial landmark.
- Tinh khoảng cách giữa hai mí mắt
- _ Cảnh báo buồn ngủ
Đề tài đưa ra 04 mức độ buồn ngủ dé thông báo cho tài xế: Tinh táo, Chớp mắt
bình thường, Buồn ngủ và Ngủ Thực hiện trên phần cứng máy tính cá nhân vớiCPU 2.9Ghz, §Gb RAM đề tài cho kết quả chính xác tới 93% với bộ dữ liệuYawDD Dưới đây là bảng so sánh độ chính xác của đề tài và các phương pháp
Trang 22Yawning 91.97%
Eye Blink Pattern 93%
(Nguồn: https://www.researchgate.net/publication/329886085)
Tôn tai của dé tài đó là dang sử dung trên máy tinh cá nhân không thé lắp đặt trên
xe và thời gian xử lý quá thấp với khoảng 0.24 giây [7] cho mỗi khung hình tức
là khoảng 6 khung hình trên giây Kết quả cho thấy mặc dù hệ thống chạy trên
phần cứng mạnh nhưng lại cho tốc độ xử lý quá thấp, không thé ứng dụng trong
Trang 23thực trên Android sử dụng kỹ thuật mạng học sâu” [9] đã nghiên cứu và cho ra
model Phát hiện buồn ngủ ứng dụng mạng học sâu với độ chính xác lên tới 80%
Đề tài thực hiện qua 5 bước và cho ra một model phát hiện buồn ngủ hoan chỉnh:
- Thu thập video từ bộ dataset NTHU.
- Tach video thành các frame anh độc lập.
- _ Đánh dấu các điềm trên khuôn mặt
- Huan luyện thuật giải
Linux kernel + Android extensions
Hình 1.8: Kiến trúc giải thuật trên Android [9]
13
Trang 24Dataset Category Nbr Videos Nhr Images Extracted — Nbr Images not detected by Dlib
With glasses 36 106,882 13,581 Training Night Without glasses 36 52,372 8,713
Night With glasses 36 50,991 11,032
Without glasses 36 108,380 12,343 With sunglasses 36 107,990 24,274 With glasses 4 37,357 2,478 Evaluation Night Without glasses 4 29,781 2,459
Night With glasses 4 32,922 1,389 Without glasses 4 45,005 4291
With sunglasses 4 28,214 2735 Total 200 599,894 87,586
Hinh 1.9: Két qua chay thir nghiém trén Intel Core i7-7500U [9]
Hình 1.9 cho thay kết qua mà đề tài đã thử nghiệm với 200 video quay được
Model được dé tài xây dựng mục tiêu là dé chạy trên hệ thống Android nhưng kết
quả khi được đánh giá trên hệ thống phần cứng: Intel Core i7-7500U, 8 GB RAM,Intel GMA HD 2 GB cho độ chính xác 81% Khi sử dụng card đồ họa GTX 1080thì thời gian nạp model là 43.4 mili giây, tốc độ phát hiện buồn ngủ là 7 fps
Từ các đề tài trong và ngoài nước mà nhóm đã tham khảo, có thê thấy rằng đại đa sốcác đề tài đều sử dụng cốt lõi chính cho việc phát hiện buồn ngủ là thuật toán tínhkhoảng cách giữa hai mí mắt và tính số lần chớp mắt dé đưa ra cảnh báo, cho kết qua
chính xác cao.
Tuy nhiên việc sử dụng phương pháp tính số lần chớp mắt dé đưa ra cảnh báo gặp
một vấn đề khá quan trọng đó là phải dựa trên nhiều lần chớp mắt mới có thể xácđịnh được buồn ngủ chứ không thé xác định dấu hiệu ngay khi vừa mới tiến hành ghi
hình.
Vì vậy, nhóm đã tìm hiểu về một thuật toán mới, phù hợp hơn đó là tính thời gianchớp mắt của mỗi lần khi tài xế chớp mắt, do đó có thê trực tiếp phát hiện buồn ngủngay khi tài xế vừa được ghi hình qua camera Thuật toán này dựa trên một bài báo
khoa học uy tín và sẽ được trình bày trong Chương 2.
14
Trang 25Chuong 2 CƠ SỞ LÝ THUYET
2.1 Thuật toán phát hiện buồn ngủ
2.1.1 Mối liên hệ giữa sự buồn ngủ và hành vi chớp mắt
Giấc ngủ là tình trạng nghỉ ngơi tự nhiên theo chu ky của thé xác và tinh than.Trong tình trạng này người ta thường nhắm mắt và mắt ý thức một phan hay hoàn
toàn do đó sẽ giảm các vận động và phản ứng đối với các kích thích bên ngoài
Giấc ngủ không phải là một lựa chọn, nó là cần thiết và không thể tránh khỏi đểgiúp cơ thể nghỉ ngơi và phục hồi năng lượng Vì vậy một con người cần phải
tay lái hay trong các tình huống yêu cầu sự chú ý tập trung [2]
Một nghiên cứu khoa hoc mang tên “Blinks and saccades as indicators of fatigue
in sleepiness warners: looking tired?” cua cac tac gia R Schleicher, N Galley, S.
Briest và L.Galley năm 2008, đã chi ra mối liên hệ giữa việc chớp mắt va dấu hiệumệt mỏi, ở đây chính là sự buồn ngủ Tần suất và thời gian chớp mắt cũng nhưkích thước khe hở giữa hai mí mắt (khoảng cách giữa mí mắt trên và mí mắt dưới)
là các chỉ số kiểm tra tốt nhất về trạng thái tỉnh táo ở hiện tại và khả năng phản
ứng của người lái xe với các kích thích môi trường.
Các nhà nghiên cứu đã tiến hành thử nghiệm với 129 tình nguyện viên, sử dụngphương pháp EOG và Thang đo độ buồn ngủ Karolinska (KSS) để đo đạc và tính
toán, được trình bày trong bảng 2.1, bao gồm 9 mức độ buồn ngủ riêng biệt
15
Trang 264 Kha tinh tao
5 Không tinh táo hoặc buồn ngủ
6 Có dấu hiệu buồn ngủ
7 Buôn ngủ, nhưng không cần nỗ lực dé giữ tinh táo
8 Buôn ngủ, cần một số nỗ lực dé giữ tỉnh táo
9 Rat buồn ngủ, rất nỗ lực dé giữ tinh táo
Kết quả phân tích trên MATLAB của nghiên cứu cho thấy thời gian chớp mắt của
các tình nguyện viên ở trạng thái bình thường trung bình rơi vào khoảng 200-400
mili giây Theo đó, nếu khoảng thời gian chớp mắt lớn hơn 500 mili giây thì ngườilái xe không thê theo dõi tình trạng giao thông một cách đầy đủ trong khoảng thời
gian đó và được xem như là đang ở trạng thái “Microsleep”, lúc này thì có lẽ đã
quá trễ vì microsleep chủ yếu xuất hiện trong các giai đoạn buồn ngủ nghiêm
trọng và khó có thể được dự đoán như các sự kiện đơn lẻ nhưng xảy ra gần như
ngẫu nhiên trong giai đoạn đó [10].
Hình dưới đây là biểu dé chỉ rõ các ngưỡng thời gian chớp mắt va trạng thái củatài xế mà nghiên cứu phân tích Có thể thấy vùng tỉnh táo (alert) sẽ giảm dần từ
16
Trang 27trái qua phải Và mức tinh táo lớn hơn | khi thời gian chớp mắt trong khoảng 0->
Hình 2.1: Kết qua phan tích trên MATLAB.
2.1.2 Phát triển thuật toán
Dựa vào kết quả của nghiên cứu “Blinks and saccades as indicators of fatigue in
sleepiness warners: looking tired”, nhóm đã quyết định lựa chọn phát triển thuật
toán phát hiện buồn ngủ bằng cách tính thời gian mỗi lần chớp mắt của tài xế liêntục để quyết định xem tình trạng hiện tại của tài xế là buồn ngủ hay không
Hình ảnh khuôn mặt của tài xế sẽ được ghi lại liên tục mỗi giây, sau đó qua cácthuật toán xử lý ảnh và model phát hiện mặt, mắt dé phát hiện khuôn mặt và mắt
từ đó tính khoảng cách giữa hai mí mắt để xác định là mắt đang nhắm hay mở
Thời gian chớp mắt sẽ được tinh từ lúc phát hiện tài xế nhăm mắt đến lúc tài xế
mở mắt Với khoảng thời gian chớp mắt của tài xế là t <= 400 mili giây thì là trạngthái bình thường và nếu t > 400 mili giây sẽ bắt đầu cảnh báo tài xế thông qua âmthanh phát ra từ loa Vì điều cần thiết và quan trọng nhất là phải cảnh báo buồn
17
Trang 28ngủ sớm cho tải xê trước khi rơi vào giai đoạn microsleep, ở trạng thái này rât
nguy hiểm và rat dé gây ra tai nạn giao thông
2.2 Xử lý ảnh và học sâu.
2.2.1 Xử lý ảnh.
Xử lý anh là phương pháp chuyền đổi hình anh sang dạng số và thực hiện một sốhoạt động trên đó dé nâng cao chat lượng hình ảnh hoặc để trích xuất một số thông
tin hữu ich từ nó Đó là một dang phân bồ tín hiệu mà đầu vào là một hình anh
như các bức ảnh hoặc các khung hình từ video và đầu ra là một hình ảnh kháchoặc các đặc tính gắn liền nó Thông thường, các hệ thống xử lý ảnh sẽ xem cáchình ảnh như các tín hiệu hai chiều dé từ đó áp dung các phương pháp xử lý tínhiệu lên các tín hiệu đó Nó là một trong các công nghệ phát triển nhanh chóng
hiện nay và được áp dụng trong nhiều lĩnh vực khác nhau.
2.2.2 Học sâu (Deep learning).
AI - Artificial Intelligence (Trí Tuệ Nhân Tạo), và cu thé hơn là MachineLearning/Deep Learning (Máy Học/Học sâu) nổi lên một cách nhanh chóng,
chúng được nhiều người quan tâm và tìm hiểu, được ứng dụng trong kinh tế, giáo
dục, y khoa cho đến những công việc nhà, giải trí hay thậm chí là trong quân sự.Deep learning đang ngày càng cho thấy một tương lai đầy hứa hẹn
Deep learning được bắt nguồn từ thuật toán Neural network (mạng nơ-ron) vốn
xuất phát chỉ là một ngành nhỏ của machine learning Deep Learning là một chỉ
của ngành máy học dựa trên một tập hợp các thuật toán dé cố gắng mô hình dữliệu trừu tượng hóa ở mức cao bằng cách sử dụng nhiều lớp xử lý với cấu trúc
phức tạp, hoặc bằng cách khác bao gồm nhiều biến đổi phi tuyến
Deep Learning đã giúp máy tính thực thi những việc tưởng chừng như không thê
vào nhiều thập kỷ trước: phân loại cả ngàn vật thé khác nhau trong các bức ảnh,
18
Trang 29tự tạo chú thích cho ảnh, bắt chước giọng nói và chữ viết của con người, giao tiếp
với con người, hay thậm chí cả sáng tác văn, phim, ảnh, âm nhạc.
Neural networks
Hình 2.2: Kiến trúc của tri tuệ nhân tạo
(Nguồn: codelearn.io).
Hình 2.2 mô tả kiến trúc 4 lớp của trí tuệ nhân tạo với cốt lõi là deep learning
Các thuật toán Deep Learning có thê lây dữ liệu lộn xộn và không có nhãn rộngrai — chăng hạn như video, hình ảnh, bản ghi âm thanh và văn bản — và áp đặt đủthứ tự cho dữ liệu đó dé đưa ra dự đoán hữu ích, xây dựng hệ thống phân cấp các
tính năng tạo nên con chó hoặc con mèo một hình ảnh hoặc âm thanh tạo thành một từ trong lời nói.
Deep learning sẽ được ứng dụng trong khóa luận này nhăm mục đích huấn luyện
lại các model có san dé cải thiện tốc độ và độ chính xác và phù hợp hơn với mục
đích của khóa luận.
19
Trang 302.3 Phát hiện khuôn mặt.
2.3.1 Model MobileNet SSD v2 Faces.
Model MobileNet SSD v2 Faces là một model được xây dựng dựa trên mạng
MobileNet v2 SSD cho tốc độ xử lý nhanh và chính xác nhưng kích thước nhỏgọn, có thê chạy trên các thiết bị nhúng nhỏ gọn với giới hạn tài nguyên vật lý
Sử dụng bộ dữ liệu Open Images v4 dé huấn luyện ra định dạng model củaTensorFlow, sau đó qua quá trình lượng tử hóa dé rút gọn và tinh chỉnh model từ
các kiến trúc dạng số thực 32bits sang dạng số nguyên 8bits (Hình 2.3), cho phépchạy thuật toán phát hiện mặt người trực tiếp trên phần cứng Coral Google USB
với tốc độ xử lý nhanh, trung bình khoảng 30fps trên Raspberry Pi4
TensorFlow model JRBIN EXPORT Frozen graph
8-bit fixed numbers tflite file
Hình 2.3: Qua trình hình thành model Model MobileNet SSD v2 Faces.
(Nguồn: coral.ai)
2.3.2 Thư viện TensorFlow Lite Python API.
Thư viện TensorFlow Lite Python API là thư viện được xây dựng trên nền tảngTensorFlow Lite C++ API nham xử lý các đầu vào tensor và đầu ra tensor, ngoài
20
Trang 31ra còn cung cấp các API dé thực hiện huấn luyện lại các model theo mục đíchriêng Có hai API chính đó là ClassificationEngine() dé phân loại ảnh và
DetectionEngine() dé phát hiện đối tượng DetectionEngine() sẽ được sử dụngtrong khóa luận dé phát hiện khuôn mặt
| TensorFlow Lite Python API | PyCoral API
(tffite_runtime module) (pycoral module) (coral names pace)
Hình 2.4 mô tả quá trình giao tiếp và xử lý qua các lớp giữa ứng dụng va API Có
hai lựa chọn ngôn ngữ lập trình với API là Python và C++, trong phạm vi khóa
luận, nhóm lựa chọn TensorFlow Lite Python API vì nó dễ dàng để sử dụng délàm việc với model cũng như EdgeTPU runtime Ở đây, ứng dụng hệ thống sẽgiao tiếp với TensorFlow Lite Python API, sau đó API sẽ chuyền dữ liệu truy xuấtxuống Edge TPU runtime dé chuyền đổi dữ liệu sang TensorFlow Lite C++ API
(được dựng sẵn cho python) Sau đó TensorFlow Lite C++ API sẽ giao tiếp vol
TPU.
2.4 Phát hiện vùng mắt
2.4.1 Model Dlib Facial landmark 68.
Dlib là một trong những thư viện nôi tiêng vê nhận diện các điêm trên khuôn mặt một cách chính xác Nó bao gôm việc thực hiện thuật toán của bai báo “One
21
Trang 32Milliseconds Face Alignment with an Ensemble of Regression Trees” [13].
Phuong phap nay su dung:
- Tap huân luyện cua các nhãn trên khuôn mặt trong một bức hình Những bức
hình này sẽ được gan nhãn băng tay và nó sẽ chỉ ra tọa độ của các diém “Facial
landmark” trên khuôn mặt xung quanh mỗi phần trên khuôn mặt
- Tinh toán xác suât vê khoảng cách giữa các cặp diém có tọa độ sau đó dự đoán.
Hình 2.5: 68 điểm trên khuôn mặt
Hình 2.5 cho thấy thứ tự vi trí các điểm trên khuôn mặt mà model Dlib sẽ nhận
diện vị trí của các điểm đó Những điểm này sẽ được có vi trí tọa độ được thé hiện
trong file xml mà phan 3 sẽ nói tới trong quá trình huấn luyện model
2.4.2 Huấn luyện lại model Dlib Facial landmark 68
Thu thập đữ liệu huấn luyện:
22
Trang 33Hình 2.6: Bộ dataset IBUG 300-W.
Hinh 2.6 thé hién mét s6 hinh anh trong bộ dataset va vi trí của các điểm đượcnhận diện Dé tạo ra được bộ dataset này thi tác gia đã phải xác định vi trí vàgan nhãn bang tay của 68 điểm trên khuôn mặt với 7764 bức hình
Tiến hành huấn luyện:
Trong model Dlib thì cần phải tinh chỉnh những tham số sao cho hợp lý dé có
được một model kết quả đúng với từng mục đích và phù hợp với tài nguyên
phần cứng Hình 2.5 sẽ cho ta thấy mối liên hệ giữa các thông số với nhau trong
model Do đó việc lựa chọn các tham số cho quá trình training model rất quan
trọng dé làm sao cân bằng được các tham số mà vẫn phải đạt được mục đíchcuối cùng Trong Dlib các tham số đó là:
© tree_depth: Có 2^tree_ depth lá trong mỗi cây Giá trị của tree_depth càng
nhỏ thì dẫn tới hiện tượng là “shallow trees” nhưng bù lại tốc độ dự đoán sẽnhanh hơn và cũng tiềm ấn việc độ chính xác sẽ giảm xuống Giá trị củatree_depth càng lớn thì sẽ tạo ra một “deeper tree” nhưng tốc độ dự đoán sẽ
chậm đi và độ chính xác sẽ tăng lên.
e nu: Là thông số “Regularization” trong model dé tránh hiện hượng model bị
“Overfitting” với bộ dữ liệu test Giá tri của nó càng gân vê 0 thi nó sẽ làm
23
Trang 34cho model sẽ dự đoán tốt trên tập dữ liệu training nhưng cũng sẽ tăng khả
năng model sẽ bị “Overfitting” Giá tri của nó càng gần về | thì sẽ giúp chomodel có được sự “Generalization” hơn Tuy nhiên, chúng ta sẽ cần phải có
nhiều dữ liệu hơn đề huấn luyện model
e cascade_depth: Đây là một thông số ảnh hưởng tới kích thước của model.
Giá trị của nó càng lớn thì độ chính xác sẽ tăng lên đáng kê và ngược lại.
Hình 2.7: Ảnh hưởng của “cascade depth” lên độ chính xác của model [13]
Hình 2.7 cho thấy sự ảnh hưởng của thông số “cascade_ depth” lên độ chính xáccủa model khi nó thay đôi Khi giá trị của nó càng cao thì độ chính xác khi nhận
điện các điêm trên khuôn mặt sẽ tăng lên.
e feature_pool_size: Điều khién số lượng pixel được sử dụng dé tạo ra những
đặc điểm cho mỗi cây ngẫu nhiên trong “cascade” Càng nhiều pixel đượcthêm vào thì tốc độ của model cảng chậm nhưng độ chính xác dé dự đoán
về các thành phan trên khuôn mặt sẽ tăng lên Số lượng pixel ít thì model sẽchạy nhanh hơn nhưng độ chính xác sẽ giảm xuống
® num_test_splits: Thông số này ảnh hường cả về thời gian training và độ
chính xác của model Nếu giá trị của nó càng lớn thì chúng ta đang mongchờ một model có độ chính xác cao nhưng điều này cũng sẽ dẫn tới thời gian
cho việc huân luyện model này sẽ mât thời gian rât lâu.
e oversampling_translation_jitter: Thông số này sẽ điều khiển cho quá trình
huấn luyện trong việc “augmentation” các dữ liệu dé model có thé nhận biết
24