1. Trang chủ
  2. » Luận Văn - Báo Cáo

Ứng dụng thuật toán YOLOv3 phát hiện bàn tay trong ảnh

27 262 2

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 27
Dung lượng 1,69 MB

Nội dung

Contents 1. GIỚI THIỆU CHUNG 2 1.1 Kiến trúc mạng YOLO 2 1.2 Output của YOLO 4 1.3 Dự báo trên nhiều feature map 6 1.4 Anchor Box 7 1.5 Hàm Loss function 8 1.6 Dự báo bouncing box 9 1.7 Nonmax suppression 10 2. Tìm hiểu CSDL và xử lí dữ liệu 12 3. Triển khai code 14 4. Đánh giá thử nghiệm 21 5. Phân tích kết quả 24

Hanoi University of Science & Technology Hand Detection Mục lục Giới thiệu chung .3 1.1 Kiến trúc mạng YOLO 1.2 Output YOLO 1.3 Dự báo nhiều feature map 1.4 Anchor Box 1.5 Hàm Loss function 1.6 Dự báo bouncing box 10 1.7 Non-max suppression 11 Tìm hiểu CSDL xử lí liệu .13 Triển khai code .15 Đánh giá thử nghiệm .22 Phân tích kết .25 Kết luận 27 Tài liệu tham khảo 28 2|Page Hanoi University of Science & Technology Hand Detection Giới thiệu chung Vài năm trở lại đây, object detection đề tài quan trọng deep learning khả ứng dụng cao, liệu dễ chuẩn bị kết ứng dụng nhiều Các thuật tốn object detection thực tác vụ dường real time, chí nhanh so với người mà độ xác khơng giảm Trong đó, YOLO - You Only Look Once khơng phải thuật tốn tốt thuật tốn nhanh lớp mơ hình object detection Các phiên mơ hình có cải tiến đáng kể sau phiên 1.1 Kiến trúc mạng YOLO YOLOv3 dự đốn bouncing box với kích thước khác Hệ thống trích xuất đặc tính từ kích thước cách sử dụng cấu trúc tương tự mạng kim tự tháp Từ đặc tính sở, thêm vài lớp convolutional  Nguyên lý hoạt động mạng nơ ron tích chập (Convolutional Neural Network): Đây mạng nơ ron áp dụng layer Convolutional kết hợp với Maxpooling để giúp trích xuất đặc trưng ảnh tốt  Khái niệm bounding box, anchor box: Bounding box khung hình bao quanh vật thể Anchor box khung hình có kích thước xác định trước, có tác dụng dự đốn bounding box  Feature map: Là khối output mà ta chia thành lưới vng áp dụng tìm kiếm phát vật thể cell  Non-max suppression: Phương pháp giúp giảm thiểu nhiều bounding box overlap bounding box có xác suất lớn Kiến trúc YOLO bao gồm: base network mạng convolution làm nhiệm vụ trích xuất đặc trưng Phần phía sau Extra Layers áp dụng để phát vật thể feature map base network Trong YOLOv3 tác giả áp dụng mạng feature extractor darknet-53 Mạng gồm 53 convolutional layers kết nối liên tiếp, layer theo sau batch normalization activation Leaky Relu Để giảm kích thước output sau convolution layer, tác giả down sample filter với kích thước Mẹo có tác dụng giảm thiểu số lượng tham số cho mơ hình 3|Page Hanoi University of Science & Technology Hand Detection Hình 1: Các layer mạng darknet-53 Các ảnh đưa vào mơ hình scale để chung kích thước phù hợp với input shape mơ hình sau gom lại thành batch đưa vào huấn luyện Hiện YOLO hỗ trợ đầu vào 416x416 608x608 Mỗi đầu vào có thiết kế layers riêng phù hợp với shape input Sau qua layer convolutional shape giảm dần theo cấp số nhân Cuối ta thu feature map có kích thước tương đối nhỏ để dự báo vật thể ô feature map 4|Page Hanoi University of Science & Technology Hand Detection Kích thước feature map phụ thuộc vào đầu vào Đối với input 416x416 feature map có kích thước 13x13, 26x26 52x52 Và input 608x608 tạo feature map 19x19, 38x38, 72x72 1.2 Output YOLO Output mơ hình YOLO véc tơ bao gồm thành phần: 𝑦 𝑇 = [𝑝0 , ⟨𝑡𝑥 , 𝑡𝑦 , 𝑡𝑤 , 𝑡ℎ ⟩, ⟨𝑝1 , 𝑝2 , , 𝑝𝑐 ⟩] ⏟ bounding box ⏟ scores of c classes Trong  𝑝0 xác suất dự báo vật thể xuất bounding box  ⟨𝑡𝑥 , 𝑡𝑦 , 𝑡𝑤 , 𝑡ℎ ⟩ giúp xác định bounding box Trong 𝑡𝑥 , 𝑡𝑦 tọa độ tâm 𝑡𝑤 , 𝑡ℎ ⏟ bounding box kích thước rộng, dài bounding box  ⟨𝑝1 , 𝑝2 , … , 𝑝𝑐 ⟩ véc tơ phân phối xác suất dự báo classes ⏟ scores of c classes Việc hiểu output quan trọng để cấu hình tham số chuẩn xác huấn luyện model qua open source darknet Như output xác định theo số lượng classes theo công thức (n_class+5) Nếu huấn luyện class bạn có output Trường hợp bạn áp dụng anchors/cell số lượng tham số output là: (n_class+5)×3=6×3=18 5|Page Hanoi University of Science & Technology Hand Detection Hình 2: Kiến trúc output model YOLO Hình ảnh gốc feature map kích thước 13x13 Trên cell feature map lựa chọn anchor boxes với kích thước khác Box 1, Box 2, Box cho tâm anchor boxes trùng với cell Khi output YOLO véc tơ concatenate bounding boxes Các thuộc tính bounding box mơ tả dịng cuối hình 6|Page Hanoi University of Science & Technology Hand Detection 1.3 Dự báo nhiều feature map YOLOv3 dự báo nhiều feature map Những feature map ban đầu có kích thước nhỏ giúp dự báo object kích thước lớn Những feature map sau có kích thước lớn anchor box giữ cố định kích thước nên giúp dự báo vật thể kích thước nhỏ Hình 3: Các feature maps mạng YOLOv3 với input shape 416x416, output feature maps có kích thước 13x13, 26x26 52x52 Trên cell feature map áp dụng anchor box để dự đoán vật thể Như số lượng anchor box khác mơ hình YOLO (3 featue map x anchor box) Đồng thời feature map hình vng S x S, mơ hình YOLOv3 sinh số lượng anchor box là: S x S x Như số lượng anchor boxes ảnh là: (13×13 + 26×26 + 52×52) × = 10647 (anchor boxes) Đây số lượng lớn nguyên nhân khiến q trình huấn luyện mơ hình YOLO vơ chậm cần dự báo đồng thời nhãn bounding box đồng thời 10647 bounding boxes Một số lưu ý huấn luyện YOLO:  Khi huấn luyện YOLO cần phải có RAM dung lượng lớn để save 10647 bounding boxes kiến trúc  Không thể thiết lập batch_size q lớn mơ hình classification dễ Out of memory Package darknet YOLO chia nhỏ batch thành subdivisions cho vừa với RAM  Thời gian xử lý step YOLO lâu rất nhiều lần so với mô hình classification Do nên thiết lập steps giới hạn huấn luyện cho YOLO nhỏ Đối với tác vụ nhận diện classes, 5000 steps thu nghiệm tạm chấp nhận Các mô hình có nhiều classes tăng số lượng steps theo cấp số nhân tùy bạn 7|Page Hanoi University of Science & Technology Hand Detection 1.4 Anchor Box Để tìm bounding box cho vật thể, YOLO cần anchor box làm sở ước lượng Những anchor box xác định trước bao quanh vật thể cách tương đối xác Sau thuật toán regression bounding box tinh chỉnh lại anchor box để tạo bounding box dự đoán cho vật thể Trong mơ hình YOLO:  Mỗi vật thể hình ảnh huấn luyện phân bố anchor box Trong trường hợp có từ anchor boxes trở lên bao quanh vật thể ta xác định anchor box mà có IoU với ground truth bounding box cao Hình 4: Xác định anchor box cho vật thể Từ Cell i ta xác định anchor boxes viền xanh hình Cả anchor boxes giao với bounding box vật thể Tuy nhiên anchor box có đường viền dày màu xanh lựa chọn làm anchor box cho vật thể có IoU so với ground truth bounding box cao  Mỗi vật thể hình ảnh huấn luyện phân bố cell feature map mà chứa điểm mid point vật thể Chẳng hạn hình chó hình phân cho cell màu đỏ điểm mid point ảnh chó rơi vào cell Từ cell ta xác định anchor boxes bao quanh hình ảnh chó Như xác định vật thể ta cần xác định thành phần gắn liền với (cell, anchor box) Khơng riêng cell anchor box Một số trường hợp vật thể bị trùng mid point, xảy ra, thuật tốn khó xác định class cho chúng 8|Page Hanoi University of Science & Technology Hand Detection Hình 5: Khi vật thể người xe trùng mid point thuộc cell Thuật toán cần thêm lượt tiebreak để định đâu class cho cell 1.5 Hàm Loss function Cũng tương tự SSD, hàm loss function YOLO chia thành phần: Lloc (localization loss) đo lường sai số bounding box Lcls (confidence loss) đo lường sai số phân phối xác suất classes 𝑆2 ℒ loc 𝐵 obj ^ ^ ^ ^ = 𝜆coord ∑ ∑ 𝟙𝑖𝑗 [(𝑥𝑖 − 𝑥𝑖 )2 + (𝑦𝑖 − 𝑦𝑖 )2 + (√𝑤𝑖 − √𝑤𝑖 )2 + (√ℎ𝑖 − √ℎ𝑖 )2 ] 𝑖=0 𝑗=0 𝑆2 𝑆2 𝐵 ℒ cls obj obj ^ obj ^ = ∑ ∑( 𝟙𝑖𝑗 + 𝜆noobj (1 − 𝟙𝑖𝑗 ))(𝐶𝑖𝑗 − 𝐶𝑖𝑗 )2 + ∑ ∑ 𝟙𝑖 (𝑝𝑖 (𝑐) − 𝑝𝑖 (𝑐))2 𝑗=0 𝑖=0 𝑖=0 ⏟ cell contain object 𝑐∈𝒞 ⏟ probability distribution classes ℒ = ℒ loc + ℒ cls obj 𝟙𝑖 : Hàm indicator có giá trị 0,1 nhằm xác định xem cell 𝑖 có chứa vật thể hay khơng Bằng chứa vật thể không chứa obj 𝟙𝑖𝑗 : Cho biết bounding box thứ 𝑗 cell 𝑖 có phải bouding box vật thể dự đốn hay khơng? (xem hình 4) 𝐶𝑖𝑗 : Điểm tin cậy ô 𝑖, P(contain object) * IoU (predict bbox, ground truth bbox) 9|Page Hanoi University of Science & Technology Hand Detection ^ 𝐶𝑖𝑗 : Điểm tự tin dự đoán 𝒞: Tập hợp tất lớp 𝑝𝑖 (𝑐): Xác suất có điều kiện, có hay khơng 𝑖 có chứa đối tượng lớp 𝑐 ∈ 𝒞 ^ 𝑝𝑖 (𝑐): Xác suất có điều kiện dự đốn Có thể ban đầu cơng thức khó hiểu với người bắt đầu Chúng ta hiểu đơn giản hóa mục đích chúng:  ℒ loc hàm mát bounding box dự báo so với thực tế  ℒ cls hàm mát phân phối xác suất Trong tổng mát dự đốn có vật thể cell hay không? Và tổng thứ mát phân phối xác suất có vật thể cell Ngồi để điều chỉnh phạt loss function trường hợp dự đốn sai bounding box ta thơng qua hệ số điều chỉnh 𝜆coord ta muốn giảm nhẹ hàm loss function trường hợp cell không chứa vật thể hệ số điều chỉnh 𝜆noobj 1.6 Dự báo bouncing box Để dự báo bounding box cho vật thể dựa phép biến đổi từ anchor box cell YOLOv2 vả YOLOv3 dự đoán bounding box cho khơng lệch khỏi vị trí trung tâm q nhiều Nếu bounding box dự đốn đặt vào phần hình ảnh, mạng regional proposal network, việc huấn luyện mơ hình trở nên không ổn định Cho anchor box có kích thước (𝑝𝑤 , 𝑝ℎ ) cell nằm feature map với góc bên trái (𝑐𝑥 , 𝑐𝑦 ), mơ hình dự đốn tham số (𝑡𝑥 , 𝑡𝑦 , 𝑡𝑤 , 𝑡ℎ ) tham số đầu độ lệch (offset) so với góc bên trái cell tham số sau tỷ lệ so với anchor box Và tham số giúp xác định bounding box dự đốn b có tâm (𝑏𝑥 , 𝑏𝑦 ) kích thước (𝑏𝑤 , 𝑏ℎ ) thơng qua hàm sigmoid hàm exponential công thức bên dưới: 𝑏𝑥 𝑏𝑦 𝑏𝑤 𝑏ℎ = 𝜎(𝑡𝑥 ) + 𝑐𝑥 = 𝜎(𝑡𝑦 ) + 𝑐𝑦 = 𝑝𝑤 𝑒 𝑡𝑤 = 𝑝ℎ 𝑒 𝑡ℎ Ngoài tọa độ hiệu chỉnh theo width height ảnh nên ln có giá trị nằm ngưỡng [0, 1] Do áp dụng hàm sigmoid giúp ta giới hạn tọa độ không vượt xa ngưỡng 10 | P a g e Hanoi University of Science & Technology Hand Detection Hình 6: Cơng thức ước lượng bounding box từ anchor box Hình chữ nhật nét đứt bên ngồi anchor box có kích thước (𝑝𝑤 , 𝑝ℎ ) Tọa độ bounding box xác định dựa đồng thời anchor box cell mà thuộc Điều giúp kiểm sốt vị trí bounding box dự đốn quanh vị trí cell bounding box mà khơng vượt q xa bên ngồi giới hạn Do q trình huấn luyện ổn định nhiều so với YOLO version 1.7 Non-max suppression Do thuật toán YOLO dự báo nhiều bounding box ảnh nên cell có vị trí gần nhau, khả khung hình bị overlap cao Trong trường hợp YOLO cần đến non-max suppression để giảm bớt số lượng khung hình sinh cách đáng kể 11 | P a g e Hanoi University of Science & Technology Hand Detection định dạng annotation “.txt” YOLO Sau convert xong, new_annotation YOLO có form sau: 0.781616 0.792040 0.079581 0.105805 0.458258 0.482815 0.048888 0.077585 Format Label file Label_ID_1 X_CENTER_NORM Y_CENTER_NORM WIDTH_NORM HEIGHT_NORM Label_ID_2 X_CENTER_NORM Y_CENTER_NORM WIDTH_NORM HEIGHT_NORM Label_id id class Đối với toán nhận diện bàn tay class = => Id = Lưu ý tất thuộc tính vị trí tệp nhãn giá trị tuyệt đối mà chuẩn hóa X_CENTER_NORM = X_CENTER_ABS/IMAGE_WIDTH Y_CENTER_NORM = Y_CENTER_ABS/IMAGE_HEIGHT WIDTH_NORM = WIDTH_OF_LABEL_ABS/IMAGE_WIDTH HEIGHT_NORM = HEIGHT_OF_LABEL_ABS/IMAGE_HEIGHT Sau xử lí liệu xong, ta có folder hồn chỉnh bao gồm hình ảnh có bàn tay đánh nhãn, annotation định dạng “.txt” YOLO, sẵn sàng cho việc training test Phát vùng bàn tay ảnh với thuật toán YOLOv3  Số ảnh Training: 4069 ảnh - đánh nhãn 9163 bàn tay, có 2861 bàn tay kích thước lớn  Số ảnh Test: 821 ảnh (20,17% số ảnh trainning) - đánh nhãn 1856 bàn tay (20,25% số bàn tay trainning), có 649 bàn tay kích thước lớn  Số ảnh Validation: 738 ảnh (18,13% số ảnh trainning) - đánh nhãn 2031 bàn tay (22,16% số bàn tay trainning), có 660 bàn tay kích thước lớn  Vì yêu cầu nhận diện bàn tay ảnh nên class = = > filter = (1 + 5) x = 18  Thiết lập Batch = 64, số Interation = 6000 => Chia 4069 ảnh training thành 6000 nhóm, nhóm chứa 64 ảnh ngẫu nhiên để train 14 | P a g e Hanoi University of Science & Technology Hand Detection Triển khai code Bước Download darknet frame work https://github.com/AlexeyAB/darknet Đổi tên thành darknet_hand Bước - Đưa dataset vào thư mục darknet_hand/data/obj - Thiết lập file hand.data classes = train = data/obj/train.txt valid = data/obj/validation.txt names = data/obj/hand.names backup = backup Class = ứng với đối tượng nhận dạng hand - Thiết lập file hand.name hand Tên class đối tượng cần detect hand, có class - train.txt/test.txt/validation.txt chứa tất đường dẫn ảnh train/validation/test Ví dụ: data/obj/train/VOC2010_876.jpg data/obj/train/Inria_62.jpg data/obj/train/VOC2007_571.jpg … 15 | P a g e Hanoi University of Science & Technology Hand Detection Bước - Hiệu chỉnh config file Copy file darknet_hand/cfg/yolov3.cfg thành oxford_hand_yolov3.cfg Chỉnh sửa theo yêu cầu đầu vào lựa chọn # change line batch to batch=64 batch=64 # change line subdivisions to subdivisions=16 subdivisions=16 # Line chọn subdivison pixels width=416 height=416 # Line 20, maximum number of interation for which our network should be trained max_batches = 6000 # khuyến nghị từ 2000*(number of class) # Line 22, 80% đến 90% of max_batches steps = 4800, 5400 # Line 603, 689, 776 chỉnh filter = (class+5)*3 với class = 1, nên filter = 18 vị trí trước YOLO layer filters=18 filters=18 filters=18 # Line 610, 696, 783, chỉnh class = ( làm nhận diện bàn tay) classes=1 classes=1 classes=1 Bước - Hiệu chỉnh Makefile: thiết lập chạy với GPU CUDA Colab GPU=1 CUDNN=1 OPENCV=1 16 | P a g e Hanoi University of Science & Technology Hand Detection Tùy vào GPU Colab cung cấp mà ta thiết lập ARCH= -gencode arch=compute_30,code=sm_30 \ -gencode arch=compute_35,code=sm_35 \ -gencode arch=compute_50,code=[sm_50,compute_50] \ -gencode arch=compute_52,code=[sm_52,compute_52] \ -gencode arch=compute_60,code=[sm_60,compute_60] \ -gencode arch=compute_61,code=[sm_61,compute_61] ARCH= -gencode arch=compute_75,code=[sm_75,compute_75] # GeForce RTX 3070, 3080, 3090 # ARCH= -gencode arch=compute_86,code=[sm_86,compute_86] #Tesla K80 #ARCH= -gencode arch=compute_37,code=sm_37 # Kepler GeForce GTX 770, GTX 760, GT 740 # ARCH= -gencode arch=compute_30,code=sm_30 # Tesla A100 (GA100), DGX-A100, RTX 3080 # ARCH= -gencode arch=compute_80,code=[sm_80,compute_80] # Tesla V100 # ARCH= -gencode arch=compute_70,code=[sm_70,compute_70] # GeForce RTX 2080 Ti, RTX 2080, RTX 2070, Quadro RTX 8000, Quadro RTX 6000, Quadro RTX 5000, Tesla T4, XNOR Tensor Cores # ARCH= -gencode arch=compute_75,code=[sm_75,compute_75] # Jetson XAVIER # ARCH= -gencode arch=compute_72,code=[sm_72,compute_72] 17 | P a g e Hanoi University of Science & Technology Hand Detection # GTX 1080, GTX 1070, GTX 1060, GTX 1050, GTX 1030, Titan Xp, Tesla P40, Tesla P4 # ARCH= -gencode arch=compute_61,code=sm_61 -gencode arch=compute_61,code=compute_61 # GP100/Tesla P100 - DGX-1 # ARCH= -gencode arch=compute_60,code=sm_60 # For Jetson TX1, Tegra X1, DRIVE CX, DRIVE PX - uncomment: # ARCH= -gencode arch=compute_53,code=[sm_53,compute_53] # For Jetson Tx2 or Drive-PX2 uncomment: # ARCH= -gencode arch=compute_62,code=[sm_62,compute_62] # For Tesla GA10x cards, RTX 3090, RTX 3080, RTX 3070, RTX A6000, RTX A40 uncomment: # ARCH= -gencode arch=compute_86,code=[sm_86,compute_86] Bước - Tải thư mục darknet_hand lên Colab tiến hành train - Tạo thư mục backup google drive: /backup_weights/backup Run train !./darknet detector train /content/darknet_hand/data/obj/hand.data oxford_hand_yolov3.cfg /content/darknet_hand/darknet53.conv.74 -dont_show -map > backup/oxford_hand_yolov3.log Run test !./darknet detector test /content/darknet_hand/data/obj/hand.data oxford_hand_yolov3 cfg /content/drive/MyDrive/oxford_hand_yolov3_best.weights /content/darknet_hand/ data/obj/test/VOC2010_49.jpg -ext_output Run validation !./darknet detector map /content/darknet_hand/data/obj/hand.data oxford_hand_yolov3.cfg /content/drive/MyDrive/oxford_hand_yolov3_best.weights 18 | P a g e Hanoi University of Science & Technology Hand Detection Kết Với mAP@0.5 = 79.41% tập Test Với mAP@0.5 = 81.22% tập Validation Total loss Loss = 0.4266 sau 6000 iteration 19 | P a g e Hanoi University of Science & Technology Hand Detection 20 | P a g e Hanoi University of Science & Technology Hand Detection 21 | P a g e Hanoi University of Science & Technology Hand Detection Chi tiết bước xem Colab nhóm thực hiện: oxford_hand_yolov3_train - Colaboratory (google.com) Hoặc https://colab.research.google.com/drive/1DVDsePCm9KNugW5L6gIgtd9LXSgwu0A?usp=sharing Đánh giá thử nghiệm Với mAP@0.5 = 81.22% tập Validation gồm 2031 tay đánh nhãn Download weights oxford_hand_yolov3_best.weights (234MB) 22 | P a g e Hanoi University of Science & Technology Hand Detection Total BFLOPS = 65.304 Chạy thử nghiệm với OpenCV Numpy Spyder Anacoda Cấu hình máy: CPU: Intel(R) Core(TM) i5-2520M CPU @ 2.50GHz 2.50 GHz RAM: 8.00 GB (7.89 GB usable) WIN: 10/64bits GPU:0 CUDA:0 - Chạy thử hand detection thuật tốn NMS (Non Maximum Suppression) %run oxford_hand_yolov3_image.py predicted object hand: 26.58% predicted object hand: 94.50% predicted object hand: 96.26% predicted object hand: 95.85% - 3.725959062576294 seconds 23 | P a g e Hanoi University of Science & Technology Hand Detection - Chạy thử hand detection có thuật toán NMS (Non Maximum Suppression) %run oxford_hand_yolov3_image_nms.py predicted object hand: 96.26% predicted object hand: 95.85% predicted object hand: 94.50% - 4.378948926925659 seconds - Chạy thử hand detection với camera có thuật tốn NMS (Non Maximum Suppression) %run oxford_hand_yolov3_camera_nms.py 24 | P a g e Hanoi University of Science & Technology Hand Detection Nhấn phím Q để Phân tích kết Bảng so sánh độ xác so với mạng học sâu khác Nhóm: YOLOv3 81.22% 25 | P a g e Hanoi University of Science & Technology Hand Detection Bảng so sánh thời gian detection so với mạng học sâu khác Nhóm thực YOLOv3 YOLOv3 YOLOv3 4.0s 0.091s 0.041s 2.50GHz CPU 2.30GHz CPU and Tesla K80 (colab) 2.30GHz CPU and Tesla T4 (colab) OpenCV Darknet Darknet 26 | P a g e Hanoi University of Science & Technology Hand Detection Kết luận YOLO v3 thuật toán phức tạp bên có nhiều xử lý tính tốn mà khơng đơn giản để hiểu hết tồn chúng Khi trình bày báo cáo này, chúng em khái quát yếu tố đặc trưng thuật toán Kết thực nghiệm cho thấy, YOLO khơng phải thuật tốn nhanh nhất, khơng phải thuật tốn xác nhất, lại đạt cân tốt yếu tố Đối với tốn Hand detection, chúng em thực mục tiêu đề ban đầu cố gắng đọc hiểu thuật toán, triển khai code cuối đánh giá kết Tuy cịn nhiều thiếu sót nỗ lực lớn thời gian mơn học cịn hạn chế Chúng em xin chân thành cảm ơn cô! 27 | P a g e Hanoi University of Science & Technology Hand Detection Tài liệu tham khảo Redmon, J and Farhadi, A (2018) YOLOv3: An Incremental Improvement Computer Science, arXiv: 1804.02767.http://arxiv.org/abs/1804.02767 YOLO you only look once real time object detection explained - Manish Chablani YOLO object detection YOLO - forum machine learning YOLO, YOLOv2 - jonathan hui You Only Look Once: Unified, Real-Time Object Detection - Joseph Redmon, Santosh Divvala, Ross Girshick, Ali Farhadi YOLO9000: Better, Faster, Stronger - Joseph Redmon, Ali Farhadi C4W3L09 YOLO Algorithm - Andrew Ng - Youtube 28 | P a g e ... hình ảnh có bàn tay đánh nhãn, annotation định dạng “.txt” YOLO, sẵn sàng cho việc training test Phát vùng bàn tay ảnh với thuật toán YOLOv3  Số ảnh Training: 4069 ảnh - đánh nhãn 9163 bàn tay, ... 2861 bàn tay kích thước lớn  Số ảnh Test: 821 ảnh (20,17% số ảnh trainning) - đánh nhãn 1856 bàn tay (20,25% số bàn tay trainning), có 649 bàn tay kích thước lớn  Số ảnh Validation: 738 ảnh. .. Validation: 738 ảnh (18,13% số ảnh trainning) - đánh nhãn 2031 bàn tay (22,16% số bàn tay trainning), có 660 bàn tay kích thước lớn  Vì u cầu nhận diện bàn tay ảnh nên class = = > filter = (1

Ngày đăng: 13/06/2021, 21:08

TỪ KHÓA LIÊN QUAN

w