1. Trang chủ
  2. » Giáo Dục - Đào Tạo

Một phương pháp phát hiện phương tiện giao thông trong không ảnh

68 4 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Tiêu đề Một Phương Pháp Phát Hiện Phương Tiện Giao Thông Trong Không Ảnh
Tác giả Phan Thị Hồng Cúc
Trường học Đại Học Quốc Gia Tp. Hồ Chí Minh
Chuyên ngành Công Nghệ Phần Mềm
Thể loại Báo Cáo Đồ Án
Năm xuất bản 2021
Thành phố Tp. Hồ Chí Minh
Định dạng
Số trang 68
Dung lượng 3,45 MB

Nội dung

ĐẠI HỌC QUỐC GIA TP HỒ CHÍ MINH TRƯỜNG ĐẠI HỌC CÔNG NGHỆ THÔNG TIN KHOA CÔNG NGHỆ PHẦN MỀM PHAN THỊ HỒNG CÚC BÁO CÁO ĐỒ ÁN Một Phương Pháp Phát Hiện Phương Tiện Giao Thông Trong Không Ảnh KỸ SƯ NGÀNH CÔNG NGHỆ PHẦN MỀM TP HỒ CHÍ MINH, 2021 ĐẠI HỌC QUỐC GIA TP HỒ CHÍ MINH TRƯỜNG ĐẠI HỌC CÔNG NGHỆ THÔNG TIN KHOA CÔNG NGHỆ PHẦN MỀM PHAN THỊ HỒNG CÚC – 18520260 BÁO CÁO ĐỒ ÁN Một Phương Pháp Phát Hiện Phương Tiện Giao Thơng Trong Khơng Ảnh KỸ SƯ NGÀNH CƠNG NGHỆ PHẦN MỀM TP HỒ CHÍ MINH, 2021 MỤC LỤC Chương TỔNG QUAN 11 1.1 Giới thiệu chung 11 1.2 Động lực nghiên cứu 11 1.2.1 Tính khoa học 11 1.2.2 Tính ứng dụng 12 1.3 Phát biểu toán 12 1.4 Phạm vi toán 13 1.5 Thách thức toán .13 1.6 Nội dung thực 14 1.7 Kết quả của đề tài 14 1.8 Cấu trúc báo cáo đồ án 15 Chương CƠ SỞ LÝ THUYẾT VÀ CÁC NGHIÊN CỨU LIÊN QUAN .16 2.1 Computer Vision 16 2.1.1 Giới thiệu 16 2.1.2 Một số bài toán nổi bật 16 2.2 Object Detection 17 2.2.1 Giới thiệu 17 2.2.2 Phân loại 18 2.3 Neural Network 19 2.4 Convolutional Neural Network 21 2.4.1 Giới thiệu 21 2.4.2 Convolution Layer .21 2.4.3 Pooling Layer 25 2.4.4 Fully connected layer 25 2.5 ResNet 26 2.5.1 Giới thiệu 26 2.5.2 Vanishing Gradient 27 2.5.3 Kiến trúc mạng ResNet .27 2.6 Faster R-CNN 29 2.6.1 Tổng quan 29 2.6.2 RPN 30 2.6.3 Fast R-CNN .31 2.6.4 RoI pooling 31 2.7 RoIAlign 34 2.8 Deformable RoI Pooling 36 2.9 Feature Pyramid Networks 37 2.10 D2Det .39 2.10.1 Tổng quan 39 2.10.2 Dense local regression .39 2.10.3 Discriminative RoI pooling .41 2.10.4 Kết quả thực nghiệm 43 Chương THỰC NGHIỆM VÀ ĐÁNH GIÁ 44 3.1 Bộ dữ liệu UAVDT .44 3.2 Quá trình thực nghiệm 46 3.2.1 Xử lý dữ liệu 46 3.2.1.1 Thay đổi cách tổ chức của dữ liệu 46 3.2.1.2 Thay đổi định dạng annotation của dữ liệu 50 3.2.2 Chạy thực nghiệm D2Det 54 3.2.2.1 Thông tin chung .54 3.2.2.2 Chạy thực nghiệm 55 3.3 Phương pháp đánh giá 56 3.3.1 Intersection over Union .56 3.3.2 Confusion matrix .57 3.3.3 Precision Recall 58 3.3.4 AP và mAP 59 3.3.4.1 Average Precision - AP 59 3.3.4.2 Mean Average Precision – mAP 60 3.3.4.3 AP của COCO API 60 3.4 Kết quả 60 3.4.1 Kết quả .60 3.4.1.1 Kết quả mơ hình D2Det với backbone ResNet50 kết hợp FPN 60 3.4.1.2 Kết quả mơ hình D2Det với backbone ResNet101 kết hợp FPN 61 3.4.2 Hình ảnh minh họa 62 3.4.3 Đánh giá mô hình 63 Chương KẾT LUẬN VÀ HƯỚNG PHÁT TRIỂN 65 4.1 Kết quả đạt 65 4.2 Hạn chế 65 4.3 Hướng phát triển 65 TÀI LIỆU THAM KHẢO 66 DANH MỤC HÌNH Hình 1.1 Input – output của bài toán 13 Hình 1.2 Thách thức của bài toán .14 Hình 2.1 Ví dụ phân biệt bài toán của Computer Vision 18 Hình 2.2 Nơ-ron sinh học 19 Hình 2.3 Kiến trúc Neural Network 20 Hình 2.4 Nơ-ron Neural Network 20 Hình 2.5 Convolutional Neural Network .21 Hình 2.6 Cấu trúc tổng quát của Convolution layer 22 Hình 2.7 Ví dụ đầu vào của Convolution layer .22 Hình 2.8 Ví dụ minh họa quá trình hoạt động của Convolution layer 23 Hình 2.9 Ví dụ minh họa Max Pooling .25 Hình 2.10 Fully connected layer 26 Hình 2.11 Residual block .27 Hình 2.12 Mạng CNN truyền thống và mạng ResNet 28 Hình 2.13 Kiến trúc của Faster R-CNN .29 Hình 2.14 Kiến trúc của RPN .30 Hình 2.15 Fast R-CNN Faster R-CNN 31 Hình 2.16 Feature map của ví dụ 32 Hình 2.17 Ví dụ minh họa sau ánh xạ proposal lên feature map 33 Hình 2.18 Ví dụ minh họa chia proposal thành các vùng tương ứng với kích thước của output cho trước 33 Hình 2.19 Kết quả thu của ví dụ 34 Hình 2.20 Minh họa chia vùng của RoIAlign 34 Hình 2.21 Ví dụ minh họa chia vùng của RoIAlign 35 Hình 2.22 Ví dụ minh họa quá trình xác định điểm mẫu 35 Hình 2.23 Ví dụ minh họa kết quả sau max pooling của RoIAlign 36 Hình 2.24 Deformable RoI Pooling .36 Hình 2.25 Feature Pyramid Network 37 Hình 2.26 Minh họa đường theo bottom-up và top-down .38 Hình 2.27 Kiến trúc của D2Det .39 Hình 2.28 Dense local regression 40 Hình 2.29 Discriminative RoI Pooling 41 Hình 2.30 Adaptive Weighted Pooling 42 Hình 3.1 Một số ảnh của dữ liệu UAVDT .44 Hình 3.2 Minh họa cách tổ chức theo thư mục của dữ liệu 46 Hình 3.3 Thư mục M1401 của dữ liệu 47 Hình 3.4 Thư mục M_attr của dữ liệu 47 Hình 3.5 Thư mục train M_attr 48 Hình 3.6 Thư mục test M_attr 48 Hình 3.7 Thư mục train 49 Hình 3.8 Thư mục val 49 Hình 3.9 Thư mục test 50 Hình 3.10 Định dạng annotation ban đầu 51 Hình 3.11 Minh họa nội dung annotation 52 Hình 3.12 Minh họa định dạng annotation sau thay đổi .53 Hình 3.13 Minh hoạ cách tính IoU 56 Hình 3.14 Mẫu confusion matrix với tốn phân loại có lớp 57 Hình 3.15 Cách tính Precision và Recall .58 Hình 3.16 Bảng quan sát giá trị Precision Recall 59 Hình 3.17 Minh họa vùng mà AP tính tốn 60 Hình 3.18 Hình ảnh minh họa kết quả dự đoán của mơ hình 63 DANH MỤC BẢNG Bảng 2.1 Một số lọc phổ biến 25 Bảng 2.2 Kết quả dữ liệu MS COCO test-dev 43 Bảng 2.3 Kết quả dữ liệu UAVDT 43 Bảng 3.1 Tóm tắt các dữ liệu liên quan 45 Bảng 3.2 Kết quả dự đoán của D2Det sử dụng backbone ResNet50 kết hợp FPN dữ liệu UAVDT-benchmark-M 61 Bảng 3.3 Kết quả dự đoán của D2Det sử dụng backbone ResNet101 kết hợp FPN dữ liệu UAVDT-benchmark-M 61 DANH MỤC TỪ VIẾT TẮT AP Average Precision mAP Mean Average Precision CNN Convolutional Neural Networks Fast R-CNN Fast Region-based Convolutional Network Faster R-CNN Faster Region-based Convolutional Network UAVDT Unmanned Aerial Vehicle Benchmark Object Detection and Tracking RoI Region of Interest ResNet Residual Network TÓM TẮT Phát phương tiện giao thơng khơng ảnh tốn thuộc tốn Phát đới tượng (Object Detection) lĩnh vực Thị giác máy tính (Computer Vision) Trong đồ án này, tập trung vào việc nghiên cứu thực nghiệm phương pháp D2Det [1] và đánh giá các tập test, tập ảnh có thuộc tính daylight, low-alt, bird-view của dữ liệu UAVDT-Benchmark-M Bộ dữ liệu gồm 40,735 ảnh từ 50 video số 100 video của dữ liệu UAVDT [2] với nhãn: car, truck, bus Phương pháp D2Det mà sử dụng thực nghiệm cho bài toán là phiên bản sử dụng mmdetetection 2.1.0 10 ▪ ‘area’: Diện tích bounding box của đối tượng, kiểu số thực (float) ▪ ‘iscrowd’: Chỉ có thể là giá trị hoặc • 0: bounding box chứa đới tượng • 1: bounding box chứa nhiều đới tượng ▪ ‘image_id’: ID ảnh chứa đối tượng, kiểu số nguyên (Integer) ▪ ‘bbox’: Tọa độ và kích thước bounding box của đối tượng, kiểu danh sách (List) với định dạng [x, y, width, height], đó: • x, y: tọa độ góc trái của bounding box • width: chiều rộng của bounding box • height: chiều cao của bounding box ▪ ‘category_id’: ID nhãn của đối tượng, ID này phải tương ứng với ID khóa ‘categories’, kiểu số nguyên (Integer) ▪ ‘id’: ID của đối tượng, kiểu số nguyên (Integer) o Với khóa ‘categories’: ▪ ‘id’: ID của nhãn, kiểu số nguyên (Integer) ▪ ‘name’: Tên của nhãn, kiểu chuỗi (String) Như vậy, sau hoàn thành quá trình chuyển đổi, chúng sẽ có tệp json tương ứng với từng tập train, val, test, daylight, low-alt, bird-view, daylight – lowalt – birdview lưu thư mục anno 3.2.2 Chạy thực nghiệm D2Det 3.2.2.1 Thông tin chung − Mô hình D2Det là mô hình phát đối tượng tác giả huấn luyện dữ liệu COCO với 80 lớp đối tượng Sử dụng mô hình này sẽ phát cả các đối tượng không phải là phương tiện giao thông, vượt ngoài phạm vi của đề tài nên tiến hành huấn luyện lại mô hình D2Det dữ liệu UAVDT-benchmark-M với backbone ResNet50, ResNet101 kết hợp với FPN 54 − Phiên bản D2Det mà chúng thực nghiệm là phiên bản D2Det dùng môi trường mmdetection 2.1.0 − Yêu cầu: o Linux or macOS (Windows is not currently officially supported) o Python 3.7+ o PyTorch 1.4.0+ o CUDA 10.0+ o mmcv 0.6.1+ o GCC 5+ 3.2.2.2 Chạy thực nghiệm − Cài đặt môi trường: conda create -n open-mmlab python=3.7 -y conda activate open-mmlab conda install pytorch torchvision -c pytorch pip install -r requirements/build.txt pip install "git+https://github.com/cocodataset/cocoapi.git#subdirectory=PythonAP I" pip install -v -e # or "python setup.py develop" git clone https://github.com/open-mmlab/mmcv.git cd mmcv MMCV_WITH_OPS=1 pip install -e − Chỉnh sửa tệp coco_detection.py đường dẫn …/D2Det- mmdet2.1/configs/_base_/datasets/: o Thay đổi đường dẫn của biến data_root thành đường dẫn tới dữ liệu o Tạo biến classes kiểu Tuple với các phần tử là các nhãn của đối tượng và thay đổi các tham số img_prefix, ann_file của đoạn sau tương ứng với đường dẫn của dữ liệu train=dict( img_prefix='./train_model/data/images/train/', classes=classes, ann_file='./train_model/data/annotations/train.json/'), Nguồn: https://github.com/JialeCao001/D2Det-mmdet2.1 55 val=dict( img_prefix='./train_model/data/images/val/', classes=classes, ann_file='./train_model/data/annotations/val.json/'), test=dict( img_prefix='./train_model/data/images/test/', classes=classes, ann_file='./train_model/data/annotations/test.json/')) − Tiến hành huấn luyện mô hình: python tools/train.py o Với :…/configs/d2det/D2Det_detection_r101_fpn_2x.py/ 3.3 Phương pháp đánh giá Chúng sử dụng độ đo AP với IoU khác để đánh giá mô hình 3.3.1 Intersection over Union Intersection over Union (IoU) số đánh giá thường dùng để đo độ xác của các phương pháp object detection, IoU có thể dùng để đánh giá tḥt tốn có khả dự đoán các bounding box Cách tính IoU thể qua hình sau đây: Hình 3.13 Minh hoạ cách tính IoU Trong đó: 56 − Area of Overlap diện tích phần giao giữa bounding box dự đoán và bounding box ground-truth − Area of Union diện tích phần giao giữa bounding box Lý khiến IoU sử dụng nhiều việc đánh giá các phương pháp object detection thực tế, tọa độ x, y của bounding box dự đoán khó xác hồn tồn với tọa độ của ground-truth bounding box, ta cần phương pháp đánh giá dựa vào độ trùng lắp của bounding box Thông thường, dự đoán có IoU > 0.5 xem là dự đoán tốt 3.3.2 Confusion matrix Confusion matrix ma trận thể rõ mỗi lớp phân loại thế nào, lớp nào phân loại đúng nhiều nhất, lớp nào thường bị nhầm lẫn sang lớp khác, … Hình 3.14 Mẫu confusion matrix với tốn phân loại có lớp (ảnh từ thư viện scikit-learn) Trong ví dụ trên, trục dọc lớp thực tế của đới tượng, cịn trục ngang lớp dự đoán Như vậy, ta thấy, confusion matrix ma trận vng có kích thước 𝑛 × 𝑛 (với n sớ lớp tốn), ma trận này, tởng giá trị của phần tử tồn ma trận tởng sớ điểm tập kiểm thử, tổng phần tử 57 đường chéo sớ điểm dự đoán đúng tập kiểm thử Giá trị thuộc hàng i cột j số điểm dữ liệu thuộc lớp i và dự đoán là lớp j 3.3.3 Precision Recall Giả sử ta xét kết quả phân loại với lớp C toán phân loại bằng confusion matrix, ta sẽ ma trận sau: Hình 3.15 Cách tính Precision và Recall Dựa vào confusion matrix trên, ta có: − TP những điểm thuộc lớp C, dự đoán là lớp C − FP những điểm không thuộc lớp C, dự đoán là lớp C − TN những điểm thuộc lớp C, dự đoán không phải lớp C − FN những điểm không thuộc lớp C, dự đoán không phải lớp C Trong đó, TP và FN những điểm dự đoán đúng (xét lớp C) FP, TN những điểm dự đoán sai Dựa vào công thức trên, Precision tỉ lệ điểm thực thuộc lớp C tất cả các điểm dự đoán là lớp C, Recall tỉ lệ các điểm thuộc lớp C tất cả các điểm dự đoán đúng 58 Một mơ hình phân lớp tớt mơ hình có cả Precision và Recall đều cao, tức gần tốt 3.3.4 AP và mAP 3.3.4.1 Average Precision - AP Dựa vào việc quan sát giá trị của Precision và Recall, người ta đánh giá mơ hình có tớt hay khơng Ví dụ, ta có bảng theo dõi giá trị Precision Recall của lớp toán phân loại sau: Hình 3.16 Bảng quan sát giá trị Precision Recall Ta có AP diện tích phần phía đường theo dõi Và thường tính xấp xỉ bằng cơng thức: 𝐴𝑃 = ∑(𝑅𝑛 − 𝑅𝑛 − ) 𝑃𝑛 𝑛 Cơng thức tính diện tích phần phía đường màu xanh hình bên dưới: 59 Hình 3.17 Minh họa vùng mà AP tính tốn 3.3.4.2 Mean Average Precision – mAP AP đánh giá độ xác của mơ hình phân loại cho lớp nhất, vậy, với những tốn phân lớp có nhiều lớp, người ta tính trung bình giá trị AP của tất cả lớp bài toán để đánh giá cả mơ hình, giá trị trung bình gọi mAP 3.3.4.3 AP của COCO API Thực nghiệm đánh giá độ đo Average Precision (AP) theo tiêu chuẩn của COCO API Cụ thể, chúng tơi tính giá trị AP trung bình của 10 IoU từ 0.5 đến 0.95 với bước nhảy 0.05 Mặt khác, đánh giá độ xác giá trị IoU xác định (AP IoU = 0.5 AP IoU = 0.75) 3.4 Kết quả 3.4.1 Kết quả 3.4.1.1 Kết quả mô hình D2Det với backbone ResNet50 kết hợp FPN test 60 AP AP@0.5 AP@0.75 14.2 23.2 16.1 daylight 14.6 23.0 17.1 lowalt 43.7 59.6 53.6 birdview 11.1 17.8 12.0 daylight – lowalt – birdview 57.4 76.9 75.0 Bảng 3.2 Kết quả dự đoán của D2Det sử dụng backbone ResNet50 kết hợp FPN dữ liệu UAVDT-benchmark-M Mơ hình D2Det sử dụng backbone ResNet50 kết hợp với FPN huấn luyện khoảng 28 giờ Mô hình đạt kết quả tốt đới với trường hợp ảnh có cả thuộc tính daylight, low-alt, bird-view tập low-alt Còn lại, kết quả dự đoán của mơ hình tập test và các trường hợp khác đều không cao 3.4.1.2 Kết quả mô hình D2Det với backbone ResNet101 kết hợp FPN AP AP@0.5 AP@0.75 test 12.3 23.2 11.8 daylight 12.0 22.1 11.9 lowalt 21.4 35.4 24.3 birdview 12.6 24.3 12.0 daylight – lowalt – birdview 45.5 71.1 55.3 Bảng 3.3 Kết quả dự đoán của D2Det sử dụng backbone ResNet101 kết hợp FPN dữ liệu UAVDT-benchmark-M Mơ hình D2Det sử dụng backbone ResNet101 kết hợp với FPN huấn luyện khoảng 34 giờ Mô hình đạt kết quả tốt đối với trường hợp ảnh có cả thuộc tính daylight, low-alt, bird-view Mơ hình khơng hiệu quả đới với các trường hợp lại 61 3.4.2 Hình ảnh minh họa test – ResNet50 test – ResNet101 daylight – ResNet50 daylight – ResNet101 lowalt – ResNet50 lowalt – ResNet101 birdview – ResNet50 birdview – ResNet50 62 daylight - lowalt - birdview – ResNet50 daylight - lowalt - birdview – ResNet101 Hình 3.18 Hình ảnh minh họa kết quả dự đoán của mơ hình 3.4.3 Đánh giá mơ hình Từ kết quả thực nghiệm cho thấy cả mô hình D2Det với backbone ResNet 50 ResNet101 kết hợp FPN đều không hiệu quả đối với dữ liệu UAVDTbenchmark-M Trong đó, mơ hình D2Det sử dụng ResNet50 có thời gian huấn luyện ít cho kết quả tốt so với mơ hình sử dụng ResNet101, riêng trường hợp bird-view mơ hình ResNet101 có kết quả cao Cụ thể: − Đối với tập test, là tập ảnh có đầy đủ thuộc tính phức tạp của dữ liệu UAVDT-Benchmark-M kết quả dự đoán của cả mô hình D2Det đều thấp Nguyên nhân kể đến mơ hình huấn luyện để dự đoán các đối tượng car, truck, bus Đây là các đối tượng phương tiện giao thông mà không ảnh các đối tượng thường dễ bị nhầm lẫn với nhau, dẫn đến nhiều đối tượng gán nhãn nhiều lần Ngoài ra, với các ảnh có góc quay quá cao sẽ khiến các đối tượng ảnh nhỏ, cùng với các điều kiện phức tạp dẫn đến độ chính xác chưa cao − Xét riêng từng tình huống mà thực nghiệm (daylight, low-alt, birdview), kết quả dự đoán của cả mô hình đều thấp, trừ trường hợp low-alt mơ hình sử dụng ResNet50 cho kết quả AP = 43.7%, AP@0.5 = 59.6%, AP@0.75 = 53.6% Trong đó, so với trường hợp daylight bird-view, tập low-alt có kết quả tớt Ngun nhân kích thước của đới tượng quay ở độ cao thấp sẽ to nên dễ nhận diện Trong tập daylight, các đối tượng chụp vào ban ngày nên yếu tố màu sắc, 63 hình dạng phương tiện sẽ dễ phần biệt so với ảnh có thời tiết sương mù hoặc vào thời điểm ban đêm song vẫn bị hạn chế nhiều bởi ́u tớ kích thước đới tượng ảnh hưởng từ độ cao của camera Còn với tập bird-view, tương quan giữa các đối tượng car, truck, bus cũng với các đối tượng nền chụp thẳng từ xuống các điều kiện thời tiết, độ cao khác sẽ cao nên dễ nhầm lẫn Việc mơ hình cho kết quả tớt với low alt cũng cho thấy yếu tố kích thước đối tượng ảnh hưởng từ độ cao camera tác động nhiều đến hiệu quả của bài toán so với ́u tớ cịn lại Ngồi ra, chúng tơi thực nghiệm với tập ảnh có cả đặc điểm daylight, low-alt, bird-view, là tập đạt kết quả tốt bởi tập ảnh sẽ cải thiện hạn chế đó 64 Chương KẾT LUẬN VÀ HƯỚNG PHÁT TRIỂN 4.1 Kết quả đạt Trong đề tài này, đã hoàn thành mục tiêu chính đã đặt ra: − Có cái nhìn tổng quan về Computer Vision, số bài toán nổi bật của Computer Vision − Tìm hiểu bài toán phát đối tượng, đặc biệt là phát phương tiện giao thông không ảnh − Tìm hiểu dữ liệu UAVDT, xử lý dữ liệu bản cho quá trình huấn luyện − Nghiên cứu các sở lý thuyết về học sâu, về mô hình phát đối tượng: Faster R-CNN, D2Det,… − Cài đặt phương pháp phát đối tượng D2Det cho bài toán phát phương tiện giao thông không ảnh − Đánh giá mô hình dựa độ đo AP của COCO API 4.2 Hạn chế − Quá trình nghiên cứu gặp nhiều khó khăn chưa có đủ kiến thức nền tảng − Việc cài đặt phương pháp D2Det tốn nhiều thời gian chưa có kinh nghiệm giải quyết các lỗi phát sinh thiết lập cấu hình chạy thực nghiệm − Kết quả thực nghiệm chưa cao 4.3 Hướng phát triển − Tìm hiểu các phương pháp xử lý dữ liệu trước huấn luyện − Thực nghiệm với các kiến trúc mạng CNN khác để tìm phương án tốt − Tìm hiểu các dữ liệu khác để huấn luyện cho mô hình 65 TÀI LIỆU THAM KHẢO [1] Cao, J., Cholakkal, H., Anwer, R M., Khan, F S., Pang, Y., & Shao, L (2020) D2det: Towards high quality object detection and instance segmentation In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition (pp 11485-11494) [2] Du, D., Qi, Y., Yu, H., Yang, Y., Duan, K., Li, G., & Tian, Q (2018) The unmanned aerial vehicle benchmark: Object detection and tracking In Proceedings of the European Conference on Computer Vision (ECCV) (pp 370-386) [3] Razakarivony, S., & Jurie, F (2016) Vehicle detection in aerial imagery: A small target detection benchmark Journal of Visual Communication and Image Representation, 34, 187-203 [4] Zhu, P., Wen, L., Du, D., Bian, X., Hu, Q., & Ling, H (2020) Vision meets drones: Past, present and future arXiv preprint arXiv:2001.06303 [5] Ding, J., Zhu, Z., Xia, G S., Bai, X., Belongie, S., Luo, J., & Zhang, L (2018, August) Icpr2018 contest on object detection in aerial images (odai-18) In 2018 24th International Conference on Pattern Recognition (ICPR) (pp 1-6) IEEE [6] He, K., Zhang, X., Ren, S., & Sun, J (2016) Deep residual learning for image recognition In Proceedings of the IEEE conference on computer vision and pattern recognition (pp 770-778) [7] Ren, S., He, K., Girshick, R., & Sun, J (2016) Faster R-CNN: towards realtime object detection with region proposal networks IEEE transactions on pattern analysis and machine intelligence, 39(6), 1137-1149 66 [8] He, K., Gkioxari, G., Dollár, P., & Girshick, R (2017) Mask r-cnn In Proceedings of the IEEE international conference on computer vision (pp 2961-2969) [9] Dai, J., Qi, H., Xiong, Y., Li, Y., Zhang, G., Hu, H., & Wei, Y (2017) Deformable convolutional networks In Proceedings of the IEEE international conference on computer vision (pp 764-773) [10] Lin, T Y., Dollár, P., Girshick, R., He, K., Hariharan, B., & Belongie, S (2017) Feature pyramid networks for object detection In Proceedings of the IEEE conference on computer vision and pattern recognition (pp 2117-2125) 67 -Hết - 68 ... [1]) dữ liệu UAVDT [2] cho bài toán phát phương tiện giao thông không ảnh Loại hình giao thông đề cập nghiên cứu giao thông đường Các phương tiện giao thông bao gồm: xe ô tô (car), xe tải... TRƯỜNG ĐẠI HỌC CÔNG NGHỆ THÔNG TIN KHOA CÔNG NGHỆ PHẦN MỀM PHAN THỊ HỒNG CÚC – 18520260 BÁO CÁO ĐỒ ÁN Một Phương Pháp Phát Hiện Phương Tiện Giao Thông Trong Khơng Ảnh KỸ SƯ NGÀNH CƠNG... thông o Phát theo dõi phương tiện giao thông o Tính toán lưu lượng phương tiện để đưa các phương pháp cải thiện tình trạng giao thông ùn tắc, tai nạn o Phát bất thường của các phương

Ngày đăng: 08/03/2022, 21:37

Nguồn tham khảo

Tài liệu tham khảo Loại Chi tiết
[1] Cao, J., Cholakkal, H., Anwer, R. M., Khan, F. S., Pang, Y., & Shao, L. (2020). D2det: Towards high quality object detection and instance segmentation. In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition (pp. 11485-11494) Sách, tạp chí
Tiêu đề: Proceedings of the IEEE/CVF conference on computer vision and pattern recognition
Tác giả: Cao, J., Cholakkal, H., Anwer, R. M., Khan, F. S., Pang, Y., & Shao, L
Năm: 2020
[2] Du, D., Qi, Y., Yu, H., Yang, Y., Duan, K., Li, G., ... & Tian, Q. (2018). The unmanned aerial vehicle benchmark: Object detection and tracking. In Proceedings of the European Conference on Computer Vision (ECCV) (pp.370-386) Sách, tạp chí
Tiêu đề: Proceedings of the European Conference on Computer Vision
Tác giả: Du, D., Qi, Y., Yu, H., Yang, Y., Duan, K., Li, G., ... & Tian, Q
Năm: 2018
[3] Razakarivony, S., & Jurie, F. (2016). Vehicle detection in aerial imagery: A small target detection benchmark. Journal of Visual Communication and Image Representation, 34, 187-203 Sách, tạp chí
Tiêu đề: Journal of Visual Communication and Image Representation
Tác giả: Razakarivony, S., & Jurie, F
Năm: 2016
[5] Ding, J., Zhu, Z., Xia, G. S., Bai, X., Belongie, S., Luo, J., ... & Zhang, L. (2018, August). Icpr2018 contest on object detection in aerial images (odai-18). In 2018 24th International Conference on Pattern Recognition (ICPR) (pp. 1-6).IEEE Sách, tạp chí
Tiêu đề: 2018 24th International Conference on Pattern Recognition
Tác giả: Ding, J., Zhu, Z., Xia, G. S., Bai, X., Belongie, S., Luo, J., ... & Zhang, L
Năm: 2018
[6] He, K., Zhang, X., Ren, S., & Sun, J. (2016). Deep residual learning for image recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 770-778) Sách, tạp chí
Tiêu đề: Proceedings of the IEEE conference on computer vision and pattern recognition
Tác giả: He, K., Zhang, X., Ren, S., & Sun, J
Năm: 2016
[7] Ren, S., He, K., Girshick, R., & Sun, J. (2016). Faster R-CNN: towards real- time object detection with region proposal networks. IEEE transactions on pattern analysis and machine intelligence, 39(6), 1137-1149 Sách, tạp chí
Tiêu đề: IEEE transactions on pattern analysis and machine intelligence, 39
Tác giả: Ren, S., He, K., Girshick, R., & Sun, J
Năm: 2016
[8] He, K., Gkioxari, G., Dollár, P., & Girshick, R. (2017). Mask r-cnn. In Proceedings of the IEEE international conference on computer vision (pp.2961-2969) Sách, tạp chí
Tiêu đề: Proceedings of the IEEE international conference on computer vision
Tác giả: He, K., Gkioxari, G., Dollár, P., & Girshick, R
Năm: 2017
[9] Dai, J., Qi, H., Xiong, Y., Li, Y., Zhang, G., Hu, H., & Wei, Y. (2017). Deformable convolutional networks. In Proceedings of the IEEE international conference on computer vision (pp. 764-773) Sách, tạp chí
Tiêu đề: Proceedings of the IEEE international conference on computer vision
Tác giả: Dai, J., Qi, H., Xiong, Y., Li, Y., Zhang, G., Hu, H., & Wei, Y
Năm: 2017
[10] Lin, T. Y., Dollár, P., Girshick, R., He, K., Hariharan, B., & Belongie, S. (2017). Feature pyramid networks for object detection. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 2117-2125) Sách, tạp chí
Tiêu đề: Proceedings of the IEEE conference on computer vision and pattern recognition
Tác giả: Lin, T. Y., Dollár, P., Girshick, R., He, K., Hariharan, B., & Belongie, S
Năm: 2017
[4] Zhu, P., Wen, L., Du, D., Bian, X., Hu, Q., & Ling, H. (2020). Vision meets drones: Past, present and future. arXiv preprint arXiv:2001.06303 Khác

TRÍCH ĐOẠN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

w