1. Trang chủ
  2. » Giáo Dục - Đào Tạo

đồ án nâng cao hiệu suất phát hiện đối tượng trên bộ dữ liệu không ảnh chứa sương mờ

55 5 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 55
Dung lượng 2,64 MB

Nội dung

ĐẠI HỌC QUỐC GIA TP HỒ CHÍ MINH TRƯỜNG ĐẠI HỌC CÔNG NGHỆ THÔNG TIN TRẦN TUẤN MINH - 18520314 TRẦN VĂN BẢO - 18520499 BÁO CÁO ĐỒ ÁN NÂNG CAO HIỆU SUẤT PHÁT HIỆN ĐỐI TƯỢNG TRÊN TẬP DỮ LIỆU KHƠNG ẢNH CHỨA SƯƠNG MỜ TP HỒ CHÍ MINH, 2021 ĐẠI HỌC QUỐC GIA TP HỒ CHÍ MINH TRƯỜNG ĐẠI HỌC CÔNG NGHỆ THÔNG TIN TRẦN TUẤN MINH - 18520314 TRẦN VĂN BẢO - 18520499 BÁO CÁO ĐỒ ÁN NÂNG CAO HIỆU SUẤT PHÁT HIỆN ĐỐI TƯỢNG TRÊN TẬP DỮ LIỆU KHÔNG ẢNH CHỨA SƯƠNG MỜ TP HỒ CHÍ MINH, 2021 LỜI CẢM ƠN Lời đầu tiên, nhóm tác giả chân thành cảm ơn quý thầy TS Nguyễn Tấn Trần Minh Khang – giảng viên hướng dẫn đồ án Thầy người tạo động lực hội cho nhóm tác giả thực đồ án nghiên cứu khoa học Đồng thời, nhóm gửi lời cảm ơn sâu sắc đến quý thầy ThS Võ Duy Nguyên giúp đỡ, hướng dẫn, sửa chữa đóng góp nhiều ý kiến quý báu xuyên suốt q trình thực đồ án Nhóm tác giả xin chân thành cảm ơn tập thể quý thầy cô trường Đại học Công nghệ Thông tin, đặc biệt q thầy khoa Cơng nghệ Phần mềm, phịng thí nghiệm Truyền thông Đa phương tiện MMLab truyền đạt kiến thức, hỗ trợ nhiệt tình tạo điều kiện đầy đủ cho nhóm thực đồ án thời gian qua Nhóm tác giả gửi lời cảm ơn đến anh chị em, người bạn đồng hành bên cạnh đồng cảm, giúp đỡ lúc nhóm khó khăn, bỡ ngỡ ban đầu Tuy nhiên trình thực hiện, kiến thức kinh nghiệm cịn hạn chế, khó tránh khỏi sai sót Chính vậy, nhóm tác giả mong nhận góp ý từ q thầy để hồn thiện kiến thức, lấy làm hành trang q báu cơng việc sau Xin chân thành cảm ơn quý thầy cô ! Trần Tuấn Minh Trần Văn Bảo i MỤC LỤC MỤC LỤC i DANH MỤC HÌNH iv DANH MỤC BẢNG vi TÓM TẮT Chương TỔNG QUAN ĐỀ TÀI 1.1 Động lực nghiên cứu 1.2 Phát biểu toán .2 1.3 Các thách thức 1.4 Mục tiêu phạm vi nghiên cứu 1.5 Đóng góp đồ án 1.6 Cấu trúc báo cáo đồ án .6 Chương CƠ SỞ LÝ THUYẾT VÀ CÁC NGHIÊN CỨU LIÊN QUAN 2.1 Giới thiệu tổng quan .7 2.2 Thị giác máy tính .8 2.3 Một số sở lý thuyết 10 2.3.1 Mạng nơ-ron 10 2.3.1.1 Nơ-ron nhân tạo 10 2.3.1.2 Hàm kích hoạt .12 2.3.2 Mạng nơ-ron tích chập .13 2.3.2.1 Fully Connected Layer - FC Layer .14 2.3.2.2 Convolutional Layer 15 2.3.2.3 Pooling Layer .16 2.3.3 Phát đối tượng 17 ii 2.3.3.1 Tổng quan 17 2.3.3.2 Phân loại .19 2.3.3.3 Ứng dụng 20 2.4 Nghiên cứu liên quan .20 2.4.1 Những liệu 20 2.4.2 Những hướng tiếp cận 24 2.4.2.1 Khử sương mờ đơn ảnh 25 2.4.2.2 Feature Fusion Attention Network (FFA-Net) 26 2.4.2.3 Phát trực tiếp ảnh sương mờ 30 Chương BỘ DỮ LIỆU UIT-DRONEFOG 31 3.1 Bộ liệu UIT-Drone21 31 3.2 Mô sương mờ 32 3.3 Mô tả liệu .34 Chương PHƯƠNG PHÁP CƠ SỞ 36 4.1 Phát đối tượng 36 4.1.1 Cascade RCNN 36 4.1.1 Double Heads 37 4.1.2 Guided Anchoring .38 4.2 Hàm mát 38 4.3 Phương pháp đề xuất 39 Chương THỰC NGHIỆM VÀ KẾT QUẢ 40 5.1 Cài đặt thực nghiệm .40 5.2 Chỉ số đánh giá .40 5.3 Phân tích 40 iii Chương KẾT LUẬN VÀ HƯỚNG PHÁT TRIỂN .44 6.1 Kết luận 44 6.2 Thuận lợi 44 6.3 Khó khăn 44 6.4 Hướng phát triển 44 TÀI LIỆU THAM KHẢO 45 iv DANH MỤC HÌNH Hình 1.1 Phát đối tượng không ảnh chứa sương mờ với đầu vào ảnh sương mờ đầu vị trí đối tượng ảnh Hình 2.1 Mối quan hệ AI, Machine Learning Deep Learning Hình 2.2 Sơ đồ mối liên hệ kĩ thuật Computer Vision Hình 2.3 Cấu tạo nơ ron thần kinh 11 Hình 2.4 Kiến trúc mạng nơ-ron nhân tạo 11 Hình 2.5 Công thức đồ thị số hàm kích hoạt .12 Hình 2.6 Một quy trình CNN để phân loại chữ số viết tay 13 Hình 2.7 Minh họa FC layer 14 Hình 2.8 Minh họa Convolution Layer 15 Hình 2.9 Minh họa Pooling Layer 16 Hình 2.10 Các kỹ thuật Phát đối tượng 17 Hình 2.11 Phân loại phương pháp phát đối tượng 19 Hình 2.12 Hình ảnh minh họa liệu FRIDA 21 Hình 2.13 Hình ảnh minh họa liệu Foggy Driving 22 Hình 2.14 Hình ảnh minh họa liệu RESIDE 23 Hình 2.15 Hình ảnh minh họa liệu O-haze 24 Hình 2.16 Ảnh thể mức độ hiệu FFA-Net so với phương pháp khử mờ khác liệu RESIDE 27 Hình 3.1 Một số hình ảnh liệu UIT-Drone21 31 Hình 3.2 Kết mô sương mờ 33 Hình 3.3 Hình ảnh minh họa liệu UIT-DroneFog 34 Hình 3.4 Thống kê liệu UIT-DroneFog .35 Hình 4.1 So sánh cấu trúc Faster R-CNN Cascade R-CNN .36 Hình 4.2 So sánh cấu trúc Single Head Double Heads 37 Hình 4.3 Minh họa cấu trúc Guided Anchring 38 Hình 5.1 Ví dụ trường hợp dự đốn sử dụng cấu hình mặc định Các bounding box màu cam dự đoán màu xanh ground truth .41 v Hình 5.2 So sánh kết thử nghiệm Double Heads CasDou với hàm mát Cross-entropy Focal Loss Các bounding box màu cam dự đoán màu xanh groundtruth 43 vi DANH MỤC BẢNG Bảng 2.1 Thống kê liệu công bố 24 Bảng 5.1 Kết thực nghiệm với config mặc định Hiệu suất tốt in đậm 41 Bảng 5.2 Kết thực nghiệm thay đổi hàm mát Hiệu suất tốt in đậm 42 TÓM TẮT Những năm gần đây, nhiều nghiên cứu khoa học phát đối tượng thực điều kiện thời tiết tốt chưa nhiều không ảnh chứa sương mù Trong đồ án lần này, nhóm nghiên cứu giải nhiệm vụ phát đối tượng không ảnh chứa sương mù Đầu tiên, nhóm tạo liệu UIT-DroneFog triển khai cách mô sương mù (tham khảo từ thư viện imgaug) 15370 không ảnh thu thập từ liệu UIT-Drone21 Bộ liệu chứa đối tượng phổ biến giao thông Việt Nam bao gồm: Pedestrian, Motor, Xe tơ, Bus Thứ hai, nhóm sử dụng hai phương pháp phát đối tượng đại: Guided Anchoring Double Heads Các kết thực nghiệm cho thấy Double Heads đạt điểm mAP cao hơn, cụ thể 33,20% Ngồi ra, nhóm đề xuất phương pháp mang tên CasDou – kết hợp Cascasde RCNN, Double Head Focal Loss CasDou cải thiện đáng kể điểm mAP, cụ thể lên đến 34,70% Đánh giá toàn diện ưu, nhược điểm phương pháp, tảng nghiên cứu cho công việc tương lai 3.2 Mô sương mờ Trong công việc này, thư viện imgaug sử dụng để tạo sương mờ tổng hợp cho liệu nhóm nghiên cứu Nhóm mơ sương mờ liệu UIT-Drone21 việc sử dụng lớp Fog thư viện với thông số khác xác định trước Lớp mô lớp sương mờ dày đặc ảnh với mật độ khơng Tuy nhiên, để mơ phù hợp với kích thước hình ảnh liệu chọn, nhóm định chỉnh hai thông số 𝑎𝑙𝑝ℎ𝑎_𝑚𝑖𝑛 = 0.75, 𝑑𝑒𝑛𝑠𝑖𝑡𝑦_𝑚𝑢𝑙𝑡𝑖𝑝𝑙𝑖𝑒𝑟 = 0.7 giữ nguyên thông số mặc định thư viện Trong đó, thơng số 𝑎𝑙𝑝ℎ𝑎_𝑚𝑖𝑛 (giá trị mặc định (0.7-0.9)) cho biết mức tối thiểu giá trị alpha mơ sương mờ lên hình ảnh Việc tăng giá trị giúp sương mờ phân bố Trong đó, thơng số density_multiplier (giá trị mặc định (0.4-0.9)) hệ số nhân cho lớp alpha mask Khi tăng giá trị thông số lên cao dẫn tới việc sương mờ trở nên dày đặc nơi chúng xuất Kết mô sương mờ thể Hình 3.2 32 Hình 3.2 Kết mô sương mờ 33 3.3 Mô tả liệu UIT-DroneFog xem phiên sương mờ UIT-Drone21, điều có nghĩa liệu kế thừa tất thuộc tính (số lượng hình ảnh, lớp đối tượng bounding box đề cập phần 3.1) Ngồi ra, liệu UITDroneFog có điểm bật riêng như: • Hình ảnh đa dạng có chất lượng cao: Q trình mơ sương mờ sử dụng hình ảnh chụp lại từ máy bay không người lái cao cấp với độ phân giải khác (3840x2160, 1920x1080, 1440x1080) dẫn đến hình ảnh sương mờ nhóm đạt chất lượng tốt khơng bị mờ, lệch chuẩn hay bị che khuất • Bối cảnh đa dạng: hình ảnh liệu nhóm Chúng khác phân bố sương mờ, góp chụp độ cao Hơn nữa, nhóm mơ sương mờ khơng địa điểm định mà nhiều nơi khác thành phố khác Việt Nam • Thách thức từ lớp liệu: Bởi liệu thực đường phố Việt Nam, phần lớn đối tượng xe máy Sự cân thách thức để việc phát hoạt động hiệu Bên cạnh đó, việc xe máy có kích thước nhỏ xuất dày đặc đường dẫn đến khó phát nhanh đối tượng Hình ảnh minh họa liệu nhóm trình bày Hình 3.4 Đồng thời, nhóm thống kê số lượng lớp đối tượng trực quan lên Hình 3.5 Hình 3.3 Hình ảnh minh họa liệu UIT-DroneFog 34 Hình 3.4 Thống kê liệu UIT-DroneFog 35 Chương PHƯƠNG PHÁP CƠ SỞ 4.1 Phát đối tượng Trong đồ án này, nhóm sử dụng hai phương pháp phát đối tượng SOTA đề xuất phương pháp có tên CasDou để đánh giá liệu UIT-DroneFog Chi tiết phương pháp trình bày sau 4.1.1 Cascade RCNN Cascade R-CNN phương pháp phát đối tượng nhiều giai đoạn Cascade R-CNN bao gồm nhiều detector đào tạo với ngưỡng IoU ngày tăng để chọn lọc phát kết dương tính giả Hơn nữa, đầu sử dụng cho detector sau phân phối tốt để đào tạo detector chất lượng cao giai đoạn sau Phương pháp tối ưu hóa việc hồi quy cho phân phối bounding box, tạo phân phối trước khơng phải phân phối ban đầu Cascade R-CNN đạt thành công việc cải thiện bước dự đốn q trình huấn luyện phân phối Hình 4.1 So sánh cấu trúc Faster R-CNN Cascade R-CNN “I” ảnh đầu vào, “conv” backbone convolutions, “pool” region-wise feature extraction, “H” network head, “B” bounding box, “C” classification “B0” vùng đề xuất 36 4.1.1 Double Heads Kiến trúc two-head sử dụng phổ biến sở phát đối tượng RCNN với nhiệm vụ classification localization Nó bao gồm convolution head (conv-head) fully connected head (fc-head) Tuy nhiên, kiến trúc two-head sở hữu ưu điểm ngược nhiệm vụ Cụ thể, conv-head phù hợp với nhiệm vụ localization, fc-head phù hợp với nhiệm vụ classification Dựa phát này, Yue WU đề xuất phương pháp Double Head RCNN với conv-head hồi quy bounding box fc-head classification Phương pháp tác giả đạt 3.5 2.8 AP liệu MS COCO từ FPN baseline với backbone ResNet-50 ResNet-101 Hình 4.2 So sánh cấu trúc Single Head Double Heads 37 4.1.2 Guided Anchoring Guided Anchoring đề xuất cách sử dụng anchors mà không sử dụng tập hợp kích thước tỷ lệ co xác định trước giống cách hoạt động Faster R-CNN Các tác giả đề xuất phương pháp dự đốn kết hợp vị trí mà trung tâm đối tượng quan tâm tồn thông qua đồ xác suất thu từ đồ đặc trưng đầu vào Sau đó, tỷ lệ tỷ lệ co tập trung vị trí tương ứng dự đốn Dựa hình dạng vị trí mỏ neo dự đốn, mơ-đun điều chỉnh tính sử dụng để giảm thiểu không quán đặc trưng Với số lượng anchors 90% so với RPN baseline, tác giả đạt mức recall cao 9,1% MS COCO thơng qua thí nghiệm họ Hình 4.3 Minh họa cấu trúc Guided Anchring 4.2 Hàm mát Hàm mát giữ vai trò quan trọng nhiệm vụ phát đối tượng Một số hàm mát sử dụng phổ biến crossentropy (CE) CE dựa ý tưởng phạt dự đoán sai đề cao dự đoán Hàm mát CE định nghĩa theo công thức sau: ℒ𝐶𝐸 (𝑝𝑡 ) = −𝑙𝑜𝑔(𝑝𝑡 ) 38 Trong 𝑝𝑡 xác suất lớp 𝑡 Bên cạnh đó, hàm Focal Loss (FL) với khả xử lý vấn đề cân bằng cách gán nhiều trọng số cho mẫu khó dễ phân loại sai Vì FL đề xuất phiên khác hàm mát CE Focal Loss định nghĩa sau: ℒ𝐶𝐸 (𝑝𝑡 ) = −𝛼 (1 − 𝑝𝑡 )𝛾 𝑙𝑜𝑔(𝑝𝑡 ) Trong 𝛼 hệ số cân Focal Loss với giá trị mặc định 0.25; gamma 𝛾 dùng để tính hệ số điều biến mặc định 2.0 4.3 Phương pháp đề xuất Như mô tả trên, Double Heads đề xuất mơ-đun dễ dàng gán cho detector khác, tương tự Faster RCNN Do đó, nhóm định gắn Double Heads vào Cascade RCNN sau đánh giá phương pháp tập liệu UIT-DroneFog Sau phân tích kết quả, nhóm tiếp tục thay đổi hàm mát mặc định cross-entropy thành Focal Loss gọi phương pháp CasDou 39 Chương THỰC NGHIỆM VÀ KẾT QUẢ 5.1 Cài đặt thực nghiệm Bộ liệu UIT-DroneFog nhóm chưa thành tập con: training (8,582 ảnh), validation (1,061 ảnh) testing (5,729) đề cập Tồn q trình thực nghiệm thực GPU GeForce RTX 2080 Ti với nhớ 11018 MiB Nhóm huấn luyện mơ hình cách sử dụng framework MMDetection V2.10.0 Với model, nhóm sử dụng config điểm mAP cao (được cung cấp trang MMDetection Github) kết nối GPU GeForce RTX 2080 Ti Trong phần Guided Anchoring, nhóm sử dụng config mặc định GA Faster RCNN với backbone X-101-32x4d-FPN 12 epoch backbone R-50RPN 12 epoch để so sánh với Double Heads mặc định 5.2 Chỉ số đánh giá Nhóm sử dụng trọng số tốt tập validation để dự đoán báo cáo kết tập testing thông qua độ đo mAP để đánh giá hiệu suất mơ hình, tương tự thi phát đối tượng liệu MS COCO Độ đo AP tính 5.3 Phân tích Nhìn chung, kết thực nghiệm Bảng 5.1 cho thấy Guided Anchoring có kết thấp Double Heads Về điểm mAP, Guided Anchoring đạt hiệu suất với 31.39%, nhiên, đạt kết tốt phát Pedestrian (2.60%) Motor (35.10%) Trong đó, Double Heads cho thấy hiệu phát Car Bus, đặc biệt kết với Bus 39.20% (cao 5.40% so với Guided Anchoring) Trực quan hóa thực Hình 5.1 40 Phương pháp Guided Anchoring Double Heads Pedestrian Motor Car Bus 2.60 1.60 mAP AP50 AP75 35.10 56.10 33.80 31.90 46.50 36.70 33.20 58.70 39.20 33.20 47.50 38.90 Bảng 5.1 Kết thực nghiệm với config mặc định Hiệu suất tốt in đậm (a) Guided Anchoring (b) Double Heads Hình 5.1 Ví dụ trường hợp dự đốn sử dụng cấu hình mặc định Các bounding box màu cam dự đoán màu xanh ground truth Hơn nữa, Double Heads có kết phát tốt hơn, nhóm định cải thiện mơ hình cách kết hợp với Cascade đặt tên CasDou Lý nhóm thực kết hợp Cascade RCNN có kiến trúc tương tự Faster RCNN (cấu hình mặc định Double Heads) hiệu Faster RCNN với backbone Sau đó, nhóm tiến hành thử nghiệm mở rộng với Double Heads CasDou Tuy nhiên, hai mơ hình khác biệt 0.1% kết Điều có nghĩa nhóm gắn mơ hình Double Heads vào Cascade RCNN thay sử dụng 41 Faster RCNN config mặc định, kết phát đổi tượng không cải thiện mong đợi Hơn nữa, nhóm nhận thấy mơ hình gặp khó khăn với tính chất cân đặc trưng liệu liệu Pedestrian Motor hai đối tượng chiếm tỉ lệ phân bố cao (khoảng 13.31% 77.84%) liệu UIT-DroneFog, thường dễ bị nhầm lẫn với phát hình ảnh Ngồi ra, đối tượng Bus xuất liệu nhất, sau sử dụng CasDou thay Guided Anchoring, tăng từ 33.80% lên 39.20% Do đó, nhóm tiếp tục từ việc thay đổi hàm mát từ CrossEntropy Loss (CE) (config mặc định) sang Focal Loss (FL) Double Heads CasDou Điều chứng minh nghiên cứu trước nhằm giảm nhầm lẫn lớp dự đoán đối tượng Như dự đoán, hai mơ hình đạt hiệu suất cao lớp điểm mAP, đặc biệt điểm mAP CasDou tăng lên 34.70% Việc phát sai đối tượng kích thước nhỏ phát thiếu đối tượng Car, Bus giảm đáng kể (thể Hình 5.2) Nhìn chung, nhóm cải thiện hiệu lớp: Pedestrian, Car Bus Các kết hình ảnh trực quan minh chứng việc sử dụng hàm Focal Loss đạt kết tốt vấn đề phát đối tượng không ảnh giao thông chứa sương mờ Phương Hàm Pedest pháp mát rian Double CE 1.60 Heads FL Motor Car Bus mAP AP50 AP75 33.20 58.70 39.20 33.20 47.50 38.90 2.20 34.10 57.70 41.00 33.70 49.30 39.00 CE 2.30 34.50 57.20 39.20 33.30 47.80 39.00 FL 2.70 34.20 59.30 42.50 34.70 50.20 40.30 CasDou Bảng 5.2 Kết thực nghiệm thay đổi hàm mát Hiệu suất tốt in đậm 42 Hình 5.2 So sánh kết thử nghiệm Double Heads CasDou với hàm mát Cross-entropy Focal Loss Các bounding box màu cam dự đoán màu xanh groundtruth 43 Chương KẾT LUẬN VÀ HƯỚNG PHÁT TRIỂN 6.1 Kết luận Trong đồ án lần này, nhóm giới thiệu liệu khơng ảnh chứa sương mờ UIT-DroneFog gồm lớp đối tượng Pedestrian, Motor, Car Bus với tổng cộng 15,372 ảnh khoảng 600.000 bounding box tương ứng Nhóm tiến hành thử nghiệm hai phương pháp SOTA: Guided Anchoring, Double Heads phương pháp đề xuất có tên CasDou liệu nhóm Qua thử nghiệm mở rộng, CasDou đạt điểm mAP cao 34.70% 6.2 Thuận lợi Trong suốt trình thực nghiên cứu nhận giúp đỡ giáo viên hướng dẫn, phòng ban thành viên nhóm nghiên cứu Nhóm sử dụng GPU cung cấp MMLab, điều giúp thời gian huấn luyện mơ hình tối ưu 6.3 Khó khăn Q trình chuẩn bị liệu huấn luyện nhiều thời gian để tinh chỉnh mô sương mờ phù hợp, bên cạnh kích thước nhỏ mật độ đối tượng cao gây cản trở việc phát đối tượng 6.4 Hướng phát triển Trong tương lai, nhóm tiếp tục mở rộng phát triển tập liệu UITDroneFog lên số lượng lớn nhiều mức độ sương mờ khác cách áp dụng thuật tốn khác Hơn nữa, nhóm xây dựng ứng dụng di động phát trực tiếp phương tiện điều kiện thời tiết sương mờ sử dụng cho nhiều mục đích khác 44 TÀI LIỆU THAM KHẢO [1] Codruta O Ancuti, Cosmin Ancuti, Radu Timofte, and Christophe De Vleeschouwer “O-haze: a dehazing benchmark with real hazy and haze-free outdoor images” In: Proceedings of the IEEE conference on computer vision and pattern recognition workshops 2018, pp 754–762 [2] Zhaowei Cai and Nuno Vasconcelos “Cascade r-cnn: Delving into high quality object detection” In: Proceedings of the IEEE conference on computer vision and pattern recognition 2018, pp 6154–6162 [3] Kai Chen et al “Mmdetection: Open mmlab detection toolbox and benchmark” In: arXiv preprint arXiv:1906.07155 (2019) [4] Quynh M Chung et al “Data Augmentation Analysis in Vehicle Detection from Aerial Videos” In: 2020 RIVF International Conference on Computing and Communication Technologies (RIVF) 2020, pp 1–3 DOI: 10 1109/RIVF48685.2020.9140740 [5] Boyi Li et al “Benchmarking single-image dehazing and beyond” In: IEEE Transactions on Image Processing 28.1 (2018), pp 492–505 [6] Khang Nguyen et al “Detecting Objects from Space: An Evaluation of Deep-Learning Modern Approaches” In: Electronics 9.4 (2020), p 583 [7] Mario Pavlic, Gerhard Rigoll, and Slobodan Ilic “Classification of images in fog and fog-free scenes for use in vehicles”.In: 2013 IEEE Intelligent Vehicles Symposium (IV) IEEE 2013, pp 481–486 [8] XuQin,ZhilinWang,YuanchaoBai,XiaodongXie,and Huizhu Jia “FFANet: Feature fusion attention network for single image dehazing” In: Proceedings of the AAAI Conference on Artificial Intelligence Vol 34 07 2020, pp 11908–11915 [9] Christos Sakaridis, Dengxin Dai, and Luc Van Gool “Semantic foggy scene understanding with synthetic data” In: International Journal of Computer Vision 126.9 (2018), pp 973–992 45 [10] Rita Spinneker, Carsten Koch, Su-Birm Park, and Jason JeongsukYoon.“Fastfogdetectionforcamerabasedadvanceddriverassistancesystems” In:17thInternational IEEE Conference on Intelligent Transportation Systems (ITSC) IEEE 2014, pp 1369–1374 [11] Jean-Philippe Tarel, Nicolas Hautiere, Aurélien Cord, Dominique Gruyer, and Houssam Halmaoui “Improved visibility of road scene images under heterogeneous fog” In: 2010 IEEE Intelligent Vehicles Symposium IEEE 2010, pp 478–485 [12] Jean-Philippe Tarel et al “Vision enhancement in homogeneous and heterogeneous fog” In: IEEE Intelligent Transportation Systems Magazine 4.2 (2012), pp 6–20 [13] Jiaqi Wang, Kai Chen, Shuo Yang, Chen Change Loy, and Dahua Lin “Region Proposal by Guided Anchoring” In: IEEE Conference on Computer Vision and Pattern Recognition 2019 [14] Yue Wu et al “Rethinking Classification and Localization for Object Detection” In: (2019) arXiv: 1904 06493 [cs.CV] 46 ... thúc nhóm thực tìm hiểu, thử nghiệm, nghiên cứu đồ án ? ?Nâng cao hiệu suất phát đối tượng liệu không ảnh chứa sương mờ? ?? 1.2 Phát biểu toán Phát đối tượng bước cốt lõi để phân tích video thu thập... nhận hình ảnh sương mờ sau trả vị trí đối tượng (nếu có) ảnh đầu vào Đầu vào Đầu Hình 1.1 Phát đối tượng không ảnh chứa sương mờ với đầu vào ảnh sương mờ đầu vị trí đối tượng ảnh 1.3 Các thách... TRẦN TUẤN MINH - 18520314 TRẦN VĂN BẢO - 18520499 BÁO CÁO ĐỒ ÁN NÂNG CAO HIỆU SUẤT PHÁT HIỆN ĐỐI TƯỢNG TRÊN TẬP DỮ LIỆU KHƠNG ẢNH CHỨA SƯƠNG MỜ TP HỒ CHÍ MINH, 2021 LỜI CẢM ƠN Lời đầu tiên, nhóm

Ngày đăng: 08/03/2022, 21:37

TRÍCH ĐOẠN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

w