1. Trang chủ
  2. » Luận Văn - Báo Cáo

Khóa luận: PHÂN LOẠI HÌNH THÁI CÂY TRỒNG DỰA TRÊN HỌC MÁY PHỤC VỤ HỆ THỐNG TƯỚI TIÊU TỰ ĐỘNG

50 0 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Deep learning (Học sâu) kết hợp với các kỹ thuật xử lí hình ảnh hiện đại hoàn toàn có thể cho chúng ta một hệ thống tự động nhận diện các giai đoạn phát triển của một giống cây trồng và từ đó đưa lượng nước phù hợp với nhu cầu của cây. Bài khóa luận tốt nghiệp này sẽ sử dụng Yolov4, mô hình phát hiện và xác định vật thể dựa trên xử lí hình ảnh, các thuật toán deep learning và những dữ liệu hình ảnh được thu thập thực tế để xác định các giai đoạn phát triển của cây bắp cải.

ĐẠI HỌC QUỐC GIA HÀ NỘI TRƯỜNG ĐẠI HỌC CÔNG NGHỆ Đỗ Đức Bình PHÂN LOẠI HÌNH THÁI CÂY TRỒNG DỰA TRÊN HỌC MÁY PHỤC VỤ HỆ THỐNG TƯỚI TIÊU TỰ ĐỘNG KHĨA LUẬN TỐT NGHIỆP ĐẠI HỌC HỆ CHÍNH QUY Ngành: Công nghệ kỹ thuật Điện tử, Truyền thông HÀ NỘI - 2021 ĐẠI HỌC QUỐC GIA HÀ NỘI TRƯỜNG ĐẠI HỌC CƠNG NGHỆ Đỗ Đức Bình PHÂN LOẠI HÌNH THÁI CÂY TRỒNG DỰA TRÊN HỌC MÁY PHỤC VỤ HỆ THỐNG TƯỚI TIÊU TỰ ĐỘNG KHÓA LUẬN TỐT NGHIỆP ĐẠI HỌC HỆ CHÍNH QUY Ngành: Cơng nghệ kỹ thuật Điện tử, Truyền thông Cán hướng dẫn: TS Trần Thị Thúy Quỳnh HÀ NỘI - 2021 LỜI CAM ĐOAN Tơi xin cam đoan đề tài “Phân loại hình thái trồng dựa học máy phục vụ hệ thống tưới tiêu tự động” TS Trần Thị Thúy Quỳnh hướng dẫn cơng trình nghiên cứu tơi Các nội dung nghiên cứu kết Khóa luận tốt nghiệp trung thực không chép từ cơng trình người khác Tất tài liệu tham khảo sử dụng Khóa luận ghi rõ nguồn gốc tên tác giả Nếu có sai sót, tơi xin hồn tồn chịu trách nhiệm Hà Nội, ngày 30 tháng năm 2021 Tác giả Đỗ Đức Bình LỜI CẢM ƠN Em xin bày tỏ lịng biết ơn sâu sắc tới cô TS Trần Thị Thúy Quỳnh ln tận tình hỗ trợ em kiến thức, phương pháp học tập, nghiên cứu để hoàn thành Khóa luận tốt nghiệp Em xin gửi lời cảm ơn tới thầy cô Khoa Điện tử-Viễn thông, Trường Đại học Công nghệ, Đại học Quốc gia Hà Nội, đặc biệt thầy cô Bộ môn Thông tin vô tuyến, giảng dạy cho em kiến thức quý giá, dành cho em điều kiện tốt suốt trình học tập thực Khóa luận Em xin cảm ơn anh Đỗ Hải Sơn – nghiên cứu viên Viện tiên tiến Kỹ thuật Công nghệ, Trường Đại học Công Nghệ hỗ trợ em tiến hành thực nghiệm kiểm thử kết Khóa luận Cuối cùng, xin gửi lời cảm ơn đến gia đình, người thân, bạn bè bên cạnh động viên giúp đỡ suốt thời gian qua Tình cảm người niềm khích lệ to lớn giúp có thành ngày hơm Trong q trình thực khóa luận, thời gian, kiến thức điều kiện nghiên cứu số hạn chế nên khơng tránh khỏi thiếu sót, em mong nhận ý kiến đóng góp từ thầy để tiếp tục phát triển đề tài Hà Nội, ngày 30 tháng năm 2021 Đỗ Đức Bình TĨM TẮT Tóm tắt: Nước nguồn cung thiết yếu cho loài thực vật để tồn phát triển Cây sống nơi ẩm ướt hay khô hạn phải hút nước có đất để ni cây, lượng nước có ỏi phù hợp với nhu cầu Cùng loại giai đoạn phát triển khác cần lượng nước khác để phát triển Biết nhu cầu nước để có chế độ tưới tiêu phù hợp cho loại cây, thời kì phát triển điều vô quan trọng muốn trồng đạt suất cao Hiện mơ hình nơng nghiệp thông minh giới thường sử dụng cảm biến độ ẩm, nhiệt độ phải cần đến can thiệp người việc đưa định lượng nước tưới cần thiết, phù hợp cho trồng Biện pháp chưa thực hiệu yêu cầu người trồng phải có kinh nghiệm cao Deep learning (Học sâu) kết hợp với kỹ thuật xử lí hình ảnh đại hồn tồn cho hệ thống tự động nhận diện giai đoạn phát triển giống trồng từ đưa lượng nước phù hợp với nhu cầu Bài khóa luận tốt nghiệp sử dụng Yolov4, mơ hình phát xác định vật thể dựa xử lí hình ảnh, thuật tốn deep learning liệu hình ảnh thu thập thực tế để xác định giai đoạn phát triển bắp cải Từ khóa: nơng nghiệp thông minh, deep learning, phát vật thể, yolov4 MỤC LỤC Danh sách hình vẽ i Danh sách bảng iii Thuật ngữ viết tắt iv Giới thiệu Lý chọn đề tài Đóng góp đề tài Cấu trúc khóa luận Chương 1: Tổng quan hình thái phát triển trồng phương pháp học sâu 1.1 Hình thái phát triển bắp cải 1.2 Các phương pháp học máy học sâu .7 1.2.1 Trí tuệ nhân tạo (Artificial Intelligence) .7 1.2.2 Học máy (Machine Learning) .7 1.2.3 Học sâu (Deep Learning) 1.3 Mạng học sâu .8 1.3.1 Giới thiệu mạng Nơron nhân tạo 1.3.2 Kiến trúc mạng Nơron nhân tạo 10 1.4 Mạng Nơron tích chập (Convolutional Neural Network) 11 1.4.1 Tích chập (Convolution) gì? 11 1.4.2 Giới thiệu Mạng Nơron Tích chập (CNN) 11 1.4.3 Cấu trúc CNN 11 1.5 Kết luận 15 Chương 2: Mơ hình phát vật thể 16 2.1 Giới thiệu 16 2.2 YOLOv4 - Tốc độ độ xác tối ưu phát vật thể .17 2.2.1 Xương sống mạng (Backbone Network) – Trích xuất đặc trưng .18 2.2.2 Phần cổ (Neck) – Tổng hợp đặc trưng 21 2.2.3 Phần đầu (Head) – Bước nhận dạng 22 2.2.4 Bag of Freebies 22 2.2.5 Bag of Specials 25 2.2.6 Kết thí nghiệm 26 2.3 Kết luận 27 Chương 3: Xây dựng đánh giá mô hình phân loại hình thái phát triển trồng 28 3.1 Chuẩn bị liệu .28 3.1.1 Miêu tả liệu 28 3.1.2 Đánh nhãn liệu 29 3.2 Xây dựng đánh giá kết mơ hình 30 3.2.1 Phương pháp đánh giá .30 3.2.2 Huấn luyện YOLOv4 Darknet 30 3.2.3 Đánh giá kết huấn luyện .31 3.2.4 So sánh kết thực nghiệm 33 3.3 Kết luận 35 Chương 4: Kết luận hướng phát triển 36 Tài liệu tham khảo 37 Danh sách hình vẽ Hình 1-1: Giai đoạn thứ bắp cải Hình 1-2: Giai đoạn thứ bắp cải Hình 1-3: Giai đoạn thứ bắp cải Hình 1-4: Giai đoạn thứ bắp cải Hình 1-5: Giai đoạn thứ bắp cải Hình 1-6: Giai đoạn thứ bắp cải Hình 1-7: Giai đoạn thứ bắp cải Hình 1-8: Giai đoạn thứ bắp cải Hình 1-9: Giai đoạn thứ bắp cải Hình 1-10: Nơron sinh học [3] Hình 1-11: Mạng LeNet-5 [4] .10 Hình 1-12: Sử dụng tích chập rút trích đặc trưng ảnh 11 Hình 1-13: CNN xếp nơron theo chiều [3] 12 Hình 1-14: Tích chập cửa sổ trượt [3] 14 Hình 1-15: Lớp tích chập lớp pooling [3] 14 Hình 1-16: Cấu trúc lớp mạng nơron [3] .14 Hình 2-1: Giai đoạn mơ hình two stage .16 Hình 2-2: Giai đoạn mơ hình two stage .17 Hình 2-3: Minh họa mơ hình One stage 17 Hình 2-4: So sánh YOLOv4 với phát vật thể SOTA khác [11] 18 Hình 2-5: Cấu trúc YOLOv4 [11] 18 Hình 2-6: Khối dense lớp với mức độ tăng k=4 [15] .19 Hình 2-7: DenseNet [13] .20 Hình 2-8: Cross Stage Partial DenseNet (CSPDenseNet) [13] .20 Hình 2-9: EfficientNet scaling [14] .20 i Hình 2-10: Một số cấu trúc phần cổ (Neck) [7] 21 Hình 2-11: Bounding box với kích thước vị trí dự đốn [10] 22 Hình 2-12: Các phương pháp data augmentation [11] 23 Hình 2-13: Phương pháp tăng sinh liệu “khảm” [11] 23 Hình 2-14: Mish, ReLU, SoftPlus, and Swish activation functions [18] 25 Hình 2-15: Ví dụ cho phương pháp DropBlock [20] 26 Hình 3-1: Dữ liệu ảnh huấn luyện mơ hình 28 Hình 3-2: Đánh nhãn ảnh sử dụng Roboflow 29 Hình 3-3: Minh họa IoU 30 Hình 3-4: Biểu đồ huấn luyện YOLOv4 .31 Hình 3-5: Kết phân loại hình thái trồng 32 Hình 3-6: Kết phân loại hình thái bắp cải EfficientDet .33 Hình 3-7: Kết phân loại hình thái bắp cải YOLOv4 34 ii Danh sách bảng Bảng 2-1: Thông số mạng nơron cho phân loại ảnh [11] .19 Bảng 2-2: Ảnh hưởng BoF Mish đến độ xác CSPResNeXt-50 [11] 24 Bảng 2-3: Ảnh hưởng BoF Mish đến độ xác CSPDarknet-53 [11] 24 Bảng 2-4: Nghiên cứu cắt bỏ BoF (CSPResNeXt50-PANet-SPP,512x512) [11] 27 Bảng 3-1: Kết trình huấn luyện YOLOv4 31 Bảng 3-2: Chỉ số đánh giá phân loại .32 Bảng 3-3: Chỉ sổ đánh giá mơ hình 33 Bảng 3-4: Các số kiểm thử hai mơ hình tập liệu 34 iii Chương 2: Mơ hình phát vật thể lấn ground truth bounding box Về bản, khơng đủ nhìn chồng lấn trường hợp khơng chồng lấn, muốn nhìn vào tiệm cận box với ground truth box khuyến khích mạng lưới đưa dự đoán gần với ground truth box 2.2.5 Bag of Specials YOLOv4 sử dụng chiến lược gọi “Bag of Specials” tăng lượng nhỏ vào thời gian thực tăng đáng kể hiệu mà tác giả thấy đáng giá Tác giả thử nghiệm với nhiều activation functions Activation function biến đổi đặc trưng chúng di chuyển mạng lưới Với Activation function truyền thống ReLU, khó cho mạng lưới tạo đặc trưng đến điểm tối ưu Một nghiên cứu thực để tạo hàm cải thiện chút q trình Mish activation function thiết kế để đưa tín hiệu sang trái phải Hình 2-14: Mish, ReLU, SoftPlus, and Swish activation functions [18] Tác giả sử dụng DioU NMS để phân tách bounding box dự đoán Mạng lưới dự đốn nhiều bounding box xung quanh vật thể hữu dụng chọn 25 Chương 2: Mơ hình phát vật thể hiệu box tốt Đến batch normalization, tác giả sử dụng Cross mini-Batch Normalization (CmBN) với ý tưởng chạy GPU mà người dùng Nhiều kĩ thuật batch normalization yêu cầu nhiều GPU hoạt động song song DropBlock regularization [19] sử dụng YOLOv4 Trong DropBlock, nhiều phần ảnh bị giấu lớp DropBlock kĩ thuật ép mạng lưới đặc trưng khơng dựa vào Ví dụ hình 2-15, chó ảnh bị che đầu, mạng lưới nên xác định chó thân đầu Hình 2-15: Ví dụ cho phương pháp DropBlock [20] 2.2.6 Kết thí nghiệm Những kĩ thuật sử dụng YOLOv4 kiểm chứng qua thí nghiệm tập liệu MSCOCO [21] COCO chứa 80 class vật thể khác đại diện cho vùng lớn trường hợp phát vật thể mà phát gặp phải tự nhiên Bài báo nghiên cứu YOLOv4 thực chuyên sâu sâu nghiên cứu cắt bỏ kĩ thuật mà sử dụng Những nghiên cứu cắt bỏ thực loại bỏ chức bổ sung để chứng minh bổ sung cải tiến mạng lưới Ở hiệu chỉnh cuối cùng, YOLOv4 cho hiệu suất tốt thời điểm mơ hình phát vật thể Bài báo có thí nghiệm nhiều loại GPU khác khóa luận nêu 26 Chương 2: Mơ hình phát vật thể Bảng 2-4: Nghiên cứu cắt bỏ BoF (CSPResNeXt50-PANet-SPP,512x512) [11] S M IT GA LS CBN CA DM OA ✓ ✓ loss AP AP50 AP75 MSE 38.0% 60.0% 40.8% MSE 37.7% 59.9% 40.5% MSE 39.1% 61.8% 42.0% ✓ MSE ✓ 36.9% 59.7% 39.4% MSE 38.9% 61.7% 41.9% ✓ MSE ✓ 33.0% 55.4% 35.4% MSE 38.4% 60.7% 41.3% ✓ MSE 38.7% 60.7% 41.9% ✓ MSE 35.3% 57.2% 38.0% ✓ GIoU 39.4% 59.4% 42.5% ✓ DIoU 39.1% 58.8% 42.1% ✓ CIoU 39.6% 59.2% 42.6% ✓ ✓ ✓ ✓ ✓ CIoU 41.5% 64.0% 44.8% ✓ ✓ CIoU 36.1% 56.5% 38.4% ✓ ✓ ✓ ✓ ✓ MSE 40.3% 64.0% 43.1% ✓ ✓ ✓ ✓ ✓ GIoU 42.4% 64.4% 45.9% ✓ ✓ ✓ ✓ ✓ CIoU 42.4% 64.4% 45.9% 2.3 Kết luận Tổng kết lại, YOLOv4 kết tổng hợp nhiều kĩ thuật phát vật thể ngành thị giác máy Những kĩ thuật kiểm tra cải tiến để hình thành nên phát vật thể thời gian thực tốt nhất, dung lượng nhẹ dễ dàng sử dụng 27 Chương 3: Xây dựng đánh giá mô hình phân loại hình thái phát triển trồng Chương 3: Xây dựng đánh giá mơ hình phân loại hình thái phát triển trồng 3.1 Chuẩn bị liệu 3.1.1 Miêu tả liệu Như nói phần trên, trồng chọn sử dụng cho khóa luận tốt nghiệp bắp cải Mục tiêu đặt phân loại hình thái giai đoạn phát triển cây, yêu cầu liệu thu thập trực tiếp từ vườn nơng trường Do tính chất biến đổi trồng trình phát triển đa dạng phức tạp, phụ thuộc vào nhiều yếu tố điều kiện khí hậu chất lượng đất trồng mà mang hình thái khác sau khoảng thời gian phát triển Dựa vào tiêu chuẩn định sẵn phân loại hình thái phát triển bắp cải nêu trên, liệu phân thành phân loại bao gồm seedling (cây non), cupping, head-fill mature (trưởng thành) Đầu tiên, tập liệu bao gồm 500 ảnh với phân loại đặt tải trực tiếp từ internet với tiêu chí ảnh phải có đầy đủ phận bắp cải, chụp từ nhiều hướng khác chứa ảnh Tiếp theo đó, tập liệu thu thập trực tiếp thơng qua camera điện thoại thơng vườn cây, nơng trường có quy mơ vừa lớn tỉnh thành lân cận Hà Nội Lâm Đồng gồm 1500 ảnh có đủ phân loại với tiêu chí ảnh giống với tập liệu thu thập từ internet Hình 3-1: Dữ liệu ảnh huấn luyện mơ hình 28 Chương 3: Xây dựng đánh giá mơ hình phân loại hình thái phát triển trồng Từ tập liệu trên, tạo thành liệu với đủ phân loại seedling, cupping, head-fill, mature Bộ liệu chia theo tỉ lệ 80% dành cho việc huấn luyện, 20% dùng cho mục đích xác thực Vậy nên, 1600 ảnh sử dụng cho việc huấn luyện 400 ảnh cịn lại dùng để xác thực mơ hình Sau huấn luyện, để đánh giá khả nhận diện hình thái mơ hình ảnh tự thu thập khơng có liệu dùng để huấn luyện mơ hình sử dụng 100 ảnh bắp cải giai đoạn khác thu thập để phục vụ công việc kiểm thử mơ hình Bước đánh giá cho biết liệu có phù hợp với trường hợp thực tế hay không 3.1.2 Đánh nhãn liệu Sau hoàn thành việc thu thập liệu, bước đánh nhãn cho ảnh tập liệu Bước đánh nhãn bước quy trình phát vật thể, cần phải thực thủ cơng người Bằng cách tạo vng khoanh vùng nơi vật thể xuất ảnh tập liệu, mơ hình cho biết vị trí phân loại ảnh Bài khóa luận sử dụng trang web công cụ sử dụng giúp cho việc đánh nhãn liệu có tên Roboflow Bộ liệu sau đánh nhãn bao gồm file ảnh có jpg file thích txt chứa vị trí vật thể ảnh tên, file đưa qua mạng nơron tích chập để phục vụ cho việc huấn luyện Hình 3-2: Đánh nhãn ảnh sử dụng Roboflow Các rau đánh nhãn với hộp giới hạn sát bao chọn Như thấy hình 3-2 bên trên, vật rau bình thường rau bị che khuất xuất ảnh đánh nhãn 29 Chương 3: Xây dựng đánh giá mơ hình phân loại hình thái phát triển trồng 3.2 Xây dựng đánh giá kết mơ hình 3.2.1 Phương pháp đánh giá Tỷ lệ IoU (Intersection over union) tỉ lệ đo lường mức độ giao hai bounding box (bounding box dự đoán bounding box thực) để xác định phần bị chồng lên Tỷ lệ dựa phần diện tích giao bounding box với phần tổng diện tích giao khơng giao chúng Hình 3-3: Minh họa IoU Từ xác định đối tượng nhận dạng có tỉ lệ IoU > 0.5 (true positive), nhận dạng sai với tỉ lệ IOU < 0.5 (false positive) đối tượng không nhận dạng (false negative) Và đánh giá khả phát vật thể mơ hình thơng qua precision, recall Với phần kết huấn luyện, F1-score mAP (mean average precision) sử dụng để đánh giá hiệu suất mơ hình xây dựng Những thơng số tính tốn theo cơng thức [22] đây: 𝑃𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 = 𝑅𝑒𝑐𝑎𝑙𝑙 = 𝑇𝑃 𝑇𝑃+𝐹𝑃 𝑇𝑃 𝑇𝑃+𝐹𝑁 𝐹1 𝑆𝑐𝑜𝑟𝑒 = ∗ = = 𝑆ố 𝑙ầ𝑛 𝑑ươ𝑛𝑔 𝑡í𝑛ℎ 𝑡ℎậ𝑡 𝑇ổ𝑛𝑔 𝑠ố 𝑙ầ𝑛 𝑑ươ𝑛𝑔 𝑡í𝑛ℎ 𝑆ố 𝑙ầ𝑛 𝑑ươ𝑛𝑔 𝑡í𝑛ℎ 𝑡ℎậ𝑡 𝑇ổ𝑛𝑔 𝑠ố 𝑙ầ𝑛 𝑑ự đ𝑜á𝑛 𝑃𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛∗𝑅𝑒𝑐𝑎𝑙𝑙 (3.1) (3.2) (3.3) 𝑃𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛+𝑅𝑒𝑐𝑎𝑙𝑙 3.2.2 Huấn luyện YOLOv4 Darknet Sau thu thập hình ảnh bắp cải, tập liệu đánh nhãn bao gồm file ảnh có jpg file thích txt chứa vị trí vật thể ảnh tên Trong trình huấn luyện YOLOv4, file đưa qua mạng nơron tích chập để phục vụ cho việc huấn luyện 30 Chương 3: Xây dựng đánh giá mơ hình phân loại hình thái phát triển trồng Hình 3-4: Biểu đồ huấn luyện YOLOv4 Huấn luyện YOLOv4 bao gồm phân loại seedling, cupping, head-fill and mature) với 48000 bước với tỉ lệ độ phân giải 416x416 Để đánh giá mơ hình huấn luyện, sử dụng đường biểu diễn mAP xuất hình 3-4 Bảng 3-1: Kết trình huấn luyện YOLOv4 IoU threshold mAP@0.5 50% 0.934633 Sau 24 đồng hồ huấn luyện, loss function giảm xuống 0.6609 mAP đạt 93.5% Bởi giống qua giai đoạn trồng không thực rõ ràng, số loss function chấp nhận áp dụng vào trường hợp cụ thể 3.2.3 Đánh giá kết huấn luyện Sau hoàn thành phần huấn luyện mơ hình, tiến hành đánh giá kết phương pháp nêu phần Những thông số đánh giá kết huấn luyện nêu bảng 3-2 bảng 3-3 31 Chương 3: Xây dựng đánh giá mơ hình phân loại hình thái phát triển trồng Hình 3-5: Kết phân loại hình thái trồng Bảng 3-2: Chỉ số đánh giá phân loại Class TP FP AP Seedling 255 27 92.96% Cupping 447 33 90.88% Head-fill 85 98.07% Mature 151 19 91.95% 32 Chương 3: Xây dựng đánh giá mơ hình phân loại hình thái phát triển trồng Bảng 3-3: Chỉ sổ đánh giá mơ hình Precision Recall F1-score Average IoU 92% 91% 92% 82.13% Kết phương pháp đánh giá, số rau nhận dạng 968, số rau bị nhận dạng sai 88, số rau không nhận dạng 91 Từ số sau huấn luyện YOLOv4 thấy khả hoạt động mơ hình tốt việc nhận dạng xác định phân loại bắp cải (seedling, cupping, head-fill, mature) điều kiện thực tế Việt Nam 3.2.4 So sánh kết thực nghiệm Trong phần này, mơ hình phát vật thể khác EfficientDet [7] Google Brain phát triển sử dụng để so sánh tính hiệu mơ hình phân loại hình thái trồng YOLOv4 xây dựng Mơ hình EfficientDet huấn luyện với số bước tập liệu với YOLOv4, sau sử dụng 100 liệu ảnh thu thập điều kiện thực tế để kiểm tra thời gian thực khả phát vật thể hai mơ hình phương pháp nêu phần Cả mơ hình chạy tảng Google Colaboratory Google, tảng cho phép viết thực thi câu lệnh Python thơng qua trình duyệt phổ thơng mà khơng yêu cầu phải điều chỉnh hay cài đặt môi trường cần thiết Hình 3-6: Kết phân loại hình thái bắp cải EfficientDet 33 Chương 3: Xây dựng đánh giá mơ hình phân loại hình thái phát triển trồng Hình 3-7: Kết phân loại hình thái bắp cải YOLOv4 Bảng 3-4: Các số kiểm thử hai mơ hình tập liệu Mơ hình TP FP FN Thời gian EfficientDet 349 33 22 269 giây YOLOv4 365 21 18 75 giây Cả hai mơ hình chạy kiểm thử tảng Google Colaboratory sử dụng GPU Tesla K80 Google cung cấp miễn phí cho người dùng Từ hình ảnh kết bảng số liệu hai mơ hình trả thấy khả nhận diện vật thể YOLOv4 có xác so với EfficientDet số không vượt trội Điểm khác biệt lớn nằm thời gian thực thi hai mơ hình, với tập liệu gồm 100 ảnh bắp cải EfficienDet phải đến 269 giây hoàn chỉnh 100 ảnh đánh nhãn, YOLOv4 có 75 giây nhanh gấp 3.6 lần số lượng thời gian EfficientDet cần để thực nhiệm vụ Kết hoàn toàn trùng khớp với báo khoa học YOLOv4 mà tác giả đưa nêu chương Đó lý YOLOv4 chọn cho khóa luận 34 Chương 3: Xây dựng đánh giá mơ hình phân loại hình thái phát triển trồng 3.3 Kết luận Kết thúc chương này, khóa luận tốt nghiệp đưa mơ hình phân loại hình thái phát triển trồng cụ thể bắp cải cách sử dụng thuật toán deep learning phát vật thể Đưa số liệu trực quan để đánh giá trực tiếp so sánh với mơ hình phát vật thể đại khác Một lợi phương pháp đề liệu thu thập trực tiếp vườn rau nông trường lớn Việt Nam điều kiện khí hậu khác cộng với việc thu thập nhiều góc độ trồng Điều giúp cho mơ hình đề xuất có hiệu cao loại bỏ vấn đề overfitting 35 Chương 4: Kết luận hướng phát triển Chương 4: Kết luận hướng phát triển Trong khóa luận tốt nghiệp này, thuật toán deep learning phương pháp phát vật thể, đưa mơ hình thơng minh có khả xác định hình thái phát triển trồng giúp tăng cường tính ưu việt cho hệ thống tưới tiêu tự động Thêm vào đó, mơ hình huấn luyện với liệu tự thu thập đạt mức hiệu tương đối tốt phù hợp với tình hình nơng nghiệp Việt Nam Những kết chứng minh hệ thống tưới tiêu tự động trở nên tân tiến nhờ vào việc sử dụng phương pháp deep learning thay hệ thống bán tự động cần đến can thiệp người Mặc dù mơ hình có nhiều mặt hạn chế cần phải khắc phục tương lai thực muốn đưa mơ hình vào thực tế, ví dụ việc chia hình thái giai đoạn phát triển trồng, thay chia làm giai đoạn chia thành giai đoạn nói phần đầu khóa luận, việc phân loại cụ thể giúp ích nhiều cho khơng hệ thống tưới tiêu mà ứng dụng khác cần đến việc xác định hình thái phát triển trồng, đồng nghĩa với việc lượng liệu phục vụ cho việc huấn luyện phải lớn cụ thể Thêm vào đó, phát triển website đơn giản cho phép người truy cập thơng qua internet sử dụng mơ hình cho nhiều mục đích ứng dụng khác 36 Tài liệu tham khảo Tài liệu tham khảo [1] J Andaloro, K Rose, A Shelton, C Hoy and R Becker, Cabbage growth stages, New York State Agricultural Experiment Station, 1983 [2] J Brownlee, "Machine Learning Mastery," 14 Aug 2019 [Online] Available: https://machinelearningmastery.com/a-tour-of-machine-learning-algorithms/ [3] "Convolutional Neural Networks for Visual Recognition," Stanford University, 2020 [Online] Available: https://cs231n.github.io/ [4] Y LeCun, L Bottou, Y Bengio and P Haffner, "Gradient-based learning applied to document recognition," Proceedings of the IEEE, vol 86, no 11, 1998, pp 2278-2324 [5] K He, X Zhang, S Ren and J Sun, "Spatial pyramid pooling in deep convolutional networks for visual recognition," IEEE transactions on pattern analysis and machine intelligence, vol 37, no 9, 2015, pp 1904-1916 [6] W Liu, D Anguelov, D Erhan, C Szegedy, S Reed, C.-Y Fu and A C Berg, "SSD: Single shot multibox detector," in European conference on computer vision, 2016, pp 21-37 [7] M Tan, R Pang and Q V Le, "Efficientdet: Scalable and efficient object detection," in Proceedings of the IEEE/CVF conference on computer vision and pattern recognition, 2020, pp 10781-10790 [8] J Redmon, S Divvala, R Girshick and A Farhadi, "You only look once: Unified, real-time object detection," in Proceedings of the IEEE conference on computer vision and pattern recognition, 2016, pp 779-788 [9] J Redmon and A Farhadi, "YOLO9000: better, faster, stronger," in Proceedings of the IEEE conference on computer vision and pattern recognition, 2017, pp 7263-7271 37 Tài liệu tham khảo [10] J Redmon and A Farhadi, "Yolov3: An incremental improvement," arXiv preprint arXiv:1804.02767, 2018 [11] A Bochkovskiy, C.-Y Wang and H.-Y M Liao, "Yolov4: Optimal speed and accuracy of object detection," arXiv preprint arXiv:2004.10934, 2020 [12] L Jiao, F Zhang, F Liu, S Yang, L Li, Z Feng and R Qu, "A survey of deep learning-based object detection," IEEE Access, vol 7, 2019, pp 128837-128868 [13] C.-Y Wang, H.-Y M Liao, Y.-H Wu, P.-Y Chen, J.-W Hsieh and I.-H Yeh, "CSPNet: A new backbone that can enhance learning capability of CNN," in Proceedings of the IEEE/CVF conference on computer vision and pattern recognition workshops, 2020, pp 390-391 [14] M Tan and Q Le, "Efficientnet: Rethinking model scaling for convolutional neural networks," in International Conference on Machine Learning, PMLR, 2019, pp 6105-6114 [15] G Huang, Z Liu, L Van Der Maaten and K Q Weinberger, "Densely connected convolutional networks," in Proceedings of the IEEE conference on computer vision and pattern recognition, 2017, pp 4700-4708 [16] S Liu, L Qi, H Qin, J Shi and J Jia, "Path aggregation network for instance segmentation," in Proceedings of the IEEE conference on computer vision and pattern recognition, 2018, pp 8759-8768 [17] Z Zheng, P Wang, W Liu, J Li, R Ye and D Ren, "Distance-IoU loss: Faster and better learning for bounding box regression," in Proceedings of the AAAI Conference on Artificial Intelligence, 2020, pp 12993-13000 [18] D Misra, "Mish: A self regularized non-monotonic activation function," arXiv preprint arXiv:1908.08681, 2019 [19] G Ghiasi, T.-Y Lin and Q V Le, "Dropblock: A regularization method for convolutional networks," arXiv preprint arXiv:1810.12890, 2018 38 Tài liệu tham khảo [20] S Yun, D Han, S J Oh, S Chun, J Choe and Y Yoo, "Cutmix: Regularization strategy to train strong classifiers with localizable features," in Proceedings of the IEEE/CVF International Conference on Computer Vision, 2019, pp 6023-6032 [21] T.-Y Lin, M Maire, S Belongie, J Hays, P Perona, D Ramanan, P Dollar and C L Zitnick, "Microsoft coco: Common objects in context," in European conference on computer vision, Springer, 2014, pp 740-755 [22] K P Shung, "Accuracy, Precision, Recall or F1-Score," Towards Data Science Inc, 15 Mar 2018 [Online] Available: https://towardsdatascience.com/accuracyprecision-recall-or-f1-331fb37c5cb9 [23] T DeVries and G W Taylor, "Improved regularization of convolutional neural networks with cutout," arXiv preprint arXiv:1708.04552, 2017 [24] J Solawetz, "Breaking Down YOLOv4," Roboflow Inc, 04 Jun 2020 [Online] Available: https://blog.roboflow.com/a-thorough-breakdown-of-yolov4/ [25] A Kamilaris and F X Prenafeta-Bold, "Deep learning in agriculture: A survey," Computers and electronics in agriculture, vol 147, 2018, pp 70-90 39

Ngày đăng: 30/06/2023, 18:25

Xem thêm:

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN