Ứng dụng trí tuệ nhân tạo trong hệ thống điều khiển giám sát quá trình sinh trưởng và bệnh hại cây trồng ngắn ngày

157 0 0
Ứng dụng trí tuệ nhân tạo trong hệ thống điều khiển giám sát quá trình sinh trưởng và bệnh hại cây trồng ngắn ngày

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

Thông tin tài liệu

BỘ GIÁO DỤC VÀ ĐÀO TẠO ĐẠI HỌC BÁCH KHOA HÀ NỘI NGƠ QUANG ƯỚC ỨNG DỤNG TRÍ TUỆ NHÂN TẠO TRONG HỆ THỐNG ĐIỀU KHIỂN GIÁM SÁT QUÁ TRÌNH SINH TRƯỞNG VÀ BỆNH HẠI CÂY TRỒNG NGẮN NGÀY Ngành: Kỹ thuật điều khiển tự động hóa Mã số: 9520216 LUẬN ÁN TIẾN SĨ KỸ THUẬT ĐIỀU KHIỂN VÀ TỰ ĐỘNG HÓA NGƯỜI HƯỚNG DẪN KHOA HỌC: PGS TS Bùi Đăng Thảnh TS Ngơ Trí Dương Hà Nội -2023 LỜI CAM ĐOAN Tôi xin cam đoan rằng, kết nghiên cứu luận án cơng trình nghiên cứu thân tơi hướng dẫn hai người hướng dẫn khoa học Các nghiên cứu luận án trung thực chưa tác giả khác công bố Hà Nội, ngày 14 tháng năm 2023 Người hướng dẫn Khoa học PGS TS Bùi Đăng Thảnh TS Ngơ Trí Dương i Tác giả luận án Ngô Quang Ước LỜI CẢM ƠN Để luận án hoàn thành, nỗ lực học tập nghiên cứu thân, tơi cịn quan tâm, giúp đỡ động viên nhiều tổ chức cá nhân, nhân tơi xin bày tỏ lịng cảm ơn: Tơi xin chân thành cảm ơn Đại học Bách khoa Hà Nội đồng ý cho thực luận án Cảm ơn thầy Phịng đào tạo, Viện Kỹ thuật điều khiển Tự động hóa, Trường Điện - Điện tử hỗ trợ tạo điều kiện thuận lợi cho tơi suốt q trình tơi tham gia khóa học Tơi xin trân trọng gửi lời cảm ơn sâu sắc đến hai người thầy giáo hướng dẫn khoa học thầy PGS.TS Bùi Đăng Thảnh thầy TS Ngơ Trí Dương ln quan tâm, động viên hướng dẫn chi tiết mặt chun mơn suốt q trình tơi thực luận án Đồng thời gửi lời cảm ơn chân thành đến thầy PGS.TS Nguyễn Quang Địch, Viện trưởng Viện Kỹ thuật điều khiển Tự động hóa, Thầy động viên có góp ý sâu sắc cho định hướng nghiên cứu Tôi xin chân thành cảm ơn thầy cô Ban Giám đốc, Ban Khoa học công nghệ, Ban Tổ chức cán bộ, Khoa Cơ Điện, Bộ môn Hệ thống điện - Học viện Nông nghiệp Việt Nam tạo điều kiện tốt cho tơi tham gia hồn thành chương trình đào tạo Tơi xin chân thành cảm ơn thầy TS Nguyễn Đức Huy - Giám đốc Bệnh viện Cây trồng, thầy TS Vũ Thanh Hải, cô ThS Đặng Thị Hường - Khoa Nông học, Anh ThS Nguyễn Trọng Tú, Anh ThS Nguyễn Thanh Tùng - Viện Nghiên cứu Phát triển trồng - Học viện Nông nghiệp Việt Nam giúp đỡ nhiệt tình việc cung cấp quy trình sản xuất trồng, phương pháp thu thập liệu sinh trưởng, xác định lây nhiễm bệnh trồng, hỗ trợ q trình thực nghiệm Tơi xin bày tỏ lịng biết ơn sâu sắc đến thầy phản biện, thầy cô hội đồng chấm luận án, thầy Viện Kỹ thuật điều khiển Tự động hóa đọc duyệt góp ý kiến q báu để tơi hồn thiện luận án Cuối cùng, Tôi xin gửi lời cảm ơn đặc biệt tới gia đình, Vợ tơi bên động viên, giúp đỡ mặt gia đình tinh thần suốt q trình tơi thực luận án Nghiên cứu sinh ii MỤC LỤC DANH MỤC CÁC KÝ HIỆU VÀ CHỮ VIẾT TẮT vi DANH MỤC CÁC BẢNG BIỂU ix DANH MỤC CÁC HÌNH VẼ, ĐỒ THỊ x MỞ ĐẦU 1 Tính cấp thiết luận án Mục tiêu nghiên cứu Đối tượng phạm vi nghiên cứu Phương pháp nghiên cứu Ý nghĩa khoa học thực tiễn luận án Đóng góp đề tài nghiên cứu: Cấu trúc luận án: CHƯƠNG TỔNG QUAN VỀ HỆ THỐNG ĐIỀU KHIỂN GIÁM SÁT QUÁ TRÌNH SINH TRƯỞNG VÀ BỆNH HẠI CÂY TRỒNG NGẮN NGÀY 1.1 Vai trò điều khiển giám sát trình sinh trưởng bệnh hại trồng ngắn ngày 1.2 Ý nghĩa chiều cao, số diện tích trình sinh trưởng trồng 1.3 Tình hình nghiên cứu hệ thống điều khiển giám sát trình sinh trưởng bệnh hại trồng ngắn ngày 10 1.4 Tình hình nghiên cứu xác định chiều cao, số diện tích trồng ngắn ngày 15 1.5 Tình hình nghiên cứu phương pháp phát bệnh trồng ngắn ngày 20 1.6 Định hướng nghiên cứu luận án 26 1.6.1 Hướng nghiên cứu luận án 26 1.6.2 Dự kiến đóng góp luận án 27 KẾT LUẬN CHƯƠNG 1: 27 CHƯƠNG NGHIÊN CỨU XÁC ĐỊNH CHIỀU CAO, SỐ LÁ VÀ DIỆN TÍCH LÁ CÂY TRỒNG 28 2.1 Phương pháp xác định chiều cao, số diện tích 28 2.2 Đề xuất phương pháp phân vùng trồng 29 2.2.1 Phương pháp tính khoảng cách Mahalanobis 30 2.2.2 Xác định ngưỡng tối ưu 31 iii 2.2.3 Đề xuất thuật toán khoảng cách Mahalanobis sửa đổi (MMD) để phân vùng trồng 33 2.2.4 Phương pháp đánh giá chất lượng thuật toán nghiên cứu 34 2.2.5 Đánh giá thuật toán đề xuất (MMD) 35 2.3 Xác định chiều cao, số diện tích thực nghiệm với dưa chuột 37 KẾT LUẬN CHƯƠNG 2: 40 CHƯƠNG ỨNG DỤNG TRÍ TUỆ NHÂN TẠO PHÁT HIỆN BỆNH TRÊN CÂY TRỒNG NGẮN NGÀY 41 3.1 Cơ sở lý thuyết trí tuệ nhân tạo cho việc phân loại phát bệnh trồng thơng qua hình ảnh 41 3.1.1 Khái quát mạng nơron tích chập (CNN) 41 3.1.2 Mơ hình CNN phân loại ảnh 46 3.1.3 Mơ hình CNN phát đối tượng ảnh 50 3.2 Phân loại phát bệnh hại trồng mơ hình CNN 57 3.2.1 Đề xuất kết hợp mơ hình phân loại bệnh hại trồng 57 3.2.2 Đề xuất cải tiến mơ hình phát bệnh hại trồng 59 3.3 Phân loại phát bệnh dưa chuột 65 3.3.1 Ảnh hưởng bệnh đến trình sản xuất dưa chuột 65 3.3.2 Xây dựng sở liệu bệnh dưa chuột 68 3.3.3 Phân loại bệnh phấn trắng bệnh sương mai 75 3.3.4 Phát bị bệnh phấn trắng bệnh sương mai 82 KẾT LUẬN CHƯƠNG 3: 93 CHƯƠNG THỰC NGHIỆM VÀ ĐÁNH GIÁ KẾT QUẢ 94 4.1 Xây dựng thiết lập mô hình nhà lưới thử nghiệm 94 4.2 Thiết kế hệ thống điều khiển giám sát cảnh báo bệnh sương mai bệnh phấn trắng dưa chuột 96 4.2.1 Hệ thống phần cứng 97 4.2.2 Thuật toán điều khiển hệ thống 98 4.3 Thực nghiệm đánh giá thuật toán xác định chiều cao, số diện tích dưa chuột 100 4.3.1 Bố trí mơ hình thực nghiệm 100 4.3.2 Kết đánh giá thuật toán đề xuất 101 4.4 Thực nghiệm đánh giá hệ thống điều khiển giám sát cảnh báo bệnh sương mai bệnh phấn trắng dưa chuột 109 4.4.1 Bố trí thực nghiệm 109 4.4.2 Diễn biến đặc điểm dưa chuột bị nhiễm bệnh 110 iv 4.4.3 Kết đánh giá hệ thống điều khiển giám sát cảnh báo bệnh 112 KẾT LUẬN CHƯƠNG 4: 117 KẾT LUẬN VÀ KIẾN NGHỊ 118 DANH MỤC CÁC CƠNG TRÌNH ĐÃ CƠNG BỐ CỦA LUẬN ÁN 120 TÀI LIỆU THAM KHẢO 121 PHỤ LỤC v DANH MỤC CÁC KÝ HIỆU VÀ CHỮ VIẾT TẮT Ký hiệu Acc AP B b Bh, By C c j j Ci Ĉi d ER ELA EN EL f(.) F1-score feature_surfaceout FN (Fault Negative) FNR FP (Fault Positive) FPR H IoU IT k KN L 𝐿𝐴𝑒 𝐿𝐴𝑚 Le 𝐿𝑚 lws lls mAP Ne CÁC KÝ HIỆU Ý nghĩa Độ xác mơ hình Độ xác trung bình Số hộp giới hạn lưới Bias Ma trận bias lớp ẩn lớp đầu Hiệp phương sai Khoảng cách đường chéo nhỏ hộp chứa hộp giới hạn dự đoán hộp giới hạn thực Điểm tin cậy hộp dự đoán điểm tin cậy hộp thực Khoảng cách Mahalanobis pixel Đại lượng Error Rate Sai số tương đối diện tích ước tính Sai số tương đối số ước tính Sai số tương đối chiều cao ước tính Hàm kích hoạt The harmonic mean of the precision and recall Bề mặt đặc trưng đầu - Tổng số ảnh lớp xét bị phân loại vào lớp khác - Các điểm ảnh vùng bị phân loại nhầm thành điểm ảnh Đại lượng False Negative Rate - Tổng số ảnh phân loại sai vào lớp xét - Các điểm ảnh vùng bị phân loại nhầm thành điểm ảnh Đại lượng False Positive Rate Vector giá trị đầu đơn vị ẩn Intersection over union hộp giới hạn dự đoán hộp giới hạn thực Ma trận giá trị pixel ảnh nhị phân ảnh màu Kích thước tích chập Khả thuật toán phát bệnh thực nghiệm Số mức xám ảnh kích thước NxN Diện tích vùng ước tính thuật tốn Diện tích vùng tính tốn thủ cơng Chiều cao dưa chuột ước tính thuật toán Chiều cao dưa chuột đo thu công Chiều rộng chiều dài thứ s Giá trị trung bình độ xác trung bình Số lượng trung bình ước tính thuật toán vi Nm 𝑛𝑢 O p Pcl j j Pi (c) ̂Pi (c) 𝑃𝑙 R2 Rvalue , Bvalue , Gvalue s S2 Tb TN (True Negative) TP (True Positive) Tph w h gt w hgt Wh , Wy wi obj Wij x X xi Y y*m ym λnoobj 𝜃0 𝜃0∗ 1 ,  𝜇 ρ b, b gt ) 2( 𝜎𝑖 Số lượng trung bình đo thủ cơng Số lần xuất mức xám u Kích thước bề mặt đặc trưng đầu Khoảng đệm (padding) Số pixel vùng hiệu chuẩn Là xác suất dự đoán xác suất thực mà đối tượng thuộc phân loại c hộp giới hạn thứ j lưới thứ i Số pixel vùng xem xét Hệ số tương quan Giá trị thành phần màu đỏ (Red), xanh lam (Blue) xanh lục (Green) ảnh màu Bước trượt (strides) Số ô lưới ảnh đầu vào Tổng số ảnh bị bệnh mà hệ thống giám sát chụp - Tổng số ảnh lớp khác phân loại - Các điểm ảnh vùng khơng phải phân loại xác thành điểm ảnh - Tổng số ảnh lớp xét phân loại - Các điểm ảnh vùng phân loại xác thành điểm ảnh Tổng số ảnh bị bệnh mà thuật toán phát chiều rộng chiều cao hộp giới hạn dự đoán Chiều rộng chiều cao hộp giới hạn thực Ma trận trọng số lớp ẩn lớp đầu Trọng số tín hiệu vào thứ i Một chức đối tượng Giá trị màu pixel ảnh màu Ma trận giá trị đầu vào Tín hiệu vào thứ i Vector giá trị đầu đơn vị đầu Giá trị thực đầu mạng Tín hiệu nơron thứ m Một tham số trọng số Giá trị ngưỡng xác định trước Giá trị ngưỡng tối ưu Giá trị tham số điều khiển Rvalue Bvalue Giá trị trung bình màu pixel Khoảng cách Euclidean điểm hộp giới hạn dự đốn hộp giới hạn thực Độ lệch chuẩn vùng ảnh i vii CÁC CHỮ VIẾT TẮT Ký hiệu Ý nghĩa tiếng anh 2D 3D ANN CNN C-V DL FC IoT LA LR AI CO2 2-Dimensional 3-Dimensional Artificial Neural Network Convolutional Neural Network Chan – Vese Deep learning Fully Connected Layer Internet of Things Leaf Area Learning rate Artificial Intelligence Carbon dioxide EC Fast R-CNN Faster RCNN Electrical Conductivity Frames-Per-Second GDP Gross Domestic Product MLP MMD PC pH PIC PLC RCNN ResNet RGB ROI SSD SVM YOLO Không gian chiều Không gian chiều Mạng nơron nhân tạo Mạng nơron tích chập Mạng học sâu Lớp kết nối đầy đủ Internet vạn vật Diện tích Tốc độ học Trí tuệ nhân tạo Khí các-bơ-níc Độ dẫn điện dung dịch, đất Fast Region-based Convolutional Network Faster Regions Convolutional Neural Network FPS HxWxC Ý nghĩa tiếng việt Height x Width x Chanels Multi-Layer Perceptron Modified Mahalanobis Distance based method Personal Computer Programmable Intelligent Computer Programmable Logic Controller Region-based Convolutional Neural Networks Residual Neural Network Red Green Blue Region of Interests Single Shot Detector Support Vector Machine You Only Look One viii Số khung hình hiển thị giây Tổng sản phẩm quốc nội Chiều cao H, chiều rộng W, Số lượng kênh C Mạng nơron nhiều lớp Thuật toán khoảng cách Mahalanobis sửa đổi Máy tính cá nhân Độ pH dung dịch Một họ vi điều khiển RISC Đỏ, Xanh Lam, Xanh Lục Vùng quan tâm DANH MỤC CÁC BẢNG BIỂU Bảng 1.1 Tổng hợp kết cơng trình nghiên cứu phân loại phân vùng bệnh dưa chuột 24 Bảng 2.1 Kết loại bỏ Ớt Habanero 35 Bảng 2.2 Kết loại bỏ với Dâu tây 35 Bảng 2.3 Kết loại bỏ với Cải Kale 36 Bảng 3.1 Biểu diễn số hàm kích hoạt thường dùng (nguồn [154]) 42 Bảng 3.2 Các kiến trúc mơ hình VGG (nguồn [163]) 48 Bảng 3.3 Các kiến trúc mơ hình ResNet (nguồn [164]) 50 Bảng 3.4 So sánh mơ hình phát đối tượng (nguồn [169]) 51 Bảng 3.5 Chi tiết cấu trúc lớp mô hình YOLOv4-tiny với kích thước ảnh đầu vào 416 x 416 x 53 Bảng 3.6 Chi tiết lớp mơ hình YOLOv4-tiny-caitien với kích thước ảnh đầu vào 384x 384x3 cho lớp đối tượng 62 Bảng 3.7 Kiến trúc phần cứng huấn luyện kiểm tra mơ hình 76 Bảng 3.8 Kết thông số Precision, Recall, F1-score Acc mơ hình với liệu Kiểm tra 78 Bảng 3.9 Kết thông số Precision, Recall, F1-score Acc mơ hình đề xuất với liệu Kiểm tra 80 Bảng 3.10 Các tham số huấn luyện xác thực mô hình 83 Bảng 3.11 Kết xác định giá trị LR phù hợp 84 Bảng 3.12 Kết huấn luyện mơ hình YOLOv4-tiny-caitien YOLOV4-tiny với kích thước ảnh đầu vào khác 84 Bảng 3.13 Kết so sánh với số mơ hình khác 87 Bảng 3.14 Kết hiệu suất YOLOv4-tiny YOLOv4-tiny-caitien với phương pháp k -fold Cross-Validation (k=4) 88 Bảng 3.15 Kết phát ảnh bệnh với thuật toán YOLOv4-tiny-caitien 89 Bảng 3.16 Kết phát ảnh bệnh với thuật toán YOLOv4-tiny gốc 89 Bảng 3.17 Kết huấn luyện mơ hình YOLOv4-tiny YOLOv4-tiny-caitien với liệu bệnh Dâu tây Cà chua 93 Bảng 4.1 Dữ liệu đo phương pháp thủ cơng diện tích lá, số chiều cao dưa chuột theo ngày 102 Bảng 4.2 Kết so sánh phương pháp phân vùng 105 Bảng 4.3 Kết ước lượng số lượng dưa chuột theo ngày trồng 107 Bảng 4.4 Kết ước lượng diện tích LA theo ngày trồng 108 Bảng 4.5 Kết hoạt động hệ thống điều khiển giám sát cảnh báo bệnh sương mai bệnh phấn trắng dưa chuột 113 Bảng 4.6 Đánh giá khả đáp ứng thực nghiệm mơ hình YOLOv4tiny YOLOv4-tiny-caitien 116 ix [105] Zhang, S., Wu, X., You, Z., & Zhang, L (2017), “Leaf image based cucumber disease recognition using sparse representation classification”, Computers and electronics in agriculture, 134, 135-141 [106] Savary, S., Ficke, A., Aubertot, J N., & Hollier, C (2012), “Crop losses due to diseases and their implications for global food production losses and food security”, Food security, 4(4), 519-537 [107] Fang, Y., & Ramasamy, R P (2015), “Current and prospective methods for plant disease detection”, Biosensors, 5(3), 537-561 [108] Weizheng, S., Yachun, W., Zhanliang, C., and Hongda, W (2008), "Grading Method of Leaf Spot Disease Based on Image Processing", Proceedings of the 2008 international Conference on Computer Science and Software Engineering - Volume 06, CSSE IEEE Computer Society, Washington, DC, 491-494 [109] Gavhale, K R., & Gawande, U (2014), “An overview of the research on plant leaves disease detection using image processing techniques”, IOSR Journal of Computer Engineering (IOSR-JCE), 16(1), 10-16 [110] Khirade, S D., & Patil, A B (2015), “Plant disease detection using image processing”, In 2015 International conference on computing communication control and automation (pp 768-771) IEEE [111] Arti Singh, Baskar Ganapathysubramanian, Asheesh Kumar Singh, and Soumik Sarkar (2016), “Machine Learning for High-Throughput Stress Phenotyping in Plants”, Trends in Plant Science, Vol 21, No [112] Annabel, L S P., Annapoorani, T., & Deepalakshmi, P (2019), “Machine Learning for Plant Leaf Disease Detection and Classification–A Review”, In 2019 International Conference on Communication and Signal Processing (ICCSP), pp 0538-0542, IEEE [113] Asheesh Kumar Singh, Baskar Ganapathysubramanian, Soumik Sarkar, and Arti Singh (2018), “Deep Learning for Plant Stress Phenotyping: Trends and Future Perspectives”, Trends in Plant Science, October 2018, Vol 23, No 10 [114] Saleem, M H., Potgieter, J., & Arif, K M (2019), “Plant disease detection and classification by deep learning”, Plants, 8(11), 468 [115] Ahmad, A., Saraswat, D., & El Gamal, A (2022), “A survey on using deep learning techniques for plant disease diagnosis and recommendations for development of appropriate tools”, Smart Agricultural Technology, 100083 [116] Too, E C., Yujian, L., Njuki, S., & Yingchun, L (2019), “A comparative study of fine-tuning deep learning models for plant disease identification”, Computers and Electronics in Agriculture, 161, 272-279 [117] Paymode, A S., & Malode, V B (2022), “Transfer Learning for Multi-Crop Leaf Disease Image Classification using Convolutional Neural Network VGG”, Artificial Intelligence in Agriculture, 6, 23-33 [118] Ali, S., Hassan, M., Kim, J Y., Farid, M I., Sanaullah, M., & Mufti, H (2022), “FF-PCA-LDA: Intelligent Feature Fusion Based PCA-LDA Classification System for Plant Leaf Diseases”, Applied Sciences, 12(7), 3514 129 [119] Jiang, K., You, J., Dorj, U O., Kim, H., & Lee, J (2022), “Detection of unknown strawberry diseases based on OpenMatch and two-head network for continual learning”, Frontiers in Plant Science, 13 [120] Afzaal, U., Bhattarai, B., Pandeya, Y R., & Lee, J (2021), “An instance segmentation model for strawberry diseases based on mask RCNN”, Sensors, 21(19), 6565 [121] Kim, B., Han, Y K., Park, J H., & Lee, J (2021), “Improved vision-based detection of strawberry diseases using a deep neural network”, Frontiers in Plant Science, 11, 559172 [122] Gullino, M L., Albajes, R., & Nicot, P C (Eds.) (2020), “Integrated pest and disease management in greenhouse crops”, (Vol 9) Swizerland: Springer [123] A Berdugo, R Zito, S Paulus and A.-K Mahlein (2014), “Fusion of sensor data for the detection and differentiation of plant diseases in cucumber”, Plant Pathology, 63, 1344–1356 [124] Wang, H., Jiang, Y P., Yu, H J., Xia, X J., Shi, K., Zhou, Y H., & Yu, J Q (2010), “Light quality affects incidence of powdery mildew, expression of defence-related genes and associated metabolism in cucumber plants”, European Journal of Plant Pathology, 127, 125–35 [125] Watson A, Napier T (2009), “Disease of cucurbit vegetables”, Primefacts, 832:1–6, https://www.dpi.nsw.gov.au/_data/assets/pdf_file/0003/290244/ diseases-of-cucurbit-vegetables.pdf [126] Nguyễn Trường Giang, Vũ Văn Khuê, Lý Nữ Cẩm Duyên, Lê Đức Dũng (2019), “Đánh giá nguồn vật liệu khởi đầu phục vụ công tác chọn tạo giống dưa chuột ưu lai vùng Duyên Hải Nam Trung Bộ”, Tạp chí Khoa học Cơng nghệ Nông nghiệp Việt Nam - Số 6(103) [127] Trần Tố Tâm, Trần Thị Minh Hằng, Phạm Mỹ Linh (2020), “Đánh giá khả thích ứng số tổ hợp lai dưa chuột có triển vọng vùng Đồng Sơng Hồng”, Tạp chí Khoa học Nơng nghiệp Việt Nam, 18(2): 81-87 [128] Shanwen Zhang, Yihai Zhu, Zhuhong You, Xiaowei Wu (2017), “Fusion of super-pixel, expectation maximization and PHOG for recognizing cucumber diseas-es”, Computers and Electronics in Agriculture, 140: 338-347 [129] Wang, C., Du, P., Wu, H., Li, J., Zhao, C., & Zhu, H (2021), “A cucumber leaf disease severity classification method based on the fusion of DeepLabV3+ and U-Net”, Computers and Electronics in Agriculture, 189: 106373 [130] Zhang, P., Yang, L., & Li, D (2020), “EfficientNet-B4-Ranger: A novel method for greenhouse cucumber disease recognition under natural complex environment”, Computers and Electronics in Agriculture, 176, 105652 [131] Ma, J., Du, K., Zhang, L., Zheng, F., Chu, J., & Sun, Z (2017), “A segmentation method for greenhouse vegetable foliar disease spots images using color information and region growing”, Computers and Electronics in Agriculture, 142, 110-117 130 [132] [Li, K., Zhang, L., Li, B., Li, S., & Ma, J (2022)], “Attention-optimized DeepLab V3+ for automatic estimation of cucumber disease severity”, Plant Methods, 18(1), 1-16 [133] KHAN, Muhammad Attique, et al (2020), “An automated system for cucumber leaf diseased spot detection and classification using improved saliency method and deep features selection”, Multimedia Tools and Applications, 79.25: 18627-18656 [134] ZHANG, Shanwen; WANG, Zhen (2016), “Cucumber disease recognition based on Global-Local Singular value decomposition”, Neurocomputing, 205: 341-348 [135] PAWAR, Pooja; TURKAR, Varsha; PATIL, Pravin (2016), “Cucumber disease detection using artificial neural network”, In: 2016 International Conference on Inventive Computation Technologies (ICICT) IEEE, p 1-5 [136] Ma, J., Du, K., Zheng, F., Zhang, L., Gong, Z., & Sun, Z (2018), “A recognition method for cucumber diseases using leaf symptom images based on deep convolutional neural network”, Computers and electronics in agriculture, 154: 18-24 [137] G E Meyer and J C Neto (2008), “Verification of color vegetation indices for automated crop imaging applications”, Computers and electronics in agriculture, vol 63, no 2, pp 282–293 [138] P C Mahalanobis (1936), “On the generalized distance in statistics”, National Institute of Science of India [139] C Chen (2007), “Image Processing for Remote Sensing”, CRC Press, Online, Available: https://books.google.com.vn/books?id=gG25PBNY7MC [140] A.-G Manh, G Rabatel, L Assemat, and M.-J Aldon (2001), “Ae— automation and emerging technologies: Weed leaf image segmentation by deformable templates”, Journal of agricultural engineering research, vol 80, no 2, pp 139–146 [141] Xia, C., Lee, J M., Li, Y., Song, Y H., Chung, B K., & Chon, T S (2013), “Plant leaf detection using modified active shape models”, Biosystems engineering, vol 116, no 1, pp 23–35 [142] Fabijańska, A and Sankowski, D (2014), “Segmentation methods in the selected industrial computer vision application”, In Computer Vision in Robotics and Industrial Applications, pp 23-48 [143] [GT3] Kamoi, R., & Kobayashi, K (2020), “Why is the mahalanobis distance effective for anomaly detection?”, arXiv preprint arXiv:2003.00402 [144] [GT4] Sarmadi, H., Entezami, A., Saeedi Razavi, B., & Yuen, K V (2021), “Ensemble learning‐based structural health monitoring by Mahalanobis distance metrics”, Structural Control and Health Monitoring, 28(2), e2663 [145] [GT5] Panda, A., Pachori, R B., & Sinnappah-Kang, N D (2021), “Classification of chronic myeloid leukemia neutrophils by hyperspectral imaging using Euclidean and Mahalanobis distances”, Biomedical Signal Processing and Control, 70, 103025 131 [146] [GT6] Guerrero-Gonzalez, J M., Yeske, B., Kirk, G R., Bell, M J., Ferrazzano, P A., & Alexander, A L (2022), “Mahalanobis distance tractometry (MaD-Tract)–a framework for personalized white matter anomaly detection applied to TBI”, Neuroimage, 260, 119475 [147] J Khan, M Handa, and R Vemuri (2002), “ipace-v1: A portable adaptive computing engine for real time applications”, In International Conference on Field Programmable Logic and Applications Springer, pp 69–78 [148] Fabijańska, A., and Sankowski, D (2014), “Segmentation methods in the selected industrial computer vision application”, In Computer Vision in Robotics and Industrial Applications World Scientific Publishing Co., Inc (pp 23-48) [149] G H Ball and D J Hall (1965), “Isodata, a novel method of data analysis and pattern classification”, Stanford research inst Menlo Park CA, Tech Rep [150] Z Wang, E Wang, and Y Zhu (2020), “Image segmentation evaluation: a survey of methods”, Artificial Intelligence Review, vol 53, no 8, pp 5637– 5674 [151] T Zhang and C Y Suen (1984), “A fast parallel algorithm for thinning digital patterns”, Communications of the ACM, vol 27, no 3, pp 236–239 [152] Chen, L., Li, S., Bai, Q., Yang, J., Jiang, S., & Miao, Y (2021), “Review of Image Classification Algorithms Based on Convolutional Neural Net orks”, Remote Sensing, 13.22: 4712 [153] Gu, J.; Wang, Z.; Kuen, J.; Ma, L.; Shahroudy, A.; Shuai, B.; Liu, T.; Wang, X.; Wang, G (2018), “Recent Advances in Convolutional Neural Networks”, Pattern Recognit, 77, 354–377 [154] Rasamoelina, A D., Adjailia, F., & Sinčák, P (2020), “A review of activation function for artificial neural network”, In 2020 IEEE 18th World Symposium on Applied Machine Intelligence and Informatics (SAMI) (pp 281-286) IEEE [155] Block, H D (1970), “A revie of “perceptrons: An introduction to computational geometry”, Information and Control, 17.5: 501-522 [156] Taud, H., & Mas, J F (2018), “Multilayer perceptron (MLP)”, In Geomatic approaches for modeling land change scenarios (pp 451-455) Springer, Cham [157] Gu, H., Wang, Y., Hong, S., & Gui, G (2019), “Blind channel identification aided generalized automatic modulation recognition based on deep learning”, IEEE Access, 7: 110722-110729 [158] Dumoulin, V.; Visin, F (2016), “A guide to convolution arithmetic for deep learning”, arXiv:1603.07285 [159] Tuytelaars, T.; Mikolajczyk, K (2007), “Local Invariant Feature Detectors: A Survey”, Found Trends Comput Graph Vis 3, 177–280 [160] Liu, W.; Wang, Z.; Liu, X.; Zeng, N.; Liu, Y.; Alsaadi, F (2016), “A survey of deep neural network architectures and their applications”, Neurocomputing, 234, 11–26 132 [161] Hinton, G.E.; Srivastava, N.; Krizhevsky, A.; Sutskever, I.; Salakhutdinov, R.R (2012), “Improving neural networks by preventing co-adaptation of feature detectors”, arXiv:1207.0580 [162] Krizhevsky, Alex; Sutskever, Ilya; Hinton, Geoffrey E (2012), “Imagenet classification with deep convolutional neural networks”, Advances in neural information processing systems, 25: 1097-1105 [163] Simonyan, Karen; Zisserman, Andrew (2014), “Very deep convolutional networks for large-scale image recognition”, arXiv preprint arXiv:1409.1556 [164] HE, Kaiming, et al (2016), “Deep residual learning for image recognition”, In: Proceedings of the IEEE conference on computer vision and pattern recognition p 770-778 [165] Wu, Z.; Shen, C.; Hengel, A (2016), “Wider or Deeper: Revisiting the ResNet Model for Visual Recognition”, Pattern Recognit., 90, 119–133 [166] He, K., Zhang, X., Ren, S., & Sun, J (2016), “Identity mappings in deep residual networks”, In European conference on computer vision, Springer, Cham, pp 630-645 [167] Emin Orhan, A.; Pitkow, X (2017), “Skip Connections Eliminate Singularities”, arXiv:1701.09175 [168] Felzenszwalb, P F., Girshick, R B., McAllester, D., & Ramanan, D (2010), “Object detection with discriminatively trained part-based models”, IEEE transactions on pattern analysis and machine intelligence, vol 32, no 9, pp 1627–1645 [169] Shetty, A K., Saha, I., Sanghvi, R M., Save, S A., & Patel, Y J (2021), “A Review: Object Detection Models”, In: 2021 6th International Conference for Convergence in Technology (I2CT) IEEE, p 1-8 [170] Bochkovskiy, A., Wang, C Y., & Liao, H Y M (2020), “YOLOv4: Optimal speed and accuracy of object detection”, arXiv preprint arXiv:2004.10934 [171] Joseph Redmon and Ali Farhadi (2018), “Yolov3: An incremental improvement”, arXiv preprint arXiv:1804.02767 [172] Alexey Bochkovskiy (2020), “Darknet: Open Source Neural Net orks in Python”, Available online: https://github.com/AlexeyAB/darknet (accessed on November 2020) [173] Redmon, J., Divvala, S., Girshick, R., & Farhadi, A (2016), “You only look once: Unified, real-time object detection”, In Proceedings of the IEEE conference on computer vision and pattern recognition (pp 779-788) [174] Jiang, Z., Zhao, L., Li, S., & Jia, Y (2020), “Real-time object detection method based on improved YOLOv4-tiny”, arXiv preprint arXiv:2011.04244 [175] Jiang, Z., Zhao, L., Li, S., & Jia, Y (2020, June), “Real-time object detection method for embedded devices”, In computer vision and pattern recognition [176] Ahmed, A A., Darwish, S M S., & El-Sherbiny, M M (2020), “A novel automatic CNN architecture design approach based on genetic algorithm”, In Proceedings of the International Conference on Advanced Intelligent Systems and Informatics 2019 (pp 473-482), Springer International Publishing 133 [177] Albelwi, S., & Mahmood, A (2017), “A framework for designing the architectures of deep convolutional neural networks”, Entropy, 19(6), 242 [178] Shi, Y., Yang, K., Jiang, T., Zhang, J., & Letaief, K B (2020), “Communication-efficient edge AI: Algorithms and systems”, IEEE Communications Surveys & Tutorials, 22(4), 2167-2191 [179] Wang, C.-Y.; Bochkovskiy, A.; Liao, H.-Y.M (2020), “Scaled-YOLOv4: Scaling Cross Stage Partial Network”, arXiv , arXiv:2011.08036 [180] Smith, L N (2018), “A disciplined approach to neural network hyperparameters: Part learning rate, batch size, momentum, and weight decay”, arXiv preprint arXiv:1803.09820 [181] Kohavi, R (1995, August), “A study of cross-validation and bootstrap for accuracy estimation and model selection”, In Ijcai (Vol 14, No 2, pp 11371145) [182] Thanh Mai Ha, Shamim Shakur, Kim Hang Pham Do (2020), “Risk perception and its impact on vegetable consumption: A case study from Hanoi, Vietnam”, Journal of Cleaner Production 271 (2020) 122793 [183] Colucci, S.J., Wehner, T.C & Holmes, G.J (2006), “The ny milde epidemic of 2004 and 2005 in the eastern United States”, In: Proc Cucurbitaceae p 403–411 [184] PREZ‐GARCÍA, ALEJANDRO, et al (2009), “The powdery mildew fungus Podosphaera fusca (synonym Podosphaera xanthii), a constant threat to cucurbits”, Molecular plant pathology, 10(2), 153-160 [185] Lebeda, A., McGrath, M T., & Sedláková, B (2010), “Fungicide resistance in cucurbit po dery milde fungi”, Fungicides, 11, 221-246 [186] Rur, M., Rämert, B., Hökeberg, M., Vetukuri, R R., Grenville-Briggs, L., & Liljeroth, E (2018), “Screening of alternative products for integrated pest management of cucurbit powdery mildew in Sweden”, European journal of plant pathology, 150(1), 127-138 [187] Eskandari, S., & Sharifnabi, B (2019), “The modifications of cell wall composition and water status of cucumber leaves induced by powdery mildew and manganese nutrition”, Plant Physiology and Biochemistry, 145, 132-141 [188] Call, A D., Criswell, A D., Wehner, T C., Ando, K., & Grumet, R (2012), “Resistance of cucumber cultivars to a new strain of cucurbit downy milde ”, HortScience, 47(2), 171-178 [189] Palti, J., & Cohen, Y (1980), “Do ny milde of cucurbits (Pseudoperonospora cubensis): the fungus and its hosts, distribution, epidemiology and control”, Phytoparasitica, 8(2), 109-147 [190] Cohen, Y., Van den Langenberg, K M., Wehner, T C., Ojiambo, P S., Hausbeck, M., Quesada-Ocampo, L M., & Gisi, U (2015), “Resurgence of Pseudoperonospora cubensis: The causal agent of cucurbit downy milde ”, Phytopathology, 105(7), 998-1012 134 [191] Hughes, D., & Salathé, M (2015), “An open access repository of images on plant health to enable the development of mobile disease diagnostics”, arXiv preprint arXiv:1511.08060 [192] Phạm Hữu Nguyên, Nguyễn Thị Ngọc, Võ Thái Dân, Nguyễn Châu Niên, Huỳnh Thanh Hùng (2018), “Ảnh hưởng ba mật độ trồng đến sinh trưởng suất bốn giống dưa leo (Cucumis sativus L.) canh tác không đất”, Tạp chí Khoa học kỹ thuật Nơng Lâm nghiệp, Trường đại học Nông Lâm TP HCM, số 1/2018, trang 17-25 [193] Pytorch.org, “Models and pre-trained weights”, https://pytorch.org/vision/stable/models.html [194] Quy chuẩn kỹ thuật quốc gia, “Về phương pháp điều tra phát dịch hại trồng”, QCVN 01-38:2010/BNNPTNT [195] Roboflow (2022), “Strawberry Disease Detection Dataset Dataset”, Roboflow Universe, https://universe.roboflow.com/strawberry-disease/strawberrydisease-detection-dataset [196] Sharada P Mohanty, David P Hughes, and Marcel Salathé (2016), “Using deep learning for image-based plant disease detection”, Frontiers in plant science (2016), 1419 135 PHỤ LỤC Phần phụ lục luận án trình bày cụ thể thuật tốn xác định chiều cao, số trình bày thơng qua sơ đồ Chương cụ thể với dưa chuột thực nghiệm Chương Trình bày số phần cứng thuật toán điều khiển trình thu nhận liệu hệ thống điều khiển giám sát cảnh báo bệnh sương mai bệnh phấn trắng thiết kế Chương PHỤ LỤC I THUẬT TOÁN XÁC ĐỊNH CHIỀU CAO, SỐ LÁ CÂY DƯA CHUỘT Bảng PL1.1 Ước lượng số lượng dưa chuột (NE_ALGORITHM) Algorithm 1: Estimate the number of leaves on a cucumber plant (NE_ALGORITHM) Input + The initial RGB images of cucumber for estimating the number of leaves (The image resolution is MxN) Output + The skeleton of the cucumber plant SK(i,j); + Number of leaves on a cucumber plant: Ne Initiation: The matrix of binary image IT The value of the pixel in row ith and column jth is IT(i,j): • IT(i,j) = the plant pixel; • IT(i,j) = it is the background pixel Let’s P1 (i,j) denote the candidate pixel which needs to be check whether it belongs to the plant skeleton or not Then neighboring pixels of the candidate pixel are: P2(i-1,j), P3(i-1,j+1), P4(i,j+1), P5(i+1,j+1), P6(i+1,j), P7(i+1,j-1), P8(i,j-1), P9(i-1,j-1) 1: Procedure NE_ALGORITHM(IT(i,j) ) 2: Convert the RGB image to the binary image IT(i,j) IT(i,j) = if it is the plant pixel; and IT(i,j) = 0, then it belongs to background 3: Find the skeleton of the cucumber plant: 4: for (i ← to M) 5: for ( i ← to N) 6: The values of neighboring pixels are (P2(i-1,j)=0, P3(i-1,j+1)=0, P4(i,j+1)=0, P5(i+1,j+1)=0, P6(i+1,j)=0, P7(i+1,j-1)=0, P8(i,j-1)=0, P9(i-1,j-1)=0) if either of two following conditions are satisfied: 𝐴(𝑃1 ) = 7: ≤ 𝐵(𝑃1 ) ≤ + The first condition:{ 𝑃2 ∗ 𝑃4 ∗ 𝑃6 = 𝑃4 ∗ 𝑃6 ∗ 𝑃8 = 8: 𝐴(𝑃1 ) = ≤ 𝐵(𝑃1 ) ≤ + The second condition:{ 𝑃2 ∗ 𝑃4 ∗ 𝑃8 = 𝑃2 ∗ 𝑃6 ∗ 𝑃8 = Where: A(P1) is the number of times the pixel value of neighboring pixels (P2, …P9) changes from to B(P1) is the number of pixels with a value of in neighboring pixels:: 𝐵(𝑃1 ) = ∑ 𝑃𝑖 𝑖=2 9: 10: 11: 12: 13: 14: 15: 16: 17: 18: 19: 20: If 𝑃1 (𝑖, 𝑗) ≠ 𝑡ℎ𝑒𝑛 𝑆𝐾 (𝑖, 𝑗) ← 𝑃1 (𝑖, 𝑗) End for End for The main skeleton of a cucumber plant inludes all the pixels, whose value is (𝑆𝐾 (𝑖, 𝑗), {1 ≤ 𝑖 ≤ 𝑀, ≤ 𝑗 ≤ 𝑁}) Find the nodes on the main skeleton of the cucumber plant: Let the image of the main skeleton of the cucumber plant SK(i,j),{1≤i≤M,1≤j≤N} for (i ← to M ) for (i ← to N) Point P(i,j) is a node of the plant if the following conditions are satisfied: 𝑃(𝑖 , 𝑗 ) = { 𝑁 𝑁 𝑃(𝑖, 𝑗) = ∀𝑖 < 𝑖𝑁 ||∀𝑖 > 𝑖𝑁 ||∀𝑗 < 𝑗𝑁 ||∀𝑗 > 𝑗𝑁 End for End for The number of nodes on the main skeleton of a cucumber plant is the number of leaves (Ne) of the plant Bảng PL 1.2 Ước lượng chiều cao dưa chuột (LE_ALGORITHM) Algorithm 2: Estimate the height of the cucumber plant (LE_ALGORITHM) Input: + The initial RGB images of cucumber for estimating the number of leaves (The image resolution is MxN) Output: + The skeleton of the cucumber plant; The height of cucumber plant: Le=0 + Initiation: The matrix of binary image IT The value of the pixel in row ith and column jth is IT(i,j): • IT(i,j) = the plant pixel; • IT(i,j) = it is the background pixel 1: Procedure LE_ALGORITHM(IT(𝑖, 𝑗) ) 2: 3: 4: Finding the skeleton of a cucumber plant using the algorithm NE_ALGORITHM(IT(𝑖, 𝑗) ) Estimate the height of the cucumber plant: Le Consider the main skeleton image of a cucumber plant 𝑆𝐾 (𝑖, 𝑗), {1 ≤ 𝑖 ≤ 𝑀, ≤ 𝑗 ≤ 𝑁} for (i ← to M ) 5: for (i ← to N) 6: 𝑆𝐾(𝑖, 𝑗) ≠ If {𝑃(𝑚, 𝑛) ≠ then 𝐿𝑒 = 𝐿𝑒 𝑚 ≥ 𝑖, 𝑛 ≥ 𝑗 End for 7: 8: √(𝑚 − 𝑖)2 (𝑛 − 𝑗)2 End fof 9: The height of the cucumber plant is the cumulative sum of the distances between the adjacent pixels on the main skeleton of the cucumber plant PHỤ LỤC II HỆ THỐNG ĐIỀU KHIỂN GIÁM SÁT VÀ CẢNH BÁO BỆNH SƯƠNG MAI VÀ BỆNH PHẤN TRẮNG TRÊN CÂY DƯA CHUỘT PL2.1 Các thiết bị ph n cứng Hệ thống gồm thiết bị phần cứng thể Hình PL2.1, thơng số thiết bị cho Bảng PL2.1 Ar uino UNO Mo u NR 24 Mo u NR 24 1 Ar uino UNO P C Bơm hun thuốc Tín hiệu ĐK hun thuốc tr ệnh Box Tín hiệu ĐK hun thuốc tr ệnh G i h nh ảnh đến mai C ị ệnh G i tin nhắn tới điện thoại Cam Pi Ra rr Pi Ar uino UNO SIM Phon Đ c tiến ùi ro ot Đ c i chu ển Đ c ua cam Ar uino UNO n xuống cam Micro t Hình PL2.1 Sơ đồ cấu trúc thiết bị phần cứng hệ thống điều khiển giám sát bệnh cảnh báo bệnh dưa chuột Bảng PL2.1 Thông số phần cứng hệ thống giám sát cảnh báo bệnh sương mai bệnh phấn trắng dưa chuột STT Thiết bị Số Thơng số k thuật ượng Raspberry Pi 4B + 1.5GHz quad-core 64-bit ARM CortexA72 CPU + 2GB of LPDDR4 SDRAM + Hai cổng USB 3.0 hai cổng USB 2.0 + 5V DC via USB-C connector (minimum 3A*) + 5V DC via GPIO header (minimum 3A*) Arduino Uno R3 + Chip điều khiển chính: ATmega328P + Chip nạp giao tiếp UART: ATmega16U2 + Nguồn ni mạch: 5VDC từ cổng USB nguồn ngồi cắm từ giắc tròn DC + Số chân Digital I/O: 14 (trong chân có khả xuất xung PWM) + Số chân PWM Digital I/O: + Số chân Analog Input: + Dòng điện DC Current chân I/O: 20 mA + Dòng điện DC Current chân 3.3V: 50 mA Raspberry Pi + Module Camera V1 cho Raspberry Pi Camera + Cảm biến: OV5647 + Độ phân giải: 5MP + Angle of View (diagonal): 62.2 degree + Độ phân giải hình: 2592x1944 pixel + Quay phim HD 1080P 30, 720P 60, VGA 640x480P 60 + Lens: Fixed Focus + Conector: Ribon conector + Kích thước: 25x24x9mm Module + Điện hoạt động: 1.9V – 3.6V NRF24L01 + Anthena sứ 2.4GHz + Truyền 100m môi trường mở + Tốc độ truyền liệu qua sóng: 250kbps to 2Mbps Driver điều + IC Driver: SI09AFTG Japan khiển động + Nguồn cấp tối đa: 40VDC bước Microstep + Dòng cấp IOUT = 3.5 A 3.5A 40VDC + Độ phân giải: 1/1, 1/2, 1/4, 1/8, 1/16, 1/32 step + Có thể điều khiển đảo chiều quay + Tích hợp chân Reset Enable STT Thiết bị Động bước SUMTOR 57HS11230A4 Động Servo SG90 Số ượng 2 Màn hình inch HDMI Raspberry Ắc quy GLOBE WP15 - 12SE 12V 15Ah Module chuyển đổi DC-DC SIM808 GSM GPRS GPS Module 10 11 12 PLC S7-1200 Thơng số k thuật + Tích hợp tính Standby + Tích hợp bảo vệ nhiệt TSD + Tích hợp bảo vệ áp UVLO + Dịng chịu tải 3A + Góc bước: 1.8o/step + Moment xoắn trục: 3Nm + Khối lượng : 9g + Kích thước: 23mmx12.2mmx29mm + Momen xoắn: 1.8kg/cm + Tốc độ hoạt động: 60 độ 0.1 giây + Điện áp hoạt động: 4.8V(~5V) + Nhiệt độ hoạt động: ºC – 55 ºC + Ðộ phân giải 800 x 480 pixel + Tương thích Raspberry Pi B, B+, 2, Raspberry Pi 3, + Kết nối qua cổng HDMI tiêu chuẩn điều khiển cảm ứng qua USB + Hiệu điện thế: 12V + Dung lượng: 15Ah + Kích thước (mm): L151 x W98 x H95 Trọng lượng: 4.4kg + Đầu vào từ: 12-24VDC + Đầu ra: 5V-5A + Điện áp cấp: 5~18 VDC; + Kết nối với máy tính qua module USBTTL; + Có đầu nối để kết nối với pin lithium; + Có LED để hiển thị trạng thái gỡ lỗi; + Có khe chứa SIM MICRO; + Có cổng nối tiếp TTL, tương thích với 2.85V, 3.3V, 5V; + Mạch hỗ trợ tin nhắn văn bản, điện thoại, liệu GPRS, GPS, hỗ trợ giao thức HTTP, hỗ trợ giải mã DTMF, hỗ trợ MMS + CPU 1212C, COMPACT CPU, AC/DC/RLY + ONBOARD I/O: DI 24V DC; + DO RELAY 2A + AI - 10V DC + POWER SUPPLY: AC 85 - 264 V AC AT 47 - 63 HZ + PROGRAM/DATA MEMORY: 75 KB STT 13 14 15 Thiết bị Số Thơng số k thuật ượng V-Box HW-F + CPU: Cortex A7 528 MHz + Flash: 128Mb + Memory: Ram DDRIII 128Mb + Connect: WIFI Module + Cổng Micro USB host/Device: USB OTG Switch + Cổng nối tiếp COM1: RS232, RS485/RS422 (2 in 1) + Cổng Digital: đầu vào cách ly/đầu rơ le + cổng Ethernet: WAN + LAN + Điện áp nguồn: 24 VDC (12 ~ 28 VDC) Máy phun + Lưu lượng bơm 1.5 lít/ phút sương Haita HP+ Áp suất 120 PSI 2700 + Nguồn adapter 24V-1.2A + Phun sương: – 15 béc Van nước điện + Điện áp làm việc: 12VDC từ + Đầu vào, đầu ống: 21mm (đường kính ngồi) + Áp suất ống vịi: 0.02 – 0.8 MPa PL2.2 Thuật tốn điều khiển thu thập liệu hình ảnh hệ thống điều khiển giám sát cảnh báo bệnh Như trình bày Chương 4, Hình 4.9, có chế độ làm việc khác robot làm việc giám sát bệnh dưa chuột, chế này tương ứng với vị trí chụp ảnh góc độ khác Trên Hình PL2.2, Hình PL2.3 Hình PL2.4 thể lưu đồ thuật toán chế độ 1, chế độ chế độ hệ thống giám sát cảnh báo bệnh Trong đó: n số dãy cần chụp, vị trí a1, a2 tương ứng với camera quay 450; b1, b2 tương ứng với camera 900 c1, c2 tương ứng camera 1450 so với vị trí thẳng đứng; số 1, sau chữ a, b, c dãy bên phải (số 1), bên trái (số 2) robot di chuyển n i Cam chụ ảnh vị trí a2 Cam chụ ảnh vị trí a1 Qua cam Ro ot tiến n o Qua cam cm i i n Ro ot tiến n cm Cam chụ ảnh vị trí a1 Cam chụ ảnh vị trí a2 i o Đ ng S i i i n Đ ng S Kết th c Hình PL2.2 Lưu đồ thuật tốn điều khiển chụp ảnh chế độ n i Cam chụ ảnh vị trí a1 Cam chụ ảnh vị trí a1 o Qua cam Qua cam Cam chụ ảnh vị trí a2 N ng cam Cam chụ ảnh vị trí a2 n1 Hạ cam xuống Cam chụ ảnh vị trí a2 Qua cam Ro ot tiến n Cam chụ ảnh vị trí a2 cm o Qua cam Cam chụ ảnh vị trí a1 i i i n o Ro ot tiến n o Cam chụ ảnh vị trí a1 i i Đ ng Đ ng i Sai n Sai Kết th c Hình PL2.3 Lưu đồ thuật tốn điều khiển chụp ảnh chế độ cm n i Cam chụ ảnh vị trí a1 Cam chụ ảnh vị trí a1 c1 o Qua cam Cam chụ ảnh vị trí a2 N ng cam Cam chụ ảnh vị trí c2 a2 n1 Hạ cam Cam chụ ảnh vị trí a1 Cam chụ ảnh vị trí a2 N ng cam Qua cam Ro ot tiến n cm n2 Hạ cam Ro ot tiến n Cam chụ ảnh vị trí a1 o Qua cam Cam chụ ảnh vị trí c1 a1 i o Cam chụ ảnh vị trí a1 Cam chụ ảnh vị trí a2 c2 Qua cam n1 Cam chụ ảnh vị trí a2 o Qua cam o Qua cam o Cam chụ ảnh vị trí a1 i i i Đ ng Đ ng i n i Sai n Sai Kết th c Hình PL2.4 Lưu đồ thuật tốn điều khiển chụp ảnh chế độ n cm

Ngày đăng: 30/06/2023, 12:03

Tài liệu cùng người dùng

Tài liệu liên quan