Nghiên cứu và phát triển phương pháp định vị độ chính xác cao cho robot tự hành dựa trên công nghệ nhận dạng vật thể

69 0 0
Nghiên cứu và phát triển phương pháp định vị độ chính xác cao cho robot tự hành dựa trên công nghệ nhận dạng vật thể

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

Thông tin tài liệu

BỘ GIÁO DỤC VÀ ĐÀO TẠO TRƯỜNG ĐẠI HỌC PHENIKAA NHÂM VĂN TÙNG Nghiên cứu phát triển phương pháp định vị độ xác cao cho robot tự hành dựa công nghệ nhận dạng vật thể LUẬN VĂN THẠC SĨ KỸ THUẬT CƠ KHÍ ĐỘNG LỰC HÀ NỘI – 2023 1 BỘ GIÁO DỤC VÀ ĐÀO TẠO TRƯỜNG ĐẠI HỌC PHENIKAA NHÂM VĂN TÙNG Nghiên cứu phát triển phương pháp định vị độ xác cao cho robot tự hành dựa công nghệ nhận dạng vật thể Ngành: Kỹ thuật Cơ khí động lực Mã số: 8520116 LUẬN VĂN THẠC SĨ KỸ THUẬT CƠ KHÍ ĐỘNG LỰC NGƯỜI HƯỚNG DẪN KHOA HỌC: TS NGUYỄN DUY VINH HÀ NỘI - 2023 Lời cảm ơn Sau thời gian tiến hành triển khai nghiên cứu, hoàn thành nội dung luận văn “Nghiên cứu phát triển phương pháp định vị độ xác cao cho robot tự hành dựa công nghệ nhận dạng vật thể” Luận văn hồn thành khơng cơng sức thân tác giả mà cịn có giúp đỡ, hỗ trợ tích cực nhiều cá nhân tập thể Trước hết, xin gửi lời cảm ơn chân thành sâu sắc đến TS Nguyễn Duy Vinh, người trực tiếp hướng dẫn cho luận văn cho Thầy dành cho nhiều thời gian, tâm sức, cho nhiều ý kiến, nhận xét quý báu, chỉnh sửa cho chi tiết nhỏ luận văn, giúp luận văn tơi hồn thiện mặt nội dung hình thức Thầy quan tâm, động viên, nhắc nhở kịp thời để tơi hồn thành luận văn tiến độ Tôi xin gửi lời cảm ơn đến thầy Khổng Minh, ý kiến đóng góp quan tâm, động viên bảo tận tình thầy vừa giúp tơi có khích lệ, tin tưởng vào thân, vừa tạo động lực nhắc nhở có trách nhiệm với đề tài mình, giúp tơi hồn chỉnh luận văn tốt Tơi xin gửi lời cảm ơn chân thành đến công ty cổ phần Phenikaa-X tạo điều kiện, không gian sở vật chất tơi tiến hành nghiên cứu triển khai thực nghiệm với yêu cầu luận văn Tôi xin gửi lời cảm ơn đến Ban Giám hiệu trường đại học PHENIKAA, tập thể giảng viên khoa Kỹ thuật Ơ tơ Năng lượng tạo điều kiện thuận lợi, nhiệt tình giúp đỡ tơi q trình nghiên cứu phát triển đề tài Do hạn chế kiến thức, kinh nghiệm, thời gian tìm hiểu thực nên luận văn chắn cịn nhiều thiếu sót Tơi mong nhận nhiều ý kiến đóng góp thầy, bạn để tơi có nhìn sâu sắc vấn đề Lời cam đoan Tơi xin cam đoan luận văn cơng trình nghiên cứu thực hướng dẫn TS Nguyễn Duy Vinh Các số liệu kết nghiên cứu, bao gồm phần phụ lục luận văn, trung thực khách quan, đồng ý sở nơi nghiên cứu. Nghiên cứu không trùng lặp với nghiên cứu khác công bố Hà Nội, ngày … tháng … năm 2023 (Học viên ký, ghi rõ họ tên) MỤC LỤC Mở đầu Chương Nội dung tổng quan 1.1 Tóm tắt khái niệm 1.1.1 Robot tự hành 1.1.2 Cảm biến Lidar 1.1.3 Công nghệ SLAM 1.1.4 Bản đồ số .8 1.1.5 Bản địa hóa robot 1.1.6 Robotic Operating System (ROS) .10 1.2 Thực trạng, vấn đề tồn 12 1.3 Trình bày, phân tích nghiên cứu có liên quan đến luận văn cơng bố ngồi nước 14 1.3.1 Sử dụng gương phản xạ lidar SLAM 14 1.3.2 Phương pháp dựa điểm đánh dấu để nhận dạng vị trí cho robot 16 1.3.3 Sửa lỗi vị trí robot tự hành ARM 19 1.4 Những nội dung mà luận văn cần tập trung nghiên cứu, giải 21 Chương Nghiên cứu xây dựng thuật toán 23 2.1 Đối tượng nghiên cứu 23 2.1.1 Các phận robot .24 2.1.2 Vị trí lắp đặt cảm biến laser robot 26 2.2 Xây dựng thuật toán 27 2.2.1 Xác định đoạn thẳng 27 2.2.2 Xác định biên dạng đặc biệt 32 2.2.3 Dịch chuyển hệ trục tọa độ 34 2.2.4 Xác định vị trí robot 38 Chương Kết thảo luận 40 3.1 Chế tạo thực nghiệm 40 3.1.1 Thử nghiệm với công nghệ SLAM 41 3.1.2 Thử nghiệm với hệ thống gương phản xạ 42 3.1.3 Thử nghiệm với biên dạng VL 43 3.2 Mô liệu 45 3.3 Đánh giá kết thực nghiệm 46 3.3.1 Sai số định vị sử dụng công nghệ SLAM 47 3.3.2 Sai số định vị sử dụng hệ thống gương phản xạ 48 3.3.3 Sai số định vị sử dụng biên dạng VL 50 3.4 Biểu đồ kết thực nghiệm 52 3.5 Thảo luận 53 Kết luận khuyến nghị 54 TÀI LIỆU THAM KHẢO .56 Danh mục từ viết tắt STT Ký hiệu Chữ viết đầy đủ AGV Automated Guided Vehicle AMR Autonomous Mobile Robot AR Augmented Reality BSD Berkeley Software Distribution CARG Compound Annual Growth Rate CPU Central Processing Unit GPS Global Positioning System HRC Human Robot Collaboration ID 10 IROS 11 LIDAR Light Detection And Ranging 12 MDPI Multidisciplinary Digital Publishing Institute 13 OS 14 QR code 15 ROS Robot Operating System 16 RTOS Real-time Operating System 17 SLAM Simultaneous Localization and Mapping Identification International Conference on Intelligent Robots and Systems Operating System Quick Response code Danh mục bảng biểu Bảng 1.1: Các phận bên robot AMR_250 24 Bảng 1.2: Vị trí tương quan cảm biến Lidar robot AMR_250 26 Bảng 3.1: Bảng thông số kỹ thuật robot 40 Bảng 3.2: Bảng thông số kỹ thuật trạm sạc 43 Bảng 3.3: Bảng thông số kỹ thuật cảm biến laser 44 Bảng 3.4: Bảng sai số vị trí theo trục X trục Y sử dụng công nghệ SLAM 48 Bảng 3.5: Bảng sai số vị trí theo trục X trục Y sử dụng gương phản xạ 49 Bảng 3.6: Bảng sai số vị trí theo trục X trục Y sử dụng biên dạng VL 51 Bảng 3.7: Bảng sai số vị trí theo trục X trục Y 51 Danh mục hình vẽ Hình 1.1: Robot dog Spot Hình 1.2: Cảm biến Lidar hãng SICK - MicroScan3 Hình 1.3: Robot hút bụi PUPPYOO R6-Home Hình 1.4: Bản đồ số Hình 1.5: Q trình địa hóa Hình 1.6: Kiến trúc ROS 11 Hình 1.7 : Ví dụ không gian sử dụng gương phản xạ 15 Hình 1.8: Sử dụng điểm đánh dấu lồng với robot tự hành 16 Hình 1.9: Thiết lập thử nghiệm để xác minh phương pháp đề xuất .18 Hình 2.1: Robot SASs_250 23 Hình 2.2: Phía trước robot SASs_250 .24 Hình 2.3: Vị trí lắp cảm biến Laser robot 26 Hình 2.4: Phát phân đoạn hạt 29 Hình 2.5: Hình thành vùng chồng lấn (quan hệ thẳng hàng) 30 Hình 2.6: Điểm cuối (màu đỏ) 31 Hình 2.7: Vị trí tương đối robot VL dock 32 Hình 2.8: Một số định nghĩa sử dụng .35 Hình 2.9: Các trường hợp xảy thực phép xoay góc 36 Hình 2.10: Dịch chuyển tịnh tiến 37 Hình 2.11: Sai số vị trí hướng robot so với hệ trục tọa độ VL dock 38 Hình 3.1: Robot AMR_250 .40 Hình 3.2: Mơi trường đánh giá định vị vị trí cơng nghệ SLAM 41 Hình 3.3: Hình ảnh cọc cố định gương phản xạ 42 Hình 3.4: Mơi trường thử nghiệm sử dụng gương phản xạ 42 Hình 3.5: Trạm sạc, tích hợp biên dạng VL 43 Hình 3.6: Mơi trường thực nghiệm định vị vị trí với biên dạng VL 44 Hình 3.7: Mơ trình robot định vị biên dạng VL 45 Hình 3.8: Tọa độ robot vị trí 710 mm (trục X) sử dụng cơng nghệ SLAM 47 Hình 3.9: Tọa độ robot vị trí 2540 mm (trục X) sử dụng cơng nghệ SLAM.47 Hình 3.10: Tọa độ robot vị trí 710 mm (trục X) sử dụng gương phản xạ 48 Hình 3.11: Tọa độ robot vị trí 2540 mm (trục X) sử dụng gương phản xạ 49 Hình 3.12: Tọa độ robot vị trí 710 mm (trục X) sử dụng biên dạng VL 50 Hình 3.13: Tọa độ robot vị trí 2540 mm (trục X) sử dụng biên dạng VL 50 Hình 3.14: Độ xác q trình robot di chuyển biên dạng VL 52 Hình 3.15: Độ xác trình robot di chuyển xa biên dạng VL 52 3.3 Đánh giá kết thực nghiệm Trong tốn học, bậc hai trung bình bình phương tập hợp số xi (viết tắt RMS biểu thị công thức xRMS RMSx) xác định bậc hai bình phương trung bình (trung bình cộng bình phương) tập hợp RMS cịn gọi giá trị trung bình bậc hai (ký hiệu M2) trường hợp cụ thể giá trị trung bình tổng quát RMS hàm thay đổi liên tục (ký hiệu fRMS) định nghĩa theo tích phân bình phương giá trị tức thời chu kỳ 𝑅𝑀𝑆𝑦 = 𝑛 𝑅𝑀𝑆𝑥 = 𝑛 𝑛 (17) ∑ 𝑦𝑖 𝑖=1 𝑛 ∑ (𝑥𝑖 − 𝑥0) (18) 𝑖=1 Để xác định sai số chứng minh kết thực nghiệm đạt yêu cầu ban đầu, tiến hành thực nghiệm với ba giải pháp khác Từ so sánh kết phương pháp rút kết luận thực nghiệm 45 3.3.1 Sai số định vị sử dụng công nghệ SLAM Tiến hành thực nghiệm với công nghệ SLAM, thu danh sách liệu tọa độ vị trí robot Sau phân tích dựng biểu đồ, ta có hình 3.8 3.9 tương ứng với vị trí thử nghiệm đo đạc liệu cách 710mm 2540mm theo trục X Trục Y giá trị Từ ta tính tốn sai số theo cơng thức 18 có kết bảng 3.4 Hình 3.8: Tọa độ robot vị trí 710 mm (trục X) sử dụng cơng nghệ SLAM Hình 3.9: Tọa độ robot vị trí 2540 mm (trục X) sử dụng công nghệ SLAM 46 Bảng 3.4: Bảng sai số vị trí theo trục X trục Y sử dụng cơng nghệ SLAM STT Vị trí Trục Robot có tọa độ Loại giá trị Sai số Đơn vị Sai số trung bình (RMS) ± 21 26 mm Trục Y X = 710 mm Sai số lớn ± 96 89 mm Y = mm Sai số trung bình (RMS) ± 13 01 mm Sai số lớn ± 28 45 mm Sai số trung bình (RMS) ± 17 54 mm Sai số lớn ± 50 78 mm Sai số trung bình (RMS) ± 18 02 mm Sai số lớn ± 86 29 mm Trục X Robot có tọa độ Trục Y X = 2540 mm Y = mm Trục X 3.3.2 Sai số định vị sử dụng hệ thống gương phản xạ Tiến hành thực nghiệm tương tự, áp dụng cho môi trường sử dụng thêm gương phản xạ Ta thu hai biểu đồ hình 3.10, hình 3.11 bảng 3.5 Hình 3.10: Tọa độ robot vị trí 710 mm (trục X) sử dụng gương phản xạ 47 Hình 3.11: Tọa độ robot vị trí 2540 mm (trục X) sử dụng gương phản xạ Bảng 3.5: Bảng sai số vị trí theo trục X trục Y sử dụng gương phản xạ STT Vị trí Trục Loại giá trị Sai số Đơn vị Sai số trung bình (RMS) ± mm Sai số lớn ± 35 mm Sai số trung bình (RMS) ± 84 mm Sai số lớn ± 96 mm Sai số trung bình (RMS) ± 02 mm Sai số lớn ± mm Sai số trung bình (RMS) ± 65 mm Sai số lớn ± 87 mm Robot có tọa độ Trục Y X = 710 mm Y = mm Robot có tọa độ Trục X Trục Y X = 2540 mm Y = mm Trục X 48 3.3.3 Sai số định vị sử dụng biên dạng VL Tiến hành thực nghiệm tương tự, áp dụng cho mơi trường sử dụng trạm sạc có gắn biên dạng VL Ta thu hai biểu đồ hình 3.12, hình 3.13 bảng 3.6 Hình 3.12: Tọa độ robot vị trí 710 mm (trục X) sử dụng biên dạng VL Hình 3.13: Tọa độ robot vị trí 2540 mm (trục X) sử dụng biên dạng VL 49 Bảng 3.6: Bảng sai số vị trí theo trục X trục Y sử dụng biên dạng VL STT Vị trí Trục Sai số Đơn vị Sai số trung bình (RMS) ± 197 mm Sai số lớn ±4 mm Sai số trung bình (RMS) ± 747 mm Sai số lớn ± mm Sai số trung bình (RMS) ± 37 mm Sai số lớn ± 10 mm Sai số trung bình (RMS) ± 873 mm Sai số lớn ±2 mm Loại giá trị Trục Y Robot cách trạm sạc 710 mm Trục X Trục Y Robot cách trạm sạc 2540 mm Trục X Dựa kết liệu bảng 3.4, 3.5 3.6 hai vị trí đánh giá 710mm 2540mm, để dễ so sánh ta tổng hợp liệu phương pháp vào bảng 3.7 Bảng 3.7: Bảng sai số vị trí theo trục X trục Y STT Vị trí Loại Công nghệ Gương Biên Đơn vị thực nghiệm giá trị SLAM phản xạ dạng VL tính Cách trạm RMS-Y ± 21 26 ± ± mm sạc 710 mm RMS-X ± 13 01 ± 84 ± 75 mm Cách trạm RMS-Y ± 17 54 ± 02 ± 37 mm sạc 2540 mm RMS-X ± 18 02 ± 65 ± 87 mm 50 Từ bảng 3.7 ta thấy, sai số định vị sử dụng công nghệ SLAM có giá trị lớn cao nhiều so với hai phương pháp cịn lại Với khơng gian rộng, thống vật cản cơng nghệ SLAM hoàn toàn đáp ứng yêu cầu liệu cung cấp cho robot tự hành Tuy nhiên, vị trí cần có độ xác cao để tương tác với người thiết bị khác, rõ ràng ta cần phải bổ sung thêm giải pháp tăng cường để đáp ứng yêu cầu sử dụng Sai số định vị sử dụng phương pháp gương phản xạ biên dạng đặc biệt nhỏ tương đương Theo thực tế triển khai ứng dụng yêu cầu robot tự hành sai số giải vấn đề toán đặt độ xác Với phương pháp sử dụng biên dạng đặc biệt, ta tận dụng tài nguyên có sẵn công nghệ SLAM, không phát sinh thêm thiết bị cho hệ thống nên không làm tăng giá thành; đồng thời giữ linh hoạt vốn có dòng AMR 3.4 Biểu đồ kết thực nghiệm Hình 3.14: Độ xác q trình robot di chuyển biên dạng VL Hình 3.15: Độ xác trình robot di chuyển xa biên dạng VL 51 Trong đó, trục tung thể giá trị sai số vị trí robot so với trục Y hệ trục tọa độ Giá trị gần xác Trục hồnh thể giá trị cập nhật chu kì theo thời gian Đường nét đứt thể tuyến đường di chuyển robot Trong hình 3.14, robot di chuyển tiến phía trạm sạc, khoảng cách robot trạm sạc gần, sai số giảm dần Ngược lại hình 3.15, robot di chuyển xa trạm sạc, sai số vị trí tăng dần Ta thấy, sai số vị trí dựa liệu laser phụ thuộc vào khoảng cách cảm biến biên dạng VL 3.5 Thảo luận Kết cho thấy thuật toán nhận dạng biên dạng đặc biệt cho hiệu suất cao, sai số vị trí nhỏ, ổn định; có khả cung cấp vị trí định vị xác cho robot nhiều vị trí đặc thù, cung cấp giải pháp cho nhiều ứng dụng khác Hình 3.15 biểu đồ liệu robot di chuyển xa trạm sạc; theo lý thuyết sai số định vị robot chu kỳ đầu nhỏ chu kỳ sau (sai số phụ thuộc vào khoảng cách) Tuy nhiên, từ chu kỳ 20 đến chu kỳ 55 biểu đồ, ta thấy sai số vị trí trả lớn, lên tới ±15mm Điều giải thích cách hiểu rõ cấu chuyển động sử dụng robot Robot sử dụng cấu đồng phẳng bánh, cầu động bánh chủ động giữa, bánh tự lựa đầu Cơ cấu đảm bảo bánh chủ động robot tiếp xúc với mặt sàn, giúp robot chịu tải trọng tốt, hạn chế ma sát trượt Tuy nhiên, robot đảo chiều di chuyển, bánh tự lựa đảo chiều lệch tâm, điều gây tượng lắc nhỏ robot làm sai số định vị bị thay đổi cưỡng Khi robot lấy lại hướng xác, giá trị sai số vị trí quay lại ngưỡng cơng bố phía Kết luận: Chương trình bày đánh giá thực nghiệm, điều kiện môi trường đánh giá đưa phương pháp mơ để trực quan hóa q trình thực nghiệm Cuối cùng, bảng kết sai số đo đạc đánh giá, so sánh kết đưa kết luận độ xác định vị phương pháp 52 Kết luận khuyến nghị Robot tự hành có đa dạng khu vực vận hành: Khu vực di chuyển tự đồ, khu vực vào/ra trạm sạc tự động, khu vực lấy hàng khu vực trả hàng Tại khu vực di chuyển tự do, SLAM giải tốt nhiều vấn đề tự hành với khả cung cấp liệu vị trí cho robot môi trường đa dạng linh động Tuy nhiên, công nghệ SLAM yêu cầu điều kiện định để vận hành tốt ổn định Tại vị trí cần độ xác cao vào khu vực sạc tự động, vào khu vực lấy hàng, khu vực trả hàng, robot cần trang bị giải pháp có độ xác cao Để robot hồn tồn độc lập làm việc mà không cần can thiệp người, robot cần hoàn thiện khâu định cần tương tác với môi trường Công nghệ SLAM chứng minh hiệu sử dụng tính linh hoạt cao độ xác bị phụ thuộc nhiều vào môi trường hoạt động; hệ thống dẫn hướng làm giảm tính linh hoạt robot tồn giải pháp; hệ thống gương phản xạ làm tăng giá thành sản phẩm; hệ thống camera phụ thuộc nhiều vào ánh sáng môi trường điều kiện làm việc robot Từ phân tích trên, chúng tơi lựa chọn phát triển giải pháp sử dụng liệu từ cảm biến laser để xác định vị trí xác cho robot mà khơng tăng chi phí làm giảm linh hoạt toàn hệ thống Bài luận văn trình bày thuật phương pháp việc định vị vị trí dựa biên dạng đặc biệt (biên dạng VL) sử dụng liệu từ cảm biến laser 2D Toàn thuật tốn bao gồm q trình xác định đoạn thẳng, xác định biên dạng đặc biệt, dịch chuyển hệ trục tọa độ xác định vị trí robot Ngồi ra, tiến hành lựa chọn vật liệu, hiệu chỉnh tham số cài đặt xử lý chống nhiễu liệu đầu vào Những vấn đề mà phương pháp đề xuất giải tận dụng tối đa liệu sẵn có robot tự hành; tập trung xây dựng thuật tốn để đạt độ xác 53 định vị cao; giải vấn đề chống nhiễu liệu định vị để tăng tính ổn định đáng tin cậy; xây dựng phương pháp đánh giá, kiểm nghiệm xác để xác định sai số kết thí nghiệm Với phương pháp nghiên cứu kết hợp mô lý thuyết thực nghiệm, chúng tơi đưa bảng liệu độ xác định vị, so sánh kết thu với phương pháp định vị khác Kết cho thấy phương pháp định vị biên dạng đặc biệt có độ xác vượt trội, độ linh hoạt cao mà khơng làm tăng chi phí cho sản phẩm Thuật tốn đạt hiệu suất cao ba yếu tố: độ xác, tính ổn định hiệu ứng dụng Trên thực tế, để đạt độ xác với kết trên, ngồi việc hiệu chỉnh tham số thuật tốn chúng tơi cần kết hợp quan tâm nhiều yếu tố ảnh hưởng khác bề mặt phản xạ biên dạng, chất lượng cảm biến laser, cấu chuyển động robot, tốc độ di chuyển robot, đặc biệt vấn đề xử lý lọc nhiễu liệu Trong tương lai, tiếp tục nâng cấp cải thiện hiệu suất thuật toán cách kết hợp nhiều giải pháp cho việc chống nhiễu liệu đầu vào từ mơi trường Ngồi ra, chúng tơi nghiên cứu thêm nhiều phương pháp định vị khác định vị thị giác, để kết hợp ưu điểm phương pháp giúp sản phẩm ngày ổn định, tin cậy hiệu 54 TÀI LIỆU THAM KHẢO [1] R Brooks A robust layered control system for a mobile robot IEEE Journal on Robotics and Automation, vol 2, no 1, pp 14-23, March 1986, doi: 10.1109/JRA.1986.1087032 [2] By Roland Siegwart Introduction to Autonomous Mobile Robots Illah Reza Nourbakhsh and Davide Scaramuzza (2011) [3] Laird, John & Newell, Allen & Rosenbloom, Paul (1987) SOAR: An Architecture for General Intelligence Artificial Intelligence 33 1- 10.1016/0004-3702(87)90050-6 [4] Oxford English Dictionary 2013 tr Entry for "lidar" [5] Renaud Foy, Jean-Paul Pique Lasers in astronomy Julian D C Jones and Colin E Webb Handbook of Laser Technology and Applications, III (D8.1), Institute of Physics Publishing, pp.2581-2624, 2003, Applications, 978-0-7503-0607-2 ⟨10.1887/0750306076/b1388v3c51⟩ ⟨hal-01119222⟩ [6] Lim, H.S.M.; Taeihagh, A Algorithmic Decision-Making in AVs: Understanding Ethical and Technical Concerns for Smart Cities Sustainability 2019, 11, 5791 https://doi.org/10.3390/su11205791 [7] C Cadena et al., Past, Present, and Future of Simultaneous Localization and Mapping: Toward the Robust-Perception Age, in IEEE Transactions on Robotics, vol 32, no 6, pp 1309-1332, Dec 2016, doi: 10.1109/TRO.2016.2624754 [8] Stachniss, Cyrill (2009) Robotic Mapping and Exploration 10.1007/978-3-642-01097-2 [9] Fuentes-Pacheco, Jorge & Ascencio, Jose & Rendon-Mancha, J (2015) Visual Simultaneous Localization and Mapping: A Survey Artificial Intelligence Review 43 10.1007/s10462-012-9365-8 55 [10] Cummins M, Newman P FAB-MAP: Probabilistic Localization and Mapping in the Space of Appearance The International Journal of Robotics Research 2008;27(6):647-665 doi:10.1177/0278364908090961 [11] Bartoš, M., Bulej, V., Bohušík, M., Stancek, J., Ivanov, V., & Macek, P (2021) An overview of robot applications in automotive industry Transportation Research Procedia, 55, 837–844 https://doi.org/10.1016/j.trpro.2021.07.052 [12] Fazlollahtabar, H (2019) An Effective Mathematical Programming Model for Production Automatic Robot Path Planning The Open Transportation Journal, 13(1), 11–16 https://doi.org/10.2174/1874447801913010011 [13] Patle, B.K.; Ganesh, B.L.; Anish, P.; Parhi, D.R.K.; Jagadeesh, A A review: On path planning strategies for navigation of mobile robot Def Technol 2019, 15, 582–606 [14] EUROBOTICS., 2013, Robotics 2020, Strategic Research Agenda for Robotics in Europa [15] WANG L., GAO R., VANCZA J., 2019, Symbiotic Human-Robot Collaborative Assembly, CIRP Ann., 68/2, 701–726 [16] VAHER K., KANGRU T.; OTTO T., RIIVES J., 2019, The Mobility of Robotised Work Cells in Manufacturing, Proceedings of the 30th International DAAAM Symposium, Intelligent Manufacturing & Automation: 23–26th October 2019, Zadar, Croatia [17] PAIJENS A.F.M., HUANG L., AL-JUMAILY A.M., 2020, Implementation and Calibration of an Odometry System for Mobile Robots, Based on Optical Computer Mouse Sensors, Sensors and Actuators A: Physical, 301, 111731 [18] CHEN I.M., 2001, Rapid Response Manufacturing Through a Rapidly Reconfigurable Robotic Workcell Robotics Manufacturing, 17/3, 199–213 56 and Computer-Integrated [19] Hofmann-Wellenhof, B.; Lichtenegger, H.; Colins, J Global Positioning System: Theory and Practice, 5th ed.; Springer: Vienna, Austria, 2013 [20] Wang, C.; Xing, L.; Tu, X A Novel Position and Orientation Sensor for Indoor Navigation Based on Linear CCDs Sensors 2020, 20, 748 [21] Park, B.S.; Yoo, S.J.; Park, J.B.; Choi, Y.H A Simple Adaptive Control Approach for Trajectory Tracking of Electrically Driven Nonholonomic Mobile Robots IEEE Trans Control Syst Technol 2010, 18, 1199–1206 [22] Liang, X.; Wang, H.; Chen, W.; Guo, D.; Liu, T Adaptive Image-Based Trajectory Tracking Control of Wheeled Mobile Robots with an Uncalibrated Fixed Camera IEEE Trans Control Syst Technol 2015, 23, 2266–2282 [23] Ali, M.A.H.; Mailah, M Path Planning and Control of Mobile Robot in Road Environments Using Sensor Fusion and Active Force Control IEEE Trans Veh Technol 2019, 68, 2176–2195 [24] Taketomi, T., Uchiyama, H., & Ikeda, S (2017) Visual SLAM algorithms: A survey from 2010 to 2016 IPSJ Transactions on Computer Vision and Applications, https://doi.org/10.1186/s41074-017-0027-2 [25] S Gobhinath, K Anandapoorani, K Anitha, D D Sri and R DivyaDharshini, "Simultaneous Localization and Mapping [SLAM] of Robotic Operating System for Mobile Robots," 2021 7th International Conference on Advanced Computing and Communication Systems (ICACCS), 2021, pp 577-580, doi: 10.1109/ICACCS51430.2021.9441758 [26] H Guo et al., Continuum robot shape estimation using permanent magnets and magnetic sensors Sensors and Actuators, A: Physical 285, 519–530 (2019) [27] You, W S., Choi, B J., Choi, H R., Koo, J C., & Moon, H (2014) Localization using magnetic patterns for autonomous mobile robot International Journal of Advanced Robotic Systems, 11(1) https://doi.org/10.5772/57517 57 [28] S Guo, T T Fang, T Song, F F Xi, B G Wei, Tracking and localization for omni-directional mobile industrial robot using reflectors Advances in Manufacturing 6, 118–125 (2018) [29] G Li, J Meng, Y Xie, X Zhang, L Jiang and Y Huang, "An Improved Observation Model for Monte-Carlo Localization Integrated with Reliable Reflector Prediction," 2019 IEEE/ASME International Conference on Advanced Intelligent Mechatronics (AIM), 2019, pp 972-977, doi: 10.1109/AIM.2019.8868652 [30] Li, Y., Zhu, S., Yu, Y., & Wang, Z (2018) An improved graph-based visual localization system for indoor mobile robot using newly designed markers International Journal of Advanced Robotic Systems, 15(2), 1–15 https://doi.org/10.1177/1729881418769191 [31] Ortiz-Fernandez, L E., Cabrera-Avila, E V., da Silva, B M F., & Gonỗalves, L M G (2021) Smart artificial markers for accurate visual mapping and localization Sensors (Switzerland), 21(2), 1–32 https://doi.org/10.3390/s21020625 [32] G Kurz, S A Scherer, P Biber and D Fleer, "When Geometry is not Enough: Using Reflector Markers in Lidar SLAM," 2022 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), Kyoto, Japan, 2022, pp 4880-4887, doi: 10.1109/IROS47612.2022.9981522 [33] D Meyer-Delius, M Beinhofer, A Kleiner and W Burgard, "Using artificial landmarks to reduce the ambiguity in the environment of a mobile robot", 2011 IEEE International Conference on Robotics and Automation, may 2011 [34] Gwak DG, Yang KM, Park MR, Hahm J, Koo J, Lee J, Seo KH Marker-Based Method for Recognition of Camera Position for Mobile Robots Sensors (Basel) 2021 Feb 4;21(4):1077 doi: 10.3390/s21041077 PMID: 33557354; PMCID: PMC7914651 [35] Mur-Artal, R.; Tardós, J.D ORB-SLAM2: An Open-Source SLAM System for Monocular, Stereo, and RGB-D Cameras IEEE Trans Robot 2017, 33, 1255–1262 58 [36] Kim, K.H.; Hwang, S.S Autonomous UAV Landing System using Imagery Map and Marker Recognition J Inst Control Robot Syst 2018, 24, 64–70 [37] Heo, S.W.; Park, T.H Localization System for AGVs Using Laser Scanner and Marker Sensor J Inst Control Robot Syst 2017, 23, 866–872 [38] Romero-Ramirez, F.J.; Muñoz-Salinas, R.; Medina-Carnicer, R Speeded up detection of squared fiducial markers Image Vis Comput 2018, 76, 38–47 [39] Cho, J.; Kang, S.S.; Kim, K.K Object Recognition and Pose Estimation Based on Deep Learning for Visual Servoing J Korea Robot Soc 2019, 14, 1–7 [40] Vaher, Kristo & Otto, Tauno & RIIVES, Jüri (2020) Positioning Error Correction of Autonomusly Movable Robot Arm Journal of Machine Engineering 152-160 10.36897/jme/129013 [41] LU Y., 2017, Industry 4.0: A Survey on Technologies, Journal of Industrial Information Integration, Applications and Open Research, 6, 1–10, 10.1016/j.jii.2017.04.005 [42] LOUN K., RIIVES J., OTTO T., 2012, Workplace Performance and Capability Optimization in the Integrated Manufacturing, Proceedings of 8th International Conference of DAAAM Baltic Industrial Engineering, Tallinn 59

Ngày đăng: 08/01/2024, 12:59

Tài liệu cùng người dùng

Tài liệu liên quan