1. Trang chủ
  2. » Kỹ Thuật - Công Nghệ

Ứng dụng RTAB-Map xây dựng bản đồ 3D cho Robot đa hướng bốn bánh dựa trên hệ điều hành ROS

6 106 0

Đang tải... (xem toàn văn)

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 6
Dung lượng 1,1 MB

Nội dung

Bài viết này trình bày về quá trình xây dựng bản đồ địa hình 3D cho robot tự hành hoạt động trong môi trường trong nhà dựa trên hệ điều hành lập trình cho robot (Robot Operating System - ROS). Phần cứng là một robot Omni 4 bánh với nền tảng máy tính nhúng hiệu suất cao Jetson-Tx2, camera 3D và một cảm biến Lidar để thu thập dữ liệu từ môi trường bên ngoài.

Hội nghị Quốc gia lần thứ 24 Điện tử, Truyền thông Công nghệ Thông tin (REV-ECIT2021) Ứng dụng RTAB-Map xây dựng đồ 3D cho Robot đa hướng bốn bánh dựa hệ điều hành ROS Hà Thị Kim Duyên1, Trần Bá Hiến1, Lê Mạnh Long1, Ngô Mạnh Tiến2 Trường Đại học Công nghiệp Hà Nội Email: ha.duyen@haui.edu.vn, hienbn3333@gmail.com, lemanhlong@haui.edu.vn Viện Vật lý, Viện Hàn lâm KH&CN Việt Nam Email: nmtien@iop.vast.ac.vn giả xây dựng thực thi ROS Để tăng độ xác, SLAM thường kết hợp liệu từ nhiều cảm biến qua phương pháp xác suất Markov, Kalman, … [6], [7], [8] Tuy nhiên việc sử dụng nhiều cảm biến làm tăng độ phức tạp, chi phí thời gian xử lý hệ thống Đặc biệt robot tự hành không giới hạn việc di chuyển, mà cịn tích hợp cấu chấp hành, cánh tay máy robot…để thực nhiệm vụ cụ thể mơi trường khơng gian hoạt động, SLAM khơng ý nghĩa việc xây dựng đồ 2D môi trường hoạt động phục vụ điều hướng cho robot, mà cần thiết có đồ 3D (SLAM3D) nhằm phục vụ toán tương tác khác robot mơi trường hoạt động Hiện với phát triển lĩnh vực thị giác máy tính nên hệ thống SLAM thường sử dụng camera để thu thập liệu từ mơi trường bên ngồi tác nhân gần xung quanh kết hợp với Lidar để xác định vị trí tác nhân xa Cùng với xu hướng sử dụng hệ điều hành robot – ROS (Robot Operating System) phương pháp SLAM phát triển hiệu Các phương pháp SLAM sử dụng cảm biến tảng ROS phổ biến Visual SLAM Một số phương pháp Visual SLAM maplab, ORB-SLAM2, DVO-SLAM, MCPTAM, RTAB-Map, RGBDSLAMv2… [9], [10], [11] Trong phương pháp Visual SLAM RTAB-Map tương đối tồn diện cung cấp đồ dạng lưới 2D (Occupancy Grid) cách sử dụng cảm biến thông thường hay đồ 3D (Octomap) RTAB-Map phân phối dạng ROS package có khả xử lý thời gian thực, tối ưu hóa việc định vị tạo đồ thực tế [12] Bài báo nghiên cứu, xây dựng robot có khả xây dựng đồ định vị đồng thời SLAM 3D sử dụng phương pháp RTAB-Map tảng ROS Kích thước robot nhỏ phù hợp với việc hoạt động mơi trường nhà Robot có khả di chuyển, thu thập liệu, xây dựng đồ 3D định vị vị trí đồ Kết SLAM việc sử dụng để lập kế hoạch đường cho robot hệ thống dẫn đường tự động robot tự hành, mà cịn cần thiết có đồ 3D (SLAM3D) nhằm phục vụ toán tương tác khác robot mơi trường hoạt động Abstract: Bài báo trình bày trình xây dựng đồ địa hình 3D cho robot tự hành hoạt động môi trường nhà dựa hệ điều hành lập trình cho robot (Robot Operating System - ROS) Phần cứng robot Omni bánh với tảng máy tính nhúng hiệu suất cao Jetson-Tx2, camera 3D cảm biến Lidar để thu thập liệu từ mơi trường bên ngồi Kết hợp với việc chạy mô robot môi trường nhà sử dụng Gazebo thử nghiệm Rviz cho thấy tiềm năng, hiệu hướng nghiên cứu sử dụng hệ điều hành robot ROS việc lập đồ môi trường cho robot tự hành Keywords: Simultaneous Localization and Mapping, SLAM2D, SLAM3D, RTAP_Map, Robot Operating System (ROS) I GIỚI THIỆU Ngày nay, robot di động sử dụng rộng rãi hoạt động liên quan đến hoạt động tự trị, tự động di chuyển môi trường không cố định không cần giám sát người Hoạt động tự trị robot môi trường chưa biết đến đòi hỏi robot phải tự nhận biết môi trường xung quanh, xây dựng đồ, định vị lập kế hoạch đường tránh vật cản tĩnh động trình di chuyển [1] [2] Xây dựng đồ định vị đồng thời hay gọi SLAM (Simultaneous Localization and Mapping) q trình tính tốn, xây dựng cập nhật đồ môi trường không xác định đồng thời theo dõi vị trí tác nhân bên đồ Với cải tiến lớn tốc độ xử lý máy tính sẵn có cảm biến máy ảnh laser, SLAM sử dụng cho ứng dụng thực tế số lĩnh vực ngày tăng Phương pháp thu thập liệu từ cảm biến để tái tạo môi trường hoạt động thông qua việc đưa thông tin môi trường vào đồ 2D 3D Cảm biến sử dụng SLAM chia thành hai loại: cảm biến ngoại vi (thu nhận liệu từ mơi trường bên ngồi) cảm biến nội vi (xác định thay đổi vị trí, hướng, gia tốc,…) Đã có nhiều cơng trình thực SLAM 2D phương pháp tạo đồ 2D phát chướng ngại vật xung quanh môi trường không xác định [3],[4] [5] tác ISBN 978-604-80-5958-3 386 Hội nghị Quốc gia lần thứ 24 Điện tử, Truyền thơng Cơng nghệ Thơng tin (REV-ECIT2021) II MƠ HÌNH ROBOT TỰ HÀNH OMNI BỐN BÁNH VÀ HỆ ĐIỀU HÀNH ROS Trong vx , v y w vận tốc robot vận tốc tín hiệu điều khiển tạo từ tính tốn điều khiển Sau tín hiệu chuyển đổi, vị trí robot điều khiển trực tiếp tín hiệu thông qua bốn bánh robot B Cấu trúc phần cứng thực tế omni robot bốn bánh Mô hình robot xây dựng với thành phần chính: Phần xử lý trung tâm, phần cảm biến, phần điều khiển cấu chấp hành Về cấu trúc phận di chuyển Omni bánh đa hướng giúp việc di chuyển linh hoạt dễ dàng Máy tính nhúng đóng Jetson TX2 có vai trị xử lý trung tâm cài đặt hệ điều hành ROS với node tính tốn thuật tốn SLAM Sau tính tốn xong, Jetson TX2 gửi lệnh điều khiển cho phận điều khiển cấu chấp hành mạch STM32 RPLidar quét laser 360o giúp Robot xây dựng đồ nhận diện vật cản tầm cao với khoảng cách xa Camera 3D sử dụng Deep Camera giúp nhận diện vật cản tầm trung tầm thấp phía trước Robot A Mơ hình robot tự hành omni bốn bánh Mơ hình động học cho robot Omni bốn bánh xây dựng dựa mơ hình với bánh xe Omni bố trí đặt cách góc 900 hình q = x T y   véc tơ tọa độ robot hệ tọa độ tồn cục Oxy , x y toạ độ robot theo phương Ox Oy ,  góc quay robot so với chiều dương trục Ox v  vx vy T   véc tơ vận tốc robot hệ trục tọa độ động gắn vào tâm robot bao gồm vận tốc tịnh tiến vận tốc góc robot Hình Robot Omni đa hướng bánh Hình Mơ hình thực tế cấu trúc phần cứng Omni robot III BẢN ĐỒ HĨA MƠI TRƯỜNG VÀ ĐỊNH VỊ ĐỒNG THỜI SLAM CHO ROBOT Hình Hệ trục tọa độ robot tự hành bốn bánh đa hướng Trong lĩnh vực robotic, vấn đề định vị đồng thời xây dựng đồ SLAM vấn đề quan trọng đóng vai trị then chốt điều hướng robot, thu hút quan tâm lớn đông đảo nhà khoa học Vấn đề SLAM mơ tả tổng qt q trình robot di chuyển để lập đồ nơi người không muốn tiếp cận, đồng thời robot tự xác định vị trí so với đối tượng xung quanh Kỹ thuật xử lý SLAM cung cấp thông tin đồ môi trường đồng thời ước tính tư riêng (vị trí hướng) robot dựa vào tín hiệu thu từ cảm biến tầm nhìn bao gồm Rplidar 3D camera Để đơn giản việc thiết kế điều khiển cho robot, mối quan hệ vận tốc trục robot vận tốc trục mơi trường mơ tả mơ hình động học robot:  cos   sin     (1) q   sin  cos   v   1  Từ (1) có phương trình để lập trình cho Robot ROS:  x  vx cos   v y sin   (2)  y  vx sin   v y cos     w ISBN 978-604-80-5958-3 387 Hội nghị Quốc gia lần thứ 24 Điện tử, Truyền thông Công nghệ Thông tin (REV-ECIT2021) A Định nghĩa SLAM trạng thái robot thời điểm k biết giá trị quan sát tín hiệu đầu vào điều khiển với trạng thái ban đầu robot Việc tính tốn giá trị phân phối xác xuất u cầu mơ hình chuyển trạng thái mơ hình quan sát để mơ tả việc tác động tín hiệu điều khiển giá trị quan sát Mơ hình quan sát mơ tả xác suất thực giá trị quan sát zk vị trí robot vị trí điểm mốc đồ xác định, có dạng (4) P( zk | xk , m) Và giải thiết vị trí robot đồ xác định giá trị quan sát độc lập có điều kiện Mơ hình chuyển động robot mơ tả phân bố xác suất chuyển trạng thái sau: (5) P( xk | xk 1 , uk ) Phân bố giả sử thoả mãn tiêu chuẩn Markov, trạng thái xk phụ thuộc vào trạng Hình Mơ tả q trình SLAM Xét hệ robot tự hành di chuyển vào môi trường không xác định giá trị khoảng cách từ robot đến vật cản tĩnh môi trường đo cảm biến Lidar hình Tại thời điểm k giá trị sau định nghĩa: xk : vector trạng thái miêu tả hướng vị trí robot uk : vector điều khiển lái robot từ thời điểm k  đến trạng thái xk thời điểm k thái trước xk 1 tín hiệu điều khiển uk , xk độc lập với giá trị quan sát đồ m Thuật toán SLAM thực thi với hai bước lặp lại bước dự đốn (prediction) cịn gọi cập nhật thseo thời gian bước chỉnh sửa (correction) gọi cập nhật theo đo lường Bước dự đốn mơ tả phân phối: (6) P( xk , m | Z 0:k 1 , U 0:k ) Do trạng thái robot xk đồ m độc lập, ta có: P ( xk , m | Z 0:k 1 , U 0:k , x0 )  P ( xk | Z 0:k 1 ,U 0:k ) P( m | Z 0:k 1 , U 0:k ) (7) mi : vector miêu tả vị trí điểm mốc thứ i giả định không thay đổi zi , k : phép quan sát lấy từ robot từ vị trí thứ i thời điểm thứ k Khi có nhiều quan sát mốc thời điểm mốc cụ thể không liên quan đến khoảng xét, phép quan sát viết đơn giản zk Thêm vào đó, ta định nghĩa thêm: X 0:k   x0 , x1 , , xk    X 0:k 1 , xk  : Tập chứa   P( xk | Z 0:k 1 , U 0:k , xk 1 ) P( xk 1 | Z 0:k 1 , U 0:k ) P (m | Z 0:k 1 , U 0:k )dxk 1 xk 1 m độc lập nên (7) trở thành  P( x k xk có tính chất Markov nên (8) thu gọn thành vị trí robot từ thời điểm ban đầu đến thời điểm k U 0:k  u0 , u1 , , uk   U 0:k 1 , uk  : Tập chứa  P( x k | xk 1 , uk ) P( xk 1 , m | Z 0:k 1 , U 0:k 1 ) dxk 1 (9) Sau tính tốn bước dự đoán, bước chỉnh sửa thực theo phân phối sau P( xk , m | Z 0:k , U 0:k ) (10) P ( zk | xk , m) P( xk , m | Z 0:k 1 , U 0:k )  P( zk | Z 0:k 1 , U 0:k ) Biểu thức (8) (9) mô tả q trình tính tốn đệ quy cho việc tính toán xác suất hậu nghiệm (10) cho trạng thái robot xk đồ m thời điểm k dựa giá trị đầu vào điều khiển từ thời điểm ban đầu đến thời điểm k m  m1 , m2 , , mn  : Tập điểm mốc thể vị trí vật cản quét Z 0:k   z0 , z1 , , zk   Z 0:k 1 , zk  : Tập điểm mốc quan sát từ thời điểm ban đầu đến thời điểm k Vấn đề SLAM từ định nghĩa việc xác định vị trí vật cản tĩnh môi trường m để đồ hố mơi trường đồng thời ước tính vị trí robot đồ xk B Kỹ thuật SLAM xác suất robotic Ở dạng xác suất, vấn đề SLAM biểu diễn dạng phân phối xác suất sau (3) P( xk , m | Z 0:k , U 0:k ) Phân phối xác suất mô tả phân phối hậu nghiệm liên kết vị trí điểm mốc đồ với ISBN 978-604-80-5958-3 | Z 0:k 1 , U 0:k , xk 1 ) P ( xk 1 , m | Z 0:k 1 , U 0:k ) dxk 1 (8) vào tập quan sát Z 0:k tập tín hiệu điều khiển đầu vào U 0:k IV ỨNG DỤNG RTAB-MAP XÂY DỰNG BẢN ĐỒ 3D RTAB-Map phương pháp SLAM dựa đồ thị RGB-D sử dụng đóng vịng lặp Bộ đóng vịng lặp sử dụng phương pháp tiếp cận từ nhiều điểm để xác định khả hình ảnh đến từ vị trí trước 388 Hội nghị Quốc gia lần thứ 24 Điện tử, Truyền thông Công nghệ Thông tin (REV-ECIT2021) chia thành nhớ làm việc (WM) nhớ dài hạn (LTM), nút chuyển sang LTM, khơng cịn khả dụng cho modul bên WM Khi thời gian cập nhật RtabMap vượt ngưỡng thời gian cho phép, số nút WM chuyển sang LTM để giới hạn kích thước WM giảm thời gian cập nhật STM dùng để xác định xem nút cần chuyển sang LTM [11], [13], [14] hay vị trí RTAB-Map phát lỗi sai cách sử dụng phương pháp GoodFeaturesToTrack (GFTT) theo mặc định, giúp giảm bớt việc điều chỉnh tham số, cho phép tính phát đồng kích thước hình ảnh cường độ ánh sáng khác Ngồi ra, RTAB-Map hỗ trợ tất loại tính có sẵn OpenCV, chẳng hạn SIFT, SURF, ORB, FAST BRIEF Một trình tối ưu hóa đồ thị giảm thiểu lỗi đồ ràng buộc thêm vào phương pháp quản lý nhớ hiệu sử dụng để thực ràng buộc thời gian thực môi trường lớn Để thực SLAM 3D, sử dụng gói Rtab-Map cho omni robot Bằng việc thu thập liệu từ RPLidar, Astra camera chuyển đổi với cấu trúc hình Hình Sơ đồ tín hiệu xây dựng định vị đồng thời Gói RTAB-Map ước tính vị trí Robot xây dựng đồ dựa liệu thu phép đo hình học - Lidar: node thực chạy cảm biến RPLidar gửi thông tin “scan” cần thiết đến node rtabmap - Camera 3D: node thực chạy camera 3D gửi thông tin “image(rgb)”, “image(depth)”, “CameraInfo” đến node rgbd_sync - rgbd_sync: node đảm bảo chủ đề hình ảnh đồng hóa xác với trước vào node rtabmap - rtabmap: node đồng hóa chủ đề đến từ tín hiệu LaserScan thơng tin từ Camera 3D - nav_msgs/Odometry: xuất thông tin vị trí, vận tốc robot khơng gian tự đến node rtabmap - rviz, rtabmaprviz: thực hiệm giám sát trình hoạt động robot theo dõi q trình tạo map Robot sử dụng thơng tin “image(rgb)”, “image(depth)”, “CameraInfo” từ camera 3D qua trình đồng hóa node rgdb_image để thực q trình tạo map 3D Camera sử dụng để phát đóng vịng lặp dựa hình ảnh RGBD, không cải thiện hệ thống nhiều Thông tin “scan” từ cảm biến RPLidar sử dụng để cải thiện kết trình SLAM, giúp tinh chỉnh trình đo mùi (Odometry) làm cho kết tốt đồ Hình Sơ đồ khối rtabmap-ros Cấu trúc rtabmap_ros biểu đồ với nút liên kết với Sau đồng hóa liệu đầu vào, modul nhớ ngắn hạn (STM) tạo nút để ghi nhớ tư Odometry, liệu cảm biến thông tin bổ xung cho modul Các đầu vào yêu cầu là: TF để xác định vị trí cảm biến liên quan đến chân đế robot, Odometry, hình ảnh từ camera đầu quét laser từ Lidar Tất thơng báo từ đầu vào sau đồng hóa chuyển đến thuật tốn đồ thị (SLAM) Kết đầu liệu đồ chứa Map Data bổ xung với liệu cảm biến nén biểu đồ, Map Graph khơng có liệu nào, hiệu chỉnh Odometry xuất TF, tùy chọn lưới chiếm dụng 3D (OctoMap), Point Cloud lưới chiếm dụng 2D (2D Occupancy Grid) Phương pháp RtabMap chạy module quản lý đồ thị Nó sử dụng để giới hạn kích thước biểu đồ để đạt SLAM trực tuyến lâu dài môi trường lớn Nếu khơng có quản lý nhớ, đồ phát triển, thời gian xử lý module đóng vịng lặp, phát vùng lân cận, tối ưu hóa đồ thị lắp ráp đồ tồn cầu cuối vượt qua thời gian ràng buộc với thời gian thực, tức thời gian xử lý trở nên lớn Về bản, nhớ RtabMap ISBN 978-604-80-5958-3 V KẾT QUẢ MÔ PHỎNG Phần mềm mơ Gazebo tích hợp để sử dụng ROS Môi trường Gazebo tối ưu cho điều kiện vật lý giống với mơi trường thực tế nhất, nhóm tác giả xây dựng môi 389 Hội nghị Quốc gia lần thứ 24 Điện tử, Truyền thông Công nghệ Thông tin (REV-ECIT2021) trường nhà hai môi trường nhà khác nhằm đa dạng môi trường hoạt động nhà với vật cản khác Mô hình robot tự hành Omni hình 7, với tham số mô thực nghiệm giống nhau:  Tốc độ lớn theo phương x y: 1.5 m/s  Tốc độ góc lớn nhất: 0.5 rad/s  Bán kính robot: 0.25 m  Bán kính bánh xe: 0.07 m Hình Q trình SLAM 3D mơi trường Hình Mơ hình 3D robot Omni môi trường thực nghiệm hai môi trường nhà Tham số cho cảm biến lidar: Phạm vi quét lớn nhất: 0.2 ÷10 m, độ phân giải: 1o , góc qt: 360o  Camera astra có thơng số sau:  Độ phân giải hình ảnh RGB: 640x480 @30fps  Độ phân giải hình ảnh chiều sâu: 640x480 @30fps  Kích thước: 165mm x 30mm x 40mm  Phạm vi: 0.6m - 8m Việc chạy mô thử nghiệm SLAM thực Rviz, công cụ trực quan ROS Mục đích hiển thị thơng báo thu chế độ 3D, cho phép người dùng xác minh trực quan liệu Thông qua phần mềm Rviz, người dùng giám sát mơi trường xung quanh Robot theo thời gian Hình là kết thu bắt khởi chạy kỹ thuật SLAM hệ thống nhận biết robot Các đám mây điểm ảnh quét từ camera dựng lên với độ cao màu sắc tương đồng với vật thể tạo môi trường nhà Hình 10 Kết SLAM 3D mơi trường Hình 11 Kết SLAM 3D mơi trường Môi trường thực nghiệm gồm vách tường ngăn vật cản xếp vị trí ngẫu nhiêu đồ Robot di chuyển xung quanh phịng, sử dụng camera để thu lại hình ảnh q trình di chuyển, từ tái tạo lại đồ môi trường xung quanh Bản đồ 3D hình 8, pointcloud hay cịn gọi đám mây điểm thu thập Hình Q trình SLAM 3D với mơi trường ISBN 978-604-80-5958-3 390 Hội nghị Quốc gia lần thứ 24 Điện tử, Truyền thông Công nghệ Thông tin (REV-ECIT2021) "Mapping and Navigation for Indoor Robots under ROS: An Experimental Analysis," Creative Commons CC BY license, 2019 [5] Q Lin et al., "Indoor mapping using gmapping on embedded system," in 2017 IEEE International Conference on Robotics and Biomimetics (ROBIO), 2017, pp 2444-2449: IEEE [6] D.Schleicher, L.Bergasa, M.Ocan, R.Barea and E.Lopez, “Real-time hierarchical stereo Visual SLAM in largescale environment”, 2010 [7] S Das, “Simultaneous Localization and Mapping (SLAM) using RTAB-Map”, 2018 [8] Dieter Fox, Wolfram Burgard, and Sebastian Thrun, “Markov Localization for Mobile Robots in Dynamic Environments”, 1999 [9] E.A.Wan and R.v.d Merwe, “The Unscented Kalman Filter for Nonlinear Approaches”, 2006 Giorgio Grisetti, Rainer Kummerle, Cyrill [10] Stachniss, Wolfram Burgard, "A Tutorial on Graph-Base SLAM," IEEE Intelligent Transportation Systems Magazine, 2010 Nicolas Ragot, Redouane Khemmar, Adithya [11] Pokala, Romain Rossi, Benchmark of Visual SLAM Algorithm: ORB-SLAM2 vs RTAB-Map, 2019 Mathieu Labbé, Francois Michaud, RTAB-Map as [12] an Open-Source Lidar and Visual SLAM Library for Large-Scale and Long-Term Online Operation, Canada Thrilochan Sharma Pendyala, Prithvi Sekhar [13] Pagala, Hamsa Datta Perur, "Comparative analysis of ROS based 2D and 3D SLAM algorithms for Autonomous Ground Vehicles," June 2020 Mathieu Labb´e, Fran¸cois Michaud, "Long-Term [14] Online Multi-Session Graph-Based SPLAM with trình robot chuyển động Dữ liệu đám mây biểu thị hình ảnh vật dạng nhiều điểm không gian tọa độ chiều Hình 10, 11 biểu diễn chi tiết kết xây dựng tồn đồ Do kích thước robot nhỏ, nên thị trường hoạt động camera thấp thu ảnh khoảng cách xa Kết cho thấy robot có khả tái tạo lại đồ cách hiệu Dựa vào kết mơ ta thấy sử dụng camera 3D cho trình SLAM điều hướng Trong Lidar phát vật cản xa, gần với độ cao đặt Lidar robot camera 3D phát vật khoảng cách gần mà tia Lidar phát Ngồi việc sử dụng camera 3D cịn giúp giải hạn chế điều hướng tự động mơi trường có kết cấu khó khăn hành lang, bậc thang… VI KẾT LUẬN Bài báo trình bày lập đồ hóa (SLAM 3D) cho robot tự hành hoạt động môi trường nhà dựa hệ điều hành lập trình cho robot ROS Các kết cho thấy robot có khả thu thập liệu từ môi trường xung quanh, xây dựng đồ 3D định vị vị trí robot đồ môi trường nhà Các kết tảng cho bước điều hướng, lập quỹ đạo chuyển động cho robot phục vụ toán cụ thể robot tự hành hoạt động nhà máy, ứng dụng công việc vận chuyển hàng hóa nhà, Logictis Đặc biệt bên cạnh đó, đồ 3D có ý nghĩa với robot tự hành có tích hợp cấu chấp hành, cánh tay máy robot…vv việc di chuyển tự trị cịn thực nhiệm vụ tương tác cụ thể môi trường không gian hoạt động Memory Management" LỜI CẢM ƠN Bài báo hoàn thành với tài trợ Đề tài cấp Quốc gia thuộc chương trình phát triển Vật lý 2021-2025: "Nghiên cứu phát triển robot tự hành thông minh sử dụng công nghệ sensor khác tảng IoT, AI, định hướng ứng dụng quan trắc mơi trường phóng xạ", 2022-2024 TÀI LIỆU THAM KHẢO [1] P RcKerrow, “Introduction to Robotics”, AddisonWesley, 1991 [2] R Siegwart, I R Nourbakhsh, and D Scaramuzza, “Introduction to Autonomous Mobile Robots”, The MIT Press, February 2011 [3] S Park and G Lee, "Mapping and localization of cooperative robots by ROS and SLAM in unknown working area," in 2017 56th Annual Conference of the Society of Instrument and Control Engineers of Japan (SICE), 2017 [4] B M da Silva, R S Xavier, and L M Gonỗalves, ISBN 978-604-80-5958-3 391 ... Hình Robot Omni đa hướng bánh Hình Mơ hình thực tế cấu trúc phần cứng Omni robot III BẢN ĐỒ HĨA MƠI TRƯỜNG VÀ ĐỊNH VỊ ĐỒNG THỜI SLAM CHO ROBOT Hình Hệ trục tọa độ robot tự hành bốn bánh đa hướng. .. trước Robot A Mơ hình robot tự hành omni bốn bánh Mơ hình động học cho robot Omni bốn bánh xây dựng dựa mơ hình với bánh xe Omni bố trí đặt cách góc 900 hình q = x T y   véc tơ tọa độ robot hệ. .. tín hiệu chuyển đổi, vị trí robot điều khiển trực tiếp tín hiệu thông qua bốn bánh robot B Cấu trúc phần cứng thực tế omni robot bốn bánh Mô hình robot xây dựng với thành phần chính: Phần xử lý

Ngày đăng: 29/04/2022, 10:16

HÌNH ẢNH LIÊN QUAN

Hình 4. Mô tả quá trình SLAM - Ứng dụng RTAB-Map xây dựng bản đồ 3D cho Robot đa hướng bốn bánh dựa trên hệ điều hành ROS
Hình 4. Mô tả quá trình SLAM (Trang 3)
Hình 5. Sơ đồ khối rtabmap-ros - Ứng dụng RTAB-Map xây dựng bản đồ 3D cho Robot đa hướng bốn bánh dựa trên hệ điều hành ROS
Hình 5. Sơ đồ khối rtabmap-ros (Trang 4)
Hình 6. Sơ đồ tín hiệu xây dựng và định vị đồng thời Gói  RTAB-Map  ước  tính  vị  trí  của  Robot  và  xây  dựng bản đồ dựa trên dữ liệu thu được và các phép đo  hình học của nó - Ứng dụng RTAB-Map xây dựng bản đồ 3D cho Robot đa hướng bốn bánh dựa trên hệ điều hành ROS
Hình 6. Sơ đồ tín hiệu xây dựng và định vị đồng thời Gói RTAB-Map ước tính vị trí của Robot và xây dựng bản đồ dựa trên dữ liệu thu được và các phép đo hình học của nó (Trang 4)

TỪ KHÓA LIÊN QUAN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

w