1. Trang chủ
  2. » Kỹ Thuật - Công Nghệ

Ứng dụng RTAB-Map xây dựng bản đồ 3D cho Robot đa hướng bốn bánh dựa trên hệ điều hành ROS

6 120 0
Tài liệu đã được kiểm tra trùng lặp

Đang tải... (xem toàn văn)

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Tiêu đề Ứng dụng rtab-map xây dựng bản đồ 3d cho robot đa hướng bốn bánh dựa trên hệ điều hành ros
Tác giả Hà Thị Kim Duyên, Trần Bá Hiến, Lê Mạnh Long, Ngô Mạnh Tiến
Trường học Trường Đại học Công nghiệp Hà Nội
Thể loại Bài báo
Năm xuất bản 2021
Thành phố Hà Nội
Định dạng
Số trang 6
Dung lượng 1,1 MB

Nội dung

Bài viết này trình bày về quá trình xây dựng bản đồ địa hình 3D cho robot tự hành hoạt động trong môi trường trong nhà dựa trên hệ điều hành lập trình cho robot (Robot Operating System - ROS). Phần cứng là một robot Omni 4 bánh với nền tảng máy tính nhúng hiệu suất cao Jetson-Tx2, camera 3D và một cảm biến Lidar để thu thập dữ liệu từ môi trường bên ngoài.

Trang 1

Ứng dụng RTAB-Map xây dựng bản đồ 3D cho Robot đa hướng

bốn bánh dựa trên hệ điều hành ROS

Hà Thị Kim Duyên1, Trần Bá Hiến1Lê Mạnh Long 1 , Ngô Mạnh Tiến2

1Trường Đại học Công nghiệp Hà Nội Email: ha.duyen@haui.edu.vn, hienbn3333@gmail.com, lemanhlong@haui.edu.vn

2Viện Vật lý, Viện Hàn lâm KH&CN Việt Nam

Email: nmtien@iop.vast.ac.vn

Abstract: Bài báo này trình bày về quá trình xây

dựng bản đồ địa hình 3D cho robot tự hành hoạt động

trong môi trường trong nhà dựa trên hệ điều hành lập

trình cho robot (Robot Operating System - ROS) Phần

cứng là một robot Omni 4 bánh với nền tảng máy tính

nhúng hiệu suất cao Jetson-Tx2, camera 3D và một cảm

biến Lidar để thu thập dữ liệu từ môi trường bên ngoài

Kết hợp với việc chạy mô phỏng robot trong môi trường

trong nhà sử dụng Gazebo và thử nghiệm trên Rviz cho

thấy sự tiềm năng, hiệu quả của hướng nghiên cứu sử

dụng hệ điều hành robot ROS trong việc lập bản đồ môi

trường cho robot tự hành

Keywords: Simultaneous Localization and Mapping,

SLAM2D, SLAM3D, RTAP_Map, Robot Operating System

(ROS)

I GIỚI THIỆU Ngày nay, robot di động được sử dụng rộng rãi

trong các hoạt động liên quan đến hoạt động tự trị, tự

động di chuyển trong các môi trường không cố định và

không cần sự giám sát của con người Hoạt động tự trị

của robot trong môi trường chưa được biết đến đòi hỏi

robot phải tự nhận biết được môi trường xung quanh,

xây dựng bản đồ, định vị và lập kế hoạch đường đi và

tránh các vật cản tĩnh và động trong quá trình di

chuyển [1] [2]

Xây dựng bản đồ và định vị đồng thời hay còn gọi

là SLAM (Simultaneous Localization and Mapping) là

quá trình tính toán, xây dựng hoặc cập nhật bản đồ của

một môi trường không xác định đồng thời theo dõi vị

trí của các tác nhân bên trong bản đồ đó Với những

cải tiến lớn về tốc độ xử lý của máy tính và sự sẵn có

của các cảm biến như máy ảnh và laser, SLAM hiện

được sử dụng cho các ứng dụng thực tế trong một số

lĩnh vực ngày càng tăng Phương pháp này thu thập dữ

liệu từ các cảm biến để tái tạo môi trường hoạt động

thông qua việc đưa thông tin môi trường vào trong một

bản đồ 2D hoặc 3D Cảm biến được sử dụng trong

SLAM được chia thành hai loại: cảm biến ngoại vi

(thu nhận dữ liệu từ môi trường bên ngoài) và cảm

biến nội vi (xác định sự thay đổi vị trí, hướng, gia

tốc,…) Đã có nhiều công trình thực hiện SLAM 2D là

phương pháp tạo ra bản đồ 2D và phát hiện các

chướng ngại vật xung quanh trong môi trường không

xác định trong [3],[4] và [5] và cũng đã được các tác

giả xây dựng và thực thi trên nền ROS Để tăng độ chính xác, SLAM thường kết hợp các dữ liệu từ nhiều cảm biến qua các phương pháp xác suất như Markov, Kalman, … [6], [7], [8] Tuy nhiên việc sử dụng nhiều cảm biến sẽ làm tăng độ phức tạp, chi phí và thời gian

xử lý của hệ thống Đặc biệt là robot tự hành hiện nay không chỉ giới hạn trong việc di chuyển, mà nó còn được tích hợp các cơ cấu chấp hành, cánh tay máy robot…để thực hiện các nhiệm vụ cụ thể nào đó trong môi trường không gian hoạt động, do đó SLAM không chỉ ý nghĩa trong việc xây dựng bản đồ 2D môi trường hoạt động phục vụ điều hướng cho robot, mà còn cần thiết có các bản đồ 3D (SLAM3D) nhằm phục vụ các bài toán tương tác khác của robot trong môi trường hoạt động đó

Hiện nay với sự phát triển của lĩnh vực thị giác máy tính nên các hệ thống SLAM thường sử dụng camera để thu thập dữ liệu từ môi trường bên ngoài của những tác nhân gần xung quanh và kết hợp với Lidar để xác định vị trí của các tác nhân xa Cùng với

xu hướng sử dụng hệ điều hành robot – ROS (Robot Operating System) thì phương pháp SLAM cũng được phát triển hiệu quả Các phương pháp SLAM sử dụng cảm biến trên nền tảng ROS phổ biến hiện nay như Visual SLAM Một số phương pháp của Visual SLAM như maplab, ORB-SLAM2, DVO-SLAM, MCPTAM, RTAB-Map, RGBDSLAMv2… [9], [10], [11] Trong các phương pháp của Visual SLAM thì RTAB-Map tương đối toàn diện khi có thể cung cấp bản đồ dạng lưới 2D (Occupancy Grid) như cách sử dụng cảm biến thông thường hay bản đồ 3D (Octomap) RTAB-Map được phân phối dưới dạng một ROS package có khả năng xử lý thời gian thực, tối ưu hóa việc định vị và tạo bản đồ thực tế [12]

Bài báo nghiên cứu, xây dựng một robot có khả năng xây dựng bản đồ và định vị đồng thời SLAM 3D

sử dụng phương pháp RTAB-Map trên nền tảng ROS Kích thước robot nhỏ phù hợp với việc hoạt động trong môi trường trong nhà Robot có khả năng di chuyển, thu thập dữ liệu, xây dựng bản đồ 3D và định

vị vị trí trên bản đồ Kết quả SLAM ngoài việc sử dụng để lập kế hoạch đường đi cho robot trong hệ thống dẫn đường tự động của robot tự hành, mà còn cần thiết có các bản đồ 3D (SLAM3D) nhằm phục vụ các bài toán tương tác khác của robot trong môi trường hoạt động đó

Trang 2

II MÔ HÌNH ROBOT TỰ HÀNH OMNI BỐN

BÁNH VÀ HỆ ĐIỀU HÀNH ROS

A Mô hình robot tự hành omni bốn bánh

Mô hình động học cho robot Omni bốn bánh được

xây dựng dựa trên mô hình với bánh xe Omni được bố

trí đặt cách nhau một góc 900 như trên hình 2

q x y  là véc tơ tọa độ của robot trong hệ tọa

độ toàn cục Oxy , trong đó x và y lần lượt là toạ độ

của robot theo phương Ox và Oy , là góc quay của

robot so với chiều dương của trục Ox

T

x y

v v v  là véc tơ vận tốc của robot trong hệ

trục tọa độ động gắn vào tâm robot bao gồm vận tốc

tịnh tiến và vận tốc góc của robot

Hình 1 Robot Omni đa hướng 4 bánh

Hình 2 Hệ trục tọa độ của robot tự hành bốn bánh đa hướng

Để đơn giản trong việc thiết kế bộ điều khiển cho

robot, mối quan hệ giữa vận tốc trong trục của robot

và vận tốc trong trục của môi trường được mô tả bằng

mô hình động học của robot:

Từ (1) chúng ta sẽ có được phương trình để lập

trình cho Robot trong ROS:

w

(2)

Trong đó v v và w là vận tốc của robot và vận x, y tốc tín hiệu điều khiển được tạo ra từ tính toán điều khiển Sau khi tín hiệu được chuyển đổi, vị trí của robot được điều khiển trực tiếp bởi các tín hiệu này

thông qua bốn bánh của robot

B Cấu trúc phần cứng thực tế của omni robot bốn bánh

Mô hình robot được xây dựng với 3 thành phần chính: Phần xử lý trung tâm, phần cảm biến, và phần điều khiển cơ cấu chấp hành Về cấu trúc bộ phận di chuyển là Omni 4 bánh đa hướng giúp việc di chuyển linh hoạt và dễ dàng hơn Máy tính nhúng đóng Jetson TX2 có vai trò là bộ xử lý trung tâm được cài đặt hệ điều hành ROS cùng với các node tính toán thuật toán SLAM Sau khi tính toán xong, Jetson TX2 gửi lệnh điều khiển cho bộ phận điều khiển cơ cấu chấp hành là mạch STM32 RPLidar quét laser 360o giúp Robot xây dựng bản đồ và nhận diện vật cản tầm cao với khoảng cách xa Camera 3D sử dụng Deep Camera giúp nhận diện vật cản tầm trung và tầm thấp ở phía trước Robot

Hình 3 Mô hình thực tế và cấu trúc phần cứng của Omni

robot

III BẢN ĐỒ HÓA MÔI TRƯỜNG VÀ ĐỊNH VỊ ĐỒNG THỜI SLAM CHO ROBOT Trong lĩnh vực robotic, vấn đề định vị đồng thời xây dựng bản đồ SLAM là một trong những vấn đề quan trọng nhất và đóng vai trò then chốt trong điều hướng robot, vì vậy đã thu hút được sự quan tâm lớn của đông đảo các nhà khoa học Vấn đề SLAM được

mô tả tổng quát trong quá trình khi robot di chuyển để lập bản đồ những nơi con người không thể hoặc không muốn tiếp cận, đồng thời robot tự xác định được vị trí của nó so với những đối tượng xung quanh Kỹ thuật

xử lý SLAM sẽ cung cấp thông tin bản đồ về môi trường cũng như đồng thời ước tính tư thế riêng (vị trí

và hướng) của robot dựa vào các tín hiệu thu được từ các cảm biến tầm nhìn bao gồm Rplidar và 3D camera

Trang 3

A Định nghĩa SLAM

Hình 4 Mô tả quá trình SLAM Xét hệ robot tự hành di chuyển vào một môi

trường không xác định và các giá trị khoảng cách từ

robot đến các vật cản tĩnh trong môi trường được đo

bằng cảm biến Lidar như hình 4 Tại thời điểm k các

giá trị sau đây được định nghĩa:

k

x : vector trạng thái miêu tả hướng và vị trí của

robot

k

u : vector điều khiển lái robot từ thời điểm k  1

đến trạng thái x tại thời điểm k k

i

m : vector miêu tả vị trí của điểm mốc thứ i được

giả định là không thay đổi

,

i k

z : phép quan sát được lấy từ robot từ vị trí thứ i

tại thời điểm thứ k Khi có nhiều quan sát mốc tại một

thời điểm hoặc khi mốc cụ thể không liên quan đến

khoảng đang xét, phép quan sát sẽ được viết đơn giản

z k

Thêm vào đó, ta sẽ định nghĩa thêm:

0:k 0, 1, , k 0:k1, k

Xx x xXx : Tập chứa các

vị trí của robot từ thời điểm ban đầu đến thời điểm k

0:k 0, , ,1 k 0:k1, k

Uu u uUu : Tập chứa các

giá trị đầu vào điều khiển từ thời điểm ban đầu đến

thời điểm k

 1, 2, , n

mm m m : Tập các điểm mốc thể hiện vị

trí vật cản quét được

0:k 0, , ,1 k 0:k1, k

Zz z zZz : Tập các điểm

mốc quan sát được từ thời điểm ban đầu đến thời điểm

k

Vấn đề SLAM từ đó được định nghĩa là việc xác

định được vị trí của các vật cản tĩnh trong môi trường

m để bản đồ hoá môi trường và đồng thời ước tính vị

trí của robot trong bản đồ đó x k

B Kỹ thuật SLAM trong xác suất robotic

Ở dạng xác suất, vấn đề SLAM được biểu diễn

dưới dạng phân phối xác suất sau

0: 0:

( k, | k, k)

P x m Z U (3) Phân phối xác suất này mô tả phân phối hậu

nghiệm liên kết giữa vị trí điểm mốc trong bản đồ với

trạng thái của robot tại thời điểm k khi biết giá trị quan sát được và tín hiệu đầu vào điều khiển cùng với trạng thái ban đầu của robot Việc tính toán giá trị phân phối xác xuất này yêu cầu mô hình chuyển trạng thái và mô hình quan sát để mô tả việc tác động của tín hiệu điều khiển và các giá trị quan sát được Mô hình quan sát mô tả xác suất thực hiện được giá trị quan sát

k

z khi vị trí robot và vị trí điểm mốc trên bản đồ đã

được xác định, và nó có dạng

( k| k, )

P z x m (4)

Và giải thiết rằng khi vị trí của robot và bản đồ được xác định thì các giá trị quan sát được là độc lập

có điều kiện Mô hình chuyển động của robot được mô

tả bởi phân bố xác suất chuyển trạng thái sau :

P x( k|x k1,u k) (5) Phân bố này được giả sử là thoả mãn tiêu chuẩn Markov, ở đó trạng thái x chỉ phụ thuộc vào trạng k

thái ngay trước nó x 1 và tín hiệu điều khiển u , và k k

x độc lập với các giá trị quan sát được và bản đồ m

Thuật toán SLAM được thực thi với hai bước tuần

tự lặp lại là bước dự đoán (prediction) còn được gọi là cập nhật thseo thời gian và bước chỉnh sửa (correction) còn được gọi là cập nhật theo đo lường

Bước dự đoán được mô tả bởi phân phối:

0: 1 0:

( k, | k , k)

P x m ZU (6)

Do trạng thái của robot x và bản đồ m là độc k

lập, ta có:

0: 1 0: 0 0: 1 0: 0: 1 0:

0: 1 0: 1 1 0: 1 0: 0: 1 0: 1

P x m Z U x P x Z U P m Z U

P x Z U x P x Z U P m Z U dx



(7)

1

x và m độc lập nên (7) trở thành

( k| k , k, k ) ( k , | k , k) k

P x ZU xP xm ZU dx

k

x có tính chất Markov nên (8) được thu gọn thành

( k| k , k) ( k , | k , k ) k

P x xu P xm ZUdx

Sau khi tính toán bước dự đoán, bước chỉnh sửa được thực hiện theo phân phối sau

0: 0:

0: 1 0:

0: 1 0:

P x m Z U

P z x m P x m Z U

Biểu thức (8) và (9) mô tả quá trình tính toán đệ quy cho việc tính toán xác suất hậu nghiệm (10) cho trạng thái robot x và bản đồ m tại thời điểm k k dựa vào tập quan sát Z 0:k và tập tín hiệu điều khiển đầu vào U 0:k

IV ỨNG DỤNG RTAB-MAP XÂY DỰNG BẢN

ĐỒ 3D RTAB-Map là một phương pháp SLAM dựa trên đồ thị RGB-D sử dụng bộ đóng vòng lặp Bộ đóng vòng lặp sử dụng phương pháp tiếp cận từ nhiều điểm để xác định khả năng một hình ảnh mới đến từ một vị trí trước

Trang 4

đó hay vị trí mới RTAB-Map phát hiện lỗi sai bằng

cách sử dụng phương pháp GoodFeaturesToTrack

(GFTT) theo mặc định, giúp giảm bớt việc điều chỉnh

tham số, cho phép các tính năng được phát hiện đồng

nhất trên các kích thước hình ảnh và cường độ ánh sáng

khác nhau Ngoài ra, RTAB-Map hỗ trợ tất cả các loại

tính năng có sẵn trong OpenCV, chẳng hạn như SIFT,

SURF, ORB, FAST hoặc BRIEF Một trình tối ưu hóa

đồ thị giảm thiểu các lỗi trong bản đồ khi các ràng buộc

mới được thêm vào và một phương pháp quản lý bộ nhớ

hiệu quả được sử dụng để thực hiện các ràng buộc thời

gian thực trong các môi trường lớn

Để thực hiện SLAM 3D, chúng tôi sử dụng gói

Rtab-Map cho omni robot Bằng việc thu thập dữ liệu từ

RPLidar, Astra camera và chuyển đổi với cấu trúc như

hình 5

Hình 5 Sơ đồ khối rtabmap-ros Cấu trúc của rtabmap_ros là một biểu đồ với các nút

liên kết với nhau Sau khi đồng bộ hóa các dữ liệu đầu

vào, modul bộ nhớ ngắn hạn (STM) tạo một nút để ghi

nhớ tư thế Odometry, dữ liệu cảm biến và các thông tin

bổ xung cho các modul tiếp theo

Các đầu vào yêu cầu là: TF để xác định vị trí của

các cảm biến liên quan đến chân đế robot, Odometry,

hình ảnh từ camera và đầu quét laser từ Lidar Tất cả

các thông báo từ đầu vào này sau đó được đồng bộ hóa

và chuyển đến thuật toán đồ thị (SLAM) Kết quả đầu

ra là dữ liệu bản đồ chứa trong Map Data được bổ xung

mới nhất với các dữ liệu cảm biến nén và biểu đồ, Map

Graph không có bất kỳ dữ liệu nào, hiệu chỉnh

Odometry được xuất bản trên TF, một tùy chọn lưới

chiếm dụng 3D (OctoMap), Point Cloud và một lưới

chiếm dụng 2D (2D Occupancy Grid)

Phương pháp RtabMap chạy trên module quản lý đồ

thị Nó sử dụng để giới hạn kích thước của biểu đồ để

có thể đạt được SLAM trực tuyến lâu dài trong môi

trường lớn Nếu không có bộ quản lý bộ nhớ, khi bản đồ

phát triển, thời gian xử lý của các module như đóng

vòng lặp, phát hiện vùng lân cận, tối ưu hóa đồ thị và

lắp ráp bản đồ toàn cầu cuối cùng có thể vượt qua thời

gian ràng buộc với thời gian thực, tức là thời gian xử lý

trở nên quá lớn Về cơ bản, bộ nhớ của RtabMap được

chia thành bộ nhớ làm việc (WM) và bộ nhớ dài hạn (LTM), khi một nút chuyển sang LTM, nó không còn khả dụng cho các modul bên trong WM Khi thời gian cập nhật RtabMap vượt quá ngưỡng thời gian cho phép, một số nút trong WM sẽ chuyển sang LTM để giới hạn kích thước của WM và giảm thời gian cập nhật STM dùng để xác định xem nút nào cần chuyển sang LTM [11], [13], [14]

Hình 6 Sơ đồ tín hiệu xây dựng và định vị đồng thời Gói RTAB-Map ước tính vị trí của Robot và xây dựng bản đồ dựa trên dữ liệu thu được và các phép đo hình học của nó

- Lidar: node này thực hiện chạy cảm biến RPLidar và gửi thông tin “scan” cần thiết đến node rtabmap

- Camera 3D: node này thực hiện chạy camera 3D

và gửi thông tin “image(rgb)”, “image(depth)”,

“CameraInfo” đến node rgbd_sync

- rgbd_sync: node này đảm bảo rằng các chủ đề hình ảnh được đồng bộ hóa chính xác với nhau trước khi đi vào node rtabmap

- rtabmap: node này sẽ đồng bộ hóa các chủ đề đến

từ tín hiệu LaserScan và thông tin từ Camera 3D

- nav_msgs/Odometry: xuất bản thông tin về vị trí, vận tốc của robot trong không gian tự do đến node rtabmap

- rviz, rtabmaprviz: thực hiệm giám sát quá trình hoạt động của robot và theo dõi quá trình tạo map Robot sử dụng thông tin “image(rgb)”,

“image(depth)”, “CameraInfo” từ camera 3D qua quá trình đồng bộ hóa bởi node rgdb_image để thực hiện quá trình tạo map 3D Camera còn được sử dụng để phát hiện đóng vòng lặp dựa trên hình ảnh RGBD, nhưng nó không cải thiện hệ thống quá nhiều Thông tin “scan” từ cảm biến RPLidar được sử dụng để cải thiện kết quả của quá trình SLAM, giúp tinh chỉnh quá trình đo mùi (Odometry) làm cho kết quả được tốt hơn trên bản đồ

V KẾT QUẢ MÔ PHỎNG Phần mềm mô phỏng Gazebo được tích hợp để có thể sử dụng trong ROS Môi trường trong Gazebo được tối ưu sao cho các điều kiện vật lý giống với môi trường thực tế nhất, nhóm tác giả đã xây dựng môi

Trang 5

trường trong nhà tại hai môi trường trong nhà khác

nhau nhằm đa dạng các môi trường hoạt động trong

nhà với những vật cản khác nhau Mô hình robot tự

hành Omni như hình 7, với các tham số mô phỏng và

thực nghiệm giống nhau:

 Tốc độ lớn nhất theo phương x và y: 1.5 m/s

 Tốc độ góc lớn nhất: 0.5 rad/s

 Bán kính robot: 0.25 m

 Bán kính bánh xe: 0.07 m

Hình 7 Mô hình 3D robot Omni và môi trường thực

nghiệm tại hai môi trường trong nhà

Tham số cho cảm biến lidar: Phạm vi quét lớn

nhất: 0.2 ÷10 m, độ phân giải: 1o , góc quét: 360 o

 Camera astra có thông số như sau:

 Độ phân giải hình ảnh RGB: 640x480 @30fps

 Độ phân giải hình ảnh chiều sâu: 640x480

@30fps

 Kích thước: 165mm x 30mm x 40mm

 Phạm vi: 0.6m - 8m

Việc chạy mô phỏng thử nghiệm SLAM được thực

hiện trên Rviz, là công cụ trực quan của ROS Mục

đích chính là hiển thị các thông báo thu được ở chế độ

3D, cho phép người dùng xác minh trực quan dữ liệu

Thông qua phần mềm Rviz, người dùng có thể giám

sát được môi trường xung quanh của Robot theo thời

gian Hình 8 là là kết quả thu được khi bắt khởi chạy

kỹ thuật SLAM trong hệ thống nhận biết robot Các

đám mây điểm ảnh được quét từ camera được dựng

lên với độ cao và màu sắc tương đồng với các vật thể

được tạo ra trong môi trường trong nhà

Hình 8 Quá trình SLAM 3D với môi trường 1

Hình 9 Quá trình SLAM 3D của môi trường 2

Hình 10 Kết quả SLAM 3D của môi trường 1

Hình 11 Kết quả SLAM 3D của môi trường 2 Môi trường thực nghiệm gồm các vách tường ngăn

và các vật cản được sắp xếp ở các vị trí ngẫu nhiêu trên bản đồ Robot di chuyển xung quanh phòng, sử dụng camera để thu lại hình ảnh trong quá trình di chuyển, từ đó tái tạo lại bản đồ của môi trường xung quanh Bản đồ 3D ở hình 8, 9 là các pointcloud hay còn gọi là đám mây điểm được thu thập trong quá

Trang 6

trình robot chuyển động Dữ liệu đám mây này biểu

thị hình ảnh của một vật dưới dạng nhiều điểm trong

không gian tọa độ 3 chiều Hình 10, 11 biểu diễn chi

tiết kết quả xây dựng toàn bộ bản đồ Do kích thước

của robot nhỏ, nên thị trường hoạt động của camera

còn thấp nhưng vẫn thu được ảnh ở khoảng cách xa

Kết quả cho thấy robot có khả năng tái tạo lại bản đồ

một cách hiệu quả

Dựa vào kết quả mô phỏng ta thấy có thể sử dụng

camera 3D cho quá trình SLAM và điều hướng Trong

khi Lidar có thể phát hiện các vật cản ở xa, gần với

cùng độ cao đặt Lidar trên robot thì camera 3D có thể

phát hiện các vật ở khoảng cách gần mà tia Lidar

không thể phát hiện được Ngoài ra việc sử dụng

camera 3D còn giúp giải quyết những hạn chế khi điều

hướng tự động trong môi trường có các kết cấu khó

khăn như hành lang, bậc thang…

VI KẾT LUẬN Bài báo này trình bày về lập bản đồ hóa (SLAM

3D) cho robot tự hành hoạt động trong các môi trường

trong nhà dựa trên hệ điều hành lập trình cho robot

ROS Các kết quả cho thấy robot có khả năng thu thập

dữ liệu từ môi trường xung quanh, xây dựng bản đồ

3D và định vị vị trí của robot trên bản đồ của môi

trường trong nhà Các kết quả này là nền tảng cho các

bước điều hướng, lập quỹ đạo chuyển động cho robot

phục vụ các bài toán cụ thể như robot tự hành hoạt

động trong các nhà máy, ứng dụng trong công việc

vận chuyển hàng hóa trong nhà, Logictis Đặc biệt

bên cạnh đó, bản đồ 3D có ý nghĩa với các robot tự

hành có tích hợp các cơ cấu chấp hành, cánh tay máy

robot…vv ngoài việc di chuyển tự trị còn có thể thực

hiện các nhiệm vụ tương tác cụ thể trong môi trường

không gian hoạt động

LỜI CẢM ƠN Bài báo này được hoàn thành với sự tài trợ của Đề

tài cấp Quốc gia thuộc chương trình phát triển Vật lý

2021-2025: "Nghiên cứu phát triển robot tự hành

thông minh sử dụng các công nghệ sensor khác nhau

và nền tảng IoT, AI, định hướng ứng dụng trong quan

trắc môi trường phóng xạ", 2022-2024

TÀI LIỆU THAM KHẢO [1]P RcKerrow, “Introduction to Robotics”,

Addison-Wesley, 1991.

[2]R Siegwart, I R Nourbakhsh, and D Scaramuzza,

“Introduction to Autonomous Mobile Robots”, The MIT

Press, February 2011.

[3]S Park and G Lee, "Mapping and localization of

cooperative robots by ROS and SLAM in unknown

working area," in 2017 56th Annual Conference of the

Society of Instrument and Control Engineers of Japan

(SICE), 2017.

[4] B M da Silva, R S Xavier, and L M Gonçalves,

"Mapping and Navigation for Indoor Robots under ROS:

An Experimental Analysis," Creative Commons CC BY license, 2019

[5] Q Lin et al., "Indoor mapping using gmapping on embedded system," in 2017 IEEE International Conference on Robotics and Biomimetics (ROBIO),

2017, pp 2444-2449: IEEE.

[6]D.Schleicher, L.Bergasa, M.Ocan, R.Barea and E.Lopez,

“Real-time hierarchical stereo Visual SLAM in large-scale environment”, 2010.

[7]S Das, “Simultaneous Localization and Mapping (SLAM) using RTAB-Map”, 2018.

[8]Dieter Fox, Wolfram Burgard, and Sebastian Thrun,

“Markov Localization for Mobile Robots in Dynamic Environments”, 1999.

[9]E.A.Wan and R.v.d Merwe, “The Unscented Kalman Filter for Nonlinear Approaches”, 2006

[10] Giorgio Grisetti, Rainer Kummerle, Cyrill Stachniss, Wolfram Burgard, "A Tutorial on Graph-Base

SLAM," IEEE Intelligent Transportation Systems

Magazine, 2010.

[11] Nicolas Ragot, Redouane Khemmar, Adithya Pokala, Romain Rossi, Benchmark of Visual SLAM Algorithm: ORB-SLAM2 vs RTAB-Map, 2019 [12] Mathieu Labbé, Francois Michaud, RTAB-Map as

an Open-Source Lidar and Visual SLAM Library for Large-Scale and Long-Term Online Operation, Canada [13] Thrilochan Sharma Pendyala, Prithvi Sekhar Pagala, Hamsa Datta Perur, "Comparative analysis of ROS based 2D and 3D SLAM algorithms for Autonomous Ground Vehicles," June 2020.

[14] Mathieu Labb´e, Fran¸cois Michaud, "Long-Term Online Multi-Session Graph-Based SPLAM with Memory Management"

Ngày đăng: 29/04/2022, 10:16

HÌNH ẢNH LIÊN QUAN

Hình 1. Robot Omni đa hướng 4 bánh - Ứng dụng RTAB-Map xây dựng bản đồ 3D cho Robot đa hướng bốn bánh dựa trên hệ điều hành ROS
Hình 1. Robot Omni đa hướng 4 bánh (Trang 2)
Hình 2. Hệ trục tọa độ của robot tự hành bốn bánh đa hướng. - Ứng dụng RTAB-Map xây dựng bản đồ 3D cho Robot đa hướng bốn bánh dựa trên hệ điều hành ROS
Hình 2. Hệ trục tọa độ của robot tự hành bốn bánh đa hướng (Trang 2)
Đồ thị giảm thiểu các lỗi trong bản đồ khi các ràng buộc - Ứng dụng RTAB-Map xây dựng bản đồ 3D cho Robot đa hướng bốn bánh dựa trên hệ điều hành ROS
th ị giảm thiểu các lỗi trong bản đồ khi các ràng buộc (Trang 4)
Hình 7. Mô hình 3D robot Omni và môi trường thực - Ứng dụng RTAB-Map xây dựng bản đồ 3D cho Robot đa hướng bốn bánh dựa trên hệ điều hành ROS
Hình 7. Mô hình 3D robot Omni và môi trường thực (Trang 5)
Hình 9. Quá trình SLAM 3D của môi trường 2 - Ứng dụng RTAB-Map xây dựng bản đồ 3D cho Robot đa hướng bốn bánh dựa trên hệ điều hành ROS
Hình 9. Quá trình SLAM 3D của môi trường 2 (Trang 5)
Hình 10. Kết quả SLAM 3D của môi trường 1 - Ứng dụng RTAB-Map xây dựng bản đồ 3D cho Robot đa hướng bốn bánh dựa trên hệ điều hành ROS
Hình 10. Kết quả SLAM 3D của môi trường 1 (Trang 5)
Hình 11. Kết quả SLAM 3D của môi trường 2 - Ứng dụng RTAB-Map xây dựng bản đồ 3D cho Robot đa hướng bốn bánh dựa trên hệ điều hành ROS
Hình 11. Kết quả SLAM 3D của môi trường 2 (Trang 5)
Hình 8. Quá trình SLAM 3D với môi trường 1 - Ứng dụng RTAB-Map xây dựng bản đồ 3D cho Robot đa hướng bốn bánh dựa trên hệ điều hành ROS
Hình 8. Quá trình SLAM 3D với môi trường 1 (Trang 5)

TỪ KHÓA LIÊN QUAN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

w