Bài viết này trình bày về quá trình xây dựng bản đồ địa hình 3D cho robot tự hành hoạt động trong môi trường trong nhà dựa trên hệ điều hành lập trình cho robot (Robot Operating System - ROS). Phần cứng là một robot Omni 4 bánh với nền tảng máy tính nhúng hiệu suất cao Jetson-Tx2, camera 3D và một cảm biến Lidar để thu thập dữ liệu từ môi trường bên ngoài.
Trang 1Ứng dụng RTAB-Map xây dựng bản đồ 3D cho Robot đa hướng
bốn bánh dựa trên hệ điều hành ROS
Hà Thị Kim Duyên1, Trần Bá Hiến1Lê Mạnh Long 1 , Ngô Mạnh Tiến2
1Trường Đại học Công nghiệp Hà Nội Email: ha.duyen@haui.edu.vn, hienbn3333@gmail.com, lemanhlong@haui.edu.vn
2Viện Vật lý, Viện Hàn lâm KH&CN Việt Nam
Email: nmtien@iop.vast.ac.vn
Abstract: Bài báo này trình bày về quá trình xây
dựng bản đồ địa hình 3D cho robot tự hành hoạt động
trong môi trường trong nhà dựa trên hệ điều hành lập
trình cho robot (Robot Operating System - ROS) Phần
cứng là một robot Omni 4 bánh với nền tảng máy tính
nhúng hiệu suất cao Jetson-Tx2, camera 3D và một cảm
biến Lidar để thu thập dữ liệu từ môi trường bên ngoài
Kết hợp với việc chạy mô phỏng robot trong môi trường
trong nhà sử dụng Gazebo và thử nghiệm trên Rviz cho
thấy sự tiềm năng, hiệu quả của hướng nghiên cứu sử
dụng hệ điều hành robot ROS trong việc lập bản đồ môi
trường cho robot tự hành
Keywords: Simultaneous Localization and Mapping,
SLAM2D, SLAM3D, RTAP_Map, Robot Operating System
(ROS)
I GIỚI THIỆU Ngày nay, robot di động được sử dụng rộng rãi
trong các hoạt động liên quan đến hoạt động tự trị, tự
động di chuyển trong các môi trường không cố định và
không cần sự giám sát của con người Hoạt động tự trị
của robot trong môi trường chưa được biết đến đòi hỏi
robot phải tự nhận biết được môi trường xung quanh,
xây dựng bản đồ, định vị và lập kế hoạch đường đi và
tránh các vật cản tĩnh và động trong quá trình di
chuyển [1] [2]
Xây dựng bản đồ và định vị đồng thời hay còn gọi
là SLAM (Simultaneous Localization and Mapping) là
quá trình tính toán, xây dựng hoặc cập nhật bản đồ của
một môi trường không xác định đồng thời theo dõi vị
trí của các tác nhân bên trong bản đồ đó Với những
cải tiến lớn về tốc độ xử lý của máy tính và sự sẵn có
của các cảm biến như máy ảnh và laser, SLAM hiện
được sử dụng cho các ứng dụng thực tế trong một số
lĩnh vực ngày càng tăng Phương pháp này thu thập dữ
liệu từ các cảm biến để tái tạo môi trường hoạt động
thông qua việc đưa thông tin môi trường vào trong một
bản đồ 2D hoặc 3D Cảm biến được sử dụng trong
SLAM được chia thành hai loại: cảm biến ngoại vi
(thu nhận dữ liệu từ môi trường bên ngoài) và cảm
biến nội vi (xác định sự thay đổi vị trí, hướng, gia
tốc,…) Đã có nhiều công trình thực hiện SLAM 2D là
phương pháp tạo ra bản đồ 2D và phát hiện các
chướng ngại vật xung quanh trong môi trường không
xác định trong [3],[4] và [5] và cũng đã được các tác
giả xây dựng và thực thi trên nền ROS Để tăng độ chính xác, SLAM thường kết hợp các dữ liệu từ nhiều cảm biến qua các phương pháp xác suất như Markov, Kalman, … [6], [7], [8] Tuy nhiên việc sử dụng nhiều cảm biến sẽ làm tăng độ phức tạp, chi phí và thời gian
xử lý của hệ thống Đặc biệt là robot tự hành hiện nay không chỉ giới hạn trong việc di chuyển, mà nó còn được tích hợp các cơ cấu chấp hành, cánh tay máy robot…để thực hiện các nhiệm vụ cụ thể nào đó trong môi trường không gian hoạt động, do đó SLAM không chỉ ý nghĩa trong việc xây dựng bản đồ 2D môi trường hoạt động phục vụ điều hướng cho robot, mà còn cần thiết có các bản đồ 3D (SLAM3D) nhằm phục vụ các bài toán tương tác khác của robot trong môi trường hoạt động đó
Hiện nay với sự phát triển của lĩnh vực thị giác máy tính nên các hệ thống SLAM thường sử dụng camera để thu thập dữ liệu từ môi trường bên ngoài của những tác nhân gần xung quanh và kết hợp với Lidar để xác định vị trí của các tác nhân xa Cùng với
xu hướng sử dụng hệ điều hành robot – ROS (Robot Operating System) thì phương pháp SLAM cũng được phát triển hiệu quả Các phương pháp SLAM sử dụng cảm biến trên nền tảng ROS phổ biến hiện nay như Visual SLAM Một số phương pháp của Visual SLAM như maplab, ORB-SLAM2, DVO-SLAM, MCPTAM, RTAB-Map, RGBDSLAMv2… [9], [10], [11] Trong các phương pháp của Visual SLAM thì RTAB-Map tương đối toàn diện khi có thể cung cấp bản đồ dạng lưới 2D (Occupancy Grid) như cách sử dụng cảm biến thông thường hay bản đồ 3D (Octomap) RTAB-Map được phân phối dưới dạng một ROS package có khả năng xử lý thời gian thực, tối ưu hóa việc định vị và tạo bản đồ thực tế [12]
Bài báo nghiên cứu, xây dựng một robot có khả năng xây dựng bản đồ và định vị đồng thời SLAM 3D
sử dụng phương pháp RTAB-Map trên nền tảng ROS Kích thước robot nhỏ phù hợp với việc hoạt động trong môi trường trong nhà Robot có khả năng di chuyển, thu thập dữ liệu, xây dựng bản đồ 3D và định
vị vị trí trên bản đồ Kết quả SLAM ngoài việc sử dụng để lập kế hoạch đường đi cho robot trong hệ thống dẫn đường tự động của robot tự hành, mà còn cần thiết có các bản đồ 3D (SLAM3D) nhằm phục vụ các bài toán tương tác khác của robot trong môi trường hoạt động đó
Trang 2II MÔ HÌNH ROBOT TỰ HÀNH OMNI BỐN
BÁNH VÀ HỆ ĐIỀU HÀNH ROS
A Mô hình robot tự hành omni bốn bánh
Mô hình động học cho robot Omni bốn bánh được
xây dựng dựa trên mô hình với bánh xe Omni được bố
trí đặt cách nhau một góc 900 như trên hình 2
q x y là véc tơ tọa độ của robot trong hệ tọa
độ toàn cục Oxy , trong đó x và y lần lượt là toạ độ
của robot theo phương Ox và Oy , là góc quay của
robot so với chiều dương của trục Ox
T
x y
v v v là véc tơ vận tốc của robot trong hệ
trục tọa độ động gắn vào tâm robot bao gồm vận tốc
tịnh tiến và vận tốc góc của robot
Hình 1 Robot Omni đa hướng 4 bánh
Hình 2 Hệ trục tọa độ của robot tự hành bốn bánh đa hướng
Để đơn giản trong việc thiết kế bộ điều khiển cho
robot, mối quan hệ giữa vận tốc trong trục của robot
và vận tốc trong trục của môi trường được mô tả bằng
mô hình động học của robot:
Từ (1) chúng ta sẽ có được phương trình để lập
trình cho Robot trong ROS:
w
(2)
Trong đó v v và w là vận tốc của robot và vận x, y tốc tín hiệu điều khiển được tạo ra từ tính toán điều khiển Sau khi tín hiệu được chuyển đổi, vị trí của robot được điều khiển trực tiếp bởi các tín hiệu này
thông qua bốn bánh của robot
B Cấu trúc phần cứng thực tế của omni robot bốn bánh
Mô hình robot được xây dựng với 3 thành phần chính: Phần xử lý trung tâm, phần cảm biến, và phần điều khiển cơ cấu chấp hành Về cấu trúc bộ phận di chuyển là Omni 4 bánh đa hướng giúp việc di chuyển linh hoạt và dễ dàng hơn Máy tính nhúng đóng Jetson TX2 có vai trò là bộ xử lý trung tâm được cài đặt hệ điều hành ROS cùng với các node tính toán thuật toán SLAM Sau khi tính toán xong, Jetson TX2 gửi lệnh điều khiển cho bộ phận điều khiển cơ cấu chấp hành là mạch STM32 RPLidar quét laser 360o giúp Robot xây dựng bản đồ và nhận diện vật cản tầm cao với khoảng cách xa Camera 3D sử dụng Deep Camera giúp nhận diện vật cản tầm trung và tầm thấp ở phía trước Robot
Hình 3 Mô hình thực tế và cấu trúc phần cứng của Omni
robot
III BẢN ĐỒ HÓA MÔI TRƯỜNG VÀ ĐỊNH VỊ ĐỒNG THỜI SLAM CHO ROBOT Trong lĩnh vực robotic, vấn đề định vị đồng thời xây dựng bản đồ SLAM là một trong những vấn đề quan trọng nhất và đóng vai trò then chốt trong điều hướng robot, vì vậy đã thu hút được sự quan tâm lớn của đông đảo các nhà khoa học Vấn đề SLAM được
mô tả tổng quát trong quá trình khi robot di chuyển để lập bản đồ những nơi con người không thể hoặc không muốn tiếp cận, đồng thời robot tự xác định được vị trí của nó so với những đối tượng xung quanh Kỹ thuật
xử lý SLAM sẽ cung cấp thông tin bản đồ về môi trường cũng như đồng thời ước tính tư thế riêng (vị trí
và hướng) của robot dựa vào các tín hiệu thu được từ các cảm biến tầm nhìn bao gồm Rplidar và 3D camera
Trang 3A Định nghĩa SLAM
Hình 4 Mô tả quá trình SLAM Xét hệ robot tự hành di chuyển vào một môi
trường không xác định và các giá trị khoảng cách từ
robot đến các vật cản tĩnh trong môi trường được đo
bằng cảm biến Lidar như hình 4 Tại thời điểm k các
giá trị sau đây được định nghĩa:
k
x : vector trạng thái miêu tả hướng và vị trí của
robot
k
u : vector điều khiển lái robot từ thời điểm k 1
đến trạng thái x tại thời điểm k k
i
m : vector miêu tả vị trí của điểm mốc thứ i được
giả định là không thay đổi
,
i k
z : phép quan sát được lấy từ robot từ vị trí thứ i
tại thời điểm thứ k Khi có nhiều quan sát mốc tại một
thời điểm hoặc khi mốc cụ thể không liên quan đến
khoảng đang xét, phép quan sát sẽ được viết đơn giản
là z k
Thêm vào đó, ta sẽ định nghĩa thêm:
0:k 0, 1, , k 0:k1, k
X x x x X x : Tập chứa các
vị trí của robot từ thời điểm ban đầu đến thời điểm k
0:k 0, , ,1 k 0:k1, k
U u u u U u : Tập chứa các
giá trị đầu vào điều khiển từ thời điểm ban đầu đến
thời điểm k
1, 2, , n
m m m m : Tập các điểm mốc thể hiện vị
trí vật cản quét được
0:k 0, , ,1 k 0:k1, k
Z z z z Z z : Tập các điểm
mốc quan sát được từ thời điểm ban đầu đến thời điểm
k
Vấn đề SLAM từ đó được định nghĩa là việc xác
định được vị trí của các vật cản tĩnh trong môi trường
m để bản đồ hoá môi trường và đồng thời ước tính vị
trí của robot trong bản đồ đó x k
B Kỹ thuật SLAM trong xác suất robotic
Ở dạng xác suất, vấn đề SLAM được biểu diễn
dưới dạng phân phối xác suất sau
0: 0:
( k, | k, k)
P x m Z U (3) Phân phối xác suất này mô tả phân phối hậu
nghiệm liên kết giữa vị trí điểm mốc trong bản đồ với
trạng thái của robot tại thời điểm k khi biết giá trị quan sát được và tín hiệu đầu vào điều khiển cùng với trạng thái ban đầu của robot Việc tính toán giá trị phân phối xác xuất này yêu cầu mô hình chuyển trạng thái và mô hình quan sát để mô tả việc tác động của tín hiệu điều khiển và các giá trị quan sát được Mô hình quan sát mô tả xác suất thực hiện được giá trị quan sát
k
z khi vị trí robot và vị trí điểm mốc trên bản đồ đã
được xác định, và nó có dạng
( k| k, )
P z x m (4)
Và giải thiết rằng khi vị trí của robot và bản đồ được xác định thì các giá trị quan sát được là độc lập
có điều kiện Mô hình chuyển động của robot được mô
tả bởi phân bố xác suất chuyển trạng thái sau :
P x( k|x k1,u k) (5) Phân bố này được giả sử là thoả mãn tiêu chuẩn Markov, ở đó trạng thái x chỉ phụ thuộc vào trạng k
thái ngay trước nó x 1 và tín hiệu điều khiển u , và k k
x độc lập với các giá trị quan sát được và bản đồ m
Thuật toán SLAM được thực thi với hai bước tuần
tự lặp lại là bước dự đoán (prediction) còn được gọi là cập nhật thseo thời gian và bước chỉnh sửa (correction) còn được gọi là cập nhật theo đo lường
Bước dự đoán được mô tả bởi phân phối:
0: 1 0:
( k, | k , k)
P x m Z U (6)
Do trạng thái của robot x và bản đồ m là độc k
lập, ta có:
0: 1 0: 0 0: 1 0: 0: 1 0:
0: 1 0: 1 1 0: 1 0: 0: 1 0: 1
P x m Z U x P x Z U P m Z U
P x Z U x P x Z U P m Z U dx
(7)
1
x và m độc lập nên (7) trở thành
( k| k , k, k ) ( k , | k , k) k
P x Z U x P x m Z U dx
k
x có tính chất Markov nên (8) được thu gọn thành
( k| k , k) ( k , | k , k ) k
P x x u P x m Z U dx
Sau khi tính toán bước dự đoán, bước chỉnh sửa được thực hiện theo phân phối sau
0: 0:
0: 1 0:
0: 1 0:
P x m Z U
P z x m P x m Z U
Biểu thức (8) và (9) mô tả quá trình tính toán đệ quy cho việc tính toán xác suất hậu nghiệm (10) cho trạng thái robot x và bản đồ m tại thời điểm k k dựa vào tập quan sát Z 0:k và tập tín hiệu điều khiển đầu vào U 0:k
IV ỨNG DỤNG RTAB-MAP XÂY DỰNG BẢN
ĐỒ 3D RTAB-Map là một phương pháp SLAM dựa trên đồ thị RGB-D sử dụng bộ đóng vòng lặp Bộ đóng vòng lặp sử dụng phương pháp tiếp cận từ nhiều điểm để xác định khả năng một hình ảnh mới đến từ một vị trí trước
Trang 4đó hay vị trí mới RTAB-Map phát hiện lỗi sai bằng
cách sử dụng phương pháp GoodFeaturesToTrack
(GFTT) theo mặc định, giúp giảm bớt việc điều chỉnh
tham số, cho phép các tính năng được phát hiện đồng
nhất trên các kích thước hình ảnh và cường độ ánh sáng
khác nhau Ngoài ra, RTAB-Map hỗ trợ tất cả các loại
tính năng có sẵn trong OpenCV, chẳng hạn như SIFT,
SURF, ORB, FAST hoặc BRIEF Một trình tối ưu hóa
đồ thị giảm thiểu các lỗi trong bản đồ khi các ràng buộc
mới được thêm vào và một phương pháp quản lý bộ nhớ
hiệu quả được sử dụng để thực hiện các ràng buộc thời
gian thực trong các môi trường lớn
Để thực hiện SLAM 3D, chúng tôi sử dụng gói
Rtab-Map cho omni robot Bằng việc thu thập dữ liệu từ
RPLidar, Astra camera và chuyển đổi với cấu trúc như
hình 5
Hình 5 Sơ đồ khối rtabmap-ros Cấu trúc của rtabmap_ros là một biểu đồ với các nút
liên kết với nhau Sau khi đồng bộ hóa các dữ liệu đầu
vào, modul bộ nhớ ngắn hạn (STM) tạo một nút để ghi
nhớ tư thế Odometry, dữ liệu cảm biến và các thông tin
bổ xung cho các modul tiếp theo
Các đầu vào yêu cầu là: TF để xác định vị trí của
các cảm biến liên quan đến chân đế robot, Odometry,
hình ảnh từ camera và đầu quét laser từ Lidar Tất cả
các thông báo từ đầu vào này sau đó được đồng bộ hóa
và chuyển đến thuật toán đồ thị (SLAM) Kết quả đầu
ra là dữ liệu bản đồ chứa trong Map Data được bổ xung
mới nhất với các dữ liệu cảm biến nén và biểu đồ, Map
Graph không có bất kỳ dữ liệu nào, hiệu chỉnh
Odometry được xuất bản trên TF, một tùy chọn lưới
chiếm dụng 3D (OctoMap), Point Cloud và một lưới
chiếm dụng 2D (2D Occupancy Grid)
Phương pháp RtabMap chạy trên module quản lý đồ
thị Nó sử dụng để giới hạn kích thước của biểu đồ để
có thể đạt được SLAM trực tuyến lâu dài trong môi
trường lớn Nếu không có bộ quản lý bộ nhớ, khi bản đồ
phát triển, thời gian xử lý của các module như đóng
vòng lặp, phát hiện vùng lân cận, tối ưu hóa đồ thị và
lắp ráp bản đồ toàn cầu cuối cùng có thể vượt qua thời
gian ràng buộc với thời gian thực, tức là thời gian xử lý
trở nên quá lớn Về cơ bản, bộ nhớ của RtabMap được
chia thành bộ nhớ làm việc (WM) và bộ nhớ dài hạn (LTM), khi một nút chuyển sang LTM, nó không còn khả dụng cho các modul bên trong WM Khi thời gian cập nhật RtabMap vượt quá ngưỡng thời gian cho phép, một số nút trong WM sẽ chuyển sang LTM để giới hạn kích thước của WM và giảm thời gian cập nhật STM dùng để xác định xem nút nào cần chuyển sang LTM [11], [13], [14]
Hình 6 Sơ đồ tín hiệu xây dựng và định vị đồng thời Gói RTAB-Map ước tính vị trí của Robot và xây dựng bản đồ dựa trên dữ liệu thu được và các phép đo hình học của nó
- Lidar: node này thực hiện chạy cảm biến RPLidar và gửi thông tin “scan” cần thiết đến node rtabmap
- Camera 3D: node này thực hiện chạy camera 3D
và gửi thông tin “image(rgb)”, “image(depth)”,
“CameraInfo” đến node rgbd_sync
- rgbd_sync: node này đảm bảo rằng các chủ đề hình ảnh được đồng bộ hóa chính xác với nhau trước khi đi vào node rtabmap
- rtabmap: node này sẽ đồng bộ hóa các chủ đề đến
từ tín hiệu LaserScan và thông tin từ Camera 3D
- nav_msgs/Odometry: xuất bản thông tin về vị trí, vận tốc của robot trong không gian tự do đến node rtabmap
- rviz, rtabmaprviz: thực hiệm giám sát quá trình hoạt động của robot và theo dõi quá trình tạo map Robot sử dụng thông tin “image(rgb)”,
“image(depth)”, “CameraInfo” từ camera 3D qua quá trình đồng bộ hóa bởi node rgdb_image để thực hiện quá trình tạo map 3D Camera còn được sử dụng để phát hiện đóng vòng lặp dựa trên hình ảnh RGBD, nhưng nó không cải thiện hệ thống quá nhiều Thông tin “scan” từ cảm biến RPLidar được sử dụng để cải thiện kết quả của quá trình SLAM, giúp tinh chỉnh quá trình đo mùi (Odometry) làm cho kết quả được tốt hơn trên bản đồ
V KẾT QUẢ MÔ PHỎNG Phần mềm mô phỏng Gazebo được tích hợp để có thể sử dụng trong ROS Môi trường trong Gazebo được tối ưu sao cho các điều kiện vật lý giống với môi trường thực tế nhất, nhóm tác giả đã xây dựng môi
Trang 5trường trong nhà tại hai môi trường trong nhà khác
nhau nhằm đa dạng các môi trường hoạt động trong
nhà với những vật cản khác nhau Mô hình robot tự
hành Omni như hình 7, với các tham số mô phỏng và
thực nghiệm giống nhau:
Tốc độ lớn nhất theo phương x và y: 1.5 m/s
Tốc độ góc lớn nhất: 0.5 rad/s
Bán kính robot: 0.25 m
Bán kính bánh xe: 0.07 m
Hình 7 Mô hình 3D robot Omni và môi trường thực
nghiệm tại hai môi trường trong nhà
Tham số cho cảm biến lidar: Phạm vi quét lớn
nhất: 0.2 ÷10 m, độ phân giải: 1o , góc quét: 360 o
Camera astra có thông số như sau:
Độ phân giải hình ảnh RGB: 640x480 @30fps
Độ phân giải hình ảnh chiều sâu: 640x480
@30fps
Kích thước: 165mm x 30mm x 40mm
Phạm vi: 0.6m - 8m
Việc chạy mô phỏng thử nghiệm SLAM được thực
hiện trên Rviz, là công cụ trực quan của ROS Mục
đích chính là hiển thị các thông báo thu được ở chế độ
3D, cho phép người dùng xác minh trực quan dữ liệu
Thông qua phần mềm Rviz, người dùng có thể giám
sát được môi trường xung quanh của Robot theo thời
gian Hình 8 là là kết quả thu được khi bắt khởi chạy
kỹ thuật SLAM trong hệ thống nhận biết robot Các
đám mây điểm ảnh được quét từ camera được dựng
lên với độ cao và màu sắc tương đồng với các vật thể
được tạo ra trong môi trường trong nhà
Hình 8 Quá trình SLAM 3D với môi trường 1
Hình 9 Quá trình SLAM 3D của môi trường 2
Hình 10 Kết quả SLAM 3D của môi trường 1
Hình 11 Kết quả SLAM 3D của môi trường 2 Môi trường thực nghiệm gồm các vách tường ngăn
và các vật cản được sắp xếp ở các vị trí ngẫu nhiêu trên bản đồ Robot di chuyển xung quanh phòng, sử dụng camera để thu lại hình ảnh trong quá trình di chuyển, từ đó tái tạo lại bản đồ của môi trường xung quanh Bản đồ 3D ở hình 8, 9 là các pointcloud hay còn gọi là đám mây điểm được thu thập trong quá
Trang 6trình robot chuyển động Dữ liệu đám mây này biểu
thị hình ảnh của một vật dưới dạng nhiều điểm trong
không gian tọa độ 3 chiều Hình 10, 11 biểu diễn chi
tiết kết quả xây dựng toàn bộ bản đồ Do kích thước
của robot nhỏ, nên thị trường hoạt động của camera
còn thấp nhưng vẫn thu được ảnh ở khoảng cách xa
Kết quả cho thấy robot có khả năng tái tạo lại bản đồ
một cách hiệu quả
Dựa vào kết quả mô phỏng ta thấy có thể sử dụng
camera 3D cho quá trình SLAM và điều hướng Trong
khi Lidar có thể phát hiện các vật cản ở xa, gần với
cùng độ cao đặt Lidar trên robot thì camera 3D có thể
phát hiện các vật ở khoảng cách gần mà tia Lidar
không thể phát hiện được Ngoài ra việc sử dụng
camera 3D còn giúp giải quyết những hạn chế khi điều
hướng tự động trong môi trường có các kết cấu khó
khăn như hành lang, bậc thang…
VI KẾT LUẬN Bài báo này trình bày về lập bản đồ hóa (SLAM
3D) cho robot tự hành hoạt động trong các môi trường
trong nhà dựa trên hệ điều hành lập trình cho robot
ROS Các kết quả cho thấy robot có khả năng thu thập
dữ liệu từ môi trường xung quanh, xây dựng bản đồ
3D và định vị vị trí của robot trên bản đồ của môi
trường trong nhà Các kết quả này là nền tảng cho các
bước điều hướng, lập quỹ đạo chuyển động cho robot
phục vụ các bài toán cụ thể như robot tự hành hoạt
động trong các nhà máy, ứng dụng trong công việc
vận chuyển hàng hóa trong nhà, Logictis Đặc biệt
bên cạnh đó, bản đồ 3D có ý nghĩa với các robot tự
hành có tích hợp các cơ cấu chấp hành, cánh tay máy
robot…vv ngoài việc di chuyển tự trị còn có thể thực
hiện các nhiệm vụ tương tác cụ thể trong môi trường
không gian hoạt động
LỜI CẢM ƠN Bài báo này được hoàn thành với sự tài trợ của Đề
tài cấp Quốc gia thuộc chương trình phát triển Vật lý
2021-2025: "Nghiên cứu phát triển robot tự hành
thông minh sử dụng các công nghệ sensor khác nhau
và nền tảng IoT, AI, định hướng ứng dụng trong quan
trắc môi trường phóng xạ", 2022-2024
TÀI LIỆU THAM KHẢO [1]P RcKerrow, “Introduction to Robotics”,
Addison-Wesley, 1991.
[2]R Siegwart, I R Nourbakhsh, and D Scaramuzza,
“Introduction to Autonomous Mobile Robots”, The MIT
Press, February 2011.
[3]S Park and G Lee, "Mapping and localization of
cooperative robots by ROS and SLAM in unknown
working area," in 2017 56th Annual Conference of the
Society of Instrument and Control Engineers of Japan
(SICE), 2017.
[4] B M da Silva, R S Xavier, and L M Gonçalves,
"Mapping and Navigation for Indoor Robots under ROS:
An Experimental Analysis," Creative Commons CC BY license, 2019
[5] Q Lin et al., "Indoor mapping using gmapping on embedded system," in 2017 IEEE International Conference on Robotics and Biomimetics (ROBIO),
2017, pp 2444-2449: IEEE.
[6]D.Schleicher, L.Bergasa, M.Ocan, R.Barea and E.Lopez,
“Real-time hierarchical stereo Visual SLAM in large-scale environment”, 2010.
[7]S Das, “Simultaneous Localization and Mapping (SLAM) using RTAB-Map”, 2018.
[8]Dieter Fox, Wolfram Burgard, and Sebastian Thrun,
“Markov Localization for Mobile Robots in Dynamic Environments”, 1999.
[9]E.A.Wan and R.v.d Merwe, “The Unscented Kalman Filter for Nonlinear Approaches”, 2006
[10] Giorgio Grisetti, Rainer Kummerle, Cyrill Stachniss, Wolfram Burgard, "A Tutorial on Graph-Base
SLAM," IEEE Intelligent Transportation Systems
Magazine, 2010.
[11] Nicolas Ragot, Redouane Khemmar, Adithya Pokala, Romain Rossi, Benchmark of Visual SLAM Algorithm: ORB-SLAM2 vs RTAB-Map, 2019 [12] Mathieu Labbé, Francois Michaud, RTAB-Map as
an Open-Source Lidar and Visual SLAM Library for Large-Scale and Long-Term Online Operation, Canada [13] Thrilochan Sharma Pendyala, Prithvi Sekhar Pagala, Hamsa Datta Perur, "Comparative analysis of ROS based 2D and 3D SLAM algorithms for Autonomous Ground Vehicles," June 2020.
[14] Mathieu Labb´e, Fran¸cois Michaud, "Long-Term Online Multi-Session Graph-Based SPLAM with Memory Management"