1. Trang chủ
  2. » Kỹ Thuật - Công Nghệ

Phát triển nền tảng Tương tác người - Robot Tay máy đôi dựa trên ROS và Trí tuệ nhân tạo đa thể thức

6 4 0

Đang tải... (xem toàn văn)

THÔNG TIN TÀI LIỆU

Bài viết Phát triển nền tảng Tương tác người - Robot Tay máy đôi dựa trên ROS và Trí tuệ nhân tạo đa thể thức đề xuất phát triển nền tảng tương tác giữa người và hệ thống Robot Tay máy đôi dựa trên Robot Operating System (ROS) và mô hình trí tuệ nhân tạo đa thể thức. Nền tảng đề xuất của chúng tôi bao gồm hai thành phần chính: hệ thống phần cứng tay máy đôi và phần mềm bao gồm các tác vụ xử lý ảnh, xử lý ngôn ngữ tự nhiên dựa trên 3D camera và máy tính nhúng. Đầu tiên, chúng tôi thiết kế và xây dựng một hệ thống Robot tay máy đôi với sai số vị trí nhỏ hơn 2cm, có thể hoạt động độc lập, thực hiện các nhiệm vụ trong công nghiệp, dịch vụ đồng thời mô phỏng, mô hình hóa robot trong hệ điều hành ROS. Mời các bạn cùng tham khảo!

Hội nghị Quốc gia lần thứ 25 Điện tử, Truyền thông Công nghệ Thông tin (REV-ECIT2022) Phát triển tảng Tương tác người - Robot Tay máy đôi dựa ROS Trí tuệ nhân tạo đa thể thức Nguyễn Cảnh Thanh, Nguyễn Bá Phượng, Trần Hồng Quân, Đỗ Ngọc Minh, Đinh Triều Dương Hoàng Văn Xiêm Bộ môn Kỹ thuật Robot, Khoa Điện tử - Viễn Thông, Trường Đại học Công Nghệ - Đại học Quốc gia Hà Nội Email: canhthanhlt@gmail.com, nguyenbaphuong1992@gmail.com, tranhongquan1258@gmail.com, dongocminh@vnu.edu.vn, duongdt@vnu.edu.vn, xiemhoang@vnu.edu.vn Tóm tắt—Trong báo, chúng tơi đề xuất phát triển tảng tương tác người hệ thống Robot Tay máy đôi dựa Robot Operating System (ROS) mơ hình trí tuệ nhân tạo đa thể thức Nền tảng đề xuất bao gồm hai thành phần chính: hệ thống phần cứng tay máy đơi phần mềm bao gồm tác vụ xử lý ảnh, xử lý ngôn ngữ tự nhiên dựa 3D camera máy tính nhúng Đầu tiên, chúng tơi thiết kế xây dựng hệ thống Robot tay máy đôi với sai số vị trí nhỏ 2cm, hoạt động độc lập, thực nhiệm vụ cơng nghiệp, dịch vụ đồng thời mơ phỏng, mơ hình hóa robot hệ điều hành ROS Thứ hai, mơ hình trí tuệ nhân tạo xử lý ảnh tích hợp nhằm thực tác vụ gắp phân loại vật thể với độ xác 90% Cuối cùng, xây dựng phần mềm điều khiển từ xa giọng nói thơng qua mơ hình xử lý ngơn ngữ tự nhiên Thực nghiệm chứng độ xác mơ hình trí tuệ nhân tạo đa thể thức sư linh hoạt tương tác hệ thống Robot tay máy đôi môi trường hoạt động với người Từ khóa—Robot tay máy đơi, Trí tuệ nhân tạo, ROS, HRI I GIỚI THIỆU Hiện nay, ngành robot phát triển, sử dụng rộng rãi đặc biệt robot tay máy Việc triển khai, làm việc môi trường chứa nhiều rủi ro, không đảm bảo đòi hỏi đời loại robot thực chức thay người đồng thời điều khiển thơng minh từ xa Để đối phó với nhiệm vụ phức tạp môi trường làm việc thay đổi, robot công nghiệp truyền thống đáp ứng nhu cầu nhiệm vụ So với điều này, robot tay máy đôi có khơng gian làm việc lớn tính linh hoạt cao từ đáp ứng tốt yêu cầu độ phức tạp độ xác cao nhiệm vụ sản xuất công nghiệp, dịch vụ, ISBN 978-604-80-7468-5 14 Việc điều khiển robot theo cách truyền thồng đòi hỏi người điều khiển phải tốn nhiều thời gian có kĩ chuyên sâu kỹ thuật [1] Tương tác người-robot phát triển thúc đẩy hiệu công việc dựa phương thức điều khiển nhanh chóng tiêu biểu điều khiển nhận dạng cử chỉ, thái độ, giọng nói người Các nghiên cứu hiệu vượt trội việc sử dụng HRI thơng qua hình, camera so với phương pháp trước [2] Hệ điều hành ROS (Robot Operating System) hệ điều hành mã nguồn mở phổ biến công nghệ robot [3] ROS cung cấp nhiều công cụ phát triển tệp thư viện phong phú để phát triển robot, giúp cải thiện đáng kể hiệu phát triển robot tiết kiệm chi phí phát triển [4] Các nghiên cứu [4], [5], [6] xây dựng hệ thống tay máy đôi tảng ROS Nghiên cứu [5] thiết kế hệ robot di động tay máy đơi từ tạo nên khung điều khiển thực tế đồng thời thiết lâp ràng buộc nhằm xác minh tính khả thi tảng Nghiên cứu [4] đưa mơ hình động học robot tay máy đôi đồng thời lập quỹ đạo dựa tập mơ hình robot Moveit sau trực quan hóa xác minh tính đắn dựa Rviz Bài [7], [8], [9], [10] ứng dụng trí tuệ nhân tạo việc điều khiển, tương tác người-robot Nghiên cứu [7] sử dụng nhận dạng giọng nói thiết kế giao diện nhằm điều khiển robot NAO, robot sử dụng máy ảnh để đếm số lượng mặt hướng tới nhằm đo ý Nghiên cứu [8] đề xuất nâng cao độ xác việc xác định vị trí thực thi robot thông qua xử lý ảnh điều khiển robot giọng nói Nghiên cứu [9] xây dựng điều khiển robot tay giọng nói, kết cho thấy tính khả thi khả áp dụng thực tế Nghiên cứu [10] điều khiển robot hợp tác học Hội nghị Quốc gia lần thứ 25 Điện tử, Truyền thông Công nghệ Thông tin (REV-ECIT2022) củng cố sâu từ hồn thành nhiệm vụ hợp tác khả thich ứng tốt nhiên yêu cầu xử lý có cấu hình cao, khó nhúng trực tiếp robot Trong báo này, phát triển tảng Robot tay máy đôi dựa ROS tương tác người-robot với ba đóng góp Thứ nhất, chúng tơi xây dựng hệ thống tay máy đơi hồn bao gồm phần cứng phần mềm Tiếp theo, kết hợp xử lý ảnh giúp robot phân loại vật thể Cuối cùng, hệ thống phần mềm điều khiển từ xa qua giọng nói triển khai Tất thành phần khai thác hệ điều hành ROS Hình Vị trí thiết bị khung Robot II ĐỀ XUẤT HỆ THỐNG Hình mô tả tổng quan hệ thống tay máy đôi bao gồm bốn thành phần chính: {1} khối giao diện đồ họa người dùng (GUI) điều khiển; {2} khối xử lý ngôn ngữ tự nhiên, chuyển thành câu lệnh điều khiển tay máy đôi; {3} khối thị giác, xác định vật thể, tọa độ gắp vật {4} khối điều khiển chuyển động robot Hệ động thiết kế tối ưu mơ-dun hóa khối {1}, {4} mô tả chi tiết phần II-B khối {2}, {3} trình bày phần II-C • quản lý Raspberry Pi thơng qua tính tốn động học, động học ngược Khối nguồn - cung cấp điện áp cho hai khối bao gồm chuyển đổi từ 36V xuống 5V cho khối chuyển động chuyển đổi từ 36V xuống 19V cho khối xử lý ảnh ngơn ngữ Hình Sơ đồ kết nối linh kiện robot Hình Sơ đồ tổng quan hệ thống tay máy đôi A Thiết kế tảng tay máy đôi Cấu trúc thiết kế tảng robot tay máy đôi thể Hình với vị trí chi tiết thiết bị Hình mơ tả sơ đồ kết nối thành phần hệ thống robot cấu thành ba thành phần chính: • Khối xử lý ảnh xử lý ngôn ngữ - nhận thông tin từ môi trường thông qua camera realsene D455 micro sau xử lý thơng tin qua máy tính nhúng Jetson Xavier AGX; • Khối chuyển động gồm 12 servo tương ứng với khớp tay gắp, Arduino Mega chịu trách nhiệm điều khiển trực tiếp động Các thông tin ISBN 978-604-80-7468-5 15 Để mở rộng phạm vi chuyển động robot, sử dụng nhơm định hình để gắn cánh tay cao Robot có kích thước 120cm x 40cm x 22cm tương ứng với chiều cao, chiều dài chiều rộng cánh tay dài khoảng 78cm tính từ gốc tay tới đầu tay gắp Robot gia công phương pháp in 3D với vật liệu nhựa với mô-đun riêng biệt nên dễ dàng lắp đặt, điều chỉnh đồng thời đáp ứng nhu cầu hoạt động nhẹ Hình trục tọa độ gắn tâm khớp quay, trục z trục khâu quay quanh nó, trục x thường đặt dọc theo pháp tuyến chung hướng từ khớp thứ i đến i + 1, trục y xác định theo quy tắc bàn tay phải Tiếp theo chúng tơi lập bảng tham số D-H tính tốn ma trận chuyển đổi cho khớp Kết cuối thu phương trình động học theo phương trình Hội nghị Quốc gia lần thứ 25 Điện tử, Truyền thông Công nghệ Thông tin (REV-ECIT2022) θ5 = tan−1 (iy cos1 − ix sin1 )sin234 iy sin1 + ix cos1 (8) Trong phương trình m, n định nghĩa theo phương trình (9), (10): Hình Hệ trục tọa độ robot (1):  ix  iy T = A01 ∗ A12 ∗ A23 ∗ A34 ∗ A45 =   iz jx jy jz kx ky kz  px py   (1) pz  đó, ix = sin1 sin5 + cos5 cos1 cos234 jx = −sin5 cos1 cos234 − cos5 sin1 iy = cos1 sin5 + cos5 sin1 cos234 Jy = cos5 sin1 − sin5 sin1 cos234 iz = cos5 sin234 jz = −sin5 sin234 kx = −cos1 sin234 px = cos1 (a2 cos2 − dE sin234 + a3 cos23 ) ky = −sin1 sin234 py = sin1 (a2 cos2 − dE sin234 + a3 cos23 ) kz = cos234 pz = d + a2 sin2 + a3 sin23 + dE cos234 Mục đích tốn động học nghịch đảo tính tốn góc khớp robot vị trí hiệu ứng cuối biết Vector góc khớp xác định theo cơng thức (2): q = θ1 θ2 θ3 θ4 θ5 T (2) Phương trình động học ngược [11] robot thu sau: py θ1 = tan−1 (3) px θ2 = tan−1 n(a2 + a3 cos3 ) − ma3 sin3 ba3 sin3 + m(a2 + a3 cos3 ) (4) m2 + n2 − a22 − a23 2a2 a3 (5) θ3 = cos−1 θ234 = tan−1 m = px cos1 + py sin1 + dE sin234 (9) n = pz d − dE cos234 (10) B Thiết kế khung điều khiển phần mềm dựa ROS Trong báo này, sử dụng Moveit cơng cụ cho tác vụ lập kế hoạch chuyển động, động học, động học ngược robot Về bản, khung điều khiển bao gồm ba bước chính: Thiết lập mơ hình URDF (Unified Robot Description Format) nhằm trực quan hóa robot mơi trường mô phỏng, bước mô tả chi tiết qua Hình Tiếp theo, chúng tơi triển khai điều khiển cấp thấp robot ROS thông qua Arduino, cuối chúng tơi tạo cấu hình Moveit trình bày Hình Hình trực quan hóa tập mơ hình URDF thơng qua RViz Hình Các bước tạo mơ hình URDF từ mơ hình Solidwork Chúng tạo node /GUI nhằm tiếp nhận câu lệnh, hiển thị thơng tin robot Sau câu lệnh tới node move_group thực tác vụ lập kế hoạch chuyển động, thiết lập khớp Node /joint_trajectory hiển thị giao diện hành động với độ điều khiển quỹ đạo Sau đó, thơng tin quỹ đạo cấp tới node /joint_simulator điều khiển mô robot tay máy đơi Cuối cùng, giá trị động (góc khớp) truyền xuống điều khiển cấp thấp qua cầu nối node joint_driver ros_controller robot_controller a2 cos2 + a3 cos23 − px cos1 − py sin1 pz − d − a2 sin2 − a3 sin23 (6) Hình Mơ hình mối quan hệ node ROS θ3 = θ234 − θ2 − θ3 ISBN 978-604-80-7468-5 (7) 16 Hội nghị Quốc gia lần thứ 25 Điện tử, Truyền thông Công nghệ Thông tin (REV-ECIT2022) C Trí tuệ nhân tạo đa thể thức 1) Nhận dạng đối tượng: Hình trình bày chi tiết bước nhận dạng đối tượng đồng thời xác định tọa độ không gian làm việc robot Thông tin từ mơi trường trích xuất thơng qua máy ảnh chiều sâu realsense 455 Sau đó, liệu ảnh mày RGB sử dụng làm đầu vào mơ hình nhận dạng vật thể Trong báo này, sử dụng mơ hình Yolo (You only look once) [12] cho tốn xác định đối tượng Đầu mơ hình cung cấp chiều dài, chiều rộng tọa độ tâm đối tượng miền pixel 2D ảnh Sau xác nhận vật thể mong muốn, chúng tơi bổ sung thơng tin độ sâu nhằm ước tính tọa độ vật thể môi trường thực Đầu tiên chúng tơi tính tốn tọa độ vật thể khung tọa độ camera theo hai bước [13]: • B1: Xác định tọa độ điểm ảnh từ cảnh: chúng tơi sử dụng phép biến đổi hình chiếu phối cảnh mơ tả theo Hình Vấn đề đặt cần xác định tọa độ điểm chiếu mặt phẳng ảnh Xét điểm ảnh (xi , yi ) có tọa độ thực (Xs , Ys , Zs ) Theo quy tắc đồng dạng tam giác ta có phương trình chiếu sau: s xi = f X Zs Ys yi = f Zs • (11) B2: Chuyển đổi qua hệ tọa độ hình ảnh với tâm quang học (cx , cy ) Hình 10 s u=fX Zs + cx Ys v = f Zs + cy (12) Hệ tọa độ thực (Xs , Ys ) vật thể thu được: x Xs = Zs u−c f v−cy Ys = Zs f (13) Hình Nhận dạng đối tượng ước tính tọa độ vật thể trận chuyển đổi hệ tọa độ camera qua hệ toạ độ robot xác định bởi:       Xr Xc Xc r r  Yr  r  Yc  R T c c   = Pc   =  Yc  , (14)  Zr   Zc  01×3 Zc 1 r Rc r Tc ma trận xoay ma trận dịch chuyển hệ tọa độ camera hệ tọa độ robot 2) Nhận dạng giọng nói: Mơ hình nhận dạng giọng nói thể thơng qua Hình 11 Giọng nói thu thập thơng qua micro sau lưu trữ dạng tập tin với Zs thu sử dụng máy ảnh độ sâu tương ứng với tọa độ tâm thu Tiếp theo, chúng tơi tính toán tọa độ vật thể hệ toạ độ robot Ta có hệ tọa độ (Xc , Yc , Zc ) camera, hệ tọa độ (Xr , Yr , Zr ) robot ma trận r Pc ma Hình Mơ hình phép biến đổi hình chiếu phối cảnh Hình Trực quan hóa mơ hình robot ROS ISBN 978-604-80-7468-5 Hình 10 Biểu diễn hệ toạ độ hình ảnh 17 Hội nghị Quốc gia lần thứ 25 Điện tử, Truyền thông Công nghệ Thông tin (REV-ECIT2022) âm Tiếp theo, tập tin âm qua khối Google Speech Recognition nhằm chuyển đổi giọng nói thành văn Chúng tơi thiết lập từ điển nhằm đưa giả thiết hành vi, chức robot Sau có liệu văn khối hận dạng giọng nói khối từ điển, chúng tơi thực so khớp hai thông tin nhờ TF-IDF [14], [8] phương trình Cosine Simalarity [15] TF-IDF tiếp nhận văn sau dựa vào tần số xuất từ câu thể tầm quan từ ngữ từ tạo vector đặc trưng cho câu theo công thức: tf idf (t, d, D) = tf (t, d).idf (t, D) DỮ LIỆU MƠ HÌNH NHẬN DẠNG VẬT THỂ , GIỌNG NÓI Câu lệnh điều khiển Đối tượng Nhãn Yolo pick up the white rectangular object rectangle pick up the white cylinder object cylinder (15) đó, tf (t, d) thể tần số xuất từ w N thể câu d idf (t, D) = log count(d∈D:t∈d) mức độ phổ biến từ với N số lượng câu d tập thư viện D pick up the box Cuối cùng, câu lệnh trích xuất truyền tới robot III THỰC NGHIỆM VÀ ĐÁNH GIÁ KẾT QUẢ box với gia tốc tối đa 0.1 (rad/s2 ) vận tốc tối đa khoảng 1.73 đến 2.56 (rad/s) Bộ liệu cho trình nhận dạng vật thể bao gồm 100 ảnh kích cỡ 640x480 chứa đối tượng mô tả Bảng I với câu lệnh điều kiểu chúng Giao diện điều khiern hệ thống thiết kế Hình 12 bao gồm câu lệnh điều khiển bản, hiển thị câu lệnh Sai số hệ thống đánh giá thông qua phương pháp so sánh tọa độ thực tọa độ tính tốn, sai số khoảng cách hai điểm theo phương trình Euclid: err = Hình 11 Mơ hình nhận dạng giọng nói (x − xr )2 + (y − yr )2 + (z − zr )2 (16) đó: (x, y, z) tọa độ mong muốn, (xr , yr , zr ) tọa độ thực tế B Kiểm tra độ xác mơ hình nhận dạng vật kể giọng nói A Điều kiện đánh giá Hình 12 Giao diện điều khiển hệ thống Hệ thống thử nghiệm đánh giá mơi trường thực tham số góc khớp bị giới hạn ISBN 978-604-80-7468-5 Bảng I TẬP 18 Chúng tiến hành kiểm thử mô hình nhận dạng giọng nới với ba câu lệnh mơ tả Bảng I, câu lệnh lặp lại 200 lần Kết từ Bảng III cho thấy mơ hình nhận dạng giọng nói cho kết tương đối xác (> 97%) Tuy nhiên để ứng dụng vào cơng nghiệp, độ xác đạt cần phải mức cao 99% Mơ hình nhận dạng vật thể Yolo cho kết xác thể qua Hình 13 Kết cho thấy số mAP_0.5 đạt 95.71%, mAP_0.95 đạt 78.26%, pecision đạt 95.67% recall đạt 87.95% Bên cạnh đó, tập liệu có quy mơ nhỏ lỗi xảy q trình gán nhãn ảnh hưởng trực tiếp tới kết nhận dạng Hội nghị Quốc gia lần thứ 25 Điện tử, Truyền thông Công nghệ Thông tin (REV-ECIT2022) Bảng II KẾT 1.05 1.07 1.3 Lần đo Tay trái Tay phải Kết hợp Yolo 1.28 0.88 1.24 1.29 0.96 1.84 QUẢ SAI SỐ HỆ THỐNG ( ĐƠN VỊ : CM ) 1.55 1.36 3.48 1.56 1.68 3.82 Bảng III KẾT pick up the white cylinder object 0.990 pick up the box 0.990 Hình 13 Kết nhận dạng vật thể C Kiểm tra độ xác hệ thống Kết Bảng II cho thấy mặt lý tưởng robot di chuyển tới ví trí khơng gian với dung sai xác định trước nhiên thực tế có thêm sai số động sai số phép đo nên tổng sai số tay dao động khoảng 0.78cm đến 1.86cm tay phải 0.87cm đến 1.87cm với tay trái Đối sai số khí gắp vât thơng qua mơ hình yolo, chúng tơi nhận thấy sai số tọa độ tỉ lệ thuận với khoảng cách trục x trục z với sai số nằm trung bình khoảng 1.83cm IV KẾT LUẬN Bài báo trình bày hệ thống phát triển tay máy đôi cho tác vụ tương tác người-robot dựa hệ điều hành ROS Các mơ hình trí tuệ nhân tạo cung cấp nhằm giải vấn đề từ tạo khung hoàn chỉnh Kết thu chứng minh tính khả thi khả ứng dụng vào thực tiễn đặc biệt thời điểm dịch bệnh diễn Tuy nhiên, hệ thống nhiều thiếu sót phần cứng tác vụ tương tác Trong tương lai, cải thiện hệ thống phần cứng đồng thời thêm mơ nhận dạng cử chỉ, cảm xúc, cho robot ISBN 978-604-80-7468-5 0.88 1.87 0.41 1.86 0.88 0.97 0.78 1.5 1.5 TÀI LIỆU QUẢ THỬ NGHIỆM NHẬN DẠNG GIỌNG NÓI pick up the white rectangular object 0.975 1.25 1.24 1.51 19 10 1.48 1.4 2.26 TB 1.30 1.28 1.83 THAM KHẢO [1] I El Makrini, K Merckaert, D Lefeber, and B Vanderborght, “Design of a collaborative architecture for human-robot assembly tasks,” in 2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 2017, pp 1624–1629 [2] S Radmard, A J Moon, and E A Croft, “Interface design and usability analysis for a robotic telepresence platform,” in 2015 24th IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN), 2015, pp 511–516 [3] B M Dinh, A V Dang, C T Nguyen, and V X Hoang, “Đánh giá tối Ưu thuật toán hector slam Ứng dụng lập Đồ Định vị pimouse robot,” in The 24nd National Conference on Electronics, Communications and Information, 2021 [4] Y Cong, C Jiang, H Liu, H Du, Y Gan, and C Jiang, “Research on trajectory planning method of dual-arm robot based on ros,” in 2020 Chinese Automation Congress (CAC), 2020, pp 2616–2621 [5] R Xu, L Qian, and X Zhao, “Development of dual-arm mobile robot platform based on ros,” Cobot, vol 1, p 4, 01 2022 [6] D Sepúlveda, R Fernández, E Navas, P González-de Santos, and M Armada, “Ros framework for perception and dual-arm manipulation in unstructured environments,” in Robot 2019: Fourth Iberian Robotics Conference, M F Silva, J Luís Lima, L P Reis, A Sanfeliu, and D Tardioli, Eds Cham: Springer International Publishing, 2020, pp 137–147 [7] I Hameed, G Strazdins, H Hatlemark, I Jakobsen, and J Damdam, Robots That Can Mix Serious with Fun, 01 2018, pp 595–604 [8] B M Dinh, D S Tran, N Do, M H Le, and V X Hoang, “Mai_arm: Robot tay máy thơng minh sử dụng trí tuệ nhân tạo Đa thể thức,” in The 24nd National Conference on Electronics, Communications and Information, 2021 [9] Y Zhang, Z Lu, C Wang, C Liu, and Y Wang, “Voice control dual arm robot based on ros system,” in 2018 IEEE International Conference on Intelligence and Safety for Robotics (ISR), 2018, pp 232–237 [10] L Liu, Q Liu, Y Song, B Pang, X Yuan, and Q Xu, “A collaborative control method of dual-arm robots based on deep reinforcement learning,” Applied Sciences, vol 11, no 4, 2021 [11] V Iliukhin, K Mitkovskii, D Bizyanova, and A Akopyan, “The modeling of inverse kinematics for dof manipulator,” Procedia Engineering, vol 176, pp 498–505, 12 2017 [12] J Redmon, S Divvala, R Girshick, and A Farhadi, “You only look once: Unified, real-time object detection,” 2015 [Online] Available: https://arxiv.org/abs/1506.02640 [13] N Andriyanov, I Khasanshin, D Utkin, T Gataullin, S Ignar, V Shumaev, and V Soloviev, “Intelligent system for estimation of the spatial position of apples based on yolov3 and real sense depth camera d415,” Symmetry, vol 14, no 1, 2022 [14] S Qaiser and R Ali, “Text mining: use of tf-idf to examine the relevance of words to documents,” International Journal of Computer Applications, vol 181, no 1, pp 25–29, 2018 [15] D Gunawan, C Sembiring, and M Budiman, “The implementation of cosine similarity to calculate text relevance between two documents,” Journal of Physics: Conference Series, vol 978, p 012120, 03 2018 ... LUẬN Bài báo trình bày hệ thống phát triển tay máy đôi cho tác vụ tương tác người- robot dựa hệ điều hành ROS Các mơ hình trí tuệ nhân tạo cung cấp nhằm giải vấn đề từ tạo khung hồn chỉnh Kết thu... quan hệ thống tay máy đôi A Thiết kế tảng tay máy đôi Cấu trúc thiết kế tảng robot tay máy đơi thể Hình với vị trí chi tiết thiết bị Hình mô tả sơ đồ kết nối thành phần hệ thống robot cấu thành... quan hệ node ROS θ3 = θ234 − θ2 − θ3 ISBN 97 8-6 0 4-8 0-7 46 8-5 (7) 16 Hội nghị Quốc gia lần thứ 25 Điện tử, Truyền thông Cơng nghệ Thơng tin (REV-ECIT2022) C Trí tuệ nhân tạo đa thể thức 1) Nhận

Ngày đăng: 31/12/2022, 13:07

Xem thêm:

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN