Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống
1
/ 31 trang
THÔNG TIN TÀI LIỆU
Thông tin cơ bản
Định dạng
Số trang
31
Dung lượng
2,7 MB
Nội dung
Humanoidhead Tổng quan Robot dạng người robot có hình dạng giống thể người, thiết kế nhằm mục đích tương tác với mơi trường, vật dụng nhiều mục đích nghiên cứu khác Bình thường, robot có đầu, thân, hai tay hai chân với kích thước giống tỉ lệ với kích thước người thật Robot dạng người lĩnh vực nghiên cứu đầy thách thức nhận ý đặc biệt việc nghiên cứu, ứng dụng robot kỉ 21 Bên cạnh nghiên cứu vấn đề tác vụ đi, đứng, bắt tay, nhảy múa,…Vấn đề đầu robot dạng người đặc biệt quan tâm đặc robot có đầu biểu diễn cảm xúc, robot giống người hơn, đặc biệt biểu cảm vui, buồn, giận, chuyển động hàm nói, chuyển động mí mắt, Tình hình nghiên cứu đầu robot dạng người: Ngày nay, đa phần robot dạng người phát triển chủ yếu dáng cử cánh tay, phần đầu đơn giản mơ hình cố định, không điều khiển Giao tiếp chủ yếu qua hình hay giao tiếp khơng dây với laptop, điện thoại thơng minh, Điều làm robot sinh động thiếu cảm xúc, thân thiện với người dung Ngày nay, với phát triển AI, robot dạng người ngày tăng tính thơng minh, giao tiếp với người, việc giao tiếp với hình, ta tạo đầu robot để giao tiếp người bạn 1.1 Kismet Kismet bắt đầu phát triển vào khoảng cuối năm 1990 Massachusetts Institute of Technology (MIT) Tiến sĩ Cynthia Breazeal, có khả nhận biết cảm xúc thể cảm xúc Đây dự án dẫn đầu lĩnh vực Kismet có cổ, mắt, mí mắt, lơng mày, miệng tai Cổ Kismet có ba bậc tự Kismet xoay đầu theo phương ngang, cúi đầu, nghiêng đầu phía trước sau Mỗi mắt Kismet có hai bậc tự do, chuyển động theo hai chiều ngang dọc Hình 1.1 Từ trái sang phải: Kismet, sơ đồ nguyên lí cấu cổ Kismet nghe nhìn (thu nhận hình ảnh âm xung quanh) để tương tác tốt với người Kismet thể cảm xúc biểu cảm khn mặt, giọng nói, cử động đầu Biểu cảm mặt thể nhờ cử động mắt, mí mắt, lơng mày, mơi, hàm đầu Các cảm xúc lập trình sẵn, có nghĩa Kismet thể cảm xúc định định trước, không thay đổi mức độ cảm xúc Hình Một số biểu cảm Kismet Ưu điểm: - Thể cảm xúc mặt - Có khả nghe, nhìn, phát vật thể - Có thể tương tác với người - Có thể phân biệt cấp độ cảm xúc giọng nói Nhược điểm: - Khơng có lớp da hay lớp vỏ bên nên để lộ lớp cấu tạo khí - Các cảm xúc lập trình cứng nhắc, khơng thể linh hoạt thay đổi cảm xúc theo cấp độ 1.2 WE4-RII WE-4RII (Waseda Eye No.4 Refined II) bắt đầu phát triển từ năm 1995, phiên 4RII hoàn thiện năm 2003 WE-4RII phát triển Đại học Waseda, Tokyo, Nhật Bản WE-4RII chủ yếu tập trung vào việc biểu cảm nhờ phận mắt, mí mắt, miệng, lơng mày Phần đầu WE-4RII có 26 bậc tự WE-4RII thể biểu cảm cách sử dụng mắt, mí mắt, lơng mày, mơi, hàm dưới, màu má giọng nói Các lơng mày bao gồm miếng bọt biển mềm dẻo, lơng mày có 4-DOF Lò xo hình trụ dùng làm mơi cho WE-4RII Đơi mơi thay đổi hình dạng chúng cách kéo từ hướng, hàm WE-4RII có 1-DOF mở đóng mơi Có trạng thái má màu hồng WE-4RII có loa nhỏ đặt hàm để phát giọng nói Giọng nói robot giọng nói tổng hợp LaLaVoice 2001 (TOSHIBA) WE-4RII có khả thu nhận hình ảnh âm (nghe nhìn) nhờ sensor để giao tiếp với người Hình WE4-RII Hình Vị trí đặt loa, cấu tạo lơng mày, cấu tạo miệng WE-4RII Hình Một số biểu cảm WE-4RII: A Ngạc nhiên, B Buồn bã, C Sợ hãi, D Ghê tởm, E Bình thường, F Vui vẻ, G Giận Hình Một số biểu cảm toàn thân WE-4RII Ưu điểm: - Thể nhiều cảm xúc - Thân thiện với người Nhược điểm: - Vẻ khơng giống người, khơng có lớp da 1.3 Nexi Nexi, robot thiết kế MIT Media Lab, thiết kế để thể cảm xúc người, khuôn mặt Nexi gồm phận chế tạo từ nhựa Nexi phát triển dựa tảng Kismet Nexi MDS robot (Mobile Dextrous Social Robots), nghĩa Nexi di chuyển, cử động tay giao tiếp Nexi có vẻ ngồi thân thiện, giấu cấu tạo khí bên trong, bên cạnh khả biểu cảm lại so với Kismet Hình Nexi Đầu Nexi cử động mắt, mí mắt, lông mày, miệng cổ Cổ Nexi hệ thống động đặt nối tiếp cử động với ba bậc tự Có camera gắn trán với chức thu nhận hình ảnh Ngồi Nexi có phần thân dưới, bao gồm tay hai bánh xe để di chuyển Hình Cơ cấu cổ Nexi Về phần đầu Nexi, bên lông mày bên mí mắt Nexi điều khiển độc lập Miệng Nexi cử động theo chiều dọc (đóng mở) khơng thể điều chỉnh theo phương ngang miệng để thể rõ cử động mơi nói Nexi biểu đạt cảm xúc mặt cách cử động mắt, mí mắt, lông mày, miệng cổ tùy theo cảm xúc Cảm xúc mà Nexi biểu đạt so với Kismet Ngồi Nexi nghe, nhìn cử động miệng theo câu nói Hình Một số biểu cảm Nexi Ưu điểm: - Vẻ thân thiện - Các cử động mặt mượt, nên việc biểu cảm tốt - Có thể biểu cảm xúc phù hợp với lời nói Nhược điểm: - Khơng giống đầu người - Khơng có lớp da mà có lớp vỏ nhựa - Hệ thống biểu cảm đơn giản, với số biểu cảm định - Miệng cử động lên xuống theo phương thẳng đứng 1.4 ROMAN ROMAN (RObot huMan interAction machiNe) dự án thuộc Đại học Kaiserslautern ROMAN có hộp sọ che phủ lớp da người làm silicone ROMAN tập trung chủ yếu vào việc làm để thể cảm xúc cách tốt Hình 10 Robot ROMAN (Robot huMan interAction machiNe) Lớp da ROMAN dán vào phần vỏ, chuyển động nhờ miếng kim loại kéo dây 10 động Phần hàm ROMAN điều khiển động cơ, dùng để mở đóng miệng Mỗi mắt ROMAN nặng 150g với đường kính 46 mm, so với mắt người khoảng 23-29 mm Mắt di chuyển độc lập theo hai trục ngang dọc Mắt ROMAN có đường kính 46mm phải gắn thêm camera Dragonfly bên Khoảng cách ngắn hai mắt 65 mm Mắt cử động ±400 theo phương dọc ±300 theo phương ngang, cử động từ trái sang phải hay từ xuống khoảng 0,5s Mí mắt cử động 700 hướng xuống 100 hướng lên Thời gian chớp mắt khoảng 0,4s Phần mắt mí mắt dùng động để điều khiển Hình 11 Mắt ROMAN ROMAN có khả biểu cảm tốt, q trình chuyển tiếp biểu cảm không gây cử động mạnh da mặt (điều mà nhiều đề tài nghiên cứu trước gặp phải) nhờ việc lập thuật toán điều khiển cảm xúc cách linh hoạt, chia cảm xúc thành cấp độ khác Hình 12 Các biểu cảm đầu robot ROMAN: A giận dữ, B ghê tởm, C sợ hãi, D vui vẻ, E buồn bã, F ngạc nhiên Ưu điểm: - Có lớp da, vẻ ngồi giống người - Biểu cảm da dạng, biểu cảm khơng qua phận mặt mà thơng qua da mặt Nhược điểm: - Kích thước mắt đầu lớn so với đầu người bình thường 1.5 Albert HUBO Albert HUBO kết hợp phần thân humanoid, phần đầu robot Albert Albert HUBO cao 137cm nặng 57kg Nó có 66 bậc tự (31 cho phần đầu, 35 cho phần thân) Phần thân Albert HUBO dựa robot HUBO giới thiệu năm 2004, phần đầu tạo Hanson Robotics, dựa kĩ thuật tiêu tốn lượng có khả thể tồn cảm xúc khn mặt, dựa tảng robot tiếng Philip K Dick Đầu Albert HUBO có phần da tạo vật liệu mô tả giống bọt biển, gọi Frubber, có độ xốp đàn hồi giống với da người so với vật liệu khác thường dùng Lớp da tiêu thụ lượng, khoảng 10W, để điều khiển hết cường độ biểu cảm cử động miệng Albert HUBO sử dụng 28 động servo để điều khiển cử động mặt động servo để điều khiển cổ Phần cổ cấu tạo động đặt nối tiếp tạo bậc tự Serial servo controller (mini SSC II, Scott Edwards Electronics) dùng để điều khiển 31 động Bộ điều khiển truyền liệu vị trí động qua giao tiếp RS232 tới SSC, sau SSC chuyển đổi tín hiệu nhận thành tín hiệu PWM để gửi đến động Hình 13 Albert HUBO Hình 14 Phần đầu Albert HUBO Hình 15 Bên phần đầu Albert HUBO Ưu điểm: - Thể cảm xúc giống với người thể nhiều cảm xúc - Lớp da giống da người - Tiêu tốn lượng cho động Nhược điểm: - Chỉ thể cảm xúc thông qua điều khiển định trước 1.6 Hanson Robotics Hanson Robotics đơn vị hàng đầu lĩnh vực, chuyên nghiên cứu Humanoid Hanson Robotics có nhiều nghiên cứu gây ấn tượng ngạc nhiên, kể đến Albert HUBO, Jules, Han, Philip K.Dick, Sophia Mà Sophia dự án Hanson Robotics, ngồi giống người có khả tương tác tốt nhờ khả nghe, nhìn xử lí thông tin để trả lời hội thoại thể cảm xúc Robot Hanson Robotics đáng kinh ngạc chân thực, với lớp da giống người với khả biểu cảm sống động Tuy nhiên gần khơng có tài liệu dự án Hanson Robotics cơng bố rộng rãi, có đoạn phim quay lại dự án mạng Hình 16 Từ trái sang phải: Han, Philip K.Dick Hình 17 Sophia 1.7 Mục tiêu đề tài: Cùng nghiên cứu nhóm phát triển Hi – Tech Mechatronics Lab, mục tiêu đề tài chế tạo đầu robot với chức sau: - Đầu robot có đường kính tối đa 250 (mm) có da nhân tạo - Thể 05 chức biểu cảm: ngạc nhiên, hạnh phúc, buồn chán, giận sợ hãi - Đầu hoạt động người thật: • Mắt liếc trái/phải, lên/xuống • Hàm mở/đóng • Mí mắt đóng/mở - Mắt robot sử dụng thị giác máy tính để: • Nhận diện mặt người • Nhận diện màu • Chụp ảnh • Nhận diện đồ vật - Ngồi ra, robot có chức năng: • Nhận lệnh từ người nói • Nói số câu như: chào hỏi, giới thiệu • Trả lời thực lệnh yêu cầu • Hàm cử động robot nói Thiết kế định dạng đầu robot: 2.1 Phương án điều khiển mắt: Mắt người thật: - Mắt người thật có hình cầu, đường kính trung bình 24mm - Đường kính tròng mắt: 12mm - Đường kính tròng đen: 5mm - Có thể quay 350 qua trái/phải, tốc độ 1800/s; 350 chuyển động lên/xuống với tốc độ 1600/s - Các vị trí đặc biệt: (a) (b) Hình Các vị trí đặc biệt mắt người thật Mắt robot: - Áp dụng chuyển động mắt người thật vào robot - Do mắt yêu cầu có thị giác máy tính nên cần phải gắn thêm camera vào mắt, điều làm tăng kích thước mắt robot - Mỗi mắt robot chuyển động với bậc tự đồng với Có hai cách điều khiển mắt: *Điều khiển đồng mắt servo Cúi đầu nghiêng đầu Truyền động từ servo đến khớp xoay cổ (chuyển động cúi nghiêng cổ) toán khâu lề mặt phẳng B A 𝜃 C 𝜑 D Hình 4.1 Sơ đồ ngun lí cấu cổ Góc 𝜃 góc mong muốn 𝜑 góc xoay động cơ: 𝐵 ± √𝐵 − 𝐶 + 𝐴2 𝜃 = atan( ) 𝐶+𝐴 Với A, B, C độ dài, chứng minh tương tự phần Quay đầu Do chuyển động quay đầu điều khiển động RC Servo MG996 nên góc quay đầu góc quay động (điều khiển vị trí) Thiết kế truyền động điện sử dụng step motor cho cấu mắt, miệng 5.1 Lựa chọn động điều khiển Chuyển động mắt mí mắt yêu cầu torque nhỏ (khối lượng không đáng kể), yêu cầu không gian chiếm chổ nhỏ (do kích thước đầu nhỏ) nên lựa chọn servo Emax 9251 khả thi Với chuyển động hàm yêu cầu torque lớn nên servo MG996 lựa chọn để sử dụng Torque Servo Mắt ~0,1(𝑘𝑔 𝑐𝑚) Emax 9251 - Torque: 0,5𝑘𝑔 𝑐𝑚 Mí mắt ~0,12(𝑘𝑔 𝑐𝑚) - Kích thước: 18,02𝑥7,91𝑥16,8𝑚𝑚 Hàm ~0,55(𝑘𝑔 𝑐𝑚) MG996 - Torque: 3,5𝑘𝑔 𝑐𝑚 - Kích thước: 36,6𝑥20𝑥53,6𝑚𝑚 (a) (b) Hình (a) Servo Emax 9251 (b) MG996 Các cấu chuyển động đầu robot (chuyển động mắt, mí mắt, hàm dưới) điều khiển servo sử dụng vi điều khiển ATMega328, tảng Arduino Vi điều khiển nhận lệnh từ điều khiển trung tâm ROS Kinetic, giao tiếp UART 5.2 Điều khiển động học Động học mí mắt: Truyền động từ servo đến mí mắt tốn khâu lề mặt phẳng Số bậc tự Đặt tọa độ hình vẽ, ta có điểm: 𝐴(0; 0) 𝐵(−10 sin(𝜃) ; 10 cos(𝜃)) 𝐷(56; 0) 𝐶(56 + 15 cos(𝜑) ; 12 − 15 sin(𝜑)) Với 𝜃 góc quay servo, 𝜑 quay góc mí mắt A (0;0) θ y 12 mm x C φ B 56 mm D (56;0) Hình Sơ đồ nguyên lý điều khiển mí mắt Độ dài đoạn 𝐵𝐶 = 54𝑚𝑚, đó: (56 + 15 cos(𝜑) + 10 sin(𝜃))2 + (12 − 15 sin(𝜑) − 10 cos(𝜃))2 = 642 ⇔ 562 + (15 cos(𝜑))2 + (10 sin(𝜃))2 + 2.56.15 cos(𝜑) + 2.56.10 sin(𝜃) + 2.15.10 cos(𝜑) sin(𝜃) + 122 + (15 sin(𝜑))2 + (10 cos(𝜃))2 − 2.12.15 sin(𝜑) − 2.12.10 cos(𝜃) + 2.15.10 sin(𝜑) cos(𝜃) = 642 ⟺ 1680 cos(𝜑) + 1120 sin(𝜃) + 300 cos(𝜑) sin(𝜃) − 360 sin(𝜑) − 240 cos(𝜃) + 300 sin(𝜑) cos(𝜃) = 491 ⟺ cos(𝜃) (−240 + 300 sin(𝜑)) + sin(𝜃) (1120 + 300 cos(𝜑)) = 491 + 360 sin(𝜑) − 1680 cos(𝜑) Để biết điều khiển góc mí mắt cần biết góc quay servo bao nhiêu: Đặt 𝐴 = −240 + 300 sin(𝜑), 𝐵 = (1120 + 300 cos(𝜑)), 𝐶 = 491 + 360 sin(𝜑) − 1680 cos(𝜑) ⇒ 𝐴 cos(𝜃) + 𝐵 sin(𝜃) = 𝐶 𝜃 2𝑡 1−𝑡 Đặt: 𝑡 = tan (2), suy ra: sin(𝜃) = 1+𝑡 , cos(𝜃) = 1+𝑡 Điều kiện: −450 < 𝜃 < 450 ⇒ −0.41 < 𝑡 < 0.41 đó, phương trình trở thành: − 𝑡2 2𝑡 𝐴 +𝐵 =𝐶 1+𝑡 + 𝑡2 ⇒ 𝐴(1 − 𝑡 ) + 𝐵 2𝑡 = 𝐶(1 + 𝑡 ) ⟺ (𝐶 + 𝐴)𝑡 − 2𝐵𝑡 + (𝐶 − 𝐴) = Đặt Δ = 4𝐵 − 4(𝐶 + 𝐴)(𝐶 − 𝐴) = 4(𝐵 − 𝐶 + 𝐴2 ) Nghiệm phương trình: 𝐵 ± √𝐵 − 𝐶 + 𝐴2 𝑡= 𝐶+𝐴 Suy góc servo cần xoay: 𝐵 ± √𝐵 − 𝐶 + 𝐴2 𝜃 = atan( ) 𝐶+𝐴 Kết mô phỏng: Với 𝜃 = atan( 𝐵+√𝐵2 −𝐶 +𝐴2 𝐶+𝐴 ), cho góc 𝜑 chuyển động từ 00 đến 450, ta có đồ thị: Hình Đồ thị liên hệ góc φ góc θ Với 𝜃 = atan( 𝐵−√𝐵2 −𝐶 +𝐴2 𝐶+𝐴 ), cho góc 𝜑 chuyển động từ 00 đến 450, ta có đồ thị: Hình Đồ thị liên hệ Nhận xét: - Góc điều khiển servo góc điều khiển mí mắt khơng tuyến tính, tăng không 𝐵−√𝐵2 −𝐶 +𝐴2 - 𝜃 = atan( 𝐶+𝐴 ) kết mong muốn điều khiển Tính tốn tương tự mí mắt Động học chuyển động mắt lên xuống 12 mm y θ B C A (0;0;0) x z φ D (43;12;18) Hình 5 Sơ đồ nguyên lý chuyển động mắt lên xuống Điều khiển góc mắt servo đưa điều khiển khâu lề không gian Số bậc tự do: Với 𝜃 góc điều khiển servo, 𝜑 góc chuyển động mắt (khâu cuối) Đặt hệ tọa độ khơng gian hình: 𝐴(0; 0; 0) 𝐵(12 sin(𝜃) ; 12 cos(𝜃); 0) 𝐷(43; 12; 18) 𝐶(43 + 18 sin(𝜑) ; 0; 18 − 18 cos(𝜑)) Độ dài đoạn 𝐵𝐶 = 43𝑚𝑚, đó: (43 + 18 sin(𝜑) − 12 sin(𝜃))2 + (−12 cos(𝜃))2 + (18 − 18 cos(𝜑))2 = 432 ⟺ 432 + (18 sin(𝜑))2 + (12 sin(𝜃))2 + 2.43.18 sin(𝜑) − 2.43.12 sin(𝜃) − 2.18.12 sin(𝜑) sin(𝜃) + (12 cos(𝜃))2 + 182 + (18 cos(𝜑))2 − 2.18.18 cos(𝜑) = 432 ⟺ 648 + 1548 sin(𝜑) − 648 cos(𝜑) − sin(𝜃) (1032 + 432 sin(𝜑)) = 648 + 1548 sin(𝜑) − 648 cos(𝜑) ⟺ sin((𝜃) = 1032 + 432 sin(𝜑) 648 + 1548 sin(𝜑) − 648 cos(𝜑) ⟺ 𝜃 = arcsin( ) 1032 + 432 sin(𝜑) Cho góc 𝜑 chuyển động từ 00 đến 450, ta có đồ thị: Hình Đồ thị liên hệ góc φ góc θ Nhận xét: - Góc chuyển động servo để mắt chuyển động khơng tuyến tính, mắt nhìn lên/xuống lớn góc servo phải thay đồi nhiều Động học chuyển động mắt liếc trái phải 12 mm y θ B A (0;0;0) x 20 mm z φ D (30;-6;20) C Hình Sơ đồ nguyên lý chuyển động mắt liếc trái phải Điều khiển góc xoay liếc trái, phải mắt điều khiển servo theo toán khâu lề không gian Số bậc tự do: Đặt hệ tọa độ hình vẽ: 𝐴(0; 0; 0) 𝐵(12 sin(𝜃) ; 12 cos(𝜃); 0) 𝐷(30; −6; 20) 𝐶(30 + 18 sin(𝜑) ; 18 cos(𝜑) − 6; 20) Độ dài đoạn 𝐵𝐶 = √302 + 202 = 10√13𝑚𝑚, đó: (30 + 18 sin(𝜑) − 12 sin(𝜃))2 + (18 cos(𝜑) − − 12 cos(𝜃))2 + (20)2 = (10√13)2 ⟺ 302 + (18 sin(𝜑))2 + (12 sin(𝜃))2 + 2.30.18 sin(𝜑) − 2.30.12 sin(𝜃) − 2.18.12 sin(𝜑) sin(𝜃) + 62 + (18 cos(𝜑))2 + (12 cos(𝜃))2 − 2.6.18 cos(𝜑) + 2.6.12 cos(𝜃) − 2.18.12 cos(𝜑) cos(𝜃) = (10√13)2 ⟺ 1080 sin(𝜑) − 720 sin(𝜃) − 432 sin(𝜑) sin(𝜃) − 216 cos(𝜑) + 144 cos(𝜃) − 432 cos(𝜑) cos(𝜃) = −504 ⟺ sin(𝜃) (−720 − 432 sin(𝜑)) + cos(𝜃) (144 − 432 cos(𝜑)) = −504 + 216 cos(𝜑) − 1080 sin(𝜑) Đặt 𝐴 = 144 − 432 cos(𝜑) , 𝐵 = −720 − 432 sin(𝜑) , 𝐶 = −504 + 216 cos(𝜑) − 1080 sin(𝜑), phương trình trở thành: Asin(𝜃) + 𝐵 cos(𝜃) = 𝐶 𝜃 2𝑡 1+𝑡 Đặt: 𝑡 = tan ( ), suy ra: sin(𝜃) = , cos(𝜃) = 1−𝑡 1+𝑡 Điều kiện: −450 < 𝜃 < 450 ⇒ −0.41 < 𝑡 < 0.41 đó, phương trình trở thành: − 𝑡2 2𝑡 𝐴 + 𝐵 =𝐶 + 𝑡2 + 𝑡2 ⇒ 𝐴(1 − 𝑡 ) + 𝐵 2𝑡 = 𝐶(1 + 𝑡 ) ⟺ (𝐶 + 𝐴)𝑡 − 2𝐵𝑡 + (𝐶 − 𝐴) = Đặt Δ = 4𝐵 − 4(𝐶 + 𝐴)(𝐶 − 𝐴) = 4(𝐵 − 𝐶 + 𝐴2 ) Nghiệm phương trình: 𝐵 ± √𝐵 − 𝐶 + 𝐴2 𝑡= 𝐶+𝐴 Suy góc servo cần xoay: 𝐵 ± √𝐵 − 𝐶 + 𝐴2 𝜃 = atan( ) 𝐶+𝐴 Kết mô phỏng: Với 𝜃 = atan( 𝐵+√𝐵2 −𝐶 +𝐴2 𝐶+𝐴 ), cho góc 𝜑 chuyển động từ 00 đến 450, ta có đồ thị: Hình Đồ thị liên hệ góc φ góc θ Với 𝜃 = atan( 𝐵−√𝐵2 −𝐶 +𝐴2 𝐶+𝐴 ), cho góc 𝜑 chuyển động từ 00 đến 450, ta có đồ thị: Hình Đồ thị liên hệ góc φ góc θ Nhận xét: - Từ đồ thị ta nhận thấy 𝜃 = atan( 𝐵+√𝐵2 −𝐶 +𝐴2 𝐶+𝐴 ) kết mong muốn - Góc điều khiển servo thay đổi khơng tuyến tính Động học cấu miệng: Miệng có chuyển động: đóng mở C φ A B Hình 10 Sơ đồ ngun lí chuyển động miệng 𝐵𝐶 = 𝐴𝐵𝑠𝑖𝑛𝜑 Với BC: khoảng tịnh tiến miệng (độ mở) AB: chiều dài hàm (miệng) Thiết kế camera cảm biến Camera: Đầu robot sử dụng camera Logitech 5.0 MegaPixel, ống kính có đường kính 10mm, kích thước lòng đen mắt người Diện tích mạch: 26x23mm, gá gọn mắt robot với đường kính 40mm (a) (b) Hình Camera Logitech mắt robot sau lắp vào mắt robot (a) Camera Logitech (b) mắt robot Xử lý giọng nói: Hình Mạch nhận dạng giọng nói VR3 Sử dụng mạch nhận dạng giọng nói VR3 Hỗ trợ đến 80 câu lệnh, lệnh dài 1500ms Nút (node) xử lý giọng nói cho ROS lập trình dựa nút có sẵn, phát triển CMU Sphinx (thư viện sử dụng có khả nhận diện giọng nói tiếng anh chuẩn với độ xác cao) Các lệnh sử dụng để điều khiển: “MOVE FORWARD” – lên phía trước “TURN LEFT” – quay trái “TURN RIGHT” – quay phải “TURN BACK” – quay 180 độ “MOVE STEPS’ – lên phía trước bước Các xử lý số liệu Đầu robot sử dụng máy tính nhúng Nano Pi M1 làm xử lý số liệu Ngoài ra, liệu cảm biến hình ảnh (camera) âm (microphone) truyền ROS, đây, ROS xử lý cảm biến node độc lập Dữ liệu hình ảnh dùng thư viện OpenCV để xử lý cho kết mong muốn (xử lý ảnh, theo dõi màu, chụp ảnh) Ngoài ra, trang web phát triển để điều khiển, giúp người dung điều khiển từ xa qua thiết bị di động với tác vụ điều khiển đầu, stream camera, điều khiển giọng nói, điều khiển chuyển động đi,…ROS truyền nhận liệu qua ROS webServer, phát hay nhận liệu từ trung tâm, từ tương tác với người dùng Thiết kế điều khiển cấp Bộ điều khiển cấp ATMega 328 Mí mắt Servo Servo Mắt Servo Servo Servo Servo Hàm Servo ATMega 328 Cổ Servo Internet server Servo Servo 10 ROS Camera Speaker Microphone Nano Pi M1 ATMega 328 ATMega 328 Tổng quan vị trí biểu diễn cảm xúc khuôn mặt người thật Các biểu cảm khuôn mặt điều khiển nhiều khn mặt, đó, có loại điều khiển để thể số cảm xúc : ngạc nhiên, hạnh phúc, buồn chán, giận sợ hãi Cơ mày cao Cơ vòng mắt 10 Cơ hạ mày Cơ nâng mơi Cơ cười Cơ vòng miệng Cơ hạ môi 13 11 14 15 18 16 Cơ cằm 12 17 19 a) b) Hình a) Cơ mặt biểu diễn cảm xúc, b) Sơ đồ nguyên lý Các biểu cảm cách di chuyển mơ hình hóa sau: Cảm xúc Hình mơ tả Giận Các điểm điều khiển 1+4+5+6+7+8+9+10+ 11+12+13+14+15+16 +17+19 Lông mày chùng xuống Mắt mở Cằm mở rộng Vui vẻ 11+12+14+15+19 Miệng mở rộng sau tai Sợ hãi 1+2+3+4+5+6+7+8+9 +10+11+12+16+17+1 Lơng mày nâng lên Nâng mí mắt Căng mí mắt Mơi căng ngang sau tai Buồn 2+3+5+6+7+8+16+17 Lông mày nghiên xuống Môi chụng xuống Ngạc 1+2+3+4+9+10+19 nhiên Lông mày nâng lên Mắt mở rộng Miệng mở Mô biểu cảm Các dấu mũi tên thể hướng kéo da mặt để tạo biểu cảm Hình Sợ hãi – Tức giận Hình Ngạc nhiên – Hạnh phúc Hình Buồn chán Lắp ráp hoàn thiện phần khí Tài liệu tham khảo: [1] C L Breazeal, Designing Sociable Robots, MIT Press, 1st Edition, 2004 [2] C L Breazeal, “Sociable machines: Expressive social exchange between humans and robots,” Ph.D dissertation, Massachusetts Institute Of Technoligy, May 2000 [2] G Trovato, T Kishi, N Endo, K Hashimoto, A Takanishi, “Development of facial expressions generator for emotion expressive humanoid robot”, in 12th IEEE/RAS International Conference on Humanoid Robots, Osaka, Japan, November 29-December 2012, pp 303 – 308, 2012 [3] H Miwa, T Okuchi, H Takanobu, and A Takanishi, “Development of a new human-like head robot we-4,” in Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), Lausanne, Switzerland, October 2002, pp 2443–2448, 2002 [4] A Takanishi, H Miwa, and H Takanobu, “Development of humanlike head robots for modeling human mind and emotional human-robot interaction”, in IARP International workshop on Humanoid and human Friendly Robotics, December 2002, pp 104–109, 2002 [5] J Hirth, N Schmitz, and K Berns, “Emotional architecture for the humanoid robot head roman,” in IEEE International Conference on Robotics and Automation (ICRA), Rome, Italy, April 11-13 2007, pp 2150–2155, 2007 [6] J Hirth, and K Berns, “Concept for behavior generation for the humanoid robot head ROMAN based on habits of interaction”, in 7th IEEE-RAS International Conference on Humanoid Robots, Pittsburgh, PA, USA , November 29-December 2007, pp 360 – 365, 2007 [7] K Berns, and J Hirth, “Control of facial expressions of the humanoid robot head ROMAN”, in IEEE/RSJ International Conference on Intelligent Robots and Systems, October 9-15 2006, Beijing, China, 2006 [8] R Fitzpatrick, “Designing and Constructing an Animatronic Head Capable of Human Motion Programmed using Face-Tracking Software”, MSc Dissertation, Worcester Polytechnic Institute, Worcester, Massachusetts, USA, May 2010 [9] P Ekman and W Friesen, Facial Action Coding System, Consulting psychologist Press, Inc, 1978 [10] P Ekman, W Friesen, and J Hager, Facial Action Coding System A Human Face, 2002 [11] “Emotion expression humanoid http://www.takanishi.mech.waseda.ac.jp/research/eyes/we-4rII/index.htm, 2005 [12] “We bring robot to life”, http://www.hansonrobotics.com robot”, ... Berns, “Concept for behavior generation for the humanoid robot head ROMAN based on habits of interaction”, in 7th IEEE-RAS International Conference on Humanoid Robots, Pittsburgh, PA, USA , November... and H Takanobu, “Development of humanlike head robots for modeling human mind and emotional human-robot interaction”, in IARP International workshop on Humanoid and human Friendly Robotics, December... 2002, pp 104–109, 2002 [5] J Hirth, N Schmitz, and K Berns, “Emotional architecture for the humanoid robot head roman,” in IEEE International Conference on Robotics and Automation (ICRA), Rome, Italy,