Từ những tồn tại của đề tài ta cĩ thể xác định được một số hướng phát triển của đề tài như sau:
- Thay thế các giả lập đầu vào của robot (thơng tin robot nhận được từ đối tác tương tác) khi robot đã cĩ ghép nối với các module xử lý tiếng nĩi và xử lý hình ảnh.
- Xây dựng các kịch bản tương tác trực tiếp người-robot theo chủ đề nhất định để thử nghiệm tương tác đa phương thức trên robot
- Xây dựng giao diện tương tác khai thác đầy đủ khả năng của robot như: chức năng trơng nhà (giám sát từ xa qua mạng viễn thơng), giải trí (karaoke, game, chụp ảnh), thu thập các thơng tin từ internet (thời tiết, tin tức), …
- Mở rộng các ứng dụng khơng chỉ là tương tác giữa một người và một robot mà cĩ kết nối mạng giữa nhiều robot với nhiều người. Ưu tiên của ứng dụng này cĩ thể là xây dựng tương tác cho các robot làm nhiệm vụ hướng dẫn viên ở bảo tàng, triển lãm, hội chợ.
Với những kết quả thực hiện được của đề tài, những tồn tại và hướng phát triển của đề tài, hệ thống hồn thiện cĩ thể đưa áp dụng vào thực tế, khi đĩ ta cĩ thể gọi robot là một robot xã hội thực sự. Việc đưa các robot này xuất hiện trong các gia đình, cơng sở, trung tâm hội nghị, địa điểm hội họp là hồn tồn khả thi trong tương lai khơng xa.
Tài liệu tham khảo
- 76 -
Tài liệu tham khảo
[1] Catherine Pelachaud, Norman I. Badlery, Marie-Luce Viaudz, (1994), Final Report to NSF of the Standards forFacial Animation Workshop, Institute for Research in Cognitive Science, University of Pennsylvania
[2] Christopher A. Robbins, (2004), Speech and Gesture Based Multimodal Interface Design, Computer Science Department, New York University.
[3] Coutaz J., Nigay L., Salber D. (1993), The MSM Framework: A Design Space for Multi-Sensori-Motor Systems, Laboratoire de Génie Informatique, IMAG, France.
[4] Dong-Soo Kwon, Wan Chul Yoon, KangWoo Lee, Jeong-Yean Yang, (2003),
An Effective Framework Design of Human-Robot Interaction in The Coexistent Environment, Korea Advanced Institute of Science and Technology, Korea.
[5] Eva Cerezo1, Isabelle Hupont, (2000), Emotional facial expression classification for multimodal user interfaces, Universidad de Zaragoza, Spain.
[6] Fagel S., (1994), AudioVisual speech: Analysis, Synthesis, Perception, and Recognition, Berlin University of Technology.
[7] Joëlle Coutaz, Laurence Nigay, Daniel Salber, (2006), Multimodality from the User and System Perspectives, France.
[8] Michael A., Goodrich, and Alan C. Schultz, (2007), Human–Robot Interaction: A Survey, US Naval Research Laboratory, Washington, USA.
[9] Michael Jonhston, (1998), Finite-State Multimodal Integration and understanding, AT&T Lab – Research, USA.
Tài liệu tham khảo
- 77 -
[10] Pantic M., Tomc M., Rothkrantz J.M., (1997), A Hybrid Approach to Mouth Features Detection, Delft University of Technology, The Netherlands.
[11] Paul Ekman, Thomas S. Huang, Terrence J. Sejnowski, Joseph C. Hager, (1992), Final Report To NSF of the Planning Workshop on Facial Expression Understanding, Institute for Research in Cognitive Science, University of Pennsylvania.
[12] Ron Cole, Joseph Mariani, (1997), Survey of the State of the Art in Human Language Technology, Cambridge University Press and Giardini.
[13] R. R. Murphy, Introduction to AI Robotics. Cambridge, MA, USA: The MIT Press, 2000.
[14] T. B. Sheridan and W. L. Verplank, Human and Computure Control for Undersea Teleoparators. MIT Man-Machine Systems Laboratory, 1978.
[15] Thomas Hempel (Ed.), (2008), Usability of Speech Dialog Systems Listening to
Phụ lục
- 78 -
Phụ lục Phần 1: Giới thiệu về IROBI – Q
Hình PL.1: Hình ảnh về iRobi-Q