Phần cơ khí và mạch điều khiển

Một phần của tài liệu NGHIÊN cứu, THIẾT kế và CHẾ tạo MOBILE ROBOT bám đối TƯỢNG sử DỤNG CÔNG NGHỆ học sâu (Trang 66)

Mobile robot đã được thiết kế đảm bảo đầy đủ các yêu cầu sau:

• Dễ dàng tháo lắp

• Sắp xếp hợp lý các bộ phận

• Tiện lợi trong quá trình sử dụng

• Đủ độ cứng vững

• Có tính thẩm mỹ

Mobile robot được thiết kế gồm có các bộ phận chính như sau:

Bộ phận khung: Phần khung được làm từ tôn có kích thước 280 × 204 × 123𝑚𝑚).

66

Hình 4.3. Gía đỡ động cơ

• Bộ phận công suất: Khối pin Lithium 3S - 12V 2500mAH.

• Gá động cơ sử dụng 2 giá đỡ động cơ GA25

67

• Bộ phận truyền động: Gồm 2 bánh xe và 2 động cơ DC Servo Giảm

Tốc GA25, 1 bánh đa hướng.

• Khớp lục giác nối bánh xe

Hình 4.5. Khớp lục giác

Hình 4.4. Bánh xe chuyển động và bánh xe đa hướng và động cơ lựa chọn

68

• Giá Đỡ Kẹp Điện Thoại

Sau khi kết nối các bộ phận bằng bộ ốc vít và trục gắn động cơ ta được 1 Robot hoàn chỉnh:

Hình 4.7. Mobile Robot 3 bánh

4.1.1.2 Phần mạch điều khiển

Các module mạch điều khiển chính gồm:

69

• Vi điều khiển: Gồm 1 Arduino Nano và 1 Ardruino Uno

Hình 4.8. Arduino Nano

• Truyền tín hiệu: Gồm 2 module NRF24L01+.

Hình 4.9. Module NRF24L01+

70

Hình 4.10. Module L298

Và các Module này được kết nối với nhau qua các dây cắm cái-cái ta được hệ thống điều khiển mobie robot gồm 2 module chính:

• Module truyền dữ liệu gồm 1 board Arduino và 1 chip NRF24L01+.

Chương trình xử lý ảnh sẽ gửi dữ liệu tới mobile robot qua module truyền dữ liệu.

71

• Module nhận dữ liệu mobie robot gồm gồm 1 chip Arduino, nguồn 12v,

2 động cơ motor, module L298 và 1 module NRF24L01+.

Hình 4.12. Module nhận dữ liệu

4.2.Chạy thử và đánh giá kết quả đạt được

72

Kết quả

Chúng tôi thử nghiệm robot hoạt động trên môi trường ánh sáng khác nhau, người di chuyển với vận tốc khác nhau:

Kết quả robot chạy bám đối tượng khá chính xác. Với mỗi trường hợp và điều khiện khác nhau hệ thống cho ra những kết quả và những thông số khác nhau. Dưới đây là bảng kết quả các thông số cơ bản trung bình với điều kiện ánh sáng và vận tốc người di chuyển khác nhau sau khi tính toán mà nhóm đã đạt được kết quả như bảng dưới:

73 Biểu đồ tốc độ bánh xe theo khoảng cách từ người đến mobile robot trong quá trình chạy thử: Hình 4.15. Biểu đồ tốc độ bánh xe theo khỏng cách -300 -200 -100 0 100 200 300 1 10 19 28 37 46 55 64 73 82 91 100 109 118 127 136 145 154 163 172 181 190 199 208 217 226 235 244 253 262 271 280 tốc độ hai bánh Tốc độ bánh trái Tốc độ bánh phải 0 50 100 150 200 250 300 1 10 19 28 37 46 55 64 73 82 91 100 109 118 127 136 145 154 163 172 181 190 199 208 217 226 235 244 253 262 271 280 khoảng cách

74 Biểu đồ tốc độ bánh xe theo độ lệch của người so với 2 giới hạn trái phải trong quá trình chạy thử:

Hình 4.16. Biểu đồ tốc độ bánh xe theo độ lệch

Báo cáo về cơ bản đã thiết kế, chế tạo một mobile robot bám đối tượng dùng công nghệ xử lý ảnh để giải quyết được đồng thời bài toán tìm đường và dẫn hướng cho robot.Và khi chạy thử cho thấy, khi mobile robot vừa khởi động thì tốc độ bánh chưa thể đạt ngay so với tốc độ thiết lập và đối lượng lệch so với khung để rẽ thì robot di chuyển chậm nên nhóm đã quyết định sử dụng thuật toán PID để điều chuyển tốc độ của robot sau khi sử dụng robot đã di chuyển đúng quỹ đạo, tốc độ ổn định hơn. -300 -200 -100 0 100 200 300 1 12 23 34 45 56 67 78 89 100 111 122 133 144 155 166 177 188 199 210 221 232 243 254 265 276 tốc độ hai bánh Tốc độ bánh trái Tốc độ bánh phải -150 -100 -50 0 50 100 150 200 1 11 21 31 41 51 61 71 81 91 101 111 121 131 141 151 161 171 181 191 201 211 221 231 241 251 261 271 281 độ lệch

75

KẾT LUẬN

Trong quá trình thực hiện đồ án tốt nghiệp nhóm đã rất cố gắng để hoàn thiện tính toán, thiết kế, chế tạo mô hình robot vi sai một cách tốt nhất có thể.

Tuy nhiên do trong thời gian ngắn, kinh nghiệm làm thực tế về thiết kế gia công cơ khí, lắp ráp, lập trình điều khiển, cũng như kiến thức chuyên môn về lĩnh vực này còn gặp phải nhiều khó khăn nên mô hình vẫn còn nhiều hạn chế cần cải thiện như:

• Thiết kế mô hình robot và vị trí các module trên mobile robot chưa

được tối ưu.

• Giải thuật điều khiển của robot chỉ có thể đáp ứng một số điều kiện mối

trường nhất định. Điều kiện thực tế rất đa dạng, có rất nhiều yếu tố bên ngoài ảnh hưởng đến robot trong quá trình di chuyển.

• Để nghiên cứu phát triển và mở rộng đề tài phải mất rất nhiều thời gian

và kinh phí.

Cần tận dụng được ưu điểm của robot bám đối tượng, tham khảo những bài viết khoa học về lĩnh vực này. Từ các kết quả đã đạt được, nhóm đề tài dự kiến hướng phát triển, hướng nghiên cứu tiếp theo như sau:

• Cải tiến thuật toán phát hiện đối tượng để có thể tìm đường hiệu quả

khi có nhiều người cùng hoạt động.

• Nâng cấp chương trình xử lý ảnh để hoạt động trong những môi trường

ánh sáng không ổn định.

• Ứng dụng các công nghệ mới như deep learning trong việc phát hiện

đối tượng.

• Tùy thuộc vào ứng dụng cụ thể mà trang bị thêm các tính năng cho

76

TÀI LIỆU THAM KHẢO

[1]. L. Xin, Q. Wang, J. She, Y. Li, Robust adaptive tracking control ofwheeled mobile robot, Robotics and Autonomous Systems, 2016, 78, 36-48.

[2]. Y. Li, Z. Wang, and L. Zhu, Adaptive Neural Network PID Sliding Mode Dynamic Control of Nonholonomic Mobile Robot, Proceedings of the 2010 IEEE International Conference on Information and Automation, Harbin, China, 2010, 753-757.

[3]. D. K. Chwa, Sliding-mode tracking control of nonholonomic wheeled mobile robots in polar coordinates, IEEE Transactions on Control Systems Technology, 2004, 12 (4), 637–644.

[4]. B. Park, S. Yoo, J Park, Y. Choi, Adaptive neural sliding mode control of nonholonomic wheeled mobile robots with model uncertainty, IEEE

Transactions on Control Systems Technology, 2009, 17(1), 207-214.

[5]. Z. Jiang, Robust exponential regulation of nonholonomic systems with uncertainties, Automatica, 2000, 36(2), 189-209.

[6]. T. Fukao, H. Nakagawa, N. Adachi, Adaptive tracking control of a nonholonomic mobile robot, IEEE Transactions on Robotics and Automation, 2000, 16 (5), 609–615.

[7]. W. Dong, K. Kuhnert, Robust adaptive control of nonholonomic

mobile robot with parameter and nonparameter uncertainties, IEEE Transactions on Robotics, 2005, 21(2), 261-266.

[8]. R. Fierro, F. L. Lewis, Control of a Nonholonomic Mobile Robot Using Neural Networks, IEEE Trans Neural Networks, 1998, 9(4), 589-600.

[9]. Y. Kanayama, Y. Kimura, F. Miyazaki, T. Noguchi. A stable tracking control method for an autonomous mobile robot, Proceedings of the 1990 IEEE International Conference on Robotics and Automation. Cincinnati, OH, USA: IEEE, 1990, 384-389.

77 [10]. Z.-P Jiang, H. Nijmeijer, Tracking control of mobile robots: A case study in backstepping, Automatica, 1997, 33(7), 1393-1399.

[11]. D. Kim, J. Oh, Tracking control of a two-wheeled mobile robot using input– output linearization, Control Engineering Practice, 1999, 7, 369–373.

[12]. H. Gao, X. Song, L. Ding, K. Xia, N. Li, Z. Deng, Adaptive motion control of wheeled mobile robot with unknown slippage, International Journal of Control, 2014, 87, 1513–1522.

[13]. M. Seyr, S. Jakubek, Proprioceptive Navigation, Slip Estimation and Slip Control for Autonomous Wheeled Mobile Robots, in: Proceedings of the IEEE Conference on Robotics, Automation and Mechatronics, 2006, 1–6.

[14]. J.-C. Ryu, S.K. Agrawal, Differential flatness-based robust control of mobile robots in the presence of slip, The International Journal of Robotics Research, 2011, 30(4), 463–475.

[15]. Y. Qiu, X. Liang, Z. Dai, Backstepping dynamic surface control for an anti-skid braking system, Control Engineering Practice, 2015, 42, 140–152.

[16]. N. Sidek, N. Sarkar, Dynamic modeling and control of nonholonomic mobile robot with lateral slip. Proceedings of 3rd International Conference on Systems, 2008, 35-40.

[17]I. Motte, G.A. Campion, Slow manifold approach for the control of mobile robots not satisfying the kinematic constraints, IEEE Transactions on Robotics and Automation, 2000, 16(6), 875-880.

[18]. A. Matveev, M. Hoy, J. Katupitiya, A. Savkin, Nonlinear sliding mode control of an unmanned agricultural tractor in the presence of sliding and control saturation, Robotics and Autonomous Systems, 2013, 61, 973–987.

[19]. M. Corradini, G. Orlando, Experimental testing of a discrete time sliding mode controller for trajectory tracking of a wheeled mobile robot in the presence of skidding effects, Journal of Robotic Systems, 2002, 19, 177–188.

78 [20]. H. Khan, J. Iqbal, K. Baizid, T. Zielinska, Longitudinal and lateral slip control of autonomous wheeled mobile robot for trajectory tracking,

Frontiers of Information and Technology & Electronic Engineering, 2015, 16(2), 166-172.

[21]. L. Chang Boon, W. Danwei, Integrated Estimation for Wheeled Mobile Robot posture, velocities, and wheel skidding perturbations, in:

Proceedings of the IEEE International Conference on Robotics and Automation, 2007, 2355–2360.

[22]. G. Baffet, A. Charara, J. Stephant, Sideslip angle, lateral force and road fricion estimation in simulations and experiments, Proceedings of IEEE International Conference on Control Applications, 2006, 903-908.

[23]. L. Li, F.Y. Wang, Integrated Longitudinal and lateral tire/road friction modeling and monitoring for vehicle motion control, IEEE Transaction on

Intelligent Transportation Systems, 2006, 7(1), 1-19.

[24]. Y. Tian, N. Sarkar, Control of a mobile robot subject to wheel slip, Journal of Intelligent and Robotic Systems, 2014, 74, 915–929.

[25]. H. Kang, Y. Kim, C. Hyun, M. Park, Generalized extended state observer approach to robust tracking control for wheeled mobile robot with skidding and slipping, International Journal of Advanced Robotic Systems 2013, 10, 1–10.

[26]. S. Yoo, Approximation-based adaptive control for a class of mobile robots with unknown skidding and slipping, International Journal of Control, Automation and Systems, 2012, 10, 703–710

[27]. N Hoang, H Kang, Neural network-based adaptive tracking control of mobile robots in the presence of wheel slip and external disturbance force, Neurocomputing, 2016, 188, 12-22.

[28]. C. B. Low, D. Wang, GPS-based path following control for a car-like wheeled mobile robot with skidding and slipping, IEEE Transactions on Control Systems Technology 2008, 16, 340–347.

79 [29]. C. B. Low, D. Wang, GPS-based tracking control for a car-like

wheeled mobile robot with skidding and slipping, IEEE/ASME Transactions on Mechatronics, 2008, 13, 480–484.

[30]. R. Lenain, B. Thuilot, C. Cariou, P. Martinet, Mixed kinematic and dynamic sideslip angle observer for accurate control of fast off-road mobile robots, Journal of Field Robotics, 2010, 27(2), 181-196.

[31]. B. Chen, F. Hsieh. Sideslip angle estimation using extended Kalman filter, Vehicle System Dynamics, 2008, 46, 353-364.

[32]. G. Bayar, M. Bergerman, E. Konukseven, A. Koku, Improving the trajectory tracking performance of autonomous orchard vehicles using wheel slip compensation, Biosystems Engineering, 2016, 146, 149-164.

[33]. H. Grip, L. Imsland, T. Johansen, J. Kalkkuhl, A. Suissa, Vehicle sideslip estimation: design, implementation and experimental validation, IEEE Control Systems Magazine, 2009, 29(5), 36-52.

[34] “NDT Resource Center. ” http://www.ndt-ed.org / index_flash.htm.

[35] Hagan, M.A., H.B. Demuth, M.H. Beale. (2003): Neural Network Design, Brooks Cole, ISBN: 0-9717321-0-8.

[36] L. Zadeh. (1987): Fuzzy Sets and Applications: Selected Papers by L.A. Zadeh, ed. R.R. Yager et al, John Wiley, New York.

[37] Kumar, S. and F. Taheri, F. (2004): “Neuro-Fuzzy

Approaches for FRP Oil and Gas Pipeline Condition Assessment”, American Society of Mechanical Engineers, Pressure Vessels and Piping Division

(publication), V490, Storage Tank Integrity and Materials Evaluation, p271-275. [38] “Image processing toolbox user’s guide.” (2005) The

Math Works, Natick, Massachusetts, USA.

[39] “Wavelet toolbox user’s guide.” (2005) The Math Works, Natick, Massachusetts, USA.

80 [40]“Neural Network toolbox user’s guide.” (2005) The Math

Works, Natick, Massachusetts, USA.

[41] “Fuzzy Logic toolbox user’s guide.” (2005) The Math Works, Natick, Massachusetts, USA.

[42] Gonzalez R, R.E. Woods and S.L. Eddins. (2004): Digital

Image Processing Using MATLAB, Pearson Prentice Hall, ISBN 0-13-008519- 7.

[43] Jang J. S. R, (1992). ``Neuro-Fuzzy Modeling:

Architectures, Analyses, and Applications.'' Ph.D.Dissertation, EECS Department, Univ. of California at Berkeley.

[44] Armstrong K. and R. Barrett. (1998): Care and Repair of Advanced Composites, SAE International, ISBN: 0768000475.

[45] M. B. Blaschko and C. H. Lampert. Learning to localize objects with structured output regression. In Computer Vision–ECCV 2008, pages 2–15. Springer, 2008. 4

[46] L. Bourdev and J. Malik. Poselets: Body part detectors

trained using 3d human pose annotations. In International Conference on Computer Vision (ICCV), 2009. 8

[47] H. Cai, Q. Wu, T. Corradi, and P. Hall. The crossdepiction problem: Computer vision algorithms for recognising objects in artwork and in

photographs. arXiv preprint arXiv:1505.00110, 2015. 7

[48] N. Dalal and B. Triggs. Histograms of oriented gradients for

human detection. In Computer Vision and Pattern Recognition, 2005. CVPR 2005. IEEE Computer Society Conference on, volume 1, pages 886–893. IEEE, 2005. 4, 8

[49] T. Dean, M. Ruzon, M. Segal, J. Shlens, S. Vijayanarasimhan, J. Yagnik, et al. Fast, accurate detection of 100,000 object classes on a single

81 machine. In Computer Vision and Pattern Recognition (CVPR), 2013 IEEE Conference on, pages 1814–1821. IEEE, 2013. 5

[50] J. Donahue, Y. Jia, O. Vinyals, J. Hoffman, N. Zhang,

E. Tzeng, and T. Darrell. Decaf: A deep convolutional activation feature for generic visual recognition. arXiv preprint arXiv:1310.1531, 2013. 4

[51] J. Dong, Q. Chen, S. Yan, and A. Yuille. Towards unified

object detection and semantic segmentation. In Computer Vision–ECCV 2014, pages 299–314. Springer, 2014. 7

[52] D. Erhan, C. Szegedy, A. Toshev, and D. Anguelov. Scalable object detection using deep neural networks. In Computer Vision and Pattern

Recognition (CVPR), 2014 IEEE Conference on, pages 2155–2162. IEEE, 2014. 5, 6

[53] M. Everingham, S. M. A. Eslami, L. Van Gool, C. K. I.Williams, J. Winn, and A. Zisserman. The pascal visual object classes challenge: A

retrospective. International Journal of Computer Vision, 111(1):98–136, Jan. 2015. 2

[54] P. F. Felzenszwalb, R. B. Girshick, D. McAllester, and D. Ramanan. Object detection with discriminatively trained part based models. IEEE

Transactions on Pattern Analysis and Machine Intelligence, 32(9):1627–1645, 2010. 1, 4

[55] S. Gidaris and N. Komodakis. Object detection via a multiregion & semantic segmentation-aware CNN model. CoRR, abs/1505.01749, 2015. 7

[56] S. Ginosar, D. Haas, T. Brown, and J. Malik. Detecting people in cubist art. In Computer Vision-ECCV 2014 Workshops, pages 101–116. Springer, 2014. 7

[57] R. Girshick, J. Donahue, T. Darrell, and J. Malik. Rich feature hierarchies for accurate object detection and semantic segmentation. In

82 Computer Vision and Pattern Recognition (CVPR), 2014 IEEE Conference on, pages 580–587. IEEE, 2014. 1, 4, 7

[58] R. B. Girshick. Fast R-CNN. CoRR, abs/1504.08083, 2015. 2, 5, 6, 7 [59] S. Gould, T. Gao, and D. Koller. Region-based segmentation and object detection. In Advances in neural information processing systems, pages 655–663, 2009. 4

[60] B. Hariharan, P. Arbelaez, R. Girshick, and J. Malik. Simul- ´ taneous detection and segmentation. In Computer Vision– ECCV 2014, pages 297–312. Springer, 2014. 7

[61] K. He, X. Zhang, S. Ren, and J. Sun. Spatial pyramid pooling in deep convolutional networks for visual recognition. arXiv preprint arXiv:1406.4729, 2014. 5

[62] G. E. Hinton, N. Srivastava, A. Krizhevsky, I. Sutskever, and R. R. Salakhutdinov. Improving neural networks by preventing co-adaptation of feature detectors. arXiv preprint arXiv:1207.0580, 2012. 4

[63] D. Hoiem, Y. Chodpathumwan, and Q. Dai. Diagnosing error in object detectors. In Computer Vision–ECCV 2012, pages 340–353. Springer, 2012. 6

[64] K. Lenc and A. Vedaldi. R-cnn minus r. arXiv preprint arXiv:1506.06981, 2015. 5, 6

[65] R. Lienhart and J. Maydt. An extended set of haar-like features for rapid object detection. In Image Processing. 2002. Proceedings. 2002

International Conference on, volume 1, pages I–900. IEEE, 2002. 4 [66] M. Lin, Q. Chen, and S. Yan. Network in network. CoRR, abs/1312.4400, 2013. 2

[67] D. G. Lowe. Object recognition from local scale-invariant features. In Computer vision, 1999. The proceedings of the seventh IEEE international conference on, volume 2, pages 1150–1157. Ieee, 1999. 4

83 [68] D. Mishkin. Models accuracy on imagenet 2012 val.

https://github.com/BVLC/caffe/wiki/Models-accuracy-on-ImageNet-2012-val. Accessed: 2015-10-2. 3

[69] C. P. Papageorgiou, M. Oren, and T. Poggio. A general framework for object detection. In Computer vision, 1998. sixth international conference on, pages 555–562. IEEE, 1998. 4

[70] J. Redmon. Darknet: Open source neural networks in c. http://pjreddie.com/darknet/, 2013–2016. 3

[71] J. Redmon and A. Angelova. Real-time grasp detection using convolutional neural networks. CoRR, abs/1412.3128, 2014.5

[72] S. Ren, K. He, R. Girshick, and J. Sun. Faster r-cnn: Towards real- time object detection with region proposal networks. arXiv preprint

arXiv:1506.01497, 2015. 5, 6, 7

[73] S. Ren, K. He, R. B. Girshick, X. Zhang, and J. Sun. Object detection networks on convolutional feature maps. CoRR, abs/1504.06066, 2015. 3, 7

[74] O. Russakovsky, J. Deng, H. Su, J. Krause, S. Satheesh, S. Ma, Z. Huang, A. Karpathy, A. Khosla, M. Bernstein, A. C. Berg, and L. Fei-Fei.

Một phần của tài liệu NGHIÊN cứu, THIẾT kế và CHẾ tạo MOBILE ROBOT bám đối TƯỢNG sử DỤNG CÔNG NGHỆ học sâu (Trang 66)