(Luận văn thạc sĩ) Điều hướng xe tự hành dùng trí tuệ nhân tạo

66 4 0
(Luận văn thạc sĩ) Điều hướng xe tự hành dùng trí tuệ nhân tạo

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

Thông tin tài liệu

(Luận văn thạc sĩ) Điều hướng xe tự hành dùng trí tuệ nhân tạo(Luận văn thạc sĩ) Điều hướng xe tự hành dùng trí tuệ nhân tạo(Luận văn thạc sĩ) Điều hướng xe tự hành dùng trí tuệ nhân tạo(Luận văn thạc sĩ) Điều hướng xe tự hành dùng trí tuệ nhân tạo(Luận văn thạc sĩ) Điều hướng xe tự hành dùng trí tuệ nhân tạo(Luận văn thạc sĩ) Điều hướng xe tự hành dùng trí tuệ nhân tạo(Luận văn thạc sĩ) Điều hướng xe tự hành dùng trí tuệ nhân tạo(Luận văn thạc sĩ) Điều hướng xe tự hành dùng trí tuệ nhân tạo(Luận văn thạc sĩ) Điều hướng xe tự hành dùng trí tuệ nhân tạo(Luận văn thạc sĩ) Điều hướng xe tự hành dùng trí tuệ nhân tạo(Luận văn thạc sĩ) Điều hướng xe tự hành dùng trí tuệ nhân tạo(Luận văn thạc sĩ) Điều hướng xe tự hành dùng trí tuệ nhân tạo(Luận văn thạc sĩ) Điều hướng xe tự hành dùng trí tuệ nhân tạo(Luận văn thạc sĩ) Điều hướng xe tự hành dùng trí tuệ nhân tạo(Luận văn thạc sĩ) Điều hướng xe tự hành dùng trí tuệ nhân tạo(Luận văn thạc sĩ) Điều hướng xe tự hành dùng trí tuệ nhân tạo(Luận văn thạc sĩ) Điều hướng xe tự hành dùng trí tuệ nhân tạo(Luận văn thạc sĩ) Điều hướng xe tự hành dùng trí tuệ nhân tạo(Luận văn thạc sĩ) Điều hướng xe tự hành dùng trí tuệ nhân tạo(Luận văn thạc sĩ) Điều hướng xe tự hành dùng trí tuệ nhân tạo(Luận văn thạc sĩ) Điều hướng xe tự hành dùng trí tuệ nhân tạo(Luận văn thạc sĩ) Điều hướng xe tự hành dùng trí tuệ nhân tạo(Luận văn thạc sĩ) Điều hướng xe tự hành dùng trí tuệ nhân tạo(Luận văn thạc sĩ) Điều hướng xe tự hành dùng trí tuệ nhân tạo(Luận văn thạc sĩ) Điều hướng xe tự hành dùng trí tuệ nhân tạo

LỜI CAM ĐOAN Tơi cam đoan cơng trình nghiên cứu Các số liệu, kết nêu luận văn trung thực chưa cơng bố cơng trình khác Tp Hồ Chí Minh, ngày 13 tháng 04 năm 2019 (Ký tên ghi rõ họ tên) iii LỜI CẢM ƠN Trong suốt trình thực đề tài, với giúp đỡ nhiệt tình q thầy cơ, hướng dẫn mặt từ thiết kế phần cứng đến phần mềm điều khiển yếu tố định đến thành công đề tài ngày hôm Tôi xin chân thành gửi lời cảm ơn đến: Giảng viên hướng dẫn TS Lê Mỹ Hà định hướng, nhiệt tình giúp đỡ, bảo tận tình tạo điều kiện tốt cho làm việc phịng thí nghiệm (ISLab) suốt q trình thực đề tài Tôi xin gửi lời cảm ơn đến tồn q thầy Khoa Điện – Điện tử Bộ môn Tư Động Điều Khiển giúp đỡ tơi nhiều q trình thực đề tài đóng góp ý kiến tạo điều kiện thuận lợi giúp đề tài hồn thiện Tơi xin gửi lời cảm ơn đến tập thể lớp cao học TĐH17B, trình làm đề tài anh chị có ý kiến thiết thực giúp đỡ việc thiết kế thi công đề tài Cuối cùng, xin gửi lời cảm ơn chân thành tới nhà trường, thầy cô, cha mẹ bạn bè động viên giúp đỡ suốt trình thực đề tài Tơi xin chân thành cảm ơn! iv TĨM TẮT Trong đề tài này, mơ hình xe tự lái dựa thị giác máy sử dụng mạng nơron học sâu máy tính Raspberry Pi đề xuất Xe tự lái lĩnh vực quan tâm nghiên cứu nhiều năm gần nhờ vào phát triển mạnh mẽ công nghệ phần cứng phần mềm liên quan đến khả tự lái hồn tồn, khơng có can thiệp người Cấp độ phương tiện tự hành đạt tương lai gần Việc sử dụng điện tử trí tuệ nhân tạo (AI) hỗ trợ người lái xe điều khiển kiểm soát phương tiện cách dễ dàng Điều đóng góp nhiều cho vấn đề giao thơng nay, có xe tự hành, khơng cịn kẹt xe, hạn chế tai nạn giao thơng người Mạng nơron tích chập (CNN) chứng minh có hiệu suất đáng kể nhiều toán nhận dạng điều khiển so với kỹ thuật khác thời gian gần Những yếu tố định kết ấn tượng khả học hàng triệu thơng số sử dụng lượng lớn liệu gán nhãn Ở đây, tác giả tập trung vào việc tìm kiếm model trực tiếp ánh xạ hình ảnh đầu vào đến góc lái dự đốn đầu mạng nơron học sâu Việc thực luận văn bao gồm ba việc Đầu tiên, thông số model CNN huấn luyện cách sử dụng liệu thu thập từ xe mơ hình tỉ lệ 1/10, gắn máy tính Raspberry Pi Model B camera phía trước Dữ liệu dùng để huấn luyện mạng hình ảnh đường góc lái đồng với thời gian thu thập lúc xe lái Tiếp theo, liệu chuyển sang máy tính dùng để huấn luyện cho model điều hướng xe Cuối cùng, thực nghiệm model máy tính Raspberry để xe tự chạy mơi trường ngồi trời, xung quanh đường trịn đường số có biển báo giao thơng Kết thực nghiệm cho thấy tính hiệu mạnh mẽ model lái tự động việc giữ đường thời gian thực Tốc độ tối đa xe khoảng 5-6km/h nhiều điều kiện lái khác nhau, vạch đường có bị che khuất hay khơng v ABSTRACT In this thesis, a monocular vision-based self-driving car prototype using Deep Neural Network on Raspberry Pi is proposed Self-driving cars are one of the most increasing interests in recent years as the definitely developing relevant hardware and software technologies toward fully autonomous driving capability with no human intervention Level-3/4 autonomous vehicles are potentially turning into a reality in near future It involves the use of Mechatronics and Artificial Intelligence (AI) to control the vehicle, thereby taking the responsibilities of the driver, providing a more manageable control over it And a swarm of autonomous vehicles could just be the solution to our traffic problems: no traffic jam, no road accidents, no delayed journey Convolutional Neural Networks (CNNs) have been shown to achieve significant performance in various perception and control tasks in comparison to other techniques in the latest years The key factors behind these impressive results are their ability to learn millions of parameters using a large amount of labeled data In this work, we concentrate on finding a model that directly maps raw input images to a predicted steering angle as output using a deep neural network The technical contributions of this work are three-fold First, the CNN model parameters were trained by using data collected from vehicle platform built with a 1/10 scale RC car, Raspberry Pi Model B computer and front-facing camera The training data were road images paired with the time-synchronized steering angle generated by manually driving Second, the stored data is then transferred to a desktop computer and used for training the model to autonomously navigate the car Finally, road tests the model on Raspberry to drive itself in the outdoor environment around oval-shaped and 8-shaped with traffic sign lined track The experimental results demonstrate the effectiveness and robustness of autopilot model in real-time lane keeping task Vehicle’s top speed is about 5-6km/h in a wide variety of driving conditions, regardless of whether lane markings are present or not vi MỤC LỤC LÝ LỊCH KHOA HỌC i LỜI CAM ĐOAN iii LỜI CẢM ƠN iv TÓM TẮT v ABSTRACT vi MỤC LỤC vii DANH MỤC CÁC CHỮ VIẾT TẮT ix DANH MỤC CÁC BẢNG BIỂU .x DANH MỤC CÁC HÌNH ẢNH VÀ BIỂU ĐỒ xi Chương 1: TỔNG QUAN 1.1 Đặt vấn đề .1 1.2 Mục tiêu đề tài 1.3 Giới hạn đề tài 1.4 Nội dung đề tài .3 Chương 2: CƠ SỞ LÝ THUYẾT CỦA XE TỰ HÀNH .4 2.1 Giới thiệu xe tự hành 2.2 Tổng quan trí tuệ nhân tạo 2.2.1 Trí tuệ nhân tạo (Artificial Intelligence- AI) 2.2.2 Machine Learning 2.2.3 Deep Learning .12 2.3 Convolutional Neural Network (CNN) 16 2.4 Bộ điều khiển PID 25 Chương 3: THIẾT KẾ VÀ LỰA CHỌN THIẾT BỊ 27 3.1 Các thành phần phần cứng .27 3.1.1 Xe điều khiển Trophy Truck .27 3.1.2 Động Brushed Motor RC-540PH 28 3.1.3 Động RC Servo TowerPro MG946R 29 3.1.4 Waterproof Brushed ESC Controller WP-1040 29 3.1.5 Raspberry Pi Model B .30 3.1.6 Raspberry Pi Power Pack 31 vii 3.1.7 Raspberry Pi Camera Module 31 3.1.8 Arduino Uno R3 32 3.1.9 PWM/Servo Driver PCA9685 33 3.1.10 Encoder Omron E6B2-CWZ6C 10P/R .34 3.1.11 Pin Lipo 2S-30C 3600mAh 34 3.2 Sơ đồ kết nối phần cứng 35 3.3 Cấu trúc phần cứng mơ hình xe tự hành 35 Chương 4: GIẢI THUẬT ĐIỀU KHIỂN CỦA MƠ HÌNH XE TỰ HÀNH .38 4.1 Sơ đồ khối thu thập liệu huấn luyện 38 4.2 Sơ đồ khối điều hướng mơ hình xe tự hành 39 4.3 Cấu trúc mạng tối ưu thông số .40 4.4 Phần mềm thư viện sử dụng để lập trinhg 43 4.4.1 Giới thiệu thư viện Tensorflow 43 4.4.2 Giới thiệu thư viện Keras 43 Chương 5: THỰC NGHIỆM 44 5.1 Môi trường thực nghiệm 44 5.2 Mô tả tập liệu 45 5.3 Các phương pháp để tạo nhiều liệu khác .46 5.4 Quá trình huấn luyện 46 5.5 Kết thực nghiệm trời: 48 Chương 6: KẾT LUẬN VÀ HƯỚNG PHÁT TRIỂN .50 6.1 Kết luận 50 6.2 Hướng phát triển .51 TÀI LIỆU THAM KHẢO 52 PHỤ LỤC 54 viii DANH MỤC CÁC CHỮ VIẾT TẮT AI: Artificial Intelligence ANN: Artificial Neural Network CNN: Convolutional Neural Network CPU: Control Processing Unit ESC: Electronic Speed Control GPS: Global Positioning System GPU: Graphics Processing Unit PID: Proportional Integral Derivative PWM: Pulse Width Modulation 10 RNN: Recurrent Neural Network 11 USB: Universal Serial Bus ix DANH MỤC CÁC BẢNG BIỂU Bảng 3.1: Thông số hoạt động RC Servo TowerPro MG946R 29 Bảng 3.2: Thông số board Arduino Uno 33 Bảng 5.1: Sự ảnh hưởng chu kỳ huấn luyện đến độ xác mơ hình 47 Bảng 6.1: Sự ảnh hưởng số lượng mẫu huấn luyện đến độ xác mơ hình 50 x DANH MỤC CÁC HÌNH ẢNH VÀ BIỂU ĐỒ Hình 2.1: Sự phát triển xe tự hành tương lai .4 Hình 2.2: Mối quan hệ AI, Machine Learning Deep Learning Hình 2.3: Cấu trúc tế bào thần kinh sinh học Hình 2.4: Cấu trúc tế bào thần kinh nhân tạo 10 Hình 2.5: Học có giám sát 11 Hình 2.6: Học khơng giám sát 12 Hình 2.7: Học tăng cường 12 Hình 2.8: So sánh hiệu suất DL với thuật tốn học theo thứ tự 14 Hình 2.9: Tổ chức hệ thống vỏ não thị giác .15 Hình 2.10: Mơ hình RNN 15 Hình 2.11: Kiến trúc mạng autoencoders 16 Hình 2.12: Ví dụ cách thức xử lý ANN với cấu trúc kết nối đầy đủ 17 Hình 2.13: Ý tưởng thiết kế CNN .17 Hình 2.14: Minh họa tích chập 18 Hình 2.15: Ví dụ ứng dụng tích chập 19 Hình 2.16: Các thành phần lớp tích chập 20 Hình 2.17: Ví dụ lớp Convolution ảnh 21 Hình 2.18: Cách tính tham số lớp pooling 22 Hình 2.19: Q trình tinh chỉnh tuyến tính .23 Hình 2.20: Flatten liệu nhận từ lớp convolution a) ma trận 3x3 b) mảng sau áp dụng flatten 23 Hình 2.21: Kiến trúc mạng CNN 24 Hình 2.22: Bộ điều khiển PID 26 Hình 2.23: Bộ điều khiển PID cho tốc độ xe 26 Hình 3.1: Sơ đồ khối mơ hình xe tự hành 27 Hình 3.2: Xe điều khiển Trophy Truck .27 Hình 3.3: Chi tiết bên xe điều khiển 28 xi Hình 3.4: Động Brushed Motor RC-540PH 28 Hình 3.5: RC Servo TowerPro MG946R .29 Hình 3.6: Waterproof Brushed ESC Controller WP-1040 30 Hình 3.7: Raspberry Pi Model B 30 Hình 3.8: Raspberry Pi Power Pack 31 Hình 3.9: Raspberry Pi Camera 32 Hình 3.10: Board Arduino Uno (mặt trước sau) .32 Hình 3.11: Mạch Điều Khiển 16 Chanel PWM PCA9685 .33 Hình 3.12: Encoder Omron E6B2-CWZ6C 10P/R 34 Hình 3.13: Pin Lipo 2S-30C 3600mAh 34 Hình 3.14: Sơ đồ kết nối phần cứng 35 Hình 3.15: Phía mơ hình xe tự hành 36 Hình 3.16: Phía trái mơ hình xe tự hành 36 Hình 3.17: Bên xe tự hành (a) bên xe nhìn từ phía (b) bánh encoder (c) hệ thống bể lái (d) Motor ESC 37 Hình 4.1: Sơ đồ khối thu thập liệu huấn luyện 38 Hình 4.2: Sơ đồ khối điều hướng mơ hình xe tự hành 39 Hình 4.3: Cấu trúc mạng huấn luyện cho mơ hình xe tự hành 40 Hình 4.4: Lớp dropout a) mạng nơ-ron tiêu chuẩn, b) mạng nơ-ron sau áp dụng dropout 42 Hình 5.1: Quỹ đạo thực nghiệm 1: (a) Quỹ đạo hình bầu dục.(b) góc rẽ đường (c) mơ hình xe di chuyển theo quỹ đạo 44 Hình 5.2:Quỹ đạo thực nghiệm 2: (a) quỹ đạo hình số (b) (c) biển báo hiệu đường .44 Hình 5.3: Tập liệu thu thập được: (a) mẫu từ tập liệu lái xe (b), (c) (d) hình ảnh điển hình tập liệu 45 Hình 5.4: Ví dụ phương pháp tạo thêm liệu huấn luyện 46 Hình 5.5: Sơ đồ huấn luyện cho mơ hình xe tự hành 47 xii Lớp thực chuẩn hóa tất ảnh có giá trị pixel từ -1 đến Các lớp pooling thiết kế thực nghiệm, tác giả sử dụng kernel có kích thước 5x5 với không bước trượt cho lớp đầu tiên, kernel có kích thức 3x3 khơng có bước trượt Độ sâu tương ứng lớp 16, 32 64 Các lớp max-pooling xen kẽ với lớp tích chập Lớp max-pooling công cụ mạnh mẽ thường CNN sử dụng Đây phương pháp thay đổi kích thước hình ảnh lớn giữ lại thông tin quan trọng chúng Nó liên quan đến việc trượt khung cửa sổ nhỏ dọc theo hình ảnh nhận giá trị tối đa từ cửa sổ bước Sau gộp, hình ảnh có khoảng phần tư pixel so với đầu Điều làm giảm số lượng hyperparameters cần phải tính tốn, từ giảm thời gian tính tốn tránh việc overfitting Tất lớp maxpooling chọn với kernel 2x2 khơng bước trượt Các lớp kết nối hồn tồn thiết kế với việc giảm dần kích thước: 19456 500 Lớp đầu chắn nơtron mơ hình chúng tơi dự đốn giá trị lệnh điều khiển đầu cho góc lái Bên cạnh đó, chúng tơi sử dụng kích hoạt lớp ELUs (đơn vị tuyến tính theo cấp số nhân) theo lớp co giãn để cải thiện hội tụ Các ELU chức cố gắng kích hoạt trung bình gần khơng để tăng tốc độ học tập Nó ELUs có độ xác phân loại cao so với ReLUs [10] Đầu lớp ReLU có kích thước với đầu vào, khác biệt tất giá trị âm hình ảnh bị xóa sau  x; x  f ( x)   x a(e  1); x  Với a siêu tham số điều kiện a  41 (4) Đối với đề tài này, sử dụng hàm MSE (Mean-Square-Loss) Chức thông thường sử dụng cho toán hồi quy mà đơn giản giá trị trung bình tổng bình phương khác biệt kết thực tế dự đoán    MSE    yi  yi  n   (5) Để tối ưu hóa mát này, thuật tốn tối ưu hóa Adam sử dụng Thuật tốn tối ưu hóa thường chọn cho ứng dụng học tập sâu Tác giả sử dụng tham số mặc định Adam cung cấp Keras (learning rate of 0.001, 1  0.9 ,   0.999 ,   1e  and decay = 0) [11] Mạng nơron giải mã chứa nhiều lớp ẩn phi tuyến tính, điều làm cho chúng trở thành mơ hình phức tạp dẫn đến mối quan hệ phức tạp đầu vào đầu chúng Để làm cho kiến trúc mạnh mẽ để ngăn chặn vấn đề overfitting, lớp dropout thêm vào mạng thực Việc bỏ học vơ hiệu hóa tế bào thần kinh mạng xác suất định ngăn cản đồng thích hợp đối tượng Đối với nghiên cứu này, tác giả áp dụng tỷ lệ dropout 20% [12] (Hình 4.4) a) b) Hình 4.4: Lớp dropout a) mạng nơ-ron tiêu chuẩn, b) mạng nơ-ron sau áp dụng dropout 42 4.4 Phần mềm thư viện sử dụng để lập trình 4.4.1 Giới thiệu thư viện Tensorflow  TensorFlow thư viện phần mềm mã nguồn mở dành cho máy học nhiều loại hình tác vụ nhận thức hiểu ngôn ngữ  Chạy desktop Linux Mac OS X 64-bit hệ thống máy chủ, tảng điện toán di động, bao gồm Android iOS Apple  TensorFlow chạy nhiều CPU GPU  TensorFlow cung cấp API Python, tài liệu API C/C++ 4.4.2 Giới thiệu thư viện Keras  Keras framework machine learning viết Python nhằm giảm thiểu thời gian việc lên ý tưởng giai đoạn thực chúng Nó bao gồm hai API high-level: Keras Sequential Keras Functional  Nó sử dụng chung với thư viện Deep Learning tiếng Tensorflow  Dễ sử dụng, xây dựng model nhanh  Keras run CPUvà GPU  Hỗ trợ xây dựng CNN, RNN kết hợp hai 43 Chương 5: THỰC NGHIỆM Trong chương này, liệu thu thập sử dụng để huấn luyện kiến trúc mạng chương kết thực nghiệm trình bày Điều bao gồm (1) môi trường thực nghiệm để thu thập liệu, (2) mô tả tập liệu, (3) phương pháp để tạo nhiều liệu khác nhau, (4) kết trình huấn luyện thử nghiệm 5.1 Mơi trường thực nghiệm b) a) c) Hình 5.1: Quỹ đạo thực nghiệm 1: (a) Quỹ đạo hình bầu dục.(b) góc rẽ đường (c) mơ hình xe di chuyển theo quỹ đạo b) c) a) Hình 5.2:Quỹ đạo thực nghiệm 2: (a) quỹ đạo hình số (b) (c) biển báo hiệu đường 44 Để thu thập liệu đào tạo, điều khiển mơ hình xe tự hành theo quỹ đạo trời tạo mặt phẳng rải nhựa để thu thập hình ảnh có đánh dấu thời gian Đường viền hình bầu dục đường dài 50 mét rộng 70 cm với đường viền dải băng rộng 10 cm Hình 5.1 Chiếc xe điều khiển để rẽ trái rẽ phải đường cong bán kính mét thời điểm Đường viền hình số bao gồm hai vịng trịn tạo hình thành giao lộ ngang tiếp tuyến thể Hình 5.2 Quỹ đạo dài 40 mét có đường cong bên phải bên trái Bán kính đường cong mét Có bốn biển báo giao thơng có đường kính 15 cm dựng lên mép đường để hướng dẫn cho xe 5.2 Mô tả tập liệu Chuẩn bị liệu vấn đề cần thiết làm việc với mạng học tập sâu Raspberry Pi ghi lại hình ảnh thơng tin lái xe từ người dùng tay lái xe xung quanh đường đua với tốc độ 5-6km / h Dữ liệu thu thập chứa 15.500 hình ảnh ghép lại với góc lái Độ phân giải ban đầu hình ảnh 160x120 Pi Camera cấu hình để chụp tốc độ 10 khung hình / giây với thời gian phơi sáng 5000us để tránh tượng mờ rung động xe lái đường Các hình ảnh mẫu tập liệu thể Hình 5.3 Hình 5.3: Tập liệu thu thập được: (a) mẫu từ tập liệu lái xe (b), (c) (d) hình ảnh điển hình tập liệu 45 5.3 Các phương pháp để tạo nhiều liệu khác Mơ hình học tập sâu có xu hướng vượt tập liệu nhỏ có q mẫu để đào tạo, dẫn đến mơ hình có hiệu suất tổng qt Tăng cường liệu công nghệ chuyên dụng tạo nhiều trường hợp liệu huấn luyện cách tạo mẫu thông qua việc biến đổi ngẫu nhiên mẫu có Phương pháp làm tăng số lượng tập huấn luyện Các phép biến đổi thông thường là lật ngang, điều chỉnh độ sáng, tạo bóng ngẫu nhiên, thay đổi chiều cao chiều rộng ảnh (hình 5.4) Hình 5.4: Ví dụ phương pháp tạo thêm liệu huấn luyện 5.4 Quá trình huấn luyện Từ tập liệu lưu trữ, tác giả chia chúng thành hai phần riêng biệt Một liệu huấn luyện liệu thử nghiệm với tỷ lệ 80:20 Một sơ đồ huấn luyện thể Hình 5.5 Tác giả tận dụng lợi GPU NVIDIA GeForce GT 740M với nhớ 2GB có sẵn để huấn luyện mạng với ba lần, 30, 50, 100 chu kỳ (Bảng 5.1) 46 Hình 5.5: Sơ đồ huấn luyện cho mơ hình xe tự hành Tổng thời gian mà thực đào tạo kết hợp với 100 chu kỳ cho 15500 mẫu khoảng 280 phút Do đó, trung bình chu kỳ 168 giây để hồn thành Một số hình ảnh đại diện cho lớp tích chập thể hình 5.6 Bảng 5.1: Sự ảnh hưởng chu kỳ huấn luyện đến độ xác mơ hình Số thứ tự Số lượng mẫu huấn luyện Chu kỳ huấn luyện Thời gian huấn luyện Độ xác 15500 30 92 minutes 97,08% 15500 50 155 minutes 97,77% 15500 100 280 minutes 98,23% 47 a) b) c) d) Hình 5.6: Trực quan lớp tích chập a) ảnh gốc b), c) d) lớp tích chập thứ 1,2 5.5 Kết thực nghiệm trời: Sau huấn luyện laptop, mơ hình chép trở lại Raspberry Pi Mạng sau điều khiển xe sử dụng để cấp khung hình từ Camera Pi làm đầu vào Trong giai đoạn điều khiển, giây 10 hình ảnh xử lý tốc độ tối đa xe xung quanh đường cong khoảng 5-6 km/h Mơ hình dự đốn góc lái đạt độ xác thuyết phục, cụ thể 98,23% (Hình 5.7) Kết thí nghiệm dựa mơ hình xe tự hành tự động điều hướng hai quỹ đạo với điều kiện lái xe đa dạng, cho dù dấu hiệu đường có hay khơng Giá trị góc lái dự đốn tương đối xác (Hình 5.8) 48 Hình 5.7: Độ xác mạng CNN đề xuất Hình 5.8: Giá trị góc lái dự đoán 49 Chương 6: KẾT LUẬN VÀ HƯỚNG PHÁT TRIỂN 6.1 Kết luận Ưu điểm nghiên cứu là:  Tác giả ứng dụng mạng neural học sâu cấu hình phần cứng thấp chạy thực nghiệm cho kết thuyết phục, cụ thể 98,23%  Ngồi ra, luận văn cịn kết hợp nhận dạng biển báo giao thơng xe tự hành mơ hình thực tế  Đề tài cịn mở rộng phạm vi ứng dụng loại robot xe tự hành thực môi trường khác  Dữ liệu vấn đề quan trọng dẫn đến độ xác mơ hình (Bảng 6.1) Hơn nữa, tăng chu kỳ huấn luyện để mơ hình tiếp cận đến vị trí hội tụ cách để có mơ hình với kết thuyết phục (Bảng 5.1) Bảng 6.1: Sự ảnh hưởng số lượng mẫu huấn luyện đến độ xác mơ hình Số thứ tự Số lượng mẫu huấn luyện 10000 Chu kỳ huấn luyện 100 Thời gian huấn luyện 173 minutes Độ xác 12500 15500 100 100 212 minutes 280 minutes 97,15% 98,23% 96,78% Nhược điểm: tác giả quan sát thấy trình huấn luyện / thực nghiệm mơ hình xảy vấn đề độ trễ máy ảnh Việc định nghĩa khoảng thời gian từ cảm biến máy ảnh quan sát trường đến máy tính thực đọc liệu hình ảnh số Thật khơng may, thời gian dài đáng kể tùy thuộc vào máy ảnh hiệu suất Pi, khoảng 300-350 mili giây Điều cao đáng kể so với độ trễ nhận thức người Độ trễ máy ảnh cao ảnh hưởng 50 tiêu cực đến hiệu suất điều khiển, đặc biệt ứng dụng quan trọng an tồn, mạng thần kinh học sâu phân tích cảnh cũ 6.2 Hướng phát triển Tóm lại, tác giả tạo mơ hình dự đốn góc lái mơ hình xe tự hành sử dụng mạng nơ-ron tích chập Mặc dù đạt kết khả quan tương lai gần, tác giả tiếp cận số nghiên cứu sau đây: 1) Nghiên cứu cải thiện độ xác mơ hình tốt vấn đề mà nhóm quan tâm 2) Xác định sử dụng máy ảnh có tốc độ sập cao cải thiện hiệu suất mơ hình xe tự hành 3) Thêm phần huấn luyện giá trị tốc độ mô hình xe tự hành với tham vọng xe chạy tốc độ cao xác 51 TÀI LIỆU THAM KHẢO [1] Minh-Thien Duong, Truong-Dong Do and My-Ha Le, “Navigating Self- Driving Vehicles Using Convolutional Neural Network”, 2018 4th International Conference on Green Technology and Sustainable Development (GTSD) IEEE, 2018 p 607-610 [2] S G Jeong et al., “Real time lane detection for autonomous navigation,” in Proc IEEE Intell Transp Syst., Aug 2001, pp 508–513 [3] K A Redmill, S Upadhya, A Krishnamurthy, and Ü Özgüner, “A lane tracking system for intelligent vehicle application,” in Proc IEEE Intell.Transp Syst., Aug 2001, pp 273–279 [4] Hsu-Yung Cheng, Bor-Shenn Jeng, Pei-Ting Tseng, and Kuo-Chin Fan, “Lane Detection with Moving Vehicles in Traffic Scenes”, IEE Transactions on intelligent transportation systems, vol 7, No.4, December 2006 [5] Kamarul Ghazali, Rui Xiao, Jie Ma, “Road Lane Detection Using H-Maxima and Improve Hough Transform”, 2012 Fourth International Conference on Computational Intelligence, Modelling and Simulation [6] Mohamed Aly, “Real time Detection of Lane Markers in Urban Streets” 2008 IEEE Intelligent Vehicles Symposium Eindhoven University of Technology Eindhoven, The Netherlands, June 4-6, 2008 [7] S Hong, M Hyung Lee, S Hong Kwon and H Hwan Chun, “A car test for the estimation of GPS/INS alignment errors,” IEEE Trans Intell Trans Syst 5(3), 208–218 (2004) [8] Vicente Milanés, José E Naranjo, Carlos González, Javier Alonso and Teresa de Pedro, “ Autonomous vehicle based in cooperative GPS and inertial systems”, Robotica (2008) volume 26, pp 627-633, Cambridge University Press [9] Araki M, “PID Control” Control systems robotics and automation – Vol II [10] Djork-Arné Clevert, Thomas Unterthiner, Sepp Hochreiter, "Fast and Accurate Deep Network Learning by Exponential Linear Units (ELUs)" Published as a conference paper at ICLR 2016 52 [11] Diederik P Kingma, Jimmy Ba, “Adam: A method for Stochastic Optimization” Published as a conference paper at ICLR 2015 [12] Nitish Srivastava, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, Ruslan Salakhutdinov, “Dropout: A Simple Way to Prevent Neural Networks from Overfitting”, Journal of Machine Learning Research 15 (2014) 53 PHỤ LỤC Hai báo đăng tạp chí quốc tế, thuộc hệ thống IEEE “4th International Conference on Green Technology and Sustainable Development – GTSD 2018”: [1] Minh-Thien Duong, Truong-Dong Do and My-Ha Le, “Navigating Self- Driving Vehicles Using Convolutional Neural Network”, 2018 4th International Conference on Green Technology and Sustainable Development (GTSD) IEEE, 2018 p 607-610 [2] Truong-Dong Do, Minh-Thien Duong, Quoc-Vu Dang and My-Ha Le, “Real-Time Self-Driving Car Navigation Using Deep Neural Network”, 2018 4th International Conference on Green Technology and Sustainable Development (GTSD) IEEE, 2018 p 7-12 54 S K L 0 ... tài ? ?Điều hướng xe tự hành dung trí tuệ nhân tạo? ?? có giới hạn như: chưa chạy môi trường ban đêm, sương mù quỹ đạo di chuyển đơn giản 1.4 Nội dung đề tài Đề tài ? ?Điều hướng xe tự hành dung trí tuệ. .. hiểm đốn trước Hình 2.1: Sự phát triển xe tự hành tương lai 2.2 Tổng quan trí tuệ nhân tạo 2.2.1 Trí tuệ nhân tạo (Artificial Intelligence- AI) Trí tuệ nhân tạo (AI) có sức mạnh phân chia nhiều... .3 Chương 2: CƠ SỞ LÝ THUYẾT CỦA XE TỰ HÀNH .4 2.1 Giới thiệu xe tự hành 2.2 Tổng quan trí tuệ nhân tạo 2.2.1 Trí tuệ nhân tạo (Artificial Intelligence- AI) 2.2.2

Ngày đăng: 11/12/2022, 19:02

Tài liệu cùng người dùng

  • Đang cập nhật ...

Tài liệu liên quan