Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống
1
/ 72 trang
THÔNG TIN TÀI LIỆU
Thông tin cơ bản
Định dạng
Số trang
72
Dung lượng
3,21 MB
Nội dung
BỘ GIÁO DỤC VÀ ĐÀO TẠO TRƯỜNG ĐẠI HỌC SƯ PHẠM KỸ THUẬT THÀNH PHỐ HỒ CHÍ MINH LUẬN VĂN THẠC SĨ DƯƠNG MINH THIỆN ĐIỀU HƯỚNG XE TỰ HÀNH DÙNG TRÍ TUỆ NHÂN TẠO NGÀNH: KỸ THUẬT ĐIỀU KHIỂN VÀ TỰ ĐỘNG HÓA - 8520216 S K C0 Tp Hồ Chí Minh, tháng 04/2019 BỘ GIÁO DỤC VÀ ĐÀO TẠO TRƯỜNG ĐẠI HỌC SƯ PHẠM KỸ THUẬT THÀNH PHỐ HỒ CHÍ MINH LUẬN VĂN THẠC SĨ DƯƠNG MINH THIỆN ĐIỀU HƯỚNG XE TỰ HÀNH DÙNG TRÍ TUỆ NHÂN TẠO NGÀNH: KỸ THUẬT ĐIỀU KHIỂN VÀ TỰ ĐỘNG HĨA - 8520216 Tp Hồ Chí Minh, tháng 04/2019 BỘ GIÁO DỤC VÀ ĐÀO TẠO TRƯỜNG ĐẠI HỌC SƯ PHẠM KỸ THUẬT THÀNH PHỐ HỒ CHÍ MINH LUẬN VĂN THẠC SĨ DƯƠNG MINH THIỆN ĐIỀU HƯỚNG XE TỰ HÀNH DÙNG TRÍ TUỆ NHÂN TẠO NGÀNH: KỸ THUẬT ĐIỀU KHIỂN VÀ TỰ ĐỘNG HÓA - 8520216 Hướng dẫn khoa học: TS LÊ MỸ HÀ Tp Hồ Chí Minh, tháng 04/2019 ii QUYẾT ĐỊNH GIAO ĐỀ TÀI i LÝ LỊCH KHOA HỌC I LÝ LỊCH SƠ LƯỢC: Họ & tên: Dương Minh Thiện Giới tính: Nam Ngày, tháng, năm sinh: 22/06/1994 Nơi sinh: Bà Rịa Vũng Tàu Quê quán: Bà Rịa Vũng Tàu Dân tộc: Kinh Địa liên lạc: 167/1/7 Võ Thị Sáu, Thị Trấn Long Điền, Huyện Long Điền, Tỉnh Bà Rịa Vũng Tàu Điện thoại liên hệ: 0909 196 940 E-mail: duongthien2206@gmail.com II QUÁ TRÌNH ĐÀO TẠO: Đại học: Hệ đào tạo: Chính qui Thời gian đào tạo: từ 09/2012 đến 12/2016 Nơi học: Trường Đại Học Sư Phạm Kỹ Thuật Thành Phố Hồ Chí Minh Ngành học: Cơng Nghệ Kỹ Thuật Điều Khiển & Tự Động Hóa Tên đồ án, luận án môn thi tốt nghiệp: Thiết Kế, Thi Công Lập Trình Điều Khiển Cánh Tay Máy Gắp Vật Thể Sử Dụng Thuật Tốn Nhận Dạng Màu Sắc Hình Khối Ngày & nơi bảo vệ đồ án tốt nghiệp: tháng 07/2016 Trường Đại Học Sư Phạm Kỹ Thuật Thành Phố Hồ Chí Minh Người hướng dẫn: TS Nguyễn Văn Thái III Q TRÌNH CƠNG TÁC CHUN MƠN KỂ TỪ KHI TỐT NGHIỆP ĐẠI HỌC: Thời gian Nơi công tác 9/201612/2017 Công Ty TNHH Phần Mềm FPT Kỹ sư lập trình Đại Học Sư Phạm Kỹ Thuật Thành Phố Hồ Chí Minh Học viên cao học 10/2017- Cơng việc đảm nhiệm LỜI CAM ĐOAN Tôi cam đoan cơng trình nghiên cứu tơi Các số liệu, kết nêu luận văn trung thực chưa cơng bố cơng trình khác Tp Hồ Chí Minh, ngày 13 tháng 04 năm 2019 (Ký tên ghi rõ họ tên) LỜI CẢM ƠN Trong suốt trình thực đề tài, với giúp đỡ nhiệt tình q thầy cơ, hướng dẫn mặt từ thiết kế phần cứng đến phần mềm điều khiển yếu tố định đến thành công đề tài ngày hôm Tôi xin chân thành gửi lời cảm ơn đến: Giảng viên hướng dẫn TS Lê Mỹ Hà định hướng, nhiệt tình giúp đỡ, bảo tận tình tạo điều kiện tốt cho làm việc phịng thí nghiệm (ISLab) suốt q trình thực đề tài Tôi xin gửi lời cảm ơn đến tồn q thầy Khoa Điện – Điện tử Bộ môn Tư Động Điều Khiển giúp đỡ tơi nhiều q trình thực đề tài đóng góp ý kiến tạo điều kiện thuận lợi giúp đề tài hoàn thiện Tôi xin gửi lời cảm ơn đến tập thể lớp cao học TĐH17B, trình làm đề tài anh chị có ý kiến thiết thực giúp đỡ việc thiết kế thi công đề tài Cuối cùng, xin gửi lời cảm ơn chân thành tới nhà trường, thầy cô, cha mẹ bạn bè động viên giúp đỡ suốt q trình thực đề tài Tơi xin chân thành cảm ơn! TĨM TẮT Trong đề tài này, mơ hình xe tự lái dựa thị giác máy sử dụng mạng nơron học sâu máy tính Raspberry Pi đề xuất Xe tự lái lĩnh vực quan tâm nghiên cứu nhiều năm gần nhờ vào phát triển mạnh mẽ công nghệ phần cứng phần mềm liên quan đến khả tự lái hồn tồn, khơng có can thiệp người Cấp độ phương tiện tự hành đạt tương lai gần Việc sử dụng điện tử trí tuệ nhân tạo (AI) hỗ trợ người lái xe điều khiển kiểm soát phương tiện cách dễ dàng Điều đóng góp nhiều cho vấn đề giao thơng nay, có xe tự hành, khơng cịn kẹt xe, hạn chế tai nạn giao thơng người Mạng nơron tích chập (CNN) chứng minh có hiệu suất đáng kể nhiều toán nhận dạng điều khiển so với kỹ thuật khác thời gian gần Những yếu tố định kết ấn tượng khả học hàng triệu thơng số sử dụng lượng lớn liệu gán nhãn Ở đây, tác giả tập trung vào việc tìm kiếm model trực tiếp ánh xạ hình ảnh đầu vào đến góc lái dự đốn đầu mạng nơron học sâu Việc thực luận văn bao gồm ba việc Đầu tiên, thông số model CNN huấn luyện cách sử dụng liệu thu thập từ xe mơ hình tỉ lệ 1/10, gắn máy tính Raspberry Pi Model B camera phía trước Dữ liệu dùng để huấn luyện mạng hình ảnh đường góc lái đồng với thời gian thu thập lúc xe lái Tiếp theo, liệu chuyển sang máy tính dùng để huấn luyện cho model điều hướng xe Cuối cùng, thực nghiệm model máy tính Raspberry để xe tự chạy mơi trường ngồi trời, xung quanh đường trịn đường số có biển báo giao thơng Kết thực nghiệm cho thấy tính hiệu mạnh mẽ model lái tự động việc giữ đường thời gian thực Tốc độ tối đa xe khoảng 5-6km/h nhiều điều kiện lái khác nhau, vạch đường có bị che khuất hay khơng ABSTRACT In this thesis, a monocular vision-based self-driving car prototype using Deep Neural Network on Raspberry Pi is proposed Self-driving cars are one of the most increasing interests in recent years as the definitely developing relevant hardware and software technologies toward fully autonomous driving capability with no human intervention Level-3/4 autonomous vehicles are potentially turning into a reality in near future It involves the use of Mechatronics and Artificial Intelligence (AI) to control the vehicle, thereby taking the responsibilities of the driver, providing a more manageable control over it And a swarm of autonomous vehicles could just be the solution to our traffic problems: no traffic jam, no road accidents, no delayed journey Convolutional Neural Networks (CNNs) have been shown to achieve significant performance in various perception and control tasks in comparison to other techniques in the latest years The key factors behind these impressive results are their ability to learn millions of parameters using a large amount of labeled data In this work, we concentrate on finding a model that directly maps raw input images to a predicted steering angle as output using a deep neural network The technical contributions of this work are three-fold First, the CNN model parameters were trained by using data collected from vehicle platform built with a 1/10 scale RC car, Raspberry Pi Model B computer and front-facing camera The training data were road images paired with the time-synchronized steering angle generated by manually driving Second, the stored data is then transferred to a desktop computer and used for training the model to autonomously navigate the car Finally, road tests the model on Raspberry to drive itself in the outdoor environment around oval-shaped and 8-shaped with traffic sign lined track The experimental results demonstrate the effectiveness and robustness of autopilot model in real-time lane keeping task Vehicle’s top speed is about 5-6km/h in a wide variety of driving conditions, regardless of whether lane markings are present or not MỤC LỤC LÝ LỊCH KHOA HỌC i LỜI CAM ĐOAN iii LỜI CẢM ƠN iv TÓM TẮT v ABSTRACT vi MỤC LỤC vii DANH MỤC CÁC CHỮ VIẾT TẮT ix DANH MỤC CÁC BẢNG BIỂU x DANH MỤC CÁC HÌNH ẢNH VÀ BIỂU ĐỒ xi Chương 1: TỔNG QUAN 1.1 Đặt vấn đề 1.2 Mục tiêu đề tài 1.3 Giới hạn đề tài 1.4 Nội dung đề tài Chương 2: CƠ SỞ LÝ THUYẾT CỦA XE TỰ HÀNH 2.1 Giới thiệu xe tự hành 2.2 Tổng quan trí tuệ nhân tạo 2.2.1 Trí tuệ nhân tạo (Artificial Intelligence- AI) 2.2.2 Machine Learning 2.2.3 Deep Learning 12 2.3 Convolutional Neural Network (CNN) 16 2.4 Bộ điều khiển PID 25 Chương 3: THIẾT KẾ VÀ LỰA CHỌN THIẾT BỊ 27 3.1 Các thành phần phần cứng 27 3.1.1 Xe điều khiển Trophy Truck 27 3.1.2 Động Brushed Motor RC-540PH 28 3.1.3 Động RC Servo TowerPro MG946R 29 3.1.4 Waterproof Brushed ESC Controller WP-1040 29 3.1.5 Raspberry Pi Model B 30 3.1.6 Raspberry Pi Power Pack 31 Lớp thực chuẩn hóa tất ảnh có giá trị pixel từ -1 đến Các lớp pooling thiết kế thực nghiệm, tác giả sử dụng kernel có kích thước 5x5 với khơng bước trượt cho lớp đầu tiên, kernel có kích thức 3x3 khơng có bước trượt Độ sâu tương ứng lớp 16, 32 64 Các lớp max-pooling xen kẽ với lớp tích chập Lớp max-pooling cơng cụ mạnh mẽ thường CNN sử dụng Đây phương pháp thay đổi kích thước hình ảnh lớn giữ lại thông tin quan trọng chúng Nó liên quan đến việc trượt khung cửa sổ nhỏ dọc theo hình ảnh nhận giá trị tối đa từ cửa sổ bước Sau gộp, hình ảnh có khoảng phần tư pixel so với đầu Điều làm giảm số lượng hyperparameters cần phải tính tốn, từ giảm thời gian tính tốn tránh việc overfitting Tất lớp max- pooling chọn với kernel 2x2 khơng bước trượt Các lớp kết nối hồn tồn thiết kế với việc giảm dần kích thước: 19456 500 Lớp đầu chắn nơtron mơ hình chúng tơi dự đốn giá trị lệnh điều khiển đầu cho góc lái Bên cạnh đó, chúng tơi sử dụng kích hoạt lớp ELUs (đơn vị tuyến tính theo cấp số nhân) theo lớp co giãn để cải thiện hội tụ Các ELU chức cố gắng kích hoạt trung bình gần khơng để tăng tốc độ học tập Nó ELUs có độ xác phân loại cao so với ReLUs [10] Đầu lớp ReLU có kích thước với đầu vào, khác biệt tất giá trị âm hình ảnh bị xóa sau x; x f (x) x a(e 1); x Với a siêu tham số điều kiện a (4) Đối với đề tài này, sử dụng hàm MSE (Mean-Square-Loss) Chức thơng thường sử dụng cho tốn hồi quy mà đơn giản giá trị trung bình tổng bình phương khác biệt kết thực tế dự đoán MSE 2 y y n i i (5) Để tối ưu hóa mát này, thuật tốn tối ưu hóa Adam sử dụng Thuật tốn tối ưu hóa thường chọn cho ứng dụng học tập sâu Tác giả sử dụng tham số mặc định Adam cung cấp Keras (learning rate of 0.001, 1 0.9 , 2 0.999 , 1e and decay = 0) [11] Mạng nơron giải mã chứa nhiều lớp ẩn phi tuyến tính, điều làm cho chúng trở thành mơ hình phức tạp dẫn đến mối quan hệ phức tạp đầu vào đầu chúng Để làm cho kiến trúc mạnh mẽ để ngăn chặn vấn đề overfitting, lớp dropout thêm vào mạng thực Việc bỏ học vơ hiệu hóa tế bào thần kinh mạng xác suất định ngăn cản đồng thích hợp đối tượng Đối với nghiên cứu này, tác giả áp dụng tỷ lệ dropout 20% [12] (Hình 4.4) a) b) Hình 4.4: Lớp dropout a) mạng nơ-ron tiêu chuẩn, b) mạng nơ-ron sau áp dụng dropout 4.4 Phần mềm thư viện sử dụng để lập trình 4.4.1 Giới thiệu thư viện Tensorflow TensorFlow thư viện phần mềm mã nguồn mở dành cho máy học nhiều loại hình tác vụ nhận thức hiểu ngôn ngữ Chạy desktop Linux Mac OS X 64-bit hệ thống máy chủ, tảng điện toán di động, bao gồm Android iOS Apple TensorFlow chạy nhiều CPU GPU TensorFlow cung cấp API Python, tài liệu API C/C++ 4.4.2 Giới thiệu thư viện Keras Keras framework machine learning viết Python nhằm giảm thiểu thời gian việc lên ý tưởng giai đoạn thực chúng Nó bao gồm hai API high-level: Keras Sequential Keras Functional Nó sử dụng chung với thư viện Deep Learning tiếng Tensorflow Dễ sử dụng, xây dựng model nhanh Keras run CPUvà GPU Hỗ trợ xây dựng CNN, RNN kết hợp hai Chương 5: THỰC NGHIỆM Trong chương này, liệu thu thập sử dụng để huấn luyện kiến trúc mạng chương kết thực nghiệm trình bày Điều bao gồm (1) mơi trường thực nghiệm để thu thập liệu, (2) mô tả tập liệu, (3) phương pháp để tạo nhiều liệu khác nhau, (4) kết trình huấn luyện thử nghiệm 5.1 Môi trường thực nghiệm b) a) c) Hình 5.1: Quỹ đạo thực nghiệm 1: (a) Quỹ đạo hình bầu dục.(b) góc rẽ đường (c) mơ hình xe di chuyển theo quỹ đạo b) a) c) Hình 5.2:Quỹ đạo thực nghiệm 2: (a) quỹ đạo hình số (b) (c) biển báo hiệu đường Để thu thập liệu đào tạo, chúng tơi điều khiển mơ hình xe tự hành theo quỹ đạo trời tạo mặt phẳng rải nhựa để thu thập hình ảnh có đánh dấu thời gian Đường viền hình bầu dục đường dài 50 mét rộng 70 cm với đường viền dải băng rộng 10 cm Hình 5.1 Chiếc xe điều khiển để rẽ trái rẽ phải đường cong bán kính mét thời điểm Đường viền hình số bao gồm hai vịng trịn tạo hình thành giao lộ ngang tiếp tuyến thể Hình 5.2 Quỹ đạo dài 40 mét có đường cong bên phải bên trái Bán kính đường cong mét Có bốn biển báo giao thơng có đường kính 15 cm dựng lên mép ngồi đường để hướng dẫn cho xe 5.2 Mô tả tập liệu Chuẩn bị liệu vấn đề cần thiết làm việc với mạng học tập sâu Raspberry Pi ghi lại hình ảnh thơng tin lái xe từ người dùng tay lái xe xung quanh đường đua với tốc độ 5-6km / h Dữ liệu thu thập chứa 15.500 hình ảnh ghép lại với góc lái Độ phân giải ban đầu hình ảnh 160x120 Pi Camera cấu hình để chụp tốc độ 10 khung hình / giây với thời gian phơi sáng 5000us để tránh tượng mờ rung động xe lái đường Các hình ảnh mẫu tập liệu thể Hình 5.3 Hình 5.3: Tập liệu thu thập được: (a) mẫu từ tập liệu lái xe (b), (c) (d) hình ảnh điển hình tập liệu 5.3 Các phương pháp để tạo nhiều liệu khác Mô hình học tập sâu có xu hướng vượt q tập liệu nhỏ có q mẫu để đào tạo, dẫn đến mơ hình có hiệu suất tổng quát Tăng cường liệu công nghệ chuyên dụng tạo nhiều trường hợp liệu huấn luyện cách tạo mẫu thông qua việc biến đổi ngẫu nhiên mẫu có Phương pháp làm tăng số lượng tập huấn luyện Các phép biến đổi thông thường là lật ngang, điều chỉnh độ sáng, tạo bóng ngẫu nhiên, thay đổi chiều cao chiều rộng ảnh (hình 5.4) Hình 5.4: Ví dụ phương pháp tạo thêm liệu huấn luyện 5.4 Quá trình huấn luyện Từ tập liệu lưu trữ, tác giả chia chúng thành hai phần riêng biệt Một liệu huấn luyện liệu thử nghiệm với tỷ lệ 80:20 Một sơ đồ huấn luyện thể Hình 5.5 Tác giả tận dụng lợi GPU NVIDIA GeForce GT 740M với nhớ 2GB có sẵn để huấn luyện mạng với ba lần, 30, 50, 100 chu kỳ (Bảng 5.1) Hình 5.5: Sơ đồ huấn luyện cho mơ hình xe tự hành Tổng thời gian mà thực đào tạo kết hợp với 100 chu kỳ cho 15500 mẫu khoảng 280 phút Do đó, trung bình chu kỳ 168 giây để hoàn thành Một số hình ảnh đại diện cho lớp tích chập thể hình 5.6 Bảng 5.1: Sự ảnh hưởng chu kỳ huấn luyện đến độ xác mơ hình Số thứ tự Số lượng mẫu huấn luyện Chu kỳ huấn luyện Thời gian huấn luyện Độ xác 15500 30 92 minutes 97,08% 15500 50 155 minutes 97,77% 15500 100 280 minutes 98,23% a) b) c) d) Hình 5.6: Trực quan lớp tích chập a) ảnh gốc b), c) d) lớp tích chập thứ 1,2 5.5 Kết thực nghiệm trời: Sau huấn luyện laptop, mơ hình chép trở lại Raspberry Pi Mạng sau điều khiển xe sử dụng để cấp khung hình từ Camera Pi làm đầu vào Trong giai đoạn điều khiển, giây 10 hình ảnh xử lý tốc độ tối đa xe xung quanh đường cong khoảng 5-6 km/h Mơ hình dự đốn góc lái đạt độ xác thuyết phục, cụ thể 98,23% (Hình 5.7) Kết thí nghiệm dựa mơ hình xe tự hành tự động điều hướng hai quỹ đạo với điều kiện lái xe đa dạng, cho dù dấu hiệu đường có hay khơng Giá trị góc lái dự đốn tương đối xác (Hình 5.8) Hình 5.7: Độ xác mạng CNN đề xuất Hình 5.8: Giá trị góc lái dự đoán Chương 6: KẾT LUẬN VÀ HƯỚNG PHÁT TRIỂN 6.1 Kết luận Ưu điểm nghiên cứu là: Tác giả ứng dụng mạng neural học sâu cấu hình phần cứng thấp chạy thực nghiệm cho kết thuyết phục, cụ thể 98,23% Ngoài ra, luận văn kết hợp nhận dạng biển báo giao thơng xe tự hành mơ hình thực tế Đề tài cịn mở rộng phạm vi ứng dụng loại robot xe tự hành thực môi trường khác Dữ liệu vấn đề quan trọng dẫn đến độ xác mơ hình (Bảng 6.1) Hơn nữa, tăng chu kỳ huấn luyện để mơ hình tiếp cận đến vị trí hội tụ cách để có mơ hình với kết thuyết phục (Bảng 5.1) Bảng 6.1: Sự ảnh hưởng số lượng mẫu huấn luyện đến độ xác mơ hình Số thứ tự Số lượng mẫu huấn luyện 10000 Chu kỳ huấn luyện 100 Thời gian huấn luyện 173 minutes Độ xác 12500 15500 100 100 212 minutes 280 minutes 97,15% 98,23% 96,78% Nhược điểm: tác giả quan sát thấy trình huấn luyện / thực nghiệm mơ hình xảy vấn đề độ trễ máy ảnh Việc định nghĩa khoảng thời gian từ cảm biến máy ảnh quan sát trường đến máy tính thực đọc liệu hình ảnh số Thật khơng may, thời gian dài đáng kể tùy thuộc vào máy ảnh hiệu suất Pi, khoảng 300-350 mili giây Điều cao đáng kể so với độ trễ nhận thức người Độ trễ máy ảnh cao ảnh hưởng tiêu cực đến hiệu suất điều khiển, đặc biệt ứng dụng quan trọng an toàn, mạng thần kinh học sâu phân tích cảnh cũ 6.2 Hướng phát triển Tóm lại, tác giả tạo mơ hình dự đốn góc lái mơ hình xe tự hành sử dụng mạng nơ-ron tích chập Mặc dù đạt kết khả quan tương lai gần, tác giả tiếp cận số nghiên cứu sau đây: 1) Nghiên cứu cải thiện độ xác mơ hình tốt vấn đề mà nhóm quan tâm 2) Xác định sử dụng máy ảnh có tốc độ sập cao cải thiện hiệu suất mơ hình xe tự hành 3) Thêm phần huấn luyện giá trị tốc độ mơ hình xe tự hành với tham vọng xe chạy tốc độ cao xác TÀI LIỆU THAM KHẢO [1] Minh-Thien Duong, Truong-Dong Do and My-Ha Le, “Navigating Self- Driving Vehicles Using Convolutional Neural Network”, 2018 4th International Conference on Green Technology and Sustainable Development (GTSD) IEEE, 2018 p 607-610 [2] S G Jeong et al., “Real time lane detection for autonomous navigation,” in Proc IEEE Intell Transp Syst., Aug 2001, pp 508–513 [3] K A Redmill, S Upadhya, A Krishnamurthy, and Ü Özgüner, “A lane tracking system for intelligent vehicle application,” in Proc IEEE Intell.Transp Syst., Aug 2001, pp 273–279 [4] Hsu-Yung Cheng, Bor-Shenn Jeng, Pei-Ting Tseng, and Kuo-Chin Fan, “Lane Detection with Moving Vehicles in Traffic Scenes”, IEE Transactions on intelligent transportation systems, vol 7, No.4, December 2006 [5] Kamarul Ghazali, Rui Xiao, Jie Ma, “Road Lane Detection Using H- Maxima and Improve Hough Transform”, 2012 Fourth International Conference on Computational Intelligence, Modelling and Simulation [6] Mohamed Aly, “Real time Detection of Lane Markers in Urban Streets” 2008 IEEE Intelligent Vehicles Symposium Eindhoven University of Technology Eindhoven, The Netherlands, June 4-6, 2008 [7] S Hong, M Hyung Lee, S Hong Kwon and H Hwan Chun, “A car test for the estimation of GPS/INS alignment errors,” IEEE Trans Intell Trans Syst 5(3), 208–218 (2004) [8] Vicente Milanés, José E Naranjo, Carlos González, Javier Alonso and Teresa de Pedro, “ Autonomous vehicle based in cooperative GPS and inertial systems”, Robotica (2008) volume 26, pp 627-633, Cambridge University Press [9] Araki M, “PID Control” Control systems robotics and automation – Vol II [10] Djork-Arné Clevert, Thomas Unterthiner, Sepp Hochreiter, "Fast and Accurate Deep Network Learning by Exponential Linear Units (ELUs)" Published as a conference paper at ICLR 2016 [11] Diederik P Kingma, Jimmy Ba, “Adam: A method for Stochastic Optimization” Published as a conference paper at ICLR 2015 [12] Nitish Srivastava, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, Ruslan Salakhutdinov, “Dropout: A Simple Way to Prevent Neural Networks from Overfitting”, Journal of Machine Learning Research 15 (2014) PHỤ LỤC Hai báo đăng tạp chí quốc tế, thuộc hệ thống IEEE “4th International Conference on Green Technology and Sustainable Development – GTSD 2018”: [1] Minh-Thien Duong, Truong-Dong Do and My-Ha Le, “Navigating Self- Driving Vehicles Using Convolutional Neural Network”, 2018 4th International Conference on Green Technology and Sustainable Development (GTSD) IEEE, 2018 p 607-610 [2] Truong-Dong Do, Minh-Thien Duong, Quoc-Vu Dang and My-Ha Le, “Real-Time Self-Driving Car Navigation Using Deep Neural Network”, 2018 4th International Conference on Green Technology and Sustainable Development (GTSD) IEEE, 2018 p 7-12