1. Trang chủ
  2. » Luận Văn - Báo Cáo

Nhận diện hành động sử dụng hệ thống radar fmcw và mô hình học sâu

97 1 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

ĐẠI HỌC QUỐC GIA TP HCM TRƯỜNG ĐẠI HỌC BÁCH KHOA NGUYỄN CHÁNH TRỰC NHẬN DIỆN HÀNH ĐỘNG SỬ DỤNG HỆ THỐNG RADAR FMCW VÀ MƠ HÌNH HỌC SÂU Chuyên ngành : Kỹ Thuật Viễn Thông Mã số: 8520208 LUẬN VĂN THẠC SĨ TP HỒ CHÍ MINH, tháng năm 2023 CƠNG TRÌNH ĐƯỢC HỒN THÀNH TẠI TRƯỜNG ĐẠI HỌC BÁCH KHOA –ĐHQG -HCM Cán hướng dẫn khoa học 1: TS Trịnh Xuân Dũng Cán hướng dẫn khoa học 2: TS Võ Tuấn Kiệt Cán chấm nhận xét : TS Huỳnh Phú Minh Cường Cán chấm nhận xét : TS Huỳnh Thế Thiện Luận văn thạc sĩ bảo vệ Trường Đại học Bách Khoa, ĐHQG Tp HCM ngày tháng năm 2023 Thành phần Hội đồng đánh giá luận văn thạc sĩ gồm: GS.TS Lê Tiến Thường (Chủ tịch hội đồng) TS Nguyễn Đình Long (Thư Ký) TS Huỳnh Phú Minh Cường (Phản biện 1) TS Huỳnh Thế Thiện (Phản biện 2) PGS.TS Đỗ Hồng Tuấn (Ủy viên) Xác nhận Chủ tịch Hội đồng đánh giá LV Trưởng Khoa quản lý chuyên ngành sau luận văn sửa chữa (nếu có) CHỦ TỊCH HỘI ĐỒNG TRƯỞNG KHOA ĐIỆN – ĐIỆN TỬ ĐẠI HỌC QUỐC GIA TP.HCM TRƯỜNG ĐẠI HỌC BÁCH KHOA CỘNG HÒA XÃ HỘI CHỦ NGHĨA VIỆT NAM Độc lập - Tự - Hạnh phúc NHIỆM VỤ LUẬN VĂN THẠC SĨ Họ tên học viên: Nguyễn Chánh Trực MSHV: 1970670 Ngày, tháng, năm sinh: 04/04/1995 Nơi sinh: An Giang Chuyên ngành: Điện tử - viễn thông Mã số: 8520208 I TÊN ĐỀ TÀI: Nhận diện hành động sử dụng hệ thống Radar FMCW mơ hình học sâu Tên Tiếng Anh: Dynamic Gesture Recognition based on FMCW Radar with Deep Learning II NHIỆM VỤ VÀ NỘI DUNG: - Nghiên cứu hệ thống Radar FMCW ứng dụng hệ thống Radar đo đạc thông số khoảng cách vận tốc đối tượng - Xây dựng mơ hình thu thập liệu cử sử dụng hệ thống Radar FMCW - Xây dựng giải thuật nhận diện hành động sử dụng liệu thu thập hệ thống Radar FMCW kết hợp mơ hình học sâu - Đánh giá hiệu giải thuật nhận diện hành động với tập liệu đo đạc thực nghiệm Module Radar FMCW III NGÀY GIAO NHIỆM VỤ: 02/2023 IV NGÀY HOÀN THÀNH NHIỆM VỤ: 06/2023 V CÁN BỘ HƯỚNG DẪN: Tiến sĩ Trịnh Xuân Dũng, Tiến sĩ Võ Tuấn Kiệt Tp HCM, ngày 10 tháng năm 2023 CÁN BỘ HƯỚNG DẪN (Họ tên chữ ký) TS Trịnh Xuân Dũng CHỦ NHIỆM BỘ MÔN ĐÀO TẠO (Họ tên chữ ký) TS Võ Tuấn Kiệt TRƯỞNG KHOA ĐIỆN – ĐIỆN TỬ (Họ tên chữ ký) LỜI CÁM ƠN Lời đầu tiên, xin gửi lời cảm ơn chân thành sâu sắc đến TS Trịnh Xuân Dũng, người Thầy – vô nhiệt huyết, tận tâm nguồn kiến thức tuyệt vời – hướng dẫn giúp đỡ từ năm tháng đại học đến người đồng hành hỗ trợ tơi suốt q trình thực luận văn thạc sĩ Bên cạnh tơi xin gửi lời cảm ơn đến TS Võ Tuấn Kiệt người Thầy tận tình hướng dẫn tơi học sâu lĩnh vực mà tơi cịn thiếu nhiều kiến thức Tôi xin gửi lời cảm ớn đến quý Thầy Khoa Điện – Điện Tử hướng dẫn nhiệt huyết qua môn học từ lúc Đại học Cao học, dù dù nhiều góp phần củng cố bồi đắp kiến thức để có khả hồn thành luận văn Bên cạnh đó, xin cám ơn anh em bạn bè gần xa hỗ trợ mặt kỹ thuật trình thực đề tài luận văn Tôi xin gửi lời cảm ơn đến môn Viễn Thông, khoa Điện – Điện Tử, trường Đại học Bách Khoa – ĐHQG TP HCM hỗ trợ có điều kiện sở vật chất, phịng học để tơi hồn thành luận văn cách tốt nhất! TP HCM, ngày 07, tháng 06 năm 2023 Nguyễn Chánh Trực i TÓM TẮT LUẬN VĂN Ngày nay, nhiều công nghệ nhận diện hành động không tiếp xúc đẩy mạnh phát triển đặc biệt bùng nổ ứng dụng thực tế ảo tăng cường, bao gồm cơng nghệ nhận diện hệ thống Radar FMCW kết hợp với học sâu đem lại nhiều kết đáng mong đợi Luận văn trình bày ứng dụng hệ thống Radar FMCW mmWave, kết hợp thuật toán nhận diện dựa mơ hình học sâu gồm CONV1D, LSTM Transformer toán nhận dạng hành động Các tập liệu toán nhận dạng hành động xây đựng bao gồm tập liệu công bố liệu tự thu thập thực tế Các mô hình tiến hành huấn luyện đánh giá dựa tập liệu xây dựng Mơ hình LSTM sau huấn luyện tập liệu đánh giá tập liệu khác bị giảm độ xác ba mơ hình có độ xác cao (99.17%) sau so sánh với hai mơ hình cịn lại Từ thấy mơ hình LSTM mơ hình phù hợp cho ứng dụng Ngồi ra, luận văn cịn phát triển hệ thống nhận diện hành động sử dụng mơ hình huấn luyện module Radar FMCW – IWR1642BOOST qua điều khiển trình ứng dụng âm nhạc máy tính từ số hành động đơn giản ii ABSTRACT Recently, many contactless gesture recognition technologies are being promoted especially the explosion of augmented reality applications The combination of FMCW Radar system and deep learning bring many desirable results This thesis introduces the application of the FMCW mmWave Radar system with recognition algorithms based on deep learning models including CONV1D, LSTM and Transformer in gesture recognition problems The data sets in the gesture recognition problems are built with published data sets and actual self-collected data The models are trained and evaluated based on the built data set After being trained on this dataset and evaluated on another dataset, LSTM model has the least accuracy reduction in the three models and also has the highest accuracy (99.17%) when comparing with other two models From there, it can be seen that the LSTM model is the suitable model for the radar gesture recognition applications In addition, the thesis also develops an gesture recognition system using the trained model and FMCW Radar module - IWR1642BOOST, thereby controlling the music application on the computer from a number of simple gestures iii LỜI CAM ĐOAN Tôi tên Nguyễn Chánh Trực, học viên cao học chun ngành Kỹ thuật Viễn thơng, khóa 2019, Đại học Quốc gia thành phố Hồ Chí Minh – Trường Đại học Bách Khoa Tôi xin cam đoan nội dung sau thật: - Cơng trình nghiên cứu hồn tồn tơi thực hướng dẫn TS Trịnh Xuân Dũng TS Võ Tuấn Kiệt - Các tài liệu trích dẫn luận văn tham khảo từ nguồn thực tế, có uy tín độ xác cao - Các số liệu kết cơng trình thực cách độc lập trung thực TP HCM, ngày 07, tháng 06 năm 2023 Nguyễn Chánh Trực iv MỤC LỤC LỜI CÁM ƠN i TÓM TẮT LUẬN VĂN ii ABSTRACT iii LỜI CAM ĐOAN iv MỤC LỤC v DANH SÁCH HÌNH VẼ viii DANH SÁCH TỪ VIẾT TẮT xi CHƯƠNG GIỚI THIỆU 1.1 Đặt vấn đề 1.2 Mục tiêu nhiệm vụ luận văn 1.2.1 Mục tiêu 1.2.2 Nhiệm vụ luận văn 1.3 Đối tượng phạm vi nghiên cứu 1.3.1 Đối tượng nghiên cứu 1.3.2 Phạm vi nghiên cứu 1.4 Phương pháp nghiên cứu 1.5 Bố cục luận văn CHƯƠNG TỔNG QUAN CÁC VẤN ĐỀ NGHIÊN CỨU VÀ CƠ SỞ LÝ THUYẾT LIÊN QUAN 2.1 Hệ thống nhận diện hành động 2.2 Hệ thống nhận diện hành động Radar FMCW 2.3 Tổng quan hệ thống Radar FMCW 2.3.1 Cấu tạo chế hoạt động hệ thống Radar FMCW 2.3.2 Khoảng cách vật thể Radar độ phân giải khoảng cách 12 2.3.3 Vận tốc vật thể Radar độ phân giải vận tốc 16 2.3.4 Góc đến từ vật thể tới Radar độ phân giải góc đến 22 2.4 Một số lý thuyết học máy học sâu 27 2.4.1 Mạng nơ-ron nhân tạo 27 2.4.2 Hàm kích hoạt 27 2.4.3 Mạng nơ-ron tích chập (CNN) 28 2.4.4 Mạng nơ-ron hồi quy (RNN) 29 2.4.5 Long Short Term Memory (LSTM) 30 2.4.6 Transformer 34 2.5 Kết luận chương 37 CHƯƠNG THỰC HIỆN VÀ PHÂN TÍCH 38 3.1 Khảo sát liệu hành động tay có sẵn 38 v 3.2 Mơ hình lấy mẫu liệu thực tế 42 3.2.1 Tổng quan module IWR1642BOOST 42 3.2.2 Định dạng liệu từ module IWR1642 44 3.2.3 Sơ đồ khối giải thuật lấy mẫu hành động 45 3.2.4 Lấy mẫu liệu 46 3.3 Các mơ hình nhận diện hành động 48 3.3.1 CONV1D 48 3.3.2 LSTM 50 3.3.3 Transformer 51 3.4 Khảo sát kết mơ hình nhận diện huấn luyện 52 3.4.1 CONV1D 52 3.4.2 LSTM 57 3.4.3 Transformer 62 3.4.4 Kết luận 67 3.5 Kết luận chương 70 CHƯƠNG HIỆN THỰC HÓA HỆ THỐNG NHẬN DIỆN HÀNH ĐỘNG BẰNG RADAR FMCW VÀ MƠ HÌNH HỌC SÂU 71 4.1 Tổng quan hệ thống nhận diện hành động 71 4.2 Triển khai xây dựng hệ thống thực nhận diện hành động 71 4.2.1 Mơ hình kết nối phần cứng 71 4.2.2 Mơ hình phần mềm tích hợp vào hệ thống 72 4.3 Kết luận chương 76 CHƯƠNG KẾT LUẬN VÀ HƯỚNG PHÁT TRIỂN KẾ TIẾP 77 5.1 Kết luận chung 77 5.1.1 Các công việc thực 77 5.1.2 Những hạn chế luận văn 78 5.2 Hướng phát triển 78 TÀI LIỆU THAM KHẢO 79 vi DANH SÁCH BẢNG Bảng 2-1: Các hàm kích hoạt thơng dụng 28 Bảng 3-1: Thơng số cấu hình module IWR1642 38 Bảng 3-2: Thống kê số lượng mẫu loại thao tác 39 Bảng 3-3: Thống kê số lượng mẫu loại hành động nhóm test tập liệu cho trước .42 Bảng 3-4: Thông tin Detected object TLV 45 Bảng 3-5: Thống kê số lượng mẫu loại hành động theo người tham gia 47 Bảng 3-6: Thống kê số lượng mẫu loại hành động nhóm test tập liệu lấy mẫu thực tế .47 Bảng 3-7: Kết đánh giá mơ hình CONV1D với nhóm test liệu tương ứng với trường hợp huấn luyện 52 Bảng 3-8: Kết đánh giá mơ hình LSTM với nhóm test liệu tương ứng với trường hợp huấn luyện 57 Bảng 3-9: Kết đánh giá mô hình Transformer với nhóm test liệu tương ứng với trường hợp huấn luyện .62 Bảng 3-10: Thống kê kết đạt sau huấn luyện mơ hình học sâu CONV1D, LSTM, Transformer .67 Bảng 4-1: Ánh xạ loại thao tác với chức điều khiển 75 vii Hình 3-15: Biểu đồ so sánh độ xác mơ hình sau huấn luyện với Tập Số Hình 3-16: Biểu đồ so sánh độ xác mơ hình sau huấn luyện với Tập Số Từ Hình 3-15 Hình 3-16 thấy mơ hình LSTM đánh giá với tập liệu khác tập liệu huấn luyện có độ xác giảm mơ hình Khi mơ hình LSTM huấn luyện với tập liệu cho trước đánh giá với tập liệu lấy mẫu thực tế độ xác giảm 21.44% (từ 97.44% xuống 76%) hai mơ hình cịn lại mạng tích chập chiều Transformer giảm 25.57% (từ 69 97.57% xuống 72%) 42.44% (từ 96.22% xuống 53.78%) Tương tự huấn luyện với tập liệu lấy mẫu thực tế đánh giá với tập liệu cho trước độ xác mơ hình LSTM, CONV1D Transformer giảm 19.73% (từ 97.33% xuống 77.6%), 33.94% (từ 94.67% xuống 60.73%) 28.65% (từ 85.33% xuống 56.68%) Sau huấn luyện với hai tập liệu cho trước lấy mẫu thực tế độ xác mơ hình cải thiện (Hình 3-17), độ xác mơ hình LSTM CONV1D cao (99.17%) đánh giá với hai tập liệu Hình 3-17: Biểu đồ so sánh độ xác mơ hình sau huấn luyện với hai tập liệu Từ đánh giá thấy mơ hình LSTM phù hợp cho hệ thống nhận dạng hành động thỏa mãn độ xác cao bị thay đổi với tập liệu khác 3.5 Kết luận chương Trong chương thành cơng việc xây dụng mơ hình lấy mẫu tiến hành thu thập liệu thực tế, khảo sát tập liệu, huấn luyện so sánh kết nhận dạng mơ hình với tập liệu khác Từ chọn mơ hình phù hợp để xây dựng hệ thống nhận diện hoàn chỉnh 70 CHƯƠNG HIỆN THỰC HÓA HỆ THỐNG NHẬN DIỆN HÀNH ĐỘNG BẰNG RADAR FMCW VÀ MƠ HÌNH HỌC SÂU Trọng tâm chương trình bày việc triển khai hệ thống nhận diện hành động thực tế dựa module Radar FMCW IWR1642Boost dùng mơ hình mạng LSTM huấn luyện với hai tập liệu cho trước tập liệu lấy mẫu thực tế 4.1 Tổng quan hệ thống nhận diện hành động Sơ đồ Hình 4-1 mơ tả tổng quan hệ thống nhận dạng hành động, liệu vận tốc, tọa độ module IWR1642 thu thập gửi máy tính thơng qua giao thức UART theo định dạng TLV Các liệu định dạng TLV khối Data Parser phân tích thành liệu theo frame sau đưa khối Point-cloud Plotter để vẽ điểm liệu giao diện khối Predictor để đưa dự đoán thơng qua mơ hình LSTM huấn luyện với hai tập liệu cho trước lấy mẫu thực tế Hình 4-1: Sơ đồ khối hệ thống nhận dạng hành động 4.2 Triển khai xây dựng hệ thống thực nhận diện hành động 4.2.1 Mơ hình kết nối phần cứng Để thực hệ thống cần có module Radar FMCW IWR1642BOOST máy tính cá nhân dùng để nhận thông tin point-cloud từ radar, thực nhận diện hiển thị kết thơng qua hình 71 Hình 4-2: Sơ đồ kết nối phần cứng hệ thống nhận diện hành động 4.2.2 Mơ hình phần mềm tích hợp vào hệ thống Từ sơ đồ Hình 4-1, thấy khối phần mềm chia thành ba module Pointcloud Plotter, Data Parser, Predictor 4.2.2.1 Data Parser Data Parser có chức trích xuất liệu nhận từ module IWR1642BOOST với định dạng TLV (Hình 3-8) Module Data Parser đọc liệu trả từ UART sau dựa vào chuỗi Magic_Number để bắt đầu trích xuất chuỗi header, từ lấy số lượng chuỗi TLVS Tiếp theo Data Parser trích xuất liệu descriptor chuỗi TLVS chứa thông tin số lượng vật thể phát được, từ lấy liệu tọa độ, vận tốc, v.v Sau truyền vào hàng đợi liệu để hai module cịn lại xử lý 72 Hình 4-3: Sơ đồ giải thuật module Data-Parser 4.2.2.2 Point-cloud Plotter Point-cloud Plotter có chức hiển thị liệu point-cloud trục tọa độ thông qua thư viện matplotlib 73 Hình 4-4: Sơ đồ giải thuật module Point-cloud Plotter 4.2.2.3 Predictor Predictor có chức dự đốn hành động hiển thị kết thơng qua giao diện (Hình 4-5) Predictor lấy liệu frame từ hàng đợi, đưa vào chuỗi liệu sequence thời gian từ frame frame vừa lấy lớn 0.5 giây số frame sequence lớn 3, predictor tiến hành dự đốn tới mơ hình huấn luyện hiển thị hành động dự đốn lên giao diện 74 Hình 4-5: Sơ đồ giải thuật module Predictor 4.2.2.4 Ánh xạ hành động nhận diện để điều khiển máy tính Các hành động đơn giản UP, DOWN, LEFT, RIGHT, CW CCW ánh xạ với hành động điều khiển Bảng 4-1 Sáu hành động chọn để thực ứng dụng hành động có tính đơn giản, người dùng dễ thực có độ xác nhận dạng cao so với hành động X, Z S Bảng 4-1: Ánh xạ loại thao tác với chức điều khiển Loại thao tác Chức UP – Đưa tay lên Tăng âm lượng DOWN – Đưa tay xuống Giảm âm lượng LEFT – Đưa tay sang trái Chuyển đến nhạc trước 75 RIGHT – Đưa tay sang phải Chuyển đến nhạc sau CW – Đưa tay thuận chiều kim đồng hồ Đừng/Mở nhạc CCW – Đưa tay ngược chiều kim đồng hồ Tắt âm lượng 4.3 Kết luận chương Hệ thống thực thu thập nhận diện hành động triển khai thành công với module Radar FMCW IWR1642BOOST mơ hình học sâu Bên cạnh cịn dùng hành động để điều khiển hoạt động máy tính Hình 4-6: Điều khiển tăng âm lượng thao tác đưa tay lên Hình 4-7: Điều khiển giảm âm lượng thao tác đưa tay xuống 76 CHƯƠNG KẾT LUẬN VÀ HƯỚNG PHÁT TRIỂN KẾ TIẾP 5.1 Kết luận chung 5.1.1 Các công việc thực Luận văn nghiên cứu khái niệm liên quan đến việc xây dựng hệ thống nhận diện hành động Radar FMCW mơ hình học sâu Các lý thuyết tảng công nghệ điều chế tần số sóng liên tục FMCW (Frequency Modulated Continuous Wave) nghiên cứu tường tận bao gồm: mơ hình tốn tín hiệu sóng, lý thuyết ước lượng khoảng cách, vận tốc góc đến Với khối kiến thức tảng có, luận văn tìm hiểu tiếp tục module IWR1642BOOST hãng Texas Instrument cách thức hoạt động khối liệu đầu để triển khai mơ hình thu thập liệu Các giải thuật để nhận dạng dựa mơ hình học sâu mạng tích chập chiều, LSTM Transformer khảo sát đánh giá từ liệu cho trước lấy mẫu thực tế Một hệ thống nhận diện hành động sử dụng hệ thống Radar FMCW mơ hình học sâu thực thành cơng mơi trường văn phịng thực tế Việc sử dụng thư viện xử lý liệu (pandas, numpy) vẽ đồ thị (matplotlib, seaborn) hỗ trợ nhiều q trình thu thập liệu, phân tích huấn luyện mơ hình học sâu Từ kết có, rút kết luận sau: • Việc nghiên cứu phân tích thành cơng lý thuyết tảng cơng nghệ sóng FMCW hệ thống radar ứng dụng • Các giải thuật nhận dạng hành động dựa mơ hình học sâu đề cập, khảo sát triển khai thành cơng • Một hệ thống thực tế nhận dạng hành động thời gian thực triển khai thành công với kiến thức tổng hợp từ cơng việc trước 77 5.1.2 Những hạn chế luận văn • Giải thuật nhận dạng phân tích liệu cịn mang tính đơn điệu • Các thơng số mơ hình học sâu chưa tối ưu nên việc so sánh đánh giá mơ hình chưa khách quan • Các yếu tố thời gian nhận dạng, kích thước mạng chưa xem xét so sánh mơ hình 5.2 Hướng phát triển • Tối ưu thơng số mơ hình để có nhận xét đánh giá xác • Khảo sát thêm mơ hình học sâu khác PointNet++, U-net để cải thiện tốc độ độ xác cho hệ thống • Cải tiến phần mã lập trình tự động cho việc thu thập liệu không cần gõ lệnh cho lần lấy mẫu • Tăng thêm số loại hành động để mở rộng tầm ứng dụng hệ thống 78 TÀI LIỆU THAM KHẢO [1] K Benidis, S S Rangapuram, V Flunkert, Y Wang, D Maddix, C Turkmen, J Gasthaus, M Bohlke-Schneider, D Salinas, L Stella, F.-X Aubet, L Callot and T Januschowski, "Deep Learning for Time Series Forecasting: Tutorial and Literature Survey," ACM Computing Surveys, vol 55, no Association for Computing Machinery, pp 1-36, 2022 [2] A Vaswani, N Shazeer, N Parmar, J Uszkoreit, L Jones, A N Gomez, L Kaiser and I Polosukhin, "Attention Is All You Need," Advances in neural information processing systems, vol 30, June 2017 [3] J S Sonkusare, N B Chopade, R Sor and S L Tade, "A Review on Hand Gesture Recognition System," in 2015 International Conference on Computing Communication Control and Automation, IEEE, 2015 [4] M Oudah, A Al-Naji and J Chahl, "Hand Gesture Recognition Based on Computer Vision: A Review of Techniques," Journal of Imaging, vol 6, no MDPI, p 73, 2020 [5] Y Si, S Chen, M Li, S Li, Y Pei and X Guo, "Flexible Strain Sensors for Wearable Hand Gesture Recognition: From Devices to Systems," Advanced Intelligent Systems, vol 4, p 2100046, 2022 [6] S Ahmed, K D Kallu, S Ahmed and S H Cho, "Hand Gestures Recognition Using Radar Sensors for Human-Computer-Interaction: A Review," Remote Sensing, vol 13, 2021 [7] P Grobelny and A Narbudowicz, "MM-Wave Radar-Based Recognition of Multiple Hand Gestures Using Long Short-Term Memory (LSTM) Neural Network," Electronics, vol 11, no MDPI, p 787, 2022 [8] M Skolnik, Radar Handbook, 3rd Edition, vol 23, United States of America: The McGraw-Hill Companies, 2008, pp 41-41 [9] S Rao, "Introduction to mmwave Sensing: FMCW Radars." Texas Instruments 79 (TI) mmWave Training Series, Texas, USA, 2017 [10] I Goodfellow, Y Bengio, and A Courville, (2016, November 18) Deep Learning, [Online] Available: https://mitpress.mit.edu/9780262035613/deep-learning/ [11] A Zhang, Z C Lipton, M Li and A J Smola, "Dive into Deep Learning," arXiv preprint arXiv:2106.11342, June 2021 [12] Z Zhang, Z Tian and M Zhou, "Latern: Dynamic Continuous Hand Gesture Recognition Using FMCW Radar Sensor," IEEE Sensors Journal, vol 18, pp 3278-3289, 2018 [13] J Wenger, "Automotive mm-wave radar: status and trends in system design and technology," in IEEE Colloquium on Automotive Radar and Navigation Techniques (Ref No 1998/230), IEEE, 1998 [14] Y.-C Jhaung, Y.-M Lin, C Zha, J.-S Leu and M Köppen, "Implementing a Hand Gesture Recognition System Based on Range-Doppler Map," Sensors, vol 22, 2022 [15] J Hasch, E Topak, R Schnabel, T Zwick, R Weigel and C Waldschmidt, "Millimeter-Wave Technology for Automotive Radar Sensors in the 77 GHz Frequency Band," IEEE Transactions on Microwave Theory and Techniques, vol 60, pp 845-860, 2012 [16] P Grobelny and A Narbudowicz, "Hand gestures recorded with mm-Wave FMCW radar (AWR1642)", IEEE Dataport, 2021 [17] S Al-Emadi and F Al-Senaid, "Drone Detection Approach Based on RadioFrequency Using Convolutional Neural Network," in 2020 IEEE International Conference on Informatics, IoT, and Enabling Technologies (ICIoT), IEEE, 2020 [18] R C Staudemeyer and E R Morris, "Understanding LSTM - a tutorial into Long Short-Term Memory Recurrent Neural Networks," arXiv preprint 80 arXiv:1909.09586, 2019 [19] F Jin, "Millimeter-wave Radar Point Cloud Classification and Interference Mitigation," Ph.D thesis, University of Arizona, USA, 2020 [20] R Huang, W Zhang, A Kundu, C Pantofaru, D A Ross, T Funkhouser and A Fathi, "An LSTM Approach to Temporal 3D Object Detection in LiDAR Point Clouds," in Computer Vision ECCV 2020: 16th European Conference, Glasgow, UK, August 23 28, 2020, Proceedings, Part XVIII 16, Springer, 2020, pp 266-282 [21] J S Karthik Ramasubramanian, "AWR1443 single-chip radar:for diverse proximity-sensing applications." USA, Tech Rep SPYY008, 2017 [22] V Dham, "Programming Chirp Parameters in TI Radar Devices." Application Report SWRA553, Texas, USA, 2017 [23] Y Wang, X Jia, M Zhou, L Xie and Z Tian, "A novel F-RCNN based hand gesture detection approach for FMCW systems," Wireless Networks, Springer, July 2019, pp 1-14 81 PHẦN LÝ LỊCH TRÍCH NGANG Họ tên: Nguyễn Chánh Trực Ngày, tháng, năm sinh: 04/04/1995 Nơi sinh: An Giang Địa liên lạc: B2204 GoldView 346 Bến Vân Đồn, P1, Q4, TP HCM QUÁ TRÌNH ĐÀO TẠO a Đại Học Tốt nghiệp: Trường ĐH Bách Khoa – ĐHQG TP.HCM Ngành học: Kỹ thuật điện tử, truyền thơng Loại hình đào tạo: Chính quy Đào tạo từ năm 2013 đến năm 2018 Xếp loại tốt nghiệp: Khá b Sau Đại Học Học cao học từ năm 2019 đến năm 2023 Chuyên ngành: Kỹ thuật Viễn thông Ngày bảo vệ luận văn thạc sĩ: 06/07/2023 Nơi bảo vệ: Trường ĐH Bách Khoa – ĐHQG TP.HCM Q TRÌNH CƠNG TÁC a Tổng Cơng ty Cơng nghiệp Sài Gịn Chức vụ: Chun viên công nghệ thông tin Thời gian: từ 06/2018 đến 02/2022 b Công ty TNHH Ampere VietNam Chức vụ: Kỹ sư phần mềm Thời gian: từ 03/2022 đến

Ngày đăng: 25/10/2023, 22:13

Xem thêm:

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

w