NHẬN DIỆN DEEP MIMO Deep MIMO Detection

19 3 0
NHẬN DIỆN DEEP MIMO Deep MIMO Detection

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

Thông tin tài liệu

1 HỌC VIỆN CÔNG NGHỆ BƯU CHÍNH VIỄN THÔNG KHOA ĐÀO TẠO SAU ĐẠI HỌC  BÀI TẬP MÔN TRUYỀN THÔNG SỐ NÂNG CAO Đề tài NHẬN DIỆN DEEP MIMO Deep MIMO Detection Giảng viên PGS TS Lê Nhật Thăng Học viên Nguy.

HỌC VIỆN CƠNG NGHỆ BƯU CHÍNH VIỄN THƠNG KHOA ĐÀO TẠO SAU ĐẠI HỌC  BÀI TẬP MÔN TRUYỀN THÔNG SỐ NÂNG CAO Đề tài: NHẬN DIỆN DEEP MIMO Deep MIMO Detection Giảng viên: PGS.TS Lê Nhật Thăng Học viên: Nguyễn Văn Công Phạm Hữu Kiên Lớp: M20CQTE02-B Hà Nội 11/2021 MỤC LỤC Lời nói đầu Các thuật ngữ viết tắt Danh mục hình vẽ Chương 1: GIỚI THIỆU 1.1 Thông tin nhận diện MIMO 1.2 Thông tin máy học 1.3 Kết luận chương Chương 2: NHẬN DIỆN DEEP MIMO 2.1 Học cách nhận diện 2.2 Nhận diện Deep MIMO 10 2.3 Các kết tính tốn 13 2.4 Kết luận chương 15 KẾT LUẬN 16 TÀI LIỆU THAM KHẢO 17 Lời nói đầu Trong báo cáo này, xem xét việc sử dụng mạng lưới nơ ron sâu bối cảnh nhận diện đa đầu vào - đa đầu (MIMO) Giới thiệu ngắn gọn học sâu đề xuất kiến trúc mạng nơ-ron đại phù hợp với nhiệm vụ Đầu tiên, ta xem xét trường hợp kênh MIMO không đổi tìm hiểu máy dị cho hệ thống cụ thể Tiếp theo, ta xét trường hợp khó tham số biết thay đổi máy dò phải học cho tất nhiều kênh khác Chúng ta chứng minh hiệu suất máy dị MIMO sâu sử dụng mơ số để so sánh với phương pháp khác bao gồm chuyển thông báo kỹ thuật ngẫu nhiên Kết cho thấy mạng lưới sâu đạt tới nghệ thuật xác với phức tạp thấp đáng kể cung cấp sức chịu đựng chống lại điều kiện xấu kênh phương sai nhiễu Các thuật ngữ viết tắt Từ viết tắt AMP AMP2 BER CSI DFE FC FCDN MIMO ML MF MMSE SDR VC VCDN ZF Nghĩa tiếng Anh Approximate message passing Approximate message passing Bit error rate Channel state information Decision feedback equalization Nghĩa tiếng Việt Thuật toán truyền tin gần Thuật toán truyền tin gần Tỷ lệ lỗi bit Thông tin tình trạng kênh Bộ chỉnh âm tần số định phản hồi Fixed Channel Kênh cố định Flexible-CDN architecture Phương pháp FCDN Multiple-Input-Multiple-Output Hệ thống truyền thông không dây sử dụng nhiều antenna phía phát phía thu Maximum Likelihood Hợp lý cực đại Matched filter Bộ lọc phù hợp Minimum mean squared error Tối thiểu hóa sai số bình phương trung bình Semidefinite relaxation Kỹ thuật ngẫu nhiên Varying Channel Kênh thay đổi Virtual Content Delivery Phương pháp VCDN Network Zero forcing Kỹ thuật ép khơng Danh mục hình vẽ Hình 1: Đồ thị minh họa hàm số ký hiệu tuyến tính (x) cho giá trị tham số t 11 Hình 2: Một lưu đồ đại diện cho đơn lớp DetNet 11 Hình 3: So sánh hiệu suất BER trường hợp kênh cố định thuật toán phát Tất thuật toán thử nghiệm kênh 0.55-Toeplitz 14 Hình 4: So sánh thuật toán phát hiệu suất BER trường hợp kênh khác Tất thuật toán thử nghiệm i.i.d ngẫu nhiên Kênh Gaussian 15 Chương 1: GIỚI THIỆU Hệ thống đa đầu vào đa đầu (MIMO) phát sinh kênh thông tin đại Các thông số tính đến tài ngun thời gian tần số, nhiều người dùng, nhiều ăng-ten tài nguyên khác Những hứa hẹn đáng kể tăng hiệu suất, xuất thách thức độ phức tạp tính tốn Trong năm gần đây, giới chứng kiến cách mạng máy học sâu Trong nhiều lĩnh vực kỹ thuật, ví dụ, thị giác máy tính, cho thấy máy tính cung cấp cặp đầu vào mẫu kết đầu mong muốn, đồng thời "học" chức liên quan đến chúng Các quy tắc sau sử dụng để phân loại (phát hiện) đầu chưa biết đầu vào tương lai Mục tiêu áp dụng máy học sâu vấn đề phát MIMO cổ điển hiểu lợi ích bất lợi 1.1 Thơng tin nhận diện MIMO Cài đặt phát MIMO nhị phân vấn đề cổ điển kiểm định giả thuyết đơn giản [1] Khả tối ưu Máy dò (ML) máy dò tối ưu theo nghĩa tối thiểu xác suất lỗi chung để phát tất ký hiệu đồng thời Nó triển khai thơng qua thuật tốn tìm kiếm hiệu quả, ví dụ: giải mã hình cầu [2] Khó khăn trường hợp xấu độ phức tạp tính tốn khơng thực tế nhiều ứng dụng Do đó, số thuật tốn tìm kiếm sửa đổi có mục đích, cung cấp cải thiện hiệu suất phức tạp [3] [4] Đã có nhiều quan tâm đến việc thực thuật tốn phát Các cơng cụ phát mức tối ưu phổ biến thu tuyến tính, tức lọc phù hợp (MF), trang trí dị khơng cưỡng (ZF) phát lỗi bình phương trung bình tối thiểu (MMSE) Các máy dò tiên tiến dựa cân phản hồi định (DFE), gần truyền tin nhắn (AMP) [5] kỹ thuật ngẫu nhiên (SDR) [6], [7] Hiện tại, AMP SDR cung cấp độ xác nhiều tình thực tế AMP đơn giản rẻ để triển khai thực tế, phương pháp lặp lại khác cài đặt có vấn đề SDR mạnh mẽ có độ phức tạp đa thức, chậm nhiều thực tế 1.2 Thông tin máy học Trong thập kỷ qua, có bùng nổ máy học câu chuyện thành công tất lĩnh vực kỹ thuật Phân loại có giám sát tương tự lý thuyết phát thống kê Cả hai theo dõi liệu nhiễu đưa định ẩn rời rạc có nguồn gốc Thơng thường, hai trường khác chỗ lý thuyết phát dựa mơ hình xác suất trước mơi trường, học theo hướng liệu dựa ví dụ Trong bối cảnh phát MIMO, mơ hình biết đến cho phép ta tạo nhiều ví dụ tổng hợp cần thiết Do đó, chúng tơi thích nghi với khái niệm thay Chúng diễn giải "Học" ý tưởng việc chọn giải mã tốt từ lớp quy định thuật toán Lý thuyết phát cổ điển cố gắng để chọn ước tính tốt cho ẩn số, máy học cố gắng chọn thuật toán tốt để áp dụng Thật vậy, giả thuyết trình phát ký hiệu chưa biết, giả thuyết học quy tắc phát [8] Thực tế, điều có nghĩa phần liên quan đến tính tốn nhận diện áp dụng chúng tơi nhận quan sát Trong học, giai đoạn tốn học thuật toán thường thực ngoại tuyến Khi quy tắc thuật toán tối ưu tìm thấy, chúng tơi triển khai thời gian thực với chi phí thấp Máy học có lịch sử lâu đời trước bị hạn chế vấn đề đơn giản nhỏ Chuyển tiếp nhanh tới năm cuối cùng, lĩnh vực chứng kiến cách mạng sâu Các tính từ "sâu" kết hợp với việc sử dụng phức tạp lớp biểu đạt thuật tốn, cịn gọi kiến trúc Đây thường mạng nơ-ron với nhiều hoạt động phi tuyến tính lớp Kiến trúc sâu biểu cảm nông cạn [9], trước coi khơng thể để tối ưu hóa Với tiến liệu lớn, thuật tốn tối ưu hóa tài ngun máy tính mạnh hơn, mạng nghệ thuật vấn đề khác bao gồm xử lý ngơn ngữ thị giác máy tính Đặc biệt, hứa hẹn cách tiếp cận để thiết kế kiến trúc sâu cách mở thuật tốn lặp có [10] Mỗi lần lặp coi lớp thuật toán gọi mạng lưới Việc học bắt đầu với thuật tốn có làm điểm xuất phát ban đầu sử dụng phương pháp tối ưu hóa để cải thiện thuật tốn Ví dụ, chiến lược chứng minh thành công bối cảnh tái tạo rải rác Các thuật toán hàng đầu Co rút lặp lại có ngưỡng phiên rải rác AMP Cả hai cải thiện cách mở rộng lần lặp lại chúng trở thành mạng học tham số tối ưu chúng [11], [12] Trong năm gần đây, phương pháp học sâu để cải thiện hiệu suất giải mã cho mã tuyến tính kênh cố định [13] Và [14] số ứng dụng học sâu cho ứng dụng giao tiếp xem xét, bao gồm việc giải mã tín hiệu qua kênh mờ dần, kiến trúc có mục đích dường khơng có khả mở rộng cho cao tín hiệu thứ nguyên 1.3 Kết luận chương Phần giới thiệu DetNET, mạng học sâu để phát MIMO DetNet tạo cách mở đường dốc dự kiến Mơ cho thấy đạt khả phát gần tối ưu hiệu suất đồng thời thuật tốn nhanh thực thời gian thực Độ xác tương tự SDR với thời gian chạy nhanh 30 lần So với AMP, máy dò khác với đảm bảo tính tối ưu, DetNet mạnh mẽ Nó cho thấy hiệu suất đầy hứa hẹn việc xử lý điều kiện xấu kênh không yêu cầu kiến thức phương sai nhiễu Một đóng góp quan trọng khác, bối cảnh chung học sâu, khả DetNet để thực nhiều mơ hình với khóa đào tạo Gần đây, có nhiều cơng việc học cách đảo ngược kênh tuyến tính tái tạo lại tín hiệu [11], [12], [15] Theo hiểu biết tốt chúng tôi, tất phát triển đào tạo để giải kênh cố định Ngược lại, DetNet thiết kế để xử lý nhiều kênh đồng thời với giai đoạn đào tạo Trong báo này, xác định phân phối chuẩn μ giá trị trung bình 𝜎 phương sai 𝒩 (μ, 𝜎 ) Phân phối không đổi với giá trị nhỏ a giá trị lớn b 𝒰 (a; b) Chữ hoa in đậm biểu thị ma trận, chữ thường in đậm biểu thị vectơ, ký tự ( )𝑇 biểu thị chuyển vị Phần tử thứ i vectơ x ký hiệu 𝑥𝑖 Trừ nêu khác đi, thuật ngữ độc lập ma trận Gaussian phân phối giống hệt (i.i.d.), tham chiếu đến ma trận phần tử i.i.d lấy mẫu từ phân phối chuẩn 𝒩 (0; 1) Đơn vị tuyến tính chỉnh lưu xác định theo ρ(x) = max {0, x}; ký hiệu ρ Chương 2: NHẬN DIỆN DEEP MIMO 2.1 Học cách nhận diện Trong phần này, xây dựng nhận diện MIMO khuôn khổ học máy Chúng coi tiêu chuẩn mơ hình MIMO tuyến tính: y = Hx + w (2.1.1) y ∈ ℝ𝑁 vectơ nhận, H ∈ ℝ𝑁𝑥𝐾 ma trận kênh, x ∈ {±1}𝐾 vectơ chưa biết ký hiệu nhị phân xác suất độc lập nhau, w ∈ ℝ𝑁 véc tơ nhiễu với biến Gaussian trung bình độc lập có phương sai 𝜎 Chúng tơi khơng cho kiến thức phương sai lý thuyết kiểm tra giả thuyết đảm bảo điều không cần thiết để phát tối ưu Thật vậy, quy tắc ML tối ưu không yêu cầu kiến thức 𝜎 Điều trái ngược với MMSE giải mã AMP khai thác thông số mạnh mẽ Chúng tơi giả định thơng tin trạng thái kênh hồn hảo (CSI) kênh H biết xác Tuy nhiên, chúng tơi phân biệt hai trường hợp xảy ra: - Kênh cố định (FC): Trong kịch FC, H xác định số (hoặc nhận phân phối nhận giá trị nhất) - Kênh thay đổi (VC): Trong kịch VC, giả định H ngẫu nhiên với phân phối biết Mục tiêu phát x, sử dụng thuật toán nhận y H đầu vào ước lượng ^ x Bước chọn sửa kiến trúc nhận diện Kiến trúc hàm phát ký hiệu chưa biết cho y H Kiến trúc tham số hóa θ Học vấn đề việc tìm kiếm tập hợp khả thi dẫn đến thiết bị phát mạnh Bằng cách chọn chức tham số khác nhau, chúng tơi mơ tả loại máy dị cạnh tranh mà đánh đổi độ xác với độ phức tạp Để tìm máy dị tốt nhất, chúng tơi sửa chữa hàm mát đo khoảng cách giá trị ký hiệu ước tính chúng Sau đó, chúng tơi tìm θ cách giảm thiểu hàm mát mà chọn phân phối mơ hình MIMO: (2.1.2) Trong kỳ vọng tất điều ngẫu nhiên biến (2.1.1), tức x, w H Học cách phát xác định việc tìm kiếm thông số tốt kiến trúc giảm thiểu tổn thất dự kiến ι (.;.) phân phối (2.1.1) Các ví dụ minh họa cách lựa chọn kiến trúc dẫn đến phát khác đánh đổi độ xác cho phức tạp Ví dụ 1: Mục tiêu phát giảm xác suất lỗi Do đó, hàm mát tốt vấn đề (2.1.3) Bằng cách chọn kiến trúc không thực tế linh hoạt với không giới hạn tham số hóa khơng có hạn chế (2.1.4) Sau đó, giải pháp cho (2.1.2) giải mã ML: (2.1.5) Quy tắc tối ưu độ xác u cầu tính tốn chun sâu tìm kiếm O ( K ) Rõ ràng, ví dụ lý thuyết kiến trúc tất các chức tham số hóa (2.1.2) khơng thể tối ưu hóa Ví dụ 2: Ở khía cạnh khác, xem xét kiến trúc máy dị tuyến tính cố định: (2.1.6) tham số ma trận cố định cần tối ưu hóa R KxN Trong mơ hình FC, chọn hàm mát giả sử  → 0, giải mã tối ưu tự tương quan: (2.1.7) Bộ dò kết liên quan đến phép nhân ma trận đơn giản u cầu phép tốn O (NK), khơng xác Mặt khác, coi mơ hình VC có nhiều thách thức hơn, phép biến đổi tuyến tính tối ưu đơn giản H = Một giải mã tuyến tính khơng thể giải mã kênh tùy ý đồng thời, giải mã hồn tồn vơ dụng Hai ví dụ nhấn mạnh cách chỉnh sửa kiến trúc hàm mát xác định đâu phát tối ưu cho vấn đề nhận diện MIMO Càng nói lên việc chúng tơi chọn , dị cuối xác dựa chi phí độ phức tạp tính tốn Chúng tơi kết thúc phần với ghi kỹ thuật số thực tối ưu hóa (2.1.2) Trong thực tế, khó chỉnh sửa để tối ưu hóa lớp hàm trừu tượng (2.1.4) Giảm thiểu số thường thực với tập tham số hữu hạn (2.1.6) Vì vậy, kiến trúc sâu dựa nhiều lớp với đa biến phép tốn tuyến tính tốn tử phi tuyến tính Điều cho phép chức giải mã phong phú sử dụng tham số hóa kiểm sốt Điều cho phép chức giải mã phong phú sử dụng tham số hóa kiểm sốt Ngồi ra, tính tốn phân tích kỳ vọng mục tiêu thường khơng thể Thay thế, chúng tơi ước tính cách sử dụng giá trị trung bình thực nghiệm mẫu rút từ tập liệu gồm ví dụ (do khái niệm 'học”) Trong trường hợp chúng tôi, tập liệu bao gồm mẫu tạo tổng hợp thỏa mãn (2.1.1) Cả hai kỹ thuật này, xem xét nghĩ thập kỷ trước, thủ tục tiêu chuẩn cộng đồng máy học Dễ sử dụng, cơng cụ mã nguồn mở, giúp bạn tạo kiến trúc sâu tối ưu hóa chúng theo cách tiến thẳng phía trước Cụ thể, tác phẩm này, tất thử nghiệm thực khung TensorFlow [16] 2.2 Nhận diện Deep MIMO Trong phần này, đề xuất máy dị sâu có kiến trúc thiết kế đặc biệt để phát MIMO từ đặt tên 'DetNet' (Mạng phát hiện) Đầu tiên, lưu ý phát hiệu không nên hoạt động trực tiếp với y, sử dụng thống kê đủ nén: H T y = H T Hx + H T w (2.2.1) Điều gợi ý hai thành phần kiến trúc nên H T y H T Hx Thứ hai, việc xây dựng dựa bắt chước dải dốc dự kiến giống giải 10 pháp cho tối ưu hóa ML (2.1.5) Một thuật tốn dẫn đến lần lặp lại dạng: (2.2.2) Hình 1: Đồ thị minh họa hàm số ký hiệu tuyến tính (x) cho giá trị tham số t Hình Một lưu đồ đại diện cho đơn lớp DetNet 11 ước tính lần lặp thứ k, Π[.] tốn tử phép chiếu phi tuyến  k k kích thước bước nhảy Mỗi lần lặp tổ hợp tuyến tính xk , H T y , H T Hxk phép chiếu phi tuyến tính Chúng tơi làm phong phú thêm lần lặp lại cách nâng đầu vào lên thứ nguyên cao áp dụng tiêu chuẩn phi tuyến tính phổ biến sâu mạng nơ-ron Điều tạo kiến trúc sau: (2.2.3) k = 1,…, L ψ t (.) dấu mềm tuyến tính đoạn tốn tử định nghĩa là: (2.2.4) Tốn tử vẽ Hình 1, cấu trúc lớp DetNet minh họa Hình Ước tính cuối định nghĩa Các tham số DetNet tối ưu hóa giai đoạn học là: (2.2.5) Đào tạo mạng sâu nhiệm vụ khó khăn triệt tiêu đường dốc, độ bão hịa chức kích hoạt, độ nhạy với khởi tạo [17] Để giải thách thức này, thơng qua hàm mát có tính đến kết đầu tất lớp Hơn nữa, lỗi phụ thuộc vào thực hóa kênh, chúng tơi định chuẩn hóa lỗi với tự tương quan Cùng nhau, điều dẫn đến hàm mát: (2.2.6) Trong đó: 12 (2.2.7) giải mã tương quan tiêu chuẩn Chúng đào tạo mạng cách sử dụng biến thể đường dốc ngẫu nhiên phương pháp descent [20], [21] để tối ưu hóa mạng sâu, có tên Adam Optimizer [22] Chúng tơi sử dụng đào tạo hàng loạt với 5000 mẫu liệu ngẫu nhiên lần lặp đào tạo mạng cho 50000 lần lặp Để đưa ý tưởng sơ độ phức tạp, việc học dị kết số chúng tơi ngày vi xử lý Intel i7-6700 tiêu chuẩn Mỗi mẫu tạo độc lập từ (2.1.1) theo thống kê x, H (trong mơ hình FC VC) w Với ý tới nhiễu, phương sai khơng xác định điều tạo ngẫu nhiên để SNR đồng phân phối 𝒰 (SNRmin; SNRmax) Cách tiếp cận cho phép dạy cho mạng nhận diện dải rộng giá trị SNR 2.3 Các kết tính tốn Trong phần này, chứng minh lợi đề xuất dị cách sử dụng máy tính mơ Tất thử nghiệm đề cập đến kênh MIMO với đầu vào có kích thước K = 30 đầu kích thước N = 60 Nó biết đến nhiều hiệu suất phụ thuộc nhiều vào loại kênh MIMO Do đó, chúng tơi thử hai kịch bản: FC: Trong mơ hình này, chúng tơi chọn kiểm tra thuật tốn ma trận không điều kiện xác định không đổi mà biết thử thách để phát [23] Ma trận tạo cho H T H có cấu trúc Toeplitz với [ H T H ]i , j = 0.55|i − j| Chúng biểu thị ma trận ma trận 0,55-Toeplitz Điều xác định giá trị số vectơ suy biến phải H Vec tơ suy biến trái tạo ngẫu nhiên đồng khơng gian ma trận trực giao sau cố định suốt q trình mơ VC: Trong mơ hình này, ma trận H tạo ngẫu nhiên với i.i.d 𝒩 (0; 1) phần tử Mỗi ví dụ tạo độc lập thử nghiệm 13 Hình 3: So sánh hiệu suất BER trường hợp kênh cố định thuật toán phát Tất thuật toán thử nghiệm kênh 0.55-Toeplitz Chúng kiểm tra hiệu suất phát sau thuật toán: - FCDN: Thuật toán DetNet mơ tả (2.2.3) với 3K lớp, zk có kích thước 8K vk có kích thước 2K FCDN đào tạo cách sử dụng mơ hình FC mô tả trên, cụ thể thiết kế để xử lý kênh ma trận điều kiện xấu riêng - VCDN: Kiến trúc tương tự FCDN đào tạo mơ hình VC nhắm tới ma trận kênh tùy ý - ShVCDN: Tương tự thuật tốn VCDN, có độ nông kiến trúc mạng sử dụng lớp K - ZF: Đây tương quan cổ điển, gọi dị hình vng khơng cưỡng (ZF) [1] - AMP: Thuật tốn chuyển thơng báo gần từ [5] Các thuật toán điều chỉnh theo trường hợp có giá trị thực thực với 3K lần lặp - AMP2: Giống thuật toán AMP định sai SNR SNR tính dB có thêm độ lệch 𝒩 (0; 2) - SDR: Một giải mã dựa kỹ thuật ngẫu nhiên triển khai sử dụng phần lõi 14 thiết kế riêng hiệu giải điểm [6], [7] 2.4 Kết luận chương Trong thử nghiệm đầu tiên, chúng tơi tập trung vào mơ hình FC mà kênh biết khắc phục, cịn nhiều thách thức số điều kiện Hình cho thấy kết tất thuật toán cài đặt FCDN quản lý để đạt độ xác tỷ lệ thuật tốn SDR tốn mặt tính tốn mô thời gian lâu 30 lần để phát AMP không quản lý để phát với độ xác hợp lý thử kênh Thật thú vị nhận thấy VCDN, không thiết kế cho thách thức kênh này, quản lý để đạt độ xác tốt Kết VCDN khái qt giai đoạn đào tạo để phát qua ngẫu nhiên kênh tùy ý Trong thử nghiệm thứ hai chúng tơi, kết trình bày Hình 4, chúng tơi kiểm tra hiệu suất mơ hình VC SDR AMP mặt lý thuyết biết tối ưu cài đặt này, VCDN quản lý để cung cấp độ xác tương tự So với SDR, VCDN chạy nhanh 30 lần So với AMP trong trường hợp giá trị SNR không cung cấp xác, thấy ảnh hưởng tiêu cực đến độ xác AMP, so sánh VCDN không yêu cầu kiến thức SNR Hình 4: So sánh thuật toán phát hiệu suất BER trường hợp kênh khác 15 Tất thuật toán thử nghiệm i.i.d ngẫu nhiên Kênh Gaussian Một tính quan trọng khác DetNet khả đánh đổi độ phức tạp độ xác cách thêm bớt phần bổ sung lớp Trong hình 4, chúng tơi kiểm tra thuật tốn ShVCDN phiên cạn VCDN có K lớp, nhiều nhanh hơn, xác Vì lớp DetNet xuất tín hiệu dự đốn ^ xk, chúng tơi định thời gian thực lớp lớp đầu cuối đánh đổi độ phức tạp để có độ xác thời gian thực mà khơng cần đào tạo thêm KẾT LUẬN Trong báo cáo này, chúng tơi trình bày mạng nơron sâu khuôn khổ chung để nhận diện MIMO Chúng thử nghiệm hiệu suất kịch kênh cố định vượt qua thử thách kịch VC phức tạp Các Kiến trúc DetNet mà đề xuất chứng minh tính tốn khơng tốn có độ xác gần tối ưu mà khơng có kiến thức liên quan đến mức SNR Khả DetNet để tối ưu hóa tồn phân phối kênh, khơng phải chí nhóm kênh lớn hữu hạn, làm cho mạnh mẽ cho phép triển khai hệ thống nơi kênh không cố định Mô cho thấy DetNet thành công để tổng quát hóa phát xác qua kênh có đặc điểm kênh sử dụng khóa đào tạo giai đoạn cho DetNet 16 TÀI LIỆU THAM KHẢO [1] S Verdu, Multiuser detection, Cambridge university press, 1998 [2] E Agrell, T Eriksson, A Vardy, and K Zeger, “Closest point search in lattices,” IEEE transactions on information theory, vol 48, no 8, pp 2201–2214, 2002 [3] Z Guo and P Nilsson, “Algorithm and implementation of the k-best sphere decoding for mimo detection,” IEEE Journal on selected areas in communications, vol 24, no 3, pp 491–503, 2006 [4] S Suh and J R Barry, “Reduced-complexity mimo detection via a slicing breadth-first tree search,” IEEE Transactions on Wireless Communications, vol 16, no 3, pp 1782– 1790, 2017 [5] C Jeon, R Ghods, A Maleki, and C Studer, “Optimality of large mimo detection via approximate message passing,” in IEEE International Symposium on Information Theory (ISIT) IEEE, 2015, pp 1227–1231 [6] Z Q Luo, W K Ma, A M So, Y Ye, and S Zhang, “Semidefinite relaxation of quadratic optimization problems,” IEEE Signal Processing Magazine, vol 27, no 3, pp 20–34, 2010 [7] J Jald’en and B Ottersten, “The diversity order of the semidefinite relaxation detector,” IEEE Transactions on Information Theory, vol 54, no 4, pp 1406–1422, 2008 [8] S Shalev-Shwartz and S Ben-David, Understanding Machine Learning: From Theory to Algorithms, Cambridge University Press, New York, NY, USA, 2014 [9] Y LeCun, Y Bengio, and G Hinton, “Deep learning,” Nature, vol 521, no 7553, pp 436–444, 2015 [10] J R Hershey, J L Roux, and F Weninger, “Deep unfolding: Model-based inspiration of novel deep architectures,” arXiv preprint arXiv:1409.2574, 2014 [11] K Gregor and Y LeCun, “Learning fast approximations of sparse coding,” in Proceedings of the 27th International Conference on Machine Learning (ICML-10), 2010, pp 399–406 [12] M Borgerding and P Schniter, “Onsager-corrected deep learning for sparse linear inverse problems,” arXiv preprint arXiv:1607.05966, 2016 17 [13] E Nachmani, Y Beery, and D Burshtein, “Learning to decode linear codes using deep learning,” arXiv preprint arXiv:1607.04793, 2016 [14] T J O’Shea and j Hoydis, “An introduction to machine learning communications systems,” arXiv preprint arXiv:1702.00832, 2017 [15] A Mousavi and R G Baraniuk, “Learning to invert: Signal recovery via deep convolutional networks,” arXiv preprint arXiv:1701.03891, 2017 [16] M Abadi, A Agarwal, P Barham, E Brevdo, Z Chen, C Citro, G S Corrado, A Davis, J Dean, M Devin, et al., “Tensorflow: Large-scale machine learning on heterogeneous distributed systems,” arXiv preprint arXiv:1603.04467, 2016 [17] X Glorot and Y Bengio, “Understanding the difficulty of training deep feedforward neural networks.,” in Aistats, 2010, vol 9, pp 249–256 [18] K He, X Zhang, S Ren, and J Sun, “Deep residual learning for image recognition,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016, pp 770–778 [19] C Szegedy, W Liu, Y Jia, P Sermanet, S Reed, D Anguelov, D Erhan, V Vanhoucke, and A Rabinovich, “Going deeper with convolutions,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015, pp 1–9 [20] D E Rumelhart, G E Hinton, and R J Williams, “Learning representations by backpropagating errors,” Cognitive modeling, vol 5, no 3, pp 1, 1988 [21] L Bottou, “Large-scale machine learning with stochastic gradient descent,” in Proceedings of COMPSTAT’2010, pp 177–186 Springer, 2010 [22] D Kingma and J Ba, “Adam: A method for stochastic optimization,” arXiv preprint arXiv:1412.6980, 2014 [23] S Rangan, P Schniter, and A Fletcher, “On the convergence of approximate message passing with arbitrary matrices,” in IEEE International Symposium on Information Theory (ISIT) IEEE, 2014, pp 236–240 [24] N Samuel and A Wiesel, “Learning to detect,” In preparation for a journal 18 ... tin nhận diện MIMO 1.2 Thông tin máy học 1.3 Kết luận chương Chương 2: NHẬN DIỆN DEEP MIMO 2.1 Học cách nhận diện 2.2 Nhận diện Deep MIMO. .. Chương 2: NHẬN DIỆN DEEP MIMO 2.1 Học cách nhận diện Trong phần này, xây dựng nhận diện MIMO khuôn khổ học máy Chúng tơi coi tiêu chuẩn mơ hình MIMO tuyến tính: y = Hx + w (2.1.1) y ∈ ℝ

Ngày đăng: 04/11/2022, 10:20

Tài liệu cùng người dùng

Tài liệu liên quan