Dự đoán bằng phương pháp học sâu

Một phần của tài liệu Đánh giá hiệu năng của mạng vô tuyến nhận thức noma sử dụng học sâu (Trang 45 - 49)

4.3.1 Mơ hình dự đốn xác suất dừng bằng DNN

Luận văn thiết kế mơ hình DNN như một bài tốn hồi quy để đánh giá giá trị xác suất dừng. Mơ hình DNN bao gồm một lớp đầu vào, nhiều lớp ẩn và một lớp đầu ra, như trong Hình 4.6

L p đ u vào L p n L p đ u ra

Hình 4.6: Mơ hình DNN

Xét mơ hình với giả sử tọa độ của trạm phát thứ cấp là (0,0), tọa độ nút chuyển tiếp là (25,0), tọa độ máy phát sơ cấp là (100,0), tọa độ máy thu sơ cấp là (30,40), tọa độ người dùngD1là (30,30), tọa độ người dùng

D2là (80,5), hệ số phân bổ công suấtα1= 0.2, hệ số ước lượngβ = 0.6, số lượng máy thu sơ cấpL= 5, và

giá trị ngưỡng cho phépρth= 20,30dB được sử dụng làm biến đầu vào của mơ hình DNN. Dựa trên các kết

CHƯƠNG 4. MÔ PHỎNG VÀ KẾT QUẢ

quả đã phân tích trong các biểu thức (3.30) và biếu thức (3.31), một tập dữ liệu được tạo với hơn 500.000 mẫu, trong đó 80% dành cho q trình huấn luyện và 20% phần cịn lại dùng để thử nghiệm. Quan sát về mặt số học rằng số lượng mẫu này phù hợp để thu được các dự đốn chính xác cao trong hầu hết các trường hợp. Bảng 4.1 mơ tả các thơng số chính được sử dụng trong phương pháp dự đoán xác suất dừng áp dụng mạng học sâu DNN.

Inputs Values Inputs Values Inputs Values

ρS [10,60] L [0,10] xD2 [30,50]

ρth [5,20] β [0,1] yD1 [0,20]

α1 [10,60] xP R [0,30] xD2 [40,80]

- - yP R [0,50] yD2 [0,20]

Bảng 4.1: Thông số đầu vào dữ liệu cho quá trình huấn luyện và thử nghiệm DNN

4.3.2 Mơ hình học tập

Hàm kích hoạt đơn vị tuyến tính hàm mũ (ELU) được sử dụng cho mỗi lớp ẩn để thực hiện việc tạo ngưỡng cho mọi phần tử đầu vào z, trong đó bất kỳ giá trị nào nhỏ hơn 0 đều được làm trịn thành 0, theo cơng thức sau:

ELU(z) =    ϕ(exp(z)−1), z <0, z, z≥0, (4.2) trong đóϕlà giá trị không đổi được khởi tạo bằng 1. So với các hàm kích hoạt Sigmoid hoặc Tanh, hàm kích hoạt ELU mang lại lợi ích đáng kể hơn, chẳng hạn như tính tốn đơn giản và tối ưu hóa dễ dàng hơn, do đặc tính gần như tuyến tính của nó, và ELU tránh được vấn đề về Gradient của hàm số bị bốc hơi (Vanishing Gradients), hay nói cách khác đạo hàm quá nhỏ, gần như bằng 0 trong [29]. Ở đây khơng áp dụng hàm kích hoạt ở lớp đầu ra vì bài tốn hồi quy dự đốn trực tiếp các giá trị số mà không cần bất kỳ biến đổi nào nữa.

Xem xét một lớp trong mơ hình được kết nối đầy đủ, trong đó hàm kích hoạtui

jcủa nơron thứjtrong lớp thứiđược kết nối với các hàm kích hoạt trong lớp thứ (i- 1) bằng biểu thức sau:

uij=ELU   Ti−1 X g=1 wijgui−1g +cij  , (4.3)

trong đóTi−1là số lượng tế bào thần kinh trong lớp thứ (i- 1),wijglà trọng số kết nối với nơ-ron thứgtrong lớp (i- 1) vàci

jlà hệ số bias ở lớp thứi.

Để đánh giá mức độ chính xác của phương pháp đề xuất, chúng tơi thực hiện đo đạc sai số lỗi trung bình bình phương gốc (Root mean-square error - RMSE) như sau:

RMSE = v u u t 1 M M X m=1 OP(m)−OPˆ (m)2, (4.4)

trong đóOP(m)là giá trị xác suất dừng được tính tốn bằng lý thuyết,OP(m)là giá trị dự đoán bởi phương pháp DNN, vàM là số lần lấy mẫu dự đoán.

CHƯƠNG 4. MƠ PHỎNG VÀ KẾT QUẢ

4.3.3 Kết quả dự đốn xác suất dừng bằng phương pháp DNN

Quá trình huấn luyện và thử nghiệm sử dụng DNN để dự đoán xác suất dừng được thực hiện dự trên tensoflow phiên bản 2.1.0 với Python 3.7.9 kết hợp Keras 2.3.1. Cơng cụ hỗ trợ tối ưu hóa độ chính xác Adam optimize và được thực thi với 70 epochs và 4 lớp ẩn trên máy tính AMD Ryzen Threadripper 3970X 32-core processor and Nvidia GeForce RTX-2070 super GPU.

Hình 4.71trình bày kết quả huấn luyện (sử dụng 80% tập dữ liệu - được tạo dựa trên các kết quả đã phân tích trong các biểu thức (3.30) và (3.31), ngồi ra trong các trường hợp hệ thống khơng thể tìm được biểu thức chính xác, tập dữ liệu này có thể được tạo ra bằng cách chạy các mơ phỏng Monte Carlo. Tuy nhiên phương pháp này đòi hỏi nhiều thời gian để tạo ra tập dữ liệu) và thử nghiệm (sử dụng 20% còn lại) bằng phương pháp DNN như đã đề xuất. Quan sát trong Hình 4.7, kết quả huấn luyện và thử nghiệm (hay còn được gọi là thẩm định - validation) cho thấy giá trị ướng lượng sai số lỗi trung bình giảm dần theo chiều tăng số epochs từ 0 đến 55 và sau đó hội tụ về cùng một miền giá trị với số epochs lớn hơn 55.

Hình 4.7: Huấn luyện xác suất dừng với DNN

Xét mơ hình với giả sử tọa độ của trạm phát thứ cấp được là(0,0), tọa độ nút chuyển tiếp là (25,0), tọa độ máy phát sơ cấp là (100,0), tọa độ máy thu sơ cấp là (30,40), tọa độ người dùngD1là (30,30), tọa độ người dùngD2là (80,5), hệ số phân bổ công suấtα1= 0.2, hệ số ước lượngβ= 0.6, số lượng máy thu sơ cấpL= 5,

và giá trị ngưỡng cho phépρth= 20,30dB.

Hình 4.8 trình bày kết quả dự đốn xác suất dừng sử dụng phương pháp DNN so với lý thuyết (biến đổi biểu thức dạng đóng) và phương pháp mơ phỏng Monte Carlo. Quan sát được trong hình vẽ, giá trị dự đốn gần như chính xác hồn tồn cho các giá trị xác suất dừng với độ chính xác>10−3và có độ chính xác thấp hơn khi xác suất dừng càng nhỏ. Nguyên nhân là vì các giá trị xác suất dừng có sự thay đổi rất nhỏ với miền SNR cao nên khả năng dự đốn các giá trị nhỏ bằng DNN rất khó có thể chính xác. Do đó, để có thể dự đốn tốt hơn cần có

1Lưu ý, kết quả Hình 4.7 được xuất ra từ quá trình training với Python chạy trên toolbox Spyder của phần mêm Anaconda phiên bản 3.7.0.

CHƯƠNG 4. MÔ PHỎNG VÀ KẾT QUẢ

những phương pháp mới trong thiết kế mơ hình DNN cùng với đó việc tiền xử lý số liệu trước khi đưa vào quá trình huấn luyện cũng vơ cùng quan trọng.

10 20 30 40 50 60 10-6 10-5 10-4 10-3 10-2 10-1 100

CHƯƠNG 5

KẾT LUẬN VÀ HƯỚNG PHÁT TRIỂN

5.1 Kết luận

Trong luận văn, các kết quả mơ phỏng đã chỉ ra rằng mơ hình NOMA kết hợp với mạng vô tuyến nhận thức là triển vọng hơn so với mơ hình OMA hợp tác ở độ lợi kênh truyền. Bên cạnh đó, luận văn đã tiến hành khảo sát xác suất dừng (OP) hai người dùngD1vàD2khi số lượng người dùng sơ cấp thay đổi. Kết quả mơ phỏng và phân tích cho thấy rằng hiệu năng của người dùngD1vàD2giảm khi số lượng người dùng mạng sơ cấp tăng lên, tức là OP sẽ tăng lên, khi tỷ số cơng suất tín hiệu trên nhiễu lớn hơn45dB. Điều này minh chứng, hệ thống thứ cấp sẽ hoạt động tốt ở vùng thấp và trung bình SNR mà khơng chịu sự tác động bởi số lượng người dùng sơ cấp.

Kết quả mô phỏng cũng xem xét sự ảnh hưởng của các tham số lên hệ thống. Nếu thay đổi các tham số trong mơ hình đề xuất thì hiệu năng của hệ thống cũng bị ảnh hưởng đáng kể. Vì vậy, khi triển khai hệ thống NOMA kết hợp với mạng vô tuyến nhận thức trong thực tế, ta cần tính tốn chính xác các tham số hiệu năng, đặc biệt là hệ số phân bổ công suất cho người dùng để đảm bảo hệ thống hoạt động một cách tốt nhất.

Kết quả dự đoán các giá trị xác suất dừng bằng mạng DNN cũng cho thấy rằng do các giá trị xác suất dừng có sự thay đổi rất nhỏ với miền SNR cao nên khả năng dự đốn các giá trị nhỏ cho DNN rất khó có thể chính xác. Do đó, để có thể dự đốn tốt hơn cần có những phương pháp mới trong thiết kế DNN. Và việc tiền xử lý số liệu trước khi áp dụng cho q trình huấn luyện cũng vơ cùng quan trọng.

Trên cơ sở đó, những kết quả đã được thực hiện trong luận văn bao gồm:

− Học viên đã nghiên cứu xây dựng mơ hình mạng vơ tuyến nhận thức kết hợp NOMA 2 người dùng

− Tính tốn biểu thức xác suất dừng cho mạng vơ tuyến nhận thức NOMA đề xuất.

− Kiểm chứng biểu thức đã tính tốn với phương pháp mơ phỏng Monte-carlo và kết quả dự đốn áp dụng mạng học sâu DNN.

− Phân tích đánh giá các kết quả về hiệu năng của mạng vô tuyến nhận thức kết hợp NOMA 2 người dùng.

Một phần của tài liệu Đánh giá hiệu năng của mạng vô tuyến nhận thức noma sử dụng học sâu (Trang 45 - 49)