Xét mơ hình với giả sử tọa độ của trạm phát thứ cấp là (0,0), tọa độ nút chuyển tiếp là (25,0), tọa độ máy phát sơ cấp là (100,0), tọa độ máy thu sơ cấp là (30,40), tọa độ người dùngD1là (30,30), tọa độ người dùng
D2là (80,5), hệ số phân bổ công suấtα1= 0.2, hệ số ước lượngβ = 0.6, số lượng máy thu sơ cấpL= 5, và
giá trị ngưỡng cho phépρth= 20,30dB được sử dụng làm biến đầu vào của mơ hình DNN. Dựa trên các kết
CHƯƠNG 4. MƠ PHỎNG VÀ KẾT QUẢ
quả đã phân tích trong các biểu thức (3.30) và biếu thức (3.31), một tập dữ liệu được tạo với hơn 500.000 mẫu, trong đó 80% dành cho q trình huấn luyện và 20% phần cịn lại dùng để thử nghiệm. Quan sát về mặt số học rằng số lượng mẫu này phù hợp để thu được các dự đốn chính xác cao trong hầu hết các trường hợp. Bảng 4.1 mơ tả các thơng số chính được sử dụng trong phương pháp dự đoán xác suất dừng áp dụng mạng học sâu DNN.
Inputs Values Inputs Values Inputs Values
ρS [10,60] L [0,10] xD2 [30,50]
ρth [5,20] β [0,1] yD1 [0,20]
α1 [10,60] xP R [0,30] xD2 [40,80]
- - yP R [0,50] yD2 [0,20]
Bảng 4.1: Thông số đầu vào dữ liệu cho quá trình huấn luyện và thử nghiệm DNN
4.3.2 Mơ hình học tập
Hàm kích hoạt đơn vị tuyến tính hàm mũ (ELU) được sử dụng cho mỗi lớp ẩn để thực hiện việc tạo ngưỡng cho mọi phần tử đầu vào z, trong đó bất kỳ giá trị nào nhỏ hơn 0 đều được làm trịn thành 0, theo cơng thức sau:
ELU(z) = ϕ(exp(z)−1), z <0, z, z≥0, (4.2) trong đóϕlà giá trị khơng đổi được khởi tạo bằng 1. So với các hàm kích hoạt Sigmoid hoặc Tanh, hàm kích hoạt ELU mang lại lợi ích đáng kể hơn, chẳng hạn như tính tốn đơn giản và tối ưu hóa dễ dàng hơn, do đặc tính gần như tuyến tính của nó, và ELU tránh được vấn đề về Gradient của hàm số bị bốc hơi (Vanishing Gradients), hay nói cách khác đạo hàm quá nhỏ, gần như bằng 0 trong [29]. Ở đây khơng áp dụng hàm kích hoạt ở lớp đầu ra vì bài tốn hồi quy dự đốn trực tiếp các giá trị số mà không cần bất kỳ biến đổi nào nữa.
Xem xét một lớp trong mơ hình được kết nối đầy đủ, trong đó hàm kích hoạtui
jcủa nơron thứjtrong lớp thứiđược kết nối với các hàm kích hoạt trong lớp thứ (i- 1) bằng biểu thức sau:
uij=ELU Ti−1 X g=1 wijgui−1g +cij , (4.3)
trong đóTi−1là số lượng tế bào thần kinh trong lớp thứ (i- 1),wijglà trọng số kết nối với nơ-ron thứgtrong lớp (i- 1) vàci
jlà hệ số bias ở lớp thứi.
Để đánh giá mức độ chính xác của phương pháp đề xuất, chúng tơi thực hiện đo đạc sai số lỗi trung bình bình phương gốc (Root mean-square error - RMSE) như sau:
RMSE = v u u t 1 M M X m=1 OP(m)−OPˆ (m)2, (4.4)
trong đóOP(m)là giá trị xác suất dừng được tính tốn bằng lý thuyết,OP(m)là giá trị dự đoán bởi phương pháp DNN, vàM là số lần lấy mẫu dự đốn.
CHƯƠNG 4. MƠ PHỎNG VÀ KẾT QUẢ
4.3.3 Kết quả dự đoán xác suất dừng bằng phương pháp DNN
Quá trình huấn luyện và thử nghiệm sử dụng DNN để dự đoán xác suất dừng được thực hiện dự trên tensoflow phiên bản 2.1.0 với Python 3.7.9 kết hợp Keras 2.3.1. Cơng cụ hỗ trợ tối ưu hóa độ chính xác Adam optimize và được thực thi với 70 epochs và 4 lớp ẩn trên máy tính AMD Ryzen Threadripper 3970X 32-core processor and Nvidia GeForce RTX-2070 super GPU.
Hình 4.71trình bày kết quả huấn luyện (sử dụng 80% tập dữ liệu - được tạo dựa trên các kết quả đã phân tích trong các biểu thức (3.30) và (3.31), ngồi ra trong các trường hợp hệ thống khơng thể tìm được biểu thức chính xác, tập dữ liệu này có thể được tạo ra bằng cách chạy các mô phỏng Monte Carlo. Tuy nhiên phương pháp này đòi hỏi nhiều thời gian để tạo ra tập dữ liệu) và thử nghiệm (sử dụng 20% còn lại) bằng phương pháp DNN như đã đề xuất. Quan sát trong Hình 4.7, kết quả huấn luyện và thử nghiệm (hay còn được gọi là thẩm định - validation) cho thấy giá trị ướng lượng sai số lỗi trung bình giảm dần theo chiều tăng số epochs từ 0 đến 55 và sau đó hội tụ về cùng một miền giá trị với số epochs lớn hơn 55.