Kich bản 6 Yuan BGS CLuRNS MXFGA BMBM OPT/LB
avg sd avg sd avg sd avg sd
rmc1-1 120.12 113.34 1.81 122.43 6.56 108.57 1.03 108.65 0.85 108.32 rmc1-2 120.43 117.12 0.47 118.49 1.65 116.87 0.00 116.87 0.00 116.87 rmc1-3 116.00 113.67 1.70 114.58 3.56 109.11 0.78 110.35 0.72 106.74 rmc1-4 122.14 117.79 1.57 124.04 3.23 114.85 2.10 112.89 1.20 111.31 rmc1-5 125.60 111.65 1.22 118.35 5.68 108.43 0.36 109.61 0.67 108.17 Trung bình 120.86 114.71 1.35 119.58 4.14 111.57 0.85 111.68 0.69 110.28 rmc2-1 148.45 131.61 1.05 140.15 3.16 130.26 0.00 130.26 0.00 130.26 rmc2-2 153.64 141.69 0.00 141.76 0.21 141.69 0.00 141.69 0.00 141.69 rmc2-3 158.71 136.05 1.01 136.81 3.27 131.97 0.00 132.79 0.92 131.97 rmc2-4 154.25 136.55 1.12 137.36 1.99 135.88 0.00 136.06 0.68 135.88 rmc2-5 144.08 132.61 1.08 136.31 4.14 131.37 0.14 127.83 1.00 123.23 Trung bình 151.82 135.70 0.85 138.48 2.55 134.23 0.03 133.73 0.52 132.61
Tóm tắt kết quả thu được của các thuật toán
Kết quả thu được của các thuật toán đề xuất được tóm tắt trong bảng 2.14. Thuật toán BGS cải thiện lần lượt 9.68% và 13.51% so với thuật toán Yuan trên tập dữ liệu nhỏ và tập dữ liệu lớn. Số lượng bộ dữ liệu tốt hơn đều là 29/30 bộ trên tập dữ liệu nhỏ và tập dữ liệu lớn.
Trong hầu hết các bộ dữ liệu, thuật toán khởi tạo CluRNS cho kết quả tốt hơn so với kết quả của Yuan [7]. Cụ thể, thuật toán CluRNS cải thiện so với cách kết hợp heuristic tốt nhất của Yuan trung bình khoảng 8% trên tập dữ liệu nhỏ và khoảng 13.63% trên tập dữ liệu lớn. Ngoài ra, thuật toán CluRNS tạo ra kết quả tối ưu trong lần lượt là 6/30 và 5/30 bộ trên tập dữ liệu nhỏ và trên tập dữ liệu lớn. Tuy nhiên, trong kịch bản 5, thuật toán này cho kết quả tệ hơn kết quả của Yuan. Điều này phù hợp với thực tế rằng kịch bản dữ liệu này khá khó cho phương pháp phân cụm do các cụm được phân bố thưa thớt.
Hiệu quả của thuật toán MXFGA so với khởi tạo CluRNS được trình bày thông qua ba tiêu chí: giá trị tổn thất truyền thông tốt nhất trong tất cả các lần chạy best, giá trị tổn thất truyền thông trung bình avg và độ lệch chuẩn sd. Kết quả từ bảng 2.14 và các bảng từ 2.8 đến 2.13 cho thấy MXFGA cải thiện kết quả khoảng 9% so với CluRNS. Sự cải thiện rõ nhất được thể hiện trên các bộ dữ liệu của kịch bản 2 và kịch bản 4. Như đã đề cập ở trên, các kịch bản dữ liệu này được thiết kế “khó” hơn cho phương pháp phân cụm. Điều này cho thấy MXFGA không chỉ cải thiện kết quả và tính ổn định của CluRNS mà còn làm giảm bớt ảnh hưởng của các dữ liệu đầu vào “xấu”. Nhìn vào kết quả thực nghiệm của các kịch bản 1 đến kịch bản 6, có thể rút ra kết luận, thuật toán MXFGA cho kết quả rất tốt với những kịch bản dữ liệu mà các nút cảm biến được rải ngẫu nhiên trên địa hình. Cụ thể, MXFGA cho kết quả tối ưu trên 6/10 bộ dữ liệu của kịch bản 6 và kịch bản 4 trên tập dữ liệu nhỏ. Con số này trên tập dữ liệu lớn là 9/10 bộ. Đối với kịch bản dữ liệu mà các nút cảm biến tạo thành các cụm phân bố dày (kịch bản 5), MXFGA tạo ra kết quả tối ưu ở 4/5 bộ trên tập dữ liệu lớn. Ngoài ra, độ lệch chuẩn sd thu được giữa các lần chạy của thuật toán MXFGA cũng nhỏ hơn độ lệch chuẩn của thuật toán CluRNS. Độ lệch chuẩn của MXFGA trên các tập dữ liệu lớn và tập dữ liệu nhỏ lần lượt là 1.16 và 0.66, trong khi của thuật toán CluRNS là 4.08 và 5.19. Điều này chứng tỏ thuật toán MXFGA hoạt động khá ổn định.
Từ bảng 2.8 đến bảng 2.13, có thể thấy rằng BMBM đưa ra chất lượng lời giải tốt hơn so với BGS ở 28/30 bộ trên tập dữ liệu nhỏ và 30/30 bộ trên tập dữ liệu lớn. Thuật toán BMBM sử dụng tham số c là số lượng lời giải được giữ trong mỗi lần lặp. Với c = 2m,3m,4m, BMBM hoạt động tốt hơn trung bình so với MXFGA trong hầu hết các trường hợp. Ví dụ, với c= 4m, BMBM vượt trội hơn trung bình 1.43% trên tập dữ liệu nhỏ và 1.25% trong tập dữ liệu lớn. Từ bảng 2.14, rõ ràng chất lượng lời giải được cải thiện khi tăng c. Cụ thể, với c= 4m, có 23/30 bộ dữ liệu trong tập dữ liệu nhỏ tốt hơn MXFGA và 27/30 bộ dữ liệu trong tập dữ liệu lớn tốt hơn MXFGA. c = 4m cải thiện kết quả trung bình tăng 0.34% so vớic= 2m. Sự cải thiện này có khả năng là kết quả của việc giữ nhiều lời giải hơn trong chùm tia. Đối với các giá trị lớn hơn của c, thuật toán BMBM có độ lệch chuẩn nhỏ hơn, điều này cho thấy giá trị c cũng ảnh
gian thực hiện và bộ nhớ.
Bảng 2.14: Tóm tắt kết quả đạt được của các thuật toán.Thuật toán Các độ đo Tập nhỏ Tập lớn