Áp dụng ensembler learning vào bài toán phân lớp với KANTS:

Một phần của tài liệu hệ kiến nhân tạo cho phân lớp (Trang 52 - 53)

Chương 4: KẾT QUẢ VÀ THỰC NGHIỆM

4.4.2.Áp dụng ensembler learning vào bài toán phân lớp với KANTS:

Có hai gian đoạn mà ta có thể áp dụng học tập hợp ensembler learning vào bài toán này.

Thứ nhất: giai đoạn gán nhãn cho ô: việc gán nhãn cho một ô i trong lưới là việc áp dụng phương pháp k láng giềng gần nhất để tìm ra nhãn lớp được bỏ phiếu nhiều nhất, kết quả của nhãn lớp này sẽ được gán cho ô đó. Áp dụng học tập hợp, thay vì gán luôn cho ô đó, ta chọn N bộ kết quả, tức là chọn cho k = 1,N. Áp dụng phương pháp k láng giềng gần nhất với mỗi k để tìm ra K nhãn được bỏ phiếu, chọn nhãn được bảo phiếu nhiều nhất trong N bộ này và gán nhãn này cho ô đó. Vậy việc gán nhãn này là hai lần bỏ phiếu, nhãn được gán chính là nhãn đã qua vòng hai.

Thứ hai: giai đoạn tìm nhãn cho một mẫu dữ liệu (phân lớp): Việc gán nhãn cũng được tiến hành tương tự như giai đoạn một nhưng thay vì gán nhãn cho ô, ta gán nhãn cho mẫu dữ liệu và thay vì tính khoảng cách với các con kiến, ta tính khoảng cách với các ô. Độ chính xác của thuật toán cũng được tính tương tự.

Kết quả so sánh giữa thuật toán cũ và mới: Kiểu học thuật toán KANTS Với KNN KANTS với Ensembler learning Iris(9-1) 86.666664% 93.333336% Pima(9-1) 72.727272% 74.025978% Glass(9-1) 45.454548% 54.545456% Nhận xét:

Nhìn chung ensembler learning có cải thiện thuật toán và cho kết quả tốt hơn KANTS thông thường, việc cải thiện nhiều hay ít phụ thuộc vào việc chọn tham số và bộ dữ liệu huấn luyện. Tuy nhiên trong trường hợp lưới KANTS đủ “mịn” thì việc N quá lớn sẽ làm sai số tăng lên. Nếu N = 1 thì thuật toán trở về dạng ban đầu với k = 1.

Một phần của tài liệu hệ kiến nhân tạo cho phân lớp (Trang 52 - 53)