Hình 2.1: Phân cụm một tập các điểm dựa trên thuật toán K-Means

Một phần của tài liệu Thuật toán K-Prototypes trong phân loại bệnh nhân và đề xuất một cải tiến phân cụm (Trang 28)

nhật như Hình 2.1. Cho k = 3, người dùng cần phải phân cụm các đối tượng vào trong 3 cụm.

Theo thuật toán 2.1, ta chọn 3 đối tượng tùy ý (được đánh dấu "+") với vai trò là 3 tâm cụm đầu tiên. Sau đó, mỗi đối tượng được phân vào trong các cụm đã chọn dựa trên tâm cụm gần nhất. Mỗi phân bố hình thành nên một hình chiếu được bao quanh bởi đường cong nét chấm, Hình 2.1a.

Cập nhật lại các tâm cụm. Đó là giá trị trung bình của mỗi cụm được tính toán lại dựa trên các đối tượng trong cụm. Tùy theo các tâm mới này, các đối tượng được phân bố lại vào trong các cụm đã lựa chọn dựa trên tâm cụm gần nhất. Mỗi phân bố lại hình thành nên một hình chiếu được bao quanh bởi đường cong nét gạch, Hình 2.1b.

Xử lý này lặp lại dẫn tới Hình 2.1c. Cuối cùng, không có sự phân bố lại các đối tượng vào trong bất kỳ cụm nào và xử lý kết thúc. Các cụm cuối cùng là kết quả của xử lý phân cụm.

Một biến thể khác của K-Means là thuật toán K-Modes (Huang 1998) – mở rộng mô hình K-Means – để phân cụm dữ liệu phân lớp bằng cách thay giá trị trung bình các cụm bằng các mode (chế độ hay kiểu), sử dụng độ đo không tương đồng mới để giải quyết đối tượng phân lớp, sử dụng phương pháp dựa trên tần số để cập nhật các mode của các cụm. Phương

pháp K-Means và K-Modes được tích hợp để phân cụm dữ liệu với các giá trị hỗn hợp số và phân lớp. Đó là thuật toán K-Prototypes mà ta sẽ khảo sát kỹ hơn ở phần sau.

Một biến thể khác của K-Means đó là thuật toán EM (Expectation Maximization) (Lauritzen 1995), nó mở rộng mô hình K-Means theo một cách khác: Thay vì ấn định mỗi điểm tới một cụm cho trước, nó ấn định mỗi điểm tới một cụm theo trọng số đại diện cho xác suất là thành viên. Hay nói một cách khác, không có các ranh giới tuyệt đối giữa các cụm. Bởi vậy, các giá trị trung bình mới sau đó được tính dựa trên các phép đo có trọng số.

2. Thuật toán K-Medoids

Thuật toán K-Means rất nhạy với các outlier, do vậy một đối tượng với giá trị cực lớn về cơ bản có thể bóp méo phân bố của dữ liệu. Thay vì lấy giá trị trung bình của các đối tượng trong một cụm như một điểm tham khảo, K-Medoids lấy một đối tượng đại diện trong cụm, gọi là medoid, nó là điểm đại diện được định vị trung tâm nhất trong cụm. Do vậy, phương pháp phân chia vẫn được thực hiện dựa trên nguyên tắc cực tiểu hoá tổng của các độ không tương đồng giữa mỗi đối tượng với điểm tham khảo tương ứng của nó, điểm này thiết lập nên cơ sở của phương pháp K-Medoids.

PAM (partition around medoids) – phân chia xung quanh các medoid: Đây là một thuật toán phân cụm kiểu K-Medoids. Nó tìm k cụm trong

n đối tượng bằng cách trước tiên tìm một đối tượng đại diện cho mỗi cụm. Tập các medoid ban đầu được lựa chọn tùy ý. Sau đó nó lặp lại các thay thế một trong số các medoid bằng một trong số những cái không phải medoid

sao cho tổng khoảng cách của kết quả phân cụm được cải thiện.

Thuật toán thử xác định k phần phân chia cho n đối tượng. Sau khi lựa chọn được k-medoids ban đầu, giải thuật lặp lại việc thử để có một sự lựa chọn các medoid tốt hơn bằng cách phân tích tất cả các cặp đối tượng có thể để một đối tượng là medoid và đối tượng kia thì không phải. Phép đo

chất lượng phân cụm được tính cho mỗi sự kết hợp như vậy. Lựa chọn các điểm tốt nhất trong một lần lặp được chọn với tư cách là các medoid cho lần lặp tiếp theo. Chi phí của một lần lặp đơn là O(k(n - k)2). Đối với các giá trị nk lớn, chi phí tính toán như vậy là cao.

Hình 2.2: Phân cụm một tập các điểm dựa trên thuật toán K-Medoids

Một phần của tài liệu Thuật toán K-Prototypes trong phân loại bệnh nhân và đề xuất một cải tiến phân cụm (Trang 28)

w