BÁO CÁO MÔN HỌC KHAI PHÁ DỮ LIỆU Đề tài Sử dụng và so sánh hai thuật toán K-Means Clustering và Agglomerative Clustering để phân loại tập khách hàng

32 0 0
Tài liệu đã được kiểm tra trùng lặp
BÁO CÁO MÔN HỌC KHAI PHÁ DỮ LIỆU Đề tài Sử dụng và so sánh hai thuật toán K-Means Clustering và Agglomerative Clustering để phân loại tập khách hàng

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

Thông tin tài liệu

Trang 1

ỦY BAN NHÂN DÂN TP HỒ CHÍ MINH TRƯỜNG ĐẠI HỌC SÀI GÒN KHOA CÔNG NGHỆ THÔNG TIN

BÁO CÁO MÔN HỌC KHAI PHÁ DỮ LIỆU

Trang 2

Lời mở đầu

Công nghệ thông tin phát triển mạnh mẽ, tạo ra lượng dữ liệu khổng lồ Khai phá dữ liệu đã trở thành lĩnh vực quan trọng, áp dụng rộng rãi trong nhiều lĩnh vực cuộc sống như kinh doanh, marketing, y tế

Trong kinh doanh, chia nhỏ khách hàng thành các nhóm đối tượng khác nhau giúp áp dụng chiến lược phù hợp và tăng doanh số Tuy nhiên, với số lượng khách hàng lớn, không thể phân tích từng khách hàng Các thuật toán phân cụm giúp chúng ta tìm ra nhóm dữ liệu đặc trưng và phân loại khách hàng vào từng nhóm Mục tiêu của thuật toán phân cụm là tìm câu trả lời cho các câu hỏi: có những nhóm dữ liệu đặc trưng nào? Từng dữ liệu thuộc vào nhóm nào?dữ liệu đặc trưng và phân loại dữ liệu vào từng nhóm Bài

báo cáo môn học này em xin trình bày về vấn đề “Sử dụng và so sánh hai thuật toán K-Means Clustering và Agglomerative Clustering để phân loại tập khách hàng”

Trang 3

Contents

Chương I: Giới thiệu 4

1 Tổng quan về đề tài và lý do chọn đề tài 4

2 Tại sao lại chọn thuật toán k-Means Clustering và Agglomerative Clustering? 4

3 Mục tiêu nghiên cứu 5

4 Phạm vi nghiên cứu 5

5 Đối tượng nghiên cứu 6

Chương II: Mô tả và làm sạch dữ liệu 6

a Mô tả chi tiết dữ liệu và xữ lý giá trị khuyết 8

b Tạo các thuộc tính mới 9

c Trực quan hóa dữ liệu 10

CHƯƠNG II: Tiền xử lý dữ liệu và giảm chiều không gian 11

1 Tiền xử lý dữ liệu 11

a Mã hóa nhãn cho các đặc trưng danh mục 11

2 Tiêu chuẩn hóa các đặc trưng bằng bộ điều chỉnh tiêu chuẩn 12

3 Giảm chiều dữ liệu 13

Chương III: Tổng quan về thuật toán k-Means Clustering, Agglomerative Clustering và phương pháp xác định nhóm tối ưu Elbow 15

1 Thuật toán k-Means Clustering 15

a K-Means Clustering là gì? 15

Trang 4

b Lịch sử của thuât toán k-Means 15

c Mô tả thuật toán 16

d Thuật toán k-Means 16

2 Thuật toán Agglomerative Clustering 17

a Agglomerative Clustering 17

b Lịch sử của Agglomerative Clustering 17

c Thuật toán Agglomerative Clustering 18

3 Xác định số nhóm tối ưu sử dụng phương pháp Elbow (Elbow Method) 19

Chương IV: Khai phá dữ liệu 19

1 Đặt câu hỏi 19

2 Đề xuất thuật toán 20

3 Đơn vị so sánh 21

4 So sánh kết quả và lựa chọn thuật toán 22

Chương V: Kết quả và thảo luận 23

1 Kết quả 23

Chương VI: Kết luận 30

TÀI LIỆU THAM KHẢO 31

Trang 5

Chương I: Giới thiệu

1 Tổng quan về đề tài và lý do chọn đề tài

Đề tài "Sử dụng và so sánh hai thuật toán K-Means Clustering và Agglomerative Clustering để phân loại tập khách hàng" tập trung vào việc nghiên cứu và so sánh hai phương pháp phân cụm trong lĩnh vực khai phá dữ liệu

Lý do chọn đề tài này là do phân loại tập khách hàng là một vấn đề quan trọng trong kinh doanh Bằng cách chia nhỏ tập khách hàng thành các nhóm đối tượng khác nhau, doanh nghiệp có thể tạo ra chiến lược kinh doanh tối ưu cho từng nhóm, từ đó cải thiện sự phù hợp của sản phẩm và tăng doanh số bán hàng

Hai thuật toán được chọn để nghiên cứu là K-Means Clustering và Agglomerative Clustering K-Means Clustering sử dụng cách tiếp cận tìm kiếm các trung tâm cụm để phân loại dữ liệu, trong khi Agglomerative Clustering sử dụng phương pháp gom nhóm dựa trên độ tương đồng giữa các điểm dữ liệu So sánh hai thuật toán này sẽ giúp chúng ta hiểu rõ hơn về ưu điểm, hạn chế và hiệu suất của từng phương pháp trong việc phân loại khách hàng

Bằng việc nghiên cứu và so sánh K-Means Clustering và Agglomerative Clustering trong việc phân loại tập khách hàng, đề tài hy vọng đóng góp kiến thức về phân cụm dữ liệu và cung cấp thông tin hữu ích cho các doanh nghiệp trong việc tối ưu hóa chiến lược kinh doanh và tăng cường tương tác với khách hàng

2 Tại sao lại chọn thuật toán k-Means Clustering và Agglomerative Clustering?

Em đã chọn thuật toán K-Means Clustering và Agglomerative Clustering vì các lý do sau:

Độ phổ thuộc tính: K-Means Clustering và Agglomerative Clustering là hai thuật toán phân cụm phổ thuộc tính và được sử dụng rộng rãi trong lĩnh vực khai phá dữ liệu Cả hai đều có ứng dụng đa dạng và đã được kiểm chứng qua nhiều nghiên cứu và thực tế

Đơn giản và dễ hiểu: Cả K-Means Clustering và Agglomerative Clustering đều có cách tiếp cận đơn giản và dễ hiểu K-Means Clustering tìm kiếm các trung tâm cụm dựa

Trang 6

trên khoảng cách, trong khi Agglomerative Clustering gom nhóm dựa trên độ tương đồng Cách tiếp cận này giúp các thuật toán trở nên trực quan và dễ áp dụng

Tính linh hoạt: Cả K-Means Clustering và Agglomerative Clustering cho phép điều chỉnh số lượng cụm hoặc độ tương tự để phù hợp với yêu cầu cụ thể của bài toán Điều này cho phép chúng ta tùy chỉnh và tìm ra phân cụm phù hợp với dữ liệu và mục tiêu của chúng ta

Hiệu suất tính toán: Cả K-Means Clustering và Agglomerative Clustering đều có hiệu suất tính toán tương đối tốt K-Means Clustering thường có hiệu suất cao hơn với dữ liệu lớn, trong khi Agglomerative Clustering thích hợp với dữ liệu có cấu trúc phân cấp

Bằng việc chọn K-Means Clustering và Agglomerative Clustering, chúng ta có cơ sở để so sánh hai phương pháp này trong việc phân loại tập khách hàng và đánh giá ưu điểm, hạn chế của từng thuật toán

3 Mục tiêu nghiên cứu

Mục tiêu của nghiên cứu này là sử dụng và so sánh hai thuật toán phân cụm K-Means Clustering và Agglomerative Clustering để phân loại tập khách hàng Cụ thể, chúng ta muốn đạt được các mục tiêu sau:

Áp dụng thuật toán K-Means Clustering và Agglomerative Clustering vào tập dữ liệu khách hàng: Sử dụng hai thuật toán này để phân cụm tập dữ liệu khách hàng thành các nhóm đối tượng khác nhau dựa trên các đặc trưng liên quan

So sánh hiệu suất của K-Means Clustering và Agglomerative Clustering: Đánh giá và so sánh hiệu suất của hai thuật toán trong việc phân loại khách hàng Điều này bao gồm khả năng phân cụm chính xác, độ tương tự giữa các cụm, thời gian tính toán và độ phức tạp của thuật toán

Đánh giá ưu điểm và hạn chế của từng thuật toán: Xác định các ưu điểm và hạn chế của K-Means Clustering và Agglomerative Clustering để hiểu rõ hơn về khả năng và giới hạn của từng phương pháp trong việc phân loại tập khách hàng

4 Phạm vi nghiên cứu

⚫ Tìm hiểu khái quát về thuật toán phân nhóm k-Means Clustering và Agglomerative

Clustering, nắm được các định nghĩa và khái niệm dùng trong 2 mô hình đó

Trang 7

⚫ Giải quyết bài toán phân nhóm và xây dựng được thuật toán k-Means Clustering và

Agglomerative Clustering

5 Đối tượng nghiên cứu

⚫ Tổng quan về khai phá dữ liệu

⚫ Tổng quan về thuật toán k-Means Clustering và Agglomerative Clustering

⚫ Cách thức xác định số nhóm tối ưu sử dụng phương pháp Elbow Method ⚫ Cách thức so sánh hai mô hình này

Chương II: Mô tả và làm sạch dữ liệu

1 Mô tả bộ dữ liệu

Bộ dữ liệu “marketing campaign” được người dùng AKASH PASTEL cung cấp trên trang Kaggle với nhằm xác định các tệp khách hàng và các sản phẩm mà tệp này có xu hướng tiêu thụ Bộ dữ liệu gốc được cung cấp bởi tiến sĩ Omar Romero-Hernandez Bộ dữ liệu này gồm 2240 hàng và 29 cột được liệt thành 4 nhóm như sau đây:

a Khách hàng

• ID: Định danh duy nhất của khách hàng • Year_Birth: Năm sinh của khách hàng • Education: Trình độ học vấn của khách hàng

• Marital_Status: Tình trạng hôn nhân của khách hàng • Income: Thu nhập hằng năm của hộ gia đình khách hàng • Kidhome: Số lượng trẻ em trong hộ gia đình khách hàng

• Teenhome: Số lượng thanh thiếu niên trong hộ gia đình khách hàng • Dt_Customer: Ngày khách hàng đăng ký với công ty

• Recency: Số ngày kể từ lần mua hàng cuối cùng của khách hàng

• Complain: 1 nếu khách hàng khiếu nại trong vòng 2 năm qua, 0 nếu không có khiếu nại

b Sản phẩm

• MntWines: Số tiền chi tiêu cho rượu trong 2 năm qua • MntFruits: Số tiền chi tiêu cho trái cây trong 2 năm qua • MntMeatProducts: Số tiền chi tiêu cho thịt trong 2 năm qua

Trang 8

• MntFishProducts: Số tiền chi tiêu cho cá trong 2 năm qua

• MntSweetProducts: Số tiền chi tiêu cho mặt hàng ngọt trong 2 năm qua • MntGoldProds: Số tiền chi tiêu cho mặt hàng vàng trong 2 năm qua

c Khuyến mãi

• NumDealsPurchases: Số lần mua hàng với giảm giá

• AcceptedCmp1: 1 nếu khách hàng chấp nhận ưu đãi trong chiến dịch thứ nhất, 0 nếu ngược lại

• AcceptedCmp2: 1 nếu khách hàng chấp nhận ưu đãi trong chiến dịch thứ hai, 0 nếu ngược lại

• AcceptedCmp3: 1 nếu khách hàng chấp nhận ưu đãi trong chiến dịch thứ ba, 0 nếu ngược lại

• AcceptedCmp4: 1 nếu khách hàng chấp nhận ưu đãi trong chiến dịch thứ tư, 0 nếu ngược lại

• AcceptedCmp5: 1 nếu khách hàng chấp nhận ưu đãi trong chiến dịch thứ năm, 0 nếu ngược lại

• Response: 1 nếu khách hàng chấp nhận ưu đãi trong chiến dịch cuối cùng, 0 nếu ngược lại

d Địa điểm

• NumWebPurchases: Số lượng mua hàng thông qua trang web của công ty • NumCatalogPurchases: Số lượng mua hàng thông qua sử dụng catalogue • NumStorePurchases: Số lượng mua hàng trực tiếp tại cửa hàng

• NumWebVisitsMonth: Số lượt truy cập trang web của công ty trong tháng qua

Hình 1 Một số dữ liệu tiêu biểu trong bộ dữ liệu

Trang 9

2 Làm sạch dữ liệu

a Mô tả chi tiết dữ liệu và xữ lý giá trị khuyết

Để có thể tìm hiểu thêm về chi tiết các thuộc tính của dữ liệu em sử dụng lệnh data.info Như trong hình 2 có thể thấy đa số các thuộc tính đều có kiểu int64, trường hợp đặc biệt là Income có kiểu float64 Tuy nhiên có 3 trường hợp ngoại lệ bao gồm Education, Marital_status và Dt_Customer đều có kiểu thuộc về object, riêng thuộc tính Income thiếu 14 giá trị do đây là thuộc tính quan trọng nên ta sẽ tiến hành xóa các dòng không có dữ liệu của thuộc tính này

Hình 2 Mô tả chi tiết của dữ liệu

Tiếp theo chuyển đổi cột “Dt_Customer” sang định dạng ngày tháng để xử lý Nhờ vào việc chuyển này tạo ra thuộc tính mới “Customer_For” để tính được số ngày khách hàng mua hàng trong cửa hàng tính từ ngày ghi nhận cuối cùng

Đối với 2 thuộc tính “Marital_status” và “Education” đây là hai đặc trưng có dạng categorical có các mục và số lượng được liệt kê như sau:

Trang 10

Marital_status: • Married – 857 • Together – 573 • Single – 471 • Divorced – 232 • Widow – 76 • Alone – 3 • Absurd – 2 • YOLO – 2

Education

• Graduation – 1116 • PhD – 481

• Master – 365 • 2n Cycle – 200 • Basic – 54

Các loại của “Marital_status” và “Education” có nhiều loại và một sốc chúng có điểm tương đồng với nhau Cho nên ta có thể gộp các loại trong “Marital_status” thành 2 loại lớn hơn là “Partner” và “Alone” “Partner” sẽ bao gồm 2 loại nhỏ là “Together” và “Married”, các loại nhỏ còn lại sẽ thuộc vào nhóm “Alone” Đối với “Education” ta cũng làm tương tự “2n Cycle” và “Basic” sẽ được chuyển thành loại “Undergraduate”, “Graduation” sẽ được chuyển thành “Graduate” và “Master”,”Phd” sẽ được chuyển thành “Postgraduate”

b Tạo các thuộc tính mới

Các thuộc tính mới và công thức tính của chúng được trình bày như sau: - Tính tuổi của khách hàng dựa trên năm sinh

“Current_Year” – “Year_Birth” = “Age”

- Tính tổng số tiền khách hàng đã chi tiêu trong các danh mục khác nhau trong khoảng thời gian hai năm

“Spent” = “MntWines” + “MntFruits” + “MntMeatProducts” + “MntFishProducts” + “MntSweetProducts” + “MntGoldProds”

- Chuyển đổi các trạng thái hôn nhân để tạo thuộc tính “Living_with” “Together” , “Married” = “Partner”

“Absurd”, “Widow”, “YOLO”, “Divorced”, “Single” = “Alone”

- Tạo thuộc tính "Children" để chỉ số trẻ em trong hộ gia đình (bao gồm cả trẻ nhỏ và thanh thiếu niên)

“Children” = “Kidhome” + “Teenhome”

- Tạo thuộc tính "Family_Size" để biểu thị kích thước gia đình

Trang 11

“Living_with” có giá trị bằng 1 nếu là “Alone” và bằng “2” cho “Together” + “Children”

- Tạo thuộc tính "Is_Parent" để chỉ số trạng thái làm cha/mẹ

- Rút gọn các giá trị trong cột "Education" thành ba nhóm đơn giản hơn - Xóa các thuộc tính dư thừa bao gồm

“Marital_status”,”Dt_Customer”,”Z_CostContact”,”Z_Revenue”,”Year_Birth”,”ID”

c Trực quan hóa dữ liệu

Tiếp theo ta thực hiện việc vẽ biểu đồ để trực quan hóa một số đặc trưng được chọn trong dữ liệu Trong trường hợp này, các đặc trưng bao gồm "Income", "Recency", "Customer_For", "Age", "Spent" và "Is_Parent" Biểu đồ này cho phép so sánh mỗi cặp đặc trưng và nhóm dữ liệu được tô màu theo thuộc tính "Is_Parent" (làm nhãn)

Hình 4: Biểu đồ tương đối của một số đặc trưng được chọn

Trang 12

Từ hình 4 ta có thể thấy được một số giá trị ngoại lai nằm ở hai thuộc tính Age và Income Em sẽ tiến hành loại bỏ các giá trị ngoại lai này Số dòng sau khi tiền hàng loại bỏ còn 2212 dòng

Hình 5 Loại bỏ các giá trị ngoại lai

CHƯƠNG II: Tiền xử lý dữ liệu và giảm chiều không gian

1 Tiền xử lý dữ liệu

Sau khi hoàn thành công việc làm sạch dữ liệu bằng cách tạo các thuộc tính mới và xóa bỏ các hàng dữ liệu bị thiếu thông tin, em sẽ đến với bước tiền xử lý dữ liệu Ở bước này ta có 3 giai đoạn nhỏ bao gồm:

• Mã hóa nhãn cho các đặc trưng dạnh danh mục

• Tiêu chuẩn hóa các đặc trưng bằng bộ điều chỉnh tiêu chuẩn • Tạo một bộ dữ liệu con để giảm chiều dữ liệu

a Mã hóa nhãn cho các đặc trưng danh mục

Mục đích của Label Encoding là chuyển đổi các biến phân loại (categorical variables) thành dạng số để có thể sử dụng trong các mô hình học máy hoặc các phân tích số liệu Các biến phân loại không thể được sử dụng trực tiếp trong các thuật toán học máy vì chúng yêu cầu dữ liệu đầu vào là dạng số

Quá trình Label Encoding thực hiện việc gán một số nguyên duy nhất cho mỗi nhãn trong biến phân loại Mỗi nhãn sẽ được ánh xạ thành một giá trị số, và các giá trị số này thường được gán tuần tự từ 0 đến (số lượng nhãn - 1) Quá trình này giúp mô hình có thể hiểu và xử lý dữ liệu phân loại

Khi áp dụng Label Encoding vào cơ sở dữ liệu, ta sẽ lặp qua từng cột chứa biến phân loại, sử dụng LabelEncoder để mã hóa các nhãn thành giá trị số, và gán lại giá trị đã được mã hóa vào cột ban đầu Quá trình này cho phép mô hình có thể sử dụng dữ liệu được mã hóa để thực hiện các phân tích và dự đoán

B1 Tìm kiếm các biến có dạng phân loại

Trang 13

Hình 6 Các thuộc tính có dạng phân loại

Kết quả cho ra hai thuộc tính “Education” và “Living_With”

B2 Tiến hành mã hóa nhãn dữ liệu

Hình 7 Mã hóa dữ liệu thành dạng số

Sử dụng phương thức fit_transform của đối tượng LabelEncoder để áp dụng quá trình mã hóa nhãn cho cột dữ liệu tương ứng Tiếp theo gán lại giá trị đã được mã hóa nhãn cho cột dữ liệu ban đầu bằng cách sử dụng phương thức apply của DataFrame và truyền vào đối tượng LabelEncoder đã được fit_transform Sau khi vòng lặp kết thúc, tất cả các biến phân loại đã được mã hóa thành dạng số

2 Tiêu chuẩn hóa các đặc trưng bằng bộ điều chỉnh tiêu chuẩn

- Lợi ích

• Đảm bảo tính đồng nhất của các đặc trưng: Khi các đặc trưng có phạm vi và đơn vị đo lường khác nhau, mô hình có thể bị ảnh hưởng bởi sự không cân đối này Bằng cách tiêu chuẩn hóa đặc trưng, ta chuyển đổi các giá trị của đặc trưng sao cho chúng có cùng đơn vị và phạm vi đo lường, tạo điều kiện thuận lợi cho mô hình học máy

Trang 14

• Loại bỏ ảnh hưởng của giá trị ngoại lệ (outliers): Các giá trị ngoại lệ có thể ảnh hưởng đáng kể đến mô hình học máy, đặc biệt là các thuật toán dựa trên khoảng cách như K-means hay K-nearest neighbors Tiêu chuẩn hóa giúp giảm ảnh hưởng của giá trị ngoại lệ bằng cách biến đổi dữ liệu thành các giá trị có phân phối chuẩn

- Thực hiện

Qúa trình tiêu chuẩn hóa đặ trưng bao gồm 4 bước như sau:

• Tạo một bản sao của dữ liệu gốc để không làm thay đổi dữ liệu ban đầu

• Tạo một subset của dataframe bằng cách loại bỏ các đặc trưng liên quan đến việc chấp nhận giao dịch và khuyến mãi do đây là các thuộc tính không liên quan có thể ảnh hưởng đến quá trình phân cụm

• Tạo một đối tượng StandardScaler và phù hợp với dữ liệu trong subset

• Sử dụng scaler để chuyển đổi dữ liệu trong subset, tạo ra một dataframe mới với các đặc trưng đã được tiêu chuẩn hóa

Hình 8: Dataframe của bộ dữ liệu sau khi được tiêu chuẩn hóa

3 Giảm chiều dữ liệu

Trong bài toán này, có nhiều yếu tố được dựa vào để thực hiện phân loại cuối cùng Những yếu tố này thực chất là các thuộc tính hoặc đặc trưng Số lượng đặc trưng càng cao, càng khó để làm việc với nó Nhiều trong số những đặc trưng này có mối tương quan với nhau và do đó chúng trở nên dư thừa Đó là lý do tại sao em sẽ thực hiện giảm chiều dữ liệu trên các đặc trưng đã chọn trước khi đưa chúng vào một bộ phân loại

PCA (Principal Component Analysis) là một phương pháp phân tích đa biến được sử

dụng để giảm chiều dữ liệu Nó giúp chúng ta hiểu cấu trúc của dữ liệu và tìm ra các thành phần chính (principal components) quan trọng nhất trong dữ liệu

Trang 15

Ý tưởng chính của PCA là chuyển đổi tập dữ liệu gốc từ không gian có số chiều cao thành không gian mới có số chiều thấp hơn, sao cho mỗi thành phần chính giải thích được phần lớn sự biến động trong dữ liệu Các thành phần chính được sắp xếp theo độ quan trọng, với thành phần chính đầu tiên giải thích sự biến động lớn nhất trong dữ liệu, và các thành phần chính sau giải thích phần biến động nhỏ hơn

Quá trình PCA bao gồm các bước sau:

• Chuẩn bị dữ liệu: Tiền xử lý dữ liệu bằng cách loại bỏ các giá trị thiếu, chuẩn hóa dữ liệu nếu cần thiết

• Tính toán ma trận hiệp phương sai: Tính toán ma trận hiệp phương sai từ dữ liệu để đánh giá mức độ tương quan giữa các biến

• Tính toán các thành phần chính: Sử dụng phương pháp giá trị riêng và vectơ riêng, tính toán các thành phần chính và xếp chúng theo thứ tự quan trọng

• Lựa chọn số thành phần chính: Xác định số lượng thành phần chính cần giữ lại dựa trên tỷ lệ phần trăm của phương sai giải thích

• Chiếu dữ liệu: Chuyển đổi dữ liệu gốc vào không gian mới được tạo bởi các thành phần chính đã chọn

Trong bài toán này em sẽ giảm số chiều của dữ liệu xuống còn 3 Bảng tóm tắt về thông tin đã được giảm chiều có thể được xem ở hình 9

Hình 9 Bảng tóm tắt dữ liệu được giảm chiều

Trang 16

Hình 10 Biểu đồ 3D của dữ liệu sau khi được giảm chiều

Chương III: Tổng quan về thuật toán k-Means Clustering,

Agglomerative Clustering và phương pháp xác định nhóm tối ưu Elbow

1 Thuật toán k-Means Clustering

a K-Means Clustering là gì?

K-Means Clustering là một thuật toán phân cụm trong lĩnh vực Machine Learning và Data Mining Thuật toán này được sử dụng để phân loại các điểm dữ liệu thành các nhóm (clusters) dựa trên đặc trưng và sự tương đồng của chúng

b Lịch sử của thuât toán k-Means

Thuật toán K-Means Clustering được giới thiệu lần đầu vào những năm 1950 bởi nhà toán học người Mỹ Stuart Lloyd Ban đầu, thuật toán này được gọi là "phân cụm Lloyd" và chỉ áp dụng cho việc giải quyết bài toán cụm (clustering) trong lĩnh vực nén

Ngày đăng: 25/05/2024, 15:54

Tài liệu cùng người dùng

Tài liệu liên quan